需求分析
系统有千万级的禁词需要去过滤
当中包含人名 特殊符号组成的语句 网址 单字组合成的敏感词 等等
初步设计
1.解决千万级禁词存储及查找问题
2.解决被过滤文本内容过多问题
详细设计
1.采用ES作为禁词库 千万级数据检索时间在毫秒级满足需求
2.不适用分词器需要完整匹配 分词后很多词都是合法的 组合之后才是敏感词
3.被过滤文本内容分词不完整 利用IK分词器分词结果不适合现在的业务场景
只能采用字符串分割的方式来匹配ES库
带来的问题就是效率低下同步多线程下千字也需要将近4秒
考虑采用异步模式来解决大数据量需要审核状态
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/hz/143082.html