您现在的位置是:网站首页> 应用推荐

图片敏感词顾虑

摘要

图片鉴黄和敏感词过滤

项目地址:https://github.com/infinitered/nsfwjs


网页测试地址:https://nsfwjs.com/


该模型主要包括五大标签:


绘画(Drawing):无害的艺术,或艺术绘画。


变态(Hentai):色情艺术,不适合大多数工作环境下观看。


中立(Neutral):一般,无害的内容。


色情(Porn):不雅的内容和行为,通常涉及生殖器。


性感(Sexy):不合时宜的挑衅内容。


项目2:



项目地址 :https://github.com/devzwy/open_nsfw_android


该项目支持色情图片离线识别(离线鉴黄),基于TensorFlow实现。识别只需200ms,可断网测试,成功率99%,调用只要一行代码,从雅虎的开源项目open_nsfw移植,tflite(6M)为训练好的模型(已量化),该模型文件可用于iOS、java、C++等平台,Python使用生成的tfLite文件检测图片的速度远远快于实用原模型。


项目3:



项目地址:https://github.com/yahoo/open_nsfw


项目更多介绍:https://yahooeng.tumblr.com/post/151148689421/open-sourcing-a-deep-learning-solution-for


该项目是由雅虎开源,自动识别图像(包括令人讨厌的图像和成人图像)不适合(SFW)/不适合工作(NSFW)。雅虎建议大家在使用时选择自己的阈值,因为应用场景和对 NSFW 标准的理解可能会有差异,所以开发人员最好根据自己应用对 NSFW 的定义来设定评估值。



词库:https://github.com/fighting41love/funNLP/tree/master/data

https://github.com/observerss/textfilter


Top