在图片中加入噪点就能骗过Google最顶尖的图像识别AI

最近,来自华盛顿大学网络安全实验室(NSL)的一组计算机专家发现恶意攻击者可以欺骗谷歌的CloudVision API,这将导致API错误地对用户提交的图像进行分类。 近年来,基于AI的图像分类系统变得...

最近,来自华盛顿大学网络安全实验室(NSL)的一组计算机专家发现恶意攻击者可以欺骗谷歌的CloudVision API,这将导致API错误地对用户提交的图像进行分类。 近年来,基于AI的图像分类系统变得越来越流行,并且该研究针对该图像分类系统。许多在线服务现在使用该系统来捕获或阻止某些类型的图像,例如暴力或色情图像,并且基于AI的图像分类系统可以阻止用户提交和发布禁止的图像。 虽然分类系统使用高度复杂的机器学习算法,但研究人员表示,他们发现了一种非常简单的方法来欺骗谷歌的云端视觉服务。 Google的Cloud Vision API存在漏洞 他们设计的攻击技术实际上非常简单。您只需向图像添加少量噪音即可成功欺骗Google的Cloud Vision API。噪音水平可以在10%到30%的范围内浮动,图像清晰度可以保证,这足以欺骗谷歌的图片分类AI。

为图像添加噪声也非常简单。整个过程不需要任何高端技术。您只需要一个照片编辑软件。 研究人员认为,网络犯罪分子可以利用这项技术传播暴力图像,色情图片或恐怖主义宣传图片。此外,Google自己的图片搜索系统也使用此API,这意味着当用户使用Google进行图片搜索时,很可能会搜索意外图片。 这个问题的解决方案很简单。 研究人员表示,解决问题就像攻击过程一样简单,因此Google工程师根本不必紧张。 为了防止这种攻击,谷歌只需要在运行图像分类算法之前过滤图片中的噪声。研究人员通过测试发现,Google的Cloud Vision API可以借助噪音过滤器对图像进行正确分类。

后来的话 研究人员在他们发表的论文中描述了这次攻击的全部技术细节,感兴趣的用户可以阅读论文[运输]。值得注意的是,这组研究人员使用了类似的方法来欺骗谷歌的云视频智能API [参考]。注意:它们每两秒在视频中插入一个图像。最后,Google的视频分类AI基于此重复图像对视频进行分类,并且分类不基于视频本身的内容。 *参考源:bleepingcomputer,FB小编Alpha_h4ck编译 黑客业务列表介绍和一般分类: 类别:攻击入侵破解开发 1:攻击业务订单:暂时取消所有此类业务订单[仅销售常规IDC流量] 2:入侵业务清单:包括网站源代码,办公系统,黑色系统,教育系统等。 3:破解业务类:软件,加密文件,二次打包,脱壳等。 4:二次开发业务清单:软件二次开发,源代码二次开发等 5:其他业务订单:特洛伊木马[通过所有防病毒],远程控制,特殊软件等 备注:未提及的业务订单可根据主要类别查询或直接联系客户服务。为避免浪费双方时间,请在咨询前阅读:业务交易流程及相关说明 注意:仅接受正式业务,个人无权接受。收集此内容。