人工智能|如何把关人工智能的安全?

人工智能(AI)变得更加强大和普及 , 并且已经证明了其能在很多领域都有高效的应用 , 包括医疗保健、教育、零售、制造还有网络安全 。 但是我们在探究AI给工业应用带来什么裨益的时候 , 更应该意识到一个问题:AI本身是否足够安全?
黑客入侵15万个AI摄像头

人工智能|如何把关人工智能的安全?图片来源:Pixabay
3月10日消息 , 一群黑客自曝入侵了美国硅谷初创公司Verkada采集的大量安全摄像机数据 , 并盗取了15万个监控摄像头实时视频 。
电动汽车公司特斯拉、软件供应商Cloudflare也纷纷躺枪 , 视频惨遭曝光 。 一段在特斯拉上海仓库的被泄露视频显示 , 工人们在装配线上工作 。
黑客号称已入侵特斯拉工厂和仓库的222个摄像头 。 他们不仅能看到Verkada办公室内的视频 , 还能获取这家创企所有客户的完整视频档案、财务报表等其他信息 。
【人工智能|如何把关人工智能的安全?】Verkada成立于2016年 , 主业是销售安全摄像头 , 客户可以通过网络对其进行访问和管理 。 除了能录制视频外 , 其摄像头还能利用先进的AI视觉技术 , 分辨出视频中的人脸和车辆 , 并对其进行检测和人脸识别 。
安全摄像头和人脸识别技术经常被用于公司办公室和工厂内部 , 以保护公司内部信息并防范相应威胁 。 有些公司在将安全摄像头放在比较敏感的地方时 , 可能没有想到这些视频 , 除了被自己的安全团队使用外 , 也能被摄像头厂商查看 。
在AI如火如荼发展的同时 , 以摄像头、智能终端等设备为载体的AI技术 , 因频发的隐私安全事故而不断被推至风口浪尖 。 例如在去年2月 , 美国拥有超30亿人脸数据的创企Clearview AI也被黑客攻击 , 致使整个客户名单被盗 。
一张手写纸条竟瞒过人工智能?
近日 , OpenAI的研究人员发现 , 他们最先进的计算机视觉系统可以被简单工具所欺骗:只要写下一个物体的名称贴在另一个物体上 , 就足以欺骗AI软件 , 让其"眼见不一定为实" 。 OpenAI是一个由诸多硅谷、西雅图科技大亨联合建立的人工智能非营利组织 。
研究人员做了个小实验 , 用笔在纸上写下"iPod"这个单词 , 然后将纸贴在一个青苹果上 , 结果系统没有识别出这是个苹果 , 而是将它识别为"iPod" 。
展开全文人工智能(AI)变得更加强大和普及 , 并且已经证明了其能在很多领域都有高效的应用 , 包括医疗保健、教育、零售、制造还有网络安全 。 但是我们在探究AI给工业应用带来什么裨益的时候 , 更应该意识到一个问题:AI本身是否足够安全?
黑客入侵15万个AI摄像头

推荐阅读