欺骗新罪犯人工智能软件担任首席执行官

(Unsplash照片)据美国运通网站19日的一篇文章称,世界上已经发生了多起使用“Deepfakes”软件合成CEO音频来欺骗公司的事件。

“深度假货”原本是一款人工智能深层变脸软件。通过技术,视频中的脸可以变成另一个不相关的人。目标角色的身体和面部会做一些他们从未真正做过或说过的事情,就像源视频中的角色一样。

这项技术最初出现在几年前,当时它还相对粗糙。

大多数早期用户用它来改变名人的面孔来伪造他们的色情视频。

但是根据Aicredible基金会的一份报告,这项技术正在从色情转向犯罪。

在那里,犯罪分子利用这项技术冒充公司的首席执行官。

但目前,犯罪分子似乎在使用“深度假货”的音频功能而不是视频来实施欺诈。

(图来源:BING)欺诈者使用人工智能程序模仿各公司首席执行官的声音。该节目筛选了他们参与的财务报告电话会议、YouTube视频、ted演讲和其他内容,然后根据他们的演讲时间安排和组合这些材料。

大型网络安全公司赛门铁克(Symantec)表示,它已经目睹了三起针对私营公司的音频攻击,都取得了成功。

在这三次攻击中,每家公司的“首席执行官”都会打电话给高级财务官要求紧急调动。

英国广播公司首次报道了这次袭击。

每家公司都被盗了数百万美元,但公司名称没有披露。

(来源:必应)深度假货(Deep Fakes)的伪造音频功能对企业构成了不可低估的威胁。

虽然目前只有一些人使用“DeepFakes”音频冒充公司CEO,并要求公司会计部门在“紧急情况下”电汇100万美元给他们,但这项技术也可能被用于破坏活动,这是另一回事。

如果竞争对手——甚至是一个民族国家——希望苹果的股价下跌怎么办?只需要一段“深度骗子”的音频剪辑,据称是蒂姆·库克与某人私下谈论苹果销量下降的视频——股市可能在几秒钟内蒸发数十亿美元。

不幸的是,目前还没有可靠的工具可以在网络上轻松自动地识别这些深度伪造的视频。

换句话说,即使我们可以揭穿一个虚假的视频或音频,损害实际上是在它被发布的时候发生的。

李思琪做了特别声明:如果本网站转载或引用的图片和文字侵犯了您的合法权利,请联系本网站,本网站将及时更正和删除。

发表评论