智能

当心和你视频聊天的科技画中人物未必是他

新华社发 (徐骏 作)

通过人工智能换脸和拟声技术,10分钟内诈骗430万元;AI虚拟人在聊天中筛选出受害者,人工接力实施……近期,多起宣称利用AI技术实施的案件引发关注。

“新华视点”记者近日与门核实确认,“AI全国爆发”的消息不实,目前此类发案占比很低。但公安机关已注意到此犯罪新手法,将加大力度会同有关部门开展技术反制和宣传防范。

专家表示,由于使用边界不清晰,涉诈风险正在积聚,需要高度警惕。

■ “换脸”式引发焦虑:

你会被亲友的脸骗到吗?

近日,一起利用AI实施的案件被通报,该案中福州市某公司法人代表郭先生10分钟内被骗了430万元。据通报,骗子通过AI换脸和拟声技术进行操作。

该案后,不少报道提醒人们要警惕“AI潮”到来,并曝光了多起类似事件。如江苏常州的小刘,被骗子冒充其同学,用视频电话形式小刘信以为真,“借”了6000元给骗子。

那么,“AI潮”是否真的来了?

记者调查发现,这种高科技诈欺确实存在,但并不普遍。

一位民警告诉记者,这些高级别的诈欺活动必须具备:收集目标个人身份信息、大量面部图片、语音素材,以及通过人工智能生成假冒音视频;窃取微信号码;掌握目标个人的身份信息以及社会关系等条件。这意味着这样的犯罪成本非常高。

他认为:“相关报道对一些典型细节描述不够准确。”他说虽然这类涉及的人工智能参与的犯罪仍然是零星发生,但是值得高度关注,因为网络上的这些功能可能滥用。

公安机关研判认为,没有证据表明这个趋势已经成熟,而且当前没有大量此类事件发生。但他们也承认,这样的行为可能在未来变得更加可怕,因为随着人工智能技术不断发展,它们将能够做更多的事情,比如更精准地模仿声音,更逼真的三维建模等。

■ AI进入快速迭代期

涉诈风险正在积累

“当前,我们正处于一个非常关键时刻。”香港科技大学(广州)协理副校长、人工智能学域主任熊辉说。“未来几年里,我们可以预见到什么都能做到的场景。”

随着这一领域迅速进步,与之相关的问题也越来越重要,如如何保证数据安全?如何避免这种情况下的误解?

国家开发投资集团特级专家、厦门美亚柏科AI研发中心总经理赵建强表示:“我们正逐步看到这些合成模型开始渗透到我们的生活中。”

值得注意的是,即使对于普通用户来说,也有很多工具可以轻松实现这项功能。网络上出现了一系列教程,让任何想要尝试的人都能容易地学会使用这些软件。

北京市天元律师事务所合伙人杨虎城表示:“从现在的情况看,这些技术已经被不法分子利用。如果未来的违法犯罪或民事侵权问题因为这种原因而增加,那么我们就应该提前准备好应对措施。”

因此,无论是在法律层面还是在公共意识方面,都需要持续关注并采取行动,以防止这些新的威胁影响我们的生活。

你可能也会喜欢...