在飞速发展的今天,越来越多的人们对AI技术的应用抱有极大的期待。然而,正如万物一样,技术也有其两面性。最新的AI合成语音和“换脸”技术,虽然带来了前所未有的便利和娱乐,但也被不法分子利用进行诈骗和侵犯他人权益。
AI合成语音是一种使用AI技术来合成人类语音的技术。经过多年的研究和发展,这项技术已经越来越逼真,对话效果越来越好。然而,这也为诈骗分子提供了新的机会。据报道,最近美国和加拿大各地出现了多起使用AI合成语音进行电信诈骗的案例,很多受害者都是老年人。这些犯罪分子能够使用AI合成技术模仿受害者家人的声音进行诈骗,让受害者误以为自己的亲人需要帮助。
根据相关数据显示,现在的AI技术只需要几秒钟的对话就能够准确模仿人的声音,并且具有很高的相似度。加拿大警方表示,最近加拿大多地都发生了声音冒充新人的诈骗案件,涉案金额已经达到了数百万元。而这些被诈骗的老年人称,犯罪分子打来的电话和自己儿子的声音一模一样。在美国,类似的诈骗案件也在近期呈上升趋势。
除了AI合成语音,AI“换脸”技术也带来了类似的安全隐患。AI“换脸”可以将一个人的脸替换成另一个人的脸,这项技术已经在网络上广泛传播。人们可以轻松地通过应用程序或网站来制作出这种虚假视频。然而,这种技术同样被不法分子利用来进行诈骗和侵权行为。
有报道称,一些不法分子利用AI“换脸”技术制作虚假视频进行诈骗,甚至利用该技术侵害他人肖像权。这种虚假视频制作得越来越逼真,越来越难以区分真假。这也给社会治安带来了新的威胁,让人们对新技术的应用感到焦虑。
版权声明:内容来源于互联网和用户投稿 如有侵权请联系删除