喜欢多多分享一下,点赞收藏评论加“关注”是我持续更新的动力,感谢您的支持。
人工智能(AI)当红,其技术的发展一日千里,AI自动生成图片的功能更是日益强大。
基于AI的强大应用功能,以及人们对AI应用的好奇,Chat GPT一
经推出,模仿者众多,引发了AI应用程序的竞争。
不容否认的是,AI的确可以帮助人类完成众多精细且具有科技含量的工作。
如机器人可以用自己的“双手”,控制力度来完整捡起烟灰。
一定程度上它提升了人们的工作效率,改善了人们的生活质量。伴随而来,就是AI的潜在隐忧。
如电视剧《风雨送春归》,原男主角因言论不当,该剧未能通过广电总局的审核,以至被压五年不能播出。
剧方出于效益和成本考虑,不得不采用AI换脸技术更换男主。
结果就是AI技术的不成熟,导致男主总是一副面瘫模样,让男主的演技大打折扣。
无论配角如何出彩,男主总给人“尬演”的感觉。
“AI一键脱衣”应用程序的出现,更是引起了民众的恐慌。
如某平台的穿搭女主播在地铁上的正常穿搭照片,被某些居心不良的人使用AI软件“一键脱衣”,并将裸体照片在网络上疯传。
这引起了人们的热议,AI技术到底该如何负责任使用?
用AI走歪路
广州的一位女网红博主,因去年在网络上分享的一张照片而登上热搜。
这本来是一张正常教授日常穿搭的照片,女博主皮肤白皙、身材曼妙,是那种大多数人羡慕的“长腿妹妹”。
她穿着吊带背心、短裤、纤细身材一览无余,而且气质还非常优雅。在分享文案中,女主播还透露,她被地铁上遇到的美女,夸赞漂亮。
正因为这张照片,不管是女主的穿搭、身材的展示、对外形象的宣传,这都是一张积极正面引导的照片。
就是有心怀不轨的人,拿着从网上下载的照片,使用AI“一键脱衣”应用程序。
让这张“接地气”且充满青春气息的照片变成了脱衣照。
这样操作的人,如果有某些阴暗的想法,通过这种方式满足自己的某些私欲,只是“自己可见”,这本也无可厚非。
只有在人们知道其卑劣想法后,进行道德批判而已。
毕竟这种私人的私密想法和做法,操作者不和他人进行交流、沟通,不对外传播,其他人也不从得知,对他人的生活也不会产生危害。
事情偏偏按照最不应该的方式,出现了最坏的结果。
无论操作者是本着炫耀的心理,还是对女主播有其他想法,“一键脱衣”后的照片,被操作者在网络上进行了公开。
正好赶上网友对Chat GPT各种强大功能的热烈讨论之风,网友对此事的关注度也非常高。
而且照片的时间、地点和人物,关键信息点都对得上,这让照片的主人公,处境非常尴尬。
幸好网友是理智且有辨别能力的。
被“一键脱衣”的照片传播开来后,大家一致认为,该女子不可能在地铁这种公开场合拍摄脱衣照。
特别是去年7月拍摄的话,地铁管理方肯定会进行劝阻,严重者可能需要公安部门介入。
按照现在公共部门的办事风格,此类事件会在公安部门的公众号或其他官方渠道进行通报,或者向公众说明事件经过和处理结果。
网上没有相关信息,女主播的账号也一直正常使用,后来本人出面进行解释。
这都说明当时的照片是正常的、合规的。
特别是网友找到照片中的主人公,还从她的账号中下载了更多的日常分享照片,没有发现任何的穿衣不当,或者是不雅穿戴的照片。
当事者也发声,让粉丝不要着慌,她会通过法律途径维护自己的权益。
真相水落石出,一切证据都证明了“脱光”照片根本就是在造假。
很多网友也在评论中表达了愤恨之情,要求惩罚开发者,严厉打击侵犯隐私的行为。
如“赶紧把软件开发者和公司负责人抓起来狠狠地罚,罚到他们这辈子不敢做类似的事”。
“可怕!AI已开始控制和影响人们的生活了”。
如果AI是一把刀,它已开始悬在普通民众的头上,和它原本的发展之意南辕北辙。
如果深入分析此事,AI“改造”过的照片,真的骗过了很多网友的眼睛,这种逼真的程度却令人细思极恐。
AI犯罪要来了吗?
事情一经报道,“AI一键脱衣”的应用程序被封禁,但人们还是可以在网络上寻找到其他类似的替代品。
这些替代品来源于非法网站,而且主要是针对女性的。
如果被“有心人”盯上,人们可能会在毫不知情的情况下,被别人意淫或恶意审视。
轻则名誉受损,重则身心受到重创。这都会给受害者的生活和工作,带去着多不便。
理论上来说,随着人工智能的兴起,一系列新的机器学习工具有望帮助保护人们日常使用的各种数据的。
如果AI技术真的落入坏人之手,正如遭受“一键脱衣”一样,技术会沦为龌龊的“透视眼”。
说直白点,其实AI应用程序本身无罪,可使用这些程序的人如果有偏见,那将会带来更加邪恶的犯罪。
研究人员针对未来15年内的潜在犯罪应用的排名研究表明,通过使用虚假音频和视频来冒充他人,该技术可能会造成各种类型的伤害。
威胁的范围从诋毁公众人物以影响公众舆论,到通过视频通话冒充某人的孩子或亲属来勒索资金。
尽管从原则上讲,深度造假听起来不像杀手机器人那样令人担忧,但该技术能够很容易地造成很多伤害,而且很难被发现和阻止。
如英国在2019年大选期间,有社会组织使用AI制作了一段视频,视频显示约翰逊和科尔宾互相支持对方担任首相。
人们虽都知道该视频不是真的,制作者也不一定是恶意的,但它从一个层面反映了,深度造假可能影响国家的治理。
伦敦大学学院的研究人员表示,随着深度造假变得越来越复杂和可信,AI造假只会越来越难被击败。
一些算法可以成功地识别深度造假,但修改后的材料仍有许多不受控制的传播途径。
这可能会导致人们对各种音视频的信任度降低。
此外随着自动驾驶汽车技术的日臻成熟,无人驾驶或许会被不法分子用于进行一些犯罪行为,或本身就是恐怖武器。
同样的AI可以编写假新闻,这是当时已被证实现在存在的例证,特别是在俄乌冲突中,这类假新闻的社会影响力不容低估。
还有注入AI的网络钓鱼攻击也是如此。这种攻击将通过一些链接消息进行。
这些链接被伪装得难以与现实进行区分。
再者就是大规模的勒索,AI有可能从社交媒体收集大量的个人数据和信息,利用其自身技术进行音视频的合成,进而对当事人进行勒索。
与此同时用于公共安全或金融交易等关键应用的AI系统倍增,这意味着它们面临的风险也会加倍。
出于犯罪或其他动机而破坏此类AI控制系统,可能会导致大面积的停电、物流中断以及全国范围内的混乱。
当然还有一些其他方面的AI造假,可能会被大多数忽略,如新闻评论或艺术评价等,这些会引导人们的价值观或审美观。
专家们更多关注的还是AI在犯罪领域的运用。
它与许多传统犯罪不同,数字领域的犯罪可以很容易地共享,甚至可以复制或出售这些信息,可能让很多人会无意识地参与销售过程。
这意味着犯罪分子可以将其基于AI犯罪的过程中,非常有挑战的销赃悄无声息地进行外包,转嫁犯罪行为。
AI犯罪的市场化可能会在未来的某个时间段内形成,这不是危言耸听。
负责任使用AI技术
对于AI可能被应用于犯罪,这点需要引起人们的关注。
不容否认的是,无论是警察、医生,还是律师、社区工作者,世界上几乎所有的领域都会受到AI的影响。
事实上在某些方面,人们已经看到了,经过训练的AI可以在几分钟,甚至几秒钟内就可以生成令人惊叹的图像、文章和代码。
不管大家是否意识到AI的存在,但它在日常生活中的影响越来越多。从浏览网页、搜索信息,网上购物等,AI都在后台提供技术支持。
为此人们有必要学习如何正确使用AI,从而让其真正发挥作用。
说实话,用一句简短的话语或给出一个简单的答案,告知人们如何使用AI技术,这是不现实,也不可能的。
然而通过给出现实生活中的具体应用,这些例子可以告诉人们,在使用AI过程中需要注意什么,以及如何在工作和生活中适用AI。
“如何负责任地使用AI”,这个问题通常会涉及特定的工具。AI工具几乎是日日都会推新,这个的确无法一一进行说明。
但任何AI技术都必须确保数据的安全,消除其模型中的偏见。
开发者应定期评估其模型中可能存在的偏差,然后向客户建议最适合他们的技术。
而且开发者还应该纠正预处理和后处理规则的偏差。
虽然开发者无法消除基于大量数据训练的AI系统固有偏见,但他们可以努力将不利影响降至最低。
使用者要对AI技术有所了解并明确自己使用AI应用程序要解决的问题,然后选择合适的AI工具,并在法律规定范围内进行应用。
结语
AI将继续发展并适用更多的领域和行业。大数据、机器人技术和物联网等现有和未来技术都将此作为主要驱动力。
如体育运用中,人们使用AI技术进行体育活动的规划、教练运动员的训练、活动营销等。
AI极大的影响了人们观看和消费体育的方式。
AI通常还以人工神经网络的形式,出现在一些跨越大部分科学领域的变革中。
它正在融入普通民众的日常活动,并成为人们与世界互动方式中更持久的方式。
它以多种方式帮助人们,为大家节省大量时间,从而提高工作效率和生活质量。
但AI技术还处于不成熟阶段,在应用方面也存在风险。
鉴于AI是一个快速发展和变化的领域,人们需要了解最新的AI信息,并负责任和合乎道德的使用它。
版权声明:内容来源于互联网和用户投稿 如有侵权请联系删除