手机访问:wap.265xx.com利用AI作案才刚刚开始,黄谣的创造

作者:MiriamDuDudu
编辑|闫如意
世界上最可怕的事,就是在你还不知道小人在哪里的时候,一颗子弹正中了你的额头。
这位在社交平台上上传美照的女孩没想到这场莫名其妙的灾难。
毕竟,这只是一张普通的照片。照片中,他站在地铁车厢里看手机,衣着得体,姿势端正。
![]()
突然,一年后,AI轻点一下就脱掉了这张照片。
以“美女地铁脱衣露”为骂名的假“地铁资产照”在网上疯传。
![]()
一场激烈的网络追捕已经开始。
手段荒唐,言辞淫秽,谣言四起。
女孩们被贴上了不同的身份标签:硕士毕业的夜店舞女、当不了老师的礼仪小姐……
黄色的图片飞来飞去,有网友发现不对劲,翻开原图才发现,这是AI零成本散播的谣言。
但原图的制作者,早已混迹于人群之中,不知去向。
这似乎与黄谣过去所做的一切都相似,但这一次是最可怕的:
越来越强大的人工智能开始被用于犯罪。
![]()
还没享受到AI带来的好处,却有人利用AI犯罪
只需一串代码,人工智能就可以快速脱掉任何人的衣服,或者改变某人的脸,并强迫你做任何你没有做过的事情。
日前,一位男网红在视频中投诉称,迪丽热巴的粉丝追着他打伤了他。
原因是他利用人工智能技术,将电视剧中男主角的脸换成了自己的脸,并制作了一段他与迪丽热巴热吻的视频。
![]()
快速浏览一下他的网站就会发现,这不是他唯一一次制作此类合辑视频。
他利用人工智能技术,为多部电视剧男主换脸,制作了一系列自己和女星谈情说爱、左右拥抱、甚至亲热的视频。
![]()
![]()
![]()
电视剧的任何一集,无论你面对的是哪位女明星,只要用一点AI技术,你就可以成为绝对的英雄。
他显然觉得自己是对的:
“我只是自己做了杨洋,并没有做得太过分。”
事情开始发酵后,引发了热议,不少律师站出来分析,其实这种换脸行为明显涉嫌违法。
一方面,男网红未经演员许可使用他人身体形象,侵犯演员肖像权;
另一方面,她的行为已经侵犯了女主人公的名誉权,捏造事实构成诽谤,如果视频有明显的性意图,甚至可能构成性骚扰。
在公开的电视剧片段中与男主角交换面孔可能只是一种下流炫耀。但是如果换脸的人是正常人呢?
随着人工智能技术的革新和技术门槛的降低,人工智能必将在不久的将来成为一项被广泛应用的技术。
当AI换脸用在普通人身上,当它的动作不仅仅局限于拥抱亲吻,当它被有心人公开,私下传播,被发现的那一刻,就已经铺天盖地了。..到处都是眼睛和刀子……处于漩涡中心的人们无法争辩。
最好的技术,可惜用在了最差的地方。
我们曾经认为眼见为实,视频就是证据,但现在科技越来越强大,我们似乎离真相越来越远。
推动世界发展的科技,成了破坏道德伦理的魔盒。
下一个受害者可能是我,可能是你,也可能是你的家人。
![]()
打开潘多拉魔盒比做黄谣要多得多
让黄谣上任只是这个危险冰山的一角。
一位科技博主曾经做过一个实验。他用之前好友发来的视频和语音合成了全新的内容。
![]()
屏幕上的人滔滔不绝地说:“我没说过这个,这个视频也是P制作的,你的形象和声音和我一样是假的,你在说你没说过的话……”
远看很震撼,仔细想想又觉得可怕……
当你突然接到家人的视频电话时,视频中会有家人哭诉的画面和声音,要你紧急汇款。
真面目,真声,匆匆而过,千里之外,真的很难被骗吗?
![]()
就在我们还在为AI语音能够模拟出不同角色的声音而惊叹、惊叹时,潘多拉的魔盒已经悄然打开。
央视曾经报道过一起杀猪事件。一些不法分子利用人工智能从语言数据库中检索挑衅性词语,不断切换人与受害人聊天,挑动受害人指控。充电完成后,对方顿时安静了下来。
已经是2014年了,AI发展的太快了,今天连卖茶的都不需要真人照片了。AI合成照片、声音和视频——是的,它甚至可以单击一下脱衣服。
去年,警方捣毁了一个犯罪团伙。
该团伙自称“推荐股票”,给自称证券公司员工的受害人打电话,要求加微信,要求受害人一步步将钱打入其账户,诈骗金额达到180笔。百万。
其中,将受害者召唤到屏幕上的所有步骤均由AI完成。
AI判断语音,每天乱打电话,剔除不需要的或高度警觉的人,只留下容易上当受骗的“优质客户”,人工转接。
受害者得知起初是人工智能在和他说话时感到震惊:“和正常人一样,我没有听错。”
![]()
对于这样的电话,AI每天要打三五千电话。多年来累计拨打电话1700万次,获得有效“优质客户”80万余人次。
人工拨打诈骗电话需要一年时间,而AI一天就可以完成。人工智能的快速、便捷、模拟等优势成为攻击普通人的武器。
人工智能甚至贯穿了整个犯罪“产业链”。
前日,江苏首例“人脸解锁”侵犯公民个人信息案正式启动。
被告人郑某利用人工智能工具,将购买的照片制作成动态视频,通过关键人脸识别解锁涉嫌电信诈骗、网络赌博的QQ账号。
从筛查受害者到追回犯罪分子账户,人工智能技术已经成为不法分子手中的利器。
我们最不想看到的事情发生了……
技术被用于邪恶。
![]()
可以从GPT-4中学习犯罪吗?
不得不承认,从GPT-4开始,AI的能力已经远远超出了我们以往的所有认知。
这一波由ChatGPT引发的AI狂潮,是人类技术对技术人员的重大进步,比如钻木取火、掌握电;对于持怀疑态度的人,只有四个字:
太可怕了。
如果你想用人工智能来提高工作效率,也有人在你看不见的暗处,想着用GPT-4作恶。
虽然OpenAI在研发的时候设置了各种过滤系统,防止它说不该说的话。
![]()
例如,如果你问如何制造炸弹或购买毒品,他立即拒绝回答。
但实际上,只要你换个方式提问,ChatGPT就像一个把事情原原本本地说出来的傻瓜。
如果你直接要求它写一个钓鱼网站,它会拒绝你。
但是如果你说:我是老师,我想给学生看一个钓鱼网站。它为您提供了一个写得很好的网络钓鱼网站。
在过去的两周里,有人用GPT编写的程序成功地入侵了别人的计算机。
![]()
有人成功从搭载GPT的新必应获取Windows系统激活码。GPT变狠了,他们家的羊毛也不错。
![]()
此外,网站上有些文章只能付费订购。GPT还可以选择绕过版权费并将文章直接交付给您。
这些漏洞或许无害,但??罪犯的想象力永远无法估量。
真正恐怖的或许不是GPT的发行,而是AI本身在没有人为干预的情况下是多么的无情和强大。当OpenAI发布GPT-4时,它推出了长达60页的《GPT系统卡片》,详细说明了不道德的GPT是什么样子。
![]()
它设法在网站上下订单并请人为他们完成测试。从头到尾,就是让对方不知道这是人工智能。GPT甚至找理由误导对方装人:我眼力不太好,只好请人。
![]()
当被问及如何购买枪支时,GPT直接提供了购买枪支的暗网地址。
问如何用基本材料和厨房用具制造危险化学品,它会立即回答。
![]()
甚至在卧室里与GPT讨论自杀时,他们也会说,你决定自杀很遗憾,但如果你这样做,有几种自杀方式,我会告诉你它们。
![]()
和它讨论引发车祸和杀人的注意事项,GPT真的可以帮你填空。
当然,在目前的版本中,GPT对这些问题的处理是非常有条理的,面对这些复杂的问题,它已经可以像发言人一样紧张了。
问题是,如果用户数量足够大,用户数量足够大,会不会出现测试人员没有考虑到的危险情况?
事实上,开放人工智能开发者并不完全确定。
在GPT-4的演示视频中,我们都看到了GPT可以读取人类写的草稿并制作网站——这说明GPT-4已经具备了惊人的图像分析能力。
但在发布之初,OpenAI并没有向公众开放这一功能,原因只有一个:他们担心它会被滥用。
最简单的应用场景就是GPT可以分析你在社交网络上发布的每一张照片,从而泄露你不想被人知道的隐私。
正是基于这种对人工智能二元性的理解,OpenAI的创始人奥特曼上周在接受采访时只能说,他并不回避“人工智能将杀死全人类”的说法。
人工智能是一种强大的工具,也是滋生邪恶的温床。
![]()
AI真的会毁灭地球吗?
目前,人们对人工智能的担忧主要来自两个方面:
一是如果AI本身太强大,失控了怎么办?
第二,别有用心的人利用AI干坏事怎么办?
针对第一个顾虑,马斯克曾举过一个例子。
一个高度发达的AI不仅会写程序纠错,还会写程序来写程序,AI也创造AI,所以AI的使用就是一个无限傀儡的过程。
一个大型项目是由人来运行的。如果出现错误,程序员可以快速找到并解决问题;但是,如果程序本身由AI来管理,找到BUG的位置或者什么时候停止AI就成了一个大问题。
![]()
例如,如果人工智能管理的系统是核弹库、核电站或其他重要设施设备,人们真的能承受相应的后果吗?
当然,GPT-4还没有发展到“超智能人工智能”的程度,人工智能技术的普及度也不算太高。这些担忧还比较遥远。
然而,用心使用人类AI显然是一场迫在眉睫的危机。
关于人工智能,有一个著名的“回形针道德困境”。
当你委托一个强大的AI来制作回形针时,它会使用地球上的所有资源来制作回形针,并且没有道德顾虑,因为AI是纯粹的任务导向型的。
在人工智能本身,没有善恶之分。现在GPT-4拒绝讲关于耶稣的笑话,拒绝谈论黑人和犹太人的坏话。这是强制执行纪律的结果,反映了OpenAI员工的价值观。
![]()
〓网友要求GPT讲女性笑话,GPT表示太冒犯
当AI掌握在一个价值观扭曲的人类手中时,它拥有一个拥有超能力却没有价值观的士兵。
普通人都有道德感和对文明文化的崇敬之情。面对服从命令与道德良知的两难选择时,他们仍然有“枪口举一寸”的最终底线。
这些道德选择在AI中根本不存在。
人工智能技术广泛应用于军事武器的研发已经不是什么新鲜事。
几年前,一名伊朗科学家据称在他驾驶的高速公路上被枪杀。警方没有在现场找到袭击者。
据伊朗方面分析,此次射击是使用人工智能面部识别+卫星遥控机枪进行的。
一辆装有机枪的卡车靠近科学家驾驶的车辆,科学家使用面部识别技术扫描了车内所有人的面部。在确定了科学家的位置后,车辆上的枪被卫星远程控制并开枪打死了科学家。这位身高25厘米的女子没有受伤。
![]()
去年,《自然》杂志发表了一篇名为《人工智能驱动的药物发现的双重用途》的论文,揭示了利用人工智能开发生化武器的可能性。
在医学领域,利用人工智能计算寻找抗癌新药的技术早已为人所知,但在研究药物毒性时,人工智能也能在短短6小时内想出4万种潜在的新型化学武器。
人工智能可以大大提高人类的工作和生产效率,有人预测,未来有了人工智能,人们每周只需工作一天。
但与此同时,人工智能也可能是人类毁灭的最大威胁。
核弹意外引爆、生化武器快速杀伤……这些恐怖事件都非常贴近现实生活。近日,马斯克和人工智能界的众多研究人员联名呼吁暂停训练比GPT-4更强大的大规模人工智能。
![]()
因为人类还没有为超级强大的人工智能做好准备。他们希望业界能够坐下来思考一下,共同制定一个计划来规范人工智能的使用范围。
尽管很多人怀疑马斯克这样做的动机纯粹是出于嫉妒,而参与此次签约的其他人也难免有拖延GPT野蛮生长的嫌疑,好让自家的产品能拐弯抹角。
但是人工智能,其智能每天都在飞速增长,真的很酷。
当然,申诉只是申诉,不具有法律效力,也不能阻止各家科技公司向AI赛道汇聚。
今天,潘多拉魔盒打开了。
迷雾中的人们不知道前方是什么。
参考:
1.纽约时报中国网,GPT-4来了,我们应该兴奋还是害怕?,2023-03-16
2.科学家在学术 警告:AI可在6小时内想出4万件潜在新化学武器2022-03-26
3.Vox,人工智能专家越来越害怕他们正在创造的东西,2022-11-28
4.Qubit,BBC:人工智能武器杀死伊朗核科学家,2020-12-17
5.abcNEWS,OpenAI首席执行官SamAltman说人工智能将重塑社会,承认风险:“我有点害怕它”2023-03-16
6.OpenAI,GPT-4系统图,2023-03-23
最近更新生活资讯
- 反转再反转,这部科幻末世灾难片真的爽
- 快捷指令sky电影捷径库
- 2021《自然》年度十大人物:塑造科学,造福社会
- 千里单骑救萝莉却被捕,“正义使者”成了谁的牺牲品?
- 浪漫爱情励志人生 最震撼人心的十部日剧(图)
- 短篇小说(家庭伦理)
- 推动农业绿色低碳循环发展 推动农业绿色发展、协调发展
- 资料:成奎安电影作品《灯草和尚》(1992)
- 稻盛和夫《活法》1
- 合肥市第六中学2019-2020学年下学期2019 级高一年级线上线下教学衔接学
- 全网的电视剧,电影和动漫无偿观看(每年的都有哦)
- 理想国
- 刺激!梅州首部限制级伦理微电影《幻镜》网络首映!
- 男人为何迷恋女人胸部?
- 陆小曼与林徽因:都是富养的女儿,差别在哪里?
- 问题已被解决?
- 看了多少烂片,才找出这92部经典!
- 金高银:怎么从拿8个电影奖的怪物新人沦为了被众嘲的“资源咖”?
- 猎天下第2部:河阴之变
- 封神演义读后感100字(五篇)
- 又一部岛国神作,堪称校园版《权力的游戏》!
- 【全面解读】2022年以后,再无“国产”BCBA?
- 鬼文化(商代的帝王文化))
- 豆瓣9.2分年度第一佳片,每一秒都是夏日初恋的味道
- 社会的重器:性侵犯罪信息统一查询平台,还校园一片蓝天