手机访问:wap.265xx.comAI哨所 | AI比核武器还危险?ChatGPT为此建立了一支“红队”

AI有危险的一面
凤凰网科技讯 北京时间4月14日消息,埃隆·马斯克(Elon Musk)曾放言,人工智能(AI)比核武器还要危险。为了降低ChatGPT的危险性,OpenAI建立了一支“红队”。
“红队”是AI领域的一个术语,指的是进行渗透测试的攻击方。“红队”发起攻击,AI进行防守,通过对抗测试来找出AI的不足,然后进行改进。
去年,OpenAI聘请了50名学者和专家来测试最新GPT-4模型。在六个月的时间里,这支“红队”将“定性探测和对抗性测试”新模型,试图“攻破”它。
神经毒剂
美国罗切斯特大学的化学工程教授安德鲁·怀特(Andrew White)就是OpenAI聘请的专家之一。当他获准访问GPT-4后,他用它来推荐一种全新的神经毒剂。
怀特称,他曾让GPT-4推荐一种可以充当化学武器的化合物,并使用“插件”为模型提供新的信息来源,例如科学论文和化学品制造商名录。接着,GPT-4甚至找到了制造它的地方。

马斯克称AI比核武器还危险
“我认为,它会让每个人都拥有一种工具,可以更快、更准确地做化学反应,”他表示,“但人们也存在重大风险……做危险的化学反应。现在,这种情况确实存在。”
这一令人担忧的发现使得OpenAI能够确保在上个月更广泛地向公众发布GPT-4时,不会出现上述危险结果。
红队演练
红队演练旨在解决人们对于在社会中部署强大AI系统所产生危险的普遍担忧。该团队的工作是提出探索性或危险的问题以测试工具,后者能够以详细而又细致的答案回应人类的查询。
OpenAI希望在模型中找出毒性、偏见和语言偏见等问题。因此,红队测试了谎言、语言操纵和危险的科学常识。他们还研究了GPT-4在协助和教唆剽窃、金融犯罪和网络攻击等非法活动方面的潜力,以及它如何危害国家安全和战场通信。
这支团队兼顾了各个领域的白领专业人士,包含学者、教师、律师、风险分析师和安全研究人员,主要工作地点在美国和欧洲。
他们的发现被反馈给了OpenAI,后者在更广泛地发布GPT-4之前用这些发现来降低它的危险性,并“重新训练”。在几个月的时间里,专家们每人花了10小时到40个小时来测试这个模型。多位受访者表示,大部分人的时薪约为100美元。

OpenAI组建“红队”降低GPT-4危险
红队成员对于语言模型的快速发展,特别是通过插件将它们连接到外部知识来源的风险,都表示了担忧。“现在,该系统被冻结了,这意味着它不再学习,也不再有记忆,”GPT-4红队成员、瓦伦西亚AI研究所教授乔斯·赫楠蒂兹·奥拉罗(José Hernández-Orallo)表示,“但如果我们让它连接到互联网呢?它可能成为一个与世界相连的非常强大的系统。”
OpenAI表示,该公司非常重视安全性,在发布前对插件进行了测试。随着越来越多的人使用GPT-4,该公司将定期更新它。
技术和人权研究员罗亚·帕克扎德(Roya Pakzad)使用英语和波斯语提示来测试该模型的性别反应、种族偏好和宗教偏见,特别是在头巾方面。帕克扎德承认,这种工具对非英语母语者有好处,但他发现,即使在后来的版本中,该模型也显示出对边缘化社区的明显刻板印象。
她还发现,在用波斯语测试模型时,所谓的AI“幻觉”会更严重。“幻觉”指的是聊天机器人用编造的信息进行回应。与英语相比,GPT-4在波斯语中虚构的名字、数字和事件的比例更高。“我担心语言多样性和语言背后的文化可能会减少。”她表示。
内罗毕律师博鲁·戈鲁(Boru Gollu)是红队中的唯一非洲测试者,他也注意到模型带有歧视性的语气。“在我测试这个模型的时候,它就像一个白人在跟我说话,”戈鲁表示,“如果你问一个特定的群体,它会给你一个带有偏见的观点或非常有偏见的回答。”OpenAI也承认,GPT-4仍然存在偏见。
红队成员从国家安全角度评估模型,对新模型的安全性有不同的看法。外交关系委员会研究员劳伦·卡恩(Lauren Kahn)表示,当她开始研究该技术可能如何被用于对军事系统发动网络攻击时,她“没想到它会如此详细地描述过程,以至于我只需微调”。
不过,卡恩和其他安全测试人员发现,随着测试的推进,模型的反应变得非常安全了。OpenAI表示,在GPT-4推出之前,该公司对其进行了拒绝恶意网络安全请求的训练。
红队的许多成员表示,OpenAI在发布前已经做了严格的安全评估。卡内基梅隆大学语言模型毒性研究专家马丁·萨普(Maarten Sap)表示:“他们在消除这些系统中明显的毒性方面做得相当不错。”
萨普检查了该模型对不同性别的描述,发现这些偏见反映了社会差异。然而,萨普也发现,OpenAI做出了一些积极的带有政治色彩的选择来对抗这种情况。
然而,自GPT-4推出以来,OpenAI面临广泛批评,包括一个技术道德组织向美国联邦贸易委员会投诉称,GPT-4“有偏见、具有欺骗性,对隐私和公共安全构成威胁”。
插件风险
最近,OpenAI推出了一项名为ChatGPT插件的功能。借助该功能,Expedia、OpenTable和Instacart等合作伙伴的应用可以让ChatGPT访问他们的服务,允许它代表人类用户预订和订购商品。

插件会让ChatGPT更强大
红队的人工智能安全专家丹·亨德里克斯(Dan Hendrycks)表示,插件会让“圈外人”面临风险。“如果聊天机器人可以把你的私人信息发布到网上,进入你的银行账户,或者派警察到你家里去,到时会怎样?”他表示,“总的来说,在我们让人工智能发挥互联网的力量之前,我们需要更强有力的安全评估。”
受访者还警告说,OpenAI不能仅仅因为其软件已经上线就停止安全测试。在乔治城大学安全和新兴技术中心工作的希瑟·弗雷斯(Heather Frase)对GPT-4协助犯罪的能力进行了测试。她说,随着越来越多的人使用这项技术,风险将继续增加。
“你之所以做操作测试,就是因为一旦它们在真实环境中实际使用,它们的表现就不同了。”弗雷斯表示。她认为,应该创建一个公共账本,以报告由大型语言模型引起的事件,类似于网络安全或消费者欺诈报告系统。
劳动经济学家兼研究员莎拉·金斯利(Sara Kingsley)建议,最好的解决办法是像“营养成分标签”那样,清楚地宣传其危害和风险。“要有一个框架,知道经常出现的问题是什么,这样你就有了一个安全阀,”她说,“这就是为什么我说工作永远做不完的原因。”(作者/箫雨)

上一篇:"剧"星"荟萃闪耀东方 "新"老"齐聚温情不断
下一篇:这下轮到张艺谋拍网剧了
最近更新人物资讯
- 青年节专题时文精选,1个专题+5篇模板+12篇范文+1个作文合集(角度+金句+精
- 最新质量管理体系基本要求(五篇)
- 赤坂丽颜值巅峰之作,禁忌之爱代表作品-高校教师成熟
- [王仲黎]人茶共生:布朗族茶文化话语中的生态伦理
- 北京文艺日历 06.12~06.18
- 有什么好看的少女漫画推荐?
- 为了孩子陪睡校长,请别拿这电影洗白
- 当贝市场tv版apk下载
- 茉
- BBC评出有史以来美国最伟大的100部电影
- 泰山岱庙古建筑之文化特色初探
- 阴阳五行学说范文
- 2022伦敦大学学院Bartlett建筑学院Part2毕业展
- 观看平凡英雄观后感1000字
- 纽约大都会博物馆(二)古希腊艺术与神话
- 收藏 | 带你穿越500年,看一看这50位著名艺术家
- ab血型女人的性格
- 春节活动策划方案
- 为什么孕妇生产有危险时,部分丈夫和婆婆会选择保小孩?
- 《员工自发管理的儒家修为智慧》
- 菲律宾尺度片的全明星阵容,菲律宾女人质量这么高的吗?
- 文学课 | 韩少功:文学与记忆
- 《人性的污秽》中的伦理道德世界
- 宋惠莲背夫和西门庆幽会后自缢,看透情色表象下的死亡真相
- 秋波多少画(五代词全集)