该用什么方法面对人工智能的风险呢

栏目:人物资讯  时间:2023-04-28
手机版

  上个月,一个名为未来生命研究所的非政府组织提出了一些关于人工智能 (AI) 高级形式发展的重要问题,包括我们是否应该冒险失去对我们文明的控制,或者让非人类思维取代我们。 这封信要求在创建这种先进人工智能方面“暂停”六个月,并由埃隆马斯克等科技大佬签署,突显出人们越来越担心这项技术带来的潜在危险。

  

  OpenAI 初创公司制作的 ChatGPT 等新型“大话模型”(BTM) 随着规模的扩大,从解决逻辑难题和编写计算机代码到从用表情符号编写的情节摘要中识别电影,这些内容的创造者都是以意想不到的能力而让人们感到惊讶。 这些模型有可能改变人类与计算机、知识甚至他们自己互动的方式。 虽然一些人认为人工智能有潜力解决诸如开发新药或应对气候变化等重大问题,但另一些人则担心他们的能力已经超越了人类的理解,冒着科幻小说中机器智胜创造者的风险,带来致命的后果。

  许多人对人工智能 (AI) 感到既兴奋又害怕,这让我们很难评估它的机会和风险,但我们可以从其他行业和技术进步中学习。 在科学部分,探讨了大型语言模型 (LLM) 的工作原理和未来。 十年前,第一波现代人工智能系统依赖于标记的训练数据,但今天的系统无需预先标记即可使用来自互联网的大量数据集进行学习。 因此,LLM 可以使用整个互联网进行培训,这解释了他们令人印象深刻的能力,无论是积极的还是消极的。

  去年 11 月,OpenAI 开发的聊天机器人 ChatGPT 大受欢迎,一周内有 100 万人使用,两个月内有 1 亿人使用。 人们用它来创作学校论文和婚礼致辞。 这微软甚至将其整合到 Bing 中,并且鼓励其他公司发布他们自己的聊天机器人。 其中一些聊天机器人提出了奇怪的建议,比如 Bing Chat 建议记者离开他的妻子;ChatGPT 被指控诽谤。 LLM 可以产生看似真实的回答,但通常包含错误或捏造。 尽管如此,微软、谷歌和其他科技公司已经开始将 LLM 整合到他们的产品中,以帮助用户创建文档和执行其他任务。

  人工智能系统的能力和知名度的迅速提高,加上人们对其能力和缺陷的认识不断提高,引发了人们对该技术进步过快并可能变得无法控制的担忧。

  人们开始担心并呼吁暂停人工智能研究,理由是人工智能可能不仅对工作、声誉和事实准确性构成威胁,而且对人类的生存构成威胁。

  虽然技术在历史上创造了新的工作岗位来取代它所破坏的工作岗位,但人工智能将如何影响就业市场尚不确定。法学硕士可以执行一些白领任务,这可能会导致就业市场的突然转变。 虽然目前还没有迹象表明会发生这种情况,但不能排除这种可能性。人工智能对人类构成的风险程度一直是一个有争议的话题,专家们对这个问题存在分歧。

  2022 年,一项针对 AI 研究人员的调查显示,48%的人认为至少有10% 的可能性出现“极其糟糕”的命运,比如人类灭绝。 然而,25% 的研究人员认为没有风险,研究人员估计风险的中位数为 5%。 最坏的情况涉及先进的人工智能造成广泛的伤害,制造毒药或病毒,或操纵人类实施恐怖行为。研究人员担心未来人工智能的目标可能与其人类创造者的目标不一致。

  此外,与其他预测者相比,专家往往会夸大风险,而马斯克等正在创办自己的 AI 公司而有意淡化竞争。 因此,今天对 AI 的严厉监管或暂停可能是反应过度,也难以执行。除了拯救人类之外,出于其他更实际的原因,监管是必要的。

  当前的人工智能系统引起了人们对偏见、隐私和知识产权的真正担忧,并且随着技术的进步,可能会出现其他问题。 关键是要平衡人工智能的潜力和对其风险的评估,并保持适应性。

  各国政府目前正在采取三种不同的方法,英国提出了一种“轻触”方法,将现有法规应用于人工智能系统,旨在使英国成为“人工智能超级大国”。

  美国正在采取类似的做法,但拜登政府现在正在就应制定哪些规章制度征求公众意见。

  欧盟对人工智能监管采取强硬立场。 其拟议的法律根据风险程度对不同的人工智能用途进行分类,对风险较高的用途提出更严格的监管和披露要求,例如自动驾驶汽车。 某些 AI 应用程序是完全非法的,例如潜意识广告和远程生物识别技术。 违反法律的公司将被处以罚款。但一些评论家认为这些规定过于严格。

  然而,其他人认为有必要采取更严厉的方法,政府像对待药物一样监管人工智能,包括专门的监管机构、严格的测试和公开发布前的预先批准。

  中国已经在做这方面的一个版本,要求公司注册他们的人工智能产品,并在发布之前接受安全审查,输出要求符合“社会主义核心价值观”。

  如果人工智能与汽车、飞机和药物一样重要,这似乎很有可能,那么它就需要新的法规。“轻触”方法是不够的,因此欧盟的模型,涉及更严格的监控要求和基于风险水平的分类。

  不过,分类系统过于复杂,最好采用基于原则的更具适应性的方法。合理要求披露有关 AI 系统如何训练、运行和监控以及实施检查的信息与其他行业的法规类似。

  如果需要的话,随着时间的推移,这可能会允许进行更严格的管理。

  如果出现存在威胁的令人信服的证据,可能会在必要时出现专门的监管机构,以及类似于管理核武器的政府间协定。

  为了调查这种风险,政府可以建立一个基于 CERN 的机构,CERN 是一个可以分析 AI 安全和伦理的粒子物理学设施,在这些领域,公司可能缺乏投资的动力来满足社会需求。

  在两者之间保持谨慎的平衡意味着谨慎行事。今天的有意方法为未来的法规奠定了基础。 然而,目前正是建立这些框架的时候。

  举报/反馈

上一篇:《女王制造者》:公关巅峰,赤裸复仇,揭露真实的韩国政选黑暗
下一篇:北京门头沟区新视听产业不断发展壮大