学者探索人工智能的伦理

栏目:科技资讯  时间:2023-07-29
手机版

  1941年,科幻小说作家Isaac Asimov在他的短篇小说《Runaround》中提出了“机器人三定律”:

  定律一:不能伤害人类,或看到人类受到伤害而袖手旁观;

  定律二:在不违反第一定律的前提下,机器人必须绝对服从人类给予的任何命令;

  定律三:在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。

  这些定律虽然来自科幻小说的世界,但现实世界也开始需要这些定律。本月,一家律师事务所向匹兹堡卡内基梅隆大学捐赠了1000万美元,用于探索人工智能或的伦理学。行业领导者最近成立了一个团体,称为人工智能合作伙伴关系,以惠及社会和人民。

  Peter Kalis是律师事务所K&L Gates的董事长。他表示,现在技术的发展超过了法律约束范围,因此出现了一些以前从未被认真考虑的问题。比方说,如果机器人变得非常聪明并且能够独立思考,那么你设法限制它们的自主权时它们会不会反抗呢?

  Kalis说:“专家表示,可能会发生这样的情况,你给机器人下达命令让它去上班,它却转过身来对你说:‘我想去海滩度假’。或者更危险的是,如果我们在战场上使用机器人,可能突然发现我方机器人更倾向于帮助敌方军队。”

  他表示,我们也希望有一天能有法律保障自由思维机器人的正常运行,但我们也必须用美国宪法来衡量这些法律。

  “每个人都应该受益于法律的平等保护,我并不认为人们会把人工智能机器人也考虑在内,”Kalis说道,“然而,我听说人们认为人工智能机器人应该取代法官。到了那时,对于任何法治国家来说,都会引起宪法和社会后果。”

  梅隆校长Subra Suresh表示,有了律师事务所的资助,学校将深入研究现在出现在自动化行业的一些问题。

  “在乘坐无人驾驶汽车时,”他说,“如果出了交通事故,我们应该采取什么政策?有哪些保险?谁来支付保险?”

  人们可以在试用无人驾驶汽车,因为Uber在匹兹堡试行无人驾驶汽车。Suresh说他很熟悉这个计划,但作为乘客来说仍有一些疑问。

  “几个月前,匹兹堡市长和我参加了开幕式,”Suresh告诉NPR的Audie Cornish,“我们对一些问题进行了商讨,比方说,如果别的车撞了我们,是应该我们负责还是别人负责?现在还没有定论。”

  问题已经超越了无人驾驶汽车和叛徒机器人的范畴。在下一代智能手机中,在家用电器里嵌入的芯片中,以及存储在“云”中不断扩展的个人数据集合中,什么是对什么是错是开放性的问题。

  Asimov的三条机器人定律都是约束人工智能的,那么是否有必要制定一个人人都能理解的道德准则呢?

  Suresh说,“如果把三个定律归纳为一个的话,应该是:没有伤害,这是首先应该遵守的准则。”

  他表示,人们如今正处于“人类和技术的有趣的交叉点”,面对现阶段,人们没有任何相关经验。

上一篇:骨质疏松吃什么钙片好
下一篇:未成年人犯罪教育论文