三思荐书|《人工智能伦理》

栏目:游戏资讯  时间:2023-08-16
手机版

  

  《人工智能伦理》

  于江生 著

  清华大学出版社

  人工智能 (AI) 时代已悄然而至,然而对 AI 伦理学的研究却刚刚起步。与以往的技术革命不同,AI 有望在多个领域取代人类,但也有伤害人类的潜在风险。为防止对 AI 技术的滥用,我们在复杂性变得不可控之前,必须把最糟糕的情况都预想到、分析到。

  本书从人工智能的关键内容(包括图灵测试、数据、知识、机器学习、自我意识等)出发,尽可能地用朴素的语言讲清楚复杂的概念,揭示出各种AI 伦理问题以唤起读者的思考。本书基于大量真实数据,阐述了和平、合理发展 AI 技术的伦理思想,对 AI 技术可能引发的某些社会问题(如技术失业、两性平等)也做了剖析。

  

  前言

  机器不必具有高级智能便可能对人类造成致命的伤害,像《终结者》里的情节,它们没有怜悯之心,以追杀人类为目标。在科幻电影里,我们不止一次感受到这种来自未来的威胁,它潜伏在某个邪恶科学家的实验室里,或者在那个叫“天网”的系统里暗流涌动。

  技术没有善恶,看它掌握在什么人的手中。利用技术来作恶,遭谴责的不该是技术本身,而是使用技术的“人”。随着人工智能(artificial intelligence, AI)的广泛应用,更多的 AI产品走入人们的生活。在机器拥有真正的智能之前,我们需要未雨绸缪地考虑一些哲学和伦理的问题,例如,是否应该研发有自我意识的机器?人机婚姻是否合法?机器犯罪应该如何界定?机器决策是否含有歧视?等等。

  AI时代已悄悄来临,它对人机交互中的法律、心理、政治、商业、基建、社区、服务等提出了众多挑战。而人工智能伦理学还处于萌芽阶段,科学家和社会学家意识到许多问题的存在,却没能给出令人信服的答案。例如,自动驾驶(autonomous driving)出了车祸,我们应该归咎于谁?一般的算法或编程错误不会有性命之忧,但无人驾驶却有这个风险。消费者不愿花钱买一个潜在的危险品,如果生命及财产的安全没有保障,如果相关法律责任模糊不清,自动驾驶将会引起严重的社会问题。

  

  图1   创造人工智能(AI) 

  

  图2  2013年12月14日,我国登月探测器“嫦娥三号”在月球表面软着陆

  在科学研究方面,智能机器延展了人类的探索能力。例如,“嫦娥三号”登月后, “玉兔号”月球车开始了挖掘分析土壤样品、视频传输等工作。“玉兔”有自动导航、雷达测月、能源采集、天文月基光学望远镜、极紫外相机、光谱仪、立体相机等设备,帮助人类在环境恶劣的月球上完成大量的科研任务。未来会有更多、更智能的机器参与其中。

  在有自我意识的机器智能到来之前,如何保护 AI技术向健康的方向发展,而不是被人性之恶所利用,成为人类文明的终结者,是我们必须正视且亟待解决的问题。技术本身没有善恶,而应用它的人类有善恶之分。如何把更多的善植入无意识的机器?如何用伦理道德来规范人工智能?这值得每一位关心人类未来命运的读者深思。

  有一个哲学的分支,伦理学(ethics),也称道德哲学(moral philosophy),研究人类社会所认可的行为准则及其价值,进而构建一些道德的指导原则来评判行为的对与错、善与恶、美与丑、智慧与愚昧、正义与犯罪。伦理学大致分为元伦理学、规范伦理学、描述伦理学和应用伦理学四个领域,人工智能伦理基本属于应用伦理学的范畴。

  

  图3  动画《铁臂阿童木》

  

  图4  两千多年前,我国古代先哲老子、庄子、孔子、孟子对道德伦理就有过系统的研究,其思想影响至今,已深深融入中华文明的血脉之中

  诺贝尔经济学奖得主(1978)、图灵奖得主(1975)、人工智能先驱赫伯特·西蒙(Herbert Simon, 1916—2001)曾说:“关于社会后果,我认为每个研究人员都有责任评估,并努力告知其他人,他试图创造的研究产品可能带来的社会后果。”人工智能研究的目的是为了造福整个人类文明,因此“勿以恶小而为之,勿以善小而不为”。与其说用伦理道德约束机器,不如说用它来约束人类自己,所以人工智能伦理就是人类发展和利用 AI的行为准则。

  现有的 AI技术很多不具备可解释性,导致模型或产品出了问题也不知道真实的原因。有些技术缺陷对人类来说是致命的,用户对可能的不良后果应有知情权。故而,对 AI产品的质量及性能的评估,需要更科学、更严谨、更系统的评测方法。

  人类需要小心翼翼地发展AI技术,确保它促进文明的进化,而不是成为人类自相残杀的新式武器。人类如蜉蝣于天地,唯有理性的光辉永恒。公平而开放的合作,而不是恶意的竞争,是我们要走的 AI之路。

  

  图 5  在联合国总部广场,矗立着雕塑“打结的枪”,象征着“和平、宽容、理解和非暴力”。它是瑞典雕塑家卡尔·弗雷德里克·路特瓦尔德(Carl Fredrik Reutersw.rd, 1934—2016)的作品,1988年由卢森堡赠送给联合国

  科技是一把双刃剑,人类用它披荆斩棘,也有自伤的危险。越来越多的AI产品具备决策能力,由弱到强,它们在方便人类生活的同时,是否准确地代表我们的意愿?智能助手是否会太了解主人而成为一个泄密隐患?自动驾驶如何尽可能地保护人身安全?自主杀人机器是否应该禁止?许多 AI伦理问题等待人们的理性思考。

  这本书是一部抛砖引玉的大众科普书,几乎没有数学公式和预备知识,面向所有对人工智能感兴趣的读者。人人都可以谈论 AI伦理,都可以关注人类和 AI的命运。这些话题不限于严谨的学者,它们是人类未来需要面对的现实。例如,智造业有造成大规模失业的风险, AI时代的教育应该如何培养新型的技术工人?机器人介入人类的生活,是否会给社会带来一些结构性的变化?在大数据时代,如何更好地保护个人隐私?我们在复杂性变得不可控之前,必须把最糟糕的情况都预想到、分析到。写此书的目的就是要把问题揭示出来,管见所及阐述一些想法,激发更多的读者参与思考与讨论。

  本书所提供的一些粗浅的心得和思路仅是作者一家拙见,人们可以从更开阔的视角研究人工智能伦理问题,如哲学的、法学的、社会学的、经济学的、认知科学的,等等。无论从哪个角度,都要本着科学精神(即求实、创新、怀疑、包容的精神),就算对未来的幻想也应如此。另外,些许好奇心和想象力是需要的,它们比知识更珍贵,往往随着年龄的增长而变得枯竭。此书探讨了许多未来可能发生的事情,它们或许是杞人忧天,或许是防微杜渐,不管怎样,时间会验证它们并给出答案。对科技发展的预测,是未来学(futurology)的研究内容。有人说,“预测未来的最佳方法就是创造未来”,而要创造美好的未来,必须以道德伦理为指导。

  

  图6 人类终究要借助 AI的力量团结在一起走向广袤无垠的宇宙

  感谢好友曹朝博士的鼎力相助,让此书有幸与清华大学出版社结缘。特别需要致谢王巧珍编辑,她的专业、细心与辛勤的付出,才使得这本书及时而高质量地呈现在读者面前。

  朋友如同一本打开的好书,厚厚的需慢慢地细读。感谢挚友胡迅、吴宗寰博士,我们坚持多年的午后散步中无所不谈的话题,开阔了我的视野,修正了我的偏见。另外,还要谢谢我的女儿,她对人工智能的好奇心一直感染着我。每次我俩“探讨”人工智能的未来,都是享受想象力的美好时光。孩子用质朴清澈的眼睛看世界,是她教会了我善待生命——真希望能永远这么简单地活着。这本书送给我的女儿和所有热爱美好事物的年轻一代,你们会有更高的智慧,你们将创造未来。

  于江生

  于美国加州圣何塞

  

  目录

  第1章 图灵测试 /1 

  1.1 强人工智能/ 7

  1.1.1 大脑与认知心理/ 15

  1.1.2 自然语言理解/ 43

  1.1.3 抽象能力/ 66

  1.1.4 计算能力/ 81

  1.1.5 推理能力/ 86

  1.2 机器犯错归咎于谁? / 101

  1.2.1 安全性/ 107

  1.2.2 根因分析/ 110

  第2章 数据为王 / 119 

  2.1 以改进服务为由/ 131

  2.1.1 数据共享/ 137

  2.1.2 数据安全与隐私保护/ 140

  2.2 数据与模型/ 155

  2.2.1 无法篡改的数据/ 159

  2.2.2 零知识证明/ 165

  第3章 知识积累/ 171

  3.1 知识表示与推理/ 187

  3.1.1 更广阔的感知/ 192

  3.1.2 可操作的知识/ 201

  3.1.3 知识工程/ 204

  3.2 永远的精神财富/ 218

  3.2.1 知识的保护/ 226

  3.2.2 知识的交流/ 240

  3.2.3 开源运动/ 247

  第4章 机器学习/ 253

  4.1 学习的方式/ 267

  4.1.1 衡量标准/ 274

  4.1.2 理解机器智能/ 278

  4.1.3 模型的多样性/ 284

  4.2 想象比知识更重要/ 288

  4.2.1 理性的想象/ 291

  4.2.2 学习的本质/ 297

  第5章 自我意识/ 311

  5.1 自我意识的条件/ 319

  5.1.1 好奇心/ 323

  5.1.2 意识流/ 329

  5.1.3 形成共识/ 334

  5.2 超级智能/ 342

  5.2.1 机器的德性/ 349

  5.2.2 人工智能革命/ 352

  5.2.3 文明更替/ 356

  第6章 机器奴隶/ 361

  6.1 人工智能竞赛/ 369

  6.1.1 潘多拉的盒子/ 378

  6.1.2 远征外太空/ 385

  6.2 智能制造/ 392

  6.2.1 社会问题/ 397

  6.2.2 新的机遇/ 407

  第7章 伦理困境/ 419

  7.1 监管与政策/ 428

  7.1.1 可验证的伦理标准/ 431

  7.1.2 人机关系/ 436

  7.1.3 人机文化/ 446

  7.2 法律法规/ 451

  7.2.1 保护与约束/ 455

  7.2.2 造福人类/ 460

  参考文献/ 469

  附录一术语索引/ 475

  附录二人名索引/ 486

  于江生,应用数学博士,曾在北京大学、堪萨斯大学、韦恩州立大学工作多年。主要研究方向是人工智能、统计机器学习、贝叶斯数据分析、计算语言学、图像处理、生物信息学等。已发表四十多篇学术论文(第一作者),拥有近二十项美国算法类专利。获教育部科技进步一等奖(2007年)和自然科学一等奖(2011年)。曾任华为2012泊松实验室主任、机器学习和应用数学首席科学家。文章观点不代表主办机构立场。

  ◆ ◆ ◆

  编辑邮箱:sciencepie@126.com

  

  

上一篇:护理精细化服务具体措施十篇
下一篇:花花(华晨宇)知道自己被大ET们“拍”成水仙剧吗?