手机访问:wap.265xx.com人工智能时代的伦理道德面临哪些挑战?
对话嘉宾
陈小平 (中国人工智能学会AI伦理专业委员会负责人、中国科学技术大学机器人实验室主任)
高少华 (半月谈记者)
人工智能时代已到来,各类人工智能技术正被加速应用于人类日常生活和工作的方方面面。但由此带来的AI风险、AI滥用、AI失控等问题也引发社会关注。近期,美国亚马逊公司利用人工智能技术监督员工引发舆论热议。人工智能的应用边界、伦理底线等话题成为舆论热点。
高少华:亚马逊使用的人工智能监工系统,被网友戏称为“史上最严周扒皮”。员工在AI的监控下如履薄冰,还可能面临随时被替代、被解雇的困境。人们不禁思考,AI可能凌驾人类的趋势已经到来?在您看来,当前对人工智能伦理的担忧主要体现在哪些方面?
陈小平:AI快速发展,让社会出现了担忧情绪。根据中国人工智能伦理专委会的观察,主要有三种担忧:
第一,担忧技术失控带来的风险。担心将来有一天,机器会统治人类。第二,担忧技术误用带来的风险。担心某些人工智能技术由于不成熟、不够人性化或缺乏足够的伦理约束等原因,给使用者带来直接的危害,比如数据隐私问题、安全性问题和公平性问题等。第三,担忧应用失控带来的风险。担心人工智能在某些行业中的普遍应用带来严重的负面后果,比如导致很多人失业,又无法在短期内重新就业。
高少华:放眼全球,人类对于AI伦理研究的实际情况如何?如果过于滞后现实发展,会带来怎样的不利影响?
陈小平:目前欧洲在人工智能伦理方面走得相对快一些,但总体情况不算乐观。我们要先了解具体在哪些方面有所滞后,要明确人工智能伦理的使命是什么、它的根本问题和主要问题分别是什么。比如说当前这个阶段,就明确了一些已经出现的伦理问题必须尽快解决。我们是单纯地预防人工智能做坏事,还是让伦理督促人工智能做好事?这些研究不能滞后。如果连人工智能伦理体系的定位都不清楚,那问题就更难办。
高少华:人工智能伦理涉及的内容多、范围广。我们所能了解的领域,大都与安全、隐私、就业等相关,应该还有未知或者未引起关注的领域吧?
陈小平:是的。现在比较明确的伦理范围就是隐私、公平、安全等。但我认为,研究AI伦理要有前瞻性,需要关注一些目前还不太明确的议题。比如,威胁到人类生存的技术未来是否会被发明出来?这些非常重要。
从当今世界的发展需求和技术伦理现状出发,预计未来会有三种可能:
第一种,消极地延缓人工智能等新技术的应用,限制创新的力度、幅度和进度,现存和新生的社会问题和伦理问题不断累积,最终导致积重难返的局面。第二种,冒失地推进人工智能等新技术的应用,加重和加速引爆社会伦理问题,造成难以收拾的困局。第三种,积极稳妥地推进人工智能及相关的技术和非技术创新,解决现存和新生的社会问题和伦理问题,走向一个更加美好的未来世界。
人工智能伦理建设的愿景,必须面向第三种可能。因此,人工智能伦理的基本使命是:为人工智能增进人类福祉与万物和谐共存提供伦理支撑。具体地说,这个使命包含双重含义:第一,督促人工智能做好事,促使人工智能做更多更大的好事;第二,防止人工智能做坏事,严控技术风险,保障安全底线。
高少华:人工智能的发展如今已经走在社会前沿领域,未来需要统筹考虑人工智能技术与法律伦理方面的国际合作。目前,中国是否已经着手开展此项工作?
陈小平:人工智能伦理非常复杂,通常涉及法律、行规、技术标准等多个方面。过去大家对人工智能的伦理研究太少,现在要补上欠账。人工智能技术与法律伦理方面的国际合作非常有必要。我认为,比较稳妥的是先从伦理体系方面开展国际合作,达成一定的国际共识。如果在伦理体系上有了国际合作、国际共识、国际协调,那么接下来在落实的层面就更容易协调合作。
目前,我国在科技伦理、人工智能伦理方面的研究已经迈开步伐。我们需要经过自己的研究,尤其是在全球视野下去考察中国社会发展需求的基础上,提出自己的想法、建议、标准等。对全球来说,这些是中国作出的贡献,为世界增添的“中国智慧”。
高少华:机器人三原则(机器人不得伤害人类、必须服从人类命令、必须保护自己),是西方科幻作家阿西莫夫的一个著名提议。目前中国人工智能学会伦理专业委员是否也探讨了一些初步的AI伦理研究方向和中国机器人原则研究方向?在这方面中国是否也有自己的一个初步意见?
陈小平:中国人工智能学会对AI伦理问题高度重视,2018年组建人工智能伦理专委会,启动了人工智能伦理问题的研究。专委会设置了多个AI伦理课题,并组织了一系列开放的和内部的专题研讨。
目前中国也提出了一些意见,但还不够系统。另外,机器人三原则的提出,虽较早让大家关注到这方面的问题,但不足之处在于难以落地。比如说想让它来指导需要研发什么产品,需要应用什么样的技术,在解决这些具体问题方面,三原则并不适用。
所以,我们需要研究真正能够落地的一些原则。根据这些原则,辨别什么是短期内就可以看清楚的问题,什么是现在可能还看不清楚、会随着社会发展而不断变化的问题。所以我的观点是,一方面要有相应的原则,另一方面这些原则会随着时间的发展而变化,因此,更基础的是我们伦理体系建设的机制,有了好的机制才可以不断完善体系。
高少华:技术史是人类不断被取代的历史,如果我们创造出了超越我们智慧的超级智能,人类将会变成什么样呢?不过,什么是超级智能?甚至什么是智能?这样的定义,目前全球有个大致共识吗?
陈小平:目前对于什么是人工智能,其实并没有共识。或者说现在的共识,可能10年后甚至5年后就不是共识了。人工智能技术发展到现在也只有70多年的历史,对它的定义、范围、边界等,现在很难说有共识。对这些问题,我们在人工智能伦理里面,都需要去加强研究。人工智能专家都还是在研究人工智能里面的一些具体问题,而宏观问题过去研究的比较少。同时也要考虑,人工智能研究需要有新的方向,人工智能到底是什么?否则经不住历史的检验。
对人工智能,也不要过于担心。目前全球都开始重视人工智能伦理和风险。未来人工智能什么方向可以发展、什么方向不能发展,都会有答案。
目前人工智能出现了一些问题,在人类历史发展道路上出现了一些风险,这些都是正常的,但是我们要努力不让风险失控,积极面对各种挑战。
今天图图知道带大家了解一下人工智能伦理方面的挑战。AI伦理场的权力就像引力一样,影响AI伦理学的各个方面。白人男性掌握技术权力,AI应用赋权特定群体。数据垄断使得科技公司和政府之间、科技公司和用户之间权力的天平逐渐失衡。
人工智能伦理场的权力就像引力一样,是一种无形的力量,会影响人工智能中伦理学的各个方面,这些权力旨在定义企业、社会、政府以及个人的隐私边界。但关于AI伦理学的争论很少将“权力”作为直接关注的对象,尽管它一直存在于表象之下。讨论人工智能的未来发展,不仅需要使最佳的AI系统成为可能,还需要明确谁掌握权力,以及AI如何影响触及的一切事物中的权力。
(一)白人男性掌握技术权力,AI应用赋权特定群体
在大型AI会议发表的研究中,只有18%是女性完成的;Facebook和Google分别只有15%和10%的研究人员是女性。这些人口种族和性别比例上的变化会使得AI公司在决策系统的创建中缺少种族和性别多样性,从而使得负责技术研究的工程团队与AI系统的受众人群之间出现明显的文化鸿沟,并在一定程度上产生“偏见”(Bias)。AI Now Institute的Kate Crawford将此称为为“白人问题”(White Guy Problem)。
如果白人男性继续掌握技术权力,以计算为重点的算法技术只会进一步放大结构性与系统性的偏差与歧视,使得AI应用赋权特定群体。
在1960年代的美国,人们努力使从幼儿园到高中的学生(无论男女)都更广泛地使用计算机和网络。但是,由于该程序的设置方式,私立学校学生的计算时间几乎是公立学校学生的两倍。再加上当时的私立学校都是男孩的事实,这意味着男孩比女孩获得更多的计算机和网络访问权限。计算访问权的不平等反映并扩大了现有的结构性不平等。正如AI Now Institute在歧视性系统报告指出的那样,在构建算法技术的社区中多样性的缺乏将会明显扩大妇女、变性人、非双性人和有色人种的方式之间存在的有害反馈回路。
当一部分受众群体被排除在决策过程之外时,技术上的突破与创新并不能带来真正的进步。AI行业种族和性别多样性的缺乏如果不改变,只会加速“技术官僚主义”的崛起。随着AI技术在各领域的广泛应用,其具备使用价值的背后,实际上是一整个权力系统,这样的系统会厚积数据资源并加深技术上的偏差,使得系统可能根据种族、身份等标签来判断一个人的价值、性别或者社会地位。
为了解决AI行业在种族和性别多样性和包容性方面的缺失问题,美国《算法责任法案》的作者Mutale Nkonde提出:AI公司应该抛弃模糊的愿景,可以引进一种外在推动力。霍华德·史蒂文森(Howard Stevenson)提出将“种族素养”(Racial Literacy)作为计算机科学学生课程的一部分,并且应当为技术公司的员工提供培训。他指出,种族素养旨在为人们提供有关种族素养的培训以解决工作场所中可能涉及的种族敏感问题。在正式研发技术之前,通过隐性联想测试以确定人们持有的定型观念,并加以克服。AI系统设计师或者机器学习工程师可以以开放、无争议的方式谈论产品或服务中可能对不同用户群产生的影响。
如果短期内无法直接增加AI行业的种族和性别多样性,那么通过重视技术人员的伦理素养,如在美国语境下的种族素养,能有助于改善AI决策中的权力失衡现状。
(二)国家与科技巨头:权力失衡的新现实
当数据垄断与技术垄断已经成为现实,数字政治化不可避免。科技公司追求技术创新的动机并非出于公共利益的考虑,但其进入公共领域的巨大影响力以及巨量数据的卷入,使其行为不可避免地会产生政治影响。
科技公司在为算法创造规则,一定程度上也在为受算法影响的所有公民制定规则。社交媒体既使得政治交流与参与更加便捷,也在审议用户发布的内容与形式。这种情况下,科技公司即使刻意追求也很难保持其中立的身份。用户看似在平台上拥有自由选择话题的权利,但是算法正在为他们做出选择,算法筛选出来的信息将会塑造用户对某一议题的认知与态度。而政府对于平台公司的监管,目前全球范围内大多仍处于辩论阶段。
这些新现实使得科技公司和政府之间、科技公司和用户之间权力的天平逐渐失衡。在此背景下,政府要接受这样的现实,以更加成熟和负责任的方式与科技巨头互动,以系统化、原则性的互动模式平衡权力天平。尽管科技巨头对整个行业的发展有着巨大的影响力,但是不同的科技公司力量和资源配置仍存在很多差异。因此,更有效地赋予他们权力是着手打造有效竞争环境、形成良性生态的开始。而技术公司应视自己为提供服务的中立平台,对用户群体不加筛选,公平平等地建立客户关系。任何对规则的打破和对此类行为的默许都会影响整个行业的生态,从而牵动权力的天平。
如果我们不负责任地开发人工智能,行业内种族和性别多样性的缺乏将会导致权力进一步失衡。这将使精英和少数群体独占人工智能时代的红利,从而使财富和权力更加集中,带来更加严重的社会问题和全球性挑战。如果政府和科技巨头不能平衡权力天平,那么如今人工智能领域的算法创新与技术突破只会使得技术成为政治的符号,扩大现有的社会鸿沟与冲突。
人工智能正在改变社会,如果只有少数人有权决定构筑AI时代的世界面貌,那样的社会是否是一个稳定的社会仍引人深思。在规划未来世界的道路时,必须认识和把握过程中的权力平衡。因为我们应该担心的不是AI本身,而是我们要用AI做什么。是我们在运用AI来塑造未来,AI不会为我们塑造未来。
参考文献:
1. Jessie Daniels, Mutale Nkonde, Darakhshan Mir: ADVANCING RACIAL LITERACY IN TECH, Data and Society
https://datasociety.net/library/advancing-racial-literacy-in-tech/
2. Kate Crawford:Artificial Intelligence's White Guy Problemhttps://www.semanticscholar.org/paper/Artificial-Intelligence's-White-Guy-Problem-Crawford/86006acb8650fe9c2a2b056e5271d9b525e09c3c
3. Seth Fiegerman: Elon Musk predicts World War IIIhttps://money.cnn.com/2017/09/04/technology/culture/elon-musk-ai-world-war/index.html
4. Fight for future:https://futureoflife.org/awos-signatories/
5. Anne Taylor:Unlocking the Power of Data with AIhttps://www.cio.com/article/3392356/unlocking-the-power-of-data-with-ai.html
6. EMILY A. VOGELS, LEE RAINIE:Power dynamics play a key role in problems and innovationhttps://www.pewresearch.org/internet/2020/06/30/power-dynamics-play-a-key-role-in-problems-and-innovation/
7. Khari Johnson: AI ethics is all about powerhttps://venturebeat.com/2019/11/11/ai-ethics-is-all-about-power/
作者信息:田慧
文章信息:原文摘自《人工智能资讯周报》总第92期
刊物信息:《人工智能资讯周报》探讨人工智能对公共政策、治理和政策建议的影响,探索人工智能对商业、政治和社会的影响,以确定潜在的研究领域,探讨可能的合作研究和机构伙伴关系。本刊着重提供中国人工智能发展动态和对人工智能的思考,同时关注全球范围内人工智能相关研究动态。本刊旨在通过可靠的研究,来帮助企业、研究机构和公民预测和适应技术引领的变化。
今天的分享就到这里,想要获取更多精彩内容,欢迎关注“图图知道”!
技术都是死的,我们才是制造者与使用者。所谓的 AI 道德,最后反映的是我们的道德,是我们的价值观。”
微软全球资深副总裁,微软亚太研发集团主席,微软亚洲研究院院长洪小文受邀参加未来论坛 AI 伦理与治理系列活动,在“AI 向善的理论与实践”主题论坛中发表了看法。
以下以下是论坛全文,转载自未来科学论坛公众号。
议题一:人工智能将会对人类社会带来哪些挑战?近些年 AI 的发展,已经产生了哪些问题?社会应该如何应对?1.技术导致的不良后果其实源于人类自身;2.微软人工智能设计原则:合法与主权、负责、透明、公平、可靠与安全、隐私与保障、包容。
洪小文:怎么样让技术促进经济发展?怎么样让技术促进社会进步?在大多数情况下,技术都是好的,而在技术被广泛应用后,也产生一些大家所担心的负面隐忧,英文叫“Techlash”。
这里举一些例子。首先,每个国家的经济发展程度不同,如果有些人可以使用到最新的技术,而有些人不能,这就可能带来发展的不均衡和落差,带宽、网络的就是这样的例子;另外,关于安全、隐私的问题大家也谈的很多。比如社交媒体中出现假新闻,如果不小心误传误信,就会影响决定;还有数据和技术偏见的问题。有数据就一定会有偏见,因为体量再大的数据也不可能涵盖所有方面;再有就是关于 AI 在武器上的使用以及技术取代人类工作的问题等等。我认为水能载舟,亦能覆舟,不能说技术无辜,但是真正的问题还是在于技术背后的创造者,在于怎么使用技术,因此技术导致的不良后果其实源于人类自身。制造者、用户、政府、受影响者都是重要的相关方。
微软1998年提出了人工智能的相关原则(“Responsible AI”),要求以负责任的方式设计人工智能。其中,最基本的原则就是合法与主权。对数据及人工智能治理而言,今天很多规则性的内容都会变成将来的法律规范。微软作为一家跨国公司,在任何国家或地区经营都要保证合法性、尊重其主权。第二是负责,任何技术和产品都有其设计制造者,要对技术和产品的部署和运营承担责任,包括法律以及社会等各方面的责任。第三是透明,设计制造者要能够解释程序如何设计,尤其是数据的收集,更需要透明化。比如当摄像头被安置在公共场所搜集数据的时候,需要提前告知数据被收集对象,进入数据收集区域其头像信息可能会被采集。第四是包容,做任何东西都需要考虑到所有的人,也要求我们创造的技术能够服务每个人,包括少数族群,残障人士,所以开发这些人工智能技术的时候需要考虑如何保证它的包容性。第五是隐私与保障,有些人利用互联网或者 AI 在网络上做一些不道德的事,比如说“黑客”、“钓鱼”,对于系统或平台而言,很重要的时要保障用户不受网络骚扰、身份信息不被窃取,以及避免产生一些实质性的灾难;第六是可靠和安全,任何 AI 系统都不可能万无一失。例如一个 GPS 系统,即使只要有万分之一的机会把司机引到悬崖,那也是不安全的。所以怎样做到安全可靠在 AI 领域中非常重要。机器学习都会存在一定误差。问题在于,存在误差的时候如何预防风险,如何提供更进一层的安全保障。第七是公平,坦言之很难做到,因为没有绝对的公平。在现实条件下存在很多偏差或偏见,这些偏见或偏差可能来自数据,可能来自我们的固有认知,可能属于一种社会偏见,毫无疑问,每个人都存在偏见,问题在于怎样不把偏见带到我们所制造的东西里、怎么样避免这些偏见。
最后,技术都是死的,我们才是制造者与使用者。所谓的 AI 道德,最后反映的是我们的道德,是我们的价值观。对于科技工作者而言,需要把正确的价值观与道德纳入技术语言中进行表达,但即使这样还不够,还需要跨领域的合作,需要法学家、社会学家、人类学家等都参与进来,才有可能把这个做得尽量完善。
郭锐:谢谢洪老师。我有两点思考,一是这个规制框架是否可以拓展,我认为它现在可以用于专用人工智能领域,在未来向通用人工智能行进的过程中,这样的框架是否可以继续适用,还是我们需要一些新的道德准则?道德准则是否可以内化在算法之中?洪老师讲到的公平性问题,与此密切相关。二是洪老师提到一个关键词——信任,社会对技术的信任至关重要,中国在过去20年特别是近10年来在人工智能领域的发展,很大程度上借力于社会对于技术的拥抱和信任。我记得薛澜老师讲到过信任的重要性,下面有请薛澜老师,对这个问题给出点评。1.AI 改变了人类与技术的关系;2.信任问题。
薛澜:关于刚才谈到信任的问题,第一,从某种意义上讲,很多传统技术是相对被动的,所以人类的应用行为显得比较主动。但是我觉得人工智能技术的不同之处在于,好像它不完全听从我们,因为人工智能还具有智能性,因此我们与技术的关系好像发生了改变。如此一来,我们有时候的确担心它会不会错误决策导致不利的后果。我们对传统技术占据主动权,清楚知道这些技术能做什么、不能做什么,但是使用人工智能技术进行人机交互时,有时候感觉不一定敢那么自信。
第二,我觉得对技术开发的公司而言,信任问题需要被重视,特别是隐私问题。正如刚才大家所说,鉴于人工智能技术在应用过程中搜集了大量数据,如果我们百分之百地信任这些公司,比如说用户知道技术公司只是把数据作为一个机器学习的原料,那对于它们收集数据的行为,我不会太担心。但是,现实中有些技术公司或其中的部分员工存在不道德地利用信息的可能,比如把个人或非个人数据汇集在一起得到更多的信息,或者把这些数据打包在网上拍卖,这些行为我们都看到过。所以从用户角度来讲,我们就希望非常清楚地知道智能公司的开发系统如何运行,对我们数据的处置是否合理。
郭锐:谢谢薛老师的点评。人工智能技术和其他技术相比,能够更加直接地作用于普通用户。比方说,如果能源的相关技术改进了,我们就会看到日用品的价格下降,或者用电的价格下降,但人工智能技术好像可以直接对我们产生影响。在数据领域中,如果我们意欲使用某个技术,可能需要技术的部署应用企业收集我们的信息,但同时我们又担心所收集的信息是否会被误用。刚才华夏老师也提到了一个很重要的问题——隐私问题,从您的角度来看,我们怎么应对人工智能技术对社会的影响?1.隐私问题:数据归属于谁,如何保护用户隐私?从两个层面加以分析:一是提高透明度,二是企业自律。2.安全问题:需要多方共同参与法律法规的制定与完善。
夏华夏:我觉得洪老师的架构图总结得非常好,尤其是把法律法规放在底下兜底,上面包括隐私、公平这几个问题,内容全面、层次分明。说到数据隐私的问题,现在很多企业都掌握着大量数据,我们也在思考如何合理保护用户隐私,这个问题蛮难的,有时候数据的归属问题并不是那么清楚。
前几天跟龚克老师沟通的时候,他提到当我们去医院拍一个医学影像片时,医学影像的数据到底属于谁,是属于用户吗?医院的确是拍的是用户的片子,但同时如果没有医院、没有工作人员通过仪器加以采集,没有医生为他做各种医学诊断或判断,这就不是一个完整的数据。因此至少有三方跟这个数据有关系,数据的所有权归属问题比较复杂,在此基础上,怎么保护最终端用户的隐私,也是一个蛮有挑战的问题。一方面,刚才洪老师在框图第二层中写的是是透明度,透明化对于隐私来说是一个非常好的解决之道。当科技企业收集用户数据的时候,企业会告诉他该数据在未来可能会有哪些用途,这种告知就是解决隐私问题非常重要的手段。如果技术足够成熟,每次调用用户数据的时候,系统都能自动通知每个用户,这就使用户更加安心和放心。再一个方面,保护数据隐私,可能还要从企业的自律方面做很多工作,企业到底怎么使用、内部数据谁能看到,是一个非常重要的问题。比如在美团为此专门成立人工智能治理委员会,内部制定了很多数据使用的规则和规范,划分了诸多数据的保密级别,高密级的数据只有在极少数的情况下通过专门的程序才可以调用,这样就能够比较好地保护用户的隐私。
此外,整个数据的安全性也是一个很重要的技术要求,AI 系统或者用户数据的数据库不能轻易被黑客攻击进来。当然,兜底还是要靠法律法规。洪老师把法律法规列在底下非常合理,就人工智能治理而言,不管是安全、隐私、公平还是就业,法律法规最终是一个兜底方。最近国家也在非常积极讨论数据保护的相关法律法规,这些法律如果得以应用,对于企业是约束,对用户是更放心的事情。未来隐私会是一个需要大家共同参与才能解决的系统化问题,法律法规也是如此。

郭锐:谢谢华夏老师。大家都对法律寄予很高的期待,各国立法者好像都在进行技术追赶,很多法律学者都开始关注这个领域,都想知道怎么样应对人工智能带来的问题。但是,作为一个法律人,我想说我们必须看到法律本身的特性。立法是一个缓慢的过程,可能需要集中民意,通过诸多论证之后才能完成立法。反倒是在技术和行业层面上,能够更快地对问题做出回应。
我注意到前面几位老师都是从现存的 AI 技术出发来思考 AI 系统及其给社会带来的问题。我最早思考这个问题的缘起,相信和今天参与直播的很多观众一样,是关注 AI 技术的潜力。我想请教一下漆远老师:很多人真正思考 AI 伦理问题,是因为看了一些科幻电影。科幻电影里面经常出现的一个场景,是 AI 的智能大大超过人类,甚至对我们的生存造成了威胁。在技术领域里面,大家对于通用人工智能甚至超级智能是否可能实现有不同的看法,我想请教漆远,您认为通用人工智能可不可能实现,有没有可能给我们带来生存上的危机?再请您对这个问题的整体进行回应,一会儿有机会也想听听大家如何看待这个看起来有点遥远的未来问题,下面先请漆远老师。1.未来能否实现通用人工智能?并非绝无可能。2.AI 治理需要推进与法学、经济学等结合的跨学科研究
漆远:在一个机器学习学术的顶会里有过一个调查:你觉得什么时候通用人工智能何时会实现?即使在一个非常专业的技术会议里面,答案也是百花齐放的——有人认为五年,有人认为五十年,有人认为永远不可能。这个反映了什么?说明对科学的预测本身是非常难的。现在学界业界比较关注的是深度学习。现在有个说法是“大模型即正义”。自然语言处理等模型参数从以前的百亿级到现在的千亿万亿级。海量的数据和计算使得大模型能力越来越强。比如使用大规模自然语言模型可以自动写出真假难辨的新闻,——当然,这是另外一个话题,即数字生活安全与可信问题。但是面对如此强大的自然语言模型,如果我们问2+3是几?它能回答出来,但是如果问“1525091+8747721”是多少?它就无法回答了,能力还不如一个简单的计算器。这背后说明一个问题:从人工智能围棋程序“Alphago”到现在一系列数据驱动的深度学习技术出来以后,很多人都对人工智能的发展比较乐观,但其实现阶段的人工智能所具备的推理能力还非常低的。
人工智能可以有很多条发展思路,现在大家看到的深度学习只是思路之一。未来把知识、人的推理能力和数据驱动的深度学习结合在一起,可能成为未来非常重要的发展方向。在这个目标没有实现之前,也就是说在 AI 在不具备常识推理的能力时,实现真正的通用人工智能是不可能的事情。换句话说,AI 目前像一个走火入魔的练武之人,它在某一个领域特别厉害,但是稍微改一下领域,它可能会出大问题。AI 的推理能力、可解释性都是非常关键的问题,如果没有解决这些问题,我们谈的通用人工智能是不太可能的。
但是从另一方面看,也不能说绝对不可能。今天我们在这一个有意思的时间点上,未来有各种可能性。如果把几种技术思路和因素结合在一起,或许能够在通用人工智能的路上大踏步走出一步,这谁也不知道。就像在2010年深度学习兴起之前,深度学习背后的很多思路早就已经有了,但并没有落地推广。随着海量数据和强大计算能力的到来,深度学习在十年间突飞猛进,被业界大量使用。我们谁都不知道会不会有新的种子点燃新的剧变。但是我们必须努力的是在人工智能技术被广泛使用的今天,如何治理 AI 技术,保证 AI 技术的可靠和可信。打一个比方,假如我们不知道如何管理高速公路,最简单的方法是关闭高速公路。但如此一来会降低大家通行效率。这显而易见不是我们想要的治理方法。我们会通过建立红绿灯等交通管理系统进行管控。类似的,我们要在发展 AI 的同时,做好 AI 治理系统和相关技术研究。而要做好这个,需要对 AI 技术与法学、经济学等结合进行跨学科的研究和思考。跨学科的研究将有助于 AI 走向可靠的、可持续发展之路。实通用人工智能的技术发展边界问题
薛澜:通用人工智能是个非常有意思的话题,我想趁这个机会问一下三位专家,假设人类实现通用人工智能以后,AI 有可能做出更多更能干、更强大的事情。但是,通用人工智能发展到某个阶段,可能会对人类产生一定的威胁,在这样的情况下,我们到底应不应该开发这项技术?一般性地讨论时,大家都会说科学技术研究应该无止境、无前沿,走到哪算哪,但当我们预料到某些问题的时候是否应该按下暂停键?在通用人工智能技术开发方面,它的界限要不要设、应该设在哪儿?想请三位专家来帮我们解答一下。实现通用人工智能”的说法并无现实依据;AI 技术的控制关键在于规制其背后的制造者
洪小文:第一,对于“实现通用人工智能”的说法我们还没有看到任何现实依据。第二,通用人工智能至少有两种,所谓“通用人工智能”,就比如我们人类自身,就是一种通用人工智能。我常常讲,“强人工智能很弱,弱人工智能很强”,什么意思呢?弱人工智能就是专家系统(Expert System),它只能做一件事,做得比谁都好,比如做一个特定物体的辨认系统,它就只能辨认狗和猫或者犯罪嫌疑人,这叫“Narrow AI”,它很强大;但是我们呢?恰恰相反——每样都懂一点,比如我可以谈治理,可以谈 AI,也可以谈量子,什么都可以谈,但是我除了计算机是专家,其他都不是专家,因此事实上通用人工智能是很弱的。我们的孩子也是通用人工智能,你今天会教他做所有事情吗?当然不会,只会教他做某一件事情。所以,我觉得大家对通用人工智能不要抱以太多厚望。我们担心的其实是“超级人工智能”(Super intelligence),比方说这个人什么都懂,什么都是世界最强,有没有这样的客观存在?就目前所有对通用人工智能的研究来看一点影子都还没有,因为今天的人工智能根本没有具备系统化解问题的功能。试想,我们今天怎么造一个机器,让它解一个从来没有遇到过的新问题,让算法自己去解问题根本不可能。我们今天很多问题无解,就拿计算机里面,NP 是不是等于 P,没有人知道。对于某些问题,我们也根本不知道怎么解决,所以我觉得通用人工智能离我们很远。
讲到治理,谈一个没有的东西:时间机器(Time machine),怎么治理?这可能是哲学界可以讨论的问题,但今天我们对它的讨论不是哲学意义上的讨论。对于你刚刚的问题——如果有人说他可以做出超级人工智能来,我们该不该禁止?讨论这个问题前,我觉得考虑近期问题可能更为迫切,比如转基因或者基因编辑,就是“人造人”,基因工程可以造福人类,也可以为害一方,所以哪些科技应该得到发展,这也是哲学意义上的问题。还有一点我比较有信心的,人做任何事情都希望它可控,很多人担心我们创造的事物不可控,因此,任何一个科学家进行发明创造,没有人希望不可控,没有人希望最后把这个世界给毁了。除了疯子以外没有人会干这种事,但是怎么限制疯子呢?这又要回归到哲学性的探讨。如果人类真的实现了通用人工智能,我们能否控制它,在于我们需要控制其制造者。1.AI 未来发展不好预测,但是实现通用人工智的概率不是零;2.可靠性与信任:AI 制造者负有责任,也需要将人和机器作为大系统整体来思考和分析;3.隐私问题:协同行业共同发展“可用不可见”的隐私保护的机器学习技术,促进隐私保护与数据价值实现的平衡
漆远:几年前在麻省理工学院(MIT)顶尖科学家之间有一个非常好的辩论,关于通用人工智能。他们辩论的主题是——将来机器人是否能够像牛顿和爱因斯坦等科学家一样发现科学定律。几年前在一个电视节目上我和伯克利的杨培东教授、清华的鲁白教授和西湖大学的许田教授等人,讨论过一个关于未来的技术问题。当时,我也提出了这个问题。我没有答案,但是我感觉这是可能的。在 MIT,这是一场非常激烈的辩论,在场的研究者分为两派,一派认为不可能、这个技术的“种子”不存在;另一派认为,为了实现这个目标,这个技术路线未来如何发展我们不得而知,但有可能实现。我们并不知道未来会具体发生什么,实现这个目标的挑战会非常巨大,但其实概率是零的事其概率才是零。就好比在金融风险领域不存在任何情况下绝对不会发生的风险。系统可控性同样如此,人人都想做出可控的系统,但是系统经常就在我们以为可控的时候出现不可控的情形。所以系统设计里面要留有所谓的“冗余”(Redundance),即理论上没有问题,但工程实现的时候,要留有冗余和余地。
这里就讲到信任和可靠性的问题。确实,人是第一重要的,现在的机器也是由人制造。在著名的科幻作家阿西莫夫提出的“机器人三定律”中强调,机器人必须听从人的指令,不可以伤害人。但是,假如我们未经认真思考,对机器人下达了一些不计长期后果的指令,就完全可能发生我们没有预料到的大规模风险。从无人驾驶到医疗服务、金融服务,机器正在参与越来越多的决策。认为只要控制住人,智能系统就没有风险,这其实远远不够的。一个原因是智能系统越来越复杂有很多无法理解的地方,所以前面我提到“可解释性”非常重要。技术人员往往希望系统是开放透明的,能够持续发展的。但是在技术发展成复杂系统后,就技术本身而言,普通人很难明白背后发生了什么、很难解释技术背后的原理是什么,系统里的因果关系是什么。现实中会很难认定事故背后的真实原因,是人造成的,还是系统的哪个因素造成的。不能简单的说,人是负责的(accountable),系统就是负责可靠的(accountable)。比如司机很称职,但如果刹车出现故障,同样可以导致车祸。所以需要将人和智能机器看一个大系统从整体来思考和构建可信可靠性。
数据隐私保护,是用户保护的问题,也是一个数字经济的发展问题。一方面涉及数据生产资料,但另一方面又事关每个用户的权益,如何在保护用户隐私的同时,让 AI 发挥数据价值推动经济持续发展,这也是一个非常关键的问题。隐私的反义词可以是“透明”,透明能够帮助信任,但就保护隐私而言,有些地方是不能透明和对外开放的。对于隐私保护来说,去标识匿名化是我们可以使用的技术方案之一。但如果将数据简单地完全匿名化,数据所含的有用信息量也会大大减损,数据价值降低。其实数据作为一种生产资料,就像大楼的砖头一样,砖头放在一起才能盖起大楼,单个的数据点很难产生巨大价值,只有互补的数据源合在一起才能让 AI 发挥最好的价值。
这里就引出了一个非常关键的问题:智能时代下的数字经济能不能既保护隐私,又发挥数据核变的经济推动能力?蚂蚁集团在2016年开始布局隐私计算、开发相关技术,在世界范围内我们拥有数量最多的隐私保护专利,包括“差分隐私”、“多方计算”、“可信环境计算”等技术。这些技术可以帮助数据可用不可见,但是他们有不同的安全等级。我们可以基于场景,把数据和隐私保护技术进行分析分类,把他们划分成不同安全等级,在某些安全等级下可以用对应的某类数据和技术。每一个安全等级都有对应的代价,就像越重的汽车往往越安全,但是也消耗更高的能量。我们要基于场景需求来选择适当的技术。最后,隐私是一个社会问题,需要更多的人来一起讨论,需要来自各行业的研究者和从业者共同讨论。世上没有一个绝对的答案,就像中国文化讲求的平衡发展,我们要在中间点上找到一条共同前进的路。
郭锐:我以前听过一个笑话:有一个修车的人,他问医生:“凭什么修车的一个月就赚这么一点钱,医生就赚的比我们多得多?而我们做的工作是一样的,我就是把车上面坏的部分修好,你就是把人身上坏的部分修好。”医生说:“你是怎么修的?你把车停到修车库,抬起车,把损坏的零件取下来,订一个新的零件,把它装上就好了。我怎么干我的工作?我有一个病人正在呼吸,但是我要给他肺部动一个手术,要保证他在这个过程中不能死,还要让他减少痛苦,把这个手术做完,还要保证病人复建后很好地完成所需的一切活动,医生的工作要比你难得多。”我们在人工智能技术已经投入应用、而且实实在在地对社会产生影响。同时,我们还在进行技术方面的改进、实施各种治理方案,这需要我们像医生一样谨慎。存在各种各样和 AI 相关的技术和治理问题——隐私的问题、公平性的问题,还涉及到透明度的问题——如何在治理的同时,还能从整体上赢得社会的信任?以下我们转入第二个议题的讨论:如何应对人工智能治理问题?先请华夏老师。
议题二:如何应对人工智能治理问题?保障 AI 公平性——美团“助老、助残项目”
夏华夏:很多技术我们没法禁止,技术的发展总在往前走,只要大家知道这个地方有一个技术金矿,总有很多对未知的事情充满好奇的学者,包括企业界的人,不断进行探索。今天讨论 AI 的治理,目的就是在技术不断往前发展的时候能找到一些规则办法,让越来越先进的技术继续走在向善的、帮助我们的用户及社会、甚至帮助整个人类的方向上。美团把人工智能应用于生活服务的很多场景,大概包括200多种不同的生活服务功能,包括吃喝玩乐、出行游玩,每个功能里面都会涉及人工智能。我们有很多例子与公平性有关,有时候不同的人使用人工智能技术的应用效果是不一样的,比如老人或其他残障人士往往不会使用人工智能的工具,我们在设计人工智能应用的时候,会特别注意帮助老年人、帮助弱势群体设计一些应用。我们有一个助老项目,专门开发一款打车程序,该 APP 字体特别大,且在 APP 的页面里不需要输入目的地,可以上车之后告诉司机你去哪,让司机帮助输入。此外,在这个程序页面里,老年人会有一个紧急联系人,APP 可以实时跟亲属汇报老年人的位置,这样在年轻人来看很正常的一个 APP,老年人也能够便利地使用。
再比如说我们有一些盲人用户,由于看不见,他们很难使用手机上的 APP,但是为了让一些盲人用户能够在美团 APP 上点餐、打车,我们为他们开发了一个语音交互页面,这些用户就可以完全通过语音在 APP 上点餐、打车,后来发现这样的 APP 对很多老人、小孩也非常有用。这是在公平性方面美团所做的一点小的示例。就像洪老师说的,AI 技术本来无所谓好坏,真正决定 AI 是向善还是向恶,则是使用 AI 的工程师、企业,美团希望在内部制定这样的规范,让人工智能技术能够帮助每一个用户。
郭锐:我有一个对技术前景好奇的问题,在法律和治理领域有学者提出:可以把一些道德伦理的价值内化到代码中,在研究或者应用中是否存在这种道德算法?1.要慎重选择 AI 公平性的考量标准,要全面、多层次考虑;2.就社会角度而言,蚂蚁集团开发支持弱势群体接入数字生活的技术、实施扶贫项目以促进就业;3.就人与自然角度而言,蚂蚁集团通过 AI 实施环保项目。
漆远:就 AI 公平性而言,从技术的角度,到社会的角度,再到人和自然的角度我来讲几个例子。首先要有向善的心,但是好心不一定办好事。在技术上,要慎重选择和设计 AI 公平性的考量标准。一个经典的例子:辛普森悖论——在不同层面看问题会得出完全不同的结论。比如伯克利大学在统计男生女生的入学率时发现,1973年男生录取率40%多、女生30%多(在美国专门讨论各个种族、性别的大学录取率最能反映公平性,因为教育是最大的公平),似乎是女生被歧视了。如果再仔细看,将各个系的男女录取比例进行比较,就会发现每个系女生录取率不一定低男生,甚至比男生录取率还高,这是怎么回事?听说现在不少国外高校的录取系统都使用了计算机辅助决策系统,如果要把道德指标写入这算法决策系统里,怎么选定这个指标呢?是全校的男女录取率的平衡还是每个系的男女录取率的平衡?这是需要仔细考虑的。回到那年伯克利大学录取的问题,背后原因是什么?分析发现大量男生申请了录取率比较高的系,而女生普遍申请了录取率比较低的系,从而拉低了学校范围的女生录取率,尽管从每个系的角度看,男女录取比例基本一致的。如果我们录取更多女生,让学校范围的男女录取率更一致就可能导致在每个系里男生都比女生更难被录取,会是对男生的歧视。
还有一个非常经典的例子,在美国某个州关于黑人死刑判决里面是否存在歧视有过法律分析。当时的问题是否黑人杀人更容易被判死刑?整体看好像没什么区别,但如果按照“受害者是白人或黑人”或者“行凶人是白人或黑人”进行分类,并分开分析,就会看到一个完全不同的结论。所以要从不用层次细致分析设计算法公平性的指标,分析是否存在“辛普森悖论”, 否则也许会导致好心办坏事。更深入而言,公平性背后一个很重要的基础是因果分析——究竟是什么东西导致了当前情况的不一样,是自身不努力不负责导致的问题?还是先天条件导致其受到限制?针对不同的原因,治理方案是不一样的,背后涉及哲学和法律的思考。所以我们在设计这些系统指标时,需要哲学家,社会学家,法律学者和 AI 技术专家一起讨论,把哲学法律等人文的思考和技术结合在一起,才能实现持续良性的发展。
再讲个具体的例子。蚂蚁集团技术上关心弱势群体,支付宝开发了帮助弱势用户的功能。例如把 APP 菜单自动用语音读出来帮助视力有障碍的人使用支付宝。另外,为了防止黑产使用机器攻击,支付宝在用户身份验证时可能需要校验码来证明使用者是人不是机器。而对于盲人来讲,由于看不见就无法完成拖拉通过校验,就无法使用电子支付。蚂蚁技术人员开发了空中手势识别技术,可以帮助盲人通过身份校验。蚂蚁会把这个技术开源给行业,协同行业伙伴帮助更多人。
从社会的角度,我们用 AI 技术来帮助边远贫困地区就业。两年前我的团队通过“AI 豆计划“开发一系列的 AI 工具帮助在陕西清涧当地人作数据打标。借助智能数据打标工具,没有经验的普通人也迅速上手。目前“AI 豆计划”已在全国培训了2000多名从业人员,其中困难群众占比50%以上。让困难群众,尤其是贫困地区的女性,实现在家门口获得更多就业机会。
更大的角度是从人机器和自然的关系切入,保护环境。我们的 AI 技术团队在2019年开发了“AI 垃圾分类”小程序和智能垃圾桶,使用 AI 技术来区分干垃圾、湿垃圾等几千种垃圾,提高垃圾回收和处理努力。我们也因此获得联合国绿色可持续发展“绿眼睛奖”。
郭锐:谢谢漆远老师,漆远老师已经把我们带到了讨论的第三个主题。由于技术的进步前沿的研究和应用都在行业里面,所以企业也许需要承担更多的社会责任,这也是 AI 不同于传统技术的地方。薛澜老师在公共治理方面是真正的专家,从社会治理的角度看,我们想请薛老师就企业的社会责任给一些点评。在 AI 治理领域,“敏捷治理”是处理政企关系的最佳方式
薛澜:现在我们在人工智能领域讨论治理问题,企业要承担很大的责任。通常讲行业治理,政府作为治理者,企业作为被治理者中间,与政府往往有种博弈关系,政府出台一些规则以后,企业总想在遵守规则的情况下,使得企业利益最大化,甚至规避一些监管,这很常见。而人工智能领域的实际情况是,由于技术发展很快,政府作为治理者远远落后于企业。治理者在制定规则的过程中,技术已经往前走得很远,永远是一追再追(Catch up forever)。
对此,比较好的治理模式是“敏捷治理”,政府和企业都要改变观念。如果企业发展过快,导致以公众利益和安全为目标的政府管制无法企及。倘若此时企业出现一些问题、带来一些危害,政府就会把管制口袋扎得很紧,甚至一下就会把企业卡死,这样对技术的发展非常不利。怎样使得治理者和技术发展者之间形成良性互动,这就要改变原来政企互相博弈的关系,从猫抓老鼠的关系转变成搭档的关系。技术发展迅速可能会带来一些危害,如果政府没有及时采取措施,公众也会问责,所以政府对技术不及时下手监管,对技术发展本身也是不利的。“敏捷治理”要求政府与企业互相沟通,共同讨论潜在风险,谈判如何有意识地加以规避。鉴于不同类型的企业在不同发展阶段可能考虑问题不同,所以这时尤其需要成熟企业与政府合作,建立合理的治理框架,我觉得这是最合理的治理方式。另外,如果企业出了一点小问题,政府就一下采取非常严厉的规制手段,对技术发展也是不利的。政企要形成互动关系,企业要比原来承担更大的社会责任。
由于人工智能技术的复杂性,从某种程度上讲更加需要强化企业的自律。较之其他行业,社会对 AI 企业自律的要求更高,只有这样,才能够让人工智能技术更健康的发展。与其担心 AI 导致的失业问题,不如关注教育。未来在孩子的教学课程中,至少应该安排不少于6年的 AI 通识教育。
洪小文:我认为企业应当负担更多的社会责任。第一,法律只是最低标准,企业最先接触技术,法律在后制定管制标准,所以企业走在管制前面。微软这几年的转型很成功,很大的原因在于我们在同类公司里比较值得信赖,微软在191个国家有商务往来,尤其是2B的业务,守法是最基本的,没有信任根本行不通。尤其是高科技方面,因为涉及多方的利益相关者,我们应该要听取各方的想法。
第二,今天很多人把超级人工智能想像得像神一样,但没有影子不代表机率是零,做 AI 跟做时间机器,很难说哪一个比较难。但是,以假设实现超级人工智能的思路进行 AI 治理,完全是缘木求鱼,所以治理的关键是契合今天的 AI 技术。我可以保证人工智能再往前发展,不管进展怎样、能够做到什么程度,它背后的原理永远是“AI+HI”(人工智能加人类智慧)。我们希望这个制造群体可以做出最好的判断。
第三,至于人工智能会不会取代一部分人类的工作,很明显当然是会。从历史来看,一两百年前,90%的人从事农业工作,今天最多只有10%的人从事农业,而其他的90%并没有失业。汽车的发明导致马夫失业,这是技术发展的必然结果。技术更迭对职场的变化是必然的,更不要说新冠疫情更加速了这一变化,远程会议、线上教育,数字化让将来的工作场所可以无所不在。不管从政府角度、个人角度还是公司角度,与其担心就业问题,更应该关注教育,数字教育不只属于计算机专业的课程,实际对非计算机专业也一样重要。我个人觉得,未来每个人不论文科理科,都至少接受了12年的数学教育,那么对于计算机、大数据、AI 等一些通用的数字技能而言,至少应该安排6年的通识教育,这不是自由班教育,而是大家所必备的基本的数字技能。此外,还要鼓励每个人终身学习。因为对于 AI 而言,10年前学习的东西和现在完全不一样。当然,还需要很好地职业技能匹配及认证系统,帮助大家进修以后找到更好的工作。

第四,牛津大学经济学家讲过,“The purpose of business is to produce profitable solutions to the problems of people and planet”(商业的目的不仅是利润,而是要能够创造解决人类和地球的问题的解决方案)。怎么样让 AI 解决人类的大问题,还可以实现盈利,这是每个企业都要考虑的。比如为节能减碳,微软去年提出“负碳”的承诺,到2030年实现碳的负排放,到2050年消除公司从1975年成立以来的碳排放总合。要做到负排放,首先要做到零,不是通过买碳税,而是要让包括云计算在内的所有的产品,都做到百分之百的零碳排放;在硬件软件的制造上,不仅要用再生能源,而且要更省能源;同时帮助我们的伙伴以及客户,减少他们的碳排放。当然,面对地球环境和气候的挑战,仅仅减少碳排放还不够,碳排放即使达到零,在大气层中怎样回收、怎么样捕捉碳排放,这也需要企业拿出资源资来,一起治理我们的环境,不仅为我们自己,也为我们的子子孙孙。
郭锐:今天的科技企业和传统大企业相比,还有一个不同的地方,就是每一个“头部大企业”,包括美团、微软、蚂蚁等,最初都是建立在满足社会需求的愿景之上。比如在金融服务领域,因为有了支付宝,大大减少了人们去银行的频率。再比如在“新冠”疫情期间,如果没有美团外卖或者买菜等智能服务,整个城市都会停止运转,正是因为有了这样的新科技,让我们这个城市在经历这么一场巨大挑战的时候,我们能够挺过来。刚才漆远老师讲到验证码的问题,我也特别有感触。我在人民大学教授残障法,我们会邀请很多盲人朋友到课上分享经验或者给我们提供一些具体案例,曾经有一位盲人朋友分享在买火车票的时候,某款 APP 的验证码操作非常复杂,让没有视力残障的朋友使用起来都很麻烦,这导致他几乎没有办法从手机上买票。去趟火车站,困难又非常大。因此,支付宝的验证码真的是解决了非常实际的问题,这些都是科技企业承担社会责任的表现。正如薛老师刚才所讲,企业在“敏捷治理”里回应社会的呼声,的确是单纯的政府管理所无法取代的。
本账号为微软亚洲研究院的官方知乎账号。本账号立足于计算机领域,特别是人工智能相关的前沿研究,旨在为人工智能的相关研究提供范例,从专业的角度促进公众对人工智能的理解,并为研究人员提供讨论和参与的开放平台,从而共建计算机领域的未来。
微软亚洲研究院的每一位专家都是我们的智囊团,你在这个账号可以阅读到来自计算机科学领域各个不同方向的专家们的见解。请大家不要吝惜手里的“邀请”,让我们在分享中共同进步。
也欢迎大家关注我们的微博和微信 (ID:MSRAsia) 账号,了解更多我们的研究。
我认为最大的挑战是:由研究弱智能的人来制定强智能领域的规则!!!
近期最热的与人工智能 AI 相关的事件,莫过于 ChatGPT 的横空出世。ChatGPT 从发布到今天已经差不多快 3 个月了,其热度不言而喻。可以聊的话题有很多:比如它对社会的巨大影响力,比如其母公司 OpenAI 在肯尼亚雇员的工作条件,比如它对环境资源的消耗等等……但对于 Sedex 这样一个立足企业可持续发展的公司而言,“科技伦理”是科技行业企业不可回避的一个话题,也是企业在治理(G)层面的重要议题。
多项试验证实了 ChatGPT 存在“歧视”和“偏见”问题,例如,当被问及律师和医生职业的答案,它更倾向于给出“男性”的答案。在此之前,谷歌、Meta 等科技巨头研发的 AI 应用,被曝光存在“儿童不宜”的场景或诱导性言论。我们看到,AI 确实是一场正在发生的社会变革,潜在的好处是巨大的。但是,我们也不能忽视 AI 背后的伦理问题。
就目前主流的研究而言,科技伦理主要涵盖以下3个方面:1.算法歧视,主要是由于算法内部演算和数据分析所导致的对特定群体或个人的不公正对待。2.隐私,算法对数据的大规模收集、使用,可能威胁隐私或引起隐私泄露。3. 责任与安全,算法运行过程中的安全行、可控性,包括行为安全和人类控制,以及由此造成的损害由谁来承担。
对于科技行业而言,科技伦理已是“必选项”和“必答题”。科技伦理被写入了十九届四中全会《决定》和《十四五规划和2035年远景目标纲要》,上升到了国家顶层政策设计。在监管层面,互联网监管聚焦人工智能算法应用,算法滥用、算法推荐的治理被提上日程,《数据安全法》要求数据活动和数据新技术应当“符合社会公德和伦理”。
至于企业如何在治理层级管理科技伦理相关问题,或许从人工智能领域的先行企业的实践中,能够获得一些启发:
索尼对所有AI产品进行伦理审查
索尼在2021年春季对所有使用人工智能(AI)的产品进行伦理方面的安全性审查。被判定为不合规的产品将进行整改或停止开发。索尼事业部从产品策划到售后的各个阶段,按照“隐私保护”等项目进行审查,如存在问题就进行整改。同时,还由首席执行官(CEO)指定AI伦理委员会的委员长,对指南的遵守情况进行仔细审查。即便是正在开发当中的产品,只要委员会做出判断,就可以建议中止。已经售出的产品,如发现有重大问题,也可能成为召回对象。
Meta 开源 AI 语言模型
Meta AI 实验室高调宣布,将开放自己的语言大模型 OPT(Open Pretrained Transformer,预训练变换模型),毫无保留地贡献出所有代码。Meta表示,会把不同参数规模的训练模型以及“OPT如何建造和训练”的详细信息分发给研究人员。Meta AI 负责人Joelle Pineau承认,团队解决不了所有问题,包括文本生成过程中的伦理偏见和恶毒词句。因此,他们诚邀天下豪杰,共同学习;而实际上,这也是一种彼此监督。
Twitter联合发起AI偏见赏金挑战赛,以让算法更公平
2021 年 8 月,Twitter举办了第一次算法偏见赏金挑战赛 ,并邀请邀请人工智能开发者社区来拆解算法,以识别其中的偏见和其他潜在危害。 算法赏金挑战赛帮助公司在短时间内发现了算法对于不同群体的偏见问题,成为公司征求反馈和了解潜在问题的重要工具。Twitter机器学习伦理、透明度与责任小组的主管拉曼·乔杜里(Rumman Chowdhury)认为:“发现机器学习模型中的歧视是很困难的。但是歧视一旦触及用户,就会发现不可预估的道德伤害。
总结而言,企业需要梳理清楚以下几个问题:企业的科技伦理遵循哪些原则?实践这些原则的方法是什么?具体的行动计划?由哪个部门履行具体职责?
无数事实证实了科技是一把双刃剑,下个 10 年,伴随科技行业飞速发展的同时,对科技行业的管治势必将提出更高更具体的要求。
最近更新小说资讯
- 特别推荐 收藏共读|朱永新:新教育实验二十年:回顾、总结与展望(上)
- 网红+直播营销模式存在的问题及建议
- 火星探测、卫星搜寻、星球大战,你有怎样的“天问”?
- 希腊男性雕塑 希腊人的美学,那里越小越好
- 枸杞吃多了会怎么样 成年人一天可以吃多少
- “妈妈和哥哥被枪杀后,我变成地球最后一个幸存者”:热搜这一幕看哭了……
- 节约粮食倡议书400字作文
- 祖孙三代迎娶同一个妻子,本以为是笑话,没想到却是真实故事
- 进击的中东,唯有一声叹息
- 唐山性感老板娘不雅视频曝光,少妇贪心,少男痴情!注定两败俱伤
- 【盘点】5G时代下,相关专业有哪些?
- 毁三观的旧案, 双胞胎兄弟交换身份与女友发生关系, 终酿伦理纠纷
- 腾格尔在当今乐坛的地位如何(腾格尔为什么能)
- 小贝日本游,11岁小七身材发育成熟,穿紧身衣有曲线,瘦了一大圈
- 甩三大男神前任,恋上有家室老男人拿下影后,她人生比电影还精彩
- 女英雄为国为民,先后嫁给3人,却落个精神崩溃服毒自尽
- 墨西哥超大尺度神剧,四对超高颜值情侣一言不合竟开启“换妻游戏”?
- 妈妈对小学孩子的成长寄语
- 面向未来的工程伦理教育
- 用大宝贝帮妈妈通下水道好吗
- 第36章:家庭伦理
- 华东师范大学心理学考研看这一篇就够了
- 李玉《红颜》 电影带来的世界44
- 微改造 精提升⑩ | “渔民画云码头”,探索传统非遗产业化发展新路径
- 清朝皇帝列表及简介 清朝历代皇帝列表