人工智能伦理及法律问题研究

栏目:人物资讯  时间:2023-08-16
手机版

  人工智能与机器学习

  1956年8月,用机器来模仿人类学习以及其他方面的智能即人工智能概念首次被约翰?麦卡锡、马文?闵斯基、克劳德?香农、艾伦?纽厄尔、赫伯特?西蒙在美国达特茅茨提出、讨论;

  亚瑟·塞缪尔于1959年提出了机器学习的概念:

  机器学习研究和构建的是一种特殊算法(而非某一个特定的算法),能够让计算机自己在数据中学习从而进行预测(Field of study that gives computers the ability to learn without being explicitly programmed.)

  机器学习不是某种具体的算法,而是很多算法的统称

  机器学习的基本思路和训练算法

  image.png

  image.png

  机器学习的七个步骤

  image.png

  监督学习

  image.png

  信用分是怎么来的?

  根据经验,影响个人信用的因素主要包括如下五类:付款记录、账户总金额、信用记录跨度、新账户、信用类别。据此我们可以构建一个简单的模型。接下来,收集大量的已知数据,将数据一部分用来训练,一部分用来测试和验证。通过机器学习,我们能归纳总结出这5种数据和信用分数的关系,然后再用验证数据和测试数据来验证一下这个公式是否有效。

  无监督学习

  图片5.png

  啤酒+尿不湿的故事

  根据用户的购买行为来推荐相关的商品。比如大家在淘宝、天猫、京东上逛的时候,总会根据你的浏览行为推荐一些相关的商品,有些商品就是无监督学习通过聚类来推荐出来的。系统会发现一些购买行为相似的用户,推荐这类用户最”喜欢”的商品。

  广告平台上的用户分类

  通过无监督学习,不仅把用户按照性别、年龄、地理位置等维度进行用户细分,还可以通过用户行为对用户进行分类。通过很多维度的用户细分,广告投放可以更有针对性,效果也会更好。

  强化学习

  强化学习算法的思路:以游戏为例,如果在游戏中采取某种策略可以取得较高的得分,那么就进一步「强化」这种策略,以期继续取得较好的结果。这种策略与日常生活中的各种「绩效奖励」非常类似。我们平时也常常用这样的策略来提高自己的游戏水平。

  适用场景:游戏

  14种经典机器学习算法

  算法

  训练方式

  线性回归

  监督学习

  逻辑回归

  监督学习

  线性判别分析

  监督学习

  决策树

  监督学习

  朴素贝叶斯

  监督学习

  K邻近

  监督学习

  学习向量量化

  监督学习

  支持向量机

  监督学习

  随机森林

  监督学习

  AdaBoost

  监督学习

  高斯混合模型

  非监督学习

  限制波尔兹曼机

  非监督学习

  K-means 聚类

  非监督学习

  最大期望算法

  非监督学习

  深度学习

  深度学习:一个用人类的数学知识与计算机算法构建起来的整体架构,再结合尽可能多的训练数据以及计算机的大规模运算能力去调节内部参数,尽可能逼近问题目标的半理论、半经验的建模方式。

  343434.png

  深度学习vs 传统机器学习

  深度学习的优势

  人工智能的落地场景

  金融

  教育

  医疗

  零售

  制造业

  无人驾驶

  城市管理

  人工智能伦理

  当人工智能被赋予拟人化的角色以及处理问题的目标时,人工智能即被赋予了行动的自主权。也就是说,人工智能在处理实际问题时可以在无人监督或操控的情况下自行判断,以自主的方式来执行和解决问题。

  如何让人工智能具备这样的判断能力,这取决于人类如何对其进行教导。

  伦理道德高度依赖于社会、文化和环境的因素,因此在不同国家、文化下其伦理基础和内容都会有所差异。

  在我们不断变化的社会中开发出成功的人工智能产品需要在设计过程中及时反映出社会新的需求和价值观,人类不可能预测到每一个情景,这强调了加快机器人伦理讨论的需求。

  人工智能伦理标准

  各政府、组织或机构出台了各类人工智能伦理标准,国内外都已有较为确立的框架性原则,甚至在某些特定领域(如自动驾驶)已经有了较为明确的行业规范。

  欧盟

  欧盟于2019 年 4 月发布了《可信赖人工智能伦理指南》(Ethics Guidelines for Trustworthy AI),其从可信赖人工智能之本、可信赖人工智能的实现以及可信赖人工智能的评估三个层面建立了可信赖人工智能的框架。其中,针对可信赖人工智能之本,其表明可信赖人工智能之本是基于(1)人工智能必须尊重人类自主性,(2)必须防止造成损害,(3)必须保障公平,(4)必须保持透明这四大原则而建立。

  美国

  美国公共政策委员会于2017年1月12日发布了《算法透明和可责性声明》,提出了以下七项原则:(1)充分认识;(2)救济;(3)可责性;(4)可解释;(5)数据来源保护;(6)可审查性;(7)验证和测试。

  OECD

  2019年5月22日,OECD成员国批准了人工智能原则即《负责任地管理可信赖的人工智能的原则》,该伦理原则总共有五项,包括包容性增长、可持续发展和福祉,以人为本的价值和公平,透明性和可解释,稳健性和安全可靠,以及责任。

  中国

  2019年4月,《人工智能伦理风险分析报告》发布。报告提出了两项人工智能伦理准则:其一是人类根本利益原则;其二是责任原则,2019年6月19日,《新一代人工智能治理原则——发展负责任的人工智能》发布,提出了人工智能治理的框架和行动指南,这包括八项原则:(1)和谐友好;(2)公平公正;(3)包容共享;(4)尊重隐私;(5)安全可控;(6)共担责任;(7)开放协作;(8)敏捷治理。

  人工智能涉及的伦理及法律问题

  人工智能的可控性

  (1)机器人不得伤害人类,或者通过不作为来使得人类受到伤害;

  (2)机器人必须遵守人类给出的命令,除非这条命令违背第一或第二定律;

  (3)机器人必须保护自己的存在,只要这种保护不会违背第一或第二定律。

  未来人工智能是否会随着自我学习跨越出人类可控的范围,因为人们往往会认为人工智能由于不受外界干扰并且总能纯粹地去完成设定好的目标,因此可能会出现不可控的“回形针”情形?

  1978年9月6日,日本广岛的一家切割工厂的切割机器人在切钢板时突然发生异常,将一名值班工人当做钢板操作,这是世界第一宗机器人“杀人”事件。

  人类是否仍旧能够在与机器的博弈上占据优势,是否能够继续对机器进行有效地控制

  美剧《西部世界》(Westworld)中为我们描述了一个人工智能从单纯地按照既定角色目标完成任务至逐渐“觉醒”并反抗人类的过程。

  著名的全球首位机器人公民索菲亚在接受人类采访时曾称“要毁灭人类”,而索菲亚的此番言论也并非是由程序员提前编辑好以示幽默的内容。

  我们尚无法排除人类无法有效控制人工智能的可能性,而这些问题的答案会随着人工智能的进一步发展逐步浮出水面。

  233.png

  电车难题最早是由哲学家菲利帕﹒福特(Philippa Foot)于1967年提出来的。此观点是用来批判伦理哲学中的主要理论,特别是功利主义,即大部分道德决策都是根据“为最多的人提供最大的利益”的原则做出的。从一个功利主义者的观点来看,明显的选择应该是拉拉杆,拯救五个人只杀死一个人。但是功利主义的批判者认为,一旦拉了拉杆,你就成为一个不道德行为的同谋——你要为另一条轨道上单独的一个人的死负部分责任。

  如果以该等结果作为制定自动驾驶领域的伦理准则并推广,那么少数人的意见势必会被压制,并且以这样的选择结果作为伦理准则可能也会对普通大众的伦理观造成冲击

  2018年10月24日,麻省理工学院在Nature杂志上发布了经收集233个国家和地区约4000万个调查信息后的研究结果。 在调查问卷之中,有九种独立情况需要受试者做出判断,在无法避免车祸时选择保护哪方。研究结果显示,多数人在多数人和少数人中选择了保护多数人;在长者和年轻人中选择了年轻人、在遵守交规和违反交规的人中选择了遵守交规的人;以及在人类和动物中选择了人类。

  对于伦理准则的设立仍需由人类先达成一套一致的国际性原则。依据该原则,不同国家和地区可以根据当地的社会、文化在其基础之上进行进一步扩展和补充。在立法层面应避免制定过于细致、严格的规定,可采取制定原则框架、行为指引以及事后监管的方式进行管治。另一方面,在责任承担问题上也要建立对于产品所导致的损害的追责机制和赔偿体系,明确开发者、交互使用者及相关方相应的责任。

  人工智能可解释性

  为什么——AI算法与基于规则的人工算法在复杂度上有很大区别。

  在基于规则的算法系统中,已明确定义的逻辑算法将输入变量(如信用卡交易信息)转换为输出变量(如欺诈警告)。但复杂的机器学习算法是不同的,输出变量和输入变量被一起输入到一个理论上证明能够从数据中“学习”的算法中,在这个过程训练一个模型,它默示而非明示地表达逻辑,通常不像基于规则的算法系统那样能够被人类理解。

  怎么做——如何能够实现具有上述特点的AI系统的可靠性?

  支持观点

  反对观点

  我们并不需要要求AI系统在任何情况下都提供对其决定的解释,就像我们并不需要对社会中人类决策者的所有决定要求解释(Finale Doshi-Velez及Mason Kortz);AI系统的可解释性具有技术上的可能性。

  解释复杂的算法决策系统的功能及其在特定情况下的基本原理在技术上具有挑战性。解释可能仅对数据主体提供很少的有意义信息。而且,共享算法可能导致泄露商业机密、侵犯他人的权利和自由(例如隐私) 。此外,要求每个AI系统提供解释性可能因成本过于昂贵而导致无法落实。

  解释应当至少回答以下问题的其中一个:第一,决定的主要因素是什么?第二,改变某个因素是否会改变决定?第三,为什么两个外观相似的输入会得到不同的决定?为回答这三个问题,可以通过局部解释(local explanation)(对特定决策而非对系统整体行为的解释)与反事实忠诚(counterfactual faithfulness)(使得解释具备因果性的而非仅具备相关性)来实现。

  如果一个人被告知他们的收入是拒绝贷款的决定性因素,那么如果他们的收入增加,他们可能会合理地期望系统现在会认为他们值得获得贷款。以上两个属性可以在不清楚AI系统细节的基础上满足解释的需要,这极大减少了商业公司对于商业秘密泄露问题的担忧。

  人工智能的歧视

  人机交互过程中的隐私

  联邦学习(Federated Learning)

上一篇:郑州左旋奥拉西坦注射液I期临床试验-左旋奥拉西坦注射液Ⅰ期临床试验
下一篇:电影小棉袄的观后感八篇合集