ID: 17521417

中职《走近人工智能》(商务印书馆·2022) 12.4人工智能伦理研究与立法 课件(共23张PPT)

日期:2025-10-14 科目: 类型:课件 查看:44次 大小:10095883B 来源:二一课件通
预览图 1/9
中职,伦理,23张,课件,立法,研究
  • cover
(课件网) 第十二章 人工智能伦理规范 目录 二、危机所在:人工智能的危险 三、伦理规范:人工智能伦理法则 四、立法问题:人工智能伦理研究与立法 一、角色变化:人工智能的三种角色 人工智能 伦理规范 本章知识思维导图 “人工智能可能代表着某种文明的危险,这不仅仅是在个人层次,所以的确需要大量的安全性研究。” --埃隆·马斯克(ElonMusk,特斯拉和SpaceX负责人) 一、角色变化: 人工智能的三种角色 三、伦理规范: 人工智能伦理法则 四、立法问题: 人工智能伦理研究与立法 二、危机所在: 人工智能的危险 (四)行业领袖提出的人工智能伦理准则 其次,是谷歌公司。谷歌公司认为,当AI系统被广泛运用到各行业之后,有一些长期的研究问题需要提前关注,关注这些问题对AI系统有着至关重要的作用。为此,他们为具有学习能力的机器系统提出了安全准则: (1)要避免“副作用”。即要考虑如何保证AI系统不会在完成目标的过程中干扰周遭的环境;(2)避免AI“投机取巧”。以保洁机器人为例,如果我们将机器人的任务目标设定为“周围没有任何杂物”,结果机器人并没有进行清洁,反而是用布或者纸张将杂物盖住,这样一来它“看不见”杂物也就“投机取巧”地完成了任务;(3)发挥AI的“理解力”。AI系统在执行任务前往往需要得到人类的首肯。我们该让AI能够理解人类的情感偏好,可以做到机器人在脱离人类的帮助的情况下,迅速“领悟”其任务的关键;(4)安全进 四、立法问题: 人工智能伦理研究与立法 (一)未来的命运取决于人类自己 犹太人尤瓦尔·赫拉利(Yuval Noah Harari)在《人类简史》后记中写道:“时今日,智人似乎只要再跨一步就能进入神的境界,不仅有望获得永恒的青春,更拥有创造和毁灭一切的力量……我们拥有的力量比以往任何时候都要强大,但几乎不知道该怎么使用这些力量。更糟糕的是,人类似乎也比以往任何时候更不负责。我们让自己变成了神,而唯一剩下的只有物理法则.…” “人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。” --霍金 这一心态是可怕的,最终的罪恶依然要人类自己来承担。当前,世界大部分家都在集中力量发展人工智能,并且亚太地区、美洲地区和欧洲地区的主要国家在机器人研发项目方面的目标各有不同。例如在亚太地区,日本的战略是“机器人新战略和机器人革命”,韩国是“打造人人拥有机器人的社会”,中国是“促进机器人技术和产业的发展”;美洲地区以美国为代表,主要是要“普及协作机器人”;欧地区是“地平线2020”,德国是“人机交互的创新潜力”,意大利是“工业4.0”。这足以看出人工智能的重要性,可以预见,人工智能在未来几十年会加速发展。如果人类只是一味地追求发展而置技术伦理和技术危险于不顾,那么这样的发展则盲目的。 面向未来,随着人工智能越来越多地介入人类生产生活,有关这项技术的“电子人格”、网络安全防护、算法偏见、自动化武器研发等成为社会热议的话题。与此同时,隐藏在人工智能技术创新下的安全威胁,可能比传统的安全风险更难应对。这对人工智能的技术设计、应用范式、隐私保护、安全监管等环节提出更高的要求。 (一)未来的命运取决于人类自己 从1956年在美国达特茅斯学院举办人类历史上第一次人工智能研讨会开始,人工智能几经波折已走过了六十多年的发展历程。大数据、学习算法和计算能力等技术的飞速发展,让人工智能匹敌人类逐渐成为现实。 许多人对人工智能充满兴趣,也有许多人对此心怀恐惧。英国小说家玛丽·雪莱的小说《弗兰肯斯坦》讲述了一位理工科学生创造了一个科学生物,这个生物最终变成了杀人狂,像这样的情况就是令人恐惧的。人工智能会不会在达到 ... ...

~~ 您好,已阅读到文档的结尾了 ~~