(
课件网) 第五单元 第5课 人工智能与社会公平 清华版(中学) 通 1 学习目标 3 新知讲解 5 拓展延伸 7 板书设计 2 新知导入 4 课堂练习 6 课堂总结 课后作业 8 01 教学目标 (1)理解人工智能应用中的公平性问题,包括数据偏差导致的歧视和特殊群体面临的技术障碍,以及不公平使用的风险等。 (2)学习应对人工智能公平性挑战的方法,例如改进数据质量、推动无障碍设计和加强法律监管。 02 新知导入 人工智能引发的公平性问题 所谓公平性,是指AI在面对不同人群时不能产生系统性的行为偏差 02 新知导入 03 新知讲解 公平性问题产生的主要原因 老年人和残疾人等特殊群体的使用不便; AI技术掌握在个别群体里,造成不公平使用 训练数据本身的偏差带来的系统歧视; 03 新知讲解 1 数据偏差导致的人工智能系统歧视 1. 数据偏差是AI歧视的根本源头 训练数据若包含历史偏见,如招聘数据中的性别倾向,AI模型会学习并再现这些歧视,甚至进一步放大不公。 03 新知讲解 1 数据偏差导致的人工智能系统歧视 2. 典型领域:招聘中的性别歧视案例 亚马逊AI招聘工具因训练数据以男性简历为主,导致系统自动贬低女性求职者评分,最终项目因无法解决偏见被终止。 03 新知讲解 1 数据偏差导致的人工智能系统歧视 3. AI歧视的恶性循环效应 AI不仅复制人类社会的既有偏见,其自动化决策的规模性会使歧视系统化、扩大化,更难被发现和纠正。 03 新知讲解 1 数据偏差导致的人工智能系统歧视 4. COMPAS系统的种族偏见案例 2016年ProPublica调查显示,COMPAS算法对7000多名被告的预测存在显著种族歧视:黑人被错误标记为高风险的概率是白人的两倍,凸显数据驱动的系统性不公。 03 新知讲解 1 数据偏差导致的人工智能系统歧视 5. 偏见根源:数据与社会的恶性循环 训练数据源自带有种族偏见的执法记录,AI学习这些偏差后反向强化歧视,形成不公的闭环。 03 新知讲解 1 数据偏差导致的人工智能系统歧视 6. AI信用评分的广泛应用与潜在歧视 AI广泛应用于金融领域的信用评估,但因数据偏差可能导致对特定族群的系统性评分不公。 03 新知讲解 1 数据偏差导致的人工智能系统歧视 7. AppleCard性别歧视典型案例 2019年AppleCard被曝性别偏见:包括程序员汉森和沃兹尼亚克的多名男性用户获得的信用额度远超其妻子,尽管夫妻财务共享,但仍凸显算法黑箱与解释性缺失。 03 新知讲解 1 数据偏差导致的人工智能系统歧视 8. 少数族裔的金融歧视问题 研究显示,AI信用模型常给予白人申请者更高评分,而非裔、拉丁裔及低收入群体则面临更低额度或更高利率,加剧历史性经济不平等。 03 新知讲解 1 数据偏差导致的人工智能系统歧视 9. 偏见根源与治理困境 歧视源于历史经济数据,如收入差距、信贷记录差异等,且算法决策缺乏透明度,导致监管与整改困难。 03 新知讲解 2 特殊群体在人工智能面前的不平等性 1. 特殊群体的AI使用障碍与公平性缺失 老年人、残障人士因技术适应能力、生理限制等因素,在AI普及中面临边缘化,难以平等享受技术红利。 03 新知讲解 2 特殊群体在人工智能面前的不平等性 2. 老年人的数字化困境 疫苗接种预约、医疗挂号等线上服务的复杂操作界面与流程,使许多老年人无法获取基本服务,加剧数字鸿沟。 03 新知讲解 2 特殊群体在人工智能面前的不平等性 3. 残障人士的AI边缘化问题 无人车、人脸识别、语音助手等AI设备应用缺乏无障碍设计,对视障、听障、行动障碍人群兼容性差。 03 新知讲解 2 特殊群体在人工智能面前的不平等性 4. 数据代表性不足与技术缺陷 训练数据中残障人群样本稀缺,导致AI系统对特殊特征(如口音、面部畸形)识别错误率高,性能显著下降。 03 新知讲解 3 AI技术的不公 ... ...