ID: 25022527

第七单元 第3课《人工神经网络发展史》课件【清华版】人工智能通识( 中学)

日期:2026-02-02 科目:信息技术 类型:初中课件 查看:38次 大小:20304896B 来源:二一课件通
预览图 1/12
第七,清华,中学,通识,人工智能,单元
  • cover
(课件网) 第七单元 第3课 人工神经网络发展史 清华版(中学) 通 1 学习目标 3 新知讲解 5 拓展延伸 7 板书设计 2 新知导入 4 课堂练习 6 课堂总结 课后作业 8 01 教学目标 (1)了解人工神经网络的发展历程,从感知器到深度神经网络。 (2)了解不同神经网络结构的核心原理及其应用场景。 (3)探讨深度神经网络的强大学习能力及其对人工智能的影响。 02 新知导入 1. 人工神经网络的发展历程 从M-P模型(1943年)到感知机(1957年)、反向传播(1986年),再到深度学习(2006年后),神经网络经历了多次兴衰与突破。 02 新知导入 2. 技术演进的关键节点 人工神经网络从M-P模型的理论奠基,经历感知机的兴衰与反向传播的突破,最终推动深度学习的崛起。 02 新知导入 3. 当前影响与未来潜力 现代神经网络(如CNN、Transformer)在图像、语言等领域实现革命性应用,持续拓展AI边界,展现了通用智能的潜力。 03 新知讲解 1 感知器模型的兴起与衰落 1. 感知器模型的核心机制 感知器是M-P模型的扩展,通过 单层网络结构 (输入层+输出层)实现二分类,输出规则为:加权和>0输出1,否则输出-1。 03 新知讲解 1 感知器模型的兴起与衰落 2. 罗森布拉特的突破性贡献 1957年提出 权重可训练 的感知器,首次实现从数据中自主学习,开创“学习即智能”的新范式。 03 新知讲解 1 感知器模型的兴起与衰落 3. 线性可分的根本局限 感知器仅能解决 线性可分问题 (如用直线分类),无法处理异或(XOR)等非线性问题,这一缺陷被闵斯基严格证明。 03 新知讲解 1 感知器模型的兴起与衰落 4. 对AI发展的双重影响 感知器的短期挫折(AI寒冬)与长期价值(奠定深度学习基础)共同构成了神经网络发展的关键转折点。 03 新知讲解 1. 多层感知器(MLP)的结构创新 通过引入 隐藏层 和 非线性激活函数 (如Sigmoid、ReLU),MLP突破了感知器的线性局限,能够构建复杂非线性分类面,解决异或(XOR)等难题。 2 MLP的提出及BP算法 03 新知讲解 2. 反向传播(BP)算法的突破 核心思想 :利用误差反向传播,逐层调整权重(输出层→隐藏层→输入层); 两阶段流程 :前向传播计算输出,反向传播修正误差,通过迭代优化网络性能。 2 MLP的提出及BP算法 03 新知讲解 3. 算法复兴与深远影响 1986年辛顿等人将BP应用于MLP训练,解决了深层网络学习难题,直接推动神经网络研究从低谷走向复兴,为深度学习时代奠定基础。 2 MLP的提出及BP算法 03 新知讲解 3 多种神经网络的提出 1. 卷积神经网络(CNN)的核心设计 采用 局部连接 和 权重共享机制,高效提取图像等数据的局部特征,降低参数量的同时增强模式识别能力。 03 新知讲解 3 多种神经网络的提出 2. CNN的生物学启发与历史演进 受视觉皮层局部敏感机制启发,从福岛邦彦的神经认知机(1980)到杨立昆的LeNet-5(1990s),再到大数据时代的深度CNN(如ResNet),逐步推动计算机视觉革命。 03 新知讲解 3 多种神经网络的提出 3. 循环神经网络(RNN)的序列建模优势 通过 循环结构 保留历史信息(记忆功能),实现对序列数据(如语言、时间序列)的上下文依赖建模,适用于语义理解、预测等任务。 03 新知讲解 3 多种神经网络的提出 4. RNN的变体与突破性进展 从霍普菲尔德网络(1982)、乔丹/埃尔曼网络(1980s)到LSTM(1997),通过门控机制解决长程依赖遗忘问题,显著提升序列建模性能。 03 新知讲解 3 多种神经网络的提出 5. CNN的典型应用场景 广泛应用于图像分类、目标检测、人脸识别等视觉任务,成为处理空间局部相关性数据的标准工具。 03 新知讲解 3 多种神经网络的提出 6. RNN的典型应用场景 主导自然语言处理(如情感分析、机器翻译)、语音识 ... ...

~~ 您好,已阅读到文档的结尾了 ~~