
吉林省吉林地区普通中学2024-2025学年度高中毕业年级第二次调研测试语文试题 一、现代文阅读(35分) (一)现代文阅读I(本题共5小题,19分)阅读下面的文字,完成1~5题。 材料一: 杰弗里·辛顿,这位常被冠以“人工智能教父”的计算机科学家,几十年来勤勤恳恳,以独创的方式构建出更大的神经网络。他设计出了训练它们并帮助它们改进的新方法。他认为自己正在研究的项目,可能在他死后的一个世纪里才会硕果累累。在承受生活与研究瓶颈双重压力时,他倾尽所有,努力做到最好。“我46岁的时候(三十年以前)就已经觉得研究走进了死胡同”。不过大约十年前,他没有预料到神经网络技术会突然加速,进步得如此之快。 我们绕着海岸走回到辛顿的小屋,这是岛上唯一的小屋。小屋的外立面以玻璃镶嵌,矗立在小岛的高处,连接它的是宽阔的黑色岩石台阶。当我们走近房子时,辛顿告诉我,“有一次,就在这儿,一条巨大的水蛇探出了头”。美好的回忆历历在目。辛顿的父亲是一位著名的昆虫学家,这让辛顿从小就产生了对冷血动物的喜爱。如今,辛顿也会观察它们。辛顿是一个敏锐的非人类物种观察者,他一生都在用从低级生物到高级生物的方式逐级思考生命的思考方式。 “杰弗里天生就是科学家”。在学校里,辛顿表现出了对科学的极大兴趣。在剑桥,辛顿尝试了不同的领域。他短暂地退学,然后又回到大学,试着上了仅一天的建筑学课。最后,在涉猎了物理、化学、生理学和哲学后,选择攻读实验心理学学位。他经常在道德哲学家伯纳德·威廉姆斯的办公室里闲逛,后者对计算机和思维很感兴趣。有一天,威廉姆斯指出,我们的不同想法一定反映了我们大脑内部不同的物理结构;这与计算机内部的情况完全不同,计算机中的软件独立于硬件。辛顿被这一观察击中;他记得在高中时,一位朋友告诉他,记忆可能“全息地”存储在大脑中———也就是说,记忆是分散在大脑中的,但可以通过任何一个部分访问整体。而他现在要面对的事正是“联结主义”———一种结合神经科学、数学、哲学和编程来探索神经元如何协同工作以“思考”的方法。联结主义的一个目标是在计算机中创建一个类似大脑的系统。 (摘编自约书亚·罗特曼《为什么A.I.教父害怕他一手建立的人工智能帝国 》) 材料二: 语言学家被一个叫乔姆斯基的人误导了好几代。他有一个偏执古怪的理论,即语言不是学会的。他成功地说服很多人相信这一点。这个说法显然是一派胡言。语言显然是学会的。大型神经网络学习语言,不需要任何先天结构,只是从随机权重和大量数据中开始学习。乔姆斯基却仍然在说,但这并非真正的语言,这不算数,这是不对的。许多统计学家和认知科学家也说,永远不可能在这样一个大网络里学习语言。乔姆斯基从来没有提出任何一种有关语义的理论,他的理论全是关于句法的。 我们如果考虑语义,就会发现有两种截然不同的语义理论。一种是符号人工智能研究者相信的结构主义理论,即一个词的意思来自于它与其他词的关系。你如果想捕捉一个词的意思,就需要制作一个关系图,图中包含这个词与其他词的链接,也许还有链接点上的标签,说明它怎样与其他词相关。这就是一个语义网络,是捕捉意思所需要的。 此外还有一种非常不同的理论,即一个词的意思是一个大的特征集合,意思相近的词具有近似的特征集合。 这两种理论看起来完全不同。但实际上,我们可以把二者统一起来。 我认为第一个做到这一点的是我在1985年制作的一个小型语言模型。它通过尝试预测下一个词来学习。具体而言,它学习每个词的特征以及这些特征之间的相互作用,这样就可以预测下一个词的特征。重要的是,所有知识都体现在给一个词分配哪些特征以及不同词的特征应该怎样相互作用。这个模型不存储任何句子,却可以重构句子,也就是通过反复 ... ...
~~ 您好,已阅读到文档的结尾了 ~~