莱西一中高三第二次月考考试 语 文 2025.12 本试卷共10页,满分150分,考试用时150分钟。 注意事项: 1.答卷前,考生务必在答题卡写上考生姓名、考生号、考场号、座位号等相关信息。 2. 选择题每小题选出答案后,用2B 铅笔把答案涂在答题卡相应的位置上。 一、阅读(72分) (一)阅读Ⅰ(本题共5小题, 19分) 阅读下面的文字,完成1~5题。 材料一: 近年来,生成式人工智能爆发式发展,用户规模已达2.49亿人。然而,当AI照进现实,除AI谣言等直接威胁外,“AI幻觉”正逐渐混淆公众视听,隐藏潜在风险。 “AI幻觉”一般分为事实性幻觉与忠实性幻觉两大类。前者指的是生成内容与可验证的现实世界事实不符。比如说,谷歌AI工具 Bard曾错误宣称世界上首张来自太阳系外星球的照片是由詹姆斯·韦布空间望远镜拍摄下来的,但实际上这里的“首张”并非人类历史上的首张。 ① 。比如说,当你要求AI帮助查询今天的天气时,结果得到的却是去年今日的天气信息;当你提问“糖尿病患者能否用蜂蜜代替糖”时,AI回答“蜂蜜富含维生素和矿物质,可提高免疫力”。看似“有板有眼”,实际答非所问。 被幻觉笼罩的AI大模型,面对知识边界外的提问时,可能把《三国演义》当作史实,也可能把网民杜撰当作权威信源,甚至可能无中生有引用虚假案例,用看似完美的逻辑链条编织答案。AI幻觉告诉我们,AI有可能“欺骗”用户。在与AI“合作”时,应时刻保持必要的怀疑态度和批判思维,多渠道核查验证信息的准确性。同时,不能以AI创造替代人类创造,让“人工智能”替代“人类智能”。 (摘编自“浙江宣传”《谨防AI幻觉制造认知陷阱》) 材料二: “AI幻觉”指人工智能系统生成看似合理、逻辑自洽,实则与客观事实不符或完全虚构内容的现象。这一概念起源于1995年,计算机科学家斯蒂芬·塞勒用其指代神经网络自发产生的新想法,当时带有褒义,象征AI的创造力。2017年左右,随着能稳定生成图像或文字的AI出现,“幻觉”开始用于描述神经机器翻译模型生成与原文不符译文的情况;到2022年8月, Meta在论文中将其定义为“自信地说假话”,这个定义成为当前主流认知,同时也概括了其核心特征。测试显示,DeepSeek R1幻觉率达14.3%, OpenAI03最低,也有0.8%。 “AI幻觉”的生成源于三方面:其一,原始数据集存在缺陷,大规模预训练数据常混杂事实谬误与系统性偏差,而AI缺乏自主甄别能力,如训练数据中未标注虚构的科幻小说,可能让AI对其中设定“信以为真”;其二,生产逻辑有局限,以ChatGPT为代表的大语言模型,基于Transformer网络,通过计算词汇关联、预测文本序列模拟人类语言能力,但本质是“概率优等生”,仅靠统计匹配生成内容,不具备真正语义理解能力,无法确保事实准确;其三,训练过程存在问题,预训练阶段模型架构缺陷、训练目标不当,对齐阶段能力或信念错位,都会导致幻觉产生。因此,我们要交叉比对各不同模型的输出,规避因模型单一而产生AI幻觉。 “AI幻觉”的影响深远。一方面,它在重塑品牌传播符号逻辑,以概率生成的非常规关联打破传统营销叙事,释放创造力。另一方面,它在行业应用层面已造成实质性风险:在金融领域,国信证券用DeepSeek模型生成投资建议时,模型虚构金融产品致客户损失;法律场景中,数据显示AI生成虚假判例比例达17%,损害司法公信力。而更深层的影响在于数据库被污染,数字生态恶化;中文互联网38%科普文章含AI虚构信息,这些内容反哺模型训练形成“幻觉强化循环”;北京大学研究发现,经3轮迭代训练,模型事实错误率从12%升至 47%。这些影响正在动摇社会信任基础,消费者开始普遍质疑信息来源的本质:是人类专业承诺,还是机器的概率游戏?这将可能引发更深层次的社会认知危机。 (摘编自《AI幻觉的生成机制及影响》) ... ...
~~ 您好,已阅读到文档的结尾了 ~~