ID: 24844090

湖北省荆州市荆州中学2025-2026学年高二上学期12月月考语文试题(含答案)

日期:2026-01-01 科目:语文 类型:高中试卷 查看:83次 大小:425360B 来源:二一课件通
预览图 0
湖北省,答案,试题,语文,月月,学期
    荆州中学 2025-2026 学年高二上学期 12 月月考 语文试题 (全卷满分 150 分 考试用时 150 分钟) 一、现代文阅读(35 分) (一)现代文阅读Ⅰ(本题共 5 小题,19 分) 阅读下面的文字,完成 1~5 题。 材料一: 近年来,生成式人工智能爆发式发展,用户规模已达 2.49 亿人。然而,当 AI 照进现实,除 AI谣言等直接威胁外,“AI 幻觉”正逐渐混淆公众视听,隐藏潜在风险。 “AI 幻觉”一般分为事实性幻觉与忠实性幻觉两大类。前者指的是生成内容与可验证的现实世界事实不符。比如说,谷歌AI工具Bard曾错误宣称世界上首张来自太阳系外星球的照片是由詹姆斯·韦布空间望远镜拍摄下来的,但实际上这里的“首张”并非人类历史上的首张。 ① 。比如说,当你要求AI 帮助查询今天的天气时,结果得到的却是去年今日的天气信息;当你提问“糖尿病患者能否用蜂蜜代替糖”时,AI 回答“蜂蜜富含维生素和矿物质,可提高免疫力”。看似“有板有眼”,实际答非所问。 被幻觉笼罩的 AI 大模型,面对知识边界外的提问时,可能把《三国演义》当作史实,也可能把网民杜撰当作权威信源,甚至可能无中生有引用虚假案例,用看似完美的逻辑链条编织答案。AI 幻觉告诉我们,AI 有可能“欺骗”用户。在与 AI“合作”时,应时刻保持必要的怀疑态度和批判思维,多渠道核查验证信息的准确性。同时,不能以 AI 创造替代人类创造,让“人工智能”替代“人类智能”。 (摘编自“浙江宣传”《谨防 AI 幻觉制造认知陷阱》) 材料二: “AI 幻觉”指人工智能系统生成看似合理、逻辑自洽,实则与客观事实不符或完全虚构内容的现象。这一概念起源于 1995 年,计算机科学家斯蒂芬·塞勒用其指代神经网络自发产生的新想法,当时带有褒义,象征 AI 的创造力。2017 年左右,随着能稳定生成图像或文字的 AI 出现,“幻觉”开始用于描述神经机器翻译模型生成与原文不符译文的情况;到 2022 年 8 月,Meta 在论文中将其定义为“自信地说假话”,这个定义成为当前主流认知,同时也概括了其核心特征。测试显示,DeepSeekR1幻觉率达 14.3%,OpenAI03 最低,也有 0.8%。 “AI 幻觉”的生成源于三方面:其一,原始数据集存在缺陷,大规模预训练数据常混杂事实谬误与系统性偏差,而 AI 缺乏自主甄别能力,如训练数据中未标注虚构的科幻小说,可能让 AI 对其中设定“信以为真”;其二,生产逻辑有局限,以 ChatGPT 为代表的大语言模型,基于 Transformer 网络,通过计算词汇关联、预测文本序列模拟人类语言能力,但本质是“概率优等生”,仅靠统计匹配生成内容,不具备真正语义理解能力,无法确保事实准确;其三,训练过程存在问题,预训练阶段模型架构缺陷、训练目标不当,对齐阶段能力或信念错位,都会导致幻觉产生。因此,我们要交叉比对各不同模型的输出,规避因模型单一而产生 AI 幻觉。 “AI 幻觉”的影响深远。一方面,它在重塑品牌传播符号逻辑,以概率生成的非常规关联打破传统营销叙事,释放创造力。另一方面,它在行业应用层面已造成实质性风险:在金融领域,国信证券用 DeepSeek 模型生成投资建议时,模型虚构金融产品致客户损失;法律场景中,数据显示 AI 生成虚假判例比例达 17%,损害司法公信力。而更深层的影响在于数据库被污染,数字生态恶化:中文互联网 38%科普文章含 AI 虚构信息,这些内容反哺模型训练形成“幻觉强化循环”;北京大学研究发现,经 3 轮迭代训练,模型事实错误率从 12%升至 47%。这些影响正在动摇社会信任基础,消费者开始普遍质疑信息来源的本质:是人类专业承诺,还是机器的概率游戏?这将可能引发更深层次的社会认知危机。 (摘编自《AI 幻觉的生成机制及影响》) 材料三: 柏拉图洞穴与 AI 幻觉存在显著认知同构性。从投影机制看,洞穴 ... ...

    ~~ 您好,已阅读到文档的结尾了 ~~