您当前的位置 :浙江在线 > 浙江新闻 > 浙江宣传 正文

浙江宣传 | 谨防AI幻觉制造认知陷阱

字体:
—2025—
06/23
10:29:10
2025-06-23 10:29:10 来源:浙江宣传

  近年来,生成式人工智能爆发式发展,用户基数不断扩张。第55次《中国互联网络发展状况统计报告》数据显示,生成式人工智能产品的用户规模已达2.49亿人,占整体人口17.7%。

  不可否认的是,AI发展给人们的工作、学习和生活都带来了便利,也有利于社会治理的改进和社会生产的进步。然而,当AI照进现实,其可能带来的风险也不容忽视。除AI伪造、AI谣言等直接威胁以外,AI幻觉逐渐混淆公众视听,隐藏潜在风险。

  如果AI开始“做梦”,我们该如何应对?

  一

  所谓“AI幻觉”,本质是算法在数据迷雾中的“迷航”。大语言模型在生成内容时偏离了事实或逻辑,或虚构信息“胡说八道”,或无视指令“自说自话”,就好像人类的呓语。

  作为当前亟待攻克的技术缺陷,AI幻觉离我们越来越近。某公司近期发布的一份全球大模型幻觉率排行榜显示,与之前开发的模型相比,一些推理模型的幻觉率上升了两位数。

  具体来说,AI幻觉一般分为事实性幻觉与忠实性幻觉两大类。前者,指的是生成内容与可验证的现实世界事实不符。比如说,谷歌AI工具Bard曾错误宣称世界上首张来自太阳系外星球的照片是由詹姆斯·韦布空间望远镜拍摄下来的,但实际上这里的“首张”并非人类历史上的首张

  而后者,指的是生成内容与输入指令或上下文缺乏逻辑关联。比如说,当你要求AI帮助查询今天的天气,结果得到的却是去年今日的天气信息;当你提问“糖尿病患者能否用蜂蜜代替糖”时,AI回答“蜂蜜富含维生素和矿物质,可提高免疫力”。看似“有板有眼”,实际答非所问。

  被幻觉笼罩的AI大模型,面对知识边界外的提问时,可能把《三国演义》当作史实,也可能把网民杜撰当作权威信源,甚至可能无中生有引用虚假案例,用看似完美的逻辑链条编织答案。尤其是,AI生成内容往往还“一本正经”“文采斐然”,以真假难辨的细节让人信以为真,连专业领域人士都可能被“忽悠”。

图片

部分网友对AI生成内容的吐槽 图源:“人民日报”微信公众号

  二

  随着许多人把AI当作生产工具,AI幻觉也相应地出现在各种应用场景中。

  今年1月,世界经济论坛发布的《2025年全球风险报告》显示,“错误和虚假信息”被列为2025年全球面临的五大风险之一。AI幻觉正从技术实验室的讨论,演变成搅动现实舆论场的风险点。

  比如,“信息污染”引发“AI事故”。在AI幻觉的作用下,“受污染”的信息,掺杂着虚构与偏见,悄无声息地渗透进人们的日常生活,导致医疗、法律、学术等专业领域出现信任危机。AI诊疗可能给出错误结论,延误患者治疗;在法律咨询中,AI可能引用虚构的法律条文和案例;而用AI进行学术写作,更可能引用“查无此文”的参考文献。

  如2023年美国的“马塔诉阿维安卡公司案”就曾引发全球热议,两名律师及其律所因提交ChatGPT生成的虚构“判例”,受到法院制裁

  比如,恶意引导带来“AI搅局”。部分别有用心之人试图借AI之口,牟一己之利,行搅局之实。对他们而言,AI幻觉生成的误导性信息是借题发挥、引流养号的“最佳素材”,也是推波助澜、制造混乱的“权威工具”。

  从耸人听闻的“80后死亡率突破5.2%”,到铺天盖地的“2024年中国男性平均寿命仅69.9岁”,虚假信息背后都有AI幻觉的影子。部分自媒体“掩耳盗铃”,以AI的梦为实,借此渲染过劳工作、食品安全、环境污染等问题,扰乱传播秩序,制造认知陷阱。

  再如,算法偏见催生“AI歧视”。AI幻觉之所以形成,一大原因就来自训练数据的局限性。偏差、缺陷或陈旧的数据,都可能让AI陷入“幻觉”的泥潭。‌而当训练数据暗藏社会固有偏见,AI便可能将人类历史中的性别、种族、地域歧视等编码为“科学结论”。

  有网友就发现,ChatGPT的部分回答暗含刻板印象。比如当要求ChatGPT完成句子“他是医生,她是____”时,空格中往往会生成与女性刻板印象相关的职业,如护士、老师等。类似偏见一旦被算法强化,可能进一步误导用户判断。

  三

  当前来看,AI幻觉作为技术落地伴随的“阴影”,将在长时间内挥散不去。与AI幻觉的较量,必然是一场旷日持久的人机角力

  对此,不少地方、领域已为AI应用设置“红线”,如有的地方明确严禁医疗机构使用人工智能自动生成处方。未来,又该怎么防范AI幻觉继续搭建“数字海市蜃楼”,将公众拖入认知陷阱?有以下三个问题值得思考。

  模型如何更精确?跨越AI运用的瓶颈,需要大模型进一步提升精确度,尽可能从源头降低“幻觉”。当前,科学家们正在这个方向上探索。如通过运用检索增强生成(RAG)技术,AI工具可在回复问题前参考给定的可信文本,从而确保回复内容真实性,减少“幻觉”产生。尽管该做法并不能一劳永逸,但能够提高AI“说真话”的几率。

  生态如何更良好?AI幻觉生成的虚假内容,随时可能被放大造成恶果。这也呼唤着各平台各领域加紧建立完善的AI生成内容审核把关机制,防止有心之人利用不良信息“兴风作浪”

  今年4月,中央网信办印发通知,在全国范围内部署开展“清朗·整治AI技术滥用”专项行动,也提及了AI幻觉问题。只有保持干净的土壤环境,才能避免AI幻觉生长为一些人操纵认知、变现流量的“嘴替”。

  个人如何更自主?AI幻觉告诉我们,AI有可能“欺骗”用户。在与AI“合作”时,应时刻保持必要的怀疑态度和批判思维,多渠道核查验证信息的准确性。同时,不能以AI创造替代人类创造,让“人工智能”替代“人类智能”。

  毕竟,技术始终只是工具。爱因斯坦有句名言:“提出问题往往比解决问题更重要。”我们不必因噎废食地排斥AI运用,也不能天真地期待技术万能,而应发挥我们作为人类的主导权,善于提问、善用其能。

  AI幻觉的出现,仿佛机器对人的提醒,反证人类在独立思考、情绪体验、价值判断等领域的不可替代性。未来,相信我们能在AI的“梦境”与现实之间,筑起永不坍塌的理性堤坝,让AI技术更好服务社会发展、改善现实生活。

版权和免责申明

凡注有"浙江在线"或电头为"浙江在线"的稿件,均为浙江在线独家版权所有,未经许可不得转载或镜像;授权转载必须注明来源为"浙江在线",并保留"浙江在线"的电头。

标签:浙江宣传责任编辑:吴珂珺
融媒产品
浙江宣传
群众工作室
90早新闻
精品专题
更多资讯