微信邦

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 21|回复: 0

带引用来源的AI更危险?MIT用280万条数据揭示四个AI搜索真相

[复制链接]
发表于 6 天前 | 显示全部楼层 |阅读模式


这个月,MIT的研究团队发表了一篇重磅论文,标题是《AI搜索的崛起:对信息市场与大规模人类决策的深远影响》,光看标题就觉得非常硬核了。他们执行了24000次搜索查询,覆盖243个国家,生成280万条搜索结果数据,时间跨度从2024年到2025年。
这项研究想搞清楚一件事,就是当AI搜索大规模接管人类获取信息的方式时,到底发生了什么?结果让人细思极恐:带引用来源的AI,反而更容易欺骗人类。
今天,我们请AI学习圈主理人快刀青衣老师,来详细说说这篇重磅论文。作者:快刀青衣
来源:得到App《AI学习圈》虽然这项研究是基于谷歌AI搜索来做的,但论文里揭示的四个核心发现,完全适用于我们现在常用的所有AI助手,比如豆包、Kimi、DeepSeek等等,只要你用AI获取信息,这些问题就都存在。因为现在咱们很多人搜索信息的方式,已经从搜索引擎变成了AI助手,有任何疑问,拿起手机就直接问AI,等着它给出一个看似完美的答案。这篇论文之所以能跳出纯技术领域的测试,直接切中并横跨几个大话题,包括大众认知心理、科技巨头暗箱操作以及整个互联网商业命脉等,很大程度上要归功于MIT这个极其硬核的跨学科团队。核心作者希南·阿拉尔(Sinan Aral),是MIT斯隆管理学院讲席教授,也是MIT数字经济倡议现任主任。他是全球计算社会科学和数字平台战略的泰斗级人物。2018年,他曾主导过一项轰动全球的研究,成果发表在《科学》杂志,并被选为封面文章,结论是“假新闻在社交网络上的传播速度远快于真相”。他非常擅长用超大规模的真实世界数据,去精准测量AI对人类社会的真实影响。团队另外两位核心成员都是华人科学家。一位是李海文,MIT数据、系统与社会研究所的研究员,他的核心研究聚焦人机交互和人类对大语言模型的信任机制。在这篇论文里,跨越两百多个国家、分析超280万个搜索结果的庞大数据工程,正是得益于他的技术能力。另一位是左睿,MIT数字经济倡议的博士后研究员,刚在德克萨斯大学奥斯汀分校获得经济学博士学位。他是正统的经济学人,擅长算法干预的因果推断。论文中关于“AI搜索如何断供长尾创作者流量”“如何导致内容市场垄断”的犀利洞察,正是出自严密的经济学逻辑。
01
当AI附带链接,会发生什么?
说回这项研究。我们在大学里写论文时,老师都会强调,一定要有参考文献,发表观点要有数据支撑,带引用来源的内容更严谨、更可信,就连引用来源的排版都有几种严格要求。而AI搜索类产品的设计者深谙这一点,所以现在的AI搜索和AI助手,都会在回答中附带各种精美的参考链接,像学术论文那样标注引用来源,也就是我们常见的右上角带1、2、3这种数字的来源样式。但MIT这项研究揭示了一个致命的人性弱点:只要AI在回答中加入了参考链接、标注了引用来源,人类对它的信任度就会急剧飙升。哪怕这些链接是AI“幻觉”凭空捏造的,或者完全错误的,人类依然会盲目买单。更让人意外的是,研究团队对280万个搜索结果的底层分析显示,和传统网页搜索相比,AI搜索引用的“高信誉度”信息源显著减少了,引用的“低信誉度”信息源却显著增多了。原因很简单。AI大模型的底层逻辑是拼凑出“读起来连贯流畅”的答案,它往往会把那些逻辑通顺但信誉存疑的边缘素材糅合进去。比如一个小网站的健康建议,可能写得特别煽情、特别好理解,AI就容易把它当成“好素材”引用;而那些真正权威的医学期刊,内容往往晦涩难懂,反而不容易被AI选中。关键在于,看似完美的AI回答排版掩盖了这一切。当你看到一个带着一堆参考链接的AI回答时,你的大脑可能会自动脑补“这个AI做过功课,这些链接肯定都是权威来源”,而且你也根本不会真的点开那些链接验证。这就像一个穿着白大褂、戴着听诊器的人站在你面前,你会自动假设他是医生,哪怕他可能只是个演员。引用来源就像给AI穿上了一件学者的长袍,让我们下意识觉得它可信。这也让我想起过年期间刷到的一条短视频,一个博主拆解了一台号称智能温控的某品牌空气炸锅,发现最上面的温控旋钮其实只是个摆设,连电线都没接。其实这和有些AI助手的引用作用一样,就是让用户觉得“不明觉厉”,大部分用户不会拆开机器检查温控旋钮有没有用。同样,面对AI的引用回答,大部分人也不会点开每个链接核对检查。这项研究给出了一个更直接的数据:当页面上出现AI摘要时,用户的“零点击率”,也就是看完就走、不点进任何网页的比例,从60%飙升到80%。要知道,这种AI摘要不只是谷歌搜索有,国内几个搜索引擎也已经把AI摘要变成了行业标配。过去20年里,传统搜索引擎默默教会全人类一项技能:交叉验证。为了搞清楚一个重要问题,我们会习惯性打开首页里的三四个标签页,看看不同网站的说法,对比作者背景,然后自己在大脑里拼凑真相。这个过程虽然麻烦,却培养了我们的判断力。我还记得很多搜索引擎团队都有一个指标,就是用户的首页点击率,他们希望在首页推荐用户愿意点击的内容,所以会按照搜索权重,尽量推送最权威、最符合用户需求的链接。但AI搜索正在彻底抹去这种习惯。它把搜索体验从“给你一张地图让你自己找”,变成“直接把精细合成的饭喂到你嘴里”。AI总是用一种极其自信、没有情感起伏的“单一声音”向你宣布真理。论文数据证实,AI搜索给出的信息多样性明显低于传统网页搜索。传统搜索会给你10个蓝色链接,每个链接背后可能是不同的观点、不同的角度;而AI搜索只给你一个“标准答案”。论文里非常直接地指出,我们的大脑正在变得更追求“便利”而不是“准确”。我们正从主动的“导航者”,退化成被动的“被喂食者”。零点击率飙升到80%,意味着什么?意味着那些被AI引用的网站,流量正在断崖式下跌。
02
AI越来越懂得如何包装知识、取悦人类
论文还揭示了一个残酷事实:AI极度“势利”,它非常偏爱全网排名前1000名的“超级巨头网站”,比如维基百科、大型新闻网站、知名科技媒体。而那些由普通人建立的个人博客、小众论坛、独立深度媒体,也就是互联网的“长尾”,被彻底边缘化,流量惨遭断供。数据很明确,AI搜索引用Top 1000网站的次数显著增多,引用1000名到100万名之间的中等流量网站明显减少,引用100万名开外的长尾网站的次数更是少得可怜。这不只是流量分配的问题,更是互联网生态的生死存亡问题。那些小众创作者、独立媒体,全靠搜索引擎带来的流量维持运营。现在AI搜索把用户拦在页面顶部,80%的人看完AI总结就走了,根本不会点进原网站。没有流量就没有广告收入,也就没法继续创作。论文里提到了一个“衔尾蛇悖论”。我和你简单解释一下,你就有画面感了:就像一条蛇吃自己的尾巴,最终会把自己吃掉。那么悖论是什么呢?如果一条蛇开始吞食自己的尾巴,最终完全吃掉整个身体,这条蛇在哪里?它既在自己的胃里,胃又在它自己里面,形成一个无限递归的矛盾。而这项研究里提到这个悖论,其实是想让大家看清一个底层风险:大语言模型本身不生产新知识,它只是互联网生态的“榨汁机”。如果小众创作者和独立媒体因为赚不到流量纷纷停更、退出,几年之后,AI还能去哪里获取新知识?未来的互联网可能会从一片生机勃勃的“热带雨林”,退化成只有几棵大树的无聊沙漠。你可能会说,AI虽然有问题,但至少是“客观的机器智能”吧?MIT这篇论文告诉你:不是这样的。你每天看到的“客观机器智能”,其实背后随时可能受到科技公司会议室里的隐形决策操控,而普通人毫无察觉。研究团队做了一个跨年对比实验,用完全相同的搜索词在2024年和2025年分别执行,结果发现了一个戏剧性的数据突变。2024年,全球关于冠状病毒相关的健康查询,只有1%的概率会由AI作答;但到了2025年,仅仅因为某些外部政策变更导致科技公司后台规则修改,这个比例暴涨56倍。这就像你家楼下的便利店,昨天还只有1%的商品由店员直接推荐给你,今天突然变成超一半都是店员主动推荐,而你完全不知道发生了什么。这意味着什么?意味着只要拨动几行代码的开关,几家头部科技公司就能瞬间改变全球数十亿人获取核心知识的路径和方式。更诡异的是,研究发现,AI在回答普通非敏感问题时,92%会附上来源链接;但在面对大量关乎人命的敏感健康问题时,居然有一半的回答是不给任何来源的。那我们普通人该怎么办?MIT的科学家们在论文里给出了一个极具实操性的建议,他们称为“两次点击法则”(Two-click rule)。这个法则很简单:对于怎么做番茄炒蛋、怎么写请假条这类日常琐事,你可以尽情享受AI带来的零点击效率,看完就走没问题。但一旦涉及你的医疗健康、财务投资、法律诉讼或重大生活选择时,绝对不能只看AI给出的摘要答案。你必须强迫自己向下滑动,至少亲手点击打开两个原始网页来源进行交叉验证。为什么是两个?因为一个来源可能有偏见,两个来源能让你看到不同观点。如果两个来源说法一致,可信度就高很多;如果有矛盾,那就恰好说明这个问题需要你更谨慎判断。比如你搜“这个药能不能和XX一起吃”,AI给了你一个看似专业的回答,后面带着好几个参考链接。你的第一反应可能是“AI都说了,应该没问题吧?”但别急着关页面,点开第一个链接,你可能会发现怎么是某个健康产品的推广文章?再点开第二个链接一看,居然是没有医学背景的博主写的个人经验。这时候你还敢直接吃那个药吗?再比如你搜“这个理财产品靠谱吗”,AI可能会告诉你收益率和风险情况。你也可以点开两个链接看看,确认下是不是正规金融媒体的报道,有没有监管备案信息,是不是某个推广软文。这个习惯一开始可能会让你觉得麻烦,但养成这个习惯后,你会发现很多AI给出的“标准答案”其实经不起推敲。而那些真正重要的决策,值得你多花这两分钟。MIT这项研究用280万条数据告诉我们:AI越来越懂得如何包装知识、取悦人类,但这并不代表它给出的就是真相。那些带着一堆参考链接的完美答案,看起来越严谨,可能越危险。而你多点两下的习惯,可能是这个AI试图承包所有答案的时代,你能给自己的最便宜、也最有效的保护。20多年前,我还是门户网站实习生的时候,当时的新浪总编辑老沉给我们培训,提到了一个很小的小习惯:自己发布完的新闻,顺手点一下,站在用户视角看一遍,熟练后这个过程只需要30秒。那时我以为这是常识,但后来职业生涯中,我见到很多人愿意花几个小时完成任务,却不愿意花30秒检查一遍。30秒没法让工作成果更绚丽,但是能让我们避免很多非常低级的失误。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

微信邦网联系QQ|Archiver|手机版|小黑屋|鲁公网安备 37082802000167号|微信邦 ( 鲁ICP备19043418号-5 )

GMT+8, 2026-3-3 11:33 , Processed in 0.074563 second(s), 18 queries .

Powered by Discuz! X3.4

© 2001-2013 Wxuse Inc. | Style by ytl QQ:1400069288

快速回复 返回顶部 返回列表