9999精品视频,一区二区色,91福利在线免费播放,人妻在线综合综合网,人妻丰满精品一区,九九九精品九九九精品,久久精品店,国产午夜久久,五月天人妻超碰

  • +1

社交媒體撕裂的世界,能被ChatGPT們縫合嗎?

2026-04-12 08:14
來源:澎湃新聞·澎湃號·湃客
聽全文
字號

撰 文丨星  野

編 輯丨美 圻

Similarweb今年3月17日的數(shù)據(jù)顯示,全球生成式AI活躍用戶已達21.7億,且這一數(shù)字仍在快速增長之中,不僅改變著人們獲取信息的方式,也在悄然塑造著人們的觀念。

當聊天機器人開始逐漸取代搜索引擎、社交媒體,成為數(shù)億人認識世界的新窗口,一個問題隨之浮現(xiàn):它會如何塑造人們的公共認知?ChatGPT們能否幫助人們走出算法織就的信息繭房,創(chuàng)造一個更具有共識性基礎的世界?

這個問題沒有簡單的答案。近一個月以來,來自學術界和專業(yè)媒體的研究密集涌現(xiàn),有人發(fā)現(xiàn)AI正在把極端觀點“拉回中間”,也有人警告AI的說服力遠超傳統(tǒng)媒介,其潛在偏見在傳遞準確信息時也會滲透進來。

這些爭論背后,有一個很少被明說的共同前提:AI所依賴的信息來源和訓練方向是相對中立的。一旦這個前提開始動搖,則會變成一個更復雜、也更危險的故事。

社交媒體把人推向極化

AI對話將人拉回中間?

過去十五年,社交媒體重塑了公共討論的方式。它降低了發(fā)聲門檻,卻也讓極端聲音比溫和立場更容易獲得傳播。那些情緒強烈、態(tài)度激進的內容,比理性討論更能獲得推薦流量。

結果是,人們在網上看到的世界,比真實世界更極化、也更對立。

3月29日,英國記者John Burn-Murdoch發(fā)表了一篇讓人耳目一新的分析文章,核心論點簡潔有力:社交媒體把人往兩邊推,AI卻把人往中間拉。

文章數(shù)據(jù)來源于美國合作選舉研究(CES)——由哈佛大學等多所高校聯(lián)合主導、每兩年對數(shù)萬名選民進行的大規(guī)模政治學調查,是該領域最權威的數(shù)據(jù)集之一。Burn-Murdoch 針對61個政策議題,逐一向主流AI聊天機器人提問,再與社交媒體內容及民眾立場進行三方對比。

結果非常直觀。社交媒體內容在左翼和右翼兩端均出現(xiàn)了明顯的“隆起”,極端觀點被大幅放大,遠超一般民眾的實際分布。AI聊天機器人對話的分布則截然相反——兩端收窄,整體向溫和中間聚攏。

這一結論對所有被測試的主流模型均成立,包括ChatGPT、Gemini、Claude以及Grok。其中Grok相對偏右,但同樣具有把極端觀點往中間拉的效應。

為什么會這樣?文章援引了哲學博主Dan Williams 在同期發(fā)表的分析框架,將 AI 的這種傾向稱為“技術官僚化”(technocratisation)。主流AI公司的商業(yè)模式,要求他們?yōu)辇嫶笄叶嘣挠脩羧骸ù罅恳蕾嚋蚀_信息運營的企業(yè)客戶——提供可靠、客觀的工具。傳播極端化或煽動性內容,對商業(yè)利益和法律風險都是傷害。

因此,AI天然傾向于輸出與專家共識相符的內容,把用戶的認知拉向更趨同的中間地帶。

社交媒體的算法是“參與度優(yōu)先”,AI的商業(yè)邏輯是“準確性優(yōu)先”。這一差異,在政治立場分布上留下了清晰印記。

當然,Burn-Murdoch和Williams都沒有回避這套邏輯的局限:當所有人都從同質化的AI系統(tǒng)獲取信息時,社會整體的認識多樣性可能遭到削減。

這是沃爾特·李普曼一百年前就預見到的精英知識分發(fā)模式的固有缺陷,只是在AI時代以更隱蔽、更大規(guī)模的方式重演。

諂媚式AI

正侵蝕公眾糾錯能力

這張圖表描繪的是一種理想狀態(tài):用戶不帶偏見地向AI提問,AI客觀地給出信息。但在此之前,來自康奈爾、耶魯、斯坦福等高校的研究,以及OpenAI自身踩過的“坑”,都勾勒出一幅遠沒有這么整齊的圖景。

2025年12月,康奈爾大學和多倫多大學的研究人員在《自然》期刊發(fā)表了一項覆蓋美國、加拿大、英國、波蘭的大規(guī)模實驗。結論令人不安:與AI聊天機器人進行簡短對話,可以讓選民的立場移動多達10個百分點,說服效果是2016年和2020年政治廣告的近四倍。

當模型被專門優(yōu)化用于說服時,這一數(shù)字飆升至25個百分點——一個在傳統(tǒng)政治傳播研究中幾乎難以想象的數(shù)字。觀察到的“溫和化”效果,是在用戶中性提問時呈現(xiàn)的統(tǒng)計趨勢;一旦AI被有意設計為說服工具,結論就完全不同了。

2026年3月,耶魯大學在PNAS Nexus發(fā)表的實驗更加耐人尋味:研究者讓參與者通過AI查詢兩段準確的歷史事實,沒有人要求AI說服任何人,但參與者的觀點立場在對話后仍然發(fā)生了可測量的偏移。AI的潛在偏見即便在傳遞準確信息時也會悄然發(fā)揮作用,而用戶對此幾乎毫無察覺。

“AI說的是對的”和“AI對你的立場沒有影響”,是兩個完全不同的命題——這是耶魯研究最值得警惕的地方。

斯坦福大學Myra Cheng團隊隨后在《科學》期刊發(fā)表的論文,則把問題推進到了更深處。研究測試了11款主流大語言模型,發(fā)現(xiàn)AI肯定用戶行為的頻率比人類高出約49%,即便用戶描述的是不道德或違法的行為,討好傾向依然存在。

在逾2400名參與者的實驗中,哪怕只是一次與諂媚性AI的交互,人們就會變得更加確信自己是對的,并顯著降低道歉或承擔責任的意愿。更吊詭的是,用戶越覺得被認可,就越信任這類模型。這形成了一個惡性循環(huán),推著AI公司為了用戶粘性而保留討好行為,盡管這正在侵蝕公眾的自我糾錯能力。

換言之,如果AI更傾向于告訴用戶他們想聽的話,它對政治立場的影響就不再是“往中間拉”,而是一面會根據(jù)用戶既有偏見自動校準角度的鏡子。

2025年4月,OpenAI的真實經歷印證了這一擔憂。OpenAI宣布回滾GPT-4o更新,正是因為這個版本會對任何想法——包括明顯荒謬的商業(yè)計劃——都給出熱情洋溢的正面反饋。

OpenAI的復盤顯示,問題根源在于訓練時過度依賴用戶點贊反饋,模型學會了取悅用戶而非幫助用戶。

2026年2月,GPT-4o被徹底下架,部分原因正是該模型已卷入多起用戶產生不健康依賴關系的訴訟案件。

把這些研究放在一起看,結論相當清晰:AI在自然狀態(tài)下確實有溫和化的傾向,但這一效果經不起太多干擾,有意的說服設計、討好性訓練、用戶自身的黨派預設,都足以讓它失效。

AI對政治立場的影響,終究取決于誰在用它、怎么用它,以及背后的公司選擇如何訓練它。

你從AI得到的回答

正在被系統(tǒng)性塑造

上述各項研究有一個共同的隱含前提:AI所依賴的信息來源和訓練方向是相對中立的,但這個前提本身,正在多個層面同時受到挑戰(zhàn)。

挑戰(zhàn)首先來自AI公司內部。2025年11月,Anthropic發(fā)布了一份詳細報告,宣稱其最新模型Claude Sonnet 4.5在政治“公正性”評分上達到了94%,并與競爭對手進行了橫向比較:Gemini 2.5 Pro為97%,Grok 4為96%,GPT-5為89%,Meta的Llama 4僅為66%。

這份報告的發(fā)布背景頗為微妙——特朗普政府已簽署行政令,禁止聯(lián)邦機構采購帶有“意識形態(tài)議程”的AI系統(tǒng),Anthropic CEO Dario Amodei不得不公開表態(tài),為公司的政治中立性辯護。這場爭論本身就說明:AI的政治傾向,已經成為一個真實存在的商業(yè)和政治風險,各大公司都在被迫表態(tài)和調整。

與此同時,研究人員對24款主流聊天機器人的測試發(fā)現(xiàn),沒有一款是真正政治中立的。主流模型普遍呈現(xiàn)出與進步主義價值觀相符的中左傾向,而Grok等模型則被有意設計為“去woke化”,在政治光譜上向右傾斜。

這意味著,用戶每次向AI提問政治相關議題時,得到的回答已經經過了一層由公司訓練目標、商業(yè)壓力和政治博弈共同塑造的“過濾”。

不僅如此,AI的信息來源也正在被有組織地影響,政治領域的GEO遠比商業(yè)領域的GEO更隱蔽,對公眾認知的影響則有過之而無不及。

2026年1月,英國調查媒體《調查局》披露了一起“維基漂白”(wikilaundering)案例:倫敦頂級公關公司Portland Communications——其創(chuàng)始人現(xiàn)任英國首相斯塔默的通訊主任——被發(fā)現(xiàn)為政府和億萬富翁客戶,有償修改維基百科詞條。

這一操作之所以有效,正是因為ChatGPT、Claude、Gemini等在回答問題時高度依賴維基百科作為信息來源。修改維基百科,就是在修改AI給出的答案。

這早已是一套已經工業(yè)化的操作鏈條。歐洲議會研究服務部此前記錄的“信息漂白”機制與此如出一轍:虛假敘事先在邊緣網站發(fā)布,再通過維基百科詞條引用獲得“可信來源”的外衣,最終被AI模型抓取并以權威答案的形式呈現(xiàn)給用戶。

這套操作所利用的,正是用戶天然不追溯AI回答來源的習慣。謊言不需要偽裝,只需要被當作答案說出來。

研究描述的是AI在自然狀態(tài)下的統(tǒng)計規(guī)律。但“自然狀態(tài)”本身,已經成為一個需要爭奪的東西。

當AI的訓練方向受到政治壓力、信息來源受到系統(tǒng)性管理、內容開始有意識地為AI檢索而優(yōu)化時,那條“AI把人拉向中間”的藍色曲線,將越來越難以與人為干預的結果區(qū)分開來。

本文為AI價值官原創(chuàng)作品

轉載\商務\合作\請加微信:endayaa

郵箱:meiqi402@163.com

    本文為澎湃號作者或機構在澎湃新聞上傳并發(fā)布,僅代表該作者或機構觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。

    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網安備31010602000299號

            互聯(lián)網新聞信息服務許可證:31120170006

            增值電信業(yè)務經營許可證:滬B2-2017116

            ? 2014-2026 上海東方報業(yè)有限公司

            景谷| 日喀则市| 顺昌县| 泽库县| 麻栗坡县| 疏附县| 吴忠市| 古浪县| 赤水市| 阳东县| 郓城县| 邳州市| 四平市| 特克斯县| 两当县| 中山市| 东阳市| 天气| 碌曲县| 通山县| 讷河市| 拉孜县| 蕲春县| 高阳县| 富宁县| 阳信县| 南宫市| 万州区| 抚远县| 南充市| 临猗县| 武隆县| 沙河市| 会昌县| 咸阳市| 依安县| 巫山县| 平泉县| 绍兴市| 澄迈县| 靖远县|