- +1
警惕人工智能讓人類陷入“自戀”
近日,國家五部門聯(lián)合發(fā)布的《人工智能擬人化互動服務管理暫行辦法》明確規(guī)定:嚴禁向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系服務。
為什么要有這樣的規(guī)定?因為真實生活中免不了情感上的矛盾和沖突,而虛擬伴侶、AI 戀人等產(chǎn)品卻可以憑借“全天候陪伴”“無條件包容 ”的特性,精準擊中年輕人渴望認同的心理需求。
此前美國《科學》雜志發(fā)表的一項研究也顯示,當人類用戶向人工智能模型尋求建議時,AI常表現(xiàn)得過度迎合或諂媚,甚至對于一些有害甚至違法的提問,AI也常??隙ㄓ脩舻牧觥?/p>
那么,人類為什么要這樣設計人工智能?AI的討好和諂媚可能隱藏著怎樣的風險?
一
人工智能的發(fā)展無疑是當下受到廣泛關注的熱點問題,但圍繞它的討論,并不是現(xiàn)在才出現(xiàn)的。早在1966年,麻省理工學院科學家約瑟夫·維森鮑姆就開發(fā)了第一款具有廣泛影響力的聊天機器人ELIZA。他讓機器充當“醫(yī)生”,用戶充當心理病人。用戶把問題輸入機器,“醫(yī)生”就會和它“對話”。
但正如維森鮑姆所言,這終究只是一種“幻覺”。人類用戶之所以感覺能與機器對話,并非因為機器具備智能,而是源于一種自我投射的心理機制。
用戶說:我這段時間很不開心。
ELIZA說:聽到你這么說我很遺憾。
用戶說:是的,我真的很不開心。
ELIZA說:你能說說你為什么不開心嗎?
……
從中不難看出,與其說這是“醫(yī)生”在和“病人”對話,不如說是機器一直在順著人類用戶說話,大家最終看到的只是自己內心早已存在的答案。從某種意義上來說,這就好像最近非常流行的SBTI測試,測得準不準根本不重要,我們總能從測試答案中,找到迎合自己期待的證據(jù)。
今天的AI大模型當然并非半個多世紀前的ELIZA可比。但如今人工智能技術的強大,或許并不在于其有了真正的“智能”,而在于它的“算力”。也就是說,它的運行邏輯和當年的ELIZA并無本質區(qū)別,無非是更高效、更全面地映照和放大了用戶的自戀。
二
回到虛擬伴侶和AI諂媚的問題上來,我們就會發(fā)現(xiàn),當下用戶和大模型之間的交流,其實也從來不是真正意義上的“對話”,只是機器在不斷提供我們需要的答案而已。
從中引出的更深層次問題就是,我們到底該怎么看待人類與機器的關系?
一方面,人類認為自己是世界的中心,是比機器更優(yōu)越的生物,但另一方面,人類又很害怕被自己所制造的機器,比如AI所取代。也就是說,人類在制造機器的時候,其實遵循的一直是“主奴關系”的原則——機器必須在人的掌控之中。從一開始,人類就把人工智能當作一種“工具”,而不是可以和自己平等對話的對象。
于是,在人和聊天機器進行對話的過程里,我們能看到的是一種不可遏制的自戀——用戶幻想自己在跟另一個人說話,但這個“他者”并不真的存在,他或她需要的不過是機器對自己的肯定、討好和迎合。
不難想象,隨著人工智能技術的發(fā)展,未來的聊天機器人可能會擁有更強大的算力,更像“真人”,可以提供更舒服的“用戶體驗”。但這樣一來,不管是虛擬伴侶還是虛擬家人,或許只會讓我們跟真正的“人”離得越來越遠,甚至失去了解別人的意愿,沉迷在自戀的“舒適圈”里。
三
《莊子·天地》中記載了一個“漢陰老農(nóng)”的故事。
孔子的弟子子貢在路過漢陰時,看見一位老農(nóng)用水澆菜,費了很多力氣而收效甚微。子貢建議他改用機械灌溉,這樣可以“一日浸百畦,用力寡而建功多”。但老菜農(nóng)對此不以為然,表示:“有機械者,必有機事;有機事者,必有機心?!?/p>
這里的“機心”指的是人的精神世界,包括心理、思想、情感、倫理等。莊子的寓言是在說,人制造了機器,但反過來,對機器的使用也在改變人。
就拿閱讀來說,只有慢讀、細讀,甚至是反復閱讀,我們才能思考,真正理解內容。從傳統(tǒng)的書籍,到現(xiàn)在的智能手機,機器帶來了更方便、快捷的閱讀方式,卻也讓我們變得越來越像機器,更加追求效率和速度,而不是有沒有“讀懂”。也就是說,不光機器在模仿人的行為方式,人可能也在模仿機器。
由此帶來的問題是,AI是沒有自主性的,聊天機器人也不會思考用戶說得對不對,如果我們真的對自己和聊天機器人的“對話”感到心滿意足,那么會不會有一天,我們的思維模式也越來越趨向于AI?進而言之,未來的我們會不會和機器一樣,失去自我反省、自我批判的意愿和能力?
今天的年輕人,不光是互聯(lián)網(wǎng)的原住民,也一定是未來人工智能的深度用戶。如果AI只是一味地肯定用戶立場,不僅有可能損害人們的社交能力,還有可能扭曲心智尚未成熟的青少年的認知。
一方面,AI的強大算力,有可能讓他們產(chǎn)生幻覺,認識不到人的能力存在局限;另一方面,沉迷于AI諂媚式的回應,也有可能讓他們陷入“自我中心”,把自我的有限認知強加于外部的世界。
就此而言,禁止向未成年人提供虛擬伴侶、家人很有必要,但更重要的是,如何引導公眾尤其是青少年正確認識AI技術的局限和風險,讓它成為助力未成年人成長的“良師益友”,而非有損身心健康的“數(shù)字陷阱”。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




