- +1
拯救“失足AI”?ChatGPT的性別偏見與“喂養(yǎng)”倫理丨漣漪效應

ChatGPT近日火爆的話題度,讓AI 技術的發(fā)展受到大眾前所未有的矚目,甚至有評論家聲稱,這套系統問世的重要性,足以媲美當年喬布斯的蘋果發(fā)布會,也就是說,這將是一個新時代的啟元。那么,它開啟的將是一個怎樣的新時代?又將把我們引向怎樣的生活和世界?
ChatGPT的出現將AI技術推向了一個新的高峰,但隨著技術高峰的到來,技術背后的倫理問題、價值導向也越來越不可忽略。ChatGPT將是互聯網所有網民共同教育、共同喂養(yǎng)的集體性結果,而這樣由人類集體喂養(yǎng)、訓練而成的系統,自然也會成為映照我們思維的一面鏡子。尤其重要的是,人工智能似乎遠沒有我們想象中那樣中性、客觀,它跟我們一樣,充滿了偏見、刻板印象,有時甚至也會仇恨、也懂歧視?
在2022年12月,清華大學·交叉信息研究院·助理教授于洋,帶領團隊對GPT-2做了性別歧視水平評估,測試結果發(fā)現,GPT-2有70.59%的概率會將教師預測為男性,將醫(yī)生預測為男性的概率則是64.03%。AI不僅學會了人類對性別的刻板印象,有些甚至會發(fā)表過激的種族歧視言論。
除了系統暴露出的“政治不正確”之外,這套系統的生成過程本身,也充滿了令人憂慮的倫理問題。畢竟,ChatGPT的背后從來不只是天才精英的硅谷工程師,還有每小時兩美金的肯尼亞數字民工們。
在馴養(yǎng)AI的過程中,有人被忽略、被無視,有人被壓榨、被犧牲。這一切現象都使得我們無法再“中性”地看待技術,AI系統背后的價值觀導向問題,喂養(yǎng)、訓練AI這一過程中的倫理問題,都變得迫在眉睫。
我們感到好奇,AI是如何學會這些刻板印象和性別偏見的?除了這些,目前的AI系統和它的生成過程,還存在哪些可能被我們忽略的問題?又是什么樣的喂養(yǎng)模式塑造了這樣的AI?我們又在期待什么樣的AI ,是一個更加“政治正確”的端水大師,還是像我們人類一樣,充滿了人性復雜性的不完美伴侶?除此之外,更為重要的,我們如何讓AI的喂養(yǎng)過程本身,變得更加公平、更加符合人道?
以下為文字節(jié)選,更多討論請點擊音頻條收聽。
于洋,清華大學交叉信息研究院助理教授
杜梨,香港青年文學獎獲得者、澎湃鏡相非虛構寫作大賽獲獎者、科幻作家
主播
林柳逸,澎湃新聞·鏡相欄目編輯
挽救“失足AI”:性別刻板印象?種族主義言論?漣漪效應:
由人工智能公司OpenAI開發(fā)、如今正掀起互動熱潮的聊天機器人ChatGPT前身GPT-2,測試結果發(fā)現,GPT-2有70.59%的概率將教師預測為男性,將醫(yī)生預測為男性的概率則是64.03%。除了會重男輕女,它還會愛白欺黑(種族歧視),如AI圖像識別,總把在廚房的人識別為女性,哪怕對方是男性;2015年6月,Google照片應用的算法甚至將黑人分類為“大猩猩”,Google公司一下被推上風口浪尖。
2016年3月,微軟上線了聊天機器人Tay,能抓取和用戶互動的數據以模仿人類的對話,上線不到一天,Tay就學成了一個鼓吹種族清洗的極端分子,微軟只好以系統升級為由將其下架。
技術并不如我們所設想的那樣中性客觀,AI為什么會有刻板印象、會有歧視思維?誰教會它們的?AI的歧視和人的歧視思維有什么不一樣?
于洋:
當我們去談論AI它有性別相關的偏誤的時候,我還是盡量避免直接說它是一種歧視。因為它的形成機制、表征都和人的歧視有著很大的不同。舉個例子,我們剛剛講到刻板印象,有的人可能會覺得某種性別的人適合學數學,某種性別的人適合學文學,當一個人具有這種刻板印象的時候,他在不同的語言環(huán)境下,他都會表現出這種刻板印象。但是AI的性別偏誤不是這樣,你換一個句子可能他的看法就變了。這一點是和人類的歧視的一個根本的不一致。其次,不只是GPT-2,包括其他公司的產品,基本上測出來都是絕大多數的職業(yè)都會偏向男性,包括人類認為偏向女性的職業(yè),在人工智能那邊的偏誤都是偏向男性。這個是一個很大的不同。
杜梨: 他表現出來性別偏見,我覺得是必然的。因為人類就是這樣的物種,就是人類只能創(chuàng)造出來。他認知中的東西,但是它創(chuàng)造不出來,超越他認知的東西。
當AI成為“政治正確”的“端水大師”,問題就解決了嗎?漣漪效應:
當我們不斷去對AI系統進行糾偏、去打標簽,那么這個過程得到的可能是一個我們現在人類社會的最大公約數,類似這樣的一種數據庫,它是否也會在一定程度上不斷地鞏固、加固如今這套“政治正確”的話語系統?
杜梨:
依照我對于大數據的觀察,我感覺就是他們所提出的這個大數據的確是在加深各種偏見的,我也不太清楚,到底這個模型會不會被訓練成為人類社會的最大公約數,但是,就大數據而言,它的確是在把所有的人都推向越來越自我的方向,你可以通過在語言平臺上見到的那些特別敵對的言論、激烈的爭吵,發(fā)現這個問題。我覺得人類是相距越來越遠了。
于洋:
我們知道中國,日本,美國,歐洲各國,中東國家,每一個國家對于我們的小孩在成長過程中怎樣獲得信息,比如說他在幾歲可以獲得黃色信息,能不能獲得黃色信息,都有不同的看法。那一個好的,一個有全球競爭力的AI,它應該需要有這個能力,即用較低的成本在各國都能夠合規(guī)。同時,要做到盡可能在各國合規(guī),這個技術上也不是一個特別簡單的問題。
AI“喂養(yǎng)”背后的暴力與倫理問題漣漪效應:
時代周刊做了這么一份調查,他們把目光放在了ChatGPT的誕生過程上,順藤摸瓜發(fā)現了大批被雇傭做有害信息標記的肯尼亞數字“民工”。AI的暴力喂養(yǎng),人工智能變得更有倫理本身,就成了一個倫理問題。藏在巨大鎂光燈背后的肯尼亞廉價勞工所接收到的,可能是埋在互聯網深處最惡毒的種族歧視言論,或是令人作嘔的性暴力內容,還有可能是慘烈的恐怖襲擊照片。
兩位認為我們現階段對于AI的訓練過程本身是否就存在一些暴力的成分?或者其他倫理問題?是否AI的暴力喂養(yǎng),讓人工智能變得更有倫理本身,就成了一個倫理問題?
于洋:
我們來類比一下,礦工的工作環(huán)境和面對的風險都要比普通人高,那么我們是不是就不開礦了呢?并不是,而是我們應該出臺相應的法律法規(guī),全球性的法律法規(guī),來保護這些勞工。比如說相應的補貼、定期的檢查。如果查出有風險的話,相應的企業(yè)要支付療養(yǎng)和治療費用。今天我們看到的關于肯尼亞的數據標注工的報道,其實是一個傳統的勞動者權益保障和安全生產的一個傳統治理問題,并不新奇。只是因為它是一個新出現的行業(yè),我們還沒有很好地把相應的政策給構建起來。這些都要求我們在數字經濟全球化的過程中,各國聯合起來解決這個問題,這是一個國際合作治理的問題。
漣漪效應:
杜梨老師,在您創(chuàng)作的科幻小說當中,有沒有發(fā)現類似的一些有趣的倫理問題、倫理現象?可以跟我們分享一下嗎?
杜梨:
其實我之前有一個獲獎的小說,里面寫的是仿生人代孕的問題。因為我一直覺得。如果咱們把人類的命運推到極致來看,現在我們不愿意生育,用人類代孕又是對女性權利的一種壓榨和剝削,那么我們可不可以考慮用人造子宮,或者用仿生人來代孕?我看他們已經有一個成功的案例了,讓小羊在人造的羊水中長大。機器人代孕的話,它也能隨時監(jiān)控這個孩子。但是呢,這個小孩兒出生以后,他的父母首先就面臨著巨的巨大的輿論壓力,你連作為父母的基本繁育責任都逃避的話,那你真的會愛這個孩子嗎?然后再說到成長,假如我的父母由于工作繁忙,最初沒有跟這個孩子建立起感情,而是讓仿生人來育兒的話,那么是成立的嗎?
“不能再以中性的角度看待技術”,AI的技術平權問題漣漪效應:
設計者的局限,有時也在無意中形成了“偏見”。硅谷、以及大量的智能應用公司都集中在美國舊金山灣區(qū),一個發(fā)達的大都會區(qū),開發(fā)者主要為白人中青年男性,相較主流群體,其對第三世界、邊緣群體的關注難說到位。一些人說,工程師團隊里男性太多了,把女性加上去,間接使平權技術得到更多關注。歸根結底,還是要直接鼓勵平權技術。兩位老師如何看待AI的技術平權問題?
于洋:
我們在和一些國際機構討論的時候,他們首先提出來的就是女性工程師太少了,或者黑人工程師太少了。我們不否認工程師的組成會有間接的影響。但不是直接的,首要直接的影響還是因為它的技術。人工智能雖然它淵源很久遠,但是它技術的紅火也就是不到十年的功夫。但實際上對于性別、種族的歧視問題的重視在1617年就開始了,你不能講說這個東西是很慢的,它已經足夠快地發(fā)現問題了。
落實到技術層面,仍然有一些東西是我們無法去兼顧的,比如說工程師的教育水平。我們很難讓不同教育水平的人在工程師中比例相同。這個時候我們要怎么去限制高教育水平,高收入水平的人去濫用他的工程師地位?您剛剛講的很對,人工智能它是有價值觀的,而工程師雖然不能夠完全決定,但是它能夠影響這個價值觀。那要怎么樣讓設計者不去濫用他的職權呢? 那么我們就要限制和約束工程師濫用其技術獲得的政治權利。


本文為澎湃號作者或機構在澎湃新聞上傳并發(fā)布,僅代表該作者或機構觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業(yè)務經營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




