AI正在高度滲透進人類社會。
在教育領域,DALL·E、Midjourney等生成式AI工具不僅能夠輔助創作圖像與文本內容,更能依據學習者特征提供個性化支持;醫療場景中,AI輔助診斷系統通過影像識別將乳腺癌早期檢出率提升27%,藥物研發周期在算法介入下縮短40%;內容創作上,AI寫作和繪畫工具為創作者提供靈感與便利......
只是,AI技術在展現強大應用前景的同時,也暴露出不容忽視的倫理困境。由于訓練數據集存在固有缺陷,部分AIGC呈現出系統性偏見、價值觀沖突、“觀點霸權”、刻板印象及虛假信息傳播等一系列問題。
清華大學新聞與傳播學院教授陳昌鳳長期關注AI倫理安全。在她看來,人工智能猶如人類社會的鏡子——世界是怎樣的,算法就會反映出來是怎樣。人類若以善為準則培育它,就會塑造出良善;反之,會映射出惡意。
“前AIGC時代人類未能意識到的自身缺陷,如今通過智能生成的內容暴露了出來,這是它對人類的提示、警醒。在此之前,人類還沒有如此全面地了解自身、理解人類社會,是不完美的人工智能展示了更全面的人類,從歷史到現實。”陳昌鳳在《由數據決定?AIGC的價值觀和倫理問題》一文中寫道。
當ChatGPT等AIGC工具日益滲透,其價值觀偏差與倫理漏洞的根源何在?面對AI偏見與幻覺的雙重挑戰,普通個體應又該如何自處?圍繞這些牽動大眾神經的核心議題,時代財經專訪了陳昌鳳教授,試圖在這輪技術狂潮中,厘清AI時代的生存法則。
以下是訪談節選(在不影響原意的情況下,略有刪減):
時代財經:什么是AI偏見?它對我們的社會生活會產生哪些影響?
陳昌鳳:回答這個問題前,我們需要先厘清兩個關鍵概念——算法偏向(Bias)與算法偏見(Prejudice)。前者指算法基于數據特征形成的傾向性,比如系統根據用戶喜好推送娛樂內容。偏向本身未必涉及道德問題,更多是技術設計的選擇性優化。但當這種傾向與社會共識的公平價值觀相悖時,就會演變成具有倫理爭議的“Prejudice”(偏見)。
典型的AI偏見常體現在社會身份相關的決策中。例如圖像系統將企業高管默認描繪為男性,而將清潔工設定為女性;招聘算法給男性推薦高薪職位,卻為女性匹配低薪崗位......通過AI的自動化決策,算法偏見會形成規模化歧視,從而擴大社會不公。
早在2016-2018年間,美國ProPublica新聞網站發布了60余篇“機器偏見”系列報道,其中披露美國監獄采用的再犯風險評估系統“丑聞”:該算法號稱能夠通過歷史犯罪數據,預測犯人危險性,卻將黑人偷自行車判定為“高危”,而對持槍搶劫的白人罪犯判為低危。這種基于非公正歷史的數據循環,會通過機器學習不斷自我強化,形成數字時代的“種族偏見”。
時代財經:算法偏見是如何產生的?
陳昌鳳:AI偏見的本質源于現實數據的局限性。
以“機器偏見”系列報道為例,過去一個世紀,黑人平權運動中存在較多與司法系統沖突的記錄——這本質是社會不公正的連鎖反應:教育機會缺失、階層固化等結構性問題,導致某些群體更容易被納入犯罪統計。當算法直接采用這類帶有歷史傷痕的數據時,就形成了“黑人犯罪率高”的算法歧視。
有時候,算法設計者的個體偏見也會滲透進系統。就像Facebook前工程師自述,自己作為崇尚自由主義的開發者,刻意在算法中壓制保守派信息。從這一點看,AI偏見實際是社會現實的投射——既可以鏡像呈現人類的善意,也可能將惡意幾何級放大。
時代財經:進一步說,人類社會偏見不可避免存在,那是否意味著算法偏見也無法消除?
陳昌鳳:兩年前我們訪談算法工程師時,問了他們同一個問題,當時對方反問說:世界是怎樣的,算法就會反映出來怎么樣,你難道要我憑空創造沒有人類缺點和問題的世界嗎?
人工智能與社會本就是交互共生關系——它既具備技術特性,更承載著社會屬性,不可能成為無菌的“社會真空體”。就像微軟2016年的聊天機器人Tay,上線15小時就被社交媒體的惡意數據投喂成種族主義者。用偏見數據喂養就會強化歧視,AI是社會的鏡子,折射出人性明暗。
所以我們還是強調技術要有價值觀引領。就像媒體需承擔導向功能,AI同樣能在交互中設置道德濾網。關鍵在于人類如何將"向善"的編碼植入算法底層:當用戶查詢自殺方式時,系統不應機械提供工具指南,而應觸發危機干預機制;當面對犯罪咨詢時,需自動激活法律警示程序。
時代財經:除了算法偏見外,造成AI胡說八道的另一個問題在于“幻覺”。AI幻覺是怎么產生的?它對我們有何影響?
陳昌鳳:圍繞AI幻覺有一個經典故事:2023年2月,微軟人工智能Bing的內部測試中,紐約時報科技記者凱文·魯斯與其進行了長達兩小時的對話,期間系統不僅自命為具有獨立意識的"辛妮",更虛構出工程師賦予其心理輔導功能的設定,并向人類記者示愛。
此類問題核心在于,AI運算原理是基于數據庫預測下一個“token”的概率游戲,而非回答的準確性;另一方面基于深度學習神經網絡架構,AI幻覺與人類認知機制存在相似性,浙江大學計算機系的教授曾提到過:人類文明本就建立在集體幻覺之上,從遠古神話到現代宗教,虛構敘事讓人類有秩序性地生存下去。
因此以技術發展階段而言,生成式人工智能的幻覺問題難以避免,有時候還會變得越來越難以分辨,早期的DeepSeek往往把胡編亂造的事實藏在一堆看似合理的邏輯推論里,比如前段時間“中國80后的死亡率5.2%”的謠言,就是AI幻覺的衍生。
時代財經:聽起來無論是AI偏見還是幻覺,現階段都無法解決,它的技術瓶頸在哪?
陳昌鳳:首先你得能打開“算法黑箱”。由于算法的復雜性難以追溯,AI的決策機制就連設計者自身有時都難以解釋清楚。事實上,人類與“黑箱”的博弈已持續數十年,但技術自洽邏輯與生物性特質決定了這種必然,“算法黑箱”目前來說是打不開的。
時代財經:在無法打開的算法“黑箱”面前,如何讓AI的決策更加透明和可靠?
陳昌鳳:因為“黑箱”內在特性所致,我們目前只能在設計層面盡可能把握透明度,比如公開推薦算法的公式、用戶畫像、地理位置畫像等多維度數據,向社會展示技術邏輯。過去幾年,學術界經常從倫理層面呼吁提高透明度,但對AI算法只是“無牙老虎”,這往往只是一個倫理的期待。歸根到底,企業核心算法仍是商業機密,一旦公開,核心競爭力將蕩然無存。
在人工智能時代,算法黑箱爭議多演變為法律博弈,Facebook在歐洲的訴訟、谷歌的賠償案例,用戶與平臺間形成“進退”拉鋸:有時用戶讓步接受現狀,有時平臺妥協適度開放,本質上是公共利益與商業利益的持續平衡,而標準會在反復磨合中趨于合理。
時代財經:既然AI存在那么多問題,當它錯誤決策導致不良后果時,法律下的權責應該如何劃分?
陳昌鳳:AI時代權責劃分是難點問題之一,目前的法律實踐通常將責任主體鎖定在兩個層面,即使用方需承擔審慎核查義務,平臺方則需對技術框架負責。
比如,自動駕駛技術引發事故,責任通常指向平臺方、車主,因為車輛控制權由駕駛員掌握。類似地,在醫療場景中,若AI開具的處方導致患者損害,責任應由醫療機構承擔,而非技術平臺。其責任劃分邏輯仍是參照互聯網治理框架,責任均需根據控制權歸屬進行動態分配。
時代財經:前段時間,網信辦下發整治AI技術濫用亂象、規范AI類應用網絡生態的通知,說明AI工具已經對現實產生了不少負面影響。在你看來,當下圍繞AI安全方面急需解決的問題是什么?
陳昌鳳:最緊迫的監管議題當屬虛假信息治理與個人信息安全防護兩個領域。眼下,深度偽造技術已經非常泛化,其應用已從娛樂場景轉向社會攻擊工具,被濫用實施人格抹黑、煽動意識形態對立等惡性行為。包括偽造國際名人謠言、中學生的面容被移植至非法場景。
同時,開源模型帶來的“低門檻”生成能力,使任何人都可批量制造誹謗圖文、偽造敏感影像。在這種背景下,民眾的教育確實非常重要。AI的用戶們要有技術素養,確保自己不會被AI蒙騙,首先在認知上有所調整,不能全盲依賴AI,它非結論和教條;其次,謹慎辨別信息,把AI檢索和推理的信息分開,亦或是用AI對抗AI方式校準內容。
時代財經:有沒有什么方法可以強化大眾的技術素養,保證大家能夠以平均水準去使用AI?
陳昌鳳:AI技術素養本質上屬于全民終身教育范疇,需要社會多方主體的協同參與。政府層面應主導制定更加細化的監管體系,教育系統需將AI認知課程融入各階段教學,新聞則要及時告知大眾AI技術可能帶來的風險......
盡管如此,技術素養提升與數字鴻溝消除具有相似規律——它既不能單靠強制推行實現,也不會自然達成均衡狀態,而是需要技術普惠機制與個體學習意愿的共同作用。提升AI時代原住民的技術素養任重道遠,也是一個自然而然的過程。
本文鏈接:http://m.020gz.com.cn/news-2-1148-0.html專訪清華大學教授陳昌鳳:AI是社會的鏡子,折射出人性明暗
聲明:本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“
”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“
”按鈕