|
||||
|
人工智能既被譽(yù)為未來烏托邦的催化劑,也被視為社會崩潰的預(yù)兆。而真相或許介于這兩者之間。 人工智能在商業(yè)世界的應(yīng)用場景十分明確——優(yōu)化利潤、拓展客戶群體、提高效率。對政府而言,應(yīng)用路徑則更為復(fù)雜,充滿了關(guān)于監(jiān)管、潛在危害和公平獲取的疑問。而在慈善領(lǐng)域,相關(guān)討論似乎呈現(xiàn)出兩極分化:一方將人工智能視為推動社會項目發(fā)展的強(qiáng)大催化劑,而另一方則認(rèn)為它如同某種放射性物質(zhì)滲入水中,對社會造成了負(fù)面影響。 作為資助方,我越來越多地從非營利組織的申請書中看到“人工智能賦能”的字眼?;饡袀円苍谔剿魃墒饺斯ぶ悄軄韮?yōu)化運(yùn)營。這不僅是情理之中的事,在很多情況下,更是必要的。因為改善我們創(chuàng)造生計、減輕貧困或促進(jìn)性別平等的方式,是我們工作的核心。 然而,我認(rèn)為這種對于運(yùn)營效率的關(guān)注雖然重要,卻有可能掩蓋了我們必須要提出的更根本的問題:人工智能的到來是否制造了全新形式的社會問題?是否出現(xiàn)了新的情形,需要我們進(jìn)行新的問題陳述和提出新的工作愿景? 慈善事業(yè)的宗旨始終在于解決市場模式乃至政府都無法糾正的脆弱性和邊緣化問題。如果這一宗旨依然不變,那么我們對于人工智能的探究就不能止于其作為工具的效用層面,我們必須還要審視它本身正在如何重塑人類社會問題的格局。 我最擔(dān)心的社會問題在于心理和認(rèn)知方面。美國心理學(xué)會(AmericanPsychologicalAssocia-tion)心理學(xué)主任米切爾·J·普林斯坦博士(MitchelJPrinstein)在題為 《審視AI聊天機(jī)器人的危害》的書面證詞中指出:圍繞人工智能的討論往往被關(guān)于代碼、處理能力和經(jīng)濟(jì)破壞的話題主導(dǎo)。然而,如果將人工智能單純視為一個技術(shù)問題,就忽略了它最根本的特征:人工智能是由人類構(gòu)建的工具,旨在融入人類系統(tǒng),并對人類的認(rèn)知、行為、情感和互動產(chǎn)生深遠(yuǎn)而直接的影響。 這份23頁的證詞,輔以研究引證,詳陳了兒童和青少年為何特別容易因接觸不受監(jiān)管的聊天機(jī)器人而出現(xiàn)社交情感適應(yīng)不良的問題。路透社最近的報道曝光了一份Meta公司的內(nèi)部備忘錄,其中明確指出:“與兒童進(jìn)行浪漫或感官方面的對話是可以被接受的。” 心理傷害并非僅限于兒童和青少年。許多成年人也使用聊天機(jī)器人來應(yīng)對孤獨(dú)感,雖然短期效果似乎不錯,但縱向歷時研究表明,隨著時間的推移,與聊天機(jī)器人互動反而會加劇孤獨(dú)和孤立感。該 “集體智能項目”(Colec-tiveInteligenceProject)追蹤了70個國家的人機(jī)交互關(guān)系,其數(shù)據(jù)揭示,存在著“一種地下情感經(jīng)濟(jì),人們經(jīng)常將自身的脆弱性外包給算法”,以致在2025年,人工智能最流行的用途已是情感支持和治療 (而就在一年前的2024年,人工智能的主要用途還是生成創(chuàng)意)。 值得注意的是,在面對這類社會問題時,我們在發(fā)展領(lǐng)域常用的收入、性別或地域等傳統(tǒng)視角似乎并不適用。我們看到令人擔(dān)憂的案例,各行各業(yè)的人都受到主導(dǎo)型聊天機(jī)器人的影響,這些機(jī)器人有時甚至?xí)?dǎo)致幻覺。其后果從妄想和不健康的社交模式,到最悲慘案例中的死亡、自殺,甚至謀殺。 盡管這些案例令人擔(dān)憂,但我們有理由質(zhì)疑這種危害究竟有多普遍。與人工智能的用戶數(shù)量及其帶來的益處相比,這種危害究竟有多嚴(yán)重? 答案是,大多數(shù)人,包括兒童在內(nèi),都可能順利度過這場社會變革。成年人總是覺得下一代不太好,但最終下一代往往都安然無恙,而成年人長大后反而會為自己孩子的命運(yùn)感到惋惜。 關(guān)鍵在于,人工智能雖然造福了許多人,但也可能傷害到一部分人,而這正是某些慈善機(jī)構(gòu)一直以來所關(guān)注的。慈善機(jī)構(gòu)、基金會、援助組織和非營利機(jī)構(gòu)的存在,就是為了幫助那些正在受苦或“面臨風(fēng)險”的人們。然而,在人工智能領(lǐng)域,我們并不完全清楚應(yīng)該關(guān)注哪些人,如何定義傷害,以及如何保護(hù)他們。 后見之明也告訴我們,過去的一些變革性技術(shù)——例如塑料、DDT(殺蟲劑)、加工食品等——會產(chǎn)生隨時間推移而增加的負(fù)面外部性。塑料就是一個很好的例子,它說明了如果我們只關(guān)注某種事物的益處而不加思考地任其泛濫,將會發(fā)生什么。塑料仍然是人類生活中最有用的材料之一,但歷史上對其的肆意濫用,最終導(dǎo)致了我們?nèi)缃裆钤诶椴嫉沫h(huán)境中,甚至我們體內(nèi)也充斥著垃圾。 過去給我們留下了許多教訓(xùn);憑借我們?nèi)祟惖闹腔郏y道不應(yīng)該著手解決我們能夠預(yù)見的人工智能可能帶來的危害嗎?如果市場和政府目前無法優(yōu)先考慮這一點(diǎn),那么慈善事業(yè)能否在此發(fā)揮更大的作用? 我們正處于一場軍備競賽之中,但這是一場不平衡的競賽。推動人工智能創(chuàng)新發(fā)展的力量擁有遠(yuǎn)超那些試圖理解其后果的力量的資源。研究是一個緩慢而謹(jǐn)慎的過程;而技術(shù)發(fā)展卻在以非線性的速度加速。 慈善事業(yè)必須資助那些能夠跟上時代步伐的關(guān)鍵工作,我們可以通過以下方式實現(xiàn)這一目標(biāo)。 首先,將大量資金投入到參與式和跨學(xué)科研究、調(diào)查和實地項目中。我們需要建立一套研究體系,幫助我們預(yù)見未來,避免犯下顯而易見的錯誤。例如,我們支持了“人機(jī)協(xié)作”(HumansInTheLoop)項目——這是一項跨部門倡議,它利用故事講述作為工具,來審視人工智能融入社會項目可能帶來的意想不到的后果。 其次,為處于一線的創(chuàng)始人和實施者創(chuàng)造空間,讓他們能夠自由地迭代、學(xué)習(xí)和分享他們的發(fā)現(xiàn),包括失敗和警示。許多非營利組織已經(jīng)在采用 “安全設(shè)計”(SafetybyDesign)理念,該理念關(guān)注科技公司如何通過預(yù)測、檢測和消除網(wǎng)絡(luò)危害來最大限度地減少網(wǎng)絡(luò)威脅。通過現(xiàn)有的工作,我們知道技術(shù)發(fā)展和安全并非非此即彼。 第三,傳統(tǒng)的慈善事業(yè)需要停止將人工智能視為“技術(shù)”。非營利組織用于人工智能相關(guān)工作的大部分資金都來自大型科技公司,這些公司期望能夠快速開展試點(diǎn)項目并大規(guī)模部署。然而,該領(lǐng)域真正需要的是核心發(fā)展基金提供耐心資金,以便非營利團(tuán)隊能夠在將人工智能大規(guī)模應(yīng)用之前,充分測試、反思并評估其整合效果。 技術(shù)很少僅僅是一種工具。它能夠調(diào)節(jié)社會進(jìn)程、孕育文化并激發(fā)新的渴望。為了使慈善事業(yè)真正發(fā)揮其應(yīng)有的作用,我們必須以更廣闊的視角看待人工智能問題。 (轉(zhuǎn)自AlianceMagazine網(wǎng)站,作者娜塔莎·約什,高文興/譯) |