AI如成長(zhǎng)的孩童,生態(tài)理論揭示其發(fā)展受多層環(huán)境影響。需多元參與和強(qiáng)治理框架,防范偏見(jiàn)延續(xù),確保AI公平向善發(fā)展。

圖源:Credit: Ron Guerrier / Save the Children
人工智能不再是科幻小說(shuō)中的虛構(gòu)內(nèi)容,它已經(jīng)成為現(xiàn)實(shí),影響著從醫(yī)療保健到招聘實(shí)踐的各個(gè)領(lǐng)域。像ChatGPT這樣的工具使人工智能的使用更加普及,讓個(gè)人和組織能夠以前所未有的方式利用其潛力。
但正如任何一種變革性技術(shù)一樣,人工智能也伴隨著風(fēng)險(xiǎn),其中最主要的是偏見(jiàn)和系統(tǒng)性不公的延續(xù)。為了負(fù)責(zé)任地引導(dǎo)人工智能的發(fā)展,我們需要將其視為一個(gè)成長(zhǎng)中的孩子,而不僅僅是一個(gè)工具——它會(huì)被其成長(zhǎng)環(huán)境所塑造,或好或壞。
這個(gè)類比可能看起來(lái)有些奇怪,但它很有啟發(fā)性。人工智能就像一個(gè)孩子一樣,會(huì)從周?chē)娜四抢飳W(xué)習(xí)。開(kāi)發(fā)者、工程師、政策制定者,甚至終端用戶都在為其成長(zhǎng)做出貢獻(xiàn)。為了確保人工智能發(fā)展成為一股向善的力量,而不是傷害的延續(xù)者,我們必須解決塑造它發(fā)展的社會(huì)和系統(tǒng)性因素。
幫助我們理解這種動(dòng)態(tài)的框架是Dr. Urie Bronfenbrenner(尤里·布朗芬布倫納)博士的生態(tài)系統(tǒng)理論,該理論最初是為研究人類發(fā)展而設(shè)計(jì)的。當(dāng)應(yīng)用于人工智能時(shí),布朗芬布倫納博士的理論揭示了引導(dǎo)其發(fā)展的相互關(guān)聯(lián)的層次結(jié)構(gòu),并強(qiáng)調(diào)了對(duì)人工智能進(jìn)行負(fù)責(zé)任治理的迫切需要。
一、影響力系統(tǒng)
在最直接的層面是微觀系統(tǒng)——與人工智能直接互動(dòng)的開(kāi)發(fā)者、工程師和用戶。這些人編寫(xiě)算法、選擇訓(xùn)練數(shù)據(jù),并決定人工智能系統(tǒng)的運(yùn)行方式。問(wèn)題是,這些系統(tǒng)往往反映了其創(chuàng)造者的偏見(jiàn)。例如,當(dāng)我要求一個(gè)人工智能工具優(yōu)化一張我自己的照片(一個(gè)50歲的海地裔美國(guó)黑人男性)時(shí),它生成的圖像卻是一個(gè)年輕白人、藍(lán)眼睛的男性。這并非偶然,而是系統(tǒng)中嵌入的偏見(jiàn)數(shù)據(jù)和決策的結(jié)果。如果沒(méi)有開(kāi)發(fā)者的多樣化視角,人工智能將繼續(xù)錯(cuò)誤地代表并排斥邊緣化群體。
接下來(lái)是中觀系統(tǒng),它代表了關(guān)鍵參與者之間的關(guān)系——科技公司、政府和研究人員。這些群體決定人工智能的部署和監(jiān)管方式。如果這些關(guān)系優(yōu)先考慮利潤(rùn)而非公平,或者優(yōu)先考慮創(chuàng)新而非包容,那么整個(gè)群體可能會(huì)被排除在人工智能帶來(lái)的利益之外。被邊緣化的群體,特別是黑人和拉丁裔群體,已經(jīng)面臨獲取數(shù)字技術(shù)的系統(tǒng)性障礙。當(dāng)人工智能的設(shè)計(jì)和治理沒(méi)有他們的參與時(shí),這些障礙將更加難以克服。
外層系統(tǒng)包括企業(yè)政策、媒體敘事和經(jīng)濟(jì)壓力等外部力量。這些力量通常決定行業(yè)的優(yōu)先事項(xiàng),而最近的趨勢(shì)令人擔(dān)憂。許多公司正在縮減多樣性、公平性和包容性計(jì)劃,這些計(jì)劃對(duì)確保人工智能系統(tǒng)的設(shè)計(jì)考慮公平性至關(guān)重要。如果沒(méi)有這些項(xiàng)目,就很難問(wèn)責(zé)人工智能是否公平地服務(wù)于每個(gè)人,還是僅僅服務(wù)于少數(shù)特權(quán)階層。
宏觀系統(tǒng)反映了更廣泛的文化背景——我們的集體價(jià)值觀、規(guī)范和信仰。在科技領(lǐng)域,創(chuàng)新的速度經(jīng)常與公平和包容的價(jià)值觀之間存在脫節(jié)。例如,盡管人工智能的發(fā)展正在加速,但在STEM(科學(xué)、技術(shù)、工程和數(shù)學(xué))領(lǐng)域的多樣性卻停滯不前。黑人專業(yè)人士?jī)H占計(jì)算機(jī)科學(xué)畢業(yè)生的8.6%,而在領(lǐng)導(dǎo)職位中所占的比例更是少之又少。這種代表性不足不僅僅是多樣性問(wèn)題,而是一個(gè)系統(tǒng)性失敗,它可能會(huì)將偏見(jiàn)嵌入我們技術(shù)的基礎(chǔ)之中。
最后,時(shí)序系統(tǒng)捕捉了時(shí)間的影響——?dú)v史事件和技術(shù)里程碑如何塑造人工智能的發(fā)展軌跡。2022年ChatGPT的發(fā)布標(biāo)志著一個(gè)關(guān)鍵轉(zhuǎn)折點(diǎn),使生成式人工智能工具廣泛地向公眾開(kāi)放。盡管這種民主化令人振奮,但它也帶來(lái)了風(fēng)險(xiǎn)。如果沒(méi)有倫理約束,這些系統(tǒng)可能會(huì)加劇現(xiàn)有的不平等。今天做出的決定——是規(guī)范人工智能還是任其無(wú)約束地發(fā)展,將對(duì)社會(huì)產(chǎn)生長(zhǎng)期的后果。
二、踐行責(zé)任
那么,我們能做些什么呢?首先,我們必須認(rèn)識(shí)到,人工智能的發(fā)展并非處于真空之中。它是由人、政策和文化規(guī)范共同塑造的。為了確保其能夠負(fù)責(zé)任地發(fā)展,我們需要讓不同聲音參與其中——開(kāi)發(fā)者、政策制定者以及能夠代表所有用戶需求(而不僅僅是少數(shù)特權(quán)階層)的社區(qū)領(lǐng)袖。
其次,我們需要更有力的治理框架,強(qiáng)調(diào)透明度、公平性和問(wèn)責(zé)制。這包括強(qiáng)制進(jìn)行偏見(jiàn)測(cè)試、使數(shù)據(jù)集多樣化,以及讓公司為其技術(shù)的社會(huì)影響負(fù)責(zé)。
最后,我們需要一場(chǎng)文化轉(zhuǎn)變。人工智能不應(yīng)僅被視為一項(xiàng)技術(shù)成就,更應(yīng)被視為一項(xiàng)社會(huì)成就。其發(fā)展必須優(yōu)先考慮公平、包容和責(zé)任。只有這樣,我們才能利用人工智能的潛力來(lái)彌合差距、創(chuàng)造機(jī)會(huì),而不是延續(xù)傷害。
將人工智能比作一個(gè)成長(zhǎng)中的孩子這一類比提醒我們其中的利害關(guān)系。就像養(yǎng)育一個(gè)孩子一樣,塑造人工智能的未來(lái)需要關(guān)懷、合作和遠(yuǎn)見(jiàn)。有了正確的引導(dǎo),人工智能可以成為一股向善的力量——一項(xiàng)提升人們福祉而非排斥他人的創(chuàng)新。但如果忽視我們的責(zé)任,我們就有創(chuàng)造出一種反映并放大社會(huì)最糟糕缺陷的技術(shù)的風(fēng)險(xiǎn)。選擇權(quán)在我們手中。
作者:Ron Guerrier(羅恩·格里耶爾)
譯者:木青