隨著圍繞人工智能的倫理考慮逐漸成為人們關(guān)注的焦點(diǎn),IT領(lǐng)導(dǎo)者正在制定治理框架,建立審查委員會(huì),并接受未來(lái)的不同討論和決定。
圖源:OLENA YAKOBCHUK(圖片上傳者,可以譯為用戶OLENA YAKOBCHUK,或者OLENA YAKOBCHUK)?/ SHUTTERSTOCK
人工智能激發(fā)了幾乎所有領(lǐng)域組織的興趣。隨著人工智能試點(diǎn)向生產(chǎn)方向發(fā)展,關(guān)于道德人工智能需求的討論越來(lái)越多,還有“fairness(公正和公平,人工智能系統(tǒng)在設(shè)計(jì)和應(yīng)用中,應(yīng)該確保對(duì)待所有人和群體公平和公正。這意味著AI系統(tǒng)不應(yīng)該在決策和服務(wù)提供中對(duì)不同的人群進(jìn)行歧視,不論是基于種族、性別、宗教、年齡還是其他特征。AI的算法和數(shù)據(jù)應(yīng)該避免偏見(jiàn),以確保決策結(jié)果是公正的。)”、“privacy(隱私,在人工智能應(yīng)用中,個(gè)人隱私的保護(hù)至關(guān)重要。AI系統(tǒng)應(yīng)該采取必要的措施,保護(hù)用戶的隱私信息,防止未經(jīng)授權(quán)的數(shù)據(jù)訪問(wèn)和濫用。隱私保護(hù)原則也包括對(duì)于用戶數(shù)據(jù)的合法收集和使用,確保數(shù)據(jù)的安全性和保密性。)”、“transparency(透明度,人工智能系統(tǒng)的決策過(guò)程應(yīng)該是透明的,用戶和相關(guān)利益方應(yīng)該能夠理解AI系統(tǒng)的運(yùn)作原理。透明度和可解釋性有助于建立用戶信任,也能夠幫助發(fā)現(xiàn)和糾正系統(tǒng)中的偏見(jiàn)和錯(cuò)誤。透明度還包括對(duì)于數(shù)據(jù)的來(lái)源和使用進(jìn)行明示,以保障用戶隱私和數(shù)據(jù)安全。)”、“accountability(問(wèn)責(zé)制,人工智能開(kāi)發(fā)者和使用者應(yīng)該對(duì)其系統(tǒng)的行為負(fù)有責(zé)任,并承擔(dān)相應(yīng)的法律和倫理責(zé)任。在AI系統(tǒng)出現(xiàn)錯(cuò)誤、偏見(jiàn)或者造成損害時(shí),應(yīng)該能夠追溯到責(zé)任人,并采取合適的糾正措施。問(wèn)責(zé)制也包括建立法律框架和規(guī)范,明確人工智能系統(tǒng)開(kāi)發(fā)和使用的法律責(zé)任。)”等術(shù)語(yǔ),以及最重要的一個(gè)術(shù)語(yǔ)——“bias(偏見(jiàn),是機(jī)器學(xué)習(xí)算法輸出中的異?,F(xiàn)象,是由于算法開(kāi)發(fā)過(guò)程中的偏見(jiàn)假設(shè)或訓(xùn)練數(shù)據(jù)中的偏見(jiàn)造成的。)”。
但是,隨著人工智能成為人們工作和開(kāi)展業(yè)務(wù)不可或缺的一部分,確保對(duì)這些措施深思熟慮是首席信息官們將要努力解決的一項(xiàng)艱巨任務(wù)。
對(duì)于許多首席信息官來(lái)說(shuō),現(xiàn)在還處于起步階段,但減輕人工智能模型中的偏見(jiàn)、平衡創(chuàng)新與倫理考慮已經(jīng)是他們面臨的最大挑戰(zhàn)之一。他們發(fā)現(xiàn),技術(shù)進(jìn)步和確保人工智能不會(huì)帶來(lái)有害結(jié)果之間需要平衡。
Christoph Wollersheim(克里斯托夫·沃勒謝姆)是全球咨詢公司Egon Zehnder(成立于1964年,總部位于瑞士蘇黎世,是一家專業(yè)從事高管獵頭和人才咨詢的獵頭公司。公司服務(wù)范圍涵蓋各種行業(yè)和地區(qū),以個(gè)性化的服務(wù)著稱。?)的服務(wù)和人工智能實(shí)踐小組的成員,他指出了大多數(shù)組織在實(shí)施人工智能時(shí)需要解決的五個(gè)關(guān)鍵領(lǐng)域:準(zhǔn)確性、偏見(jiàn)、安全性、透明度和社會(huì)責(zé)任。
不幸的是,用人工智能實(shí)現(xiàn)100%的準(zhǔn)確性是“不可能的,”Wollersheim(沃勒謝姆)說(shuō),他最近參與撰寫了《The Board Member’s Guide to Overseeing AI/董事會(huì)成員監(jiān)督人工智能指南》?!罢嬲牡赖聠?wèn)題在于公司如何防范錯(cuò)誤信息。如果客戶看到錯(cuò)誤的數(shù)據(jù),或者關(guān)鍵決策是基于不準(zhǔn)確的人工智能反應(yīng),該怎么辦?公司需要一個(gè)切實(shí)可行的計(jì)劃和透明的溝通策略來(lái)應(yīng)對(duì)?!?/span>
他指出,當(dāng)人工智能根據(jù)歷史數(shù)據(jù)進(jìn)行訓(xùn)練時(shí),偏見(jiàn)可能會(huì)在無(wú)意中永久存在。
“執(zhí)行管理層和董事會(huì)都必須確保人工智能的公平性,并防止歧視?!蹦壳罢谶M(jìn)行研究來(lái)糾正偏見(jiàn),使用合成數(shù)據(jù)來(lái)處理性別、種族和民族等屬性,他說(shuō),“但始終需要應(yīng)用以人為中心的視角?!?/span>
Wollersheim(沃勒謝姆)說(shuō),保護(hù)敏感信息的必要性對(duì)于合乎道德的人工智能部署至關(guān)重要,因?yàn)槿斯ぶ悄軐?duì)數(shù)據(jù)的嚴(yán)重依賴增加了漏洞和未經(jīng)授權(quán)訪問(wèn)的風(fēng)險(xiǎn)。“公司必須加強(qiáng)防范可能誤導(dǎo)人工智能模型并導(dǎo)致決策不明智的攻擊。確保敏感信息的安全對(duì)于合乎道德的人工智能部署至關(guān)重要。”
他說(shuō),至于透明度,他認(rèn)為這不僅僅是算法,而是建立信任。“利益相關(guān)者需要了解人工智能是如何做出決策和處理數(shù)據(jù)的。透明的人工智能框架是遵循道德底線、問(wèn)責(zé)制和維護(hù)信任的關(guān)鍵?!?/span>
組織還必須考慮指導(dǎo)他們的價(jià)值觀,以及他們?cè)诔掷m(xù)培訓(xùn)、技能提升和就業(yè)保護(hù)方面的義務(wù)。Wollersheim(沃勒謝姆)說(shuō):“合乎道德的人工智能就是為我們的員工塑造一個(gè)負(fù)責(zé)任的未來(lái)?!?/span>
Wollersheim(沃勒謝姆)說(shuō),為了解決這些問(wèn)題,建立人工智能審查委員會(huì)和實(shí)施有道德底線的人工智能框架至關(guān)重要。“合乎道德的人工智能框架為每個(gè)內(nèi)部或外部項(xiàng)目的監(jiān)控和批準(zhǔn)提供了明確的指導(dǎo)。由技術(shù)和商業(yè)專家組成的人工智能審查委員會(huì)確保道德考慮處于決策的首位。”
以下是首席信息官如何在其組織中解決道德人工智能問(wèn)題。
1.讓合乎道德的人工智能成為團(tuán)隊(duì)行動(dòng)
Plexus Worldwide(美國(guó)直銷保健產(chǎn)品提供商)使用人工智能識(shí)別欺詐賬戶創(chuàng)建和交易的組織,這家價(jià)值5億美元的全球健康公司的首席信息官兼首席技術(shù)官Alan McIntosh(阿蘭·麥金托什)表示。在McIntosh(麥金托什)看來(lái),偏見(jiàn)從根本上說(shuō)是一個(gè)數(shù)據(jù)問(wèn)題。他說(shuō):“我們?cè)噲D通過(guò)利用和驗(yàn)證多個(gè)完整的數(shù)據(jù)源來(lái)消除偏見(jiàn)和錯(cuò)誤的結(jié)果。”
Plexus IT也處于在該公司電子商務(wù)平臺(tái)中使用人工智能的分析階段,“以預(yù)測(cè)和優(yōu)化客戶體驗(yàn)和增強(qiáng)個(gè)性化,”McIntosh(麥金托什)說(shuō),“我們還看到了自動(dòng)化的機(jī)會(huì),可以消除許多遺留的手工操作和重復(fù)性任務(wù)?!?/span>
他說(shuō),為了確保遵守有道德底線的人工智能實(shí)踐,Plexus Worldwide成立了一個(gè)由IT、法律和人力資源代表組成的團(tuán)隊(duì),負(fù)責(zé)人工智能治理和政策的發(fā)展和演變。該團(tuán)隊(duì)建立了公司的風(fēng)險(xiǎn)承受能力、可接受的用例和限制以及適用的披露。
McIntosh(麥金托什)說(shuō),即使有一個(gè)專注于人工智能的團(tuán)隊(duì),識(shí)別風(fēng)險(xiǎn)并理解該組織打算如何在內(nèi)部和公開(kāi)場(chǎng)合使用人工智能也是一個(gè)挑戰(zhàn)。他說(shuō),團(tuán)隊(duì)成員還必須理解并解決人工智能偏見(jiàn)、錯(cuò)誤聲明和不正確結(jié)果的固有可能性。
“根據(jù)使用情況,您的公司的聲譽(yù)和品牌可能會(huì)受到威脅,所以您必須規(guī)劃有效的治理?!?/span>
考慮到這一點(diǎn),McIntosh(麥金托什)表示,首席信息官們“不要一味沖擊終點(diǎn)線”至關(guān)重要。在實(shí)施和公開(kāi)該技術(shù)之前,組織必須制定一個(gè)徹底的計(jì)劃,專注于制定治理框架和人工智能政策。McIntosh(麥金托什)說(shuō),識(shí)別適當(dāng)?shù)睦嫦嚓P(guān)者,如法律、人力資源、合規(guī)和隱私,以及IT,是Plexus開(kāi)始其道德人工智能流程之處。
“然后,我們制定了一份政策(體系)草案,概述了角色和職責(zé)、范圍、背景、可接受的使用指南、風(fēng)險(xiǎn)承受能力和管理措施,以及治理?!彼f(shuō),“我們繼續(xù)迭代和發(fā)展我們的政策,但它仍在制定中。我們打算在2024年第一季度實(shí)施它。”
McIntosh(麥金托什)建議尋找第三方資源或?qū)<业膶I(yè)知識(shí)?!斑@將大大有助于加快您的計(jì)劃和框架的開(kāi)發(fā)和執(zhí)行?!彼忉屨f(shuō),“并且,根據(jù)您目前的項(xiàng)目管理實(shí)踐,為您的人工智能采用計(jì)劃提供同等水平的嚴(yán)格性,甚至更多?!?/span>
2.慢慢走,這樣人工智能就不會(huì)“橫沖直撞”
首席信息官Matt Richard(馬特·理查德)表示,代表50多萬(wàn)建筑工人、公職人員和郵件處理人員的The Laborer’s International Union of North America /LIUNA(北美勞工國(guó)際聯(lián)盟,擁有50萬(wàn)名成員。)已經(jīng)開(kāi)始使用人工智能,主要用于文件的準(zhǔn)確性和澄清,以及撰寫合同。
隨著LIUNA(北美勞工國(guó)際聯(lián)盟)在2024年擴(kuò)大了人工智能的用例,“這涉及到我們?nèi)绾魏虾醯赖碌拙€地使用人工智能的問(wèn)題,”他說(shuō)。該組織已開(kāi)始試行谷歌Duet(是谷歌在2023年推出的一款全新的人工智能助理,它可以覆蓋所有Workspace應(yīng)用,包括Gmail、Docs、Slides、Sheets、Meet和Chat,為用戶提供各種智能輔助功能。其中最引人注目的功能之一,就是Duet AI可以作為會(huì)議替身,讓用戶可以擺脫無(wú)意義的會(huì)議,專注于更有價(jià)值的工作。),以自動(dòng)化承包商協(xié)議的編寫和談判過(guò)程。
Richard(理查德)說(shuō),目前,工會(huì)事務(wù)并沒(méi)有使用人工智能來(lái)識(shí)別成員的愿望和需求,也沒(méi)有梳理可能敏感的招聘數(shù)據(jù),并根據(jù)模型的培訓(xùn)方式對(duì)人們產(chǎn)生偏見(jiàn)。
“這些都是我關(guān)注的地方:當(dāng)模型告訴我一個(gè)人的情況時(shí)。我覺(jué)得我們還沒(méi)有準(zhǔn)備好進(jìn)入這個(gè)領(lǐng)域,因?yàn)樘孤实卣f(shuō),我不相信受過(guò)公開(kāi)訓(xùn)練的模型能讓我深入了解我想雇傭的人?!?/span>
盡管如此,Richard(理查德)還是期待著一種“自然進(jìn)化”,在未來(lái),LIUNA(北美勞工國(guó)際聯(lián)盟)可能希望利用人工智能深入了解其成員,幫助工會(huì)為他們帶來(lái)更好的利益。就目前而言,“我們想如何做到這一點(diǎn)仍然是一個(gè)灰色地帶,”他說(shuō)。
該工會(huì)還在努力增加其成員數(shù)量,這其中一部分意味著使用人工智能來(lái)有效地識(shí)別潛在會(huì)員,“而不需要識(shí)別相同的同質(zhì)人群,”Richard(理查德)說(shuō),“我們的組織正在大力推動(dòng),并在賦予少數(shù)民族和婦女權(quán)力方面做得很好,我們希望發(fā)展這些群體?!?/span>
這就是Richard(理查德)擔(dān)心人工智能模型如何使用的地方,為了避免造成刻板印象和防止偏見(jiàn),我們必須參與其中。“您不只是讓模型來(lái)做所有的工作,”他說(shuō),“您明白您今天的處境,然后我們停下來(lái)說(shuō),‘好吧,人類需要在這里進(jìn)行干預(yù),看看模型告訴我們什么?!?/span>
“您不能讓人工智能橫沖直撞……而沒(méi)有任何干預(yù)。否則你就會(huì)讓問(wèn)題永久化?!彼€說(shuō),組織不應(yīng)該用人工智能采取“簡(jiǎn)單的方法”,只研究這些工具能做什么。“我擔(dān)心的是,人們會(huì)購(gòu)買并實(shí)施一個(gè)人工智能工具,然后放手,相信它?!仨毿⌒模@些工具不會(huì)知道我們想要什么?!?/span>
為此,Richard(理查德)認(rèn)為,人工智能可以作為一個(gè)起點(diǎn),但IT領(lǐng)導(dǎo)者必須利用團(tuán)隊(duì)的直覺(jué),“確保我們不會(huì)陷入只相信華而不實(shí)的軟件工具的陷阱,判斷這些工具有沒(méi)有給我們所需的數(shù)據(jù)?”他說(shuō)。
3.將人工智能倫理放在首位
集團(tuán)首席信息官Jan Cenkr(賈·切克)表示,與LIUNA(北美勞工國(guó)際聯(lián)盟)一樣,總部位于捷克的全球消費(fèi)金融提供商Home Credit(捷信消費(fèi)金融,成立于1997年。捷信是一家國(guó)際消費(fèi)金融提供商,業(yè)務(wù)遍及9個(gè)國(guó)家。捷信專注于向信用記錄很少或沒(méi)有信用記錄的人提供負(fù)責(zé)任的貸款。相比傳統(tǒng)銀行的抵押貸款,捷信貸款服務(wù)簡(jiǎn)單、方便、快捷。)也處于人工智能之旅的早期階段,使用GitHub Copilot(微軟與OpenAI共同推出了一款AI編程工具,能夠基于?GitHub?及其他網(wǎng)站的源代碼,可根據(jù)上文提示為程序員自動(dòng)編寫下文代碼。)進(jìn)行編程和文檔處理。
“它在節(jié)省時(shí)間方面提供了巨大的優(yōu)勢(shì),這反過(guò)來(lái)也是有益的成本因素,”Cenkr(切克)說(shuō),他也是捷信子公司EmbedIT的首席執(zhí)行官。倫理人工智能從一開(kāi)始就一直是Cenkr(切克)的首要任務(wù)。
“當(dāng)我們開(kāi)始推出我們的人工智能工具試點(diǎn)時(shí),我們?cè)趦?nèi)部也就創(chuàng)建道德治理結(jié)構(gòu)進(jìn)行了深入的討論。這意味著我們有真正的檢查,以確保我們不會(huì)違反自己的行為準(zhǔn)則。”
Cenkr(切克)補(bǔ)充說(shuō),這些代碼會(huì)定期進(jìn)行更新和測(cè)試,以確保它們盡可能地健全。
他補(bǔ)充說(shuō),數(shù)據(jù)隱私是最具挑戰(zhàn)性的考慮因素。“我們輸入人工智能平臺(tái)的任何信息和數(shù)據(jù)都必須遵守GDPR(General Data Protection Regulation,《通用數(shù)據(jù)保護(hù)條例》,前身是歐盟在1995年制定的《計(jì)算機(jī)數(shù)據(jù)保護(hù)法》。2018年5月25日,歐洲聯(lián)盟出臺(tái)《通用數(shù)據(jù)保護(hù)條例》。1.對(duì)違法企業(yè)的罰金最高可達(dá)2000萬(wàn)歐元,約合1.5億元人民幣,或者其全球營(yíng)業(yè)額的4%,以高者為準(zhǔn)。2.網(wǎng)站經(jīng)營(yíng)者必須事先向客戶說(shuō)明會(huì)自動(dòng)記錄客戶的搜索和購(gòu)物記錄,并獲得用戶的同意,否則按“未告知記錄用戶行為”作違法處理。3.企業(yè)不能再使用模糊、難以理解的語(yǔ)言,或冗長(zhǎng)的隱私政策來(lái)從用戶處獲取數(shù)據(jù)使用許可。4.明文規(guī)定了用戶的“被遺忘權(quán)”/right to be forgotten,即用戶個(gè)人可以要求責(zé)任方刪除關(guān)于自己的數(shù)據(jù)記錄。)的規(guī)定。”由于捷信在多個(gè)司法管轄區(qū)運(yùn)營(yíng),IT還必須確保所有這些市場(chǎng)的合規(guī)性,其中一些市場(chǎng)有不同的法律,這無(wú)疑增加了復(fù)雜性。
Cenkr(切克)說(shuō),組織應(yīng)該“以反映您個(gè)人道德規(guī)范的方式”來(lái)發(fā)展其的治理結(jié)構(gòu)?!拔蚁嘈牛绻駥?duì)待您在個(gè)人日常生活中應(yīng)用的道德一樣,認(rèn)真發(fā)展這些道德結(jié)構(gòu),這些結(jié)構(gòu)就會(huì)更加安全?!?/span>
此外,Cenkr(切克)表示,IT部門應(yīng)該做好定期更新其治理政策的準(zhǔn)備?!叭斯ぶ悄芗夹g(shù)每天都在進(jìn)步,無(wú)論多么令人興奮,跟上它的發(fā)展步伐都是一個(gè)真正的挑戰(zhàn)?!?/span>
4.設(shè)置護(hù)欄
聊天機(jī)器人等人工智能工具已經(jīng)在UST(前身為UST Global,是一家數(shù)字技術(shù)和轉(zhuǎn)型、信息技術(shù)和服務(wù)提供商,總部位于美國(guó)加州亞里索維耶荷,致力于為全球大型私有和公有企業(yè)提供先進(jìn)的計(jì)算和數(shù)字服務(wù)。UST在25個(gè)國(guó)家和地區(qū)設(shè)有35個(gè)辦事處,其業(yè)務(wù)涉及銀行和金融服務(wù)、醫(yī)療保健、保險(xiǎn)、零售、技術(shù)、制造、航運(yùn)和電信。)使用了好幾年,但生成式人工智能是一個(gè)全新賽道。這家數(shù)字化轉(zhuǎn)型公司的首席戰(zhàn)略官兼首席信息官Krishna Prasad(克里希納·普拉薩德)表示,這從根本上改變了商業(yè)模式,并使道德人工智能成為討論的一部分,同時(shí)承認(rèn)“今天這有點(diǎn)理論化了。”
Prasad(普拉薩德)說(shuō),道德底線在人工智能實(shí)施考慮中“并不總是實(shí)現(xiàn)”,“但我們確實(shí)談到了……我們需要有負(fù)責(zé)任的人工智能,以及一些獲得透明度和追溯建議是如何提出的能力。”
UST領(lǐng)導(dǎo)人之間的討論集中在該公司不想用人工智能做什么上,“以及我們今天所理解的界限在哪里劃定;我們?nèi)绾卧诓辉斐蓚Φ那闆r下忠于自己的使命,”Prasad(普拉薩德)說(shuō)。
Prasad(普拉薩德)表示,與其他人一樣,這意味著人類必須成為等式的一部分,因?yàn)槿斯ぶ悄芤呀?jīng)更深入地嵌入到組織內(nèi)部。
UST提出的一個(gè)問(wèn)題是,如果領(lǐng)導(dǎo)者在機(jī)器人監(jiān)聽(tīng)的情況下就員工表現(xiàn)進(jìn)行對(duì)話,這是否是對(duì)保密性的妥協(xié)?!埃ㄟ@樣的)事情已經(jīng)開(kāi)始涌現(xiàn),”Prasad(普拉薩德)說(shuō),“但在這一點(diǎn)上,我們可以繼續(xù)使用[微軟]Copilot(是微軟在Windows 11中加入的AI助手,該AI助手是一個(gè)集成了在操作系統(tǒng)中的側(cè)邊欄工具,可以幫助用戶完成各種任務(wù)。)來(lái)總結(jié)對(duì)話?!?/span>
另一個(gè)考慮因素是如何保護(hù)公司構(gòu)建的工具的知識(shí)產(chǎn)權(quán)。他說(shuō):“基于今天軟件供應(yīng)商提供的保護(hù),我們?nèi)匀挥X(jué)得數(shù)據(jù)包含在我們自己的環(huán)境中,沒(méi)有證據(jù)表明數(shù)據(jù)在外部丟失。”Prasad(普拉薩德)說(shuō),因此,他和其他領(lǐng)導(dǎo)人對(duì)繼續(xù)使用某些人工智能工具沒(méi)有任何疑慮,尤其是因?yàn)樗麄兛吹搅?/span>員工生產(chǎn)效率的提高。
盡管他認(rèn)為人類需要參與進(jìn)來(lái),但Prasad(普拉薩德)也擔(dān)心他們的投入。他解釋說(shuō):“歸根結(jié)底,由于我們所處環(huán)境的性質(zhì)、我們的經(jīng)歷以及它如何形成我們的思維,人類天生就有偏見(jiàn)?!?/span>
他還擔(dān)心,當(dāng)不良行為者使用客戶的數(shù)據(jù)為他們開(kāi)發(fā)新的模型時(shí),他們是否會(huì)獲得某些人工智能工具。
Prasad(普拉薩德)說(shuō),隨著軟件的普及,化他表示,與此同時(shí),首席信息官們必須引領(lǐng)潮流,展示如何利用人工智能,以及它將如何影響他們的商業(yè)模式,并將領(lǐng)導(dǎo)層聚集在一起討論最佳前進(jìn)道路。
他說(shuō):“首席信息官們必須在推動(dòng)對(duì)話中發(fā)揮作用,因?yàn)樗麄兛梢源蚱粕裨挘部梢詧?zhí)行。”他補(bǔ)充道,他們還必須為這些對(duì)話有時(shí)變得非常困難做好準(zhǔn)備。
例如,如果一個(gè)工具提供了某種功能,“我們是希望不擇手段地使用它,還是應(yīng)該因?yàn)橐乐勾蚱频赖碌拙€而選擇合規(guī),”Prasad(普拉薩德)說(shuō),“這是最矛盾的對(duì)話”,但首席信息官們必須指出,在選擇提供使用人工智能的新產(chǎn)品和服務(wù)之前,我如何對(duì)模型進(jìn)行約束?
作者:Esther Shein(埃斯特·謝恩)
Esther Shein(埃斯特·謝恩)是一名記者,在傳統(tǒng)出版與網(wǎng)絡(luò)出版方面具有豐富的寫作和編輯經(jīng)驗(yàn),專注于商業(yè)、技術(shù)、教育和其他方面。