監(jiān)管機構(gòu)對人工智能治理應該做什么仍然沒有明確的把握,但這并不是IT部門拖延使用AI的理由。企業(yè)CIO可以通過從已知領域入手,逐步建立起適合自身特點的治理體系。這不僅有助于企業(yè)更好地利用人工智能技術(shù),同時也為整個行業(yè)的人工智能治理提供了有益的借鑒。

圖源:tashatuvango via adobe Stock
每個公司都知道需要一個人工智能治理政策,但創(chuàng)建一個的政策的指導卻寥寥無幾。關(guān)鍵問題是什么,您又如何開始呢?
到處都有人工智能治理大綱和模板,但沒有人,甚至連監(jiān)管機構(gòu)、政府官員或法律專家,都不知道人工智能需要指導和治理的情況。這種缺乏理解被歸因于人工智能的新穎性。
由于人工智能治理存在如此多的不確定性,許多公司都在推遲定義治理,盡管他們正在自己的業(yè)務中研究和實施人工智能。我想說的是,公司不必等待來定義人工智能治理。他們可以從他們已經(jīng)從隱私、反偏見、版權(quán)和其他法規(guī)中了解的內(nèi)容開始,并首先將這些已知元素納入人工智能治理政策中。
以下是我們已知內(nèi)容的總結(jié)。
一、隱私
隱私法律可能因州而異,也因國家而異。我們知道的是,個人有個人隱私權(quán),根據(jù)美國法律,個人有“不被打擾”的權(quán)利。個人數(shù)據(jù)是高度機密的,特別是在醫(yī)療保健和金融領域。如果要共享信息,個人必須簽署隱私聲明,同意與某些第三方共享他們的信息。隱私政策也解釋了公司將保護哪些信息。
將這些基礎應用于人工智能,這意味著,以患者數(shù)據(jù)為例,如果數(shù)據(jù)被歸入有特定疾病或狀況傾向的人群,很可能會被匿名化。因此,對于一個用于得出特定患者診斷的醫(yī)療診斷人工智能系統(tǒng),人工智能算法可以調(diào)查其檔案中的患者匯總數(shù)據(jù),但不能深入任何被匯總數(shù)據(jù)的患者的具體情況,否則將冒著侵犯患者隱私權(quán)的風險。
二、反偏見
歧視和偏見是員工法的組成部分,應該在人工智能治理中正式化。
組織已經(jīng)經(jīng)歷了由于偏見導致的人工智能失誤,因為沒有用足夠無偏見的數(shù)據(jù)填充他們的系統(tǒng),以及開發(fā)了有缺陷的算法和查詢。
結(jié)果是嚴重偏見的系統(tǒng)返回了不準確和令人尷尬的結(jié)果。這就是為什么多樣性和包容性應該成為人工智能工作團隊的組成部分,此外還應審查數(shù)據(jù)以確保其盡可能無偏見。
多樣性適用于人工智能員工的組成,但也適用于公司部門。
例如,財務部門可能想知道如何提高產(chǎn)品利潤率,但銷售部門可能想知道如何提高客戶忠誠度,而工程和制造部門可能想知道如何提高產(chǎn)品性能以減少退貨??偟膩碚f,所有這些觀點都應該納入人工智能對客戶滿意度的分析中,否則您就有得到有偏見和不準確結(jié)果的風險。
“人工智能最大的風險之一是復制現(xiàn)有的社會偏見。人工智能系統(tǒng)的好壞取決于它們所訓練的數(shù)據(jù),如果這些數(shù)據(jù)反映了有偏見或不完整的世界觀,那么人工智能的輸出也會隨之效仿,”Society of Human Resource Management(SHRM,人力資源管理協(xié)會。成立于1948年,是世界上最大、最具實力和影響力的人力資源管理專業(yè)協(xié)會之一。SHRM擁有超過30萬名會員,遍布全球165個國家,影響著全球超過1.15億工人和家庭的生活。使命是通過提供最前沿和充足的資源,滿足人力資源管理專業(yè)人士的需求,提升人力資源的關(guān)鍵性和戰(zhàn)略性地位,推動人力資源管理專業(yè)實踐的發(fā)展。SHRM擁有強大的專業(yè)背景和廣泛的影響力,致力于通過其認證項目提升人力資源從業(yè)者的專業(yè)水平。)的AI+HI的駐場執(zhí)行官Nichol Bradford(尼科爾·布拉德福德)指出。
三、知識產(chǎn)權(quán)
生成式人工智能為收集他人的視覺和文字創(chuàng)作并重新用于其他目的鋪平了道路,通常在公司或創(chuàng)作者不知情的情況下。例如,您的公司可能與第三方供應商達成協(xié)議,您想為您的人工智能數(shù)據(jù)存儲庫購買他們的數(shù)據(jù)。您無法確定第三方是如何獲得他們的數(shù)據(jù)的,或者他們的數(shù)據(jù)是否可能侵犯版權(quán)或知識產(chǎn)權(quán)法。
Harvard Business Review(《哈佛商業(yè)評論》,簡稱HBR,創(chuàng)建于1922年,是哈佛商學院的標志性雜志。建立之初,它的使命就是致力于改進管理實踐。發(fā)展90年后,HBR已經(jīng)成為先進管理理念的發(fā)源地,致力于給全世界的專業(yè)人士提供縝密的管理見解和最好的管理實踐,并對他們及其機構(gòu)產(chǎn)生積極的影響。HBR在全世界有10種語言的11個授權(quán)版本,包括在臺灣地區(qū)發(fā)行的繁體字版和2012年7月起在大陸地區(qū)出版的簡體中文版。)在2023年討論了這個問題。它它指出:“雖然這些新的人工智能工具似乎可以虛空中變出新素材,但事實并非如此。這個過程伴隨著法律風險,包括知識產(chǎn)權(quán)侵權(quán)。在許多情況下,它也提出了仍在解決中的法律問題。例如,版權(quán)、專利商標侵權(quán)是否適用于人工智能創(chuàng)作?生成式人工智能平臺為您或您的客戶創(chuàng)建的內(nèi)容的所有權(quán)是否明確?在企業(yè)能夠擁抱生成式人工智能的好處之前,他們需要了解風險——以及如何保護他們自己?!?/span>
不幸的是,很難理解風險是什么,因為人工智能中的intellectual property/IP(知識產(chǎn)權(quán)?,也稱為智力成果權(quán),是指人們就其智力勞動成果所依法享有的專有權(quán)利。它是一種無形財產(chǎn)權(quán),其客體是智力成果或知識產(chǎn)品,通常包括著作權(quán)和工業(yè)產(chǎn)權(quán)兩大類。)和版權(quán)侵權(quán)才剛剛開始在法庭上受到挑戰(zhàn),判例法先例尚未確立。
在法律澄清之前,建議公司最初為知識產(chǎn)權(quán)和版權(quán)起草治理指南,規(guī)定從其購買用于人工智能的數(shù)據(jù)的任何供應商都必須經(jīng)過審查,并保證所提供的數(shù)據(jù)沒有版權(quán)或知識產(chǎn)權(quán)風險。在內(nèi)部,IT部門還應該審查自己的人工智能數(shù)據(jù)是否存在任何潛在的知識產(chǎn)權(quán)或版權(quán)侵權(quán)問題。如果有數(shù)據(jù)可能構(gòu)成侵權(quán)問題,一種方法便是獲得許可。
四、在組織中建立人工智能治理
IT團隊將開始人工智能治理過程。這個過程必須從與高層管理人員和董事會的對話開始。這些關(guān)鍵利益相關(guān)者必須在行動上和言語上支持人工智能治理的理念,因為人工智能治理將影響員工行為以及數(shù)據(jù)和算法的管理。
必須確定最可能的部門人工智能“著陸點”,因為這些部門將最直接地負責主題專家的輸入和人工智能模型的訓練,并且他們將需要治理方面的培訓。
為此,應該成立一個跨部門的人工智能治理委員會,負責同意治理政策和實踐,并有堅定的執(zhí)行領導支持。
人工智能治理政策的發(fā)展將是動態(tài)的,因為人工智能監(jiān)管是動態(tài)的,但組織可以從他們已經(jīng)了解的關(guān)于隱私、知識產(chǎn)權(quán)、版權(quán)、安全和偏見等方面開始。這些初始的人工智能治理政策應該伴隨著對將與人工智能一起工作的內(nèi)部員工的培訓。
對于CIO來說,目前重要的是使人工智能治理成為人工智能系統(tǒng)部署的一個組成部分。鑒于我們已經(jīng)了解的良好數(shù)據(jù)處理實踐,現(xiàn)在有充分的理由這樣做。
作者:Mary E. Shacklett(瑪麗·E·沙克利特)
Mary E. Shacklett(瑪麗·E·沙克利特)是國際公認的技術(shù)評論員,也是Transworld Data(一家營銷和技術(shù)服務公司)的總裁。在創(chuàng)立自己的公司之前,她曾是Summit Information Systems(一家計算機軟件公司)的產(chǎn)品研發(fā)和軟件開發(fā)副總裁;以及FSI International(一家半導體行業(yè)的跨國制造商)的戰(zhàn)略規(guī)劃和技術(shù)副總裁。
Mary(瑪麗)在歐洲、日本和環(huán)太平洋地區(qū)都有從業(yè)經(jīng)驗。她擁有威斯康星大學的學士學位和南加州大學的碩士學位,她曾在南加州大學任教數(shù)年。她被列入《Who's Who Worldwide/世界名人錄》和《Who's Who in the Computer Industry/計算機行業(yè)名人錄》。
譯者:寶藍
【睿觀:人工智能治理:從已知出發(fā),構(gòu)建基礎
本文核心觀點:
盡管人工智能治理仍處于探索階段,企業(yè)無需坐以待斃。通過借鑒現(xiàn)有隱私、反偏見、知識產(chǎn)權(quán)等領域的法律法規(guī)和最佳實踐,可以建立起初步的人工智能治理框架。
具體建議:
從已知開始:
隱私:確保個人數(shù)據(jù)在人工智能應用中得到妥善保護,特別是醫(yī)療和金融領域。
反偏見:在數(shù)據(jù)收集、算法設計和模型訓練過程中,積極采取措施避免歧視和偏見。
知識產(chǎn)權(quán):明確數(shù)據(jù)來源,避免侵犯版權(quán)和知識產(chǎn)權(quán)。
建立跨部門治理委員會:
各部門共同參與,制定并執(zhí)行人工智能治理政策。
確保高層管理層的支持。
持續(xù)學習和調(diào)整:
人工智能治理是一個動態(tài)的過程,隨著技術(shù)和監(jiān)管的變化,不斷調(diào)整和完善治理政策。
為何現(xiàn)在就該行動?
規(guī)避風險:?及早建立治理框架,有助于防范潛在的法律風險和聲譽損害。
提升競爭力:?合規(guī)的人工智能應用有助于增強企業(yè)形象,贏得客戶信任。
促進創(chuàng)新:?完善的治理機制為人工智能創(chuàng)新提供堅實基礎。
總結(jié):
人工智能治理雖然充滿挑戰(zhàn),但并非遙不可及。企業(yè)可以通過從已知領域入手,逐步建立起適合自身特點的治理體系。這不僅有助于企業(yè)更好地利用人工智能技術(shù),同時也為整個行業(yè)的人工智能治理提供了有益的借鑒?!?/span>