從AI技術人才問題到難以正確獲取數據方程式,IT 領導者們并沒有事先準備好應對生成式人工智能帶來的挑戰(zhàn),而是在實際操作中邊走邊學、邊解決問題。

來源:insta_photos / Shutterstock
【睿觀:企業(yè)在采用GenAI的過程中面臨挑戰(zhàn)和機遇,GenAI是一項復雜的技術,需要謹慎評估和規(guī)劃。同時GenAI也包含巨大潛力,企業(yè)積應極探索和應用這項新技術。
(一)企業(yè)在采用生成式人工智能(GenAI)過程中遇到的六大挑戰(zhàn):
1.人才短缺: 具備高水平AI專業(yè)知識的人才仍然稀缺,即使是擁有AI團隊的企業(yè)也面臨著人才挑戰(zhàn)。
2.盈利困難: 目前只有少數GenAI項目能產生直接的盈利影響,多數企業(yè)需要更長時間才能看到回報。
3.法律法規(guī)不明確:GenAI的法律風險和監(jiān)管問題尚未完全解決,阻礙了大規(guī)模部署。
4.成本高昂:GenAI的實施和維護成本較高,包括硬件、軟件、數據以及人才成本。
5.數據質量問題: 獲取高質量、相關的數據是訓練GenAI模型的關鍵,但許多企業(yè)面臨數據不足或質量不高的挑戰(zhàn)。
6.技術成熟度有限:GenAI技術仍在快速發(fā)展,但目前仍存在一些限制,如幻覺問題、工具泛濫等。
(二)其他挑戰(zhàn):
1.員工對新技術的接受程度不同: 部分員工對GenAI持觀望態(tài)度,或者難以掌握其使用方法。
2.影子AI的風險: 員工可能會私自使用未經授權的GenAI工具,帶來安全風險。
盡管面臨諸多挑戰(zhàn),但企業(yè)對GenAI的未來發(fā)展仍持樂觀態(tài)度。 許多企業(yè)認為GenAI具有巨大的潛力,能夠提高生產效率、降低成本并推動業(yè)務創(chuàng)新。
(三)建議包括:
1.加強人才培養(yǎng): 投資于員工的AI技能培訓。
2.聚焦實際業(yè)務問題: 選擇能帶來直接價值的GenAI應用場景。
3.關注數據質量: 建立高質量的數據基礎。
4.加強風險管理: 建立完善的治理機制,降低法律和安全風險。
5.持續(xù)學習和迭代:GenAI技術發(fā)展迅速,企業(yè)需要保持敏捷,不斷學習和適應?!?/span>
隨著生成式人工智能的應用迅速發(fā)展,這項技術在組織內部引發(fā)了各種各樣的感受——從興奮和期待到壓力和擔憂。
麥肯錫5月份的一項全球調查顯示,65%?的組織使用生成式人工智能,幾乎是該公司?10?個月前調查結果的兩倍。隨著這一增長,用例正在激增。
德勤咨詢公司負責人Jim Rowan?表示,與過去的技術采用模式一樣,大多數公司都開始在提供戰(zhàn)術優(yōu)勢的領域使用?genAI,例如改進現(xiàn)有流程和降低成本。Rowan?表示,這種方法有助于從“唾手可得的成果”中獲取價值,同時通過新技術積累知識、經驗和信心。
不過,各組織在使用genAI?方面處于截然不同的階段。一些早期采用者現(xiàn)在通過將多個用例鏈接在一起來將試點擴展到生產,以顯示切實的效率優(yōu)勢。Rowan?表示,其他人則一直在投資流暢度,嘗試一些概念驗證,并主要尋求采用嵌入第三方軟件的?AI?技術。另一陣營則采取了觀望態(tài)度。
當組織弄清楚如何從學習生成式人工智能到啟動試點,再到部署真正具有變革性的全面實施時,以下是IT?領導者迄今為止得出的六個殘酷的事實。
1.技術人才仍然是采用的最大障礙
根據德勤關于genAI的報告,擁有高水平?AI?專業(yè)知識的組織(33%)傾向于對生成式AI持更積極的態(tài)度,但他們也感受到采用該技術的更大壓力,認為genAI對其商業(yè)模式的威脅更大。
羅文說:“這表明,即使是那些自認為精通人工智能的組織也在為潛在的阻力做準備?!?/span>
因此,IT領導者,甚至是那些報告其團隊擁有高水平?AI?專業(yè)知識的領導者,都在重新考慮圍繞?AI?的人才戰(zhàn)略,而技能提升在嘗試彌合?AI?技能差距方面發(fā)揮著至關重要的作用。
2. GenAI的盈利影響還很遙遠
麥肯錫高級合伙人兼全球領導人Aamer Baig?在?5?月份麻省理工學院?CIO?聯(lián)盟會議上談到?GenAI?的殘酷事實時表示,盡管“蜜月期已經結束”,但目前可能只有少數?genAI?項目能夠產生盈利影響。
Baig表示,麥肯錫調查的公司中,只有15%的公司希望從?genAI?計劃中獲得收益提升?!安⒎撬杏美枷嗤?。沒有多少可以增加價值?!彼ㄗh組織將重點放在“解決實際業(yè)務問題、技術上可行且風險較小的計劃上。”
德勤報告發(fā)現(xiàn),48%的組織預計一到三年內不會看到genAI帶來的轉變。
“我感覺我們就像在參加一個大型科學展覽會并設計各種假設,但其中有十分之八都失敗了?!?/span>
— 凱斯紐荷蘭工業(yè)集團全球首席數字和信息官Marc Kermisch
全球首席數字和信息官馬克·克米施(Marc Kermisch)?表示,總部位于英國的?CNH Industrial?是微軟?Copilot?的早期采用者,并于?2023?年?11?月開始創(chuàng)建自己的大型語言模型?(LLM)。
“我們確實了解到存在很多限制,”克米施說,并補充道,“它并不是我們想象中的靈丹妙藥?!?/span>
雖然生產率有所提高,但Kermisch?預計,在發(fā)票處理等領域,這種提高將更為顯著。GenAI“主要是一種信息合成工具”,他說。他說,現(xiàn)成的?genAI?工具“目前對于任何財務或數字分析都毫無作用”。
另一個問題是工具和技術的泛濫,Baig表示需要加以遏制。“實現(xiàn)大規(guī)模生成?AI?的最大障礙之一是?genAI?平臺太多,”他說。
鳳凰城兒童醫(yī)院首席創(chuàng)新官兼執(zhí)行副總裁戴維·希金森(David Higginson)?表示:“每周都會有一款新工具問世,其功能和未來潛在影響令人驚嘆。”但目前?genAI“實際上只能由少數科技巨頭實施,而不是在醫(yī)療機構內部的本地實驗室層面進行修改,”他說。“因此,我們似乎處于一種停滯狀態(tài),等待老牌供應商提供成熟的解決方案,以提供我們都期待的有形價值。”
希金森表示,將會出現(xiàn)有效的工具來解決醫(yī)療服務提供者的實際問題。當這種情況發(fā)生時,“將迫使人們在風險承受能力、成本、提供者滿意度和患者結果之間做出艱難的決定,”他說。
3.法律問題讓?IT?陷入困境
希金森認為,有兩個因素阻礙了平臺的大規(guī)模部署,一是依賴該技術的法律和監(jiān)管未知因素,二是作為早期采用者的成本過高。
“盡管使用這項技術的法律風險仍不明朗,但供應商的成本以及媒體對‘出錯’的擔憂仍然很高,”他說?!耙虼?,許多管理人員選擇不成為這項大膽新技術的第一個測試案例——尤其是當他們不清楚這項技術如何運作,也無法向律師保證它實際上是如何運作的時候?!?/span>
德勤的研究發(fā)現(xiàn),合規(guī)性問題(28%)和治理問題(27%)被視為人工智能應用的障礙。報告稱,不到一半(42%)的受訪者認為他們已經采取了足夠的措施來管理生成式人工智能的應用并降低其潛在風險。
“這表明,未來一年人工智能的監(jiān)管方式存在很大不確定性,尤其是對于在多個地區(qū)運營的全球組織而言,”羅文觀察到。“從更大的角度來看,生成式人工智能在公司治理和風險方面帶來的挑戰(zhàn)與社會治理和風險方面帶來的挑戰(zhàn)相似?!?/span>
超過一半的受訪者表示擔心生成人工智能的廣泛使用將導致全球經濟權力集中(52%)并加劇經濟不平等(51%)。
“在這兩個領域,這項技術的潛在好處和潛在危害都很高,”羅文說?!皣医M織和政府需要在確保生成式人工智能的好處得到廣泛和公平分配方面取得平衡,而不會過度阻礙創(chuàng)新或為制定不同規(guī)則的公司提供不公平的優(yōu)勢?!?/span>??
4.成本管理是一個巨大的問題
與希金森對實施genAI?成本的擔憂相呼應,麥肯錫的?Baig?強調,組織必須管理成本——因為?genAI?需要高計算強度和高變更管理。
他建議各組織在這些領域投入盡可能多的資金,就像他們?yōu)閷崿F(xiàn)數字化轉型所做的那樣,因為?genAI?將需要改變工作流程、業(yè)務流程和新的?KPI。Baig?表示,組織還必須考慮風險和幻覺培訓,并為持續(xù)維護預留預算。
希金森表示,采用?genAI?的根本障礙是訓練模型所需的硬件、電力和數據的稀缺性和成本?!坝捎谫Y源稀缺,我們需要優(yōu)先考慮哪些解決方案對民眾具有最廣泛的吸引力,并能產生最大的長期收入,”他說。
CNH的?Kermisch?曾寄予厚望,希望?genAI“能夠幫助我們降低成本曲線”,但這并沒有發(fā)生。他說,平臺的實施成本非常高,而且?genAI?的使用越多,成本就越高。
“如果我能收回在生產力方面的投資,那就太好了,但我們并沒有看到它一一實現(xiàn),”他說。CNH Industrial?擁有有限數量的?Copilot?許可證,IT?部門會在那些通常對使用新技術感到興奮的員工之間輪換這些許可證。
這種趨勢往往會逐漸消失。“通常在30?天內,利用率就會急劇下降,”Kermisch?指出?!斑@肯定是新工具的現(xiàn)象。他們會打開?Excel?電子表格并嘗試使用?Copilot,但很快意識到他們無法使用它?!?/span>
他補充說,如果使用正確的提示,Copilot會非常有效。“提示越精確越好?!钡牵拔覀冞€沒有找到使用它的高級用戶?!?/span>
Briggs & Stratton副總裁兼首席信息官?Brian Olsson?已經大規(guī)模推廣了?Google Gemini,他表示,雖然成本是一個問題,但更令人擔憂的是如何監(jiān)控它的采用和使用情況。與?Kermisch?一樣,Olsson?表示,這將有助于?IT?部門確定該工具是否是一項不錯的投資。
“人工智能領域發(fā)展速度太快,我們試圖保持敏捷,并努力提高效率,”他說。“我們正在關注財務狀況和采用率,但我們不會設置太多障礙,以免落后?!?/span>
5.獲取正確的數據很困難
目前,許多組織面臨著使用高質量數據的挑戰(zhàn),因為genAI?模型需要大量準確、相關的數據才能有效運行。
麥肯錫的Baig?表示,組織不應專注于尋找完美的數據,因為這是一個“巨大而艱巨的挑戰(zhàn)”。許多組織都采用自上而下的方式查看數據,“最終看起來就像一個巨大的電子表格,”他說?!?/span>專注于幫助您處理多種用例的數據。”
雖然研究和開發(fā)繼續(xù)推動genAI?的功能,但“我們知道數據是實現(xiàn)?AI?解決方案的關鍵方面,我們也認識到許多組織正在揭示構建正確的數據基礎以支持大規(guī)模?AI?部署所需的工作”,德勤的?Rowan?表示。?
CNH的?Kermisch?表示,他們已經了解到使用文檔或基于文本的數據存儲庫創(chuàng)建?LLM?具有“相對較高的價值,并且相對容易快速周轉”。
他說,最終,CNH高管相信?genAI?將對他們的業(yè)務產生重大影響,但現(xiàn)在還為時過早。“我們原以為幾個月后,我們設計車輛的能力就會得到巨大提升,并通過自動化任務降低成本,”Kermisch?說?!暗@些都沒有真正實現(xiàn)。我們看到了積極的結果——但用例有限?!?/span>
Kermisch采取了一種“快速失敗,快速學習”的創(chuàng)新策略。他通過培訓技術領導者并與微軟合作,營造了一個鼓勵員工大膽實驗、不斷試錯的企業(yè)文化。正如他所說:“我們就像在參加一個大型科學博覽會,不斷提出假設,并從中快速迭代?!?/span>
6.它會持續(xù)存在
盡管面臨成長的煩惱,IT領導者還是認識到?genAI?不會消失。
鳳凰城醫(yī)院的希金森說:“有一件事是肯定的,這將是一條坎坷的道路,會有驚人的成功和失敗,我迫不及待地想看看未來五到十年這個行業(yè)將如何變化。”
世界保險(World Insurance)?首席信息官邁克爾·科里根?(Michael Corrigan)?表示,盡管?genAI?功能強大且發(fā)展迅速,但成熟速度卻非常緩慢。他還表示,關于?genAI?的炒作和誤解也很多。
科里根說:“它絕對需要一個正確實施的戰(zhàn)略和路線圖,這樣它才能對你的業(yè)務產生積極的影響,才能增強你的能力,才能實現(xiàn)你的業(yè)務目標?!?/span>
它還要求組織建立用例和他們想要使用的工具,因為影子人工智能(shadow genAI)?正在悄然興起。
“即使公司沒有推出特定的人工智能工具,員工們也在使用ChatGPT?和各種第三方人工智能工具,因為這可以提高他們的工作效率,”Briggs & Stratton?的?Olsson?表示?!皻埧岬氖聦嵤牵绻悴婚_始給他們工具,他們就會找到這些工具;……即使他們沒有用人工智能做任何事情,數據風險也存在。這是一種新的信息安全風險?!?/span>
消費者能源公司IT?執(zhí)行董事?Dave Pawlak?對此表示贊同,他表示genAI?必須得到安全實施,“而且它并不像公眾使用?OpenAI?或其他?[開放]?生成式?AI?工具那樣容易?!?/span>
盡管如此,即使面臨這些殘酷的事實,Kermisch、Pawlak、Baig和其他人仍然表示,快速、安全且大規(guī)模地實施?genAI?是有價值的。
“它將讓你從試點走向規(guī)模化,”Baig說道?!芭c其他數字顛覆不同,我相信我們正處于?genAI?的階段,需要一定程度的投資,”以及對技術的更好理解?!澳阌幸粋€絕佳的機會來利用這一點,這使得?CIO?在帶領組織前進方面發(fā)揮主導作用變得更加重要。”