——斯坦福揭示新型生產(chǎn)力殺手:40%員工深受其害,企業(yè)年損失或達(dá)900萬美元

朋友,你是否經(jīng)歷過這樣的場(chǎng)景:
你的同事發(fā)來一份報(bào)告,乍一看圖文并茂、語(yǔ)言流暢。但你仔細(xì)閱讀后卻發(fā)現(xiàn),內(nèi)容空洞、上下文混亂,甚至還有明顯的事實(shí)錯(cuò)誤。
你不僅沒省下時(shí)間,反而花了近2個(gè)小時(shí)去糾正、核查甚至重寫。更糟糕的是,你感到一陣惱火和困惑。
歡迎來到AI時(shí)代的新型“雷區(qū)”——“AI工作馬虎病” (AI Workslop)。
這是斯坦福大學(xué)和Betterup Labs最新定義的一個(gè)術(shù)語(yǔ),它指的是那些“偽裝成好作品,但缺乏實(shí)質(zhì)內(nèi)容、無法推進(jìn)任務(wù)”的AI生成內(nèi)容。
作為一名長(zhǎng)期觀察AI落地的顧問,我認(rèn)為這可能是當(dāng)下企業(yè)在AI轉(zhuǎn)型中面臨的最大隱形殺手。今天,我將為你深度拆解:
?? 什么是“AI工作馬虎病”,它為何會(huì)泛濫?
?? 它如何悄無聲息地侵蝕你的生產(chǎn)力和團(tuán)隊(duì)信任?
?? 企業(yè)應(yīng)如何從戰(zhàn)略、培訓(xùn)和文化上狙擊這一“頑疾”?
?? 讓我們開始吧。
一、?? 40%的人中招:“馬虎病”如何成為流行?。?/span>
“AI工作馬虎病”絕非個(gè)例。
斯坦福大學(xué)的報(bào)告顯示,在1150名受訪員工中,高達(dá)40%的人表示在過去一個(gè)月內(nèi)收到過同事發(fā)來的“AI馬虎病”內(nèi)容,這些劣質(zhì)內(nèi)容約占他們收到工作內(nèi)容的16%。
這種現(xiàn)象在專業(yè)服務(wù)和科技行業(yè)尤為普遍。
它為什么會(huì)發(fā)生?表面看是員工偷懶,但根源在于企業(yè)戰(zhàn)略的“想當(dāng)然”。
技能與工具的錯(cuò)配
Pegasystems的CTO Don Schuerman一針見血地指出:企業(yè)將為“創(chuàng)造力”而設(shè)計(jì)的大語(yǔ)言模型,錯(cuò)誤地用在了需要“高精度、高可靠性”的場(chǎng)景中。
用戶的“拿來主義”
麥肯錫Lilli平臺(tái)的創(chuàng)始人Erik Roth也提到一個(gè)典型場(chǎng)景:員工“幾乎逐字逐句”地照搬AI的輸出,并將其作為最終成果。這些員工往往不精通提示詞工程,也無法識(shí)別AI的“幻覺”和錯(cuò)誤信息。
缺乏人工的“靈魂注入”
Dice總裁Paul Farnsworth警告說,這種對(duì)AI的過度依賴會(huì)制造一種“虛假的效率感”。你以為自己工作得更快了,實(shí)際上卻在給未來的自己(或同事)“埋雷”,導(dǎo)致后期花更多時(shí)間去返工和澄清。
專家視角:麥肯錫的Erik Roth將其總結(jié)為:“這是沒有真正價(jià)值創(chuàng)造的生產(chǎn)力錯(cuò)覺”。
二、?? 致命的代價(jià):不僅是效率,更是信任
如果“馬虎病”只浪費(fèi)了時(shí)間,那還不是最可怕的。它真正的殺傷力在于它對(duì)組織文化的系統(tǒng)性破壞。
1.巨額的“隱形稅”
報(bào)告估算,處理這些劣質(zhì)內(nèi)容平均讓每位員工每月多花費(fèi)近2小時(shí),這相當(dāng)于一筆高達(dá)186美元的“隱形稅”。
對(duì)于一個(gè)萬人員工規(guī)模的企業(yè),如果按41%的流行率計(jì)算,每年因“AI馬虎病”損失的生產(chǎn)力接近900萬美元。
2.團(tuán)隊(duì)信任的“腐蝕劑”這才是最致命的。當(dāng)收到劣質(zhì)AI內(nèi)容時(shí),員工的感受是:
53% 的人感到惱火
38% 的人感到困惑
22% 的人感到被冒犯
更嚴(yán)重的是,它在瓦解同事間的“個(gè)人品牌”:
42%的人認(rèn)為使用AI的同事“不太值得信賴”
37%的人認(rèn)為他們“不太聰明”
這種不信任甚至導(dǎo)致34%的員工向經(jīng)理“舉報(bào)”同事的不當(dāng)AI使用行為,而32%的人表示不愿再與此人合作。
專家視角:Pegasystems的CTO Schuerman總結(jié)道:“管理不善的AI不僅拖慢工作,更在侵蝕信任。AI沒有成為生產(chǎn)力伙伴,反而成了待辦清單上那個(gè)‘制造更多工作’的項(xiàng)目?!?/span>
三、?? 戰(zhàn)略啟示:如何狙擊“馬虎病”?
“AI馬虎病”的解藥,不是禁用AI,而是智慧地“駕馭”AI。作為睿信咨詢戰(zhàn)略顧問,我認(rèn)為企業(yè)必須立刻從三個(gè)層面建立防線。
防線一:教育與培訓(xùn)(AI素養(yǎng))
這是狙擊“馬虎病”的第一道,也是最重要的一道防線。
破除神秘感:Dice總裁Farnsworth指出,培訓(xùn)必須從“揭開AI的神秘面紗”開始。
建立批判性思維:鼓勵(lì)員工質(zhì)疑AI的輸出,理解AI的局限性。
展示“好”與“壞”:IT領(lǐng)導(dǎo)者必須主動(dòng)向員工展示“強(qiáng)”和“弱”的AI內(nèi)容案例,幫助他們建立辨別力。
防線二:治理與護(hù)欄(結(jié)構(gòu)化工作流)
盲目地把AI工具丟給員工,是管理上的失職。
在正確的地方用正確的AI:IT領(lǐng)導(dǎo)者必須確保員工為正確的任務(wù)配備了正確的工具。
嵌入工作流:Schuerman建議,應(yīng)將AI系統(tǒng)集成到結(jié)構(gòu)化的工作流程中,并配備清晰的可見性、反饋循環(huán)和審計(jì)追蹤。這樣,員工就不必猜測(cè)“好”的標(biāo)準(zhǔn),因?yàn)闃?biāo)準(zhǔn)就在流程中。
防線三:文化與問責(zé)(建立新標(biāo)準(zhǔn))
歸根結(jié)底,AI的質(zhì)量是一個(gè)文化問題。
強(qiáng)調(diào)“人機(jī)協(xié)作”而非“AI替代”:領(lǐng)導(dǎo)者必須明確傳達(dá):AI是工具,而人(你)才是最終質(zhì)量的負(fù)責(zé)人。
投資于“可預(yù)測(cè)的AI”:投資那些可預(yù)測(cè)、可治理的AI系統(tǒng),不僅能帶來更好的結(jié)果,更能建立一支信任并負(fù)責(zé)任地使用AI的團(tuán)隊(duì)。
AI就像一面鏡子,它既能放大卓越與高效,也能放大草率與平庸。
“AI工作馬虎病”的出現(xiàn),給所有管理者敲響了警鐘:如果你只投資于AI工具,卻不投資于使用工具的人,那么AI帶來的將不是生產(chǎn)力革命,而是一場(chǎng)“看似高效”的信任危機(jī)。
那么,你的企業(yè)準(zhǔn)備好為AI這場(chǎng)“文化變革”買單了嗎?
在沒有培訓(xùn)員工計(jì)劃的情況下實(shí)施人工智能,正讓許多組織陷入一個(gè)陷阱,這給你的員工帶來了更多的工作和挫敗感。教育和文化變革可以提供幫助。

圖片來源:Rob Schultz / Shutterstock
人工智能為工作者提供了提高效率和生產(chǎn)力的承諾,將他們從重復(fù)性工作中解放出來,以應(yīng)對(duì)更復(fù)雜的任務(wù)。但隨著公司向員工推廣AI工具,許多公司正面臨一個(gè)不同的挑戰(zhàn):AI生成的工作反而在起反作用。
AI生成內(nèi)容的質(zhì)量,在很大程度上取決于與該工具協(xié)作的人的技能,而并非每個(gè)人都在這一領(lǐng)域具備了正確的技能組合,這導(dǎo)致了斯坦福社交媒體實(shí)驗(yàn)室和Betterup實(shí)驗(yàn)室所創(chuàng)造的術(shù)語(yǔ)——AI“工作失誤”(workslop)——他們將其定義為“偽裝成好作品,但缺乏實(shí)質(zhì)內(nèi)容以有意義地推進(jìn)給定任務(wù)的AI生成的工作內(nèi)容?!?/span>
“當(dāng)組織在錯(cuò)誤的時(shí)間使用了錯(cuò)誤的AI,將為創(chuàng)造力和推理而設(shè)計(jì)的大語(yǔ)言模型部署到需要精確性、治理和可靠性的情境中時(shí),AI工作失誤就發(fā)生了,”Pegasystems的首席技術(shù)官(CTO)Don Schuerman說?!捌浣Y(jié)果是,輸出的內(nèi)容表面看起來很光鮮,但在審查下卻不堪一擊——比如不一致或糟糕的建議、幻覺,或是與組織政策或監(jiān)管合規(guī)不符的行為。”
一、什么是AI工作失誤,它是如何發(fā)生的?
根據(jù)斯坦福社交媒體實(shí)驗(yàn)室和Betterup Labs發(fā)表在《哈佛商業(yè)評(píng)論》上的一份報(bào)告,在接受調(diào)查的1150名美國(guó)員工中,有40%的人表示他們?cè)谶^去一個(gè)月內(nèi)曾從同事那里收到過AI工作失誤,他們估計(jì)這約占他們?cè)诠ぷ髦惺盏降膬?nèi)容的16%。工作失誤通常在同事之間發(fā)送(40%);然而,員工也報(bào)告了工作失誤由直接下屬發(fā)送給經(jīng)理(18%)以及反之(16%)的情況。根據(jù)調(diào)查結(jié)果,雖然AI工作失誤發(fā)生在各個(gè)行業(yè),但它在專業(yè)服務(wù)和技術(shù)行業(yè)最為普遍。
麥肯錫生成式AI平臺(tái)Lilli的創(chuàng)始人Erik Roth表示,AI工作失誤的一個(gè)例子是“員工幾乎逐字逐句地采納大型語(yǔ)言模型的輸出”,并將其作為最終內(nèi)容傳遞出去。
這種類型的AI內(nèi)容通常質(zhì)量更差,因?yàn)椴捎眠@種方法的員工通常并不精通構(gòu)建AI提示詞,不知道如何發(fā)現(xiàn)AI幻覺或虛假信息,并且不花時(shí)間確保AI生成的結(jié)果通過人類的標(biāo)準(zhǔn)。
AI工作失誤最終是“上下文單薄、領(lǐng)域判斷力輕微、且?guī)缀鯖]有經(jīng)過人工潤(rùn)色的內(nèi)容。這是沒有真正價(jià)值創(chuàng)造的生產(chǎn)力錯(cuò)覺,”Roth說。
Dice公司總裁Paul Farnsworth表示,他見過一些AI內(nèi)容,乍一看“似乎很精美”,但“再讀一遍時(shí)就分崩離析了”。無論是不正確的數(shù)學(xué)、數(shù)據(jù)、邏輯,還是“根本沒說任何有意義的”內(nèi)容,他的主要警告是“過度依賴AI會(huì)制造一種虛假的效率感”。這給你一種你工作更快的錯(cuò)覺,而實(shí)際上“你正花費(fèi)更多時(shí)間在之后進(jìn)行重新審視和澄清,”他說。
二、AI生成的工作失誤會(huì)產(chǎn)生額外的工作和挫敗感
傳遞給同事的低質(zhì)量AI內(nèi)容,通常會(huì)給接收端的人帶來更多工作。根據(jù)斯坦福社交媒體實(shí)驗(yàn)室和Betterup Labs的數(shù)據(jù),AI工作失誤平均給員工帶來了近兩個(gè)小時(shí)的額外工作負(fù)擔(dān),因?yàn)樗麄儽黄冉馕鰞?nèi)容以糾正錯(cuò)誤、識(shí)別虛假信息,有時(shí)甚至需要從頭開始重寫內(nèi)容或代碼。
實(shí)驗(yàn)室估計(jì),這種努力帶來了一種每月高達(dá)186美元的“隱形稅”,這個(gè)數(shù)字會(huì)迅速累積。例如,實(shí)驗(yàn)室計(jì)算,一個(gè)擁有10,000名員工、AI工作失誤率為41%的組織,每年可能導(dǎo)致近900萬美元的生產(chǎn)力損失。
AI工作失誤也會(huì)在同事之間制造緊張關(guān)系。當(dāng)被問及收到此類內(nèi)容的感受時(shí),員工的回答包括惱怒(53%)、困惑(38%)和被冒犯(22%)。報(bào)告還發(fā)現(xiàn),同事們認(rèn)為使用AI的其他同事“相比以前創(chuàng)造力更低、能力更差、更不可靠”,同時(shí)有42%的人表示他們認(rèn)為同事“更不值得信賴”,37%的人表示“更不聰明”。
這也導(dǎo)致員工向管理層互相舉報(bào),34%的人表示他們?cè)?/span>AI工作失誤問題通知過其他團(tuán)隊(duì)成員或經(jīng)理,32%的人表示他們?cè)谑盏焦ぷ魇д`后,不太愿意與那個(gè)人合作。
“管理不善的AI不僅會(huì)拖慢工作,它還在侵蝕信任。當(dāng)員工們不斷地修復(fù)或核查AI生成的輸出時(shí),這會(huì)產(chǎn)生疲勞和懷疑。AI沒有成為生產(chǎn)力伙伴,反而成了待辦清單上的另一項(xiàng),并且它產(chǎn)生更多工作而不是減少工作,”Pegasystems的Schuerman說。
三、管理和避免AI工作失誤
Schuerman說,抵御AI工作失誤的第一道防線是教育和治理,他建議IT領(lǐng)導(dǎo)者通過培訓(xùn)和實(shí)驗(yàn)來裝備員工的AI素養(yǎng),并鼓勵(lì)他們質(zhì)疑AI的輸出,理解AI是如何產(chǎn)生結(jié)果的。
他補(bǔ)充說,IT領(lǐng)導(dǎo)者還應(yīng)該建立護(hù)欄,并確保員工能夠在正確的任務(wù)上使用正確的工具。"當(dāng)AI系統(tǒng)被整合到結(jié)構(gòu)化的工作流程中,具備可見性、反饋循環(huán)和審計(jì)追蹤時(shí),員工就不必猜測(cè)‘好’是什么樣子了。他們?cè)诿總€(gè)任務(wù)中都能看到它的示范。"
Dice的Farnsworth也倡導(dǎo)指導(dǎo)和治理?!敖M織需要記住,AI的好壞取決于其背后的人。如果你不投資于指導(dǎo)和治理,AI工具很快就會(huì)成為一種負(fù)債,而非優(yōu)勢(shì),”他說?!瓣P(guān)鍵在于有意識(shí)地使用AI——知道你要求它做什么,并準(zhǔn)備好在需要時(shí)介入。”
并非每個(gè)人都會(huì)立刻接受AI。盡管如此,IT領(lǐng)導(dǎo)者必須積極帶領(lǐng)員工踏上AI之旅,向他們展示強(qiáng)AI內(nèi)容和弱AI內(nèi)容的示例,以便他們能夠?qū)W習(xí)和理解。
“培訓(xùn)員工有效使用生成式AI,首先要揭開它的神秘面紗,”Farnsworth說。
隨著員工在使用AI方面變得更舒適和更精明,工作失誤將隨著時(shí)間的推移而減少。
“歸根結(jié)底,AI的質(zhì)量不僅僅是一個(gè)技術(shù)問題;它是一個(gè)文化問題,”Pegasystems的Schuerman說。“那些投資于可預(yù)測(cè)、可治理的AI的組織,不僅能獲得更好的結(jié)果,他們還能建立起一支信任并能負(fù)責(zé)任地放大這些系統(tǒng)的員工隊(duì)伍?!?/span>
人工智能的質(zhì)量,本質(zhì)上不是技術(shù)問題,而是文化問題。沒有培訓(xùn)和治理,AI帶來的不是生產(chǎn)力革命,而是一場(chǎng)“看似高效”的信任危機(jī)。