對于許多公司來說,CIO從頭開始建立大語言模型(LLM)可能過于昂貴。幸運(yùn)的是,還有其他幾種方法來實(shí)現(xiàn)自定義模板,這些方法更快、更容易,最重要的是,更便宜。通過詳細(xì)分析企業(yè)實(shí)施大語言模型的七種不同路徑,為企業(yè)提供了全面的參考。企業(yè)可以根據(jù)自身情況,選擇最適合的路徑,從而更好地利用大語言模型,提升業(yè)務(wù)效率。

來源:Shutterstock
【睿觀:企業(yè)在實(shí)施大語言模型(LLM)時,有多種路徑可選擇,從簡單的聊天機(jī)器人到復(fù)雜的模型花園,每種方式都有其優(yōu)缺點(diǎn)和適用場景。
(一)企業(yè)實(shí)施大語言模型的7條路徑
路徑一:聊天機(jī)器人
路徑二:API
路徑三:矢量和RAG數(shù)據(jù)庫
路徑四:本地管理的開源大模型AI模板
路徑五:模型的微調(diào)
路徑六:從頭開始
路徑七:模型花園
(二)7條路徑的特點(diǎn)、優(yōu)缺點(diǎn)和適用場景
1.聊天機(jī)器人:簡單易用,適合低風(fēng)險用例
2.API:靈活方便,適用于各種任務(wù)
3.矢量和RAG數(shù)據(jù)庫:提高模型準(zhǔn)確性,適用于需要處理大量數(shù)據(jù)的場景
4.本地管理的開源大模型AI模板:可定制性強(qiáng),適合對數(shù)據(jù)安全有高要求的場景
5.模型的微調(diào):提高模型針對性,適用于特定領(lǐng)域任務(wù)
6.從頭開始:成本高,技術(shù)難度大,適合對模型有極高定制化需求的場景
7.模型花園:綜合多種模型,靈活應(yīng)對不同需求
(三)影響企業(yè)選擇路徑的因素與綜合評價指標(biāo)表
1.成本;2.技術(shù)能力;3.數(shù)據(jù)量;4.安全性;5.定制化需求;6.靈活度

企業(yè)在選擇LLM實(shí)施路徑時,需要綜合考慮自身的情況和業(yè)務(wù)需求,沒有一種路徑是萬能的。隨著技術(shù)的不斷發(fā)展,模型花園這種靈活、高效的模式將會成為未來發(fā)展的趨勢。
(四)核心觀點(diǎn)的進(jìn)一步闡述:
1.多樣性是關(guān)鍵:隨著大語言模型技術(shù)的快速發(fā)展,企業(yè)需要建立一個多樣化的模型生態(tài)系統(tǒng),以滿足不同業(yè)務(wù)場景的需求。
2.成本效益:企業(yè)在選擇模型時,需要綜合考慮成本和性能,選擇性價比最高的模型。
3.數(shù)據(jù)安全:數(shù)據(jù)安全是企業(yè)實(shí)施大語言模型時需要重點(diǎn)關(guān)注的問題,選擇合適的部署方式和數(shù)據(jù)保護(hù)措施至關(guān)重要。
4.靈活性和可擴(kuò)展性:企業(yè)需要選擇具有靈活性和可擴(kuò)展性的模型,以適應(yīng)不斷變化的業(yè)務(wù)需求。
(五)建議:
循序漸進(jìn):企業(yè)可以從簡單的聊天機(jī)器人開始,逐步探索更復(fù)雜的模型。
結(jié)合自身業(yè)務(wù):選擇的模型要與企業(yè)的業(yè)務(wù)場景緊密結(jié)合。
持續(xù)優(yōu)化:隨著技術(shù)的不斷發(fā)展,企業(yè)需要不斷優(yōu)化和更新自己的模型?!?/span>
生成式人工智能是歷史上發(fā)展最快的技術(shù)之一。它正在改變世界,根據(jù)實(shí)時人口調(diào)查9月份發(fā)布的一項針對美國3,000多名在職成年人的調(diào)查顯示,四分之一的人在調(diào)查前一周至少使用過一次GenAI進(jìn)行工作,其中近11%的人表示他們每天都使用它。
根據(jù)這些數(shù)據(jù),我們可以看到技術(shù)采用率大約是互聯(lián)網(wǎng)特征的兩倍,并且在標(biāo)準(zhǔn)普爾全球市場情報代表Weka最近發(fā)布的一份報告中,88%的受訪公司使用生成式人工智能,而24%的人已將其集成到他們的工作流程中。
更具體地說,大語言模型(LLM)是GenAI的一種,專注于文本和代碼而不是圖像或音頻,盡管有些已經(jīng)開始整合不同的模式。當(dāng)今企業(yè)中最流行的大型語言模型是ChatGPT和其他OpenAIGPT模型、Anthropic的Claude、Google的Gemini、Meta的Llama和由前Meta員工創(chuàng)建的開源項目Mistral以及Google的DeepMind。
因此,隨著更直接地參與GenAI的行業(yè)動力和壓力的增加,檢查公司在實(shí)施LLM時面臨的七種不同程度的復(fù)雜性以及它們將經(jīng)歷的相關(guān)階段可能會有所幫助,以確保獲得和保持可持續(xù)競爭優(yōu)勢。
一、聊天機(jī)器人的發(fā)展
聊天機(jī)器人是在您的業(yè)務(wù)中開始使用GenAI的最簡單方法。對于低風(fēng)險用例,有免費(fèi)和公共的選項,例如人工智能驅(qū)動的互聯(lián)網(wǎng)搜索或公共文檔摘要。這些聊天機(jī)器人還有企業(yè)版本,供應(yīng)商承諾保證所有對話的安全,并且不會使用它們來訓(xùn)練人工智能。
根據(jù)Netskope威脅實(shí)驗(yàn)室7月份的一份報告,96%的企業(yè)使用生成式AI驅(qū)動的聊天機(jī)器人,高于一年前的74%,其中ChatGPT是最受歡迎的平臺,使用率為80%。微軟Copilot緊隨其后,占67%,谷歌Gemini占51%。
此外,企業(yè)軟件供應(yīng)商越來越多地將人工智能功能納入其平臺中。例如,Grammarly和Salesforce都具有人工智能功能。大多數(shù)主要企業(yè)軟件供應(yīng)商已經(jīng)推出了一些GenAI功能或已將其納入其路線圖中。
“當(dāng)然,今年和未來兩年內(nèi),生成式人工智能所產(chǎn)生的大部分價值可能會以副駕駛或助理、搜索引擎、應(yīng)用程序和工具的形式體現(xiàn)出來?!?span style="font-size: 16px; outline: 0px; font-family: 黑體, SimHei;">全球咨詢公司SSA&Company的應(yīng)用解決方案領(lǐng)導(dǎo)者NickKramer指出。
此外,Gartner在評估中預(yù)測,到2026年,超過80%的企業(yè)軟件供應(yīng)商將擁有GenAI能力,而今年3月份這一比例還不到5%。
二、API(應(yīng)用程序編程接口)
下一個生成式人工智能實(shí)施策略可能是將API添加到企業(yè)平臺中。例如,如果員工使用應(yīng)用程序來跟蹤會議,則可以使用API自動生成記錄摘要。Gartner表示,到2026年,API需求增長的30%以上將來自GenAI。
“商業(yè)大語言模型(LLM)由大型科技公司創(chuàng)建,可通過API和即用即付成本模式訪問,”科爾尼數(shù)字和分析實(shí)踐合作伙伴BharathThota強(qiáng)調(diào)道?!霸S多云提供商都讓這些大語言模型(LLM)很容易獲得?!?/span>
他說,對于簡單的任務(wù),例如總結(jié)報告,大語言模型(LLM)可以按原樣使用,無需結(jié)合檢索增強(qiáng)生成(RAG)或進(jìn)行微調(diào);通常,僅輸入提示詞(Prompt)就足夠了,但很大程度上取決于要解決的業(yè)務(wù)問題(以及AI提示詞的策劃運(yùn)營技能)。這是一種向企業(yè)系統(tǒng)添加人工智能功能的低風(fēng)險、低成本方式,且無需大量開銷。這也是公司了解這些API如何工作以及如何創(chuàng)建有效提示的機(jī)會。
OpenAI的數(shù)據(jù)顯示,92%的財富500強(qiáng)公司使用其API,由于新模型的發(fā)布、更低的成本和更好的性能,使用率自7月份以來翻了一番。
【API是Application Programming Interface(應(yīng)用程序編程接口)的縮寫,它是一組規(guī)則和定義,允許不同的軟件應(yīng)用程序之間進(jìn)行通信。API定義了軟件組件應(yīng)該如何交互,包括可以發(fā)出哪些請求、如何處理這些請求以及響應(yīng)的數(shù)據(jù)格式等?!?/span>
三、矢量和RAG數(shù)據(jù)庫
對于大多數(shù)希望定制大語言模型(LLM)的公司來說,RAG是最佳選擇。如果有人談?wù)撉度牖蛳蛄繑?shù)據(jù)庫,他們通常指的是這個。它的工作方式是,如果用戶提出問題,例如有關(guān)政策或公司產(chǎn)品的問題,它不會立即發(fā)送到大語言模型,而是首先進(jìn)行處理以確定用戶是否有權(quán)訪問該信息。當(dāng)存在訪問權(quán)限時,通常從矢量數(shù)據(jù)庫中檢索所有潛在的相關(guān)信息。之后,問題和相關(guān)信息被發(fā)送到大語言模型(LLM)并輸入優(yōu)化提示,該提示還可以指定模型應(yīng)使用的首選響應(yīng)格式和語氣。
矢量數(shù)據(jù)庫是一種將信息組織成一系列列表的方法,每個列表都按不同的屬性排序。例如,如果有一個按字母順序排列的列表,則其答案越接近該順序,它們就越相關(guān)。按字母順序排列的列表是一維向量數(shù)據(jù)庫,但它的大小不受限制,允許您根據(jù)與任意數(shù)量因素的接近程度來搜索相關(guān)答案。這使得它們非常適合與大語言模型(LLM)結(jié)合使用。
“目前,我們正在將所有內(nèi)容轉(zhuǎn)換為矢量數(shù)據(jù)庫,”銷售增長平臺供應(yīng)商Salesloft的首席產(chǎn)品和工程官EllieFields說道?!笆堑模鼈兇_實(shí)有效?!?/span>
他說,它也比使用簡單文檔為大語言模型(LLM)查詢提供上下文更有效。該公司主要使用ChromaDB,一個開源矢量檔案,其主要用途是大型語言模型。Salesloft使用的另一個向量數(shù)據(jù)庫是PGVector,它是PostgreSQL的向量相似性搜索擴(kuò)展。
“我們還使用FAISS和Pinecone進(jìn)行了一些研究,”Fields指出。FAISS,即FacebookAI相似性搜索,是Meta提供的一個開源庫,支持搜索多媒體文檔中的相似性。
另一方面,Pinecone是一種專有的基于云的矢量數(shù)據(jù)庫,也受到了開發(fā)人員的歡迎。其免費(fèi)層支持多達(dá)100,000個向量。從數(shù)據(jù)庫檢索相關(guān)信息并輸入提示后,該信息將被發(fā)送到OpenAI,OpenAI將在Microsoft?Azure上的私有實(shí)例中運(yùn)行它。
“我們已將Azure認(rèn)證為我們平臺上的新子處理器,”Fields說道?!爱?dāng)我們有新的信息處理器時,我們總是通知客戶?!?/span>
但Salesloft還與谷歌和IBM合作,并正在開發(fā)同樣使用這些平臺的人工智能功能。
“我們肯定會與不同的供應(yīng)商和不同的型號合作,”他說。“事情每周都在變化。如果你不看不同的模型,你就會錯過這艘船?!币虼?,RAG允許公司將第一方數(shù)據(jù)與模型本身分開,從而在發(fā)布更好的模型時更輕松地交換模型。此外,矢量數(shù)據(jù)庫甚至可以實(shí)時更新,無需對模型進(jìn)行進(jìn)一步的微調(diào)或重新鑒定。
有時不同的模型有不同的API。但改變模型仍然比重新開發(fā)模型更容易?!拔覀冞€沒有找到比矢量數(shù)據(jù)庫更適合微調(diào)的用例,”Fields補(bǔ)充道。“我認(rèn)為有幾個有效的用例,但到目前為止我們還沒有找到比其他用例更好的用例。”
Salesloft構(gòu)建的LLM的首批應(yīng)用程序之一是添加一項功能,允許客戶向潛在客戶生成銷售電子郵件?!坝脩艋撕荛L時間才寫下這些消息,”菲爾茲指出?!耙婚_始很困難,而且存在某種寫作障礙?!比欢?/span>現(xiàn)在,客戶可以指定目標(biāo)受眾、他們的價值主張和號召性用語,更重要的是,他們會收到三個可以自定義的不同電子郵件草稿。
【睿觀:RAG (Retrieval-Augmented Generation)與向量數(shù)據(jù)庫,以及應(yīng)用示例
(一)RAG定義:RAG是一種將檢索機(jī)制與生成模型相結(jié)合的方法,旨在通過檢索外部知識來增強(qiáng)文本生成的質(zhì)量。它允許模型在生成回答時能夠參考或引用到一個大的文檔庫中的相關(guān)信息。
工作原理:首先,RAG利用一個檢索器從大規(guī)模文檔集中找到與輸入查詢最相關(guān)的文檔片段;接著,這些文檔片段被傳遞給生成模型作為上下文的一部分,幫助生成更準(zhǔn)確、更具有信息量的回答。
優(yōu)勢:
準(zhǔn)確性提高:通過引入外部知識,生成的答案更加準(zhǔn)確可靠。
靈活性增強(qiáng):即使面對未曾見過的數(shù)據(jù)也能較好地處理。
減少幻覺:降低了生成模型產(chǎn)生虛構(gòu)信息的可能性。
應(yīng)用場景:廣泛應(yīng)用于問答系統(tǒng)、對話系統(tǒng)等領(lǐng)域。
(二)向量數(shù)據(jù)庫定義:向量數(shù)據(jù)庫是一種專門用于存儲和查詢高維向量數(shù)據(jù)的數(shù)據(jù)庫系統(tǒng)。這些向量通常代表了文本、圖像或其他類型數(shù)據(jù)的特征表示。
2.1主要特點(diǎn):
高效相似性搜索:支持快速執(zhí)行近似最近鄰搜索,這對于基于內(nèi)容的推薦、圖像識別等任務(wù)至關(guān)重要。
可擴(kuò)展性:設(shè)計為能夠處理大規(guī)模數(shù)據(jù)集,同時保持良好的性能。
靈活的數(shù)據(jù)結(jié)構(gòu):不僅限于文本,還可以應(yīng)用于各種形式的數(shù)據(jù)。
技術(shù)基礎(chǔ):依賴于先進(jìn)的索引技術(shù)和近似算法,如LSH(局部敏感哈希)、HNSW(層次化導(dǎo)航小世界圖)等,以實(shí)現(xiàn)高效的查詢效率。
應(yīng)用場景:包括但不限于推薦系統(tǒng)、搜索引擎優(yōu)化、生物信息學(xué)研究等多個領(lǐng)域。
(三)RAG與向量數(shù)據(jù)庫結(jié)合使用
當(dāng)RAG與向量數(shù)據(jù)庫結(jié)合起來時,可以構(gòu)建出強(qiáng)大的信息檢索和生成系統(tǒng)。例如,在問答系統(tǒng)中,可以先用向量數(shù)據(jù)庫快速定位到與問題相關(guān)的文檔或段落,然后將這些結(jié)果輸入到RAG框架下的生成模型中,從而生成高質(zhì)量的答案。這種方式不僅提高了答案的相關(guān)性和準(zhǔn)確性,同時也增強(qiáng)了系統(tǒng)的響應(yīng)速度和效率。
總之,RAG和向量數(shù)據(jù)庫都是當(dāng)前AI技術(shù)發(fā)展中非常重要的組成部分,它們各自的優(yōu)勢使得二者在很多場景下能夠相輔相成,共同推動著智能應(yīng)用的發(fā)展。
(三)向量數(shù)據(jù)庫在在線培訓(xùn)與客戶服務(wù)中的應(yīng)用
3.1向量數(shù)據(jù)庫的本質(zhì)與優(yōu)勢
向量數(shù)據(jù)庫是一種專門用于存儲和檢索向量數(shù)據(jù)的數(shù)據(jù)庫。在AI領(lǐng)域,特別是自然語言處理中,文本、圖像等非結(jié)構(gòu)化數(shù)據(jù)都可以被轉(zhuǎn)化為高維向量。這些向量能捕捉數(shù)據(jù)的語義和相似性,使得向量數(shù)據(jù)庫可以高效地進(jìn)行相似性搜索。
3.2在在線培訓(xùn)與客戶服務(wù)場景中,向量數(shù)據(jù)庫的優(yōu)勢主要體現(xiàn)在以下幾點(diǎn):
3.2.1精準(zhǔn)的語義搜索:?可以根據(jù)用戶的問題或需求,快速檢索到最相關(guān)的知識庫文章、FAQ、視頻等內(nèi)容。
3.2.2個性化推薦:?通過分析用戶歷史查詢和行為數(shù)據(jù),為用戶推薦最適合的學(xué)習(xí)資源或解決方案。
3.2.3上下文理解:?能夠理解用戶問題的上下文,提供更準(zhǔn)確、更有針對性的回答。
3.2.3實(shí)時更新:?支持實(shí)時更新知識庫,確保用戶始終獲得最新信息。
3.3向量數(shù)據(jù)庫在在線培訓(xùn)與客戶服務(wù)中的應(yīng)用場景
3.3.1智能問答系統(tǒng)
知識庫構(gòu)建:將培訓(xùn)資料、常見問題、產(chǎn)品手冊等轉(zhuǎn)化為向量,存儲在向量數(shù)據(jù)庫中。
問題匹配:用戶提出的問題被轉(zhuǎn)化為向量,與知識庫中的向量進(jìn)行相似度計算,找到最匹配的答案。
個性化回答:根據(jù)用戶的角色、歷史記錄等信息,提供定制化的回答。
3.3.2推薦系統(tǒng)
課程推薦:根據(jù)用戶的學(xué)習(xí)歷史、興趣偏好,推薦合適的課程或?qū)W習(xí)路徑。
資源推薦:為用戶提供相關(guān)的學(xué)習(xí)資源,如文章、視頻、代碼示例等。
3.3.3聊天機(jī)器人
上下文理解:能夠理解用戶在對話中的上下文,提供連貫、自然的對話體驗(yàn)。
知識問答:通過訪問向量數(shù)據(jù)庫,回答用戶關(guān)于產(chǎn)品、服務(wù)、政策等方面的問題。
3.3.4搜索引擎
語義搜索:能夠理解用戶搜索意圖,返回最相關(guān)的搜索結(jié)果。
個性化搜索:根據(jù)用戶歷史搜索記錄和個人偏好,提供個性化的搜索結(jié)果。
(四)落地指南
數(shù)據(jù)準(zhǔn)備:將培訓(xùn)資料、FAQ、產(chǎn)品手冊等轉(zhuǎn)化為高質(zhì)量的向量。
向量數(shù)據(jù)庫選擇:選擇適合的向量數(shù)據(jù)庫,如Pinecone、Milvus、Faiss等。
模型選擇:選擇適合的語言模型,如BERT、GPT等,并進(jìn)行微調(diào)。
系統(tǒng)集成:將向量數(shù)據(jù)庫與語言模型、知識庫、用戶界面等進(jìn)行集成。
持續(xù)優(yōu)化:定期評估系統(tǒng)性能,不斷優(yōu)化向量索引、模型參數(shù)等。】
四、本地管理的開源大模型AI模板(如Meta的Llama頂級模型)
對于Constellation?Research副總裁兼首席分析師AndyThurai來說,開源大語言模型(LLM)顯然已經(jīng)變得非常強(qiáng)大。例如,Meta剛剛發(fā)布了多種尺寸的Llama3.2模型,并具有新的查看功能,并表示其下載量已近3.5億次——在短短一年內(nèi)增長了10倍——并且擁有超過60,000個衍生模型,針對特定用例進(jìn)行微調(diào)。
根據(jù)ChatbotArenaLLM排行榜,Meta的Llama頂級模型在質(zhì)量上可與OpenAI的GPT4和Anthropic的Claude3.5Sonnet相媲美。
“雖然Llama處于領(lǐng)先地位,但許多其他公司也在創(chuàng)建自己版本的開源LLM,”Thurai指出,其中包括IBM的Granite、AWS的Titan和擁有各種開源模型的Google。鑒于這種增長,API公司Kong最近發(fā)布了一項針對數(shù)百名IT專業(yè)人士和商業(yè)領(lǐng)袖的調(diào)查,結(jié)果發(fā)現(xiàn)大多數(shù)公司直接或通過Azure?AI使用OpenAI,其次是Google?Gemini,但Llamadi?Meta出現(xiàn)了第三名。
事實(shí)上,開源模板有多種尺寸,這對企業(yè)來說是一個好處,因?yàn)檩^小的模板更便宜、速度更快。“許多企業(yè)正在從實(shí)驗(yàn)轉(zhuǎn)向分銷模式,推理和優(yōu)化的成本正在成為一個主要問題,”圖賴報告道?!八麄冎械脑S多人在追求必要的可擴(kuò)展性方面都面臨著各種困難?!?/span>
總部位于波士頓的IkigaiLabs還提供了一個平臺,允許公司構(gòu)建大型定制圖形模型或旨在處理結(jié)構(gòu)化數(shù)據(jù)的人工智能模型。但為了使界面更易于使用,Ikigai使用大語言模型(LLM)為其前端提供支持。例如,該公司使用開源Falcon?LLM的70億參數(shù)版本,并在自己的環(huán)境中為某些客戶運(yùn)行它。
聯(lián)合創(chuàng)始人兼聯(lián)合首席執(zhí)行官DevavratShah解釋說,為了將信息輸入大語言模型(LLM),Ikigai使用也在本地運(yùn)行的矢量數(shù)據(jù)庫?!八哪昵?,在麻省理工學(xué)院,我和我的一些學(xué)生嘗試了大量的向量數(shù)據(jù)庫,”沙阿說,他也是麻省理工學(xué)院的人工智能教授。“我知道這會有幫助,但沒有那么多。”
他澄清說,將模型和矢量數(shù)據(jù)庫保存在本地意味著數(shù)據(jù)不會泄露給第三方。“對于不介意向其他人發(fā)送查詢的客戶,我們使用OpenAI,”Shah說?!拔覀儗?/span>大語言模型(LLM)持不可知論。”
然后是普華永道,它建立了自己的Chat?PwC工具,并且對大語言模型(LLM)也是不可知的?!?span style="font-size: 16px; outline: 0px;">Chat?PwC為我們的員工提供支持,”該公司的合伙人兼GenAI市場戰(zhàn)略負(fù)責(zé)人Bret?Greenstein說道。例如,它包括建議和預(yù)構(gòu)建的嵌入,以實(shí)現(xiàn)生成職位描述等用例?!八膶?shí)施是為了使用我們的格式、模板和術(shù)語,”他指出?!盀榱藙?chuàng)建它,我們擁有人力資源、數(shù)據(jù)和提示詞(Prompt)專家,并且我們優(yōu)化每個用例以生成有效且一致的職位發(fā)布。如今,最終用戶不需要知道如何提示生成它們。”
該工具基于Microsoft?Azure構(gòu)建,但也有適用于Google?Cloud?Platform和AWS的變體?!拔覀冃枰獮榭缢性七\(yùn)營的客戶提供服務(wù),”格林斯坦指出。同樣,它也經(jīng)過優(yōu)化以在后端使用不同的模板,因?yàn)檫@就是客戶想要的方式?!拔覀兯械闹饕P投荚诠ぷ?,”他補(bǔ)充道?!?span style="font-size: 16px; outline: 0px; font-family: Calibri;">Claude、Anthropic、OpenAI、Llama、Falcon:我們都有?!?/span>
市場正在快速而自然地發(fā)生變化,格林斯坦建議公司對其人工智能實(shí)施采取“不后悔”的政策。
“人們可以做很多事情,比如構(gòu)建獨(dú)立于模型的數(shù)據(jù)和創(chuàng)建治理,”他說。那么,當(dāng)市場發(fā)生變化、新的模式和技術(shù)出現(xiàn)時,數(shù)據(jù)和治理結(jié)構(gòu)仍然具有相關(guān)性。
五、模型的微調(diào)
管理咨詢公司Aarete在AWS?Bedrock的Claude2.5?Sonnet上使用快速學(xué)習(xí)優(yōu)化?!拔覀兪敲绹麄€East-1地區(qū)這一最新應(yīng)用程序的最大采用者,”該公司數(shù)字技術(shù)服務(wù)副總裁PriyaIra?gavarapu說道?!拔覀円呀?jīng)能夠有效地將我們的生成式人工智能應(yīng)用擴(kuò)展到生產(chǎn)中?!?/span>
如果管理咨詢公司Aarete使用托管模型并通過API連接到它,就會出現(xiàn)安全問題?!拔覀儞?dān)心提示詞(Prompt)數(shù)據(jù)最終會去向哪里,”專家說?!拔覀儾幌朊斑@些風(fēng)險?!?/span>
在選擇開源模型時,您會查看它之前被下載了多少次、社區(qū)支持的程度以及硬件要求。
“自去年初以來,基本模型已經(jīng)變得非常強(qiáng)大,我們不必?fù)?dān)心結(jié)果與任務(wù)相關(guān)性的有效性,”他指出。“現(xiàn)在唯一的區(qū)別是模型可以接受的代幣數(shù)量和版本控制不同?!?/span>
許多金融和醫(yī)療保健公司正在根據(jù)其額外的數(shù)據(jù)集完善大語言模型(LLM)?;镜拇笮驼Z言模型是在整個互聯(lián)網(wǎng)上進(jìn)行訓(xùn)練的,但通過微調(diào),公司可以創(chuàng)建特定于其業(yè)務(wù)用例的模型。執(zhí)行此操作的常見方法是創(chuàng)建問題和答案列表,然后根據(jù)它們完善模型。事實(shí)上,OpenAI于2023年8月開始使用問答方式對其GPT3.5模型進(jìn)行調(diào)整,并在11月的DevDay上推出了一套針對GPT4的新優(yōu)化、定制和RAG選項。這對于客戶服務(wù)和幫助臺應(yīng)用程序特別有用,因?yàn)楣究赡芤呀?jīng)擁有常見問題解答數(shù)據(jù)庫。
普華永道的Greenstein表示,構(gòu)建SaaS應(yīng)用程序的軟件公司可能會進(jìn)行微調(diào)。“如果你有一個高度可重復(fù)的模型,微調(diào)可以降低成本,”他說,但對于企業(yè)部署,RAG在高達(dá)95%的時間里效率更高。
六、從頭開始
很少有公司會從頭開始建立大語言模型(LLM)。OpenAI的GPT3擁有1750億個參數(shù),在45TB數(shù)據(jù)集上進(jìn)行訓(xùn)練,耗資460萬美元。OpenAI首席執(zhí)行官SamAltman表示,GPT4的成本超過1億美元。這個維度賦予了大語言模型(LLM)處理人類語言的魔力和能力,以及一定程度的常識和遵循指示的能力。“雖然可以創(chuàng)建自己的大語言模型(LLM),但這需要在數(shù)據(jù)和處理能力方面進(jìn)行大量投資,”Insight首席數(shù)據(jù)官CarmTaglienti說?!皬念^開始訓(xùn)練模型需要足夠的數(shù)據(jù)量,才能執(zhí)行數(shù)據(jù)預(yù)期的LLM任務(wù)?!?/span>
然后,一旦模型完成了基本訓(xùn)練,就會進(jìn)入帶有人類反饋的強(qiáng)化學(xué)習(xí)階段,RLHF,這是模型與用戶適當(dāng)交互所必需的。
【睿觀:RLHF,即Reinforcement Learning from Human Feedback,是一種機(jī)器學(xué)習(xí)技術(shù),通過將人類的反饋納入到強(qiáng)化學(xué)習(xí)的過程中,來提升模型的性能和對人類意圖的理解。
(一)RLHF的工作流程大致如下:
1.預(yù)訓(xùn)練模型: 首先,大語言模型會在大規(guī)模文本數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練,學(xué)習(xí)語言的統(tǒng)計規(guī)律和表達(dá)方式。
2.收集人類反饋數(shù)據(jù): 訓(xùn)練好的模型會生成一些文本,然后由人類標(biāo)注人員對這些文本進(jìn)行評分或排序,以表示對生成結(jié)果的偏好。
3.訓(xùn)練獎勵模型: 基于人類的反饋數(shù)據(jù),訓(xùn)練一個獎勵模型。這個模型可以預(yù)測給定文本的質(zhì)量,即這個文本有多大可能得到人類的正面評價。
4.強(qiáng)化學(xué)習(xí)微調(diào): 使用強(qiáng)化學(xué)習(xí)算法,讓模型最大化獎勵模型給出的獎勵。通過不斷地生成文本并根據(jù)獎勵模型的反饋進(jìn)行調(diào)整,模型逐漸學(xué)習(xí)生成符合人類偏好的文本。
(二)RLHF的優(yōu)勢:
1.提高模型與人類價值觀的一致性: 通過人類反饋,模型可以更好地理解人類的意圖和偏好,從而生成更符合人類期望的文本。
2.增強(qiáng)模型的安全性:RLHF可以幫助模型避免生成有害、歧視或偏見的內(nèi)容。
3.提升模型的創(chuàng)造性: 通過鼓勵模型生成多樣化和有趣的文本,可以提高模型的創(chuàng)造力。
(三)在在線培訓(xùn)和客戶服務(wù)場景中,RLHF的應(yīng)用可以帶來以下好處:
1.更個性化的回答: 模型能夠更好地理解用戶的需求,提供更貼合用戶需求的答案。
2.更自然流暢的對話: 模型生成的文本更加流暢自然,更像人類的表達(dá)。
3.更高的用戶滿意度: 通過不斷優(yōu)化模型,可以提高用戶對服務(wù)的滿意度。
總結(jié)來說,RLHF是一種非常有效的技術(shù),可以幫助我們訓(xùn)練出更智能、更符合人類需求的大語言模型?!?/span>
如今,幾乎所有大語言模型(LLM)都來自大型超大規(guī)模企業(yè)或?qū)W⒂谌斯ぶ悄艿某鮿?chuàng)公司,例如OpenAI和Anthropic。即使是在構(gòu)建自己的模型方面擁有豐富經(jīng)驗(yàn)的公司也回避構(gòu)建自己的模型。例如,Salesloft多年來一直在構(gòu)建自己的人工智能和機(jī)器學(xué)習(xí)模型,包括使用舊技術(shù)的GenAI模型,但對于從頭開始構(gòu)建新的尖端基線模型猶豫不決。
“這是一個巨大的計算步驟,至少在現(xiàn)階段,我們還沒有承諾,”菲爾茲說。
七、模型花園
對于更成熟的公司來說,單一的人工智能模型可能不夠,因?yàn)閷τ诿糠N具體情況,可能有多個具有不同成本和性能指標(biāo)的合適模型。此外,新的參與者不斷進(jìn)入該行業(yè),超越老牌巨頭。更不用說某些模型可以在本地或托管數(shù)據(jù)中心運(yùn)行,從而降低公司成本并提供更高的安全性或靈活性。為了利用這些選項,公司創(chuàng)建了精心策劃的模型花園、經(jīng)過仔細(xì)審查、定制和完善的大語言模型(LLM)的私人收藏,并使用路由系統(tǒng)將請求轉(zhuǎn)發(fā)給最合適的人?!斑€沒有多少公司能做到這一點(diǎn),”科爾尼公司的托塔總結(jié)道?!斑@很復(fù)雜,但我相信這將是未來?!?/span>
【睿觀:模型花園:打造企業(yè)個性化AI生態(tài)。模型花園是企業(yè)構(gòu)建AI能力的重要一環(huán),它可以幫助企業(yè)更好地利用人工智能技術(shù),提高業(yè)務(wù)效率,降低成本,增強(qiáng)競爭力。
模型花園(Model Garden)這個概念,形象地描繪了一個企業(yè)內(nèi)部精心培育、管理和利用的大語言模型(LLM)集合。它就像一個私家花園,每株植物(模型)都有其獨(dú)特的特性和價值,經(jīng)過精心的培育,為企業(yè)提供多樣化的服務(wù)。
(一)為什么需要模型花園?
1.多樣性需求: 不同的業(yè)務(wù)場景對模型的要求各異,單一模型無法滿足所有需求。模型花園提供了一個多樣化的模型池,可以根據(jù)任務(wù)的具體情況選擇最合適的模型。
2.成本優(yōu)化: 不同的模型在性能、成本、部署方式等方面存在差異。通過選擇合適的模型,企業(yè)可以實(shí)現(xiàn)成本優(yōu)化,提高資源利用效率。
3.靈活應(yīng)對: 模型花園可以幫助企業(yè)快速響應(yīng)市場變化,適應(yīng)新的業(yè)務(wù)需求。企業(yè)可以通過添加、更新或替換模型來提升整體AI能力。
4.數(shù)據(jù)安全: 將模型部署在本地或托管數(shù)據(jù)中心,可以更好地保護(hù)企業(yè)的數(shù)據(jù)安全。
(二)模型花園的工作原理
模型選型:根據(jù)業(yè)務(wù)需求,選擇合適的預(yù)訓(xùn)練模型,并進(jìn)行微調(diào)。
模型部署:將微調(diào)后的模型部署到不同的環(huán)境中,如云端、本地服務(wù)器等。
路由系統(tǒng):建立一個路由系統(tǒng),根據(jù)用戶的請求,將請求轉(zhuǎn)發(fā)到最合適的模型。
持續(xù)優(yōu)化:不斷對模型進(jìn)行評估和優(yōu)化,以保證模型的性能和可靠性。
(三)模型花園的優(yōu)勢
個性化:模型花園可以根據(jù)企業(yè)的具體需求定制模型,提供更加個性化的服務(wù)。
高效:通過路由系統(tǒng),可以快速找到最合適的模型,提高處理效率。
靈活:模型花園可以適應(yīng)不斷變化的業(yè)務(wù)需求,具有很強(qiáng)的靈活性和擴(kuò)展性。
安全:將模型部署在本地或托管數(shù)據(jù)中心,可以提高數(shù)據(jù)安全。
(四)模型花園的未來
隨著人工智能技術(shù)的不斷發(fā)展,模型花園將會變得越來越重要。越來越多的企業(yè)將建立自己的模型花園,以提升企業(yè)的競爭力?!?/span>