什麼是檢索增強生成(RAG) ? 與AI 及LLM 的關係?

什麼是檢索增強生成? 擷取增強生成 (RAG) 是對大型語言模型輸出最佳化的過程,因此在產生回應之前,它會參考其訓練資料來源以外的權威知識庫。大型語言模型 (LLM) 在大量資料上訓練,並使用數十億個參數來生成原始輸出,用於回答問題、翻譯語言和完成句子等任務。RAG 將原本就很強大的 LLM 功能擴展到特定領域或組織的內部知識庫,而無需重新訓練模型。這是改善 LLM 輸出具成本效益的方法,可讓 LLM 在各種情況下仍然相關、準確且有用。 擷取增強生成為何重要? LLM 是一種關鍵人工智慧 (AI) 技術,為智慧聊天機器人和其他自然語言處理 (NLP) 應用程式提供支援。目標是建立可以透過交互參考權威知識來源來回答使用者各種內容問題的機器人。不幸的是,LLM 技術的性質導致 LLM 回應中引入不可預測性。此外,LLM 訓練資料是靜態的,並為其所擁有的知識引入了截止日期。 LLM 的已知挑戰包括: 當沒有答案時顯示虛假資訊。 當使用者期待特定的最新回應時,顯示過期或一般資訊。 從非授權來源建立回應。 由於術語混亂而建立不正確的回應,其中不同的訓練來源使用相同的術語來談論不同的事情。 您可以將大型語言模型視為一名過度熱情的新員工,拒絕了解時事,卻始終以絕對的信心回答每個問題。不幸的是,這種態度可能會對使用者的信任產生負面影響,並不是您希望聊天機器人模擬的內容! RAG 是解決這些挑戰的其中一種方法。它重新導向 LLM,從權威、預先確定的知識來源中擷取相關資訊。組織對產生的文字輸出有更大的控制權,並且使用者深入了解 LLM 如何產生回應。 擷取增強生成有哪些優點? RAG 技術為組織的生成式 AI 工作帶來了多種優點。 經濟實惠的實作 聊天機器人開發通常是從使用基礎模型開始的。基礎模型 (FM) 是在廣泛的廣義和未標記資料上訓練的 API 可存取 LLM。為組織或領域特定資訊重新訓練 FM 的運算和財務成本很高。RAG 是一種更加經濟實惠的方法,將新資料引入 LLM。它使生成式人工智慧 (生成式 AI) 技術更廣泛可存取和可用。 目前資訊 即使 LLM 的原始訓練資料來源適合您的需求,維護相關性仍是一項挑戰。RAG 可讓開發人員為生成式模型提供最新的研究、統計資料或新聞。他們可以使用 RAG 將 LLM 直接連線到即時社交媒體摘要、新聞網站或其他經常更新的資訊來源。LL...