跳到主要內容

初探 LangChain:語言模型應用程式開發的強大框架

LangChain 是一個強大的框架,致力於幫助開發人員利用語言模型構建端到端的應用程式。它提供了一整套工具、組件和接口,大大簡化了創建由大型語言模型(LLM)和聊天模型支持的應用程式的過程。LangChain 可以輕鬆地管理與語言模型的互動,將多個組件連接在一起,並集成額外的資源,例如 API 和資料庫。

LangChain

https://python.langchain.com/en/latest/index.html

不說廢話,直接開始試著安裝,

pip install langchain
pip install openai
export OPENAI_API_KEY="..."

以下是一些 LangChain 的簡單程式碼:

import os
os.environ["OPENAI_API_KEY"] = "..."
from langchain.llms import OpenAI
from langchain import OpenAI, ConversationChain
from langchain.agents import initialize_agent
from langchain.agents import load_tools
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate

prompt = PromptTemplate(
    input_variables=["product"],
    template="What is a good name for a company that makes {product}?",
)

print(prompt.format(product="colorful socks"))
# What is a good name for a company that makes colorful socks?

在 LangChain 中,開發人員可以使用 LLM、Chat Model、Agents、Chains、Memory 功能等組件,這些組件組合起來可以創建一個能夠理解、處理和回應用戶輸入的應用程式。




LangChain 的優點

  1. 靈活性:提供了豐富的組件和工具,讓開發人員可以根據需要靈活地構建應用程式。
  2. 易於使用:簡化了與語言模型的交互過程,降低了開發難度。
  3. 可擴展性:可以輕鬆地整合外部資源,例如 API 和資料庫,以滿足各種用例的需求。
  4. 提供模型的抽象:提供了不同類型的模型,如 LLM、聊天模型和文本嵌入模型,讓開發人員可以根據需要選擇合適的模型。

LangChain 的缺點

  1. 學習曲線:對於剛開始使用語言模型的開發人員,可能需要一定時間學習如何使用 LangChain 的各種組件和工具。
  2. 受限於語言模型的性能:LangChain 的性能在很大程度上取決於其所使用的語言模型,因此可能受到模型性能的限制。

LangChain 是一個功能強大、靈活且易於使用的框架,適用於希望快速構建基於語言模型的端到端應用程式的開發人員。雖然它存在一些學習曲線和性能限制,但總體而言,它提供了開發人員需要的一切,以便快速構建和部署語言模型應用程式。

為了充分利用 LangChain,開發人員應該熟悉各個組件的功能,並了解如何將這些組件組合在一起以實現所需功能。此外,開發人員需要瞭解他們正在使用的語言模型的特點,以便根據應用程式的需求選擇最合適的模型。

結語

雖然看 quickstart 是蠻簡單就可以開始,但 LangChain 在學習曲線和性能方面存在一定的挑戰,但其優點遠遠超過了這些缺點。開發人員可以利用 LangChain 提供的強大功能、靈活性和易用性,創建高效且具有吸引力的語言模型應用程式。

留言

這個網誌中的熱門文章

RAG 和 Prompt 原理超簡單解說!想知道 AI 怎麼找答案看這篇

這篇文章是給對於你已經開始使用所謂的 ChatGPT / Claude / Gemini 之類的 AI 服務,甚至是 Siri (嘿丟,他也是一種 AI 應用服務喔) 簡單來說是非 技術人員, PM,小白,想要趕快惡補的人 ,直接花十分鐘可以看完的一篇科普業配文章。 或者是概念僅止於,AI 這東西會幻想,會有誤差,會對於生活有些幫助但沒有幫助的人們,做個簡單又不是太簡單的介紹,希望用一個非常入門的方式讓你們有個了解。 當然,這篇文章目的很簡單, 就是引流 ,如果你身邊有已經對於 Web 技術開發的人員,歡迎報名分享給他,年末出國不如學一技在身,參加今年我們舉辦最後一場 RAG 實作工作坊,報名連結 , https://exma.kktix.cc/events/ai-for-dev-course-rag-2 注意: 接下來每個大段落結束都會有一段工商導入,但文章絕對精彩,請注意! 為了讓各位容易想像,我們將整個世界的資訊,先濃縮到這本『西遊記』的世界觀當中,我們整個世界都在這個 『西遊記』 ,而 大型語言模型 我們用 『書精靈』 來描述。 PS. 我們先預設各位,應該都有聽過,西遊記!如果沒有聽過西遊記的,請右轉出去,謝謝! 先來談談向量 在《西遊記》的世界裡,我們可以把 向量想像成一種「內容座標」 ,讓系統知道每個角色、場景、法術等的 「位置」和「距離」 。向量幫助語言模型知道不同內容之間的關聯程度。 向量就像內容的「距離」和「位置」 比方說,唐三藏的 「位置」(向量)會接近「佛經」和「取經」 的概念,因為他一路上都是為了取經而前進。孫悟空的 向量位置則會更靠近「金箍棒」和「七十二變」 這些概念,因為這些是他的特徵。 相似內容靠得更近:像「佛經」和「取經」會靠近唐三藏的向量,因為它們彼此有很強的關聯。 相差較大內容會離得較遠:像「取經」和「妖怪」「妖怪的寶藏」就距離比較遠,因為妖怪的寶藏和取經的目標關聯性不大。 是誰決定的這些位置? 簡單來說,這些位置和關係是模型自己學出來的。語言模型會閱讀大量的資料和這世界觀的資訊,觀察哪些詞語經常一起出現,根據「共同出現的頻率」來決定它們的關係,並且自動生成向量。例如: 如果模型看到 「唐三藏」 總是和 「取經」 一起出現,它就會讓「唐三藏」的向量靠近「取經」。 ...

2024 推薦關注的 JavaScript 知識

以 js 整體發展來看,目前自己最看好的發展是在於兩個面向,一個部分是 Storybook ,一個部分是 Web container ,為何會是這兩個部分,這邊也分享一下自己的見解。 Storybook Storybook, 如果有用過的朋友都知道,他是屬於前端的展示,可以從 UI 的結構,到 parameter 的傳入,以及 component 如何使用的方式細節呈現等完全呈現。 AI 的到來,加上 Storybook 的呈現,可以讓新發展,或者更新版本的 UI Component 不再是孤兒,很快的 AI 可以學習如何使用新的 Component, 且在同時可以讀取 UI 畫面(Vision) 的狀態下進行識別 UI 在呈現上可以使用的方式。 同時也可以直接了解整體程式碼在使用上可以有怎麼樣參數傳入的方式,甚至是,你只要發展出一套 react 的版本,透過 AI 可以直接透過 Storybook 的版本,直接用最典型的狀態(但不一定效果最佳)轉換成 Vue, 或者 Villina JS 的版本。 這對於開發者,是一個多大的福音,Do Once, Call Everywhere. Web Container Web Container, 正所謂,Container 之下無蟒夫,容器化不只是能夠跑在後端,現在也能夠跑在前端,加速了整體的部署,同時也加速了以往的 SSR 的限制,以往很多時候『it works on my pc』的窘境將不再復見,你的瀏覽器將是我的雲端,You are the edge of mine, 聽起來有多浪漫,光靠這招就是一個歡呼! 完全就是一個端到端,環境的問題接下來將再不是一個問題,以往會有的 Node.js 的問題,接下來都可以在 Web Container 裡面排除掉,直接快速的進行部署實現,同時執行出應用端應該有的樣子。 當然瀏覽器支援度會是一個問題,不過我相信這只是時間的問題而已,相信在座的各位,最多的就是時間! 等吧! JSDC 2024  JavaScript Developer 年度盛會,線上展開。 這次講師要講什麼,就是要講這些有的沒的,還不來聽嗎? 聽懂幾個關鍵字,開心學會一輩子! JSDC 2024 網站: https://2024.jsdc.tw/ JSDC 2024 售票連結: https://www.a...

從易經八卦到 AI 應用:用 LLM 自動化數據整理的工程探險

從 2023 年開始,在去年 為何技術老人這樣想那樣做? 的那場分享之前,就開始探索管理的更多可能性,以及探索更深層的奧秘,宇宙的二進位,生活中的陰與陽,到透過朋友深入探索 8 進位和 64 進位的玄學領域。 一開始只是想將自己體驗進行工程的還原,先是以為透過 ai 可以很快(偷懶)就可以解決掉資訊整理的問題,這邊有些踩雷的過程,以及對於整體實作的紀錄,分享給大家。 人生,原本以為很輕鬆的事情,最後都會不太容易 原本目標是希望將網路上許多的八卦資訊,以及六十四卦象內容,透過 AI 將資料進行彙整,就資料進行整合以及釐清就花了些時間 (汗) 以下且聽我慢慢道來 ... . 思緒步驟 大概步驟會是這樣,首先進行基礎八卦資訊搜集,大概由乾掛到坤卦,這些都可以在網路上容易取得,(這邊採用的是先天八卦順序) https://chatgpt.com/share/672083ea-4000-8010-ae50-3e120d845244 接著進入重點, 64 卦目前並沒有太多工程項目可以進行整合資料,因此主要透過 ChatGPT 產生資訊,以及透過 wiki 進行先達到快速效果。 https://chatgpt.com/share/67208416-c210-8010-9d43-a8c7235a1b03 緊接著,就會得到一串很像是 64 掛的內容, 不看不知道,一看嚇一跳,取得資料中會包含錯誤資訊,對應錯誤的上下卦,但畢竟是電腦,有錯很正常,這才是我認識的 ChatGPT (這邊也有試過 Claude 也有相同問題)。 校正回歸 此時經驗就非常重要,透過 AI 協助我們進行資料編寫比對,但不是單純的比對,而是要先想清楚自己的目標是什麼。 64 卦,兩兩相對。 64 卦,每個卦象不重複。 基礎於一開始 『懶』的狀態 , 首先直覺性的,是將比對錯誤的 json 直接丟入,原本預計透過 chain of thought 的方式,讓 llm 進行重複確認,但 ... 測試發現,需要透過 llm 產出原生資料越大時,隱藏的重複錯誤性會隨之提高。 llm 不轉,我轉 因此,這邊的解法朝向糾錯為主。 首先回到目的性,我們需要得到的結果是 完整的 64 卦象 取得對應的正確上下卦位置。 當我們有這樣明...