跳到主要內容

上下文工程與長上下文提示:引領大型語言模型的智慧未

大型語言模型(LLMs)的互動方式已從簡單、靜態的提示迅速演變。最初,使用者主要專注於精心設計的指令,以獲得即時回應 。然而,隨著LLMs能力與複雜性的提升,對於更精密的引導方法以確保可靠輸出的需求日益顯著 。這種轉變標誌著從單純的「提示設計」邁向更全面的「上下文管理」典範。

提示工程作為最初與LLMs有效溝通的學科應運而生,它涉及仔細措辭查詢、指定風格,並提供基本上下文或範例 。諸如「思維鏈」(Chain-of-Thought, CoT)和「上下文學習」(In-Context Learning, ICL)等技術被開發出來,旨在增強模型推斷能力,並使其無需額外微調即可適應新任務 。

上下文工程 (Context Engineering)是人工智慧開發中的一門新興學科,專注於設計系統,能動態地為大型語言模型(LLM)提供完成任務所需的精確資訊、工具與指令。

這種方法遠遠超越傳統的提示工程(prompt engineering),後者通常僅是撰寫一個靜態提示詞。而上下文工程則包含對 所有資訊的系統性、動態策劃與管理——包括指令、使用者輸入、記憶、外部知識、工具定義、結構化輸出等——在 LLM 產生回應前給予模型所需的一切。

提示工程:奠基之石

提示工程是與LLM有效溝通的起點。它強調文字措辭、角色扮演以及提供少量範例等技巧,透過技術如:

•   思維鏈(Chain-of-Thought, CoT): 促使模型以中間步驟推理、解題,提升多步驟任務表現。
•   上下文學習(In-Context Learning, ICL): 模型從提示中的少量範例暫時性學習,適應新任務。
•   基於角色的提示: 指定模型模擬特定角色的語氣與專業程度。
•   動態提示: 根據任務狀態與模型輸出調整提示內容與順序。
•   指令與上下文分離: 把指令與背景資料分開,保持清晰結構。

然而,這些提示依舊是靜態、手工製作,當面對長對話、動態場景或巨量資料時,便顯現出適應性不足、可擴展性差與高維度變異性的挑戰。

上下文工程:協調AI的舞台

上下文工程不僅設計一條提示,而是搭建整個互動環境。它結合了多項技術與組件:

•   系統提示/指令: 設定AI的行為與任務目標。
•   短期記憶(聊天歷史): 提供最近對話上下文。
•   長期記憶(知識庫): 維持跨多次互動的知識與使用者偏好。
•   檢索增強生成(RAG): 即時檢索外部資料補充知識。
•   工具調用: 允許模型動態調用API或外部系統,獲取或操作數據。
•   結構化輸出: 指定回應格式,如JSON、XML、表格等。
•   工作流程工程: 為多步驟任務規劃上下文組裝與資訊流。
•   資料策劃與處理: 利用摘要、分塊、排序等方法優化上下文內容。

它的核心在於動態管理與全面覆蓋:即隨對話演進或任務需求,組裝最合適的上下文,並在多步驟流程中共享一致記憶,確保連貫性。

長上下文提示:拓展AI的思維長度

長上下文提示(login context prompt) 的出現為模型提供了更大的「舞台空間」,突破短期記憶限制。例如:

•   早期LLMs僅能處理512~1024個 token,而今日如Gemini 1.5 Pro已達到200萬 context window,甚至Meta Llama 4上限高達1000萬 token。
•   這使模型能一次性理解完整的長篇文檔或多回合對話,顯著提升:
•   對長篇文本的整體理解與事實準確性
•   多樣本上下文學習
•   大型文檔的摘要與關鍵資訊檢索
•   程式碼庫、醫療紀錄、法律合約等龐大數據分析
•   跨多回合客戶對話的記憶保持

然而,挑戰也隨之而來,包括「迷失在中間」、「注意力稀釋」、成本增加、延遲上升等,需要搭配精細的上下文工程克服。

核心對比與協同作用

以下表格清楚展現上下文工程與長上下文提示的不同定位與相互補充:

特徵 上下文工程 (CE) 長上下文提示 (LCP) 協同作用
定義 動態組裝、管理與呈現上下文的系統性學科 模型內可同時處理的上下文視窗容量 CE智能填充LCP的視窗,以最佳資訊支援推理
焦點 資訊的相關性、結構化與即時更新 一次可保留的資訊數量與範圍 結合以實現長對話、一致回答、高度準確性
問題解決 適應性、記憶管理、工作流程協調 克服短期記憶不足、避免文檔碎片化 CE防止LCP被雜訊占用,最大化其效用

而在數據處理應用方面,長上下文LLMs與RAG技術則各有優勢:

特徵 長上下文LLMs 檢索增強生成 (RAG) 混合模型
最佳用途 靜態、大型文檔分析、延遲敏感場景 即時更新、多源資料、動態推理 靜態與動態數據並用
延遲特性 低延遲(資料預載入) 高延遲(即時檢索) 智能平衡
可擴展性 受記憶體限制 可透過外部資料庫擴展 整合兩者

未來展望:智能化、自主化、多模態

未來AI將朝以下方向前進:

•   混合架構: 同時結合長上下文與RAG,並在上下文路由中根據需求動態選擇資料來源。
•   智能上下文管理: 利用壓縮演算法、動態令牌分配與AutoML自我調整,提升上下文利用效率。
•   自主代理: 具備規劃、工具調用、結果解釋、自我優化能力,成為能獨立完成複雜任務的智慧體。
•   多模態上下文: 將圖像、音訊、影片與文字無縫整合到單一上下文環境中,實現對真實世界情境的全方位理解。
•   自動化上下文工程: AI不僅消耗上下文,還能主動建構、更新、優化自身的上下文環境。

後記

每過一段時間,就會有什麼 XXX 已死, XXX 才是未來。

但對於自身的經驗來說,所有的事情都是堆疊和累積,並非完全的黑與白這麼絕對的區分,更深入的來說,整個 Context window,其實還是來自於 prompt engingeer 的掌握,對於如何進行 Prompt 之後, Context 才能有更絕對的掌握。

如何整合上下文工程 (Context Engineering) 流程會是基礎於 prompt ,再加上具備 long context 的項目,整合長上下文提示 (Long context prompting),是AI邁向高度智能、自主化的基礎。

可以預見的未來,AI不再是只能「回答」的工具,而是能真正理解、推理、規劃與協助的智慧夥伴。未來AI應用的競爭力,將不僅取決於模型參數數量,而是取決於能否動態、智慧地策劃上下文,將大量資料轉化為具有商業價值與人性化的服務體驗。

參考連結

工商服務

如果你看完這篇文章,也開始對「怎麼用 AI 幫你加速、放大你的想法」感到興趣,那你絕對不能錯過這場活動👇

🎤 🐻 Coding Bear 台北場|來聊什麼是 Vibe Coding 台北場

我們將深入分享如何結合 AI 與程式、創意、內容製作,

讓你用最自然的方式,讓 AI 成為你的工作室助手。

📅 時間:7/25(五)18:30

👉 報名連結:https://codingbear.kktix.cc/events/ai-vibe-coding-2025-07-taipei

天南地北來亂聊,從設計、內容到自動化,無論你是創作者還是開發者,這場講座也許會有實用又有趣的靈感(吧)。來聊聊 AI 怎麼幫你少做一點雜事、多做一點你真的想做的事吧!

留言

這個網誌中的熱門文章

Vibe Coding:為什麼 Junior 更快上手?Senior 要如何追趕?

現象層面(市場觀察) 最近有篇文章討論 junior & senior 開發者在 AI 時代的角色轉變,非常熱門。 身為 Cympack 產品開發團隊 ,我們也一直關注這個議題,在閱讀這篇文章時觀察到一些有趣的現象,對我們來說,這正好反映出 AI 正在改變開發生態,junior 借力 AI 快速成長、senior 則需要在 「架構思維」 與 「多 agent 協作」 中找到新定位,其中有些啟發(insight) 可以跟大家分享。 為什麼 Junior 更容易上手 vibe coding? 心智負擔低 → Junior 沒有太多傳統 code workflow 的框架包袱 敢於嘗鮮 → Gen Z / 年輕工程師天生習慣用 prompt-based 工具、跟 LLM 互動 少「優雅程式設計」的束縛 → 不太糾結「這樣寫會不會不夠優雅」,反而 embrace 快速迭代、快速出成果 反觀 Senior: 熟悉大型系統設計 有豐富的「工程正統流程」知識(架構設計、測試策略、效能優化、設計模式) 對 AI 生成 code 的品質 / 維護性通常比較保留 部分 10+ 年資深工程師,對 prompt engineering 沒那麼熟練,還在觀望 技能面(未來的關鍵能力) Vibe coding 本質上 = prompt engineering + AI co-pilot 管理能力 能力項目 誰目前比較有優勢? Prompt 撰寫 / AI 互動 Junior 較強(熟悉 chat-based 流程) 系統設計 / 架構把關 Senior 較強 AI 生成 code 驗證 / Bug 察覺能力 Senior 較強(能看出潛在問題) 快速疊代 / Hackathon 式開發 Junior 較強 長期維護性 / 穩定性 Senior 較強 總結 Junior 確實更快適應 vibe coding,並且更習慣以 「chat-based coding」 的工作流開發。 Senior 擁有驗證 AI 產物與系統設計的深度能力,但若不主動練習 vibe coding,長期會逐漸落後於新一波開發潮流。 就如同在 GAI 技術年會分享,希望帶給各位的感受, 『與 AI 協...

Vibe Coding 協作到自建 Dev Agent?從 Claude / Codex 到 OpenHands

過去一年,越來越多工程師開始 把 AI 真正帶進工作流程 。從一開始用 ChatGPT、Claude 來問語法問題,到後來很多人愛上 Cursor,直接在編輯器裡讓 AI 幫忙改 code、補 test case、甚至自動整理 PR。這樣的開發體驗,已經大大改變了我們寫程式的方式。 更現實的是,在很多企業內部、政府單位、或涉及機密資料的專案裡, 其實根本不能直接用 Cursor 或雲端 LLM 工具。   畢竟這些服務通常會把資料傳到雲端模型做處理,萬一專案裡有未公開的技術、敏感客戶資料,或是受限於法規 (像金融、醫療、政府標案) ,直接用雲端 AI 工具就會踩 紅線 。  因此,許多團隊反而更希望 「自己架一套 Dev Agent」 ,可以在內網執行,資料完全掌握在自己手上,該整合的內部工具、該讀的私有 repo、該串的 CI/CD pipeline,全部客製化、安全可控。 這時候,像 OpenHands 這樣的開源 Dev Agent 框架就特別有價值。它的出發點不是單純的 AI 助手,而是讓你能夠打造出一個真的可以跑在自己環境裡、可以理解整個開發流程的 AI 工程師。從建置到部署,從 CLI 操作到瀏覽器查詢, 從多檔案編輯到自動測試,全部都能自己完成,甚至還能針對不同專案調整專屬的工作流。 對很多開始探索 AI 協作開發的團隊來說,這是一條 從 「AI 幫你寫一段程式」,走向「AI 幫你解決一整個任務」 的進化路徑。而且,還是在可控、可自定義、安全的環境裡完成的。 🧩 主要概述 OpenHands 是由 All‑Hands AI 開發的開源「軟體開發代理人平台」,能模仿人類工程師從建立程式、修改程式碼、執行指令,到瀏覽網頁、呼叫 API……等一整套開發流程 它提供雲端(OpenHands Cloud)與本地 Docker 運行版本,用戶能配置 LLM(如 Claude、OpenAI、Gemini…) 📚 核心特性與怎麼使用 代理人的工具能力 支援代碼編輯、命令行、執行環境、網頁瀏覽、API 呼叫—接近人類開發者完整技能。其中 OpenHands Cloud 版本提供 $50 試用額度讓大家方便使用,又或者如果自己本機有 docker 的話,可以自己Local 版本透過 Docker 自架環境。 ...

RAG 和 Prompt 原理超簡單解說!想知道 AI 怎麼找答案看這篇

這篇文章是給對於你已經開始使用所謂的 ChatGPT / Claude / Gemini 之類的 AI 服務,甚至是 Siri (嘿丟,他也是一種 AI 應用服務喔) 簡單來說是非 技術人員, PM,小白,想要趕快惡補的人 ,直接花十分鐘可以看完的一篇科普業配文章。 或者是概念僅止於,AI 這東西會幻想,會有誤差,會對於生活有些幫助但沒有幫助的人們,做個簡單又不是太簡單的介紹,希望用一個非常入門的方式讓你們有個了解。 當然,這篇文章目的很簡單, 就是引流 ,如果你身邊有已經對於 Web 技術開發的人員,歡迎報名分享給他,年末出國不如學一技在身,參加今年我們舉辦最後一場 RAG 實作工作坊,報名連結 , https://exma.kktix.cc/events/ai-for-dev-course-rag-2 注意: 接下來每個大段落結束都會有一段工商導入,但文章絕對精彩,請注意! 為了讓各位容易想像,我們將整個世界的資訊,先濃縮到這本『西遊記』的世界觀當中,我們整個世界都在這個 『西遊記』 ,而 大型語言模型 我們用 『書精靈』 來描述。 PS. 我們先預設各位,應該都有聽過,西遊記!如果沒有聽過西遊記的,請右轉出去,謝謝! 先來談談向量 在《西遊記》的世界裡,我們可以把 向量想像成一種「內容座標」 ,讓系統知道每個角色、場景、法術等的 「位置」和「距離」 。向量幫助語言模型知道不同內容之間的關聯程度。 向量就像內容的「距離」和「位置」 比方說,唐三藏的 「位置」(向量)會接近「佛經」和「取經」 的概念,因為他一路上都是為了取經而前進。孫悟空的 向量位置則會更靠近「金箍棒」和「七十二變」 這些概念,因為這些是他的特徵。 相似內容靠得更近:像「佛經」和「取經」會靠近唐三藏的向量,因為它們彼此有很強的關聯。 相差較大內容會離得較遠:像「取經」和「妖怪」「妖怪的寶藏」就距離比較遠,因為妖怪的寶藏和取經的目標關聯性不大。 是誰決定的這些位置? 簡單來說,這些位置和關係是模型自己學出來的。語言模型會閱讀大量的資料和這世界觀的資訊,觀察哪些詞語經常一起出現,根據「共同出現的頻率」來決定它們的關係,並且自動生成向量。例如: 如果模型看到 「唐三藏」 總是和 「取經」 一起出現,它就會讓「唐三藏」的向量靠近「取經」。 ...