跳到主要內容

Google Gemini 全端 AI Agent 快速入門 - 打造「思考」的 AI 助理

一套從搜尋、反思到輸出的全端 AI 代理人範例,讓你看懂什麼叫 Research Agent

在 AI 工具百家爭鳴的今天,大家都在問一個問題:

「我能不能不只問 AI 答案,而是讓它像一位助理一樣,有流程、有反思、還有出處,真正幫我完成一件事?」

Google 最近釋出了一個相當具有指標意義的開源專案 gemini-fullstack-langgraph-quickstart,正是為了解這個問題而誕生。

這套系統到底是什麼?

這個範例不是傳統 Chatbot,而是展示一個完整的 AI research agent

它會根據使用者的提問,自動發想搜尋關鍵字、查資料、整合重點,最後給出答案還附上引用來源。背後的邏輯設計得非常扎實,不只是能跑,更是具備可讀性、可擴展性與可商用性。

它的流程大致如下:

 1. 使用者輸入問題(例如:「抖音是否影響台灣選舉?」)

 2. Gemini LLM 幫你想出關鍵字(不只是照抄問題)

 3. 呼叫 Google Search API 抓資料 

 4. LangGraph 控制流程 → 判斷資料夠不夠 → 若不足,自動補查

 5. 整合最終答案,並產生 citation(來源說明)

你可以想像這就像一位實習助理幫你寫報告,

不只輸出一段內容,而是會去查、會判斷、會補資料,而且說明「我為什麼這樣說」

LangGraph 是什麼角色?

LangGraph 就是整個 Agent 背後的控制系統

用白話講,它幫你定義 AI 每一步要幹嘛、遇到什麼狀況該走哪條路、要不要反思、要不要再查,甚至可以定義條件邏輯與資料流動。

這就不像寫一個單純的 Chat API,而是比較像「把一個流程圖變成可以跑的程式」。

對工程師來說,它提供了從 prompt 到流程控制的設計彈性;對產品設計來說,它讓 AI 有了「多步驟任務執行」的能力。


技術架構與使用方式

這整套系統是 Fullstack 架構,前後端都幫你整好了,技術選型也非常實用: 

  •  前端:Vite + React + TailwindCSS + Shadcn UI
  •  後端:FastAPI + LangGraph 
  •  核心模型:Google Gemini 2.5 
  •  搜尋引擎:Google Search API
  •  狀態管理:Redis、PostgreSQL 
  •  部署方式:Docker & docker-compose(支援快速整合)

資料夾架構清楚易懂:

gemini-fullstack-langgraph-quickstart/
├─ frontend/        // React 前端專案
├─ backend/         // FastAPI + LangGraph Agent
│    └─ src/agent/graph.py  // 核心 Agent 流程定義
├─ Dockerfile
├─ docker-compose.yml
├─ .env.example     // 環境變數範本


啟動方式也非常直觀:

→ 啟動後端:

  cd backend pip install . langgraph dev 

→ 啟動前端:

  cd frontend npm install npm run dev

→ 使用 Docker 啟動整套環境: 

整個流程不需要額外設定資料庫帳號密碼,範例已經內建開發模式設定,適合開箱即用。(當然要記得設定 ENV)

docker-compose up --build

特別之處

這不只是一個「會說話的 AI」,而是一個會查資料、會思考「查得夠不夠」、能引用來源的智慧 Agent。這正是目前 AI 實務導入時,大家最欠缺的部分:

  •  不只給結論,還給證據
  •  不只一次性回答,而是會動態調整流程
  •  不只 demo 看起來美,還能真正接近落地

這套專案讓你看見如何從一個問題出發,

透過流程控制與語言模型結合,讓 AI 完成一次「完整研究任務」


適合受眾

如果你是想做 RAG、Chatbot、研究助理型 AI 工具的人,這份範例就像是打通任督二脈的那份 demo code。它不只是展示,而是給你一份可直接 clone 下來改成自己產品的骨架。

如果你是開發者,這份 code 清楚、可讀性高、模組設計合理;如果你是設計者,也能從使用流程中思考怎麼設計一個「可信任、有說服力」的 AI 助理系統。

結語

從語言模型到流程引擎,這是一份「能跑」的信任代理原型

我認為這個開源專案的價值,不在於它跑起來多花俏,而在於它幫我們思考了一件事:

如果我們真的想做出可信任、有脈絡、有證據的 AI 系統,我們該怎麼組裝一套可控、可調、可驗證的結構?

這個問題的答案,也許每家公司不同,但這份範例無疑是一個清晰起點。它把 Gemini 的語言能力、LangGraph 的流程控制、與實務搜尋 API 結合,建立了一個具備「反思、引用與任務分解」能力的 Agent 流程。

這不是概念,而是可以直接跑起來、改起來、部署起來的骨幹結構。如果你還在找下一個 AI 助理的切入點,或者想打造一個能幫你查資料、說服老闆的 Agent,那麼,這個 repo,你該好好讀一遍。

工商服務:想實際體驗 AI + 程式創作的可能性嗎?

(這是一場給非工程師,非技術人的活動)我們將用輕鬆但實作導向的方式,帶大家從 zero 到知道 AI 如何融入 coding 流程。無論你是工程師還是設計師,只要對「AI 會寫程式、幫助你創作」這件事有點好奇,來這場就對了。

➡ 講座資訊如下:

📍6/22(日)15:30

🏠 地點:台中 monospace

📝 活動報名頁面:

👉 https://codingbear.kktix.cc/events/ai-vibe-coding-2025-06-taichung

歡迎大家現場見,一起聊聊 AI 怎麼從「回答你問題」進化到「幫你創作程式」這條路上。

Ref

https://github.com/google-gemini/gemini-fullstack-langgraph-quickstart

工商服務 Part2

Vibe Coding 是近來開發圈很火紅的 AI 協作開發模式,結合我們自家 Cympack AI 製造平台,幫助了不少客戶「從想法 → 打樣 → 量產 → 上市」整個新產品流程 🚀。

如果你也有: 

✅ 想開發新產品 

✅ 想做新產品開發、小量客製、快速打樣 

✅ 想了解 AI 協作 + 製造流程怎麼整合

都歡迎來聊聊,我們團隊很樂意協助! 

可以聯絡我,或者來信 

📩 聯絡信箱 👉 service@cympotekc.om 

https://www.cympotek.com/

讓 AI 幫你加速產品落地。

留言

這個網誌中的熱門文章

Vibe Coding:為什麼 Junior 更快上手?Senior 要如何追趕?

現象層面(市場觀察) 最近有篇文章討論 junior & senior 開發者在 AI 時代的角色轉變,非常熱門。 身為 Cympack 產品開發團隊 ,我們也一直關注這個議題,在閱讀這篇文章時觀察到一些有趣的現象,對我們來說,這正好反映出 AI 正在改變開發生態,junior 借力 AI 快速成長、senior 則需要在 「架構思維」 與 「多 agent 協作」 中找到新定位,其中有些啟發(insight) 可以跟大家分享。 為什麼 Junior 更容易上手 vibe coding? 心智負擔低 → Junior 沒有太多傳統 code workflow 的框架包袱 敢於嘗鮮 → Gen Z / 年輕工程師天生習慣用 prompt-based 工具、跟 LLM 互動 少「優雅程式設計」的束縛 → 不太糾結「這樣寫會不會不夠優雅」,反而 embrace 快速迭代、快速出成果 反觀 Senior: 熟悉大型系統設計 有豐富的「工程正統流程」知識(架構設計、測試策略、效能優化、設計模式) 對 AI 生成 code 的品質 / 維護性通常比較保留 部分 10+ 年資深工程師,對 prompt engineering 沒那麼熟練,還在觀望 技能面(未來的關鍵能力) Vibe coding 本質上 = prompt engineering + AI co-pilot 管理能力 能力項目 誰目前比較有優勢? Prompt 撰寫 / AI 互動 Junior 較強(熟悉 chat-based 流程) 系統設計 / 架構把關 Senior 較強 AI 生成 code 驗證 / Bug 察覺能力 Senior 較強(能看出潛在問題) 快速疊代 / Hackathon 式開發 Junior 較強 長期維護性 / 穩定性 Senior 較強 總結 Junior 確實更快適應 vibe coding,並且更習慣以 「chat-based coding」 的工作流開發。 Senior 擁有驗證 AI 產物與系統設計的深度能力,但若不主動練習 vibe coding,長期會逐漸落後於新一波開發潮流。 就如同在 GAI 技術年會分享,希望帶給各位的感受, 『與 AI 協...

RAG 和 Prompt 原理超簡單解說!想知道 AI 怎麼找答案看這篇

這篇文章是給對於你已經開始使用所謂的 ChatGPT / Claude / Gemini 之類的 AI 服務,甚至是 Siri (嘿丟,他也是一種 AI 應用服務喔) 簡單來說是非 技術人員, PM,小白,想要趕快惡補的人 ,直接花十分鐘可以看完的一篇科普業配文章。 或者是概念僅止於,AI 這東西會幻想,會有誤差,會對於生活有些幫助但沒有幫助的人們,做個簡單又不是太簡單的介紹,希望用一個非常入門的方式讓你們有個了解。 當然,這篇文章目的很簡單, 就是引流 ,如果你身邊有已經對於 Web 技術開發的人員,歡迎報名分享給他,年末出國不如學一技在身,參加今年我們舉辦最後一場 RAG 實作工作坊,報名連結 , https://exma.kktix.cc/events/ai-for-dev-course-rag-2 注意: 接下來每個大段落結束都會有一段工商導入,但文章絕對精彩,請注意! 為了讓各位容易想像,我們將整個世界的資訊,先濃縮到這本『西遊記』的世界觀當中,我們整個世界都在這個 『西遊記』 ,而 大型語言模型 我們用 『書精靈』 來描述。 PS. 我們先預設各位,應該都有聽過,西遊記!如果沒有聽過西遊記的,請右轉出去,謝謝! 先來談談向量 在《西遊記》的世界裡,我們可以把 向量想像成一種「內容座標」 ,讓系統知道每個角色、場景、法術等的 「位置」和「距離」 。向量幫助語言模型知道不同內容之間的關聯程度。 向量就像內容的「距離」和「位置」 比方說,唐三藏的 「位置」(向量)會接近「佛經」和「取經」 的概念,因為他一路上都是為了取經而前進。孫悟空的 向量位置則會更靠近「金箍棒」和「七十二變」 這些概念,因為這些是他的特徵。 相似內容靠得更近:像「佛經」和「取經」會靠近唐三藏的向量,因為它們彼此有很強的關聯。 相差較大內容會離得較遠:像「取經」和「妖怪」「妖怪的寶藏」就距離比較遠,因為妖怪的寶藏和取經的目標關聯性不大。 是誰決定的這些位置? 簡單來說,這些位置和關係是模型自己學出來的。語言模型會閱讀大量的資料和這世界觀的資訊,觀察哪些詞語經常一起出現,根據「共同出現的頻率」來決定它們的關係,並且自動生成向量。例如: 如果模型看到 「唐三藏」 總是和 「取經」 一起出現,它就會讓「唐三藏」的向量靠近「取經」。 ...

Vibe Coding 協作到自建 Dev Agent?從 Claude / Codex 到 OpenHands

過去一年,越來越多工程師開始 把 AI 真正帶進工作流程 。從一開始用 ChatGPT、Claude 來問語法問題,到後來很多人愛上 Cursor,直接在編輯器裡讓 AI 幫忙改 code、補 test case、甚至自動整理 PR。這樣的開發體驗,已經大大改變了我們寫程式的方式。 更現實的是,在很多企業內部、政府單位、或涉及機密資料的專案裡, 其實根本不能直接用 Cursor 或雲端 LLM 工具。   畢竟這些服務通常會把資料傳到雲端模型做處理,萬一專案裡有未公開的技術、敏感客戶資料,或是受限於法規 (像金融、醫療、政府標案) ,直接用雲端 AI 工具就會踩 紅線 。  因此,許多團隊反而更希望 「自己架一套 Dev Agent」 ,可以在內網執行,資料完全掌握在自己手上,該整合的內部工具、該讀的私有 repo、該串的 CI/CD pipeline,全部客製化、安全可控。 這時候,像 OpenHands 這樣的開源 Dev Agent 框架就特別有價值。它的出發點不是單純的 AI 助手,而是讓你能夠打造出一個真的可以跑在自己環境裡、可以理解整個開發流程的 AI 工程師。從建置到部署,從 CLI 操作到瀏覽器查詢, 從多檔案編輯到自動測試,全部都能自己完成,甚至還能針對不同專案調整專屬的工作流。 對很多開始探索 AI 協作開發的團隊來說,這是一條 從 「AI 幫你寫一段程式」,走向「AI 幫你解決一整個任務」 的進化路徑。而且,還是在可控、可自定義、安全的環境裡完成的。 🧩 主要概述 OpenHands 是由 All‑Hands AI 開發的開源「軟體開發代理人平台」,能模仿人類工程師從建立程式、修改程式碼、執行指令,到瀏覽網頁、呼叫 API……等一整套開發流程 它提供雲端(OpenHands Cloud)與本地 Docker 運行版本,用戶能配置 LLM(如 Claude、OpenAI、Gemini…) 📚 核心特性與怎麼使用 代理人的工具能力 支援代碼編輯、命令行、執行環境、網頁瀏覽、API 呼叫—接近人類開發者完整技能。其中 OpenHands Cloud 版本提供 $50 試用額度讓大家方便使用,又或者如果自己本機有 docker 的話,可以自己Local 版本透過 Docker 自架環境。 ...