跳到主要內容

2025 肯定要認識 MCP - 以 Cursor + Figma MCP = Self page builder

Cursor + Figma MCP = Self page builder

MCP,全稱「模型上下文協議」(Model Context Protocol),是一種開放標準,旨在讓人工智慧(AI)模型能夠輕鬆連接到外部數據源和工具,例如資料庫、API 和應用程式。它透過一個統一的協議,作為 AI 與外部系統之間的橋樑,使 AI 能夠即時存取數據並執行操作,而無需為每個系統單獨開發適配代碼。

簡單來說,MCP 的核心目標是解決重複開發的問題,讓 AI 模型可以更靈活、高效地與不同的外部資源整合。它就像是 AI 世界的「通用接口」,提升了 AI 應用的實時性和適應性。


---
這邊先採用 Cursor + Figma MCP 的方向來實現自己的實際威力!

請先到這邊建立自己的 Token

https://help.figma.com/hc/en-us/articles/8085703771159-Manage-personal-access-tokens

Settings > Security tab > Personal access tokens section, then click Generate new token.

這個就是你的 Token 請妥善保留。


node.js 環境請安裝建立好,

npx figma-developer-mcp --figma-api-key=<KEY>

啟動正確就會看到如下的畫面資訊

Configuration:
- FIGMA_API_KEY: ****G9Uy (source: cli)
- PORT: 3333 (source: default)

Initializing Figma MCP Server in HTTP mode on port 3333...
HTTP server listening on port 3333
SSE endpoint available at http://localhost:3333/sse
Message endpoint available at http://localhost:3333/messages

Cursor

回到 cursor 在右上角設定的地方,找一下 MCP 的位置, 如果不想要使用 global 設定,也可以在自己的專案設定

.cursor/mcp.json

裡面設定一下

{
  "mcpServers": {
    "Figma MCP": {
      "url": "http://localhost:3333/sse",
    }
  }
}

設定完之後,就可以回到 Cursor setting 裡面,按下

Figma MCP -> enable

如果沒有看到 Figma MCP 的項目,表示你並沒有將上面的這個 json 設定完成,或者設定完了你並沒有儲存,記得要儲存。

如果再不行,請整個 Cursor 退出重開。

如果成功接上了,你可以看到, Figma MCP 是呈現『綠燈』的狀態 而 termail 應該會顯示 New SSE connection established 這樣的資訊。

如果有顯示表示正確成功了。

接著可以找一個 figma 檔案進行試試看建立一個前端的頁面試試看,在終端機應該會顯示這樣的資訊 ...

Fetching all layers of node 1008-23466 from file xxxxxxxxx at depth: all layers Calling https://api.figma.com/v1/files/xxxxxxxx/nodes?ids=xxxxxx

如果有這類的資訊,才表示 Cursor 真正有跟 Figma 是有進行確認串接,並且兩邊有進行溝通。

這樣切版才會漂亮。

如此一來請好好享受你的前端人生,慢走!

留言

這個網誌中的熱門文章

RAG 和 Prompt 原理超簡單解說!想知道 AI 怎麼找答案看這篇

這篇文章是給對於你已經開始使用所謂的 ChatGPT / Claude / Gemini 之類的 AI 服務,甚至是 Siri (嘿丟,他也是一種 AI 應用服務喔) 簡單來說是非 技術人員, PM,小白,想要趕快惡補的人 ,直接花十分鐘可以看完的一篇科普業配文章。 或者是概念僅止於,AI 這東西會幻想,會有誤差,會對於生活有些幫助但沒有幫助的人們,做個簡單又不是太簡單的介紹,希望用一個非常入門的方式讓你們有個了解。 當然,這篇文章目的很簡單, 就是引流 ,如果你身邊有已經對於 Web 技術開發的人員,歡迎報名分享給他,年末出國不如學一技在身,參加今年我們舉辦最後一場 RAG 實作工作坊,報名連結 , https://exma.kktix.cc/events/ai-for-dev-course-rag-2 注意: 接下來每個大段落結束都會有一段工商導入,但文章絕對精彩,請注意! 為了讓各位容易想像,我們將整個世界的資訊,先濃縮到這本『西遊記』的世界觀當中,我們整個世界都在這個 『西遊記』 ,而 大型語言模型 我們用 『書精靈』 來描述。 PS. 我們先預設各位,應該都有聽過,西遊記!如果沒有聽過西遊記的,請右轉出去,謝謝! 先來談談向量 在《西遊記》的世界裡,我們可以把 向量想像成一種「內容座標」 ,讓系統知道每個角色、場景、法術等的 「位置」和「距離」 。向量幫助語言模型知道不同內容之間的關聯程度。 向量就像內容的「距離」和「位置」 比方說,唐三藏的 「位置」(向量)會接近「佛經」和「取經」 的概念,因為他一路上都是為了取經而前進。孫悟空的 向量位置則會更靠近「金箍棒」和「七十二變」 這些概念,因為這些是他的特徵。 相似內容靠得更近:像「佛經」和「取經」會靠近唐三藏的向量,因為它們彼此有很強的關聯。 相差較大內容會離得較遠:像「取經」和「妖怪」「妖怪的寶藏」就距離比較遠,因為妖怪的寶藏和取經的目標關聯性不大。 是誰決定的這些位置? 簡單來說,這些位置和關係是模型自己學出來的。語言模型會閱讀大量的資料和這世界觀的資訊,觀察哪些詞語經常一起出現,根據「共同出現的頻率」來決定它們的關係,並且自動生成向量。例如: 如果模型看到 「唐三藏」 總是和 「取經」 一起出現,它就會讓「唐三藏」的向量靠近「取經」。 ...

2024 推薦關注的 JavaScript 知識

以 js 整體發展來看,目前自己最看好的發展是在於兩個面向,一個部分是 Storybook ,一個部分是 Web container ,為何會是這兩個部分,這邊也分享一下自己的見解。 Storybook Storybook, 如果有用過的朋友都知道,他是屬於前端的展示,可以從 UI 的結構,到 parameter 的傳入,以及 component 如何使用的方式細節呈現等完全呈現。 AI 的到來,加上 Storybook 的呈現,可以讓新發展,或者更新版本的 UI Component 不再是孤兒,很快的 AI 可以學習如何使用新的 Component, 且在同時可以讀取 UI 畫面(Vision) 的狀態下進行識別 UI 在呈現上可以使用的方式。 同時也可以直接了解整體程式碼在使用上可以有怎麼樣參數傳入的方式,甚至是,你只要發展出一套 react 的版本,透過 AI 可以直接透過 Storybook 的版本,直接用最典型的狀態(但不一定效果最佳)轉換成 Vue, 或者 Villina JS 的版本。 這對於開發者,是一個多大的福音,Do Once, Call Everywhere. Web Container Web Container, 正所謂,Container 之下無蟒夫,容器化不只是能夠跑在後端,現在也能夠跑在前端,加速了整體的部署,同時也加速了以往的 SSR 的限制,以往很多時候『it works on my pc』的窘境將不再復見,你的瀏覽器將是我的雲端,You are the edge of mine, 聽起來有多浪漫,光靠這招就是一個歡呼! 完全就是一個端到端,環境的問題接下來將再不是一個問題,以往會有的 Node.js 的問題,接下來都可以在 Web Container 裡面排除掉,直接快速的進行部署實現,同時執行出應用端應該有的樣子。 當然瀏覽器支援度會是一個問題,不過我相信這只是時間的問題而已,相信在座的各位,最多的就是時間! 等吧! JSDC 2024  JavaScript Developer 年度盛會,線上展開。 這次講師要講什麼,就是要講這些有的沒的,還不來聽嗎? 聽懂幾個關鍵字,開心學會一輩子! JSDC 2024 網站: https://2024.jsdc.tw/ JSDC 2024 售票連結: https://www.a...

從易經八卦到 AI 應用:用 LLM 自動化數據整理的工程探險

從 2023 年開始,在去年 為何技術老人這樣想那樣做? 的那場分享之前,就開始探索管理的更多可能性,以及探索更深層的奧秘,宇宙的二進位,生活中的陰與陽,到透過朋友深入探索 8 進位和 64 進位的玄學領域。 一開始只是想將自己體驗進行工程的還原,先是以為透過 ai 可以很快(偷懶)就可以解決掉資訊整理的問題,這邊有些踩雷的過程,以及對於整體實作的紀錄,分享給大家。 人生,原本以為很輕鬆的事情,最後都會不太容易 原本目標是希望將網路上許多的八卦資訊,以及六十四卦象內容,透過 AI 將資料進行彙整,就資料進行整合以及釐清就花了些時間 (汗) 以下且聽我慢慢道來 ... . 思緒步驟 大概步驟會是這樣,首先進行基礎八卦資訊搜集,大概由乾掛到坤卦,這些都可以在網路上容易取得,(這邊採用的是先天八卦順序) https://chatgpt.com/share/672083ea-4000-8010-ae50-3e120d845244 接著進入重點, 64 卦目前並沒有太多工程項目可以進行整合資料,因此主要透過 ChatGPT 產生資訊,以及透過 wiki 進行先達到快速效果。 https://chatgpt.com/share/67208416-c210-8010-9d43-a8c7235a1b03 緊接著,就會得到一串很像是 64 掛的內容, 不看不知道,一看嚇一跳,取得資料中會包含錯誤資訊,對應錯誤的上下卦,但畢竟是電腦,有錯很正常,這才是我認識的 ChatGPT (這邊也有試過 Claude 也有相同問題)。 校正回歸 此時經驗就非常重要,透過 AI 協助我們進行資料編寫比對,但不是單純的比對,而是要先想清楚自己的目標是什麼。 64 卦,兩兩相對。 64 卦,每個卦象不重複。 基礎於一開始 『懶』的狀態 , 首先直覺性的,是將比對錯誤的 json 直接丟入,原本預計透過 chain of thought 的方式,讓 llm 進行重複確認,但 ... 測試發現,需要透過 llm 產出原生資料越大時,隱藏的重複錯誤性會隨之提高。 llm 不轉,我轉 因此,這邊的解法朝向糾錯為主。 首先回到目的性,我們需要得到的結果是 完整的 64 卦象 取得對應的正確上下卦位置。 當我們有這樣明...