在談論本地大型語言模型(LLM)時,多數人第一時間想到的仍然是 Ollama。
它解決了「我能不能在自己電腦上跑模型」這件事。
但 osaurus 問的,是下一個問題:
如果 LLM 不是一個外掛工具,而是 macOS 的原生能力,會發生什麼事?
定位先行:osaurus 不是「另一個 Ollama」
https://github.com/dinoki-ai/osaurus
osaurus(by dinoki-ai)從一開始就沒有打算與 Ollama 正面競爭「模型數量」或「跨平台」。
它的定位非常清楚:
只為 macOS
只為 Apple Silicon
只為「低延遲、本地、可控」的 AI 系統整合
這不是妥協,而是戰略選擇。
當多數本地 LLM 解決方案仍停留在「能跑模型」的層次時,
osaurus 直接跳到下一層 —— AI 作為作業系統能力的延伸。
為什麼它快?因為它根本不是同一個技術路線
1. 極致輕量,不是口號
二進制檔案約 8MB
無 Docker、無虛擬化層
Swift 原生開發,直接貼近系統
對比 Ollama 的體量與依賴,osaurus 幾乎是「裸跑」。
2. MLX + Apple Silicon,是硬體與軟體的正交解
osaurus 使用 Apple 的 MLX 框架,這不是單純的效能優化,而是架構選擇。
結果是什麼?
在 M3 Max 上,實測回應速度比 Ollama 快約 30%
記憶體使用更穩定
模型載入後的系統壓力顯著降低
這種快,不是 benchmark 的快,而是「你會感覺到它在你手上」。
真正的分水嶺:MCP(Model Context Protocol)
如果只談效能,osaurus 仍然只是「更快的本地 LLM」。
但 MCP 才是它的真正殺手鐧。
MCP 解決的不是推理,而是「行動」
透過 MCP,osaurus 可以:
成為 Cursor、Claude Desktop、VS Code 的後端
讓 AI 直接存取本地系統能力
行事曆
郵件
Git 倉庫
Terminal
macOS 原生 App
甚至 GUI 操作(Accessibility API)
這意味著一件事:
AI 不再只是回答你,而是能幫你「做事」。
從工具到工作流:osaurus-tools 的真正價值
osaurus 附帶的不是「插件」,而是一組 可被組合的行為模組:
Headless WebKit:瀏覽器自動化
Git 操作:Diff、Review、提交建議
macOS UI 自動化:文字 → 行為
行事曆 / 任務管理
Emacs、開發者工具整合
這讓 AI 從「單次對話」升級為 可重複執行的工作流節點。
原生 macOS 整合,才是它最容易被低估的地方
幾個細節,卻極具指標意義:
Menu Bar Chat:AI 就在你系統裡,而不是瀏覽器分頁
Apple Foundation Models 支援
與系統權限、隱私模型高度一致
這不是 UX 美化,而是一個訊號:
osaurus 並不把 macOS 當成「跑模型的地方」,
而是把 AI 當成 macOS 的一個系統層。
限制與風險:它不適合所有人
必須誠實地說:
❌ 只支援 macOS(且強烈建議 Apple Silicon)
❌ 專案仍在高速迭代期
❌ 模型生態不如 Ollama 成熟
❌ 需要適應 MLX 模型與新的管理方式(如 ~/MLXModels)
如果你要的是 Production-ready、穩定不變、跨平台 —— 那現在的 osaurus 不是答案。
那誰「應該」關注 osaurus?
非常適合你,如果你是:
Mac 重度使用者
開發者 / 技術管理者 / Power User
正在使用 Cursor、Claude Desktop
對「本地 AI + 系統整合」有長期想像
想把 AI 變成 工作的一部分,而不是聊天工具
不適合你,如果你是:
Windows / Linux 使用者
只想要「開箱即用、永不變動」
不打算碰 MCP 或系統層整合
結語:osaurus 其實在回答一個更大的問題
osaurus 真正有趣的地方,不在於它比 Ollama 快多少。
而在於它在實驗一件事:
當 AI 不再是雲端服務,而是你電腦的一部分,
我們還會用同樣的方式思考「工具」嗎?
這條路很早、很前沿、也很不穩定。
但正因如此,它值得被關注。
如果你手上正好有一台 M 系列的 Mac,
osaurus 可能不是你「唯一」的本地 LLM,
但很可能會是你 最接近未來的一個。
留言
張貼留言