跳到主要內容

Chandra OCR 本地部署與實測驗證完整指南

Chandra OCR 是一款功能強大的開源 OCR 模型,專為解決複雜排版、長文檔、模糊掃描件的識別難題而設計 [00:17, 00:54]。它具備 9B 參數,支持超過40種語言(包含中文及手寫體),並能進行結構化輸出(如 Markdown, HTML),有效處理表格、公式、頁眉頁腳等複雜元素 [01:26]。

一、 安裝與部署步驟

影片介紹了兩種部署方式,一種是透過 M Studio (應為 LM Studio) 的簡易安裝,另一種是透過官方倉庫在 Ubuntu 系統上進行本地部署。

方式一:M Studio (簡易安裝)

  1. 在 M Studio 中,點擊「發現」(Discover) [02:02]。
  2. 在搜索框中輸入模型名稱(Chandra OCR)。
  3. 選擇 4-bit 或 8-bit 的量化版本。
  4. 點擊「下載」即可開始使用 [02:12]。

方式二:官方倉庫本地部署 (以 Ubuntu 為例)

影片重點演示了在 Ubuntu 系統上的部署流程 [02:23]:

  1. 安裝 uv:

    # 執行命令安裝 uv
    [00:02:27] (影片中顯示了相關命令)
  2. 克隆 (Clone) 官方倉庫:

    # 執行 git clone 命令
    [00:02:30] (影片中顯示了相關命令)
  3. 進入項目目錄:

    # 執行 cd 命令進入項目路徑
    [00:02:34] (影片中顯示了相關命令)
  4. 安裝項目依賴:

    # 使用 uv 命令安裝項目
    [00:02:38] (影片中顯示了相關命令)
  5. 激活虛擬環境:

    # 執行命令激活虛擬環境
    [00:02:43] (影片中顯示了相關命令)
  6. 安裝 Chandra OCR:

    # 使用 pip 命令安裝
    [00:02:47] (影片中顯示了相關命令)

二、 啟動與測試驗證

部署完成後,影片展示瞭如何啟動 Web UI 界面並進行多項功能驗證。

啟動 Web UI

  1. 執行官方提供的命令來啟動 Demo UI [02:59]。
  2. 啟動成功後,在瀏覽器中打開對應的本地地址 [03:06]。
  3. 在 UI 界面左側,點擊下拉菜單並選擇「HF」來加載模型。此時後端會開始下載模型權重文件 [03:13]。

實測驗證

影片使用了多種複雜文檔來驗證 Chandra OCR 的強大能力:

  1. 測試 1: 長文檔掃描件 (含頁眉頁腳)

    • 內容: 包含頁眉和底部頁腳的掃描PDF [03:26]。
    • 結果: 成功識別並提取了頁眉和頁腳的內容 [03:46],這在其他模型(如 DeepSeek OCR)中會被遺漏 [00:37]。輸出保留了原文的分段格式(使用 HTML P 標籤) [03:53]。
  2. 測試 2: 手寫體文件

    • 內容: 一份手寫文件 [04:28]。
    • 結果: 識別結果與原文件完全一致,沒有任何識別錯誤 [04:35]。
  3. 測試 3: 模糊 PDF (中文 + 重疊代碼)

    • 內容: 包含中文、小字體,以及故意設置為有重疊區域的代碼 [04:48]。
    • 結果: 成功保留了標題的加粗格式 [04:55],並準確提取了重疊部分的代碼 [05:06] 和文檔中的序號 [05:13]。
  4. 測試 4: 模擬考試卷 (含注音)

    • 內容: 包含複雜排版和注音的考試卷 [05:20]。
    • 結果: 完美保持了試題的原有格式 [05:30],連同試題中的注音符號也成功顯示 [05:37]。同時提取了左側邊欄和底部的頁碼 [05:44]。
  5. 測試 5: 複雜排版論文 (中英、公式、表格)

    • 內容: 非常模糊、排版複雜,包含中英文、數學公式和表格的論文掃描件 [05:50]。
    • 結果: 準確還原了格式(如標題加粗) [06:02],數學公式 [06:15] 和表格內容 [06:18] 均被正確提取。
  6. 測試 6: 混亂排版的學習筆記

    • 內容: 排版隨意,包含對號、差號、星號和角落小字的筆記 [06:42]。
    • 結果: 準確識別了對號(✓)和差號(✗) [06:52],保留了星號(*) [07:05],並成功提取了右上角的小字和左下角的紅色關鍵字 [07:09]。
  7. 測試 7: 複雜表格 (含重疊文字)

    • 內容: 故意在單元格中設置重疊文字的模糊表格 [07:26]。
    • 結果: 即使是重疊的文字,模型也能成功並準確地提取出來 [07:43, 07:49]。
  8. 測試 8: 複雜文件 (含圖表)

    • 內容: 包含柱狀圖和表格的模糊文件 [08:06]。
    • 結果: 成功將掃描件中的柱狀圖直接提取為圖像格式進行展示 [08:17],表格內容也準確提取 [08:25]。
  9. 測試 9: 古書掃描件 (繁體字)

    • 內容: 豎排版的繁體字古書 [08:28]。
    • 結果: 準確識別了所有繁體字及標點符號,與原文保持一致,沒有錯誤 [08:42]。

總結

Chandra OCR 在處理各種極端複雜和模糊的文檔時表現出色,不僅識別準確率高,還能保留原始格式、處理圖表,並且不會遺漏頁眉頁腳等關鍵內容,對於需要處理複雜 PDF 文檔的場景,是一款效果非常優秀的模型。

本文內容根據影片(🚀超越DeepSeek-OCR!OCR领域的革命性突破:Chandra OCR本地部署+真实测评! ,涵蓋了安裝部署與測試驗證。

留言

這個網誌中的熱門文章

Vibe Coding:為什麼 Junior 更快上手?Senior 要如何追趕?

現象層面(市場觀察) 最近有篇文章討論 junior & senior 開發者在 AI 時代的角色轉變,非常熱門。 身為 Cympack 產品開發團隊 ,我們也一直關注這個議題,在閱讀這篇文章時觀察到一些有趣的現象,對我們來說,這正好反映出 AI 正在改變開發生態,junior 借力 AI 快速成長、senior 則需要在 「架構思維」 與 「多 agent 協作」 中找到新定位,其中有些啟發(insight) 可以跟大家分享。 為什麼 Junior 更容易上手 vibe coding? 心智負擔低 → Junior 沒有太多傳統 code workflow 的框架包袱 敢於嘗鮮 → Gen Z / 年輕工程師天生習慣用 prompt-based 工具、跟 LLM 互動 少「優雅程式設計」的束縛 → 不太糾結「這樣寫會不會不夠優雅」,反而 embrace 快速迭代、快速出成果 反觀 Senior: 熟悉大型系統設計 有豐富的「工程正統流程」知識(架構設計、測試策略、效能優化、設計模式) 對 AI 生成 code 的品質 / 維護性通常比較保留 部分 10+ 年資深工程師,對 prompt engineering 沒那麼熟練,還在觀望 技能面(未來的關鍵能力) Vibe coding 本質上 = prompt engineering + AI co-pilot 管理能力 能力項目 誰目前比較有優勢? Prompt 撰寫 / AI 互動 Junior 較強(熟悉 chat-based 流程) 系統設計 / 架構把關 Senior 較強 AI 生成 code 驗證 / Bug 察覺能力 Senior 較強(能看出潛在問題) 快速疊代 / Hackathon 式開發 Junior 較強 長期維護性 / 穩定性 Senior 較強 總結 Junior 確實更快適應 vibe coding,並且更習慣以 「chat-based coding」 的工作流開發。 Senior 擁有驗證 AI 產物與系統設計的深度能力,但若不主動練習 vibe coding,長期會逐漸落後於新一波開發潮流。 就如同在 GAI 技術年會分享,希望帶給各位的感受, 『與 AI 協...

Vibe Coding 協作到自建 Dev Agent?從 Claude / Codex 到 OpenHands

過去一年,越來越多工程師開始 把 AI 真正帶進工作流程 。從一開始用 ChatGPT、Claude 來問語法問題,到後來很多人愛上 Cursor,直接在編輯器裡讓 AI 幫忙改 code、補 test case、甚至自動整理 PR。這樣的開發體驗,已經大大改變了我們寫程式的方式。 更現實的是,在很多企業內部、政府單位、或涉及機密資料的專案裡, 其實根本不能直接用 Cursor 或雲端 LLM 工具。   畢竟這些服務通常會把資料傳到雲端模型做處理,萬一專案裡有未公開的技術、敏感客戶資料,或是受限於法規 (像金融、醫療、政府標案) ,直接用雲端 AI 工具就會踩 紅線 。  因此,許多團隊反而更希望 「自己架一套 Dev Agent」 ,可以在內網執行,資料完全掌握在自己手上,該整合的內部工具、該讀的私有 repo、該串的 CI/CD pipeline,全部客製化、安全可控。 這時候,像 OpenHands 這樣的開源 Dev Agent 框架就特別有價值。它的出發點不是單純的 AI 助手,而是讓你能夠打造出一個真的可以跑在自己環境裡、可以理解整個開發流程的 AI 工程師。從建置到部署,從 CLI 操作到瀏覽器查詢, 從多檔案編輯到自動測試,全部都能自己完成,甚至還能針對不同專案調整專屬的工作流。 對很多開始探索 AI 協作開發的團隊來說,這是一條 從 「AI 幫你寫一段程式」,走向「AI 幫你解決一整個任務」 的進化路徑。而且,還是在可控、可自定義、安全的環境裡完成的。 🧩 主要概述 OpenHands 是由 All‑Hands AI 開發的開源「軟體開發代理人平台」,能模仿人類工程師從建立程式、修改程式碼、執行指令,到瀏覽網頁、呼叫 API……等一整套開發流程 它提供雲端(OpenHands Cloud)與本地 Docker 運行版本,用戶能配置 LLM(如 Claude、OpenAI、Gemini…) 📚 核心特性與怎麼使用 代理人的工具能力 支援代碼編輯、命令行、執行環境、網頁瀏覽、API 呼叫—接近人類開發者完整技能。其中 OpenHands Cloud 版本提供 $50 試用額度讓大家方便使用,又或者如果自己本機有 docker 的話,可以自己Local 版本透過 Docker 自架環境。 ...

Google Gemini 全端 AI Agent 快速入門 - 打造「思考」的 AI 助理

一套從搜尋、反思到輸出的全端 AI 代理人範例,讓你看懂什麼叫 Research Agent 在 AI 工具百家爭鳴的今天,大家都在問一個問題: 「我能不能不只問 AI 答案,而是讓它像一位助理一樣,有流程、有反思、還有出處,真正幫我完成一件事?」 Google 最近釋出了一個相當具有指標意義的開源專案 gemini-fullstack-langgraph-quickstart ,正是為了解這個問題而誕生。 這套系統到底是什麼? 這個範例不是傳統 Chatbot,而是展示一個完整的 AI research agent : 它會根據使用者的提問,自動發想搜尋關鍵字、查資料、整合重點,最後給出答案還附上引用來源。背後的邏輯設計得非常扎實,不只是能跑,更是具備可讀性、可擴展性與可商用性。 它的流程大致如下:  1. 使用者輸入問題(例如:「抖音是否影響台灣選舉?」)  2. Gemini LLM 幫你想出關鍵字(不只是照抄問題)  3. 呼叫 Google Search API 抓資料   4. LangGraph 控制流程 → 判斷資料夠不夠 → 若不足,自動補查  5. 整合最終答案,並產生 citation(來源說明) 你可以想像這就像一位實習助理幫你寫報告, 不只輸出一段內容,而是會 去查、會判斷、會補資料,而且說明「我為什麼這樣說」 。 LangGraph 是什麼角色? LangGraph 就是整個 Agent 背後的控制系統 。 用白話講,它幫你定義 AI 每一步要幹嘛、遇到什麼狀況該走哪條路、要不要反思、要不要再查,甚至可以定義條件邏輯與資料流動。 這就不像寫一個單純的 Chat API,而是比較像「把一個流程圖變成可以跑的程式」。 對工程師來說,它提供了從 prompt 到流程控制的設計彈性;對產品設計來說,它讓 AI 有了 「多步驟任務執行」 的能力。 技術架構與使用方式 這整套系統是 Fullstack 架構,前後端都幫你整好了,技術選型也非常實用:   前端:Vite + React + TailwindCSS + Shadcn UI  後端:FastAPI + LangGraph...