top of page
Abstract Background

研究

在 APMIC,我們致力於推動 AI 技術研究與應用創新,深耕私有化 LLM、模型微調(Fine-tuning)、蒸餾等前瞻技術。我們不僅專注於開發最適合企業的 AI 解決方案,更希望透過淺顯易懂的方式,將我們的研究成果分享給更多人,讓 AI 技術不再是艱深的專業知識,而是每個人都能理解並應用的強大工具。

ACE-1 Series

APMIC 繁中推理模型、多模態模型

ACE-1-3B 台灣首款可於手機端運行的 3B 參數繁體中文語言模型,現透過 MCP(Model Context Protocol, MCP)協議,得以連接企業內外部系統,實現自然語言驅動的資訊查詢、流程操作與決策支援,打造全新的智慧人機互動介面,亦支援與外部 API、ERP 系統及 IoT 裝置串接。

​搭配 APMIC 提供的 PrivModel 模型微調與蒸餾方案加上模型代工,企業得以輕鬆打造專屬的地端模型,無論是在中低階 GPU 或嵌入式平台上部署,皆可順暢運行並即時回應,大幅降低導入 AI 解決方案的技術與成本門檻,滿足工業設備製造商、科技公司、行動裝置品牌及機器人與人機介面(HMI)應用領域等對於邊緣部署、低功耗與快速響應的需求。

20250721_zhiting_研究頁網站圖.png

CaiGunn 34B

APMIC 繁中通用語言模型

於 2024 年 1 月登上由 Hugging Face 設立的全球開放大語言模型排行榜,以平均分數 71.19 暫居全球第 64 名,並榮獲臺灣第 1 名,成為臺灣在國際語言模型領域的重要里程碑。

CaiGunn 34B 採用 APMIC 自研的 Brainformers 架構,結合 LLaMA 模型基底,融合 Mamba 動態計算流程、Transformer 架構與 Mixture of Decoding Experts(MoDE)技術,打造具備高精度與靈活性的生成能力。全模型運行於 NVIDIA NeMo Framework 上,具備高效的分散式訓練與推理部署能力,支援企業在地端導入與私有化應用需求。

研究頁面 圖.png
scott-blake-x-ghf9LjrVg-unsplash.jpg

歡迎來到 Gemmaverse:分享關於 Gemma 的歷史,以及最新在 Google I/O 的模型 Gemma 3n的比較

APMIC 創辦人兼執行長 Jerry Wu

在 I/O Extended Taipei 活動中,APMIC 創辦人暨執行長 Jerry Wu 也深度分享了 Gemma 模型的演進歷程,並解析全新推出的 Gemma 3n 與系列模型(TxGemma、SignGemma、DolphinGemma)在各場景下的應用差異與潛力。

scott-blake-x-ghf9LjrVg-unsplash.jpg

運用 Google AI 技術快速打造多模態應用原型

APMIC MLOps 工程師 Simon 劉育維

APMIC MLOps 工程師劉育維(Simon Liu)受邀參與 Google Cloud Summit Taipei,現場展示如何結合 Google Gemini 強大 AI 模型,透過自然語言快速打造多模態應用原型(Prototype)。不論是圖像、文字還是結構化資料,只需一段對話,即可實現概念轉化,讓創新更有效率地落地。

scott-blake-x-ghf9LjrVg-unsplash.jpg

Knowledge Distillation in Enterprise AI

APMIC 創辦人兼執行長 Jerry Wu

APMIC CEO Jerry 受邀於 2025 Generative AI 開發者年會演講,分享模型微調與蒸餾技術如何解決企業落地的挑戰,真正打造專屬的主權AI,現場獲得許多開發者的迴響與討論

scott-blake-x-ghf9LjrVg-unsplash.jpg

透過知識蒸餾與測試階段擴展提升,LLM 準確度與運算效率

APMIC 創辦人兼執行長 Jerry Wu

APMIC CEO Jerry 更受邀於 GTC Taipei 演講,分享我們在 AI 模型精煉與商業化應用上的第一手經驗,引發現場熱烈回響,與國際技術社群深度對話,拓展更多合作可能。

scott-blake-x-ghf9LjrVg-unsplash.jpg

私有化 LLM 怎麼導?APMIC x 研華揭開企業 AI 部署實戰關鍵!

APMIC 共同創辦人兼產品負責人 Eli

受到研華邀請,參與digitimes研討會, APMIC 分享他們在製造、金融、政府機構導入私有化 LLM 的第一手經驗,深入解析:為什麼「知識管理」是最適合 LLM 的第一步?APMIC 如何用自訓模型、資料蒸餾與微調技術強化回應品質?

scott-blake-x-ghf9LjrVg-unsplash.jpg

APMIC × Twinkle AI|繁體中文推理資料集三大禮包開源發布|打造台灣 LLM 最強語料庫

APMIC 行銷團隊

APMIC 與 Twinkle AI 社群合作發起資料集建置計畫,打造三大繁體中文推理資料集,全面涵蓋數理邏輯、日常推理與工具指令應用三大面向。

scott-blake-x-ghf9LjrVg-unsplash.jpg

APMIC 3B語言模型現已結合MCP協議 「Formosa-1」引領自然語言驅動智慧裝置革命

APMIC 行銷團隊

APMIC與Twinkle AI社群開發之輕量級3B參數語言模型「Formosa-1」,現已可整合模型上下文協定(Model Context Protocol, MCP),進行深度整合,實現自然語言控制系統與低成本地端部署

scott-blake-x-ghf9LjrVg-unsplash.jpg

[ 新模型 ] 最小繁體中文推理模型 — Formosa-1 (Llama-3.2–3B-F1)模型

APMIC MLOps 工程師 Simon 劉育維

Twinkle AI 社群與 APMIC 合作推出繁中語境下的最小模型 Llama-3.2–3B-F1,由國網中心技術指導,針對台灣任務需求微調,兼具輕量與實用性。本文將介紹其特色與應用潛力。

scott-blake-x-ghf9LjrVg-unsplash.jpg

AI 新紀元:從 GTC25 看 Blackwell 與 AI Agent 落地方案的未來

APMIC 創辦人兼執行長 Jerry Wu

NVIDIA 在 GTC25 展示了許多令人驚豔的創新與應用,尤其是 Blackwell 架構與 Agentic AI 的崛起。Will 保哥的技術交流中心的直播邀請 APMIC 的創辦人 Jerry Wu 來幫我們聚焦 GTC 2025 大會上的重大發布與觀察,探討未來 AI 在開發與部署上的可能方向。

bottom of page