回顧 2025 年的 AI 發展,從年初 Manus 的橫空出世,到年底 Meta 以超過 20 億美元將其收購;從 Claude Code 重新定義開發者工作流,到 MoE 架構讓小模型也能挑戰巨頭。種種跡象都指向同一個方向:AI 正從「會回答問題」走向「會把事情做完」。
然而到了年末反思時,我們必須誠實面對一個問題:Agent 元年是否只是一個新的口號?
本文將回顧 2025 年的關鍵發展,並對 2026 年提出我們的判斷。
Agent 元年:從概念驗證到產品化
2025 年我們看見了什麼
在 2024 年初,人工智慧專家吳恩達(Andrew Ng)就將 AI Agent 列為最值得關注的 AI 發展趨勢之一,而 2025 更是 AI Agent 加速落地的一年,從 Demo 到產品化,開始有人應用 AI Agent 。
AI Agent(AI 代理人)是一種具備自主規劃能力的智慧系統。與傳統對話模型不同,AI Agent 能夠接收使用者需求,自行拆解步驟、調用工具、執行任務並交付最終結果。2025 年被業界普遍視為 AI Agent 的落地元年。
年初,新創公司 Manus 推出號稱全球首個通用型 AI Agent,展示了自主決策與多步驟任務執行的能力。與傳統對話式 AI 不同,Manus 的 Agent 能獨立完成資料分析、程式撰寫、市場研究等複雜工作流程。這波技術浪潮引發科技巨頭高度關注,Meta 在年底以超過 20 億美元完成收購,正式揭開 AI Agent 兵家必爭的序幕。
與此同時,主流大型語言模型平台紛紛將「深度研究(Deep Research)」等多步驟工作流產品化。OpenAI 與 Anthropic 更進一步發表 Computer-Using Agent(能像人一樣看螢幕、點按鈕、填表完成任務的 AI),將「行動」的範疇擴展到整個數位世界。
這一年也出現了一個成功案例:Claude Code。雖然多數人將它定位為「寫程式的工具」,但它的設計理念直指 Agent 的核心,只要有夠強的大型語言模型,搭配能存取電腦的各種工具,就足以建構一個相當通用的 Agent。
目前的瓶頸在哪裡
然而,多數 Agent 應用仍處於早期階段,離大規模日常採用尚有距離。
問題不在於模型的語言能力不足,而在於「行動」本身牽涉到系統性挑戰:叫工具做事會不會常出錯、資料存取的權限控管、出了錯怎麼救回來、要能讓人追查、也要符合規範,以及最關鍵的,如何在不確定情境下適時將人類納入決策流程。
AI Agent 可以 24/7 不間斷運作,但如果每一步都得等人工逐項確認,自動化就很難真的跑起來。
2026 年我們推估會怎麼走
如何設計一套工程流程,讓 Agent 產出後能自動檢查、自動修好、形成自動修好的循環,將是關鍵課題。
以大數軟體為例,我們正在研究的方向是:當線上系統產生錯誤紀錄(log)時,AI Agent 能根據錯誤訊息自動修復程式,甚至自動開立 PR(Pull Request,程式碼變更請求),讓系統能自己發現問題、自己提出修正。
Agent 已經能「做事」,但要大規模採用,關鍵在於建立「自動檢查 → 自動修好」的循環。
拖拉式工具的角色轉變:從設計層到治理層
2025 年我們看見了什麼
n8n、Zapier、Make 等拖拉式流程自動化工具,過去幾年為企業提供了巨大價值。透過視覺化的節點串接,即使非技術人員也能快速建構自動化流程。這類 No/Low-Code 工具降低了自動化門檻,讓建立「自動化」不再是工程師的專利,也形成了大量企業導入、顧問與教育訓練的市場。
但實務上,對非技術團隊而言,能做出 MVP(最小可行產品)是一回事,要做到穩定、能長期運作、出了事查得到原因,通常仍需要工程或 IT 團隊的深度參與。
設計層 vs. 意圖驅動
拖拉式工具的核心邏輯是「預設的自動化流程」:使用者必須明確定義每一個步驟、每一條資料流向、每一個條件判斷。這在「前 Agent 時代」是合理的,因為系統無法理解使用者意圖,只能執行固定指令。
但 Agent 的本質是「意圖驅動」:你給它目標,它自行拆解任務、選擇工具、執行流程、處理異常、交付結果。在這個框架下,花時間「拖拉點選」,本質上是在做 Agent 應該自動完成的工作。
混合模式:Agent + 流程
這並不代表我完全否定 n8n 這類工具的價值。
2026 年更可能出現的,是一種混合模式:常見情況下,Agent 會處理大部分動態流程;流程工具更像是用來監控、稽核與留紀錄。
No/Low-Code 工具不會消失,但角色會從「設計流程」轉向「管理流程、留紀錄」。
新一代流程工具如 Google 的 Opal,已經開始讓使用者以自然語言建立流程,同時滿足 Agent 與合規的雙重需求。
拖拉式工具的價值重心將從「流程設計」轉向「治理、稽核與可追溯」,設計層的比重會被意圖驅動方式稀釋,但治理層的角色反而更加關鍵。
小模型與邊緣運算:人人都能安裝自己的 AI
2025 年我們看見了什麼
過去幾年,AI 產業瀰漫著「參數決定一切」的氛圍。動輒數百 B參數的模型固然展現驚人能力,但也意味著高昂的運算成本與部署門檻。
MoE(Mixture-of-Experts,專家混合)架構的普及,改變了這個局面。
MoE(Mixture-of-Experts,專家混合)是一種高效的 AI 模型架構。它的運作原理類似配置多位專長師傅的廚房:傳統模型像一位全能大廚,MoE 則讓領班根據訂單分派給最合適的專家。結果是模型總參數量可以很大,但每次實際運算只動用一小部分,大幅降低運算成本。
DeepSeek 在年初的橫空出世,讓業界見證了 MoE 的威力,將原本動輒數千萬甚至上億美元的訓練成本,壓縮到數百萬美元等級。自此,MoE 成為模型架構的新標準。
至此之後,MoE 的存在感快速上升:用更低的推理成本,改寫大家對模型規模與成本的想像。包含 OpenAI 釋出的 gpt-oss-20b 與 gpt-oss-120b、DeepSeek-R1、Kimi K2 Thinking 等模型,皆採用此架構。不少評測與報告顯示,MoE 在 2025 的能見度明顯上升
邊緣運算的實際可行性
由於 MoE 架構所需運算資源大幅降低,這些模型特別適合在消費級硬體上運行:高階顯示卡、NVIDIA DGX Spark、甚至 Mac M4 Pro/Max 與 M3 Ultra。
這開啟了「邊緣運算 + 小模型」的實際可行路徑:企業無需依賴昂貴的雲端算力,即可在本地部署 AI 能力。
不只是省錢,更是數據主權
但成本只是一部分。對企業而言,更大的驅動力是「數據不出門」。
不僅是為了省下 GPU 預算,更是為了讓最敏感的企業數據,能在完全不聯網的環境下被 Agent 安全地處理。
對於 大數軟體(LargitData)服務的 Enterprise AI 客戶而言,利用RAGi 結合邊緣運算,是確保數據隱私並採用 AI 最核心的理由。
年底,Apple 在 macOS Tahoe 26.2 正式啟用了 RDMA(遠端直接記憶體存取)over Thunderbolt,可用於分散式 AI 推理。第三方測試顯示,過去將多台 Mac 串連的效能反而更差,但加入 RDMA 後,效能顯著提升,讓在邊緣跑大模型這條路突然變得可行。
關鍵是成本差距:同樣的推理能力,邊緣方案的成本可能只有企業級 GPU 方案的十分之一不到。
2026 年我們推估會怎麼走
我們預期將有更多中小企業採用邊緣運算+小模型,不只便宜,更重要的是安全。
MoE + 邊緣運算,讓「每家公司都能有自己的 AI」從口號變成現實,不只安全,還更省錢
從 Vibe Coding 到 Vibe Engineering
2025 年我們看見了什麼
Andrej Karpathy 提出的「vibe coding」一詞引發廣泛討論,甚至被 Collins 英語詞典選為年度詞彙。
Vibe Coding 是一種 AI 主導的開發模式。開發者提供自然語言需求,AI 生成程式碼,開發者僅檢視結果是否符合預期,而不深入審視程式碼本身。這種模式在 2025 年被 Collins 詞典選為年度詞彙,反映了 AI 輔助開發的普及程度。
批評者指出這種模式存在顯著風險。紐約大學網路安全中心的研究顯示,GitHub Copilot 生成的程式碼約有 40% 含有安全漏洞。
然而,若據此全盤否定 vibe coding,恐怕忽略了一個關鍵事實:人類撰寫的程式碼同樣充斥漏洞。Synopsys 的報告指出,81% 的程式碼庫至少包含一個已知漏洞。
我的觀點轉變
坦白說,2024 年時我對 AI 寫程式的能力並不樂觀。那個階段,我只願意讓 AI 碰一些「風險較低」的工作,例如前端實作。
但很快我就發現,前端開發中有大量高頻、低差異的實作與調整,HTML 結構、CSS 樣式、響應式適配,這些工作重複性高,特別適合被自動化工具吸收,讓工程師能專注在更高價值的互動設計與效能優化上。
真正讓我遲疑的,一直是後端。後端牽涉架構、資料流、邊界條件與風險,我那時不相信 AI 能把這些事情「真的寫對」。
直到 2025 年 4 月,Claude Code 那一代模型出來後,我第一次被迫改變看法。我看到的不是「輔助寫程式」,而是 AI 已經可以獨立處理前端,同時把後端那些容易出錯的地方一併解決。甚至連完整的 POC,都能從零到一由 AI 獨立完成。
Claude Code 之父 Boris 分享,他過去 30 天開發 Claude Code 時提交了數百個程式碼變更、新增數萬行程式碼、刪除數萬行,全部都是 Claude Code + Opus 4.5 寫的。
Vibe Engineering:資深工程師的價值重塑
然而問題的核心從來不是「程式碼由誰產生」,而是「是否有健全的品質管控流程」。無論程式碼來自人類或 AI,都需要經過測試、審核、做過安全掃描(例如弱點掃描),這是專業軟體團隊的基本常識。
因此與其談 Vibe Coding,更成熟的做法是「vibe engineering」:資深工程師負責架構設計、規格定義與品質把關,AI 則在既定框架內高效產出程式碼。人類掌握設計決策與最終審核,AI 負責加速執行。
工程師的重心會從「寫程式」轉向「定規格、把關品質、管好 Agent」。
過去,資深工程師的價值常常被「寫 code 的速度」所稀釋,明明該花時間在架構設計、技術選型、風險評估上,卻被瑣碎的實作細節拖住。當 AI 能接手大量的 coding 工作,資深工程師反而能回歸本業:定義問題、設計系統、把關品質。
2026 年我們推估會怎麼走
AI 輔助工程將更深入開發流程:自動生成測試案例、自動執行靜態分析、自動進行安全掃描,甚至自動修復特定類型的問題。開發者的角色將從「程式碼生產者」轉型為「AI 工具的管理者與品質守門人」。
重點不是「誰寫程式」,而是「有沒有好的品質管控流程」
UI 生成化:從固定介面到動態渲染
2025 年我們看見了什麼
傳統使用者介面開發存在一個根本性的效率問題:每一種互動需求都必須預先設計、開發、測試、部署。
舉例而言,一個「訂單排序」功能,若使用者臨時需要「多條件排序」,開發團隊就必須重新設計 UI、調整互動邏輯、修改驗證規則、進行測試、最後上線。大量時間與資源耗費在往返溝通,而非「解決問題」本身。
A2UI:即時生成的互動介面
2025 年 12 月,Google 公開了 A2UI(Agent-to-UI)專案。
A2UI(Agent-to-UI)是一種全新的介面生成模式。Agent 根據對話脈絡與任務需求,即時產生所需的互動介面,無需經過傳統的設計→開發→上線循環。
UI 不再是一套寫死的畫面,而是會跟著需求即時長出來。
在這個模式下,前端不再是「寫死的頁面」,而是「渲染引擎」,接收 Agent 產生的結構化 UI 描述,即時呈現對應的互動元件。使用者用自然語言描述需求,Agent 理解後直接生成適切的介面。
A2UI 的設計也考量了安全性:它以「不執行任意程式碼」為前提,避免將安全風險轉嫁給前端。
當 Agent 成為服務的主要使用者
這個趨勢的影響不僅止於介面開發效率。當「Agent 替使用者操作介面」成為常態,許多服務的真正使用者將從「人」變成「人的 Agent」。
使用者體驗專家 Jakob Nielsen 指出,未來的互動模式可能是:人對自己的 Agent 下達指令,Agent 再去與各種服務互動。Deloitte 將這種趨勢稱為「Invisible Interfaces / Zero UI」,使用者旅程不再是一頁頁的點擊,而是由環境訊號與智能行為串接而成。
對 UI/UX 設計師與前端工程師而言,這意味著職能重心的轉移:從「切版與樣式實作」走向「設計系統規範、可用性把關、效能優化與資安控管」,這些在生成式介面時代反而更加重要。
固定 UI 的開發占比會下降,但前端不會消失,職能重心將轉向設計系統、可用性與品質把關。
多模態成熟:從「會看」到「會做」
2025 年我們看見了什麼
多模態能力的成熟,是讓前述所有趨勢真正落地的關鍵。
OpenAI 發表的 Operator / Computer-Using Agent,展示了 AI「觀看 GUI → 理解內容 → 點擊輸入 → 完成任務」的完整能力。Anthropic 的 Claude Computer Use 同樣讓模型能透過螢幕截圖、滑鼠、鍵盤操作桌面環境。
Computer-Using Agent 是一種具備視覺理解與操作能力的 AI 系統。它能夠觀看螢幕畫面、理解 GUI 元素、執行滑鼠點擊與鍵盤輸入,完成過去認為「必須有 API 才能自動化」的任務。沒有 API 的老舊系統?Agent 可以像人類一樣操作它。
入口之爭:豆包語音助理的案例
年末,ByteDance(字節跳動)推出 AI 語音助理「豆包」,先在特定手機(如中興)上落地,再逐步擴展。當使用者能透過語音 AI 直接完成訂票、查詢、安排等任務時,傳統以 App 或網頁為核心的操作模式,其存在意義便開始動搖。
值得注意的是,部分平台與服務(如 WeChat 等)對這類 AI 自動化操作設下了限制。當 AI 代理操作觸及平台的安全、濫用、商業分潤與風控邊界時,平台傾向以政策與技術手段規範自動化行為,這將成為 Agent 時代的新常態,也是企業導入時必須納入考量的議題。
穿戴裝置:AI 融入日常環境
Meta 推出的 Ray-Ban Meta 智慧眼鏡搭載「Meta AI with Vision」,使用者可以直接詢問眼鏡「你看到什麼」並獲得回應。這將多模態能力(視覺+語音)帶入日常穿戴裝置,讓 AI 成為環境感知的一部分。
2026 年我們推估會怎麼走
當 AI 能看懂畫面、讀懂文字、理解上下文、並實際操作介面完成任務時,「自動化」的定義將被徹底改寫。傳統的「入口」概念,App Store、網頁、搜尋引擎,都將面臨重新定位。
AI 從「會看」到「會做」,將重新定義「入口」與「自動化」的意義。