揮別 2025,迎向 2026:有了 AI Agent ,我們真的更有效率了嗎?

  • 大數軟體
  • Jan. 4, 2026, 5 p.m.

TL;DR — 三句話結論

  • 2025 年,AI 從「會回答問題」走向「會把事情做完」,Agent 不再只是聊天機器人,而是能規劃、行動、修正、交付任務的工作夥伴。
  • 2026 年的關鍵不是更強的模型,而是更好的協作,讓 Agent 之間、Agent 與人之間形成可靠的工作流程。
  • 以往「設定」自動化流程,未來讓AI用「意圖理解」來自動化,未來將從拖拉式工具、固定介面開發、一行行撰寫程式碼,職能重心都將轉向制定規格、驗證與管理Agent。

回顧 2025 年的 AI 發展,從年初 Manus 的橫空出世,到年底 Meta 以超過 20 億美元將其收購;從 Claude Code 重新定義開發者工作流,到 MoE 架構讓小模型也能挑戰巨頭。種種跡象都指向同一個方向:AI 正從「會回答問題」走向「會把事情做完」

然而到了年末反思時,我們必須誠實面對一個問題:Agent 元年是否只是一個新的口號?

本文將回顧 2025 年的關鍵發展,並對 2026 年提出我們的判斷。

Agent 元年:從概念驗證到產品化

2025 年我們看見了什麼

在 2024 年初,人工智慧專家吳恩達(Andrew Ng)就將 AI Agent 列為最值得關注的 AI 發展趨勢之一,而 2025 更是 AI Agent 加速落地的一年,從 Demo 到產品化,開始有人應用 AI Agent 。

AI Agent(AI 代理人)是一種具備自主規劃能力的智慧系統。與傳統對話模型不同,AI Agent 能夠接收使用者需求,自行拆解步驟、調用工具、執行任務並交付最終結果。2025 年被業界普遍視為 AI Agent 的落地元年。

年初,新創公司 Manus 推出號稱全球首個通用型 AI Agent,展示了自主決策與多步驟任務執行的能力。與傳統對話式 AI 不同,Manus 的 Agent 能獨立完成資料分析、程式撰寫、市場研究等複雜工作流程。這波技術浪潮引發科技巨頭高度關注,Meta 在年底以超過 20 億美元完成收購,正式揭開 AI Agent 兵家必爭的序幕。

與此同時,主流大型語言模型平台紛紛將「深度研究(Deep Research)」等多步驟工作流產品化。OpenAIAnthropic 更進一步發表 Computer-Using Agent(能像人一樣看螢幕、點按鈕、填表完成任務的 AI),將「行動」的範疇擴展到整個數位世界。

這一年也出現了一個成功案例:Claude Code。雖然多數人將它定位為「寫程式的工具」,但它的設計理念直指 Agent 的核心,只要有夠強的大型語言模型,搭配能存取電腦的各種工具,就足以建構一個相當通用的 Agent。

目前的瓶頸在哪裡

然而,多數 Agent 應用仍處於早期階段,離大規模日常採用尚有距離。

問題不在於模型的語言能力不足,而在於「行動」本身牽涉到系統性挑戰:叫工具做事會不會常出錯、資料存取的權限控管、出了錯怎麼救回來、要能讓人追查、也要符合規範,以及最關鍵的,如何在不確定情境下適時將人類納入決策流程

AI Agent 可以 24/7 不間斷運作,但如果每一步都得等人工逐項確認,自動化就很難真的跑起來。

2026 年我們推估會怎麼走

如何設計一套工程流程,讓 Agent 產出後能自動檢查、自動修好、形成自動修好的循環,將是關鍵課題。

大數軟體為例,我們正在研究的方向是:當線上系統產生錯誤紀錄(log)時,AI Agent 能根據錯誤訊息自動修復程式,甚至自動開立 PR(Pull Request,程式碼變更請求),讓系統能自己發現問題、自己提出修正。

本章一句話

Agent 已經能「做事」,但要大規模採用,關鍵在於建立「自動檢查 → 自動修好」的循環。

拖拉式工具的角色轉變:從設計層到治理層

2025 年我們看見了什麼

n8n、Zapier、Make 等拖拉式流程自動化工具,過去幾年為企業提供了巨大價值。透過視覺化的節點串接,即使非技術人員也能快速建構自動化流程。這類 No/Low-Code 工具降低了自動化門檻,讓建立「自動化」不再是工程師的專利,也形成了大量企業導入、顧問與教育訓練的市場。

但實務上,對非技術團隊而言,能做出 MVP(最小可行產品)是一回事,要做到穩定、能長期運作、出了事查得到原因,通常仍需要工程或 IT 團隊的深度參與。

設計層 vs. 意圖驅動

拖拉式工具的核心邏輯是「預設的自動化流程」:使用者必須明確定義每一個步驟、每一條資料流向、每一個條件判斷。這在「前 Agent 時代」是合理的,因為系統無法理解使用者意圖,只能執行固定指令。

但 Agent 的本質是「意圖驅動」:你給它目標,它自行拆解任務、選擇工具、執行流程、處理異常、交付結果。在這個框架下,花時間「拖拉點選」,本質上是在做 Agent 應該自動完成的工作。

混合模式:Agent + 流程

這並不代表我完全否定 n8n 這類工具的價值。

2026 年更可能出現的,是一種混合模式:常見情況下,Agent 會處理大部分動態流程;流程工具更像是用來監控、稽核與留紀錄。

No/Low-Code 工具不會消失,但角色會從「設計流程」轉向「管理流程、留紀錄」。

新一代流程工具如 Google 的 Opal,已經開始讓使用者以自然語言建立流程,同時滿足 Agent 與合規的雙重需求。

本章一句話

拖拉式工具的價值重心將從「流程設計」轉向「治理、稽核與可追溯」,設計層的比重會被意圖驅動方式稀釋,但治理層的角色反而更加關鍵。

小模型與邊緣運算:人人都能安裝自己的 AI

2025 年我們看見了什麼

過去幾年,AI 產業瀰漫著「參數決定一切」的氛圍。動輒數百 B參數的模型固然展現驚人能力,但也意味著高昂的運算成本與部署門檻。

MoE(Mixture-of-Experts,專家混合)架構的普及,改變了這個局面。

MoE(Mixture-of-Experts,專家混合)是一種高效的 AI 模型架構。它的運作原理類似配置多位專長師傅的廚房:傳統模型像一位全能大廚,MoE 則讓領班根據訂單分派給最合適的專家。結果是模型總參數量可以很大,但每次實際運算只動用一小部分,大幅降低運算成本。

DeepSeek 在年初的橫空出世,讓業界見證了 MoE 的威力,將原本動輒數千萬甚至上億美元的訓練成本,壓縮到數百萬美元等級。自此,MoE 成為模型架構的新標準。

至此之後,MoE 的存在感快速上升:用更低的推理成本,改寫大家對模型規模與成本的想像。包含 OpenAI 釋出的 gpt-oss-20b 與 gpt-oss-120b、DeepSeek-R1、Kimi K2 Thinking 等模型,皆採用此架構。不少評測與報告顯示,MoE 在 2025 的能見度明顯上升

邊緣運算的實際可行性

由於 MoE 架構所需運算資源大幅降低,這些模型特別適合在消費級硬體上運行:高階顯示卡、NVIDIA DGX Spark、甚至 Mac M4 Pro/Max 與 M3 Ultra。

這開啟了「邊緣運算 + 小模型」的實際可行路徑:企業無需依賴昂貴的雲端算力,即可在本地部署 AI 能力。

不只是省錢,更是數據主權

但成本只是一部分。對企業而言,更大的驅動力是「數據不出門」

不僅是為了省下 GPU 預算,更是為了讓最敏感的企業數據,能在完全不聯網的環境下被 Agent 安全地處理。

對於 大數軟體(LargitData)服務的 Enterprise AI 客戶而言,利用RAGi 結合邊緣運算,是確保數據隱私並採用 AI 最核心的理由。

年底,Apple 在 macOS Tahoe 26.2 正式啟用了 RDMA(遠端直接記憶體存取)over Thunderbolt,可用於分散式 AI 推理。第三方測試顯示,過去將多台 Mac 串連的效能反而更差,但加入 RDMA 後,效能顯著提升,讓在邊緣跑大模型這條路突然變得可行。

關鍵是成本差距:同樣的推理能力,邊緣方案的成本可能只有企業級 GPU 方案的十分之一不到。

2026 年我們推估會怎麼走

我們預期將有更多中小企業採用邊緣運算+小模型,不只便宜,更重要的是安全。

本章一句話

MoE + 邊緣運算,讓「每家公司都能有自己的 AI」從口號變成現實,不只安全,還更省錢

從 Vibe Coding 到 Vibe Engineering

2025 年我們看見了什麼

Andrej Karpathy 提出的「vibe coding」一詞引發廣泛討論,甚至被 Collins 英語詞典選為年度詞彙

Vibe Coding 是一種 AI 主導的開發模式。開發者提供自然語言需求,AI 生成程式碼,開發者僅檢視結果是否符合預期,而不深入審視程式碼本身。這種模式在 2025 年被 Collins 詞典選為年度詞彙,反映了 AI 輔助開發的普及程度。

批評者指出這種模式存在顯著風險。紐約大學網路安全中心的研究顯示,GitHub Copilot 生成的程式碼約有 40% 含有安全漏洞。

然而,若據此全盤否定 vibe coding,恐怕忽略了一個關鍵事實:人類撰寫的程式碼同樣充斥漏洞。Synopsys 的報告指出,81% 的程式碼庫至少包含一個已知漏洞。

我的觀點轉變

坦白說,2024 年時我對 AI 寫程式的能力並不樂觀。那個階段,我只願意讓 AI 碰一些「風險較低」的工作,例如前端實作。

但很快我就發現,前端開發中有大量高頻、低差異的實作與調整,HTML 結構、CSS 樣式、響應式適配,這些工作重複性高,特別適合被自動化工具吸收,讓工程師能專注在更高價值的互動設計與效能優化上。

真正讓我遲疑的,一直是後端。後端牽涉架構、資料流、邊界條件與風險,我那時不相信 AI 能把這些事情「真的寫對」。

直到 2025 年 4 月,Claude Code 那一代模型出來後,我第一次被迫改變看法。我看到的不是「輔助寫程式」,而是 AI 已經可以獨立處理前端,同時把後端那些容易出錯的地方一併解決。甚至連完整的 POC,都能從零到一由 AI 獨立完成。

Claude Code 之父 Boris 分享,他過去 30 天開發 Claude Code 時提交了數百個程式碼變更、新增數萬行程式碼、刪除數萬行,全部都是 Claude Code + Opus 4.5 寫的。

未來,工程師的主要工作將升級為寫規格、驗證功能與管理 Agent。

Vibe Engineering:資深工程師的價值重塑

然而問題的核心從來不是「程式碼由誰產生」,而是「是否有健全的品質管控流程」。無論程式碼來自人類或 AI,都需要經過測試、審核、做過安全掃描(例如弱點掃描),這是專業軟體團隊的基本常識。

因此與其談 Vibe Coding,更成熟的做法是「vibe engineering」:資深工程師負責架構設計、規格定義與品質把關,AI 則在既定框架內高效產出程式碼。人類掌握設計決策與最終審核,AI 負責加速執行。

工程師的重心會從「寫程式」轉向「定規格、把關品質、管好 Agent」。

過去,資深工程師的價值常常被「寫 code 的速度」所稀釋,明明該花時間在架構設計、技術選型、風險評估上,卻被瑣碎的實作細節拖住。當 AI 能接手大量的 coding 工作,資深工程師反而能回歸本業:定義問題、設計系統、把關品質

2026 年我們推估會怎麼走

AI 輔助工程將更深入開發流程:自動生成測試案例、自動執行靜態分析、自動進行安全掃描,甚至自動修復特定類型的問題。開發者的角色將從「程式碼生產者」轉型為「AI 工具的管理者與品質守門人」。

本章一句話

重點不是「誰寫程式」,而是「有沒有好的品質管控流程」

UI 生成化:從固定介面到動態渲染

2025 年我們看見了什麼

傳統使用者介面開發存在一個根本性的效率問題:每一種互動需求都必須預先設計、開發、測試、部署

舉例而言,一個「訂單排序」功能,若使用者臨時需要「多條件排序」,開發團隊就必須重新設計 UI、調整互動邏輯、修改驗證規則、進行測試、最後上線。大量時間與資源耗費在往返溝通,而非「解決問題」本身。

A2UI:即時生成的互動介面

2025 年 12 月,Google 公開了 A2UI(Agent-to-UI)專案

A2UI(Agent-to-UI)是一種全新的介面生成模式。Agent 根據對話脈絡與任務需求,即時產生所需的互動介面,無需經過傳統的設計→開發→上線循環。

UI 不再是一套寫死的畫面,而是會跟著需求即時長出來。

在這個模式下,前端不再是「寫死的頁面」,而是「渲染引擎」,接收 Agent 產生的結構化 UI 描述,即時呈現對應的互動元件。使用者用自然語言描述需求,Agent 理解後直接生成適切的介面。

A2UI 的設計也考量了安全性:它以「不執行任意程式碼」為前提,避免將安全風險轉嫁給前端。

當 Agent 成為服務的主要使用者

這個趨勢的影響不僅止於介面開發效率。當「Agent 替使用者操作介面」成為常態,許多服務的真正使用者將從「人」變成「人的 Agent」。

使用者體驗專家 Jakob Nielsen 指出,未來的互動模式可能是:人對自己的 Agent 下達指令,Agent 再去與各種服務互動。Deloitte 將這種趨勢稱為「Invisible Interfaces / Zero UI」,使用者旅程不再是一頁頁的點擊,而是由環境訊號與智能行為串接而成。

對 UI/UX 設計師與前端工程師而言,這意味著職能重心的轉移:從「切版與樣式實作」走向「設計系統規範、可用性把關、效能優化與資安控管」,這些在生成式介面時代反而更加重要。

本章一句話

固定 UI 的開發占比會下降,但前端不會消失,職能重心將轉向設計系統、可用性與品質把關。

多模態成熟:從「會看」到「會做」

2025 年我們看見了什麼

多模態能力的成熟,是讓前述所有趨勢真正落地的關鍵。

OpenAI 發表的 Operator / Computer-Using Agent,展示了 AI「觀看 GUI → 理解內容 → 點擊輸入 → 完成任務」的完整能力。Anthropic 的 Claude Computer Use 同樣讓模型能透過螢幕截圖、滑鼠、鍵盤操作桌面環境。

Computer-Using Agent 是一種具備視覺理解與操作能力的 AI 系統。它能夠觀看螢幕畫面、理解 GUI 元素、執行滑鼠點擊與鍵盤輸入,完成過去認為「必須有 API 才能自動化」的任務。沒有 API 的老舊系統?Agent 可以像人類一樣操作它。

入口之爭:豆包語音助理的案例

年末,ByteDance(字節跳動)推出 AI 語音助理「豆包」,先在特定手機(如中興)上落地,再逐步擴展。當使用者能透過語音 AI 直接完成訂票、查詢、安排等任務時,傳統以 App 或網頁為核心的操作模式,其存在意義便開始動搖。

值得注意的是,部分平台與服務(如 WeChat 等)對這類 AI 自動化操作設下了限制。當 AI 代理操作觸及平台的安全、濫用、商業分潤與風控邊界時,平台傾向以政策與技術手段規範自動化行為,這將成為 Agent 時代的新常態,也是企業導入時必須納入考量的議題。

穿戴裝置:AI 融入日常環境

Meta 推出的 Ray-Ban Meta 智慧眼鏡搭載「Meta AI with Vision」,使用者可以直接詢問眼鏡「你看到什麼」並獲得回應。這將多模態能力(視覺+語音)帶入日常穿戴裝置,讓 AI 成為環境感知的一部分。

2026 年我們推估會怎麼走

當 AI 能看懂畫面、讀懂文字、理解上下文、並實際操作介面完成任務時,「自動化」的定義將被徹底改寫。傳統的「入口」概念,App Store、網頁、搜尋引擎,都將面臨重新定位。

本章一句話

AI 從「會看」到「會做」,將重新定義「入口」與「自動化」的意義。

結語:從「配置」到「理解」

綜合以上分析,2025 年與 2026 年 AI 發展的核心轉變可以這樣理解:

2025 年,AI 從「對話工具」進化為「行動主體」;2026 年,Agent 將進一步走向協作編排、即時介面生成、以及多模態行動能力的整合。最終指向的,是一個「使用者只需表達意圖,系統自動完成」的新典範。

舊世界 新世界
核心邏輯 用「設定」換自動化 用「理解」換自動化
使用者需要做的事 把每一步都畫出來 說清楚目標
工具的角色 執行固定指令 理解意圖、動態調整

如同 Andrej Karpathy 所言,或許我們還需要十年光景才能完全實現這個願景。但方向已經明確。

對於企業決策者、技術團隊、乃至個人工作者而言,及早理解這個趨勢、調整能力結構與工具選擇,將是未來幾年最重要的策略課題。

對我們大數軟體而言,亦是如此。

如果您也認同從「配置」到「理解」的轉變,歡迎與我們聯繫,分享大數軟體的 Enterprise AI 實踐經驗。

常見問題(FAQ)

AI Agent 跟聊天機器人差在哪?

聊天機器人主要負責回答;Agent 會把目標拆成步驟,去找工具、真的把事情做完(例如查資料、產出報告、提交程式碼)。

n8n 這類拖拉式工具會被取代嗎?

多數情境不會一夕消失,但它的角色會改變:從「設計流程」逐漸轉向「監控流程、留痕、權限與稽核」等治理工作。

MoE 為什麼能讓小機器跑得動?

因為每次推理只啟用少數「專家」,不必整個模型都全力運算,所以同樣的硬體能撐起更強的效果。

所謂 UI 生成化,會讓前端工程師失業嗎?

比較像是工作內容轉移:少做大量重複的切版與細節調整,多做設計系統、互動規格、可用性/效能/資安邊界與生成介面的品質驗證。

Vibe Coding 風險在哪,怎麼用才安全?

風險在於你可能沒看懂就把程式上線。比較安全的做法是:先定規格與測試,讓 AI 產出後跑測試與安全掃描,再由人做最後把關。

2026 年企業要先做什麼,才不會跟不上?

先從「一個高頻、可量化的流程」試點:定義清楚輸入/輸出、權限與稽核,再導入 Agent + 自動檢查,逐步擴張到更多流程。

參考資料

  1. Reuters, "Meta to buy Chinese startup Manus to boost advanced AI," December 2025
  2. OpenAI, "Computer-Using Agent," 2025
  3. OpenAI, "Introducing Operator," 2025
  4. Anthropic, "Developing a computer use model," 2024
  5. OpenAI, "gpt-oss-120b & gpt-oss-20b Model Card," 2025(注:OpenAI 定義為 open-weight,以 Apache 2.0 授權釋出)
  6. NVIDIA Blog, "Mixture of Experts Powers the Most Intelligent Frontier AI Models," December 2025
  7. Apple Developer, "macOS Tahoe 26.2 Release Notes," 2025
  8. Jeff Geerling, "1.5 TB of VRAM on Mac Studio - RDMA over Thunderbolt 5," 2025
  9. Collins Dictionary, "The Collins Word of the Year 2025: vibe coding"
  10. NYU Center for Cyber Security, "CCS researchers find Github CoPilot generates vulnerable code 40% of the time," October 2021
  11. Google Developers Blog, "Introducing A2UI: An open project for agent-driven interfaces," December 2025
  12. Jakob Nielsen, "Hello AI Agents: Goodbye UI Design, RIP Accessibility," Substack
  13. Deloitte, "Unlocking exponential value with AI agent orchestration," November 2025
  14. Reuters, "ByteDance rolls out AI voice assistant for Chinese smartphones," December 2025
  15. ThinkChina, "ByteDance riles smartphone ecosystem with AI pitch," 2025
  16. Meta, "New Ray-Ban Meta Smart Glasses Styles and Meta AI Updates," April 2024
  17. n8n, "AI Workflow Automation Platform & Tools"