部落格

  • 黃仁勳:AI代理人時代來臨 OpenClaw將成下一個ChatGPT

    輝達(NVIDIA)執行長黃仁勳在GTC 2026大會上強勢宣告,AI發展已從「聊天生成」跨入「代理行動」的新紀元。他直指開源自主AI代理平台OpenClaw為「下一個ChatGPT」,並預言這項技術將徹底改寫企業運作模式,讓「數位員工」(AI agents)全面上線,成為每家公司不可或缺的基礎設施。

    黃仁勳在主題演講中表示:「OpenClaw是人類歷史上成長最快的開源專案,它只用了短短幾週,就超越Linux在30年累積的成果。這絕對是下一個ChatGPT。」他進一步將OpenClaw定位為「個人AI的作業系統」(the operating system for personal AI)與「代理式電腦的新時代」,強調AI不再只是回答問題,而是能自主規劃、推理並執行複雜任務,例如管理郵件、安排行事曆、搜尋並下單、甚至跨應用程式完成工作流程。

    OpenClaw由獨立研究者Peter Steinberger開發,為開放原始碼的自主代理平台。它突破傳統聊天機器人的限制,能在本地或企業環境中持續運作,具備記憶、適應與多代理協作能力。用戶可快速建立「claws」(爪子,代稱AI代理),讓它們像數位員工一樣24小時不間斷工作。黃仁勳指出,Claude Code與OpenClaw共同引爆「代理轉折點」(agent inflection point),讓AI從生成與推理階段,正式進入「行動」階段。

    為因應企業對安全與隱私的嚴格需求,輝達同步推出NemoClaw平台。這是基於OpenClaw的企業級解決方案,整合NVIDIA的Agent Toolkit與OpenShell執行環境,能透過單一指令安裝,並加入政策驅動的權限控制、沙箱隔離與隱私路由器。黃仁勳強調:「每一家公司今天都必須制定自己的OpenClaw策略。這是新電腦,就像過去需要Linux策略、雲端策略一樣。」NemoClaw讓企業能在自家硬體上安全部署代理,解決OpenClaw爆紅後引發的資安疑慮,包括未授權存取、資料外洩或代理「失控」風險。

    這波代理人熱潮已快速擴散至產業。零售、通訊與消費品領域已有近半企業開始評估或部署agentic AI,用於提升流程效率、客戶服務與內部作業。黃仁勳更以輝達自身為例,預測十年後公司將擁有7.5萬名員工,卻同時部署750萬個AI代理,形成「100個數位員工配1名人類員工」的比例。這些代理將全天候工作,處理重複性與複雜任務,讓人類專注高價值創造。

    獨特觀點:從SaaS到AaaS,代理人時代重塑軟體價值鏈

    AI代理人的崛起,不僅是技術升級,更是企業軟體模式的根本轉型。過去SaaS(Software as a Service)時代,企業購買的是固定功能工具;代理人時代則邁向AaaS(Agentic as a Service),軟體將以「角色、記憶、權限與自主工作流」為核心。OpenClaw的開放性加速創新,卻也暴露模型商品化的趨勢——基礎大語言模型重要性可能下降,真正價值轉移到如何安全、可靠地讓AI「做事」。

    對台灣數位科技與專業服務產業而言,這是雙重機會與挑戰。輝達生態系的強大運算基礎,將帶動台灣AI伺服器、邊緣運算與軟體整合需求激增;但企業若無法快速建立「代理治理」能力,可能在數位員工浪潮中落後。資安、法遵與人力轉型將成為新門檻。分析師建議,台灣企業應及早評估OpenClaw/NemoClaw策略,結合本地法規與產業特性,開發垂直領域代理解決方案,例如製造業的智慧排程代理或金融業的合規審核代理。

    黃仁勳的宣告不僅為AI代理背書,更預示全球運算需求將再爆發。從資料中心到邊緣裝置,從聊天介面到真實工作場域,數位員工全面上線的時代已正式開啟。OpenClaw能否如ChatGPT般引領下一波產業革命,關鍵在於企業如何平衡創新速度與風險控管。

    這波轉型將深刻影響勞動市場與組織結構。人類與AI代理的共存模式,將決定未來競爭力。輝達透過NemoClaw提供基礎設施,正試圖將自身從晶片供應商,轉型為代理時代的核心平台供應商。

  • AI記憶體缺貨延續 價格恐跳漲五成

    在全球人工智慧(AI)基礎建設需求大增之下,高頻寬記憶體(HBM)與先進DRAM供需失衡持續惡化,市場預測第二季記憶體價格可能再跳漲達五成,衝擊下游製造業成本結構。與此同時,台灣半導體製造業先進製程(7奈米及以下)產值在AI晶片需求帶動下,預計快速逼近新台幣3兆元大關,凸顯「記憶體危機」與「先進製程榮景」並存的兩極現象。

    根據TrendForce、IDC與DigiTimes等機構最新報告,AI資料中心對HBM的需求已徹底改變記憶體產業資源分配。三星、SK海力士與美光等三大記憶體廠商,將大量晶圓產能轉向高毛利HBM生產,導致傳統DDR5與伺服器DRAM供給大幅緊縮。HBM單比特生產所需晶圓面積約為傳統DRAM的三倍,加上NVIDIA、AMD及各大雲端巨頭(如Microsoft、Google、Meta)持續擴大AI叢集建置,2026年AI相關記憶體需求預估將占全球DRAM產出的20%以上,甚至更高。

    業界人士指出,目前HBM供應已「全面售罄」至2026年底,甚至延伸至2027年。美光執行長近日公開表示,2026年HBM產能已全數鎖定,客戶訂單僅能滿足50%至三分之二的需求。HBM4驗證預計第二季完成,NVIDIA下一代Rubin平台等AI加速器將大量採用,進一步加劇供給壓力。在此背景下,Q1 DRAM合約價已季增55-95%,Q2價格續漲30-70%的預測浮上檯面,部分分析師甚至警告中小型買家可能面臨「小時計價」的極端情況,大廠優先拿貨後,剩餘貨源價格瞬間波動。

    價格上漲直接傳導至製造業。PC、智慧手機、汽車電子與工業控制等領域,記憶體成本占比已從過去的15-18%竄升至35%左右。HP等大廠已公開示警,筆電物料成本因此明顯墊高,下游ODM廠商提前備料卻仍面臨缺料風險。台灣製造業作為全球電子供應鏈核心,首當其衝。部分中小型電子組裝廠商反映,Q2採購報價每小時調整,導致成本控制難度大增,部分非AI相關產線甚至考慮減產或轉單。

    相較之下,先進製程晶圓代工卻呈現榮景。台積電(TSMC)2025年營收已達1224億美元,年增35.9%,先進製程(7奈米及以下)貢獻高達77%的晶圓營收,其中3奈米占28%、5奈米占35%。進入2026年,台積電預估全年美元營收成長近30%,資本支出高達520-560億美元,其中70-80%投入先進製程與先進封裝。TrendForce指出,2026年全球晶圓代工產值將年增24.8%至2188億美元,台積電成長幅度最高達32%,主要動能來自NVIDIA、AMD AI GPU,以及Google、AWS、Meta與OpenAI等自研AI晶片的量產需求。

    台灣半導體製造業先進製程產值在AI帶動下,預計2026年將快速逼近新台幣3兆元。工研院等機構分析顯示,3奈米至2奈米製程滿載運轉,加上CoWoS先進封裝需求爆炸性成長,台灣在全球AI供應鏈的戰略地位更加穩固。然而,這也凸顯產業結構的隱憂:先進製程高度集中於少數大廠與AI客戶,成熟製程則因記憶體產能排擠而面臨利用率分歧。

    記憶體危機或加速供應鏈「AI分層」

    這波AI記憶體缺貨並非傳統景氣循環,而是結構性轉變。記憶體廠商「資本紀律」轉向高毛利HBM,傳統DRAM產能擴張趨緩,導致消費性電子與非AI製造業長期面臨「記憶體溢價」。對台灣製造業而言,這是雙面刃:一方面,先進製程與AI相關供應鏈(如伺服器、主機板、電源管理IC)獲利可期;另一方面,非AI導向的中小製造商成本壓力增大,可能加速產業洗牌或迫使轉型邊緣AI、智慧製造解決方案。

    分析師建議,製造業應及早調整策略:大廠可透過長期合約鎖定記憶體供給,或投資先進封裝減輕對單一記憶體規格的依賴;中小企業則需強化庫存管理、開發替代設計,或轉向低記憶體消耗的AI邊緣應用。同時,政府與產業界應關注晶圓產能全球重組,避免過度集中風險。

    整體而言,2026年將是AI記憶體危機與先進製程榮景交織的一年。價格跳漲五成雖帶來短期陣痛,卻也凸顯台灣在全球半導體高階製造的不可取代性。若能妥善因應,這波挑戰有望轉化為產業升級的契機,讓台灣製造業在AI時代維持競爭優勢。

  • Turbo Quant

    谷歌 TurboQuant引爆記憶體股拋售潮

    Google最新推出的AI記憶體壓縮技術「TurboQuant」正在引發市場劇烈波動。這項技術能夠大幅減少大語言模型所需的關鍵記憶體用量,讓AI推理成本更低、效率更高。然而,這也令投資人開始質疑記憶體晶片的未來需求,導致記憶體大廠股價本周明顯下跌。

    TurboQuant是什麼?

    TurboQuant是一種針對AI模型「鍵值快取(Key‑Value Cache)」的高效壓縮技術。在生成文本時,大語言模型會用這塊快取來儲存上下文資訊;Google指出,TurboQuant可以將原本每值十六位元的儲存需求壓縮到僅三到四個位元,約等於將記憶體用量減少六倍以上,同時不影響模型準確度。研究顯示,該技術在多種AI測試中甚至能提升運算速度,且無需額外訓練就能直接整合到現有模型架構中。

    市場高度關注AI記憶體需求,因為伺服器級DRAM與快閃記憶體是支撐大型AI模型推理與訓練的核心零件。Micron、SK海力士、三星、Western Digital與SanDisk等公司過去數年因AI升溫而股價大幅上漲。TurboQuant公布後,投資人擔心,一旦AI模型能在更少記憶體空間下運作,未來對高階記憶體晶片的採購量可能放缓,短期供應需求配比將受衝擊,因此記憶體股本月出現連續下跌。

    分析師:短期恐懼,未必傷及長期格局

    不少機構分析師則認為,這波下跌反映的是短期情緒,而非長期結構性威脅。他們指出,TurboQuant降低的是「單位運算」的記憶體成本,可能讓AI服務更便宜、更易於擴展,最終反而刺激更多企業與雲端服務商投入AI應用,從而推升整體記憶體需求。此外,TurboQuant目前仍屬實驗室級成果,尚未在大規模商業服務中全面部署,實際對供應鏈的影響仍有高度不確定性。

    在基本面方面,主要記憶體大廠近期財務表現仍強勁,營收與利潤多數優於市場預期,部分公司甚至預告今年將進一步擴大產能以迎合AI伺服器與雲端需求。華爾街多數分析機構仍維持「強力買進」或「買進」評級,認為當前股價已經將部分風險提前反映,中長期AI生態持續擴張的趨勢未變。

    總體而言,Google TurboQuant展現的是AI硬體與軟體協同優化的又一里程碑,短期可能擾動記憶體股價,但產業界普遍認為,記憶體在AI時代的戰略地位不會因此消失,而是需要在更高效、更節能的架構下尋找新成長曲線。