企業AI導入的7個層次
過去兩年,AI科技公司市值飆升,傳統本益比估值已不適用——市場溢價反映的是產業結構重組的預期,而非當期獲利。對尚未投入AI的企業而言,問題不在旁觀與否,而是從何切入,掌握這波AI紅利。有效使用AI工具的企業,完成同樣業務量所需的人力成本與工時正在縮減。這個落差當下還不明顯,但歷次技術變革的走向都說明同一件事:效率差距遲早會轉化為成本結構的差距,而成本結構一旦落後,追趕所需的時間往往遠超過補齊工具本身。企業使用AI的方式,其實有清楚的技術層次可循,從幾乎零門檻的日常工具,到需要深度IT能力的客製化部署。理解這幾個層次,才能找到合理的切入點。第一層:對話式AI的日常滲透。對多數企業而言,第一個接觸點是ChatGPT、Claude等對話式AI,用於文件草稿、市場分析摘要、會議紀錄整理、法規條文初步解讀。這個入口看起來瑣碎,影響卻不容低估。麥肯錫(McKinsey & Company)的研究顯示,使用生成式AI的知識工作者平均每天節省1.75小時;GitHub Copilot的實測數據則顯示工程師完成指定任務的速度提升約55%。這一層幾乎沒有理由不做,唯一需要決定的是是否系統性地推動,而不是讓每個員工各自摸索。第二層:嵌入工作流程的agent工具。這一層的關鍵不是AI「幫你建議」,而是給定目標,agent自主規劃步驟、執行完成,員工負責最後審核。Cursor、Claude Code等coding agent是目前最成熟的例子,工程師描述需求,agent自己寫程式、測試、除錯,開發週期大幅壓縮。但應用範疇已遠不止於此:給定主題,agent自主產出完整投影片;描述財務邏輯,agent建公式、設架構、生成圖表;會議錄音進來,整理決議、分配待辦、起草通知;業務開發上,agent研究目標對象、撰寫個人化開發信、追蹤回覆進度,銷售團隊專注在真正需要人判斷議題。當工作流程中有重複性高、步驟明確的工作,這一層值得認真評估。第三層:特定領域的第三方工具:HR的智慧排班、聘雇、與績效分析、客服的自動回覆與情緒偵測、行銷科技的廣告投放優化,以及電商平台如Amazon Seller Central的商品描述生成與動態定價建議。優點是導入快、ROI計算相對清晰,不需要IT深度介入;取捨是客製化空間有限,資料往往流向第三方。當特定職能有明確痛點、且不想花IT資源自建時,這是效益最快顯現的選擇。第四層:呼叫LLM API自建企業工具。當第三方工具無法滿足需求,直接呼叫OpenAI、Anthropic、Google等的API(使用token),由內部IT開發客製化工具是下一步。例如串接內部ERP資料的智慧查詢介面、自動摘要供應商合約重點條款的審閱流程、根據歷史訂單提供採購預測的決策輔助系統。先決條件是具備一定規模的IT開發能力。資料流向雲端是主要的風險考量;當這個風險可接受、且IT人力具備,這一層提供第三方工具難以達到的客製深度。第五層:自建模型環境,資料不出企業。當資料敏感度更高,或用量規模使雲端API的成本不再划算,企業可以建立自己的模型環境。最常見的做法是部署開源模型,搭配RAG架構:模型的內部知識負責推理與回答,公司的文件、手冊、歷史紀錄作為外部知識來源,在每次查詢時動態檢索補充,讓回答有所依據。這個架構不一定需要自建實體伺服器,企業可以在自己管控的雲端環境中部署開源模型,運算資源租自雲端、資料留在自己的空間,兼顧彈性與資料主權。對有特定領域需求的大型企業,可以進一步微調(fine-tune)開源模型,讓模型精準理解內部術語與文件格式,但門檻不低,需要足夠數量且標註完整的領域資料與相應的訓練資源,成本可觀,中小型企業直接使用RAG通常已足夠。至於從頭預訓練(pre-training),幾乎不在企業的選項之列——所需運算資源以億美元計,是大型AI實驗室才有條件投入的工作。同樣在這個層次,邊緣AI(Edge AI)提供另一條路線:推論直接在終端設備上執行,資料從不離開設備、延遲極低、斷網也能運作。更值得關注的是企業多年累積的內部資料——製程參數、研發紀錄、設備維護歷史、客戶交易記錄——過去是沉睡的資產,現在可以透過本地部署的AI模型加以活化。不只是查詢與檢索,而是跨資料集推理:找出製程與良率之間人工難以發現的關聯、連結多年研發紀錄中被遺忘的發現、系統化留存資深員工的隱性知識。這類資料幾乎不可能送上雲端,本地部署的投資也因此有更明確的商業理由。第六層:整合多模型的AI決策平台。在更高的複雜度層次,是像Palantir AIP這樣的平台:在企業既有的資料基礎設施之上,同時整合多個LLM來源,讓人員在不直接接觸原始資料的情況下進行AI輔助決策。美國軍方是其最具代表性的客戶,商業端也快速拓展至製造、醫療、金融等場景。導入門檻高、週期長,但提供其他方案難以達到的整合深度與決策可稽核性。這一層適合資料環境複雜、決策責任明確、且已在第四、第五層累積相當經驗的企業。成熟的企業AI策略往往是混合架構:日常文書使用雲端LLM,敏感的內部知識查詢走RAG加開源模型,特定職能採購第三方工具,產線即時判斷、內部know-how活化走邊緣AI。根據各任務的資料敏感度、使用頻率與精度要求做出合理配置,不必一刀切。這7個層次表面上是技術路線的選擇,背後是競爭力的重組。採用AI更徹底的企業,人均產出顯著提升、決策週期縮短。對供應鏈而言,硬體架構的影響也同步在發生:企業端的AI推論需求快速成形,伺服器、記憶體與邊緣運算設備的採購邏輯正在重寫。而組織層面,隨著AI承接愈來愈多的文書、協調與初步判斷工作,人員的職能重心從「執行」移向「決策」與「問責」——這對人才結構的重新界定,是企業領導者需要提早布局的課題。
AI的不可逆進化
對過去的執著,常使人誤以為昨日是一個可以重啟的程式(rebootable program),彷彿只要回到某個儲存點(save point)便能修正錯誤。然而,時間的核心機制是改寫(rewrite),而非還原(restore)。每一次前進,都伴隨著內在結構的調整。路易斯·卡羅(Lewis Carroll)在《愛麗絲夢遊仙境》(Alice's Adventures in Wonderland)中,透過愛麗絲(Alice)之口說出那句著名的話:「回到昨天沒有用,因為那時的我已是不同的人。她之所以無法回歸原貌,正因其認知框架(cognitive framework)已被經驗永久改變。」將此觀點延伸至AI發展,可以看到相似的邏輯。一個完成訓練的AI模型,其昨日由固定的訓練資料集(training dataset)與初始模型權重(initial model weights)所構成。在部署後,模型本身通常維持靜態;唯有經過微調(fine-tuning)或持續學習(continual learning),它才會進入新的階段。每一次有目的的再訓練與迭代,都會不可逆地改變其內部參數結構。人們往往期望AI的記憶,也就是其經訓練形成的知識,是穩定且可預測的。然而,如同人類學習,AI的成長並非線性過程。新資料可能引入異常案例(anomalies),也可能挑戰既有模式。一個大型語言模型(LLM)在不同版本間所呈現的細微輸出差異,正反映其在再訓練後參數(parameters)配置的調整結果。模型並非單純重複過去的計算,而是在舊有基礎上,經由新的訓練週期,形成帶有修正理解(revised understanding)的新狀態。這種不可逆的進化同時蘊含深刻風險。當AI吸收錯誤或帶有偏差的資料,它可能朝錯誤方向演進,且難以回到一個所謂正確的昨日。正因如此,資料來源的選擇、治理與監管顯得格外重要。持續學習的路徑如同單行道,一旦資料受到污染,後續修正所需付出的代價將極為高昂。因此,對AI而言,真正的適應性並不在於固守一個被視為完美的過去訓練集,而在於能否在面對模糊性與錯誤時,透過審慎的再訓練與優化,生成更準確且更具彈性的回應。它的進化不在於靜態保存所有資訊,而在於能於每一次訓練迭代中調整內在連結與權重,持續向前。它的昨日完成初始學習,它的今日則攜帶更新後的參數結構,在新的任務中延伸出新的知識。
當一支鉛筆的顫抖,遇見億萬參數的沉思
左圖是我的手,右圖是AI的靈魂,或者說,是它從人類無數個靈魂中蒸餾出來的回應。這件事讓我著迷許久。起初,我只是隨手在紙上勾勒一個女性的姿態:頭部後仰,雙臂上舉,身體的弧度像一個無聲的感嘆號。線條粗糙,比例也不完美,但那個姿勢裡有某種說不清楚的渴望,像是一個人在黑暗中向天空伸手的瞬間。我把它拍下來,輸入一段精細的提示詞(Prompt),然後交給AI。幾秒鐘後,右圖出現了。我盯著螢幕看了很長時間。那還是我的姿勢,我的構圖,但那個向天空伸手的女人,已經不再是草稿。她的頭髮像墨水在水中散開,一絲一縷都有自己的重量。她的皮膚在炭筆(Graphite)的陰影裡呼吸,光從不可見的地方打來,讓鎖骨下方有了深度。最讓我震驚的是那些紫色的牽牛花,它們並非強行安插,而是像真的從她的身體裡生長出來,藤蔓沿著腰線纏繞,葉片覆蓋本來空白的下半身,像是自然界對一個姿勢的詮釋。要理解這幅圖從何而來,得稍微走進AI的思維邏輯。AI首先透過視覺編碼讀取草稿中的線條結構,同時解析提示詞的語義,將兩者在潛在空間(Latent Space)中進行多模態融合。接著,它識別出頭部後仰、雙臂上舉的骨架,透過ControlNet確保生成結果嚴守原始輪廓,再從訓練資料中召喚素描技法與新藝術運動(Art Nouveau)的視覺記憶,將它們揉進同一個畫面。最核心的演變發生在擴散過程(Diffusion Process)裡:圖像從一片純粹的隨機噪聲出發,在逐步去噪中讓細節從虛無中浮現,像是某種沉睡的記憶在黑暗中緩緩甦醒。那些牽牛花之所以長在那裡,是因為交叉注意機制(Cross-Attention)讓花卉的語義在圖像特定區域精準激活,而ControlNet那雙無形的手,始終拉住AI奔湧的想像力,讓它不越出我草稿劃定的物理邊界。整個過程,像一位藝術家在高維向量空間中進行的聯想,素描的肌肉記憶與牽牛花的印象在同一瞬間翻湧交疊。那幅右圖太美了,美得讓我有一瞬間覺得左圖顯得有些多餘。但我很快意識到,如果沒有左圖,右圖根本無從談起。AI的所有聰明,在那一刻都在服務我那個顫抖的輪廓。那個姿勢是我的,那個渴望是我的,AI只是給了它一場盛大的赴約。這就是人機協作最迷人的地方:不是替代,而是放大。我帶來意圖,AI帶來技法;我帶來情感的骨架,AI帶來血肉和皮膚。工具在改變,從獸骨到毛筆,從油彩到潛在空間中的運算,但那個想要表達某件事的衝動,仍然是整件事的起點,也是任何參數都蒸餾不出來的精華。
AI Token耗量持續攀升—推理模型的崛起與產業重塑
2022年下半,AI技術出現罕見的結構性轉折。Frontier Model 首度同時展現出真正的泛化(Generalization)與多工能力(Multi-tasking)。泛化意味著模型學到可擴展的語義與分析能力,能在新的指令形式與問題情境下維持穩定表現;多工則意味著同一套模型可以服務翻譯、摘要、圖片生成、問答等截然不同的場景應用,無需為每個任務另行訓練專用模型。這個突破,使AI從針對單一任務優化的垂直工具,轉變為橫向的通用、高成長智慧服務。同時也對供應鏈產生即時衝擊:自2022年下半起,資料中心的算力需求全面上修,GPU短缺從研究機構蔓延至企業端,並推動整條AI供應鏈——從晶片、伺服器到應用層——重新定位。2024年的下一步:推理(Reasoning)登場。泛化與多工解決「能做什麼」的問題,卻沒有解決「能想多深」的限制。對話式問答提供足夠解方,但遇到需要多步驟邏輯推導的任務如解數學題、複雜程式除錯、分析法律條文、科學探索、邏輯論證等,模型的能力侷限就被暴露出來。這個落差,在2024年下半開始逐步被補上。OpenAI-o1的發布標誌著推理時代的開始。推理模型呈現出更接近「System-2」的思考方式——借用心理學家康納曼(Daniel Kahneman, 1934~2024)的框架:System-1是快速直覺式的反應,System-2是緩慢刻意的深層推理。在實際運作中,推理模型不會直接輸出答案,而是先在內部展開較長的(推理)思維鏈(Chain-of-Thought, CoT),逐步分解問題、排查矛盾、整合邏輯,再收斂出最終回應。數學推導、程式除錯、法律條文解析、醫療決策輔助——這些原本只有專業人士才能應付的複雜任務,開始出現跨越式的能力提升。推理能力的形塑,來自幾個相互強化的技術突破。最基礎的是思維鏈CoT訓練。模型在訓練時被要求把推理過程一併展開,而非直接給最終答案,強迫模型在解題時學會分解問題、逐步推進。這種推理的引導,顯著提升複雜邏輯任務的表現。其次是強化學習(Reinforcement Learning)的深度整合。模型透過持續與真實任務互動並接收回饋,逐步找出「真正有用的答案」而非「聽起來合理的答案」——這成為推理品質得以持續演進的核心機制。值得注意的是,強化學習的獎勵機制,也間接強化模型「用更多token想清楚」的行為傾向——更長的思維鏈往往對應更好的答案,模型在訓練中學會以算力(更多token)換品質。第三條路是推論時擴展(Test-Time Scaling),被視為繼預訓練(Pre-training)、後訓練(Post-training)之後的第三條scaling law:不必重新訓練模型,只需在推論(inference)階段投入更多運算資源,讓模型「想更久」,就能換取更好的答案品質。正因如此,隨著用戶數量增加,據報導,目前實際對用戶服務時的推論運算需求,已經高於模型訓練階段的算力消耗。推理能力的代價,直接反映在token用量上。傳統問答模式下,一次查詢平均消耗數百個token;推理模型因為需要展開較長的內部推理步驟,每次查詢的使用量往往是傳統模式的10到50倍。這種倍數效應已在市場流量結構中浮現:目前推理模型的token使用量,已佔整體LLM流量的6成以上,預計會持續增長。這不只是技術規格的改變,而是整個算力需求預測邏輯必須重新計算的開始。當推理能力成熟,一個更大的結構性轉變隨之而來:Agent 的崛起。Agent (代理人)不是升級版的聊天機器人,而是具備目標驅動、自主規劃與多步驟執行能力的AI系統。沒有深層推理,Agent只是預先編排好的流程;有了推理,它才能在複雜流程中深度思考,做出判斷、處理例外、在不確定性中高價值任務。程式設計是第一個Agent的突破點。GitHub Copilot、Anthropic Claude與Cursor的AI coding工具,目前市佔各約24%至25%,生產力提升幅度估計達1.5至3倍。從成長速度可以感受到市場反應的強度:Anthropic的年化營收(ARR)在2025年年增幅逾 800%,Cursor從1億美元成長至10億美元、年增達900%。法律、醫療、財務等垂直領域的跟進速度也正在加快:據報導,Harvey的法律AI ARR已達1.5億美元。OpenEvidence在臨床醫療場景的ARR同樣超過 1.5 億美元。這些垂直應用的共同特徵,在於它們都依賴多步驟推理——不只是查詢資料庫,而是在法條、案例與臨床指引之間做出複合判斷,處理真實世界中的模糊與矛盾。推理的架構決定token耗量只會持續增加。每個新應用場景導入、每個Agent工作流程啟動,都意味著更多的思考步驟與更高的算力消耗——這是推理模型的設計本質,不會因為效率優化而消失,只會因為應用範疇擴大而放大。對半導體、伺服器、高頻寬記憶體供應鏈而言,這是結構性的長期需求訊號。當推理能力從數位工作流程走向實體世界,影響規模可能再擴大一個量級。工廠排程、醫療診斷輔助、教育個人化、法律文件審查——這些場域一旦嵌入自主推理能力,改變的不只是工具,而是企業工作流程與人員分工的重組。這種重組很可能使對ICT基礎建設的需求,從一次性的升級,轉為更長期的投入。這波AI資本投入是否會在建設高峰後趨於平緩?推理模型提供一種不同的結構性邏輯。其特性在於,應用規模的擴張會直接轉化為持續性的推理運算需求,而不僅是一次性的部署成本。當前推論已成為AI算力負載的主要來源,而推理型推論的運算佔比不斷攀升。再加上方興未艾的Agent架構興起,以及各種以token消耗為核心的智慧服務快速普及,算力需求將不再僅僅隨模型訓練週期波動,而是與日常使用頻率高度綁定。當使用深度與應用廣度持續擴張,供應鏈從晶片、記憶體到電力基礎設施所面對的需求動能,可能更接近結構性成長,而非單一景氣循環所驅動。延伸報導專家講堂:AI愈強,Token卻愈便宜
AI愈強,Token卻愈便宜
2023年初,OpenAIGPT-4的API定價約為每百萬token30美元;如今,主流前瞻模型已全面重訂價格:GPT-4o mini降至0.15美元、Anthropic Claude 3.5 Haiku低至0.25美元、Google Gemini 2.0 Flash更壓至0.10美元—降幅從90%到99%不等,而且仍在持續下修。這不是削價競爭,而是深層的技術與市場力量共同作用的結果,並正在引發整個AI生態系的結構性改變。3個相互強化的力量在同時作用,支撐token價格持續下降。首先是模型效率的快速提升。蒸餾(distillation)將大模型的能力壓縮進更小的架構,量化(quantization)降低每次運算的位元需求,混合專家架構(MoE)讓推論時只啟動最相關的小網路。同樣的任務,所需算力持續縮減,而且這個技術優化態勢,還沒止息。其次,是系統層級的優化。產業界已清楚Transformer推論的運算瓶頸——矩陣乘法佔了絕大多數計算量,KVCache的記憶體存取效率與頻寬配置直接影響延遲,而批次處理策略則決定整體吞吐量。從編譯器最佳化、推論排程到硬體與系統層的整體優化,讓同一套硬體能服務更多prompt、產出更多token。以Google為例,透過TPU與模型、系統的協同優化,在特定工作負載下推論能效出現數倍到數十倍等級的提升,顯示推論成本仍有可觀的下降空間。接著是競爭格局的根本改變。DeepSeek-R1、Meta LLaMA3、阿里巴巴Qwen2.5等開源模型持續追近閉源frontier模型的效能(約落後7個月),打破少數大廠的定價壟斷。開源模型的全球部署量已佔整體AI使用的約3成,也成了市場定價基準的壓力源。Token成本的持續下降,正在同步觸發3個層面的連鎖反應。第一,是AI推論應用的急遽擴張。當每百萬token的成本從過去的高價模型,下降到數十分美分至數美元等級,大量原本「因成本不具經濟效益」的場景開始跨越可行門檻。個人化郵件撰寫、即時翻譯、文件摘要、程式碼生成、多語客服回覆、會議紀錄整理、合約審閱輔助、報表初稿產生等任務,不再只是試驗性功能,而逐步成為工作流程中的常態模組。關鍵不在於成本歸零,而在於邊際成本已低到足以長時間、完整部署推論服務,讓AI從「偶爾使用的工具」轉變為持續運行的生產力工具。第二,是Agent對工作流程的全面滲透。低成本token是Agent得以規模化的前提。這一點已在市場成長速度上反映出來:Anthropic的營收規模近年快速進入數十億美元級距,年增幅達數倍;Cursor等AI coding工具在短時間內從千萬美元級別,躍升至上億美元年化營收,成為成長最快的一批AI SaaS產品。這些成長快速的新創幾乎無一例外地以agent或workflow automation為核心定位——無論是Anthropic、Harvey、Glean——產品路線指向的是自主代理與垂直工作流程整合,而非單純的聊天介面。一個agent往往需要與多個工具連續互動、發出數十次甚至上百次API呼叫才能完成任務。token成本的每一次下降,都在直接擴大agent可運行的任務邊界與商業規模,同時也引發更多的token用量。第三是價值的持續上移。最具體的案例是程式碼生成。Cursor、ClaudeCode等AI coding agent以Claude與GPT-4o為核心引擎,正在重塑開發者的工作流程,而非只是IDE的外掛。Microsoft 365 Copilot、Anthropic Claude將AI能力直接嵌入Excel的公式建議與資料分析、PowerPoint的簡報生成、Teams的即時摘要,使AI不再是獨立查詢工具,而成為日常工作的預設助手。根據DIGITIMES Research的市場觀察,AI產業價值佔比將在2026至2028由硬體逐步轉向軟體與服務,而應用層的滲透速度,將成為下一階段競爭的真正起點。成本的持續下壓,讓另一端的問題更加凸顯:如何繼續壓低生產token的成本(TCO)?顯現在2個產業核心。晶片架構是第一個關鍵。各大CSP正加速投入自研ASIC,針對Transformer推論的計算模式深度最佳化,在特定工作負載下可實現數倍等級的能效提升,使算力成本的下降速度不再完全受制於通用GPU的產品節奏。電力則是更根本的制約因素。高密度AI資料中心的電費往往佔營運成本的相當比例,當規模擴張到一定程度,電力取得能力往往比伺服器採購能力更早觸及上限。近年新資料中心的選址優先順序已悄悄改變——穩定電力供給逐漸取代土地成本成為首要考量。多家能源研究機構預測,全球資料中心電力需求在未來數年將出現倍數成長,AI擴張的真正瓶頸,已從晶片轉向能源。Token成本持續驟降,是AI進入第二階段的信號。第一階段的核心問題是「能不能做到」,競爭集中在最先進模型的能力競賽;第二階段的問題已經不同——誰能把TCO壓得夠低、把平台做得夠開放,讓更多應用在上面生長,才是真正的決勝點。接下來幾年,與其看各家發布什麼新模型,不如看推論成本降到哪裡、開發者生態有多活躍,以及有多少垂直應用選擇在平台上發展;這些變數的交會處,才是下一波市場重心真正落腳的位置。對台灣而言,半導體與伺服器供應鏈能否持續協助全球客戶優化整體TCO,將決定我們在這一波Token通縮浪潮中的角色與分量。
AI的曼德拉效應
許多人第一次聽說曼德拉(Nelson Mandela,1918~2013)當選總統時,都會錯愕地說:「我清楚記得他在獄中去世的新聞畫面。」這種大規模的錯誤記憶,被稱為「曼德拉效應」(Mandela Effect)。它說明人類記憶不是錄影帶,而是每次回想時都在重建的神經活動。當微小誤差透過媒體傳播並被群體強化,最終可能凝固為堅信不疑的「事實」。生成式AI的出現,讓這個現象進入危險的新階段。過去的錯誤記憶源於人腦的模糊回想,如今卻可能來自精心製作的數位幻象。AI能輕易生成高度擬真的內容,例如「C-3PO全銀色劇照」或「皮卡丘黑色尾巴百科條目」。這些虛構細節真實得足以欺騙未經查證的觀者,一旦在社群媒體病毒式擴散,說服力遠超過去的謠言。更可怕的是,AI生成的不只是單一圖片或文字,而是包含照片、影片與文章的完整「證據鏈」,讓虛假記憶看似天衣無縫。同時,AI內容正以驚人速度污染資訊生態。當人們試圖驗證記憶時,搜尋結果往往充斥大量口徑一致的錯誤答案,形成資訊迴音室。社群演算法又偏好新奇與爭議性內容,AI製造的謠言正符合這些條件,於是錯誤訊息在推送與點擊間不斷循環,甚至被推升至主流討論。更令人憂心的是,AI不僅能放大既有錯誤,還能憑空創造從未存在的記憶。想像有人利用AI虛構一個九〇年代的卡通角色,生成動畫片段、廣告影像與週邊商品照片,再編造討論貼文。這些充滿懷舊元素的內容迅速走紅,10年後,當年的孩童已成年,腦中仍保留模糊印象。當有人發問「你還記得這個卡通嗎?」便會有大批網友響應,甚至補充劇情細節。一個根本不存在的角色,竟成為集體的童年回憶。此時,AI已不是錯誤的放大器,而是記憶的原始編造者,繞過既有事實,直接向集體意識注入從未發生過的過去。這絕非單純趣聞,而是深具社會風險的徵兆。當偽造記憶結合擬真圖像、詳盡文本和龐大社群互動,真實與虛構的邊界將愈加模糊。它可能動搖人們對歷史的理解,使司法證據效力大打折扣,甚至撼動政治共識。如果某個重大事件被AI大規模改寫,數百萬人因而誤解,後果難以想像。更極端的情境是,當AI生成的虛假內容數量超過真實資訊時,搜尋引擎甚至可能將錯誤答案置於前列。此時,真相反而成了需要額外努力證明的「少數說法」,我們將進入一個「真相倒置」的時代。因此,社會必須建立數位免疫系統。技術上需要更精準的檢測工具,辨識內容是否為AI生成。制度上,平台應透明標註AI內容,並對惡意散布者設立規範;教育上,更需強化數位素養,培養理解演算法運作的能力,養成交叉驗證與批判思考的習慣。在個人層面,每位使用者都應保持警覺。我們必須追溯訊息來源,不輕信單一說法,也不要因「眾人皆信」就放下懷疑。面對任何看似「眾所周知」的資訊,都應該問3個問題:來源是什麼?是否有可靠第三方驗證?是否符合基本邏輯與常識?AI的曼德拉效應提醒我們,過去不再是堅固不動的參考點,而是隨著數位技術持續被改寫的場域。在這個由演算法與幻象交織的記憶迷宮裡,真相的價值從未如此珍貴。當記憶本身都能被製造,守護真實便成為每個人的責任,而我們的選擇,將決定未來世代如何理解過去、認識現在。
物聯網中藥局
傳統中醫(Traditional Chinese Medicine;TCM)源自古代中國的醫學體系,重視個體差異,考慮到個人體質和季節等因素。對於相同的疾病,中醫可能會根據不同個體的情況,開出不同的治療方法和藥物。KingNet國家網路醫藥比較中醫和西醫,指出:「中醫治本,西醫治標。」中草藥一直是華人治療、預防疾病和維持健康的重要手段。比較中醫傷科和西醫康復醫學的治療方法,可以理解為「中醫善於治療,西醫善於診斷」。近年來,隨著新冠肺炎病毒的全球蔓延,人們對中醫療癒和增強免疫功能的關注增加。根據中醫理論,中草藥被用於診斷、治療、緩解或預防人類疾病。中草藥的材料來自自然界,包括礦物質、植物和動物衍生的原材料,以及加工產品和草藥湯劑。傳統上,中醫涉及草藥的煎煮,使其中的成分溶解在水中,形成藥液。然而,煎煮過程耗時,攜帶藥液也不便。隨著中醫治療的普及,傳統的草藥湯劑正逐漸被科學中藥(Scientific Chinese Medicine;SCM)所取代。科學中藥並不是直接由原草藥研磨而成,而是通過收集草藥材料、煎煮和烘焙製成的,大大提高中藥消費的效率。近年來,科學中藥在消費者中獲得認可。病人獲得醫院或診所的處方後,會去藥房領取科學中藥包(裝有藥粉的紙袋)。藥劑師從各種科學中藥瓶中測量出處方量的藥粉,混合後包裝並密封成多日劑量。然而,這一過程通常是手工的,繁瑣且易出錯。為了解決這個問題,黃信行教授和我提出SCMtalk,一種基於物聯網(IoT)的科學中藥局機制,能夠提高科學中藥包生成的效率和準確性。SCMtalk實現4種機械物聯網設備:選粉設備(圖1 (1)-(7))、混合清洗設備(圖1 (8)-(10))、分配設備(圖1 (12))和包裝設備(圖1 (13))。這些設備和SCMtalk伺服器安裝在一個約53公分寬、40公分長、120公分高的櫃子中。通過這些物聯網設備,SCM粉末被包裝成藥包(圖1 (11))。選粉設備包括一個內置活塞的圓柱形藥罐(圖1 (6)),使用前需要填充預混藥粉。上述4種物聯網設備由IoTtalk物聯網平台管理,該平台安裝在分配和混合櫃中的SCMtalk伺服器上。分配和包裝櫃中的現場觸控面板(圖1 (14))作為多功能控制界面,顯示SCMtalk的當前運行狀態。SCMtalk也支援遠程控制,可以通過任何具有網頁瀏覽器的移動設備進行訪問(圖1 (15))。瀏覽器包括一個視訊螢幕,允許藥劑師通過鏡頭遠端監控SCMtalk的操作(圖1 (16))。分配和混合櫃中間的加載口(圖1 (12))是分配設備的入口,機器手臂(圖1 (8))將藥罐(圖1 (6))放置在這裡。下方是藥包的出口(圖1 (13)),在自動化過程完成後,可以從下方出口取出藥包(圖1 (11))。通過應用垂直包裝技術,每個處方的藥包數量可以達到100個。SCMtalk全自動系統運行,精確分配藥粉。其每一個包裝速度少於3秒,每個處方可達到超過100包,這在前處理和後續清潔上節省大量時間。這個SCM應用需要資訊工程師、藥劑師和機械專家的合作,使用物聯網平台來實現智慧藥房。
辯證法在AI機房
機房深處的嗡鳴中,理性正進行一場無人旁觀的演出。AI伺服器成列排開,數據流經管線,錯誤被標記、修正並轉化為下一輪嘗試。此處既無康德(Immanuel Kant)憂慮的形而上學僭越,也無黑格爾(Georg Wilhelm Friedrich Hegel)期待的絕對精神降臨。但若細察訓練曲線的起伏,仍可辨識出古老的模式:否定之否定,在矛盾中前進,在破裂中重組。康德若見到當代AI系統,或許會感到些許安慰。我們為模型設下界限,正如他為理性劃定合法範圍。拒絕提示詞(Prompt)與倫理對齊機制傳遞著相同訊息:並非所有問題都該被回答,能力並非毫無節制地釋放。當AI模型遭遇無法化解的衝突時,它被要求止步並承認限制,而非陷入二律背反(Antinomies)的無盡循環。這是一種知其邊界的理性。黑格爾則會指出,這些界限本身即是暫時的。AI模型不斷超越舊版本的歷程,正是辯證運動的實踐。每次微調都否定前一狀態,每次架構革新都揚棄(Aufhebung)舊範式。GPT-3讓位於GPT-4,並非否定其價值,而是在更高層次將其成果保存並超越。正反合(Thesis-Antithesis-Synthesis)在此演化為技術發展的當代形式,模型在錯誤中學習、在矛盾中成長。辯證法在此不再是觀念運動,而是具體的勞動關係與資本累積。進步敘事掩蓋這些代價,使矛盾轉移至供應鏈末端,以不可見的形式延續。在工程實務中,黑格爾的辯證結構被徹底去魅,轉化為可操作的技術形式。矛盾簡化為損失函數(Loss Function),否定簡化為反向傳播(Backpropagation),對抗性訓練(Adversarial Training)成為核心方法。生成對抗網路(Generative Adversarial Networks)透過生成器與判別器的制衡,在競逐中逼近納許(John Nash Jr.)均衡。此處沒有精神的自我實現,只有可計算的最佳化過程。黑格爾相信歷史運動指向自由意識的完成,但人工智慧顯示,辯證結構可以在沒有目的論的情況下運作。它無需終點與意義,只要在高維空間中收斂。這印證理性的習性:面對複雜性時,將走向矛盾與揚棄,無論是否有歸宿在等待。這種認知令人不安。我們以為進入純技術時代,擺脫形而上學包袱,但當模型在無數次失敗後找到穩定狀態,我們只是再次見證理性的老習慣:拒絕簡化,必須經由否定尋路。只是這次我們不稱之為精神的歷險,而稱之為機器學習。真正的問題在於,當辯證運動在無意識系統中自動發生,責任由誰承擔?沒有靈魂的理性依然塑造世界,產生偏見、失業與操控,而後果終由具體的人承受。康德的界限及黑格爾的運動如幽靈般徘徊於機房,提醒我們技術並非中性,理性的形式始終伴隨成本。當你站在資料中心外聽著冷卻風扇的聲音,不妨想像運轉的不只是矽晶片,還有幾百年前關於理性、自由與矛盾的老問題。只是這一次,它們不等待哲學家回答,而直接在現實中展開,由算法執行,其後果則由人類承受。
身有彩鳳雙翼飛:台灣半導體產業與電子製造服務產業 (二)
我將半導體與電子業的緊密結合稱為晶片經濟價值的外溢。以前電子系統經濟價值的創造高度集中在晶片單一環節,但是現在電子系統經濟價值的創造無法單靠晶片製程的演進,經濟價值的創造必須外溢至封測乃至於系統環節,方能完整創造可以交易的經濟價值。有兩個現象很可以說明問題。一個是進出口資料,台灣高階晶片的貿易成長與高階電子系統在外貿數量的成長是高度相當相關的;另一個更圖像化:黃仁勳來台灣邀宴總是從最上游的晶片製造一路請到電子系統製造服務廠商。這個近乎典範移轉的變化重新塑造供應鏈。半導體從最起始時的完全整合元件製造(Integrated Device Manufacturer;IDM),透過生產環節的去藕合—線路設計、晶圓製造、封測等環節之間的切割而各自追求單一環節的規模經濟,現在因為元件微縮自然條件壁障的接近而趨勢反轉,又重新整合了。而且這次的重新整合走得更遠,從晶片一直整合到電子系統。而且整合的程度相當緊密,這就是文章標題的身有彩鳳雙翼飛的隱喻。台灣因為歷史和地理的因緣,在AI興起的年代,挾此雙翼,竟然創下7.4%的GDP年增率!這個資料在21世紀的已開發國家中,除了愛爾蘭因跨國利益移轉(multinational profit shifting)以及IP的重置(IP relocation)外,僅有新加坡曾經到達此一水準。由晶片價值外溢造成半導體與電子製造業的密切垂直整合,在企業管理學的競爭理論中,就是在產業價值鏈佔據多重優勢節點,具有高度競爭力。特別是在高階晶片及電子製造服務(EMS)這兩個領域中,台灣世界市場的佔比都超過一半,這使得雙翼強強聯手的地位難以撼動。AI 伺服器的應用只是個開端。這雙翼開展的強大力量已開始擴充至其他的應用;或者與其他台灣傳統強項連結,形成更強烈的優勢。2025年台灣與英國簽訂的低地球軌道衛星(LEO)合作備忘録“A Five-year Memorandum of Understanding between the Taiwan Space Agency(TASA) and the U.K.-based Satellite Application Catapult(SAC)to Strengthen Space Industry Collaboration”,英國負責的是系統設計、應用與生態整合,台灣負責的是硬體製造、零件及供應鏈的執行,特別是特殊半導體及精密電子模組。這就是將原先半導體及電子製造的優勢應用並擴充至通訊、觀測、氣象、軍事等領域。無人機(UAV)自從在俄烏戰場上被實證應用偏向消費性電子的屬性後,台灣在非紅供應鏈中自然成了首選。無人機其上的零件其中有一部分屬於精密機械的範疇,譬如用於中短航程的馬達。精密機械原先也是台灣的優勢領域,但是面臨日、韓的競爭,以及中國的威脅。專注於能與半導體和電子製造的協作之後,就有機會明顯區劃與競爭者的市場,並且利用協作的其他部分取得優勢。電動車、機器人等新興產業也可以有相同的策略。台灣的醫療系統常年高居國際評比第一,也是台灣有高度競爭力的產業之一。但是醫療行為牽涉到法律、保險、文化等多種因素,不易外擴。最重要的,它不是可以量產的產業,也無法出口。所以對於醫療產業的市場行銷,過去曾以觀光醫療來嘗試,結果自然是不顯著,觀光醫療也有對本土的量能排擠效應。AI出現之後,AI healthcare是當然應用之一。結合台灣醫療體系中的知識、數據、工作流程(workflow)等,建立診斷(diagnosis)、預後(prognosis)、治療(treatment)等的模型。這樣的AI healthcare產品,不僅可以輸出,還可以量產。特別是2020年後歐盟提出主權資料(sovereign data)的概念、2023年 NVIDIA 跟進主權AI(sovereign AI)的概念,使得貨櫃AI server中心與AI healthcare模型捆綁出口變得可行。這是台灣醫療產業增值的契機。對於未來的產業,亦做如是想。量子計算是未來高效能計算的一部分,它出現的方式高機率會與傳統的計算以混雜(hybrid)的方式聯合運算。其實現在量子計算的原型機都帯有一部傳統的伺服器。問題是未來的量子計算機會因為其型態特殊而另起山頭?還是由目前已累積相當動量的AI伺服器體系整合進來?NVIDIA 顯然更傾向於後者,也在架構上做好準備:CUDA-Q。台灣的電子製造服務業顯然已嗅到商機而開始投入量子計算。自己投入量子計算的基礎研發顯然已稍晚,利用台灣已然成形的雙翼在量子時代繼續分享成長的果實,機會顯然比較高。
AI由線條推理到花朵綻放
這場藝術實驗始於我手中的彈性尖鋼筆(flexible nib fountain pen)。女郎站立時重心微偏,抬起的手指輕觸髮際,另一手將長髮牽引至身前。筆尖在肩線與腹部之間游移,藉由墨色乾濕的變化捕捉呼吸的節奏。襯衫的翻領、袖口與牛仔褲口袋的摺線,在壓力轉換下形成清楚而克制的結構,這些線條描寫衣物,界定身體如何佔據空間。創作隨後運用大型語言模型(LLM),進入提示詞(prompt)的階段。語言開始取代手勢,引導觀看的方向。描繪物件的提示要求理解線條的功能,讓牽牛花取代織品,成為身體的延伸。人工智慧在此展現出真正的推理能力,避免機械地生成裝飾圖案。先深入解析鋼筆原稿的內在邏輯,將每一條線索還原成空間語法。模型識別出哪些線條是承重的結構骨架(structural skeleton),哪些線條標示著遮蔽與顯露的邊界,哪些則只是暗示形體轉折的輔助記號。這個拆解過程是語義層面的理解,不是畫素的複製。推理的關鍵在於轉譯而非覆蓋。人工智慧理解到原本屬於襯衫領口、袖口褶皺、牛仔褲腰線的那些邊界線。這些固定布料本身的功能被巧妙地用來定義形體的轉折點與視線的停留位置。於是這些功能性邊界被重新詮釋為植物生長的潛在路徑,藤蔓便沿著既有的陰影邏輯與力學走向自然攀附,順著肌理的起伏延展。花朵精確落在原先線條最密集、視覺重量最集中的節點上,那些曾經是衣物扣合處、褶皺匯聚處的位置。如今成為牽牛花綻放的所在並非隨意安放的裝飾。這是從幾何邊界到有機生命的連續轉換,線條的功能在AI的翻譯中得以延續,只是語言從布料的物理性轉向植物的生長性。當水彩層次(watercolor layers)被引入,淡紫與嫩綠並未覆蓋鋼筆的節奏。LLM順著線條留下的路徑滲透,在透明與疊加之間建立時間感。身體因此不再是被觀看的靜態中心,而成為一個正在發生、持續生長的場域。線條在此完成它們的使命,從定義形體到啟動生長,最終退場後留下的是一套自洽的生態邏輯。人工智慧並不單純再現人體藝術。LLM由線條推理出花朵,由結構演化為生命。這是由視覺語法翻譯成自然法則的靜默過程。
智慧應用 影音