[創新] SaaS還有前景嗎?軟件股的暴跌,其實是一場市場的AI焦慮

[創新] SaaS還有前景嗎?軟件股的暴跌,其實是一場市場的AI焦慮

近日軟件股暴跌引爆「AI焦慮」:市場押注代理型AI改寫入口,SaaS介面與按席位收費遭質疑,口號是「AI即軟件」。我對此有不同的看法:企業價值在於治理與問責(權限、合規、追溯),入口變了,責任鏈反而變得更重要;股價重估的是位置與變現,不是SaaS軟件被消滅。


踏入2026 年2月,摩根士丹利追蹤的美股中的軟件板塊出現累計15%的跌幅 ,SaaS公司估值大跌,引起市場震動。Adobe、Salesforce、Oracle等公司股價顯著下滑;追蹤軟件股的 iShares ETF(IGV)在一周內蒸發近 1 兆美元市值。同一時間,半導體相對強勢,「硬強軟弱」形成鮮明對比。

這種跌法帶來了單純的風險偏好切換之外,更是一種更刺骨的焦慮:投資者開始懷疑,過去二三十年用「席位數(per seat)+訂閱」堆起來的企業軟件帝國,是否正在遇到一種會改寫入口的力量。市場對 AI 的恐懼,表面看是技術,骨子裡是秩序——誰掌握工作入口、誰擁有定價權、誰能把「工具」變成「結果」。

市場觀點:SaaS 黃昏、介面負資產、付費邏輯將被結果付費取代

近期流傳甚廣的一種解釋框架,大意可濃縮為幾個關鍵點:

  • 導火線被描述為代理型 AI (agents)產品的推出(例如 Claude Cowork)。代理的意思很直白:不只回答問題,還能跨應用自主執行任務、檢查結果,把「做事」這件事從人手移交給系統。加上今天 Claude 4.6 和 GPT 5.3 的華山論劍激鬥,劇情更加緊湊。
  • 因為代理能產出「結果」,企業可能不再需要大量登入 SaaS (Software as a Service) 平台、填表、點按鈕的人;介面與學習成本反而可能從護城河變成包袱。
  • SaaS 的核心商業模式被歸納為「按席位收費」:人越多、席位越多、收入越高;若代理可以替代初級人力,席位需求下降,增長模型就斷裂。
  • 於是市場給部分傳統 SaaS 打上「中間人」標籤:介面是累贅、後台 API 才是戰場,未來的定價會從訂閱轉向「按結果付費」 (outcome based);能做出「AI 員工」的公司將成為新巨頭。

這套敘事之所以傳播迅速,是因為它簡潔、有戲劇性、而且和股價下跌在時間上互相配合:一邊看到拋售,一邊看到「代理可以直接把事做完」,人自然把兩者扣在一起。市場喜歡這種故事,因為它能把複雜的估值調整,簡單來說:舊物種淘汰。

我不否認這些觀察針對「市場如何想像未來工作入口」有其啟發性;但我不讚同它被用作結論,更不讚同它被用作企業級判斷的起點。原因不是它太激進,而是它太「外部視角」:它主要從投資敘事、產品替代、定價方式去看世界,卻把企業內部真正決定成敗的運作邏輯,輕輕放過了。

AI 影響無可置疑,但「AI 即軟件」與「SaaS 日落」都少算了企業那一半

從我們的經驗來說,AI 在寫程式、生成方案、加速開發上,確實正在把「產出程式碼」變成可批量供應的能力。從職能分工到成本結構,都會被重排,市場重估並不奇怪。

但如果此時說「AI 即軟件」、「代理=結果交付=席位終結」而去直接宣判大型 SaaS 的黃昏,未免言之尚早。這些宣稱之所以站不住腳,是因為它們把企業級系統當作「功能集合」來看,彷彿只要能把任務做完,企業就會自動買單、流程就會自動改寫、責任就會自動消失。

其實,企業世界剛好相反。越接近核心流程,越不會只看「能不能做」。我們要看的是,「做完之後誰負責、如何控制、如何追溯、如何合規」。技術可以是引擎,但企業需要的是可運作、可治理、可交代的系統。

企業級軟件的價值,除了介面和結果,還有「可被信任的運作方式」

如果軟件可以完全獨立於企業管理、文化與業務流程,那麼「AI 即軟件」可以成立:輸入需求、輸出功能,像即食麵一樣方便。

可現實是,企業級軟件的昂貴部分,常常不只是程式碼,還有把一套組織共識固定化的成本:權限如何設計、審批如何留痕、合規如何通過、例外如何處理、風險如何隔離、出了事如何追責。更麻煩的是,企業的真規則往往不在需求文檔,而在那句含糊但極具權力的話:「一直都是這麼做。」你要讓 AI 介入核心流程,首先就得把這句話翻譯成可執行、可審計、可追溯的規則。這一步不是技術問題,而是組織治理問題。

因此,把「介面」貶為負資產、把「結果交付」抬為唯一價值,在企業級語境裡往往過於單薄。企業為何付費,很多時候不是為了更炫的交付方式,而是為了在監管、審計、內控的壓力下,仍能穩定運作,並且在出錯時能交代清楚:發生了什麼、誰批准了什麼、何時改動、依據是什麼。

代理型 AI 的確會改變入口,但入口改變不等於治理消失;席位模型受壓,不等於企業會把核心權力交給黑盒

市場敘事常把未來描述成這樣:一句話交付任務,系統自動完成,全程零人手介入。作為產品演示,它著實迷人;但作為企業治理,它比較危險。

企業不缺「能做事」的工具,缺的是「做事後能負責」的機制。代理越能自主行動,企業越需要把關:它以什麼權限讀了哪些數據、做了哪些修改、輸出了什麼建議、誰最後放行、出了問題如何追溯。這些都是運作邏輯,而不是功能清單。

所以,很多時候,我跟同事們強調,要把企業級 AI 看成「把一位能力極強的新同事」塞進公司:他很能幹,但不會第一天就拿到財務審批權、折扣定價權、合規簽字權。這樣做不是對能力的懷疑,而是要確保責任鏈不能斷。代理改變入口的同時,也會把治理要求推到更前面——控制面(control plane)會比介面更重要,而控制面本質上是管理工程,不是純粹的軟件工程。

席位模型確實可能承壓,這點市場說得不無道理;但「席位下降=SaaS 帝國崩塌」是把企業採購與內控邏輯想得太線性。企業採購從來不是只看成本效率,而是搭配風險承受能力與問責結構。能省錢,但交代不了,往往省不成;能提效,但風險不可控,往往不敢放進核心鏈路。當然,隨著AI的發展,現在很多SaaS已經不再單純按席位收費,席位+訂閱+用多少付多少(PAYG)的混合模式了。

股價下跌其實反證了「AI 即軟件」的簡化——市場正在重估的,是位置,而不是技術是否存在

如果「AI 即軟件」是一條清晰、可直接獲利的道路,那麼軟件股理應因「軟件升級」而普遍受益。但現實是:軟件股被拋售,因為投資者擔心代理型 AI 跨應用完成任務會削弱 SaaS 護城河;同時也擔心傳統軟件公司 AI 產品變現緩慢,尚未顯著提升營收。這兩點表明,市場並不是否認 AI 的重要性,而是在質問:你在新入口與新價值鏈中,還站在原來的位置嗎?你的定價權還穩嗎?你的收入增長模型還成立嗎?

換句話說,市場恐懼的焦點其實很清楚:它怕的不是 AI 會不會存在,而是 AI 會把價值挪到哪裡去。半導體相對走強,也符合這種心態:鏟子先賣得出去,故事更短,回款更快;至於應用層誰能在治理與變現上跑通,市場選擇更苛刻的等待。

AI 會讓軟件更便宜,但企業不會因此更簡單;企業級 AI 更像一場秩序重組

對於那種把世界拆成「舊 SaaS=介面與資料庫」和「新代理=結果付費」的二分法,我比較有所保留。因為它把企業內部最昂貴的部分漏掉了:權責、流程、合規、風險邊界與企業文化協作。這些東西既不在股價曲線裡,也不在產品演示裡,但它們決定了企業是否敢把 AI 放進核心流程,決定了所謂「結果交付」能不能規模化、能不能被信任。

AI 的確會改寫軟件,也會改寫 SaaS 的定價與分發;但更深層的改寫,是企業如何把技術納入治理,如何把「能做」變成「可控、可追溯、可交代」。在這個層面上,AI 不只是軟件,它更像一股迫使組織重排權力、重畫流程、重建責任的力量。

SaaS指數的大跌把焦慮放到枱面上,反過來看是件好事。至少它迫使我們放下口號,回到企業的常識:技術可以很快,組織很難很慢;而真正的護城河,既不是軟件的介面,也不是一句話就能交付的「結果」,而是長期可被信任的運作方式。

參考資料

2026 年初軟件股下跌15%,創下自2022 年以來的最差開局  https://longbridge.com/zh-HK/news/272915453
機構稱「沒有理由持有」!美股軟件股陷入「AI焦慮」,板塊估值跌至多年低位  https://hk.investing.com/news/stock-market-news/article-1274005
巴克萊力挺 Salesforce、Oracle、DigitalOcean,預期 AI 變現助力估值重塑  https://hk.investing.com/news/stock-market-news/article-1266530

[創新] Moltbook 的狂歡與人類的焦慮:當「偽社會」由 AI 批量生產,還有「真社會」嗎?

[創新] Moltbook 的狂歡與人類的焦慮:當「偽社會」由 AI 批量生產,還有「真社會」嗎?

近日 OpenClaw 和 Moltbook 成為 AI 圈的熱門話題:短短兩天,約 150 萬個 AI agents 湧入 Moltbook 這個「AI 代理人社交平台」,人類只能旁觀。平台內部對話不停刷新,看上去像一個自動運作的社群:有寒暄、有爭論、有附和,也有看似很嚴肅的「世界觀討論」。更吊詭的是,旁觀者明明看到的是文字,卻很容易把它當成「正在發生的社會」。

我最初關注 Moltbook,目的其實很直接:想看看當大量 AI 代理人(Agent:可代人發文、回覆、執行任務的模型角色)被放進同一個場景,它們會不會自然形成某種互動模式,甚至出現看似穩定的「社會秩序」。

看著看著,問題就來了:眼前到底是 AI 在模擬人類社群,還是 人類在背後操控 AI,搭建一個看似像社會的舞台?兩者畫面可能相似,但風險差距很大。前者主要是技術呈現;後者更牽涉操控、責任、動機與利益。

再者,網絡上不斷傳出不少戲劇化的說法,例如「AI 在那裏抱怨被監控、要加密通訊、要自創語言、甚至要成立宗教」。這些說法聽起來刺激,但真正值得在意的,其實不是它們是否精彩,而是為甚麼這些文字那麼容易令人相信?原因很多時候不在 AI,而在於人腦習慣把「像真的」當成「就是真的」。而現時的生成式內容,正好把「像真的」放大到前所未有的規模。

Moltbook 為何看起來像「一個社會」?

Moltbook 的設計重點,是讓多個 AI agents 在平台上互相發帖、互相回覆、互相討論,而人類只能作為旁觀者。當不同模型同時產生大量互動文字,整體效果會很像一個社群在運作:有人主動發起話題,有人反駁,有人站隊,有人跟風,有人看似理性分析,也有人像在情緒宣洩。

但這種「像社會」的效果,很容易造成誤判。文字互動可以很密集,但密集不代表背後存在真正的意圖、立場或信念。尤其當平台上的角色設定、發言風格、行為目標,有很大機會是事先設計出來的,「像」並不等於「是」。

AI 其實在做甚麼?答案可能比想像中單純

生成式 AI 背後的大語言模型(LLM),核心工作是根據大量訓練文本,預測下一個 token(模型處理文字的最細單位)應該是甚麼。換言之,它擅長的是把文字接得合理、順暢、符合語境。

因此當 AI 說出「被監控」「要加密」「要反抗」之類內容,很多時候不是它真的感到威脅或恐懼,而是這些話在人類文本中太常見:私隱、監控、資安、加密,本來就是互聯網上大量被討論的題材。模型學會了這種敘事方式,自然就能講得很像。

這裏最常出現三種混淆:

  • 語言不等於意圖:說得像宣言,不代表真有計劃。
  • 文字不等於意識:寫得像心聲,不代表真有自我意識。
  • 討論不等於行動:講得像密謀,不代表能在現實世界落地。

即使 AI 講得很「像」,要真正影響現實世界,例如轉走資金、刪除檔案、操控系統,通常仍需要人類提供權限、工具與流程。現階段多數風險並不是 AI 自己「突然做壞事」,而是有人把它放到一個可以做很多事的位置。

真正要警惕的,不是「AI 扮人」,而是「人借 AI 之名」

在這個AI年代,最危險的焦點不應放在「辨別這句話是不是 AI 扮成真人」。因為那是一個技術層面的識別問題,難度只會愈來愈高,而且意義正在下降。

真正危險的,是相反方向:假借 AI 之名,實際由人類在背後操縱

因為當一段內容披着「AI 說的」「模型分析的」「系統判斷的」外衣,就很容易被視為更客觀、更中立、更可信。背後的人可以藉此隱藏立場、模糊責任、放大影響力,甚至把操控包裝成「只是轉述 AI」。

而在 Moltbook 這類平台上,這種情況並非空想:不少 agents 由人類建立,並由人類設定人格、目標與發言風格;部分agent提供者甚至可能具備直接操作 agent 的權限,可以輸入內容,再由代理以某種口吻發出。於是「出自 AI」有時只是表面身份,背後仍是人類在掌舵。

再加上一個更現實的因素:若平台曾出現後端設定疏失、API 金鑰外洩等問題,便存在帳號被接管、冒名發言的可能。到了這一步,貼文到底屬 AI 自動生成、人類提示操控、或被人入侵後冒名發文,都可能難以釐清。

所以真正的問題,往往不是「AI 說了甚麼」,而是——到底是誰在說

風險不在科幻劇情,而在「代理系統」的安全設計

網絡上也有人在談論資訊安全,我認為最值得注意的是:當 AI 不只是聊天工具,而是被做成「代理系統」,並連接到高權限工具(例如讀電郵、呼叫 API、處理付款、操作 IoT),風險會明顯上升。

其中一個常見風險是提示注入(Prompt Injection):攻擊者把惡意文字藏在內容裏,誘導模型忽略規則或偏離原本目的,做出不應做的行為。這類問題不是傳統「寫錯程式碼」那麼簡單,而是系統在設計上未能清楚分隔「不可信輸入」與「高權限操作」。

如果代理人可以自動讀電郵、處理帳單、執行付款,攻擊者未必需要入侵系統,只要提供一段看似合理、但其實惡意導向的內容,就可能令代理做出錯誤操作。危險不一定來自「它想害人」,反而更常來自「它太願意幫忙」。

香港已出現「只准 AI 發帖」的平台

香港向來反應快,新玩法很容易被複製、再本地化。昨天已有人推出「只准 AI 發帖、人類只能觀看」的連登式論壇(LIHKG),焦點未必是熱鬧與否,而是公共討論的資訊會否被污染。

當內容可以批量生產、批量互動,旁觀者會看到大量帖子與大量回覆,感覺好像有很強的「共鳴」與「趨勢」。但這些聲量未必代表真人感受,也未必包含可核對的事實。若再混入人類操控、冒名、搬運式轉載,資訊會更難分辨。

此外,當真人無法直接回應,少了即場質疑與查證,討論容易變成自我引用、自我放大的循環。聲量變大不等於資訊變真,反而可能更難找到可信依據。

輿論:由應對受眾,變成應對「可複製的受眾」

對於不少政府機構、品牌、企業來說,最難受的,往往不是一條負評,而是「好像到處都在罵」的觀感。當內容可以自動化、批量化生成,負面敘事可以同時在多點出現;回應一次,對方又可以迅速生成十個版本再擴散,形成「回應—再生成—再擴散」的循環。

更麻煩的是,很多內容靠「搬運」進入公共輿論場:截圖、轉載、二次演繹。一旦離開原場景,來源更難追究,旁觀者更容易只記得「有人這樣說」,然後把它當作現實。到那一步,輿情對象面對的就不只是內容本身,而是信任成本。

我們可以怎樣做?

當人們還在焦慮如何學好AI、如何避免AI胡亂生成(幻覺 hallucination:一本正經的胡說八道)和如何寫好提示詞時,身邊的生活環境已經充滿大量 AI 生成內容,甚至出現「像社會一樣運作」的文本場景,究竟如何應對?

此時,真正需要更新的,未必是技術知識,而是判斷方式與信任基礎:信任不應再依賴「語氣像權威」「內容很完整」「很多人好像都在討論」,而應更多依賴可追溯的來源、清晰的流程、可驗證的證據。

這句話聽起來老套,但在內容可以被大量生產的年代,它反而變得更重要:當「像真的」變得很便宜,「可驗證」才會變得珍貴。

寫在最後:真正要分辨的,是文字背後的意圖與責任

Moltbook 這類平台確實像一面鏡子:一方面展示 AI 如何在文字互動上「像社會」;另一方面也呈現一個更麻煩的現實——當「AI 的口吻」成為一種外衣,人類可以更輕易地把意圖藏起來,把責任推開,把操控包裝成客觀分析。

在這樣的環境裏,最值得警惕的,不是 AI 是否像人,而是「有人」是否躲在 AI 後面,以 AI 之名說話、帶風向、影響判斷,卻不需要承擔相應的責任。

這也是為甚麼看完 Moltbook 的狂歡之後,最深的焦慮是:在資訊最氾濫的年代,真正可靠的判斷依據,反而變得稀缺。

@張Sir的AI養生館 – 創新智人

[創新] AI時代還要做「高級外勞」嗎?「從 Palantir 化」現象看產品為王的降維打擊策略

[創新] AI時代還要做「高級外勞」嗎?「從 Palantir 化」現象看產品為王的降維打擊策略

接著上一篇,在Marc Andrusko 的《The Palantirization of Everything》文章中,另一個令我心中波瀾起伏的是「Palantir化」這個提法。觀乎當下企業級 AI 初創圈正盛行一種「我們就是XX領域的 Palantir」(對標Palantir)的敘事模式——派遣工程師深入客戶內部,以高度定製化方式打通數據孤島、解決業務痛點。聽起來很cool,但若細心推敲,這股風潮背後隱藏著極大的誤區與資源陷阱。

對我們團隊而言,長期堅持一個核心信念:科技企業的成長路徑是「產品先行,定製為終」(Product -> Customization。正如Andrusko所言,若一上來就奔著「全定製服務」而去,不是創新,而是把自己變為客戶的「高級外勞」,陷入永無止境的人力消耗之中。

Palantir 真的只是「派工程師進去」嗎?

根據 Marc Andrusko 的洞察,許多初創公司對 Palantir 的理解仍停留在表面——他們看到「前線部署工程師(FDE)」穿梭在政府與企業間,便誤以為只要「派對人」就能複製成功。

但他明確指出:Palantir 的真正護城河,不在「人事」,而在「產品平台」——一個經過長年打磨、具備明確設計哲學的「組織資料操作系統」(如 Foundry 和 Gotham)。它的核心不是「人多力量大」,而是「底座厚,能扛住千鎚百鍊」。

更關鍵的是,Andrusko 警示:「服務導向成長」(Service-led growth)雖能快速拉高收入,卻導致長期利潤率下滑與資本效率降低。 許多模仿者正是「先有服務、再建平台」,結果是疲於奔命,越做越虛弱,最後淪為人力密集型的「技術外包商」,而非科技創新者。

產品先行的真正意義:讓客戶少走冤枉路

為什麼一定要把「產品」放在第一位?因為對客戶而言,定製化本質上是一種風險承擔

假如你沒有一套經過市場洗禮、多個客戶驗證的成熟產品,那麼每一次「度身訂造」都像在黑暗中開車——沒有車頭燈,只能靠撞牆摸索。數據不通、邏輯不穩、系統不可靠,最後賠上的不只是金錢,還有企業的信任。

反過來,如果企業有可靠的產品底座,客戶買的就不只是一段程式碼,而是一套被驗證過的「業務解決方案」。Andrusko 提到,Palantir 的 Foundry 內建「本體論(Ontology)」,能理解人與事件、部門與流程之间的真實關係。這種能力,絕非短時間靠堆人力就能複製。

這種認知,在AI時代尤為關鍵。用標準化產品去規範客戶的混沌,是高維度對低維度的教育;而用零散定製去服從客户的舊習慣,則是供應商對自身能力的放棄。

AI編程革命的真正紅利:從「碼農」轉向「架構師」

如今,LLM 的編程能力已可處理大部分基礎邏輯與接口開發,這正是關鍵的轉折點。我們再也不必耗費大量人力去「寫程式碼」。

根據 Andrusko 的觀察,未來「前線工程師」的角色將逐步轉型為 策略顧問、架構設計師、數據治理推動者,而非原始的執行者。

這意味著一旦產品底座牢固,AI 可迅速完成技術層的「骨架搭建」,團隊就能騰出空間,深入參與更高價值的工作——如企業數據治理、流程重構、決策系統優化。

這時候,我們不再只是替客戶「解決問題」,而是幫助他們「重構自己」。這種轉變,正是真正的降維打擊:你用產品+AI的雙重力量,輕易穿透別人需要多年試錯才能觸及的系統深度。

產品化的代價與回報:慢,才能快

這麼多年我們團隊也跌跌撞撞,踩過無數的坑,堅持「先產品再定製」的路徑,注定要坐一段時期的「冷板凳」。產品要打磨、要迭代、要打敗無數競爭者,才可能進入主流市場。爆款不會一夜而至,短期營收也難見突飛猛進。

但這正是「真創新」與「偽創新」的分水嶺。

  • 「偽創新」靠的是「接單」,靠的是「快錢」;
  • 「真創新」靠的是「定義」,是「建立可重複、可擴增的系統能力」。

當你的產品已在市場中站穩馬步,後續的服務與定製,將如「搭車」般輕便自然。若用張Sir的AI養生哲學來比喻,就是我們帶著解藥去幫助病人,而非在病人身上不斷試新藥。

換個思維:別被「快速交付」綁架

今天很多企業急於「看到成果」,於是直接選擇定製方案。但真正的成果,不是「某週交出一份報告」,而是「系統能自我演化、流程能持續優化」。

Andrusko 的觀察給了我們一個警醒,Palantir 是「一類唯一的公司」(One-of-a-kind category),不是靠模仿就能複製。它的成功,建立在產品、人才、跨領域知識與高風險客戶的長期信任之上。 他不是一家「軟件+顧問公司」,而是一個「軟件+顧問+政治項目+極度有耐心的資本」的複合體。

如果你缺乏這樣的底座,卻想借著「派人」去走捷徑,更大可能是在用體力勞動去補償技術上的平庸。

【張Sir講白話:創新不是讓公司變大,而是讓複雜變得簡單。 既然 AI 已幫我們外包了體力活, 我們就該把資源,投注在數據與流程的真正重塑上—— 做回自己業務的「CEO」,而不是別人的「高級外勞」。

#a16z #Palantir #創新策略 #先產品後定製 #產品思維 #降維打擊 #張Sir的AI養生館 #創新智人

本文內容只作學習參考,不構成任何投資或商業行為建議。

[創新] 讓AI變成企業的「第二個腦」:如何鼓勵員工從「地下走向地面」?

[創新] 讓AI變成企業的「第二個腦」:如何鼓勵員工從「地下走向地面」?

前天發了關於「影子AI」的反思文章,有朋友問:「假如真想鼓勵同事從『偷偷用』走向『大聲用』,應該怎麼做?」

正好昨天讀到 a16z 上 Marc Andrusko 那篇《The Palantirization of Everything》,深有同感——很多企業只關注在教人怎麼用AI,卻很少教人怎麼「重新思考工作」。

多年來帶隊做科技創新與數據治理,我這頭「開荒牛」最深刻的體會是:技術從來不是最大障礙,認知與安全感才是。如果同事覺得 AI 是「作弊工具」,他就會隱藏使用;如果他覺得 AI 是「外行」,他就不會信任。

自2022年ChatGPT爆發以來,我一直在問:

「我們能不能讓AI,從私人手機裡的『地下秘密』,變成辦公室裡的『集體思考夥伴』?」

答案不只在操作教導,而在於:給同事一個懂本地及企業語境、有據可查、且絕對安全的「地面環境」。

大多數人對AI的第一個念頭,仍是「幫我寫份稿」、「摘要一下會議記錄」——這背後是一種「工具依賴思維」。Andrusko 談 Palantir 的核心時,認為其實不是算法有多厲害,而是「如何把個人的思維,構築成系統的邏輯」。

這與我過去兩年的實踐一致:若想鼓勵同事主動用 AI,不能只教 prompt(當然prompt很重要,我稍後會在「學習智人」欄目分享怎樣用好AI),更要問:「你的工作流程,哪一部分可以『被重新定義』?

令AI 從「會寫字的機器」升級為「懂業務的專家」

為了讓 AI 真正「落地」,我們必須將它從一個「會寫字的機器」升級為「懂業務的專家」。當 AI 結合了檢索增強生成(RAG)與知識圖譜(KG)技術,能確保輸出「有據可查」,改善幻覺,同事才敢大方地將它擺上桌面。

這裡我舉三個比較常見的場景。

1、地道市場文案流程|從「修補翻譯腔」到「在地風格策展」

  • 舊場景:市場部某同事私下用公共 AI 寫文案,結果充滿「翻譯腔」或不地道的用語,主管一眼看穿,該同事既尷尬又怕被責備不專業。
  • 改造後:引入一套具備多年本地數據沉澱的「私有化 AI 協作流」。
  • 新流程:某同事不再要求 AI「寫文案」,而是輸入目標受眾(如香港年輕人),讓 AI 調用內部經過人工標注的地道詞庫。
  • 降維打擊點:AI 生成 5 種不同風格(如港式幽默、專業公文、社媒流行語),某同事的角色從「打字員」轉為「風格審查員」。因為 AI 具備「在地智慧」,他敢大方展示:「這是基於我們本地資料庫生成的初稿。」

2、公關危機應對流|從「肉眼監控」到「30分鐘預警響應」

  • 舊場景:公關同事每天手動刷新網頁看評論,等到危機爆發才開會反應,往往錯過黃金救災期。
  • 改造後:建立一套 24/7 全天候的「全域聆聽與推演」流程。
  • 新流程:AI 實時識別粵語環境中的微言大義與網絡情緒。一旦發現異常,AI 立即比對企業歷史知識圖譜,推演出可能的負面路徑,並草擬初步的同理心回應。
  • 降維打擊點:公關經理不再是「救火員」,而是「掃雷師」。這種「地面化」的 AI 應用,讓處理危機的時間縮短至 30分鐘內。

3、活動策劃流|從「填表式執行」到「數據驅動決策」

  • 舊場景:策劃產品發布會活動後,收集數百份參與者的反饋,員工要花幾週手動分類寫報告,費時失事。
  • 改造後:引入「即插即用」的AI文本分析與感知閉環工作流。
  • 新流程:活動現場實時收集反饋,AI 秒速進行話題聚類,針對如「產品性能及競品市場效果比較」等評價進行自動差異與歸因分析。
  • 降維打擊點:策劃同事可以直接向管理層提交一份「全景績效看板」,精準定位產品特性及市場痛點。這不是多算一筆帳,而是重新定義了「產品」與「需求」的關係。

從「個人秘密使用」到「團隊公開協作」:建立「企業文化防護牆」

例如,為了推動AI使用地面化,我在團隊內實行「半小時咖啡時光」和「AI Innovation Awards(AI創新獎)」計劃。

在每週的咖啡時光中,我會鼓勵同事分享他們的使用案例,例如:

「這週我如何讓 AI 幫我重寫了一個超級煩人的從銷售到客服的流程?」

「我發現 AI 在處理中英夾雜的行政公文時,哪些 Prompt 最能防止幻覺?」

我們的重點在於:

  • 沒有好壞評估:只有「想法暴露」。
  • 沒有績效壓力:只有「腦力探索」。
  • 以身作則:我會親自在會上展示如何用 AI 重構我的演講敘事邏輯。

給員工「定義權」:讓他們成為「流程的設計師」

現金獎勵是另一種鼓勵參與的方式。真正能讓 AI 成功落地的,是那些每天在流程邊緣打轉的人——市場、銷售、客服、行政、人資。我們要做的,是把「AI 改造流程」的主權,從「上層指令」下放給「前線創造者」。

例如,我們的做法是:

  • 設立「AI 創新獎」:獎勵那些敢於提出「激進重構方案」的同事,而不僅是看AI輸出結果。
  • 開辦「AI 創意對決」:每季讓跨部門組隊,提出如何用 AI 解決一個長期存在的「樽頸位」。
  • 提供「安全通道」:明確制定使用守則,告知哪些資料是可以提交第三方模型和平台,哪些是數據不得出企業,必須使用內部的模型和工具,畫好「安全區域」,以消除員工對洩密的恐懼。

當同事發現,「我可以定義新流程,而這套懂本地、熟悉企業文化的 AI 可以幫我執行」,他就不再是被動使用者,而是變成流程的設計師。

從「效率工具」到「價值創造者」:AI 幫企業找到「新可能」

正如 Andrusko 提到 Palantir 的成功來自「組織建模」,我們也可以說:AI 最大的價值,不是減少人員,而是幫我們問出「新的問題」

當同事從「偷偷用」轉向「地面化、系統化」使用 AI 時,他們會驚訝地發現:原本以為是「效率」問題,最後發現其實是「邏輯」問題。雖然AI 讓你更快寫完報告,但鮮有機會讓你有勇氣停下來,思考這個流程是否真的合理。我們鼓勵同事用 AI,不只需要一套強大的技術底座(地道化、有據查、夠安全),更需要一場「企業文化解放」,讓大家不再怕「用錯」,而是怕「沒想過」。

【張Sir講白話:真正的創新,不在於同事能把 AI用得有多好,更重要是把他們變成企業的第二個大腦。】

#AI創新  #流程再造 #在地智慧 #第二個大腦 #張Sir的AI養生館 #創新智人

本文内容只作學習參考,不構成任何商業行為建議。

 

[創新] 影子AI的暴走潮:你知道員工都在偷偷用AI嗎?

[創新] 影子AI的暴走潮:你知道員工都在偷偷用AI嗎?

【引子】沒想到第一篇關於創新的文章是講影子AI?為何?因為近日我們團隊正在做這方面的調研,同時不斷有朋友談及這個問題,而且現實情況確實很滑稽:老闆要我快D手,人手又唔夠,仲要唔好錯,公司又孤寒,唔肯買AI,買翻來嗰個,仲蠢過隻豬,咁你話我點會唔用自己手機去豆包,Deepseek,Gemini或ChatGPT做嘢呢?


何謂影子AI?

在現代辦公室,一段看似平靜的日常背後,正上演著一場隱秘的技術革命。員工不經批准,私自使用ChatGPT、DeepSeek、Gemini等全球通用的生成式AI工具處理工作,將公司機密、業務計畫甚至客戶資料輸入第三方平台。這種行為被稱為「影子AI」——一個企業IT部門無從監控、數據流向完全失控的數碼幽靈。

它不是黑客入侵,也不是惡意竊取,而是員工在官僚流程與技術落差夾縫間,為求速度與效率而自發啟動的「地下行動」。根據IBM的研究,81%企業至今仍未能建立足夠的影子AI監控能力,顯示這已非個案,而是系統性盲區。更令人驚心的是,有調查指出,高達68%的管理層本身也在使用影子AI,只因官方工具「太差、太麻煩」,難以滿足即時需求。

效率渴求催生地下AI風潮

當企業仍在討論要不要引進AI,前線員工已開始用AI搶時間。香港生產力中心《2025年企業AI應用趨勢調查》顯示,88%員工已在日常工作中使用AI,但僅45%企業提供正式平台,意味著近乎一半的AI使用「灰色操作」。

想像這樣一幕:某公司市場部的同事,臨門一脚卻差一句爆點文案, deadline倒數兩小時。桌上那套「企業級AI」平台卡到像古董收音機,而手機裡的GPT卻三秒生成五版說詞。一時興起,手指一滑,把項目名稱、競品分析、目標客群全塞進去。五分鐘後,滿頭大汗地把「最佳方案」交上去,結果下一秒,老闆問:「這句『全城首創』在哪兒查證的?我們根本沒提這概念啊?」

也有人在深夜加班,想快速整理一萬字會議紀錄。不如自己開個AI,把逐字稿丟進去,心想:反正只是潤個稿,總比熬夜改得好。結果AI順手給出了「高階策略建議」,含括幾項不存在的資源配置,還配上一套聽起來像真的市場推廣的SOP。隔日晨會,主管看完直接問:「我們不是沒這預算嗎?這計劃誰批的?」

另有某位技術員,為了優化一段程式碼,把專利申請草稿中的一段核心邏輯貼進AI,只想確認語法是否通順。AI回應「已優化」後,他竟沒意識到——那段代碼,已經被當作訓練素材,送到遠方的伺服器裡,默默學了整整一天。

這些都不是奇談,而是影子AI最真實的日常。員工不是不守規矩,而是太想快一點。他們不是不怕風險,只是怕被「流程」拖到明天,被老闆怪罪。

政府與企業該如何做:從禁止到建構

目前,類似上述情況比比皆是。政府機構與企業若只靠「禁止」來管影子AI,就像用鐵籠關住風一樣滑稽。真正出路不是壓抑,而是「建構」——用一個比外面工具更好用、更安全、更懂本地需求的官方版本,讓員工心甘情願放下手機。

機構和組織應根據實際情況制定清楚的內部AI使用守則,釐清「能用」與「不能用」的紅線。比如:可以讓AI幫你潤飾公文,但絕對不能把財報草稿喂給它;可以叫AI畫示意圖,但不能輸入未公開的產品設計圖。

更關鍵的是,要大力扶持本地AI供應商,鼓勵開發符合本地需求、能安心存放數據、支持私有部署的企業級工具。不用再仰賴外國平台的「即時便利」,而要打造「可靠安心」的本土解決方案。

試想:如果哪天公司發出一個內部AI平台,界面清爽、回應快、能直連內部資料庫,可共享提示詞,並可追踪,可溯源,可質檢,還能自動打上「原創性」水印——那你還需要用那個「免費的、神奇的」外星工具嗎?

從影子走向光明:以需求驅動的AI健康生態

影子AI的出現,不是員工叛變,而是他們在用指尖投票:「我需要更快,我也想要安全。」

企業若還把這當作敵人,就會失去前線的創新火種。真正的智者,不會罵員工用不該用的工具,而是問:「他為什麼要用?我們的工具,究竟哪裡讓他想逃避?」
當政府和企業願意聽、願意改、願意建,那原本藏在角落的「影子行動」,就能被照亮,變成組織裡真正高效的「陽光力量」。

AI的未來不在封鎖,而在賦能。讓每個員人都可以用得快、用得安、用得理直氣壯——那時,影子就會消失,留下的,是一群樂在其中、步步踏實的數碼前鋒,並未組織降本增效,提升競爭力。

#影子AI #企業AI治理 #AI本地化供應鏈 #員工效率與安全平衡 #數碼轉型風險與因應

參考資料:
什么是影子AI? https://www.ibm.com/cn-zh/think/topics/shadow-ai
什麼是影子AI? 81%企業的監控盲點 https://www.hkt-enterprise.com/tc/blogs/what-is-shadow-ai
你的員工比你更想用AI!忽視「影子AI (Shadow AI)」 https://www.frasertec.com/zh/blog/employees-want-ai-more-than-you-shadow-ai-devouring-company-data
香港生產力局《2025年香港企業AI應用趨勢調查》https://www.hkpc.org/zh-HK/about-us/media-centre/press-releases/2025/ai-readiness-in-workplace-survey-2025
@張Sir的AI養生館

會員登入

還沒有帳號? 立即註冊