這是個讓人文領域焦慮的時代。但是除了焦慮,與過度吹捧人文價值的另一端,有沒有更深刻的討論?
我們可以從整個 LLM 時代的地基問題開始想起
語言與世界的關係,不是【指稱】,而是【投影】。LLMs are not models of human cognition, but geometric mirrors of human language: they reflect what survives statistical compression, and distort what depends on history, embodiment, and culture.
傳統想法是,語言指向世界(reference);但在 LLM/語言幾何學視角下,更準確的說法可能是,語言是人類與世界互動後,在認知—文化—行動層面形成的「壓縮投影」(projection)。
但世界不是直接進入語言其中。這個從「世界 → 感知/行動 → 社會互動 → 慣例 → 語言」的鏈,說明了語言本身已經是二手甚至三手資料。所以簡要地說,語言不是世界的鏡子,而是世界在人類可溝通尺度上的低維投影。 LLM 從人類語料學到的,是「人類如何談論世界」的幾何,而不是世界本身。這一點作為背景哲學預設,非常重要。
好,那 LLM 的問題到底是什麼?在學界與業界常被說成一句話:「LLM 缺乏 grounding」。但這句話有點簡略了。 也許更精確的說法是,LLM 的向量空間,只有語言與語言之間的閉合動力系統,缺乏「語言—行動—後果」的回饋環。
所以它(目前錨定語言的版本)的極限並不是不知道世界長什麼樣,而是不知道「做錯會怎樣」。這也是為什麼它能流暢描述危險,卻無法自然形成風險感、責任感、後果的權衡。
那當前熱門的物理與具身 AI( Physical / Embodied AI) 能完整補這一塊嗎?也許部分能,但可能不是我們想像的那種「解決」。可能比較是說,Physical AI 補的是因果回饋(causal grounding),不是語義真理(semantic grounding)。
具身 AI 能提供因果回饋行動到結果、試錯到代價、某種時間連續性等等。 這對 LLM 來說的確是質變。但是,我們給它補上的是因果回饋 ,不是語義真理的意思是,我們讓模型知道:「這樣說/這樣做,世界會反彈」,但它不會因此自動產生價值、意義、規範。
所以,我目前的想法是,Physical AI 也許無法解決語言出發的 LLM paradigm,只能讓這個 paradigm 不再那麼自洽。
為什麼?因為語言是跨主體、跨世代、跨文化的; 而身體經驗是局部、當下、個體化的。 一個機器人的身體經驗,不等於人類的身體史,更無法等於文明的集體經驗。 Physical AI 會造成的是:某些向量方向開始有實際代價;但整體語言拓撲不會因此崩解。
Language does not ground in the world directly. It grounds in socially stabilized action. Physical AI adds consequences to actions, but meaning still lives in the linguistic geometry shaped by culture and history.
如果一個系統只有語言幾何,卻沒有身體與歷史,那它所顯現的「語言結構」, 是否正好讓我們看見,有哪些語言現象其實從來就不需要世界?
從這個角度看,人文學科的位置反而更穩固。
但,這些討論對於教育決策者太抽象了,我們需要的,比較像是以下這些具有 AI 生成味道的說詞。
AI 時代的「關鍵能力」其實是人文能力
例子 1|誰能問對問題?
- 面對 AI,一般學生問:「幫我摘要這篇文章。」
- 受過文史哲訓練的學生應該會要問:「這段論證的前提是什麼?它隱含了哪個時代的價值觀?如果換成東亞語境,結論還成立嗎?」
差異不在 AI,而在提問者的詮釋框架。 這正是文學院應該訓練的能力:概念史、脈絡化、問題重構。
修正 AI 偏見,本質是「人文判斷」
例子 2|AI 的偏見不是 bug,是文化產物
- AI 在法律、性別、族群、歷史敘事上的偏誤,往往來自英語中心的語料、西方近代自由主義的價值預設。
- 能「看出這種問題」的人,不是期待最會寫程式的,而是懂得比較文明、歷史、思想傳統的人。
文學院可以直接產出 「AI 偏見診斷模組」(Bias Audit for LLMs) 由哲學、歷史、語言學共同設計測試題,而非只靠 accuracy。
鑑定 AI 產出好壞,是「高階閱讀能力」
例子 3|AI 很會寫,但不一定「對」
- AI 可以生成看似完美的歷史解釋,但可能涉及時代錯置(anachronism)、概念混用(把現代概念硬套古代文本)、修辭流暢但論證空洞。
- 此外,我們很快的可能會面臨人類語料稀缺的議題,持續產出高品質與高價值的語料,也是人文領域的重責大任。
能辨識這些問題的,是訓練過精讀、詮釋、文本批判的人。 這是文學院學生每天在做、但過去「無法量化」的能力,也是文學院應該訓練的能力。
從「會用 AI」到「駕馭 AI」
例子 4|多輪對話不是聊天,是論證工程
- 與 AI 的高品質互動涉及到 設定問題邊界、拆解假設、逐步修正、要求反證與替代解釋。
這正是涉及哲學的辯證訓練、歷史的反事實思考、文學的多重視角解讀。
如果學生不懂歷史與概念史,他們無法發現 AI 把現代價值硬套進古代文本; 如果沒有哲學訓練,他們無法拆解 AI 論證中的隱含前提; 如果沒有語言與敘事敏感度,他們只會被「寫得很流暢」的錯誤答案帶著走。
俏皮一點說:文學院是在教「如何成為 AI 的導演,而不是打字員」;如果 AI 是放大器,文學院確保我們放大的不是偏見與錯誤。
給教育決策者們的「投資語言」
未來教育的關鍵不在答案,而在幾件事:問對問題、修正偏見、鑑定品質。這三件事,正是人文教育最成熟、卻長期被低估的能力。
在過去的教育體系中,我們很努力地讓一個人的能力向量變得更長,亦即知識更多、技術更精準、效率更高。換句話說,我們關心的是向量的模長(模長越大,能力越強)。 但在 AI 時代,模長不再是唯一的問題。因為很多時候,機器的向量可以長得比人更快、更大。於是教育開始必須回答另一個問題:這個向量究竟指向哪裡? 也就是說,教育不只是讓人變得更強,而是讓人理解方向。 這也是我為什麼一直覺得,人文教育在 AI 時代反而變得更重要。科技非常擅長增加能力的模長,但人文更關心的是方向 — 我們為什麼而做?為誰而做?做了之後,世界會往哪裡去?工業時代的教育,使人成為有用之人;AI 時代的教育,則使人思考人之有用。科技增加力量,而人文決定方向。