語言作為一種複雜適應系統 (1)

Language as a Complex Adaptive System
Emergence
Author
Published

January 31, 2026

這篇從蟻群到AI:揭秘「湧現」法則如何創造智慧與秩序 提出了一些有趣的觀點。以下改寫成較嚴謹、可追溯依據的版本;同時加進把「語言」視為複雜適應系統(complex adaptive system, CAS),並討論語言的湧現行為


0. 導言:為什麼「看似聰明」常常不是「有人在設計」

當我們看到蟻群能找到最短路徑、鳥群能整齊轉向、城市交通會突然塞成一團、或大型語言模型(LLM)在某些任務上能力似乎「突然長出來」,直覺很容易跳到兩個極端:

  1. 背後一定有中央控制(蟻后是 CEO、模型裡藏了一個小小工程師)。
  2. 這是神祕的“強湧現”:宏觀秩序是「原理上不可由微觀推得」的全新實體。

比較嚴謹的做法是:先把「湧現」分清楚,並且在每個例子裡問同一個問題:我們看到的是「不可推導」,還是「可推導但需要新的有效描述」或是「計算上難以直接推出」?


1. 什麼是湧現:弱湧現 vs. 強湧現

弱湧現(weak emergence)

Bedau 對「弱湧現」的典型說法是:宏觀性質在原理上可以由微觀規則產生,但往往無法用簡單的解析推導得到,通常需要模擬/計算才能看見它的出現 1。這種立場在複雜系統與非線性動力系統研究裡很常見。宏觀規律並非魔法,而是可由底層互動生成,只是很難靠手算「一眼推到」。

強湧現(strong emergence)

強湧現則主張,宏觀性質在本體論上是新的、甚至涉及某種「向下因果」,因此即使知道所有微觀定律,也在原理上推不出。這是哲學上更激進、也更具爭議的主張 2。把湧現一開始就定義成「原理上不可推導」很容易不小心把讀者帶進強湧現的領地。


2. 「秩序」怎麼在自然界長出來:相變、耗散結構與第二定律

相變不是“突然變魔術”,而是控制參數跨過臨界區

水結冰、鐵磁體失磁、甚至某些群體行為「突然協調」常被拿來類比湧現。這個類比的核心其實是: 當控制參數(溫度、密度、耦合強度、噪音、連結率)跨過臨界區,系統會出現新的穩態或新尺度行為。 「突然」常是我們用宏觀指標測量時的主觀感受;在更細的尺度上,可能是連續但非常陡峭的變化。

耗散結構:它沒有推翻第二定律,它只是提醒你別把開放系統當封閉系統

貝納德對流、颶風、渦流等「有序結構」常被描述成「熵增加的宇宙中竟然長出秩序」。更嚴謹的說法是:

  • 這些結構是開放系統(有能量/物質通量),在遠離平衡時可以形成穩定的空間–時間圖樣 (4)。
  • 第二定律針對的是孤立系統總熵不減;開放系統的局部降熵,通常伴隨對外更大的熵產生,並不矛盾。

因此「耗散結構顛覆第二定律」這句話比較恰當的改寫是:

耗散結構顛覆的是「把第二定律錯用在開放系統」的直覺,而不是第二定律本身。


3. 幂律與自組織臨界性(SOC)

很多現象(地震規模、金融波動、神經雪崩、城市規模、字頻)都呈現胖尾分布或近似幂律。SOC 提供了一個重要機制框架:大型耗散系統在緩慢驅動下可能自發靠近臨界狀態,導致跨尺度的雪崩事件 (5)。

但更嚴謹的但書是:

  1. 看到幂律不等於證明 SOC。不同生成機制都可能產生幂律,必須看相關長程關聯、臨界指標等更完整證據 (6)。
  2. 因此把「幂律」直接外推成「壓制小波動會導致超級崩潰」這種政策寓意,在不同系統(生態、金融、治理)中要非常謹慎;很多制度性系統的因果鏈比 SOC 模型假設複雜得多 (7)。

4. 把焦點轉向語言:語言是複雜適應系統,文法與語意可以是「使用中湧現」

語言是複雜適應系統:不是比喻,是研究綱領

這裡的關鍵不是「語言很複雜」這句廢話,而是語言結構的解釋單位應從“句子/文法規則”往“互動—收斂—慣例”的動態過程移動。 “Language is a Complex Adaptive System” 這個論說認為語言由多代理人(說話者)互動構成;語言結構(規律、類型、慣用法)會在使用中、在社群中動態重組,並呈現非線性、階段式轉換等特徵 (8)。

這裡的「湧現」通常是弱湧現

  • 沒有人在中央設計整套文法
  • 但局部偏好、社群互動、學習偏誤、溝通壓力,會把系統推向某些穩定結構

語言湧現的三種典型路徑

慣例如何湧現:從語言遊戲到文化傳遞。

(A) 社群互動的自組織:Naming Game Steels 系列工作用代理人互動模型展示:在反覆的命名協商中,群體可以從多對多的混亂對應,收斂出共享詞彙與較穩定的約定(convention)(9)。

(B) 文化傳遞的壓縮:Iterated Learning Kirby 等人指出,語言的設計特徵(如組合性、可壓縮的規律)可由 iterated learning 解釋:每一代的產出成為下一代的輸入,學習瓶頸與表達需求的拉扯會讓語言結構逐步朝「可學又可用」的方向演化 (10)。

(C) 統計規律的跨尺度:Zipf 與字頻結構 字頻的 Zipf 現象是語言宏觀統計的經典例子;但更細緻的研究指出,真實語料的 rank–frequency 結構並不只是「漂亮的直線」,而包含可重現的偏離與更複雜的形狀,暗示生成機制不止一種 (11)。

若把「語言」視為一個由個體互動、學習偏誤與文化傳播共同驅動的系統,那麼「詞彙–語法–語意」的某些規律,確實可以被視為在使用中湧現的宏觀結構。


5. 回到 AI:LLM 的「湧現能力」到底是什麼?它可能同時是真現象、也可能是“尺的幻覺”

什麼叫 LLM emergent abilities(原始定義)

Wei et al.(2022)把某些能力稱為 emergent:小模型幾乎做不到,但大模型突然在某個尺度上「看起來能做」;而且這個轉折不容易從小模型表現直接外推 (12)。

重要反駁:很多“突變”可能是度量方式造成的海市蜃樓

Schaeffer et al.(2023)指出:如果評分指標是非線性或不連續(例如 exact match / multiple-choice grade),就可能把本來平滑的性能成長「切」成看似突然的相變;換成連續度量或更好統計,突變感會消失 (13)。

更嚴謹的結論不是「湧現都是假的」,而是:

  • “表現曲線的形狀”很大程度依賴你用什麼尺量
  • 因此在談 LLM 湧現時,必須同時報告:多種度量、置信區間、以及跨模型家族的可重現性

機制層面的線索:induction heads 的確是候選,但仍屬進行式

機制可解釋性研究提出 induction heads 與 in-context learning 的關聯是重要線索;近期也有更形式化地討論 induction heads 在訓練過程中如何「出現/陡峭成形」。(14) 但把它說成「已完全解釋 LLM 湧現」仍過早;目前比較負責任的講法是:它提供一個可檢驗的機制假說集合


6. 一個把「語言湧現」與「LLM 湧現」接起來的框架

若要把語言與 LLM 放在同一張圖上,建議用這三層:

  1. 微觀規則層

    • 人類:學習偏誤、加工限制、互動策略
    • 模型:梯度下降、架構偏置、資料分佈、tokenization
  2. 中觀機制層(關鍵!):語用對齊如何把社群推向共享結構

    • 人類:命名協商、語用對齊、文化傳遞(Naming Game / Iterated Learning)(9)

    把「語言湧現」的主要引擎,放在對話中的語用對齊(pragmatic alignment),去看人們在對話中透過多層次的對齊(詞彙、句法、語意、情境模型)逐步收斂,降低協調成本並建立可重用的慣例。

    • 互動對齊模型(Interactive Alignment)

    Pickering & Garrod 的互動對齊模型主張:對話者會在多層級表徵上透過 priming 等機制自動對齊,進而對齊情境模型;這提供了一個心理學層面的「中觀機制」:為何對話能快速達成協調,而不需要每次都做昂貴的心智模型推理。

    • 共同基礎(Common Ground)與語言作為 Joint Action

    Clark 在 Using Language 中強調語言使用是「共同完成的行動(joint action)」:共享知識/共同基礎不是背景設定,而是對話中持續被更新與利用的協調資源。這使得「語用」不是語言的附屬品,而是社群秩序形成的核心操作系統。

語用對齊把「一次對話的臨時協調」,變成「可累積的社群慣例」。

  • 模型:注意力電路、induction head、表徵重組(14)
  1. 宏觀現象層

    • 人類語言:Zipf 結構、語法規律、語意慣例的穩定與漂移 (11)。
    • LLM:任務表現曲線、few-shot 行為、工具使用等(同時要小心度量幻覺) (13)。

    這樣討論的好處是不必先在「強湧現 vs. 弱湧現」選邊站,而是把可檢驗的東西放在中觀機制層:哪些互動/學習機制,會導致哪些宏觀統計與能力分佈。且能與對話心理學的互動對齊模型、語言遊戲(naming games)與 iterated learning 框架形成可檢驗的整合模型。


7. 一個整合性的主張

語言湧現 =「對齊動力學」+「文化傳遞選擇壓」+「效率約束」

一個可操作的整合框架(可視為研究綱領,不是定理)

  • 對齊動力學(dialogue alignment) 讓個體互動快速收斂,生成短期可重用的慣例。

  • 文化傳遞(iterated learning) 把局部慣例放大為社群規律,並使結構受可學性/表達性塑形。

  • 效率約束(efficiency pressures) 讓語言系統在資訊傳遞與認知成本之間取得折衷,形成跨語言的統計與結構傾向。

語言的秩序不是天降的,是對話者在「省事」與「說清楚」之間反覆協商的副產品。(學界會皺眉,但資料通常會點頭。)

避免湧現變成「因為水逆」,應該讓湧現離開口號,進到實驗設計。 可能的幾個預測假說:

  • P1:對齊強度 ↑ ⇒ 慣例收斂更快、但多樣性更易崩塌

在互動頻繁、社群邊界緊密的網絡中,詞彙/構式更易形成穩定慣例;但同時方言/變體更可能被“吸平”。(可用社群網路結構+語料漂移測試。)

  • P2:共同基礎不對稱 ↑ ⇒ 語用策略更倚賴明示標記與冗餘

當說話者對聽話者的知識狀態估計更不穩定(弱 common ground),語言會偏向更顯性、更高冗餘(如明示指稱、重述、保險性修飾)。這與「語言作為 joint action」的可預期結果一致。

  • P3:傳遞瓶頸 ↑ ⇒ 結構組合性/規律性 ↑

iterated learning 框架預期:在輸入受限或噪音較大時,語言更容易演化出可壓縮的規律與更清晰的組合性。

  • P4:效率壓力 ↑ ⇒ 形式更短/更可預測,但語用推理負擔可能上升

效率研究指出語言在成本與資訊量間平衡;在更強效率壓力下,形式可能更精簡,但需要更多語用推理補足訊息缺口。

CAS 視角的價值在於:它把「語言結構從何而來」從靜態描述,變成動態生成的問題;而語用對齊提供了可實驗、可建模的中觀機制,讓語言演化不必只靠宏大敘事。以「對話中的語用對齊」作為語言湧現的核心中觀機制,並以文化傳遞與效率約束作為跨時間尺度的選擇壓。這一框架同時產生可檢驗預測,並能統合語料研究、心理實驗與代理人模擬。


Citation

BibTeX citation:
@online{2026,
  author = {, K-AI},
  title = {語言作為一種複雜適應系統 (1)},
  date = {2026-01-31},
  url = {https://loperntu.github.io/posts/2026-01-31/},
  langid = {en}
}
For attribution, please cite this work as:
K-AI. 2026. “語言作為一種複雜適應系統 (1).” January 31, 2026. https://loperntu.github.io/posts/2026-01-31/.