你以為你在寫研究假設,其實你在許願? —— 為什麼 AI 給的「如果」,不等於研究假設

這不是一篇概念介紹文

而是一篇「研究假設校正文」

在寫研究計畫的某個深夜,你很可能做過這件事。
把研究問題丟進 AI,請它幫你「生出幾個研究假設」。

螢幕很快亮起來,一條一條 if–then 句型排列整齊,看起來邏輯清楚、語氣專業、甚至比你自己寫的還順。

但這正是危險的地方。

問題不在於你用了 AI,而在於你可能在不自覺中,
把一種「預測導向的思考方式」,當成了「因果推論的研究假設」。

這篇文章不是要你背定義,而是想在你把假設寫進 proposal 前,
幫你少踩幾個會被指導教授一眼看穿的雷。

你是在設計實驗,還是在許願?

「如果 X 改變,Y 就會跟著改變。」

這句話,在兩個世界裡,意思完全不同。

  • 在因果推論(Causal Inference, CI)裡,這是一個對世界做出的承諾:

如果我真的介入 X,現實世界的結果會不會因此不同?

  • 在可解釋 AI(Explainable AI, XAI)裡,這往往是一種預測模型的操作思維:

如果我稍微改動輸入特徵,模型的預測結果會不會翻盤?

真正的問題在於——研究生在寫研究假設時,
很容易不自覺地用後者的邏輯,來包裝前者的語句

於是,你以為你在設計實驗,
其實你只是用了一個「看起來很像因果」的預測句型。

為什麼這篇論文值得你停下來看?

《From What Ifs to Insights: Counterfactuals in Causal Inference vs. Explainable AI》
由 Galit Shmueli 等學者撰寫,討論的不是「怎麼用 AI 寫研究」,
而是一個更根本、也更容易被忽略的問題:

在資料科學裡,
「如果(counterfactual)」這個詞,在不同方法論中,承擔的是完全不同層級的責任。

統計學家的 因果推論(CI: Causal Inference ),與電腦科學家的 可解釋 AI(XAI: Explainable AI )
都在談 counterfactual,但他們談的,根本不是同一種「如果」。

這篇論文真正做的,不是選邊站,
而是把這兩種「如果」背後的責任邏輯清楚拆開。

P.S. 本文第一作者 Galit Shmueli(徐茉莉)教授,
現任教於友校清華大學服務科學研究所。

一、你以為假設是在「描述關係」,其實你是在承諾一條世界線

在因果推論裡,研究假設不是句型問題,
而是一個世界觀問題

當你寫下:如果介入 X 發生,結果 Y 將產生變化

你其實已經默默承諾了很多事情:

  • 這個 X 是可被實際介入
  • 其他條件在介入前後不會失控地改變
  • 這條世界線,是可以被比較、被檢驗的

關鍵在於——這些承諾,通常不會寫在 Hypothesis 那一行

它們往往躲在:

  • Data section 的資料限制
  • 變項操作化(Operationalization)
  • 或一句看似無害的「在其他條件不變下」

AI 工具真正的風險,不是「幫你亂寫」,
而是讓你在不自覺中,
承諾了一條自己其實沒意識到的世界線

二、為什麼 AI 給你的「如果」,看起來總是那麼合理?

這不是你不夠嚴謹,而是因為預測導向(XAI 式)的 if–then 語言,真的太友善了

它有三個讓人上鉤的特性:

  1. 語言順:不用先交代資料生成過程DGP: Data Generating Process
  2. 結構漂亮:每一條都像答案,而不是待檢驗的問題
  3. 即時回饋:條件一改,結果立刻變

但在因果推論的眼裡,這些「合理」,其實都很可疑。

  • XAI 式思維關心的是

我怎麼動輸入,模型才會改變預測?

  • CI 關心的是

如果我真的動了這個世界,結果還會一樣嗎?

當你把這兩套邏輯混在一起,研究假設就會變成一種——
對模型成立,對世界無效的願望。

三、你以為你在建構理論,其實你只是在調參數

這是一個殘酷、但非常實用的自我診斷點。

請你現在停下來,問自己一個問題:

我這個 X,是一個真實可介入的行為或政策,
還是只是資料表裡的一個欄位?

如果你很難回答,那你很可能不是在建構理論,
而是在測試模型對某個特徵有多敏感。

這正是論文中區分 CI 與 XAI 的核心差異:

  • CI 的反事實:改的是世界(intervention)
  • XAI 的反事實:改的是輸入(feature perturbation)

兩者都可以寫成「如果⋯⋯那麼⋯⋯」,但只有一種,
要求你為真實世界的因果機制負責。

四、研究假設不是點頭確認,而是必須被檢驗的承諾

論文特別提醒:在 CI 的脈絡下,反事實不是「我覺得合理就好」。

你不能只停在「看起來像是這樣」。

真正負責任的做法是:

  • 在形成詮釋之後
  • 明確交代你的資料生成過程假設
  • 並透過假設檢定、穩健性測試等方式驗證這個關係是否真的站得住腳

這不是「要不要買單」的問題,而是:

這條假設,禁不禁得起不同世界線的檢驗?

研究假設校正參考清單

在你把 AI 給你的句子貼進 proposal 前,
請至少問自己這四個問題:

  1. 介入檢核
    這個 X,真的可以被人為介入嗎?
    還是只是不可改變的特徵?
  2. 世界線檢核
    當我說「如果 X 發生」,
    我是否清楚其他條件如何被控制?
  3. DGP 檢核
    我是否說得清楚,
    這份資料是如何生成的?
  4. 責任檢核
    如果結果不如預期,是我的理論錯了,
    還是我只是用錯了思考框架?

如果這些問題答不出來,那這條「假設」,
可能還沒準備好被寫進論文。

不同的「如果」,本來就該承擔不同層級的責任

這篇論文真正做的,不是告訴你哪一種 counterfactual 比較高級,
而是提醒你——

你說出口的每一個「如果」,其實都在申請一條世界線。

AI 可以幫你寫申請書,但核准與否,
永遠落在你這個研究者身上。

至於圖書館?

我們頂多是時變局 TVA。
不幫你亂開平行時空,
只負責在你走錯世界線之前,把你拉回來。

參考文獻

Shmueli, G., Martens, D., Yoo, J., & Greene, T. (2025, May 19). From What Ifs to Insights: Counterfactuals in Causal Inference vs. Explainable AI. arXiv.org. https://arxiv.org/abs/2505.13324

推廣組 柯文仁 / 本文搭配ChatGPT進行寫作輔助。