你以為你在寫研究假設,其實你在許願? —— 為什麼 AI 給的「如果」,不等於研究假設
這不是一篇概念介紹文
而是一篇「研究假設校正文」
在寫研究計畫的某個深夜,你很可能做過這件事。
把研究問題丟進 AI,請它幫你「生出幾個研究假設」。
螢幕很快亮起來,一條一條 if–then 句型排列整齊,看起來邏輯清楚、語氣專業、甚至比你自己寫的還順。
但這正是危險的地方。
問題不在於你用了 AI,而在於你可能在不自覺中,
把一種「預測導向的思考方式」,當成了「因果推論的研究假設」。
這篇文章不是要你背定義,而是想在你把假設寫進 proposal 前,
幫你少踩幾個會被指導教授一眼看穿的雷。
你是在設計實驗,還是在許願?
「如果 X 改變,Y 就會跟著改變。」
這句話,在兩個世界裡,意思完全不同。
- 在因果推論(Causal Inference, CI)裡,這是一個對世界做出的承諾:
如果我真的介入 X,現實世界的結果會不會因此不同?
- 在可解釋 AI(Explainable AI, XAI)裡,這往往是一種預測模型的操作思維:
如果我稍微改動輸入特徵,模型的預測結果會不會翻盤?
真正的問題在於——研究生在寫研究假設時,
很容易不自覺地用後者的邏輯,來包裝前者的語句。
於是,你以為你在設計實驗,
其實你只是用了一個「看起來很像因果」的預測句型。
為什麼這篇論文值得你停下來看?
《From What Ifs to Insights: Counterfactuals in Causal Inference vs. Explainable AI》
由 Galit Shmueli 等學者撰寫,討論的不是「怎麼用 AI 寫研究」,
而是一個更根本、也更容易被忽略的問題:
在資料科學裡,
「如果(counterfactual)」這個詞,在不同方法論中,承擔的是完全不同層級的責任。
統計學家的 因果推論(CI: Causal Inference ),與電腦科學家的 可解釋 AI(XAI: Explainable AI ),
都在談 counterfactual,但他們談的,根本不是同一種「如果」。
這篇論文真正做的,不是選邊站,
而是把這兩種「如果」背後的責任邏輯清楚拆開。
P.S. 本文第一作者 Galit Shmueli(徐茉莉)教授,
現任教於友校清華大學服務科學研究所。
一、你以為假設是在「描述關係」,其實你是在承諾一條世界線
在因果推論裡,研究假設不是句型問題,
而是一個世界觀問題。
當你寫下:如果介入 X 發生,結果 Y 將產生變化
你其實已經默默承諾了很多事情:
- 這個 X 是可被實際介入的
- 其他條件在介入前後不會失控地改變
- 這條世界線,是可以被比較、被檢驗的
關鍵在於——這些承諾,通常不會寫在 Hypothesis 那一行。
它們往往躲在:
- Data section 的資料限制
- 變項操作化(Operationalization)
- 或一句看似無害的「在其他條件不變下」
AI 工具真正的風險,不是「幫你亂寫」,
而是讓你在不自覺中,
承諾了一條自己其實沒意識到的世界線。
二、為什麼 AI 給你的「如果」,看起來總是那麼合理?
這不是你不夠嚴謹,而是因為預測導向(XAI 式)的 if–then 語言,真的太友善了。
它有三個讓人上鉤的特性:
- 語言順:不用先交代資料生成過程(DGP: Data Generating Process)
- 結構漂亮:每一條都像答案,而不是待檢驗的問題
- 即時回饋:條件一改,結果立刻變
但在因果推論的眼裡,這些「合理」,其實都很可疑。
- XAI 式思維關心的是:
我怎麼動輸入,模型才會改變預測?
- CI 關心的是:
如果我真的動了這個世界,結果還會一樣嗎?
當你把這兩套邏輯混在一起,研究假設就會變成一種——
對模型成立,對世界無效的願望。
三、你以為你在建構理論,其實你只是在調參數
這是一個殘酷、但非常實用的自我診斷點。
請你現在停下來,問自己一個問題:
我這個 X,是一個真實可介入的行為或政策,
還是只是資料表裡的一個欄位?
如果你很難回答,那你很可能不是在建構理論,
而是在測試模型對某個特徵有多敏感。
這正是論文中區分 CI 與 XAI 的核心差異:
- CI 的反事實:改的是世界(intervention)
- XAI 的反事實:改的是輸入(feature perturbation)
兩者都可以寫成「如果⋯⋯那麼⋯⋯」,但只有一種,
要求你為真實世界的因果機制負責。
四、研究假設不是點頭確認,而是必須被檢驗的承諾
論文特別提醒:在 CI 的脈絡下,反事實不是「我覺得合理就好」。
你不能只停在「看起來像是這樣」。
真正負責任的做法是:
- 在形成詮釋之後
- 明確交代你的資料生成過程假設
- 並透過假設檢定、穩健性測試等方式驗證這個關係是否真的站得住腳
這不是「要不要買單」的問題,而是:
這條假設,禁不禁得起不同世界線的檢驗?
研究假設校正參考清單
在你把 AI 給你的句子貼進 proposal 前,
請至少問自己這四個問題:
- 介入檢核
這個 X,真的可以被人為介入嗎?
還是只是不可改變的特徵? - 世界線檢核
當我說「如果 X 發生」,
我是否清楚其他條件如何被控制? - DGP 檢核
我是否說得清楚,
這份資料是如何生成的? - 責任檢核
如果結果不如預期,是我的理論錯了,
還是我只是用錯了思考框架?
如果這些問題答不出來,那這條「假設」,
可能還沒準備好被寫進論文。
不同的「如果」,本來就該承擔不同層級的責任
這篇論文真正做的,不是告訴你哪一種 counterfactual 比較高級,
而是提醒你——
你說出口的每一個「如果」,其實都在申請一條世界線。
AI 可以幫你寫申請書,但核准與否,
永遠落在你這個研究者身上。
至於圖書館?
我們頂多是時變局 TVA。
不幫你亂開平行時空,
只負責在你走錯世界線之前,把你拉回來。
參考文獻
Shmueli, G., Martens, D., Yoo, J., & Greene, T. (2025, May 19). From What Ifs to Insights: Counterfactuals in Causal Inference vs. Explainable AI. arXiv.org. https://arxiv.org/abs/2505.13324
推廣組 柯文仁 / 本文搭配ChatGPT進行寫作輔助。