<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>學術倫理 彙整 - NYCU陽明交大圖書館-陪你做研究</title>
	<atom:link href="https://news.lib.nycu.edu.tw/tag/%e5%ad%b8%e8%a1%93%e5%80%ab%e7%90%86/feed/" rel="self" type="application/rss+xml" />
	<link>https://news.lib.nycu.edu.tw/tag/學術倫理/</link>
	<description></description>
	<lastBuildDate>Tue, 03 Mar 2026 06:21:20 +0000</lastBuildDate>
	<language>zh-TW</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://news.lib.nycu.edu.tw/wp-content/uploads/2023/02/icon.png</url>
	<title>學術倫理 彙整 - NYCU陽明交大圖書館-陪你做研究</title>
	<link>https://news.lib.nycu.edu.tw/tag/學術倫理/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>【學術大航海時代】不只是指令高手：從《人工智慧基本法》看進階研究者的「AI 主導力」</title>
		<link>https://news.lib.nycu.edu.tw/researches/writing-research-papers/%e3%80%90%e5%ad%b8%e8%a1%93%e5%a4%a7%e8%88%aa%e6%b5%b7%e6%99%82%e4%bb%a3%e3%80%91%e4%b8%8d%e5%8f%aa%e6%98%af%e6%8c%87%e4%bb%a4%e9%ab%98%e6%89%8b%ef%bc%9a%e5%be%9e%e3%80%8a%e4%ba%ba%e5%b7%a5%e6%99%ba/</link>
					<comments>https://news.lib.nycu.edu.tw/researches/writing-research-papers/%e3%80%90%e5%ad%b8%e8%a1%93%e5%a4%a7%e8%88%aa%e6%b5%b7%e6%99%82%e4%bb%a3%e3%80%91%e4%b8%8d%e5%8f%aa%e6%98%af%e6%8c%87%e4%bb%a4%e9%ab%98%e6%89%8b%ef%bc%9a%e5%be%9e%e3%80%8a%e4%ba%ba%e5%b7%a5%e6%99%ba/#respond</comments>
		
		<dc:creator><![CDATA[巴 詠淳]]></dc:creator>
		<pubDate>Tue, 06 Jan 2026 09:04:09 +0000</pubDate>
				<category><![CDATA[學生指引]]></category>
		<category><![CDATA[教師指引]]></category>
		<category><![CDATA[論文寫作]]></category>
		<category><![CDATA[AI主導力]]></category>
		<category><![CDATA[人工智慧基本法]]></category>
		<category><![CDATA[學術倫理]]></category>
		<category><![CDATA[生成式AI指引]]></category>
		<guid isPermaLink="false">https://news.lib.nycu.edu.tw/?p=9880</guid>

					<description><![CDATA[<p>如果你已經能熟練地使用 Prompt 來優化程式碼、翻譯艱澀的文獻，那麼你已經跨越了 AI 的「工具使用期」。但隨著我們與 AI 的協作越來越深，下一個階段的挑戰也隨之而來：當 AI 輔助成為研究常態，我們如何確保自己不只是在「用工具」，而是在「主導工具」？ 就在 2025 年底，臺灣正式三讀通過了</p>
<p>這篇文章 <a href="https://news.lib.nycu.edu.tw/researches/writing-research-papers/%e3%80%90%e5%ad%b8%e8%a1%93%e5%a4%a7%e8%88%aa%e6%b5%b7%e6%99%82%e4%bb%a3%e3%80%91%e4%b8%8d%e5%8f%aa%e6%98%af%e6%8c%87%e4%bb%a4%e9%ab%98%e6%89%8b%ef%bc%9a%e5%be%9e%e3%80%8a%e4%ba%ba%e5%b7%a5%e6%99%ba/">【學術大航海時代】不只是指令高手：從《人工智慧基本法》看進階研究者的「AI 主導力」</a> 最早出現於 <a href="https://news.lib.nycu.edu.tw">NYCU陽明交大圖書館-陪你做研究</a>。</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">如果你已經能熟練地使用 Prompt 來優化程式碼、翻譯艱澀的文獻，那麼你已經跨越了 AI 的「工具使用期」。但隨著我們與 AI 的協作越來越深，下一個階段的挑戰也隨之而來：</span><b>當 AI 輔助成為研究常態，我們如何確保自己不只是在「用工具」，而是在「主導工具」？</b></p>
<p><span style="font-weight: 400;">就在 2025 年底，臺灣正式三讀通過了 </span><b>《人工智慧基本法》</b><span style="font-weight: 400;">。這不僅僅是政府機關的行政規範，更是我們每位「數位公民」在學術路上的導航指南。這次帶大家從法律的高度，重新審視我們的研究日常，並奪回對 AI 的主導權。</span></p>
<h3><b>法律生效後：研究者必須掌握的七大 AI 航標</b></h3>
<p><span style="font-weight: 400;">隨著《人工智慧基本法》三讀通過，AI 的使用邊界已清晰確立。與其背誦生硬的條文，進階研究者更應學會將這「七大原則」轉化為日常的研究防禦力。以下我們將這些原則重新拆解為三大主導維度，幫助你在研究路上精準領航：</span></p>
<h4><b>1. 責任的主導：你才是最終決策者 (Human Autonomy &amp; Accountability)</b></h4>
<p><span style="font-weight: 400;">基本法強調「人類自主性」。這意味著，無論 AI 給出的推論多麼精妙，</span><b>「人」必須是最終的領航員。</b></p>
<ul>
<li style="font-weight: 400;" aria-level="1"><b>研究建議：</b><span style="font-weight: 400;"> 當你引用 AI 生成的摘要時，你必須具備解釋該內容邏輯的能力。如果發生錯誤或學術爭議，責任歸屬於「研究者」而非工具。專業的表現是：我使用 AI 處理資訊，但我</span><b>主導結論</b><span style="font-weight: 400;">。</span></li>
</ul>
<h4><b>2. 過程的主導：讓信任可被追溯 (Transparency &amp; Explainability)</b></h4>
<p><span style="font-weight: 400;">「透明性」與「可解釋性」是進階素養的關鍵。行政院指引明確指出，使用生成式 AI 應適當揭露，且研究者應能掌握並說明其推論的邏輯。</span></p>
<ul>
<li style="font-weight: 400;" aria-level="1"><b>研究建議：</b><span style="font-weight: 400;"> </span>透明並不代表示弱，而是展現你的研究公信力。除了在方法論中清晰標記「本研究部分數據清洗由 AI 輔助完成」<b data-path-to-node="7,0,0" data-index-in-node="60">，</b>你更應具備對 AI 內容的解釋能力。專業的表現是：當你引用 AI 綜整的論點時，你能清楚說明其推論邏輯與來源。<strong>確保過程「可追溯」且「推論有據」</strong>，是你掌握研究主導權的最高展現。</li>
</ul>
<h4><b>3. 安全的主導：守住研究的競爭力 (Privacy &amp; Fairness)</b></h4>
<p><span style="font-weight: 400;">「隱私保護」與「資料治理」是研究者的護城河。這對於掌握核心實驗數據的研究生尤為重要。</span></p>
<ul>
<li style="font-weight: 400;" aria-level="1"><b>研究建議：</b> <b>絕對不要將「未公開的研究成果」或「受訪者個資」餵給公共 AI 模型。</b><span style="font-weight: 400;"> 這不僅是隱私問題，更是為了保護你的智慧財產權。同時，應主動警覺 AI 可能產生的偏見，確保你的研究結論不會因過度依賴 AI 而變得平庸。</span></li>
</ul>
<h3><b>專業不靠運氣：在資料庫中開啟你的 AI 主導力</b></h3>
<p><span style="font-weight: 400;">當一般的 AI 工具還在網路上「大海撈針」時，真正的研究者早已在圖書館的專業資料庫中，開啟了高效的學術主導權。你可能已經發現，圖書館提供的各類專業資料庫（如 </span><a href="https://www.webofscience.com/wos/woscc/smart-search"><span style="font-weight: 400;">Web of Science</span></a><span style="font-weight: 400;">、</span><a href="https://nycu.primo.exlibrisgroup.com/permalink/886UST_NYCU/1uq600n/alma991003433213906772"><span style="font-weight: 400;">PubMed</span></a><span style="font-weight: 400;"> 或 </span><a href="https://nycu.primo.exlibrisgroup.com/permalink/886UST_NYCU/191b29k/alma991003433014606772"><span style="font-weight: 400;">IEEE</span></a><span style="font-weight: 400;"> 等），現已紛紛嵌入了強大的 AI 輔助功能。</span></p>
<p><span style="font-weight: 400;">與一般免費 AI 最大的不同在於，這些工具是建立在**「合規授權」與「可溯源文獻」**的沃土之上。</span></p>
<p><b>   ⚓ 推薦圖書館AI工具：</b><a href="https://nycu.primo.exlibrisgroup.com/discovery/researchAssistant?vid=886UST_NYCU:886UST_NYCU"><b>Primo 研究助理</b></a><b>、</b><a href="https://scite.ai/enterprise/national-yang-ming-chiao-tung"><b>Scite AI</b></a></p>
<p><span style="font-weight: 400;">這意味著，當你使用這些內建 AI 進行查找與引用時：</span></p>
<ul>
<li style="font-weight: 400;" aria-level="1"><b>來源透明</b><span style="font-weight: 400;">：每一條建議都有真實的論文支撐，徹底告別 AI 虛構幻覺。</span></li>
<li style="font-weight: 400;" aria-level="1"><b>環境安全</b><span style="font-weight: 400;">：在受保護的學術授權環境下操作，不必擔心研究構想被公開洩漏。</span></li>
<li style="font-weight: 400;" aria-level="1"><b>精準主導</b><span style="font-weight: 400;">：你不是在被動接收資訊，而是利用高端工具精準收斂研究路徑。</span></li>
</ul>
<p>&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8211;</p>
<h3><b>✅ 附錄：進階研究者 AI 使用檢核表</b></h3>
<p><i><span style="font-weight: 400;">發布前，請花 30 秒對照以下原則，確保你的研究堅不可摧：</span></i></p>
<ul>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">[ ] </span><b>人類自主性</b><span style="font-weight: 400;">：我是否能解釋並證實 AI 生成內容的正確性？</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">[ ] </span><b>可問責性</b><span style="font-weight: 400;">：我是否準備好為這份研究的所有內容（含 AI 輔助部分）負全責？</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">[ ] </span><b>隱私保護</b><span style="font-weight: 400;">：我是否已移除所有未公開數據、個資及敏感機密？</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">[ ] </span><b>透明性</b><span style="font-weight: 400;">：我是否已依照規範，在文中適當處標註 AI 的輔助範圍與方式？</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">[ ] </span><b>公平性</b><span style="font-weight: 400;">：我是否已查核 AI 產出是否存在偏見，並進行了必要的修正？</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">[ ] </span><b>安全性</b><span style="font-weight: 400;">：我使用的工具是否來自圖書館推薦或校內認可的授權環境？</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">[ ] </span><b>永續性</b><span style="font-weight: 400;">：我的 AI 使用方式是否促進了學術誠信的長遠發展？</span></li>
</ul>
<p>&nbsp;</p>
<p>參考資料：</p>
<ul>
<li style="font-weight: 400;" aria-level="1"><a href="https://www.ey.gov.tw/Page/9277F759E41CCD91/5d673d1e-f418-47dc-ab35-a06600f77f07"><span style="font-weight: 400;">政院通過「人工智慧基本法」草案 建構AI發展與應用良善環境 打造臺灣成為AI人工智慧島</span></a></li>
<li style="font-weight: 400;" aria-level="1"><a href="https://www.ey.gov.tw/Page/5A8A0CB5B41DA11E/b6fbf240-2d1a-4252-9f81-28144acb1d64"><span style="font-weight: 400;">制定《人工智慧基本法》—建構AI發展與應用良善環境</span></a></li>
<li style="font-weight: 400;" aria-level="1"><a href="https://oaeri.nycu.edu.tw/oaeri/ch/app/data/view?module=nycu0039&amp;id=2078&amp;serno=78fd22f7-03c0-4854-a16d-72336e4a18a8"><span style="font-weight: 400;">「負責任的實驗室使用守則」</span></a></li>
</ul>
<p>推廣組 巴詠淳 / 本文搭配AI工具進行寫作輔助</p>
<p>這篇文章 <a href="https://news.lib.nycu.edu.tw/researches/writing-research-papers/%e3%80%90%e5%ad%b8%e8%a1%93%e5%a4%a7%e8%88%aa%e6%b5%b7%e6%99%82%e4%bb%a3%e3%80%91%e4%b8%8d%e5%8f%aa%e6%98%af%e6%8c%87%e4%bb%a4%e9%ab%98%e6%89%8b%ef%bc%9a%e5%be%9e%e3%80%8a%e4%ba%ba%e5%b7%a5%e6%99%ba/">【學術大航海時代】不只是指令高手：從《人工智慧基本法》看進階研究者的「AI 主導力」</a> 最早出現於 <a href="https://news.lib.nycu.edu.tw">NYCU陽明交大圖書館-陪你做研究</a>。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://news.lib.nycu.edu.tw/researches/writing-research-papers/%e3%80%90%e5%ad%b8%e8%a1%93%e5%a4%a7%e8%88%aa%e6%b5%b7%e6%99%82%e4%bb%a3%e3%80%91%e4%b8%8d%e5%8f%aa%e6%98%af%e6%8c%87%e4%bb%a4%e9%ab%98%e6%89%8b%ef%bc%9a%e5%be%9e%e3%80%8a%e4%ba%ba%e5%b7%a5%e6%99%ba/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
