血的教訓!教授誤授ChatGPT數據致學術歸零
科隆大學教授因關閉資料授權遭ChatGPT清空兩年學術成果 引發AI使用安全警訊
近日,德國科隆大學植物科學教授馬塞爾·布赫(Marcel Buch)於《自然》(Nature)雜誌專欄揭露自身重大數據損失事件:為測試在不提供個人資料前提下能否完整使用ChatGPT功能,他主動關閉平台「資料授權」選項,結果導致過去兩年累積儲存於ChatGPT中的全部學術資料——涵蓋研究經費申請書、論文修訂稿、教學講義與考試題庫等——瞬間被系統徹底清除,且無法復原。

OpenAI回應:刪除前有確認提示,但無自動備份機制
針對此事,OpenAI官方表示,系統在執行聊天記錄刪除操作前會彈出明確確認視窗,並清楚標示「刪除後無法恢復」;同時強調其服務設計本質上不具備自動備份功能,建議專業用戶務必自行留存關鍵內容。此回應雖釐清操作責任歸屬,亦凸顯當前生成式AI平台在數據治理與使用者保護層面的明顯缺口。

學界熱議:依賴風險 vs. 警示價值
事件迅速引發全球科研社群廣泛討論。部分評論指出,布赫教授未對高價值學術產出進行本地備份,反映過度倚賴雲端AI工具的潛在風險;亦有聲音肯定其公開經歷的公共價值——提醒研究者:即使謹慎審查AI輸出內容、從未直接採用生成結果,仍可能因誤判平台穩定性與資料保存機制而蒙受不可逆損失。
AI輔助寫作的隱藏危機:虛假資訊、語氣異化與學術污染
值得警惕的是,ChatGPT等大型語言模型雖能提升文字產出效率,卻普遍存在生成內容失實、邏輯跳躍、語氣過度逢迎等缺陷,極易誤導使用者判斷。更嚴重的是,大量由AI生成的低品質稿件正湧入學術期刊,甚至出現「AI審查AI論文」的荒謬循環,嚴重侵蝕學術文獻的可信度與嚴謹性。

給研究者與所有AI使用者的重要提醒
布赫教授的案例絕非孤立事件,而是數位時代科研工作流程轉型中的一記警鐘。無論身處何種領域,只要使用生成式AI處理重要任務,都必須認知其本質為「無狀態工具」——不承諾資料永續、不替代人工備份、不保證內容真實。唯有堅持「關鍵資料本地留存」、「核心判斷獨立完成」、「AI輸出全程驗證」三大原則,方能在享受技術紅利之餘,守住專業工作的根基與自主權。
