實時語音偽造突破 成功率近百分百
AI語音偽造技術突破:實時模仿成新威脅
根據網路安全研究機構NCC Group最新報告,AI語音偽造技術已實現關鍵性突破,成功達成「即時」語音模仿。這項進展使攻擊者能在普通通話中即時複製他人聲音,實驗顯示其詐騙成功率接近百分之百,對現有安全防護體系構成嚴重挑戰。
深度偽造語音釣魚:低門檻、高擬真
不同於傳統變聲設備,此技術被稱為「深度偽造語音釣魚」(Deepfake Voice Phishing),基於先進AI模型開發。僅需短時間學習目標聲音樣本,即可透過自定義網頁介面一鍵啟用。更令人憂心的是,該技術對硬體需求不高——研究人員僅使用搭載NVIDIA RTX A1000顯卡的筆記型電腦,便實現了低於0.5秒延遲的即時語音轉換,輸出效果自然流暢,幾乎無法與真實聲音區分。

低品質音源亦可生成高仿真結果
即使原始錄音品質不佳,該系統仍能產出極度逼真的語音副本。相較過去需數分鐘訓練且僅能輸出固定內容的舊工具,新系統可在通話過程中動態調整語調與語速,大幅提升靈活性與隱蔽性。這意味著一般用戶僅憑筆電或智慧手機,就能執行專業等級的語音偽造,技術門檻大幅降低。
模擬測試揭露極高欺騙成功率
在授權進行的模擬攻防測試中,安全顧問Pablo Alobera指出,當即時語音偽造結合來電號碼偽造技術時,幾乎每次嘗試都能成功欺騙受測對象。此結果凸顯此類技術對個人隱私、企業安全乃至金融交易認證機制所帶來的潛在風險。
視訊深度偽造仍存技術瓶頸
儘管語音偽造已達即時應用水平,但即時視訊深度偽造仍面臨技術限制。專家表示,目前最先進的AI模型在生成即時影像時,常出現表情不連貫、情緒錯位及音畫不同步等問題,一般觀眾仍可藉由觀察這些細節識破偽造痕跡。

實際詐騙案例浮現 傳統驗證方式失效
隨著AI偽造技術快速普及,真實損失事件已開始發生。已有企業因求職過程中的視訊面試遭深度偽造欺騙,誤將筆記型電腦寄送至虛假地址。此類案例表明,單純依賴語音或視訊通話作為身份驗證手段,已不再可靠。
專家呼籲建立新型身份驗證機制
面對日益複雜的AI社會工程攻擊,專家強烈建議發展新型身份驗證方式。有建議提出可借鏡棒球比賽中的「暗號」概念,透過獨特且結構化的信號或密碼,在遠端溝通中確認對方真實身分。若未能及時應對,個人與組織都將面臨前所未有的安全威脅,整體網路安全格局恐將迎來重大變革。