2023年4月13日 星期四

AI複製女兒聲音求救 美國婦女險遭勒索

文匯報

人工智能(AI)技術近年迅速發展,有不法之徒用作詐騙,甚至只需錄得某人的3秒原聲,就能精準複製其聲音。美國全國廣播公司(NBC)報道亞利桑那州發生一宗AI仿聲騙案,一名母親聽聞「被綁架的女兒」求救,險被騙走大筆金錢,警方呼籲民眾小心,避免上當。

報案人德斯特凡諾表示,她早前接到一個陌生電話,當中傳出她15歲女兒的聲音,我聽到女兒說「媽媽!」然後她在哭泣。我問「發生什麼事?」她說「媽媽,我遇到麻煩了」。德斯特凡諾此時聽到一名男人說「把頭往後仰,躺下」,頓時感到非常恐懼。

德斯特凡諾憶述,該名陌生男子在電話中警告她,「你女兒在我這裏,你敢打電話報警或通知任何人,我便會迷暈她,把她帶到墨西哥。」電話中還傳來似乎是女兒微弱呼救聲和哭聲,說「媽媽,拜託救救我,救我」。陌生男子隨即勒索贖金,最初要求100萬美元(約785萬港元),但德斯特凡諾稱沒有足夠現金,對方便減至5萬美元(約39萬港元)。

肯定電話中是女兒聲音

警覺的德斯特凡諾一邊讓陌生男子繼續說話,一邊聯絡丈夫,很快便確認女兒安然無恙,「我的女兒還在問發生什麼事,我便隨即掛斷騙徒的電話。」但德斯特凡諾確認電話中是女兒的聲音,完全沒有懷疑。

AI只需3秒原聲便能複製

亞利桑那州立大學AI資訊教授坎巴姆帕蒂表示,AI深度學習技術飛躍進步,只需獲得某人3秒原聲,就能複製出一模一樣的聲音。坎巴姆帕蒂憂慮AI深度學習技術幾乎不受法律監管,「我認為它可應用於好的方面,但肯定也有令人擔憂的用途。」

聯邦調查局(FBI)鳳凰城辦公室官員梅奧表示,使用語音複製技術的騙徒經常在社媒尋找受害人,呼籲民眾不要公開個人資料,「若接到詐騙電話,要設法放慢速度,問對方關於身邊人的細節。如果對方說不出背景細節,你很快就會發現這是騙局。」

沒有留言: