【聲明】港生活網站並無進行電話推廣活動

「孫仔」撞車稱籌錢 祖父險加按物業 AI語音仿親人 美電話詐騙暴增

發佈時間: 2023/06/14

人工智能(AI)技術發展迅速,更可模仿人的聲綫。有不法分子利用AI技術行騙,假扮受害人聲音向對方家屬求救,訛稱遇上綁架勒索贖金,美國官員警告近期出現大量用AI模仿「孫仔」聲音向祖父母詐騙的案件。有跨國電腦軟件保安公司在美國等9國等進行調查,70%受訪者無法肯定來電是真人抑或AI的聲音。

網絡安全公司McAfee旗下的McAfee Labs威脅中心上月公布的調查,發現包括美國在內全球9個國家、約7,000名受訪者中,25%人曾親身經歷或知道有人曾遭遇AI聲音詐騙案,約70%受訪者更表明自己沒信心分辨來電是真人或AI。

美國亞利桑那州母親詹妮弗是AI詐騙的受害者之一,她日前接到15歲「女兒」的求救電話,稱在滑雪時遇到麻煩,要求交出100萬美元。她一度深信不疑,因為電話裏的聲音跟女兒哭起來時一模一樣,「我一秒鐘都沒有懷疑」,幸好她立即致電丈夫,最終證實女兒安然無恙。電話中女兒聲音只是由AI合成,當地警方已介入調查。

芝加哥亦有一宗AI聲音詐騙個案,一名祖父被AI生成的19歲「孫仔」瞞騙,指發生了交通意外需籌錢,祖父甚至考慮加按物業,幸好謊言及時被揭穿。

用AI合成他人聲音並非難事,騙子可取得一小段錄音再利用AI合成,並複製得唯妙唯肖,甚至呈現抑揚頓挫,令人難以區分真偽。

70%人認難辨 專家︰技術唯妙唯肖

科技公司Blackbird.AI總裁卡利德指出,AI聲音複製技術已去到一個與真人對話高度相似水平,網上有大量可截取人聲樣本的免費程序,模擬出的聲音還可用來發送語音郵件和語音信息。騙子還能讓AI擬音採用不同的口音、男聲或女聲任選,甚至模仿親人的說話方式,製造出令人信服的假象。

以色列網絡安全和風投公司Team8首席技術官霍赫伯格說,人們很快無法再相信互聯網上的所見,需要有新的技術來幫助確認網絡對面到底是不是自己認識的人。

美術︰顏玉玲