【聲明】港生活網站並無進行電話推廣活動

人工智能|「孫仔」稱撞車籌錢 祖父險加按物業 AI語音以假亂真 美電話詐騙暴增

發佈時間: 2023/06/13

人工智能(AI)技術發展迅速,更可模仿人的聲綫,有不法分子最近利用AI技術行騙,假扮受害人聲音向對方家屬求救,訛稱遇上綁架勒索贖金,美國官員警告近期出現大量用AI模仿「孫仔」聲音向祖父母詐騙的案件。網絡安全公司McAfee旗下的McAfee Labs威脅中心上月公布的調查中,發現包括美國在內全球9個國家、約7,000名受訪者中,25%人曾親身經歷或知道有人曾遭遇AI聲音詐騙案,約70%受訪者更表明自己沒有信心分辨來電是真人或AI。

美國亞利桑那州母親詹妮弗是AI詐騙的受害者之一,她日前接到15歲「女兒」的求救電話,稱在滑雪時遇到麻煩,要求交出100萬美元。她一度對此深信不疑,因為電話裡的聲音跟女兒哭起來時一模一樣,「我一秒鐘都沒有懷疑是她」,幸她立即致電丈夫,最終證實女兒安然無恙。電話中女兒聲音只是由AI合成,當地警方已介入調查。

芝加哥亦有一宗AI聲音詐騙個案,一名祖父被AI生成的19歲「孫仔」瞞騙,指發生了交通意外需籌錢,祖父甚至考慮加按物業,幸好謊言及時被揭穿。

70%人認難辨 專家:技術唯妙唯肖

用AI合成他人聲音並非難事,騙子可取得一小段錄音再利用AI合成,並複製得唯妙唯肖,甚至呈現抑揚頓挫,令人難以區分真偽。科技公司Blackbird.AI總裁卡利德指出,AI聲音複製技術已去到一個與真人對話高度相似水平,網上已有大量可截取人聲樣本的免費應用程序,模擬出的聲音還可用來發送語音郵件和語音信息。騙子還能讓AI擬音採用不同的口音、男聲或女聲任選,甚至模仿親人的說話方式,製造出更令人信服的假象。

以色列網絡安全和風投公司Team8首席技術官霍赫伯格說,人們很快無法再相信互聯網上的所見,需要有新的技術來幫助確認網絡對面到底是不是自己認識的人。

 

AI換臉變聲冒充「好友」 內地商人10分鐘被騙430萬人幣,詳情即睇【下一頁】。

 

撰文:吳浩南
責任編輯:戴維浩