【聲明】港生活網站並無進行電話推廣活動

防止自殺AI 拯救高危人士

發佈時間: 2018/03/23

人工智能(AI)帶給人類威脅?但AI亦救了不少人類。有社交網站測試AI防止自殺系統,亦有大學研究用AI系統,檢測有輕生念頭的病人。但亦有輿論認為這套系統侵犯私隱,可能被用作防止自殺以外的用途。

fb掃描貼文 分辨用戶情緒

許多有自殺傾向的人都會在社交網站發表「預告」,facebook去年起於美國及部分國家測試「模式識別軟件」,掃描用戶發表的影片、貼文及留言,當發現可能涉及含有自殺徵兆的可疑字眼,就會通報團隊判斷,按情況向該用戶提供協助,包括提供求助電話及渡過困境的貼士,或向其朋友留言等。如認為情况危急,會通報當地警方介入。

今年1月,一位阿根廷女子在fb稱:「不能再這樣下去了,到了說再見的時候。」系統發現這話後判定是緊急事件,向監測人員報告,再轉交阿根廷當地部門,不久後醫療團隊找到了這位女子住所,阻止悲劇發生。

惟系統仍然要面對不少挑戰,例如有用戶發文稱:「如果再讓我看一次這樣垃圾的電影,我寧願自殺。」這顯然並不是負面的自殺貼文。另外,當用戶知道fb能夠辨識出負面信息,他們就可能不會在此發表這些內容。

大學研系統 判斷病人行為

佛羅里達州立大學研究人員早前發表一項AI研究,能預測人類未來兩年是否會自殺,準確率達80%至90%。他們獲取了田納西州近2萬病人的匿名醫療檔案,用它們來訓練AI,據抗抑鬱藥處方、被槍械傷害及入急診室次數等因素組合,判斷病人兩年內會否自殺。

除分析醫療紀錄,AI還可使用實時數據對患者進行分析,例如患者對醫生的說話語氣。辛辛那提兒童醫院John Pestian教授團隊開發了一個名為SAM的預防自殺手機程式,對醫生和患者間的談話作錄音,如發現患者有自殺傾向,會即時提醒醫生,準確率達70%。

惟這技術也受到質疑,最大問題要從用戶或病人收集數據,有可能洩露私隱。若AI做錯判斷,誰需要承擔責任?例如判斷一個沒自殺想法的個人有自殺傾向,會讓這個人的病歷紀錄中出現「污點」。另外,亦有人認為此系統可能被極權國家用作罪案或政治審查。

資料整理:吳浩南

編輯:梁偉澄

美術:陳超雄

相片:網上圖片