如今一些不法分子利用“AI換臉”技術實施詐騙,已成為一種新型騙局。利用AI技術制作換臉視頻或合成聲音來實施詐騙的確讓人防不勝防,那么如何防范這種風險呢?有關部門正在開發相關的反制技術和手段。
據央視網報道,AI換臉詐騙檢測與預警技術正在測試中。
工業和信息化部反詐工作專班專家李坤表示:“我們正在會同行業內的手機終端企業,將推出AI 換臉詐騙風險提醒功能,這項功能僅在手機端來本地運行,能夠有效保護用戶數據不泄露。經過用戶授權后,可為用戶提供AI換臉詐騙風險預警提醒。”
在測試體驗中,當用AI換了臉的技術人員與記者發起視頻通話時,測試手機終端提示“對方疑似假冒身份”。點擊檢測按鈕,經過圖像掃描,系統提示“AI換臉合成概率93%”。
據了解,AI換臉主要是使用深度合成技術。《互聯網信息服務深度合成管理規定》提出了算法備案、安全評估的手段,要求深度合成服務提供者對深度合成的內容添加顯式或隱式水印。中國信通院人工智能所安全與元宇宙部專家陳文弢稱:“要對生成合成的內容去添加一些水印,這個水印的本質其實就是要一方面去提示公眾這個內容是由AI生成或者合成的,另一方面也是要追溯它的來源。”