PC TECH 電腦技術

  • 增大字號
  • 缺省字號
  • 減小字號

HKCERT 呼籲公眾對利用 AI Deepfake 技術的詐騙提高警惕

E-mail 打印 PDF
HKCERT 呼籲公眾對利用 AI Deepfake 技術的詐騙提高警惕

【香港】– 深度偽造即 Deepfake,是深度學習(Deep Learning)和偽造的混成詞。泛指以人工智能製作偽造訊息,如影像和聲音。常見於影片,影片中的人臉將被換成另一人面。這種技術亦可被用於偽造人聲,只需輸入字句便能假借受害者之聲線讀出,意味著製作深偽影片毋須有配音員,用臉部外觀和聲音來製作 Deepfake 廣告影片。

香港電腦保安事故協調中心(HKCERT)呼籲公眾對此類利用AI Deepfake技術的詐騙提高警惕,並採取以下保安最佳實踐以保障自己:

對於網上的影片和錄音,應該保持謹慎態度,向多方查證當中資訊的真偽;
加謹留意影片和錄音以分辨是否經由 Deepfake 技術製造。與真實的錄影和錄音相比,大多數 Deepfake 影片和錄音會有聲音和畫面不一致的細微缺陷;
切勿在陌生對話中透露個人敏感訊息,如密碼、銀行賬戶號碼等;
避免接聽來自不明來電的視像通話,騙徒可能會藉此收集你的樣貌影像用以製作Deepfake影片;
避免在社交平台上分享過多個人資訊,尤其是臉部和語音等生物辨識資訊;
收到帶有緊急語調或有好處的資訊時要更加謹慎和警惕,網上騙徒通常會以這些伎倆來吸引更多的受害者跌入其陷阱;
如果可行的話,透過其他經過驗證的渠道來查證資訊,例如瀏覽銀行的官方網站以獲取最新的銀行安排;及
提防釣魚攻擊,切勿點擊或打開任何可疑連結或附件。

有關AI和Deepfake技術的更多資訊,請參閱HKCERT網站的保安博錄文章:

https://www.hkcert.org/tc/blog/adopt-good-cyber-security-practices-to-make-ai-your-friends-not-foes
https://www.hkcert.org/tc/blog/raise-public-awareness-of-cyber-security-guard-against-risks-of-unknown-whatsapp-video-calls

企業或公眾如欲向HKCERT報告與資訊保安相關的事故,例如惡意程式、網絡釣魚、阻斷服務攻擊等,可以填寫網上表格:https://www.hkcert.org/zh/incident-reporting或致電24小時熱線8105 6060。如有其他疑問,歡迎電郵至 該E-mail地址已受到防止垃圾郵件機器人的保護,您必須啟用瀏覽器的Java Script才能看到。 與HKCERT聯絡。























( 內容由有關方面代表提供, 經編輯後刊登 )