![]()
Google 發布最新 AI 驅動網絡防禦技術
[香港] – 本港網絡騙案威脅日趨頻繁,在過去 12 個月,每名受害者平均損失近 6,800 港元[2]。或有不法分子企圖利用人工智能(AI)技術作案,Google 相信 AI 不僅能幫助應對這些威脅,更是進一步推動網絡安全防禦戰略的有效及重要工具。除了不斷增強 AI 驅動的防禦,Google 香港今宣布擴展與香港社會服務聯會(社聯)合作,助社福界安全及負責任地運用科技創新。
深化與社聯合作 與業界共同應對瞬息萬變的網絡威脅環境
Google 香港銷售及營運總經理余名德表示:「保護用戶與生態系統夥伴安全一直是 Google 的首要任務。我們相信 AI 是網絡防禦的強大工具,助我們持續積極採取行動:從具規模地不斷提升我們產品和服務的安全性,到支持合作夥伴安全地創新,並推動全球和本地合作,包括在香港與社聯攜手提升業界的網絡安全意識和防禦能力。」
調查:逾四成港人每週甚至每日遇網絡詐騙
一項業界調查顯示[3],超過四分之三(77%)受訪香港成年人在過去 12 個月內曾遇到一次或多次網絡詐騙,其中部分人更頻繁至每週多次(25%)甚至每日(19%)遇到。不法分子最常用以接觸市民的渠道是電話(59%),其次是文字或短訊(54%)。
近三分之二(66%)受訪者表示在過去 12 個月曾遭遇網絡詐騙陷阱,其中投資詐騙(54%)和意外之財騙案(54%)是最常見的詐騙類型。13% 受訪者表示在過去 12 個月內因網絡詐騙而蒙受金錢損失,每人平均損失 6,798 港元。調查亦指出,近五分之一(19%)受害者表示,其受騙主因在於詐騙「非常逼真/可信」。
Google 如何應對網絡詐騙威脅
為協助避免用戶經電話和文字或短訊遇到詐騙,除了來電顯示與騷擾/廣告來電阻擋功能及通話防護功能 (In-call Protections)等現有保護功能以外,Google 最近在 Google 訊息[4]中推出了兩項新保護功能,進一步加強保護用戶:
「安全連結」(Safer links):當用戶點擊訊息中任何可疑連結時會發出警告,並阻止他們瀏覽潛在的有害網站,除非他們明確將該訊息標記為「不是垃圾訊息」。
「金鑰驗證」(Key Verifier): 用戶可透過掃描受信任聯絡人裝置上的二維碼,為端對端加密訊息提供額外的安全保證,確保正在與正確的對象通訊。
與此同時,Google 在各產品、服務及平台上所設立的多層防禦機制,亦有舉措針對日益增加的特定詐騙手法或類別,例如:
針對金融詐騙:Google 於 2024 年底在香港開始試行 Google Play Protect 「強化防詐騙安全防護」功能。該功能會在用戶嘗試從網路側載來源(如網頁瀏覽器、即時通訊應用程式或檔案管理程式)安裝應用程式時進行分析。若發現該應用程式可能會存取到常被濫用於金融詐騙的敏感權限,功能就會自動阻止其安裝。「強化防詐騙安全防護」功能本港全面推出不到三個月,已在本地保護逾 18 萬部裝置,堵截 64 萬次高風險安裝嘗試,當中涉及超過 2 萬個不同的應用程式。
針對利用 AI 偽冒公眾人物的廣告:Google 已組建了一支逾百名專家組成專責團隊,分析這些詐騙手法並制定有效對策,包括修訂《不實陳述或行為》政策,以暫停那些宣傳此類詐騙的廣告商帳戶[5]。結果,Google 成功永久暫停逾 70 萬個違規廣告商帳戶,令該類詐騙廣告的舉報數量於 2024 年大幅下降九成[6]。此外,Google 為相關大型語言模型(LLM)推出了超過 50 項強化措施,以更有效、更精準且具規模地執行政策,阻止了數十億條違反政策的廣告接觸到消費者[7]。
Google 深化與社聯合作 提升網絡安全意識及推動負責任的 AI 應用
Google 持續與香港各界合作,包括參與本地金融監管機構《保障消費者防詐騙約章 3.0》,及持續與社聯合作,支援非政府組織和社會企業,以共同打擊網絡詐騙和欺詐行為。
今年,Google 與社聯已共同培訓了超過 400 名社福機構人員,內容涵蓋網絡安全和負責任 AI 的應用,受惠人數為去年的 1.5 倍。作為培訓範圍的擴展部分,部分社福機構代表更參與了試行工作坊,為其機構更深入探索不同 AI 應用方案的可行性,並展開內部試行。
圖二:循道衛理觀塘社會服務處資訊科技主任陳冠庭先生分享指,在參與試行工作坊後,他運用企業版 NotebookLM 進行了內部試驗。該工具為他的團隊提供了一個直觀的用戶界面,用以評估機構的僱員政策是否符合相關的勞工法例。這有助他的團隊安全有效地識別潛在的合規風險。
香港社會服務聯會總監(善用科技)何美儀女士表示:「隨著 AI 在職場上的應用日益普及,如何安全且負責任地運用 AI,讓之發揮最大作用,是社福界目前的挑戰。社福機構需採用具系統性、企業級的方式部署 AI 應用,以應對合規、資源有限等難題。我們很高興進一步深化與 Google 的合作,不但為業界提供了網絡安全及負責任 AI 培訓,更擴展至 Google AI 應用場景的探索與試行,有效回應了行業的實際需求。」
作為合作的一部分,社聯在「社創及科技研討會 2025」(20 日)上宣布利用 Google AI 模型開發了一款名為「SocSmart」的 AI 聊天機器人。「SocSmart」以與社福界日常工作最為相關的政策及手冊作訓練,例如個人資料私隱專員公署的《人工智能:個人資料保障模範框架》,旨在為社福機構及人員提供一個安全可靠的平台,以便在需要時快速掌握政策詳情和更新。「SocSmart」預計於 2025 年 11 月底推出測試版。
香港社會服務聯會主辦的「社創及科技研討會 2025」於 2025 年 10 月 20 日(星期一)舉行。活動邀請到副數字政策專員(數字基建)張宜偉先生,JP(右四)、個人資料私隱專員鍾麗玲女士(右三)、立法會議員(創新科技界)邱達根先生(左五)、社聯行政總裁陳文宜女士(右五)、Google 香港銷售及營運總經理余名德先生(右二)、社聯總監(善用科技)何美儀女士(左一)及多位業界領袖一同主持開幕儀式。
Google 如何守護全球 AI 前沿
Google 一直致力應對 AI 用戶所面臨不斷演變的新威脅。以「間接提示詞注入」(indirect prompt injections)為例,Google 透過訓練 AI 模型從根本上抵禦此類威脅,並配合「紅隊」專家團隊(Human Red Teams)持續測試 AI 模型的防禦機制,在不法分子企圖利用漏洞作案之前發現並進行修復。而今年 10 月全新推出的舉措包括[8]:
CodeMender:一個 AI 驅動的代理(agent),利用 Google AI 模型的先進推理能力,自動調試和修復關鍵的程式碼漏洞。在過去六個月的開發過程中,CodeMender 已向開源項目提交了 72 個安全修復方案,其中一些項目規模高達 450 萬行程式碼[9]。
AI 漏洞獎勵計劃(AI Vulnerability Reward Program,簡稱 AI VRP):由 Google 現有 VRP 拓展而出;現有 VRP 至今已就 AI 相關問題發放超過 43 萬美元獎勵。這個專門為 AI 而新設的 VRP 闡明了 AI 相關的問題範圍,簡化了報告流程,以進一步鼓勵研究人員找出及報告關鍵的安全漏洞。
安全 AI 框架 2.0(Secure AI Framework。簡稱 SAIF 2.0):拓展了現有經實證的安全框架,並增加了有關代理安全風險及其緩解措施的新指引。
共守網絡安全:Google 分享實用貼士 安全及負責任地應用 AI
AI 日漸融入各種日常生活和工作工具。無論是何種科技,在善用新技術的過程中總會遇到挑戰和需要考量的地方,才能發揮其最大效益。Google 分享以下建議,助機構和個人在部署 AI 及評估 AI 的回應:
機構部署 AI 時可考慮:
評估 AI 系統在每次互動中的公平性,因為底層模型可能經常變化。
注意潛在的 AI 偏見。
提倡評估 AI 產品和解決方案的團隊應具包容性。
倡導 AI 應具更高的透明度和問責制。
個人可按「AAA」框架評估 AI 回應:
準確性(Accuracy):評估其陳述是否能以可靠來源作驗證,而其邏輯和推理是否合理。
一致性(Alignment):審視回應是否直接回答問題、切合主題,並有效地推進對話。
合適性(Appropriateness):考慮回應內容及用語是否與該情境相符及合適。
此外,用戶可視情況提出追問或重述問題,以反覆檢驗(double-check)內容的一致性,並應將特定 AI 聊天機器人的局限性及訓練數據納入考量。
適逢「網絡安全意識月」,Google 分享實用貼士,助人人時刻安心上網:
僅透過官方且信譽良好的平台或經核實的網站進行捐款和購物。
務必透過公司的官方網站獲取資訊。仔細檢查網站是否有細微的拼寫錯誤、奇怪的格式、不尋常的字體或隨機的表情符號等——這些都可能是虛假網站的警號。
對任何承諾保證或極高回報而風險很低或沒有風險的投資保持懷疑。如果聽起來好得難以置信,那很可能就是假的。
點擊搜尋結果或圖片旁的「三點圖示」,分別查看「關於此結果」和「關於此圖片」的功能,以深入了解資訊來源。
( 內容由有關方面代表提供, 經編輯後刊登 )






