【AI詐騙】眼見耳聽都未必為真
在人工智能時代,即使有圖、有聲音、有影片、甚至視像電話都未必可信。
/sites/web/common/images/blog/mr-chin/ai-scams.jpg
youtube
2025
Article
Blog: author: mr chin
Scams-MoneyEssentials
Hot
20/05/2025
接聽視像電話,裡面是熟識親人的樣子及聲音,你會否想到這可能是運用AI技術的詐騙? 以前,我們經常說有圖有真相,但在人工智能時代(Artificial Intelligence,簡稱AI),即使有圖、有聲音、有影片、甚至視像電話都未必可信。
隨著AI技術的迅速發展,騙徒也利用AI進行詐騙,例如通過深偽技術(Deepfake)同語音克隆 (Voice Cloning),複製他人的樣貌及聲音,制造幾可亂真的虛假影片或聲音。語音克隆是一種常見的AI技術,騙徒可以透過短時間的錄音樣本模仿某人的聲音,而Deepfake則利用AI合成技術偽造人物的面部表情與聲音。
常見的AI詐騙手法包括假扮受害人的親友或上司,要求轉帳或提供機密資料,或假扮名人或投資專家誘騙投資虛擬資產。這類騙局因影像及聲音都極度逼真,令人難辨真偽,很容易墮入騙徒陷阱。
大家必須提高警覺,特別是一些看似吸引的投資機會,以及是任何與錢有關的請求,都必須三思及查證事實真假,可參考以下Deepfake防騙貼士:
1. 若是熟人要求轉帳、匯款或提供個人資料,應另行致電當事人進行確認;
2. 如果是視像通話,可要求對方於鏡頭前做特定動作,留意影像是否有異;
3. 以不同語言試探對方真偽;
4. 用約定暗號或問題確應對方身份;
5. 凡是涉及金錢的要求,作多方面核實;
6. 避免接聽陌生視像來電;
7. 善用「防騙視伏器」作詐騙風險評估。
8. 若有懷疑,立即撥打香港警方「防騙易熱線18222」尋求協助。




