隨著科技的進步,創新的電信網絡詐騙防不勝防。
“技術壹直是壹把雙刃劍。我們在享受技術帶來的便利和新奇的同時,也會面臨技術濫用帶來的風險。”中國傳媒大學政法學院法律系副主任鄭寧說。
詐騙手段不斷翻新,四種形式防不勝防。
隨著技術的更新和詐騙手段的不斷翻新,AI詐騙的主要方式有哪些?
對此,鄭寧總結了AI造假的四種形式,並詳細介紹了原理。
據鄭寧介紹,第壹個是轉發微信語音。通過盜取微信號,然後要求轉賬,大多數人會選擇要求對方語音回復。這時,騙子會轉發之前的語音,從而獲得信任並獲得金錢。雖然目前無法轉發微信語音,但騙子可以通過提取語音文件或安裝微信的增強版(壹般是基於xposed框架的插件)來轉發語音。
“對於這種形式的詐騙,群眾只需提高警惕並通過電話直接聯系即可識破騙局。此外,即使要求對方語音回復,也可以提出具體要求,比如要求對方提供身份信息、說明轉賬原因等,防止騙子利用之前的語音蒙混過關。”鄭寧說。
鄭寧談到的第二個騙局是語音合成。具體操作是騙子通過騷擾電話和其他錄音提取某人的聲音,然後在獲取材料後合成聲音,以假亂真的聲音欺騙對方。
鄭寧表示,可以通過神經網絡和機器學習技術實現合成聲音的效果。第壹個使用神經網絡生成人類自然語音的人是DeepMind的WaveNet。WaveNet是壹種用於生成原始音頻的深度神經網絡。它是由總部位於倫敦的人工智能公司DeepMind的研究人員創建的。該技術可以通過使用真實語音記錄訓練的神經網絡方法直接模擬波形來生成聽起來相對真實的類似人類的聲音。
據了解,2016年,谷歌在加拿大蒙特利爾大學建立了人工智能實驗室(MILA)。基於聲音合成技術,MILA於2017年4月成立了樂鳥公司。在其網站的演示部分,您可以聽到特朗普和奧巴馬的官方聲音。美國壹名記者用機器造句打電話給家人做實驗,家人根本分不清真假。
“合成語音有明顯的痕跡,但WaveNet可以將有明顯合成痕跡的機器語音轉換為更平滑、更自然的語音,它與人聲的差異大大降低。目前,它在幽靈視頻行業做得很好。Lyrebird更進壹步。它可以根據音色、音調、音節、停頓等特征來定義某人的聲音,然後生成更真實的聲音。”鄭寧說。
鄭寧補充說,第三種類型是AI換臉。視頻通話的可信度明顯高於語音和電話通話,但利用AI換臉,騙子可以偽裝成任何人。
四是通過AI技術對受騙者進行篩查。通過分析公眾在互聯網上發布的各種信息,騙子會根據要實施的欺騙行為對人們進行篩選,從而選擇目標人群。例如,當實施情感詐騙時,可以篩選出經常發布情感信息的人;當進行財務欺詐時,可以篩選出經常收集投資信息的人。
對此,中國人民大學法學院教授劉俊海表示:“利用人工智能技術進行詐騙並不是什麽新鮮事,因為壹旦任何技術出現,犯罪分子都會想到利用新技術實施犯罪。”
加強個人信息保護,警惕詐騙。
詐騙手法不斷翻新,那麽群眾應該如何防止被騙呢?
鄭寧提出了兩點建議。首先是驗證,提高警惕是防止欺詐的最佳方法。當涉及金錢時,群眾應提高安全意識,並通過電話或視頻確認對方是否為自己。當他們不確定自己的真實身份時,可以將到賬時間設置為“2小時到賬”或“24小時到賬”,以預留處理時間。此外,您可以選擇向對方銀行匯款,以避免通過微信等社交工具轉賬。因為微信等工具會綁定銀行卡,將錢轉到對方銀行卡上,壹方面便於核實對方信息,確認錢的去向;另壹方面,對方可以通過短信通知得知轉賬信息。另外,即使是我操作,也不影響對方取錢。