人工智能(AI)正在逐步改变生活和工作方式,带来难以想象的技术突破。然而,此技术也正被坏人利用来造出精密的诈骗伎俩。
人工智能骗局日益增加
在数字化时代,网络诈骗不仅仅是粗制滥造的虚假电子邮件或简单的冒充电话。现在,骗徒可以利用人工智能来实施更精密的诈骗伎俩,例如:深度伪造(deepfake)--使用人工智能和深机器学习(machine learning)来创建真实性非常高的虚假影片、图像或声音的技术。
上述的技术可以在短短几秒钟内容易地将影片中一个人的脸拼接到另一个人的身体上,甚至可以复制他们的声音。这些deepfake产品可能被坏人利用来实施恐吓、勒索等行为,损害受害者的名誉。这使得发现诈骗一事变得比以往任何时候都更加困难,若没有具备足够的知识,就很容易落入陷阱。
根据Censuswide--专门从事市场研究的顾问公司最近公布的研究结果,逾25%的调查参加者承认自己曾是与人工智能有关的骗局的受害者,主要是身份诈骗。这显示人工智能的精密程度,尤其是deepfake技术。过半调查参加者认为,现在的技术尚未能够保护他们的身份免受deepfake技术的攻击。45%的参加者认为,法律需以更严格的规定干预,才可防止利用人工智能与诈欺目的的行为。
住在本市的玉明告知,他曾是人工智能诈骗的受害者。具体是,坏人收集了他的个人照片,然后使用deepfake将他的脸拼接到敏感影片上,用于勒索目的。然而,他已选择不妥协的措施,并在脸书和其他平台上分享此资讯,以向亲友敲响警钟。
2024年初,越南虚假新闻与恶意资讯处理中心已收到运输集团主席的反映,表示他被坏人使用Deepfake在网络上散播假影像。类似的事项不仅严重影响个人名誉,还造成社会不安。
最近,市公安厅所属网络安全与高新技术犯罪防打科(PA05)也收到一些身份诈骗和将脸部拼接到敏感影像、影片中的手段受害者的举报。
该单位代表告知,骗徒惯用的伎俩是长时间透过社交网跟进受害者,然后加好友以收集个人资讯、图像并使用Deepfake技术以制作虚假的敏感视频,用于威胁、勒索目的。
据新闻与传播部所属国家网络空间安全监察中心技术专家吴明孝告知,有些骗徒还冒充公安机关、银行、电力公司等引诱受害者在手机上安装恶意应用程式,然后侵吞财产。
如何辨识和避免落入人工智能陷阱?
为了应对日益精密的诈骗手段,用户需要提高认识并配备有效的防范措施。
Bkav所属AntiMalware恶意软件研究中心总经理阮进达表示,坏人利用人工智能收集和分析用户数据,从而造出精密的诈欺策略。特别是,在将Deepfake与chatbot Ai(人工智能聊天机器人工具)相结合时,诈骗计划变得更加复杂且难以发现。
一些报告显示,只需一段约3秒钟的音频,网络犯罪分子就可以容易复制一个人的声音来拨打虚假电话。
据Athena网络安全中心经理武杜胜告知,用户可以依靠一些迹象来识别虚假影视频、图像。例如,可以注意脸部表情、光线、嘴唇动作或音质等细节。若这些因素不自然或不统一,则很可能是使用Deepfake建立的假视频。
然而,随着技术的发展,人工智能创建的图像几乎没有差异,若不使用分析工具,就很难区分。吴明孝专家也认为,为了识别假视频,用户需注意脸部表情、头部方向或举动。
英国Starling银行资讯安全经理丽莎‧格雷厄姆也提出一个有用的建议:大家应该设定只有亲人或亲密朋友知道的“安全短语”,可以用来在聊天时验证身份,尤其是在涉及金钱的时候。例如,如果有人向你借钱,但不知道“安全短语”,则很可能是身份冒充者◆
遭以虚假敏感视频勒索,怎么办?
当被以虚假敏感视频勒索时,重要的是不要惊慌或妥协。
智福律师事务所主任阮明智硕士、律师劝喻,受害者应该保留勒索视频、图像或链接,并向坊公安或PA05举报。另外,提供生活中有纠纷的人的资讯可以有助职能机关进一步审查和调查。
同时,吴明孝专家也建议,用户需要注重提高警惕,不要向任何人,即使是自称为银行人员或国家机关干部提供身份证、银行账户、OTP密码等敏感资讯。特别是,切勿透过电话、社交网或呈诈骗迹象的网站向陌生人转账。
无论人工智能如何发展,人仍是防止诈欺行为的核心因素。分享个人资讯前要考虑清楚、随时对可疑迹象提高警惕以及在发现诈欺迹象时及时向职能机关通知是有助保护自己和社群免受滥用人工智能所造成的风险的有用措施。