警惕,有人在偷你的声音,偷你的脸!
今年央视“3·15”晚会,揭露了AI变脸技术背后潜藏的诈骗风险,这一话题引发了社会广泛的关注。
人工智能是一把双刃剑,在推动社会进步的同时,也隐藏着巨大的风险。随着人工智能技术的不断进步,AI技术应用的门槛随之降低,AI诈骗方式层出不穷,因为其逼真的效果,让人防不胜防。
下面,让我们来盘点一下AI诈骗的四种典型方式——AI换脸、AI拟声、AI造谣、AI炒股。
诈骗方式一:AI换脸
眼见不一定为实!近期,多起“AI换脸”诈骗案例,为我们敲响了警钟。
骗子会通过各种渠道收集受害人及其熟人的信息,如姓名、电话、社交账号、照片、视频等。并利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征,生成逼真度较高的虚假换脸视频。然后,伪装成领导、同事、亲人或者朋友的身份与受害人视频聊天,进而实施诈骗。
案例
近期,香港警方披露了一起多人 “AI换脸”诈骗案,涉案金额高达2亿港元。该案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次。但这场视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。
应对方式
可以要求对方在视频对话的时候,在脸部的前面通过挥手的方式,去识别实时伪造的视频。也可以让对方摁鼻子、摁脸,观察其面部变化。
诈骗方式二:AI拟声
听声识人,已经不可信了。近几年,AI语音合成技术有了显著的发展,一些C端的应用也逐渐成熟。然而,这种技术也被用在了诈骗上。
骗子通过骚扰电话录音等来提取受害人声音,获取素材后进行声音合成,从而可以用伪造的声音进行诈骗。
案例
2023年10月,象山警方公布的一起相关诈骗案中,不法分子通过AI语音合成一名在英国的留学生声音,企图骗取其家长100万元“赎金”。
应对方式
面对未知来电时,可以在了解对方的信息之后再开口,减少不必要的信息泄露。如果接到可疑电话,无论是绑架还是诈骗都应当立即报警,切勿轻信他人、转账汇款。
诈骗方式三:AI造谣
只需一张照片、几个关键词,利用AI技术就能快速创作出一篇文章。所以有人为了流量,利用AI技术编造假新闻,在网上大肆流传,造成恶劣影响。
案例
2024年1月23日,骆某某为博取流量吸引粉丝,将其他地区的抗洪、救灾视频,利用AI软件自动编辑功能,嫁接新疆乌什县发生地震的虚假视频信息。视频被大量播放,并引发许多不明真相网民评论和转发,严重干扰社会秩序。
应对方式
尽量从官方媒体或者权威渠道确认消息来源,不信谣不传谣,提升对“AI造谣”的鉴别力。
诈骗方式四:AI炒股
股民也成为了AI诈骗的重点对象。随着AI技术的发展,利用人们对新技术的好奇心理以及对高收益的追求,一些号称能为投资人实现自动选股交易的APP如“AI智能炒股机器人”等冒了出来。但这些APP背后的运营公司都没有取得证券投资咨询许可资质,可能存在非法荐股的违法犯罪行为。
案例
去年,上海市公安局经侦总队牵头闵行、嘉定等分局,侦破假借策略选股软件非法经营证券投资咨询业务系列案,抓获犯罪嫌疑人56名,涉案金额9200余万元。
应对方式
投资有风险,入市需谨慎。投资人应理性参与证券投资,自主作出投资决策,远离无证机构提供的证券投资咨询服务。
专家支招:规范AI产业发展
推荐阅读
➤证监会新规,就在明天!
➤“他”爆买“宁王”近50亿!
➤15亿只!锂电池龙头官宣
➤下周,3股解禁超30亿元!
戳!