小编@K宝 发表于 2023-5-23 16:33:06

太可怕了!福州一男子10分钟,430万元没了......

只需要提供一张带脸的照片,就可以把自己置换成视频、电视剧中的男(女)主角,而且拟真度非常高,毫无违和感。

“AI换脸”新型诈骗频发和你视频对话的可能不是本人!



随着人工智能的迅猛发展诈骗团伙的诈骗手段也越来越科技化竟然用上了AI换脸技术福州的郭先生竟因此10分钟内被骗430万元

图据湖北网警巡查执法
据警方介绍,AI诈骗还有不少花样,通过声音合成、AI换脸、转发语音等手段,成功率竟接近100%。
AI技术如何介入新骗局?有什么新的诈骗方式?注意了

第一种是声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
例如,某公司财务接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,该财务信以为真,在1小时内转款完成,后发现被骗。


第二种是AI换脸
因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
第三种是转发微信语音
除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,就在前不久就有骗子通过转发微信语音的方式行骗。
在盗取微信号后,骗子便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。
(视频来源:央视新闻)第四种是AI筛选受骗人群
值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。
遏制人工智能违法应用还须多方发力多管齐下   要遏制“AI换脸”等人工智能领域的深度合成技术应用乱象,还得多方主体共同发力多管齐下。       4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,对生成式人工智能产业给出较为详尽的规定,对用户安全保护已经迈出第一步。此外,监管部门要看到这一问题的严峻性,担负起监管责任,挖出相关产业链,给犯罪分子以震慑。平台和个人也应避免信息泄露,不给骗子留下把柄。      技术是一把双刃剑,拥抱新技术带来的发展与变革,也必须规避可能存在的风险和危险。既然有人在用它图谋不轨,就必须为这把剑装上剑鞘,这是为了保护剑,也是为了保护人。
警方提示
针对花样翻新的智能AI诈骗公众要提高防范意识!!!
1.不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;
2.网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;
3.如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;
4.如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。


来源:综合广州日报、平安包头、湖北网警、北京晚报、徐州警方


页: [1]
查看完整版本: 太可怕了!福州一男子10分钟,430万元没了......