【典型案例】+ J* E3 I; L. t8 w# B
近日,警方发布了利用AI换脸技术实施电信诈骗的案例。例如好友突然通过微信视频联系称其朋友在外地竞标,需要大额的保证金。受骗人基于对好友的信任,并且又已经视频聊天核实了身份,将大笔金额汇到好友朋友的银行卡上,期间出于对朋友的信任,并没有核实钱款是否到账。过后,拨打好友电话时才发现自己被骗。: H# M5 z8 `; P# ]: K! D
这种情况就是骗子通过智能AI换脸和拟声技术,佯装好友对受骗人实施了诈骗。幸运的是,接到报警后,两地的警、银迅速的采取了联合行动,及时的启动止付机制,成功止付拦截一部分汇款,但仍有小部分汇款被转移,目前仍在全力追缴中。
1 U; S1 X) n$ s" c8 E. Z【风险提示】 ! W$ g$ y# T- R2 k; z2 P+ n
在上述案例中骗子同时使用了“AI换脸”和“AI拟声”两种技术进行诈骗。正所谓 “眼见不一定为实”,其实“AI换脸”并不是新技术,之前在微信朋友圈曾一度风靡。目前在多个移动端及桌面端应用商店中,依旧提供可以进行换脸换声的类似软件。 技术的发展和应用本身并没有恶意,但是有些人或者组织可能会利用技术来实施恶意的行为,这令人不可不防。 ( ?: I/ k& K' }0 c% `
每个人都是保护自身信息安全的第一责任人,为了避免个人的脸部、声音等生物特征信息存在被盗用等风险,需要提升个人的防范意识,加强对于个人物品、信息的安全性的保护。& [+ i* c3 ?# P$ B' y6 w! l* |
因此我们要做到不随便点击不明的短信链接、邮件链接;不随意扫描不明来源二维码、下载APP;不轻易提供人脸等个人生物信息给他人;不轻易透露自己的身份证、银行卡、验证码等信息;不过度公开或分享动图、视频等。谨防AI换脸诈骗风险,绷紧防范之弦,让不法分子无可乘之机。 |