【典型案例】- P, N0 |" V; K# h7 P
近日,警方发布了利用AI换脸技术实施电信诈骗的案例。例如好友突然通过微信视频联系称其朋友在外地竞标,需要大额的保证金。受骗人基于对好友的信任,并且又已经视频聊天核实了身份,将大笔金额汇到好友朋友的银行卡上,期间出于对朋友的信任,并没有核实钱款是否到账。过后,拨打好友电话时才发现自己被骗。
* A: Q6 [1 u7 h) J7 U这种情况就是骗子通过智能AI换脸和拟声技术,佯装好友对受骗人实施了诈骗。幸运的是,接到报警后,两地的警、银迅速的采取了联合行动,及时的启动止付机制,成功止付拦截一部分汇款,但仍有小部分汇款被转移,目前仍在全力追缴中。 5 [) R1 p8 h. y$ ?9 Z4 z L H
【风险提示】
( l$ p7 F9 G8 d在上述案例中骗子同时使用了“AI换脸”和“AI拟声”两种技术进行诈骗。正所谓 “眼见不一定为实”,其实“AI换脸”并不是新技术,之前在微信朋友圈曾一度风靡。目前在多个移动端及桌面端应用商店中,依旧提供可以进行换脸换声的类似软件。 技术的发展和应用本身并没有恶意,但是有些人或者组织可能会利用技术来实施恶意的行为,这令人不可不防。
5 g' R3 `) W6 w% W" O每个人都是保护自身信息安全的第一责任人,为了避免个人的脸部、声音等生物特征信息存在被盗用等风险,需要提升个人的防范意识,加强对于个人物品、信息的安全性的保护。
9 z4 r8 _4 @6 r/ u- _& A: A因此我们要做到不随便点击不明的短信链接、邮件链接;不随意扫描不明来源二维码、下载APP;不轻易提供人脸等个人生物信息给他人;不轻易透露自己的身份证、银行卡、验证码等信息;不过度公开或分享动图、视频等。谨防AI换脸诈骗风险,绷紧防范之弦,让不法分子无可乘之机。 |