【星资讯】眼见不一定为实,谨防新型AI诈骗!
随着“互联网+”时代的到来
网络技术不断进步
AI正迅速进入大众生活
其应用范围越来越广
但存在滥用之嫌
甚至有人利用AI换脸实施犯罪
例如伪造不雅视频、换脸诈骗等
几分钟内被骗30万元
BEWARE OF FRAUD
近日,东胜市民李女士遭遇了冒充熟人的诈骗,被骗30万元。诈骗分子冒充李女士的同学“贾某”,伪造微信账号添加李女士后,主动提出视频聊天。视频中,李女士看到了“贾某”本人,对方称信号不好不便继续视频,打完招呼后转入文字聊天。
“贾某”说他有个领导的亲戚正在参加一个项目竞标,急需周转资金,自己不便出面,想借李女士的名义将钱转给对方。“贾某”向李女士索要了银行卡号,声称已经把钱转到了李女士的账户上,还把银行转账底单的截图(PS图片)通过微信发给李女士。
基于对好友的信任,加上已经通过视频聊天核实了身份,李女士没有核实钱款是否到账,就把自己全部存款30万元转了过去。对方要求李女士借钱继续转账,李女士产生了疑虑,拨打好友电话,才知道原来遇上了高端的电信诈骗。骗子通过智能AI换脸和拟声技术,佯装好友对她实施了诈骗。
眼见未必为真
什么是“AI”诈骗?
BEWARE OF FRAUD
大家有没有玩过这样的游戏?
上传一张自己的照片
就可以换脸“扮演”喜欢的影视角色
一圆明星梦
但是你知道吗?
这很可能会被AI诈骗分子盯上!
诈骗分子利用AI换脸技术,提前制作了冒充领导或熟人的视频,而并不是实时的视频互动通话。其本质就是冒充领导和熟人类诈骗的升级版。
耳听未必为实
AI诈骗有哪些常见手法?
BEWARE OF FRAUD
01
AI声音合成诈骗
诈骗分子通过拨打骚扰电话等方式,录音提取诈骗对象及其重要关系人的声音特征,对素材进行合成,进而用伪造的声音实施诈骗。
02
AI换脸诈骗
人脸效果更易取得信任,诈骗分子利用 AI 技术换脸,可以伪装成任何人。通过合成视频或照片来“ 以假乱真” ,扰乱诈骗对象的视线进而实施诈骗。
03
AI刷选受骗人群
通过分析诈骗对象在网络平台发布的个人信息,诈骗分子会利用AI 技术对人群进行筛选,从而选出目标对象,制定诈骗计策。
诈骗“魔高一尺”
防范“道高一丈”
我们该如何防范AI作骗呢?
BEWARE OF FRAUD
01
识别假脸
多数假脸是使用睁眼照片合成,假脸极少甚至不会眨眼,缺少眨眼是判断一个视频真假的好方法。辨识“深度伪造”换脸视频的方法还包括语音和嘴唇运动不同步、情绪不符合、模糊的痕迹、画面停顿或变色。
02
多重验证确认身份
在涉及到转账交易等行为时,要提高安全意识,通过电话等多重方式确认对方是否为本人。最好向对方的银行账户转账避免通过社交软件转账,将转账到账时间设定为“24 小时到账”以预留处理时间。
03
保护信息,提高警惕
加强个人信息保护意识,谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息,以免被骗子“精准围猎”。
04
相互提示,共同预防
要多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
星河湾物业温馨提示:
BEWARE OF FRAUD
1.请广大业户一定要注意保护好个人信息,以防被不法分子掌握信息而实施诈骗。
2.眼见不一定为实,有图也不一定就是真相。
3.涉及转账、汇款等情况时,务必要通过多方渠道核实并确定对方身份。
4.如果有人要你帮忙过账,无论多大的领导,多熟悉的人,必须电话或当面核实,而且要等钱到账之后再进行转账。
星河湾物业
提醒广大业户朋友们,
要学会拒绝诱惑,提高警惕,
避免占便宜心理,
警惕陌生人的无端“献殷勤”
转账汇款需谨慎!
页:
[1]