AI换脸冒充明星带货
(相关资料图)
“模仿我的脸,还模仿我的声音???”
点开直播间乍一看
卖货的竟是当红明星
再定睛一看
“明星”其实是使用人工智能(AI)
实时换脸技术的普通主播
他们冒充明星艺人
只为增加卖点,助力卖货……
▲发布者展示换脸为“成龙”的实时效果和软件界面(视频截图)
公司老板遭遇AI换脸诈骗
10分钟被骗取430万元
近日,内蒙古包头警方发布一起利用AI实施电信诈骗的典型案例。
来自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。
基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。
事后,郭先生拨打好友电话才得知被骗,原来骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后说。
识别和警惕AI诈骗的新伎俩
AI换脸诈骗相比传统电信诈骗成本更低、时速更快、角色更多、机率更高和防范更难等特点,对社会造成的危害也更大。因此,我们要高度警惕基于AI诈骗的5种新伎俩。
1.虚假音频诈骗
利用AI技术生成虚假的语音信息,冒充亲戚、朋友等身份进行诈骗。比如,不法分子使用AI技术生成了一段虚假的亲属语音信息,声称家中告急亟需紧急转账。受害者因为听到了亲属的声音,从而引起恐慌和焦虑,没有多想就进行了转账。
2.虚假视频诈骗
利用AI技术生成更加逼真的虚假视频,制造更加真实的人物或情境,让受害者更容易上当受骗。 例如,近年来,有不法分子将现实中的一个人脸替换成了电影明星的脸,并通过社交媒体传播,诱导用户和粉丝点击链接下载恶意软件或输入个人信息。
3.虚假恐吓诈骗
据光明网披露,近日,多名网友收到同一条虚假恐吓诈骗短信。短信声称对方因信贷诈骗已经被执法机关定位,要求当日14点前结清全部欠款,否则将会遭到上门强制“枪毙”。 然而,这种“低智商”的诈骗手段,极有可能是AI筛选出最容易上当的人群,特别是那些文化程度不高、社会阅历单薄的弱势人群。
4.网络钓鱼诈骗
利用AI技术生成虚假的网站、邮件等,诱导用户输入个人信息或下载恶意软件。例如,在一次网络钓鱼事件中,黑客使用AI技术生成了一个虚假的银行网站,通过短信形式告知对方打开某银行网站,让受害人输入银行卡号和密码进行验证,导致受害人银行卡被盗刷。
5.进行定向攻击
黑客可以使用AI技术分析目标用户的行为特征和个人信息,进行精准定向攻击,窃取个人敏感信息。例如,在一次定向攻击事件中,黑客使用AI技术制作了虚假的社交媒体账号,并通过该账号发送钓鱼链接,成功窃取了目标用户的个人信息。
宜昌公安提醒您
警惕AI换脸诈骗
请大家牢记:
1.第一条基本原则:对网络上任何东西,无论是视频、语音,还是视频聊天,都要保持警惕心。
2.如果网上遇到有关钱的问题,一定要再从侧面核实情况,尽量多方位去核实,但不要打对方提供的电话。
3.如果有人要你帮忙过账,无论多熟悉的人,最好见面核实。
4.公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打110咨询。
5.陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。
E N D
来源:宜昌市公安局反诈中心
关键词:
质检
推荐