您好,欢迎来到报告网![登录] [注册]

金融监管总局:警惕利用AI新型技术实施诈骗的风险

  国家金融监督管理总局10月13日发布风险提示,提醒广大金融消费者警惕利用AI新型技术实施诈骗的风险,维护个人及家庭财产安全。

  金融监管总局表示,利用AI新型技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财。不法分子通常先以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集发音、语句或面部信息。再利用“拟声”“换脸”等技术合成消费者虚假音频或视频、图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。

  此类诈骗手段迷惑性、隐蔽性较强,诈骗金额较高,为保护广大金融消费者合法权益,金融监管总局提示:

我要投稿 版权投诉
  1. 标签 金融
  2. 机构、内容合作请点这里: 寻求合作>>
金融行业标签

日常**于你

该用户很懒,什么也没介绍!

关注 私信

报告咨询

  • 400-817-8000全国24小时服务
  • 010-5824-7071010-5824-7072北京热线 24小时服务
  • 059-2533-7135059-2533-7136福建热线 24小时服务

如您想投稿,请将稿件发送至邮箱

seles@yuboinfo.com,审核录用后客服人员会联系您

机构入驻请扫二维码,可申请开通机构号

Copyright © 2025 baogao.com 报告网 All Rights Reserved. 版权所有

闽ICP备09008123号-13