◇决策参考报告202322◇综述:防治“AI诈骗”,引导人工智能“向善”

2023-08-07 10:01:00    字号:

  目录
  防治“AI诈骗”,引导人工智能“向善”  
  一、AI技术使诈骗分子“如虎添翼”
  (一)诈骗技术“与时俱进”
  (二)AI技术降低了诈骗的门槛
  二、AI诈骗的种类与特点
  (一)AI诈骗的种类
  (二)AI诈骗的特点
  三、国内信息通信行业主要治理举措与成效
  (一)加强组织部署和任务落实,充分发挥行业主管部门引领作用
  1.巩固深化顶层统筹,扎实推进电信网络诈骗治理迈向新台阶
  2.制定出台相关管理制度,强调个人信息保护与实名登记并重
  3.强化通报约谈,持续强化责任落实
  4.建立健全技术手段,巩固升级诈骗治理联动防线
  5.进一步加强宣传教育,提升用户风险防范意识
  (二)企业充分发挥技术优势,加强新型防控技术研发
  1.基础电信企业积极落实主体责任,不断推进技术能力升级
  2.互联网企业主动作为,加大对人工智能诈骗手法的识别能力研发
  四、人工智能背景下国外电信网络诈骗治理动态
  (一)注重立法先行,深化个人信息保护制度
  1.制定专门性法律法规
  2.加大违法行为惩处力度
  (二)强化技术手段,提升诈骗音视频识别与拦截能力
  1.政府主动出击,研制开发伪造视频拦截工具
  2.各方积极响应,开发出多项音视频造假检测技术
  (三)强化企业自律,加大对诈骗电话呼叫与转帐环节的管控
  1.政府主导,聚力诈骗资金转帐管理
  2.企业自发,携手自动呼叫检测拦截
  (四)加强警示教育,提升民众防范意识
  五、我国防治AI诈骗目前存在的问题
  (一)相关法律法规尚待完善
  (二)侦查打击难度进一步加大
  (三)未形成良好的协同治理效应
  (四)企业担心监管过严会限制行业发展
  (五)企业数据安全投入力度不足
  (六)
  对个人信息安全保护的宣传不足
  六、防治AI诈骗的对策建议
  (一)加强相关法律法规的制定和完善
  (二)建立有效的协调机制和责任机制
  (三)以技术反制技术
  (四)防止极端思维和过度监管思维
  (五)加强企业自律
  七、结语
   
  人工智能(AI)是各国大力发展的方向,它能应用在多个领域,能解放生产力、提高生产效率。但技术创新是一把双刃剑,AI技术开始被诈骗分子所利用,特别是随着基于人工智能的“深度伪造”、群聊群控等诈骗手法的传播和应用,这些风险被进一步集聚、放大,引起了社会各界的关注。
  一、AI技术使诈骗分子“如虎添翼”
  (一)诈骗技术“与时俱进”
  AI诈骗是指利用AI技术模仿或伪造他人的声音、面部、身份等信息,以达到欺骗或诱导受害者转账、泄露隐私、提供服务等目的的犯罪行为。
  AI技术使诈骗分子“如虎添翼”:首先,通过换脸、声音模拟等手段冒充用户的亲友,几乎能做到以假乱真的诈骗,用户很难分辨,极易上钩;其次,利用AI技术,犯罪分子可以同时对大量用户同步实施诈骗,带来的危害范围更广、受害者的财产损失也更大。
  全球范围内AI诈骗案例增多,涉案金额增大。2019年3月,英国一名诈骗者,将自己的声音改变成当地一家能源公司老板的声音,骗取了22万欧元(约合人民币170万元)。2022年2月,诈骗分子利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗近5万元。2022年4月,福州市某科技公司法人代表郭先生在10分钟内被不法份子用AI技术被骗走430万元。美国联邦调查局3月公布的年度报告显示,2022年美国网络诈骗造成的损失达103亿美元,创下五年来新高,并指出面向老年人的AI语音骗局是重灾区。
  (二)AI技术降低了诈骗的门槛
  AI产品在带来生产力革命潜力的同时,也给了犯罪分子强大的工具。工信部信息显示,伴随AI技术快速发展,合成技术门槛持续降低,逐渐向低算力、小样本学习方向演进,利用手机终端即可完成,对算力和数据的要求下降明显。同时,随着AI大模型的技术加持,正逐步由面部合成向全身、3D合成发展,效果更加逼真。5月24日,中国互联网协会发文提醒,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜。
  二、AI诈骗的种类与特点
  (一)AI诈骗的种类
  当前国内AI诈骗的常见手法主要有四种。第一种,转发微信语音。骗子通过提取语音文件或安装增强版微信(插件),实现语音转发,在盗取微信号后,向该微信号的好友提出转账要求。第二种,声音合成。骗子通过骚扰电话等方式,录音提取某人的声音,获取素材后,利用AI技术对素材进行合成,用伪造的声音实施诈骗。第三种,AI换脸。视频通话的可信度高于语音和电话。骗子基于公众发布的照片、视频,通过人体图像合成技术,生成假脸,然后伪装成被害人的熟人,再通过视频通话方式,进行信息确认,骗取信任。第四种,通过AI技术筛选受骗人群。骗子根据所要实施的骗术筛选人群,例如实施情感诈骗时,可以筛选出经常发布情感类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群等。利用AI技术分析公众发布在网上的各类信息,在短时间内生产出定制化的诈骗脚本,从而实施精准诈骗。
  (二)AI诈骗的特点
  一是隐蔽性强。AI诈骗往往通过网络平台或社交软件进行,不易被发现和追踪。
  二是成功率高。首先,AI诈骗可以针对性地选择目标对象,根据其特点和需求进行定制化的诱导或威胁。其次,由于AI技术可以模仿或伪造他人的身份特征,使得受害者难以辨别真伪,容易产生信任感和安全感。目前北京反诈、武汉市反电信网络诈骗中心等官方公众号平台表示AI“诈骗成功率接近100%”。
  三、国内信息通信行业主要治理举措与成效
  基于人工智能的电信网络诈骗凭借其新颖的诈骗形式、精准的诈骗脚本、逼真的伪造音视频,让人防不胜防,已经严重影响了社会稳定和群众幸福感。为有效遏制基于人工智能的新型电信网络诈骗产生蔓延,及时铲除此类诈骗活动滋生的土壤,我国信息通信行业积极开展了行业源头治理工作:工业和信息化部作为国务院打击治理电信网络诈骗新型违法犯罪工作部际联席会议工作单位和行业主管部门,全面贯彻党中央、国务院有关决策部署,在工信部网安局指导下,信息通信行业相关企业单位深入落实主体责任,纵深推进防范治理工作,形成了全链条多层次的治理格局。
  (一)加强组织部署和任务落实,充分发挥行业主管部门引领作用
  1.巩固深化顶层统筹,扎实推进电信网络诈骗治理迈向新台阶
  利用人工智能技术的电信网络诈骗一般呈现涉及面广、危害性大、对抗性强三大特点,加强组织领导与统筹布局是保障治理工作有序推进的坚实基础。工信部高度重视电信网络诈骗防范治理工作,依托防范打击通讯信息诈骗工作领导小组,全面负责统筹相关重点任务;时刻关注基于人工智能的电信网络诈骗新形势以及演进态势,积极研究形成治理新方案新思路;针对当前诈骗治理重点难点,工信部网安局多次组织指导相关专题会议,部署督导人工智能诈骗治理相关工作,确保治理工作有效推进。同时,为保障促进人工智能在安全领域应用,工信部发布《促进新一代人工智能产业发展三年行动计划》,构建完善以法律法规、监管政策、技术标准、监督执法为核心的人工智能安全监管体系。
  2.制定出台相关管理制度,强调个人信息保护与实名登记并重
  个人信息保护以及电话实名制作为治理人工智能诈骗的重要手段,已成为当前监管部门的治理工作重点。2013年工信部发布《电信和互联网用户个人信息保护规定》(工信部令24号)以及《电话用户真实身份信息登记规定》(工信部令25号),明确了用户个人信息保护以及电话实名登记的相关要求。随后,工信部网安局先后制定出台《工业和信息化部关于进一步做好防范打击通讯信息诈骗相关工作的通知》(工信部网安函〔2015〕601号文)、《关于进一步防范和打击通讯信息诈骗工作的实施意见》(工信部网安函〔2016〕452号文)、《工业和信息化部关于纵深推进防范打击通讯信息诈骗治理工作的通知》(工信部网安函〔2018〕157号文)等文件,明确提出要加强电话用户实名登记,加强用户个人信息保护等。截至目前,基于人工智能的用户实名登记人像比对试点及在线视频实人认证等工作正在逐步深化落实,用户实名制信息准确率超过95%。2019年5月,工信部网安局制定实施《工业和信息化部办公厅关于进一步做好2019年防范治理电信网络诈骗重点工作的通知》(工信厅网安函〔2019〕108号文),明确指出要坚持关口前移,要及时汇总分析电信网络诈骗样本模板、关键特征等信息,利用大数据技术防范打击电信网络诈骗。2022年12月,国家网信办、工信部、公安部联合发布《互联网信息服务深度合成管理规定》,明确针对在中国境内应用深度合成技术提供的互联网信息服务进行规制,其中,深度合成技术是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。2023年4月,国家网信办起草《生成式人工智能服务管理办法(征求意见稿)》并向社会公开征求意见,提出AI内容必须真实准确,禁止非法获取、披露、利用个人信息和隐私、商业秘密。近期,国务院办公厅发布的《国务院2023年度立法工作计划》还将人工智能法草案列为预备提请全国人大常委会审议项目,说明相关立法已提上日程。
  3.强化通报约谈,持续强化责任落实
  近年来,越来越多的诈骗分子利用人工智能技术,借助企业管理漏洞,实施电信网络诈骗,强化监督检查、压实企业责任成为行业监管部门事中事后监管的主要手段。截至目前,工信部共计下发电信网络诈骗风险行业和重点地区通报33期,累计点名通报问题企业60余次。2019年7月,针对媒体公开报道和用户曝光的“ZAO”APP存在数据安全问题,工信部网安局对北京陌陌科技有限公司相关负责人进行了问询约谈,要求其依法依规组织开展自查整改,并进一步加强新技术新业务安全评估,积极防范自有业务平台被利用实施人工智能电信网络诈骗。
  4.建立健全技术手段,巩固升级诈骗治理联动防线
  善于把人工智能技术运用到预防打击电信网络诈骗工作中,是推动治理体系和治理能力现代化的重要举措,是确保与诈骗分子较量时占得先机、赢得主动的关键。为进一步提升电信网络诈骗发现、预警和处置能力,在工信部网安局指导下,地方通信管理局、中国信息通信研究院、国家互联网应急中心等单位,建设了全国诈骗电话防范系统,初步构建了部、省两级反诈骗治理技术体系,并持续推进基于通话行为和语义内容的深度学习诈骗电话识别、基于文本分析的诈骗短信识别以及基于无监督机器学习算法的涉诈网站识别等技术的实际应用落地。
  5.进一步加强宣传教育,提升用户风险防范意识
  在人工智能技术的推动作用下,电信网络诈骗呈现成本低、花样新、波及广、迷惑性大等特点,增强用户识骗、防骗意识和能力变得十分必要。近年来,工信部紧跟诈骗新形势新特点,利用大数据技术分析研判当前诈骗趋势,聚焦人工智能诈骗重点地区、易受害人群,先后组织“号码安全伴你我,全民防骗公益行”、“反诈校园行”等活动10余次,在北京、上海、广东等多地校园内引发热烈讨论,有效提升了高校师生的防范意识。2019年,工信部通过工信微报、人民邮电报等渠道编发系列诈骗风险预警提示40余篇,持续宣传电信网络诈骗政策、工作动态、诈骗案例等信息。同时,指导三家基础电信企业利用短彩信、微信公众号等,发送风险提醒信息十亿余条,及时向公众发布人工智能诈骗经典案例与防范之策,有效防范诈骗分子利用人工智能等新技术实施电信网络诈骗。
  (二)企业充分发挥技术优势,加强新型防控技术研发
  1.基础电信企业积极落实主体责任,不断推进技术能力升级
  基础电信企业作为电信网络诈骗治理工作的核心责任主体,瞄准“认识到位、执行到位、责任到位、成效到位”的工作目标,在精准管理上用力、在精准打击上发力、在精准服务上着力。在组织管理方面,三家基础电信企业严格落实行业管理部门的相关部署要求,聚集涉及人工智能的诈骗治理工作,积极推进电话实名制、重点业务管理等源头治理;在防范打击方面,先后建设了重点业务管理系统、短信提醒系统、诈骗电话核查处置系统等,汇总分析诈骗样本模板、关键特征等精准信息,利用大数据等技术手段,不断加大对涉及人工智能的电信网络诈骗等违法信息的识别、预警、拦截与处置能力,实现精准打击。在服务引导方面,三家基础电信企业利用人工智能技术分析诈骗新手法、新套路,筛选易受害人群,组织多次定点、定向宣传教育活动,提升民众反诈意识。
  2.互联网企业主动作为,加大对人工智能诈骗手法的识别能力研发
  近年来,腾讯公司开展人工智能技术在黑色链条中的应用分析研究,为政府部门提供反诈动机分析。百度公司聚焦于诈骗网址安全性识别研究,对高风险链接进行标记、分类乃至屏蔽,将治理电信网络诈骗工作从被动变为主动。科大讯飞股份有限公司建设了人工智能类诈骗防控技术手段,能够从语言层面自动理解并识别对方意图,实现早期预警,并通过早期预警,对容易受骗的受害人群体进行标记。北京得意音通技术有限责任公司致力于声纹识别技术、语音识别技术、情感识别技术、语言理解技术等打击人工智能诈骗技术研究。
  四、人工智能背景下国外电信网络诈骗治理动态
  为防范治理这种新型电信网络诈骗,世界主要国家和地区纷纷从深化个人信息保护、提升技术防范能力、强化企业守法自律、加强警示宣传教育等方面着手,开展推进打击防范治理工作,遏制人工智能诈骗活动的泛滥蔓延。
  (一)注重立法先行,深化个人信息保护制度
  1.制定专门性法律法规
  人工智能诈骗实施的关键要素是获取受害者的个人信息,因此个人信息保护是人工智能诈骗治理的源头。目前全球已有126个国家制定了专门针对个人信息保护的法律。2015年日本出台《个人信息保护法》,细化了个人信息保护权相关规定,确立了对个人信息保护的一体化监督机制。2018年,欧盟出台《通用数据保护条例》,建立了用户个人信息访问、修正和删除请求相关机制,明确指出未取得数据主体的同意,不得使用用户画像。随后,印度出台《2018年个人数据保护法案(草案)》,明确要求数据控制者在使用数据画像时,要开展数据保护影响评估,否则不得处置。2019年6月,美国国会先后提出了两部法律草案《深度伪造责任法案》和《2019年深度伪造报告法案》,探索立法应对措施,以防范深度伪造技术潜在滥用风险。2019年7月,美国弗吉尼亚州扩大了正式生效《非同意色情法》的修正案,将深度伪造内容纳入该修正案。意大利成为首个禁止ChatGPT的西方国家。2023年3月,意大利个人数据保护局宣布即日起暂时禁止使用ChatGPT,并暂时限制OpenAI处理意大利用户数据。在AI领域处于领先地位的美国也于近日做出承诺,将发布指导方针草案,以确保对人工智能的使用保障“美国人民的权利和安全”,谷歌、微软、OpenAI等巨头已同意在今年8月的网络安全会议上对其产品进行审查。主要有两方面的内容,一是数据收集获取的安全性,二是对人工智能生成内容的审核。而这两点,其实不论对于个人用户、企业用户甚至是一个国家而言,都是非常重要。2023年3月,美国特斯拉汽车公司首席执行官埃隆·马斯克曾联合1000多名业界、学界人士发表公开信,呼吁所有AI实验室立即暂停训练比ChatGPT更强大的AI系统,暂停至少6个月。其信中提到,在开发强大的AI系统之前,要确信这些系统的影响是积极的,风险是可控的。英国竞争和市场管理局正在审查人工智能对消费者、企业和经济的影响,考虑是否需要新的监管措施。法国隐私监管机构正在调查与ChatGPT有关的几起投诉。澳大利亚政府正在咨询科学咨询机构,来考虑下一步的监管行动。欧洲数据保护委员会已成立ChatGPT特别工作组;欧盟消费者组织则呼吁欧盟消费者保护机构调查ChatGPT技术及对消费者的潜在危害。2023年4月,欧洲议会成员就《人工智能法(TheAIAct)》提案达成临时政治协议,强化对生成式人工智能的监管,并将人工智能技术可能带来的风险细化为极小风险、有限风险、高风险、不可接受风险4个等级。2023年5月,日本政府召开“AI战略会议”,就AI(人工智能)相关政策方向进行探讨,兼顾利用和管制两方面,就技术、规则和教育等展开广泛讨论:AI具有让经济社会变得更加积极的潜力和风险,有必要妥善应对两者。
  2.加大违法行为惩处力度
  欧盟出台的《通用数据保护条例》是目前公认全球对个人信息泄露惩罚最严格的法律,明确要求在可行的情况下,不得迟于发现数据泄露后的72小时通知主管监管部门,未履行通知义务的企业将面临一千万欧元或全球年营业额2%以上的处罚。此外,美国、澳大利亚、英国等西方主要国家和地区,均在立法中对“数据泄露通知”进行了规定,美国部分州规定,民事处罚分为500美金到5万美金不等、泄露一次2500美金、每天最高1000美金三种。2018年12月,美国联邦议员提出《2018年恶意伪造禁令法案》,规定制作深度伪造内容引发犯罪和侵权行为的个人,以及明知内容为深度伪造还继续分发的平台,可处以罚款和/或长达两年的监禁,如果严重的煽动暴力或扰乱政府或选举,监禁将长达10年。
  (二)强化技术手段,提升诈骗音视频识别与拦截能力
  1.政府主动出击,研制开发伪造视频拦截工具
  2018年8月,美国国防部积极开展新型诈骗防范技术研发,依托媒体取证项目,研发出全球首款“反换脸”AI刑侦工具,能够更高效更准确的自动检测出被修改过的图片和利用深度伪造技术生成的视频,防止诈骗分子利用合成信息诱导实施诈骗,斩断人工智能诈骗黑产链条关键节点。2019年6月,美国众议员在提交美国众议院审议的情报授权法案中提及要开展深度伪造鉴别技术竞赛,法案要求国家情报总监通过情报高级研究计划局局长实施一项有竞争力的奖励计划,刺激技术的研究、开发或商业化,以自动检测被机器操纵的媒体。
  2.各方积极响应,开发出多项音视频造假检测技术
  目前,联合国区域间犯罪与司法研究所人工智能与机器人中心正在研究检测虚假视频的技术。美国赛门铁克公司正在开发一种检测音频造假的技术,通过该技术可以准确检查出利用人工智能技术合成的音频内容。此外,美国的Facebook除建立了一个机器学习模型来检测虚假图片和视频外,还与PartnershiponAI、微软以及麻省理工学院、牛津大学、加州大学伯克利分校等美国多所大学合作,发起了“假视频检测挑战”活动,推动创建高质量的深度伪造视频数据集,促进检测识别技术的研究与开发,旨在利用人工智能技术更好地甄别深度伪造和合成内容、开发对抗深度伪造技术滥用的方法和工具,实现从源头上遏制人工智能诈骗案件的滋生与蔓延的目的。
  (三)强化企业自律,加大对诈骗电话呼叫与转帐环节的管控
  1.政府主导,聚力诈骗资金转帐管理
  2019年2月,英国政府联合银行业界、消费者群体等多方力量,发布了《授权推送付款(APP)诈骗自律守则》,规定银行金融机构若未能达到相关要求而导致客户遭受APP诈骗,则需对客户损失进行赔偿。目前共有包括巴克莱银行、劳埃德银行、汇丰银行、Metro银行、苏格兰皇家银行、国民西敏寺银行、桑坦德银行与全英房屋抵押贷款协会在内的8家机构签署加入《守则》。
  2.企业自发,携手自动呼叫检测拦截
  2019年初,美国AT&T和Comcast两大通信公司携手,联合开展SHAKEN/STIR(安全的电话身份重新访问/使用令牌安全处理断言的信息)协议的验证,并于3月21日宣布完成了在AT&T的移动电话网和Comecast的VoIP电话网络两个不同网络间的认证,实现机器人电话的自动检测与警示。与此同时,AT&T、Verizon和T-Mobile等运营商承诺将在各自网络中采取措施部署该协议。
  (四)加强警示教育,提升民众防范意识
  2018年,以色列国家网络管理局(INCD)发布了“新型网络攻击”警告,提醒公众诈骗分子很可能利用AI技术模仿管理层,命令员工进行资金转移等。同年,澳大利亚税务局(ATO)发布了一则警告,提醒公众有不法分子冒充ATO,并要求被害人使用比特币或其他加密货币支付子虚乌有的税费。2019年,奋韩网联合韩国国家情报院、金融监督院等机构针对冒充国家公共机关(大使馆、公安局)诈骗以及招人取钱的问题进行联合宣传,警示用户要严防人工智能时代各类仿冒诈骗。
  五、我国防治AI诈骗目前存在的问题
  (一)相关法律法规尚待完善
  虽然我国已出台一系列针对人工智能技术的法律法规,但面对AI技术发展过程中出现的新现象、新问题,相关法律规范尚需及时关注并更新。专家表示:“在制度设计层面,我国未形成统一的对人工智能技术的系统性立法,现有的法律规范在落地执行层面也存在挑战。”
  虽然我国近年来陆续推出《个人信息安全规范》、《数据安全法》、《个人信息保护法》等法律法规,对公众包括生物特征在内的各类隐私数据加强保护,但徒法不足以自行。原因在于:其一,由于我国大量新技术应用速度快,相关技术研发及服务提供平台是否具备了足够的用户数据安全保障能力,包括相关投入、管理的到位,在遭遇类似黑客袭击时应急体系的完善程度等,都令人存疑;其二,现有的用户个人信息保护、数据安全等行业管理基础性制度已经具备,但在具体的企业责任落实方面,特别是对人工智能应用在数据采集、传输、存储、使用、共享等各环节的隐私保护、数据安全等方面的监督落实力度仍需加强;其三对当前涉诈风险较大的基于人工智能的群呼(GoIP、SIMBANK)网关类设备的监管政策和管理方式仍需确定。
  (二)侦查打击难度进一步加大
  侦查与打击难度主要体现在两个个方面。第一,随着人工智能技术在电信网络诈骗领域的不断应用,不法分子实施诈骗的精准性、迷惑性、隐蔽性大大加强,AI诈骗治理工作所面临的“侦查破案难、电子证据调取难、认定处理难”等一系列问题更加突出。第二,AI诈骗已经呈现出明显的链条化、平台化作案特征。上游黑产提供各种基于人工智能技术的专用设备工具、算法,为下游诈骗分子源源不断地提供技术支持,位于上游的不法分子完全可以以自己不知情来规避法律风险。
  (三)未形成良好的协同治理效应
  在协同治理方面,一是随着电信网络诈骗治理逐步进入“深水区”,过往基于单一数据源建立的相关技术防范系统,已不能形成良好的协同效应,治理效果逐步减弱。相关部门与企业、行业组织虽然建立了高效的会商和联动处置机制,但在跨行业、跨部门数据融合共享方面尚不充分,各治理主体的反诈系统仍相对分散,难以对各方数据进行及时的综合分析,一定程度上制约了整体治理效能的持续提升。二是部分企业自律意识不足,在用户不知情的情况下,过度收集或使用个人信息。从App专项治理工作组通报相关的情况看,包括一些主流APP在内的大量应用均存在违规收集使用用户个人信息的问题。三是跨国协同合作仍需加强。人工智能技术的应用使诈骗分子实施远程精准诈骗的能力越来越强。为增强隐蔽性,降低风险,大量诈骗团伙越来越倾向于聚集在境外实施诈骗。跨国、跨境电信网络诈骗的识别、拦截、追踪和定责必须在国际协同合作的框架下解决,在已有基础上进一步推动国际各方协同治理已经成为我国电信网络诈骗治理需要解决的重要问题。
  (四)企业担心监管过严会限制行业发展
  在过去几年,中国一些行业(如教培、互联网、房地产等)经历了疾风骤雨般的监管,影响深远。中国企业长期对监管都保持着紧绷的神经,企业希望政府的监管“有温度、有态度、有空间”,适度监管而非封住人工智能产业发展的道路。
  (五)企业数据安全投入力度不足
  近年来,中国网络安全市场发展迅猛,IDC去年发布的《2022年V1全球网络安全支出指南》显示,预计到2025年,中国网络安全支出规模将达214.6亿美元。在2021-2025的五年预测期内,中国网络安全相关支出将以20.5%的年复合增长率增长,增速位列全球第一。不过据咨询公司Canalys统计,北美依然是全球最大的网络安全市场,中国与之相比还有不小的追赶空间,国内企业对于数据安全的投入力度尚不足以弥补原有缺口。
  (六)对个人信息安全保护的宣传不足
  在宣传引导方面,一是关于电信网络诈骗风险提示等的相关宣传内容仍需增加。目前面向大众的反诈宣传提醒以较为传统的电信网络诈骗手法为主,基于人工智能的诈骗的方式方法和应对策略等相关宣传内容较少,一定程度上造成社会普通民众尤其是学生、老人等重点人群对此类诈骗的特点认知和防范意识不足。二是关于个人信息安全保护的宣传力度尚需加强。当前很多用户对人工智能时代个人隐私泄露的危害仍然认识不够,面对一些应用的霸王隐私条款,往往选择以隐私换取效率和方便。与此同时,学生,农村留守老人等重点群体的个人隐私保护意识较为淡薄,仍存在为了蝇头小利出卖个人信息甚至身份证件供不法分子使用的不良现象。
  六、防治AI诈骗的对策建议
  AI诈骗不仅给受害者造成了经济损失和心理创伤,也给社会秩序和公共安全带来了严重威胁。如何让人工智能技术“科技向善”,成为了当前亟待解决的问题。预防和治理AI诈骗,需要我们采取更加有力的措施。
  (一)加强相关法律法规的制定和完善
  科技在进步,监管执法能力也需要与时俱进。因此,相关部门应及时更新、完善相关法律、标准、规则:第一,加强源头治理和行业引导,明确法律边界和责任主体,对AI技术的发展应用设置门槛和防火墙,为AI技术发展保驾护航;第二,根据国际惯例和实践经验,制定专门针对AI技术犯罪的法律法规,并及时修订和更新,以适应技术发展和社会变化的需要。第三,大力保护公民的个人隐私。AI诈骗技术的基础在于数据,防范和监管的重点就是如何防止个人信息的泄漏和滥用。首先在法律法规层面需要明确收集和使用个人数据时需要遵守严格的隐私和保护规定;其次有关部门应对企业在个人信息保护方面存在的问题予以纠错,违者必须受到严惩,不容打擦边球;最后通过常态化执法,减少管理盲区,从源头上堵住生物特征信息泄露现象。
  (二)建立有效的协调机制和责任机制
  在政策引导之余,加强AI领域协同治理也至关重要。首先,应该建立健全跨部门、跨地区、跨领域的协调机制,并明确各方面的职责和权限,构建起应对新技术、新风险的安全生态系统。其次,加强对AI技术开发者、提供者、使用者等各方面的审查和监督,并建立健全相应的奖惩机制。
  (三)以技术反制技术
  加强AI反制技术研究,“以AI制AI”。具体包括:第一,加强AI安全技术应用研发,将AI技术应用于犯罪识别、预警、对抗中,实现以“白”AI对抗“黑”AI。第二,政府推动企业、研究机构联手进行研发工作,方能“魔高一尺道高一丈”。一些科技公司正加强对图像、声音伪造技术的反制研究,在公安、金融的视频认证场景已有应用。这些“技术反制”产品通常也是基于深度学习技术,例如,通过分析视频的特征、处理痕迹以及检测人脸特征的“不吻合性”来识别AI生成视频。
  (四)防止极端思维和过度监管思维
  现阶段人工智能领域时有负面事件发生,一方面我们需要监管和立法规范,另一方面,也需要监管和立法的同时考虑宽容度和时间,给行业足够的发展空间。因为AI技术,尤其是AIGC等领域,未来发展可能不仅事关企业行业,还事关国家在技术领域的话语权等,各方都有责任让新技术发展得更好更稳。
  (五)加强企业自律
  对于新领域和新技术,监管和立法往往是滞后的,更多需要的是企业和行业自律。企业在发展业务和技术的同时,要更多地考虑到自身肩负的社会责任:首先,在研发和设计阶段,有更好的预判和预防,尤其在涉及到用户信息、隐私等敏感领域时,企业更是要强化自律和合规把控;其次,要关注和跟随国家监管政策走向,保持对AI伦理道德的敏感度,实现技术发展和企业责任的统一,也从根本上减少法律风险。
  七、结语
  正如同硬币的正反两面,每一次技术变革在带来福祉的同时,也经常伴随风险。AI诈骗是一种新型犯罪形式,给我们带来了新的挑战和考验。我们既不能因噎废食,否定或抵制AI技术本身所具有的积极意义;也不能掉以轻心,忽视或放任AI技术可能带来的负面影响。我们应该从多方面入手,采取有效措施,在保护自身权益的同时,促进AI技术健康发展,让人工智能更好地服务社会。