来源:浙江日报
近日,包头警方发布一起利用AI实施电信诈骗的典型案例。福州市某科技公司法人代表郭先生10分钟内被骗430万元,对方通过智能AI换脸技术,佯装成好友对其实施了诈骗。随后,“AI诈骗正在全国爆发”的话题冲上热搜,引发热议。
包裹在AI技术下的骗局,让人心生恐慌,因为它具有很强的隐蔽性。以往,骗子多是以“未曾谋面的陌生人”的角色出现,尽管具备迷惑性,但不少人难免会多几个心眼。然而披上AI外衣的诈骗,却通过在受害人心里建立起信任基础,利用“熟人”身份降低受害人的戒备心,识别骗局更为不易。
近些年,AI写作、AI换脸等深度合成技术迅速发展,令人喜忧参半。人们一边惊叹于技术的先进拓展了人类的想象,一边又担心它模糊现实与虚拟的边界。面对这把双刃剑,如何在技术创新与风险防范间找到平衡并不简单。有学者称之为“科林格里奇困境”——当技术的改变相对容易时,其不良后果却难以完全预见;而当不良后果变得明显时,采取行动往往为时已晚或成本过高。
AI换脸技术被用于诈骗,尚属人工智能高速成长阶段的新问题,但其造成的财产风险,对肖像权、知识产权等权益的侵犯却不容低估。此前,人类总能通过不断适应新技术的发展而调整治理手段,一次次走出“科林格里奇困境”。如今,也该为狂奔的AI安上“刹车”了。
针对AI诈骗,2022年12月,国家网信办、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,明确深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,“应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。今年5月9日,抖音平台发布的《关于人工智能生成内容的平台规范暨行业倡议》提出,各生成式人工智能技术的提供者均应对生成内容进行显著标识,以便公众判断。
实际上,对AI换脸技术用于诈骗并非“无计可施”。从目前来看,AI换脸必须经过本人同意、AI画面与真实画面必须形成“辨识差异”将是监管的主要方向。而在上述案例中,个人微信、人脸、声音等隐私信息为何遭泄露值得追问,AI技术之所以在诈骗事件中屡屡得逞,也是因为盗取了个人的隐私信息,作为编织骗局的“脉络”。因此,对隐私信息的使用处理,理应严格遵守信息保护边界,避免因随意泄露给信息提供者带来严重后果。
无论是问题暴露前的“未雨绸缪”,还是问题显现后的“查漏补缺”,都是人类厘清技术发展“边界”的必要手段。我们尤须引导新技术向上向善,谨防诈骗披上AI外衣。