靳东委员在2024年全国两会提出的"规范AI换脸技术滥用"提案,揭示了数字时代一个严峻现实:我们曾经坚信的"眼见为实"正在失效。人脸和影像不再可靠,整个社会的信任基础正面临前所未有的挑战。
科学研究显示,人类大脑经过数百万年进化,形成了通过面部表情和声音判断可信度的本能。这也是为什么即便知道有修图技术,人们还是更相信原始影像。但AI换脸技术不再有明显破绽,直接利用了我们的生物本能,让原本可靠的视觉判断反而成为传播谎言的工具。当眼睛无法分辨真假时,人们只能陷入怀疑一切的困境。
应对这场信任危机,单靠技术手段难以奏效,最近某网红用AI克隆自己声音开直播卖货,粉丝明知是数字人却更愿意下单——这说明当技术足够透明,人类可能发展出新的信任审美:我们不再执着于“绝对真实”,而是学会在虚拟与现实交织的世界里,建立新的默契和边界。
这就像20世纪初电梯刚普及时,人们不敢坐没有操作员的自动电梯。直到发明“紧急停止按钮”这个象征性控制权,才逐渐建立信任。现在的AI信任建设,也需要我们主动掌握控制权,比如法律规定所有AI生成内容必须打上隐形水印,就像电梯里的紧急电话,用“可干预性”换取技术焦虑下的安全感。
重建信任不是回到“绝对真实”的乌托邦,而是学会在数字丛林中辨认新的路标。当AI能伪造总统演讲,真正的解决方案可能不是禁止技术,而是培养每个公民辨别信息真伪的能力,就像移动支付时代,老太太都学会核对转账姓名末字,未来我们可能需要掌握验证数字指纹的生存技能。
这个过程中,最大的变革或许是信任的“去中心化”。过去我们把信任寄托在银行、政府、权威媒体这些权力的中心,现在要学习在无数个散落的片段之间建立连接。就像拼多多用算法匹配陌生人的团购信任,数字时代的新契约,可能就藏在每次扫码验证、每次数据授权、每次AI辅助决策的微小选择里。
靳东提案的重要意义,不仅在于指出了具体的技术风险,更在于引发对数字文明底层规则的思考。当技术可以随意篡改现实记录时,人类文明或许正面临历史性转折。这个转折点要求我们不仅要规范AI换脸技术,更要构建适应深度伪造时代的新型信任体系。在连面容都可以伪造的世界里,重建信任不再是恢复旧秩序,而是创造新的社会契约。