技术和安全“双轮”驱动AI产业发展

日期:2023-07-11 21:39:13 / 人气:239

本报记者薛新技术的应用往往先于规范,建立健全保障人工智能健康发展的法律法规、制度体系和道德规范,才能营造良好的创新生态。着眼未来,在注意防范人工智能风险的同时,也要同步建立容错和纠错机制,努力实现标准化与发展的动态平衡。最近人工智能领域的大规模模型势头正猛。短短几个月,国内已有数十家公司宣布进入大型模型赛道。在上海举行的2023世界人工智能大会已经成为大模型的集中展示,来自不同公司的30多个大模型产品和技术相继亮相。科技部新一代人工智能发展研究中心近日发布的《中国人工智能大模型图谱研究报告》显示,“大数据+大计算力+强算法”相结合的人工智能大模型在中国发展迅速,中国开发的大模型数量位居世界第二,仅次于美国。目前中国发布的超10亿参数的大模型有79个。以big model为代表的人工智能技术的巨大潜力正在加速释放。要想抓住它带来的巨大机遇,就需要警惕它潜在的安全风险和隐患,这是目前人工智能行业面临的双向任务。人工智能的风险有其自身的特点。据中国信息通信研究院测算,2022年我国人工智能核心产业规模已达5080亿元。人工智能已经成为全球数字技术创新最活跃的领域之一,给人们的生产生活带来巨大变化和便利的同时,也带来了诸多风险和挑战。如何构建安全可信的人工智能,是各界关注的焦点。阿拉伯信息和通信技术组织秘书长穆罕默德·本·阿莫在日前举行的世界互联网大会数字文明“尼山对话”主论坛上表示,要建立安全可信的人工智能系统,首先要考虑数据隐私和安全、透明、责任和问责、健壮性和灵活性;此外,还需要建立道德框架,通过以人为本的设计,优先考虑人类福利。全球移动通信系统公司(Global System for Mobile communication s)首席执行官洪耀庄表示,只有在道德标准的约束下,人工智能才能真正改善世界。我们必须共同努力,建立一个值得信赖的环境,建立一个以人为本的方法体系,确保人工智能是可靠的,负责任的,对每个人都是公平的,最重要的是,它能让每个人受益。加强人工智能发展潜在风险的研究和防范,维护人民利益和国家安全,保障人工智能的安全、可靠和可控,是我国推进人工智能治理的重要方向。早在2017年,国务院发布《新一代人工智能发展规划》,明确提出到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;2030年,将建立更加完善的人工智能法律法规、道德规范和政策体系。虽然相关科研机构和科技企业在人工智能系统设计之初就考虑了保证人工智能的安全性和可控性,但在技术的应用中往往很难做到趋利避害。中国科学技术大学公共事务学院网络空间安全学院教授左晓东表示,与传统技术相比,人工智能的风险具有一些“自身”的特征。比如人工智能高度自治,高度依赖数据库,也存在“算法黑箱”、算法无法解释等问题,使得人工智能系统存在大量未知因素,难以预测风险。为了应对看得见的挑战和不可知的风险,我国应加快建立人工智能领域的相关法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力,这是我国各界对人工智能发展的共识。大模型“放大”了AI安全问题。百度创始人、董事长兼首席执行官李彦宏表示:“过去一年,人工智能在技术、产品、应用等各个层面都取得了突飞猛进的进步,迭代速度达到‘周’。大模型成功压缩了人类对世界的认知,让我们看到了实现通用人工智能的路径。”以今年3月百度首次发布的大语言模特文为标志,国内大模特创业潮风起云涌,伴随而来的是社会各界对大模特安全性越来越多的质疑。但在百度看来,安全问题并不是大模型出现带来的新问题。“在大模型之前的人工智能时代,我们已经发现人工智能本身存在所谓的固有安全问题。人工智能算法可能会受到物体样本的攻击,在正常样本中加入少量对抗会误导识别结果。这种情况存在于很多场景中,无论是数字世界还是物理世界。”清华大学计算机系教授、清华大学人工智能研究院副院长朱军指出。在朱军看来,尤其是ChatGPT出现后,生成式人工智能的安全问题变得越来越严重,而算法本身是否存在政治偏见和数字鸿沟,数据采集过程中是否会侵犯知识产权,也是大模型时代需要重点关注的问题,可以从以下几个方面尝试解决。首先,从人工智能的基础层面来说,学术界一直在探索深度学习和深度神经网络的第三代人工智能新范式,希望开发出更安全可靠的人工智能框架。第三代人工智能新范式的优势在于安全、可信、可靠、可扩展。其次,提高安全测评能力,主要集中在抗攻击测评、角色扮演和诱导欺骗测评、混淆指令欺骗测评、标识性能测评、数据安全测评、伦理安全测评等方面。还有,构建人工智能安全治理的有效工具,比如构建人工智能安全平台,以平台化的方式评估人工智能的算法和服务。正如北京致远人工智能研究院院长、北京大学多媒体信息处理国家重点实验室主任黄铁军所说,人工智能越来越强大,风险也与日俱增,但我们对如何构建一个安全可信的人工智能仍然知之甚少。面对这一现实,业界一直在不断尝试新的“解决问题的思路”。6月2日,火山引擎发布大型模型服务平台“火山方舟”,为企业提供模型微调、评估、推理等全方位平台服务。“企业使用大模型,首先要解决安全和信任的问题。”火山引擎总裁谭岱表示,“火山方舟”实现了大规模的模型安全和互信计算,为企业客户保护数据资产的安全。基于“火山方舟”独特的多模型架构,企业可以同时试用多个大型模型,选择更适合自身业务需求的模型组合。不同于小模型的“自产自用”,大模型的生产门槛很高,数据安全成为大模型时代的新命题。谭岱认为,企业在使用大型模型时,最担心的就是数据泄露。但如果将大型模型私有化,企业将承担更高的成本,模型制作者也会担心知识资产的安全性。“火山方舟”的首要任务是做好安全保障,让大模型的用户和提供者,云平台的各方都能相互信任。据火山引擎智能算法负责人吴迪介绍,“火山方舟”推出了基于安全沙盒的大规模模型安全互信计算方案。通过计算隔离、存储隔离、网络隔离和流量审计等手段,保证了模型的机密性、完整性和可用性,适用于对训练和推理延迟要求不高的客户。黄铁军说,一切探索才刚刚开始,我们面临着全新的挑战。原有的经验和方法不一定能解决新的问题。“新技术的应用往往先于规范。只有建立健全保障人工智能健康发展的法律法规、制度体系和道德规范,才能营造良好的创新生态。着眼未来,在注意防范人工智能风险的同时,也要同步建立容错和纠错机制,努力实现标准化与发展的动态平衡。”李彦宏说。但是,无论从技术趋势还是产业应用来看,大模式绝不是昙花一现,而是影响人类发展的重大技术变革,是拉动全球经济增长的重要引擎,是绝不能错过的重大战略机遇。李彦宏说:“坚持科技发展,坚持安全可控双轮驱动,才能行稳致远。如果我们安全负责地控制人工智能的发展,大模型将重塑数字世界,人工智能可以为中国经济乃至全球经济创造无与伦比的繁荣,改善全人类的福祉。”[编辑:边立群]

作者:杏耀注册登录官方平台




现在致电 8888910 OR 查看更多联系方式 →

COPYRIGHT 杏耀注册登录官方平台 版权所有