联合国敦促对人工智能实施监管 中国反对人为制造科技壁垒
联合国安理会18日举行主题为“人工智能给国际和平与安全带来的机遇与风险”高级别公开会。这是安理会首次就人工智能问题举行会议,中国常驻联合国代表张军提出关于人工智能治理的五条原则。
古特雷斯呼吁强化人工智能全球治理
《纽约时报》报道,联合国安理会18日举行了一场关于人工智能对国际和平与稳定构成的潜在威胁的会议。在会议上,人工智能领域的主要专家向安理会阐述了这一新兴技术的风险和威胁以及其科学和社会效益。专家表示,尽管该技术正在加速发展,但仍有许多未知因素。人工智能安全研究公司Anthropic的联合创始人杰克·克拉克说:“这就好比我们在不了解燃烧科学的情况下制造发动机,私营公司不应成为人工智能的唯一创造者和监管者。”
去年由OpenAI公司推出的ChatGPT——一种基于机器学习算法,通过自然语言提示创建文本、模仿语音并生成照片、插图和视频的应用引起了人们对人工智能捏造虚假信息和操纵行为的警惕。
新华社报道,联合国秘书长古特雷斯说,日新月异的人工智能技术已对社会产生显著影响,但该技术未来将导致何种结果,就连人工智能的开发者也不清楚。如今,人工智能已关系到全球和平与安全。人工智能被越来越多地应用于维和、斡旋和人道救援等方面。这项技术也可能被恶意利用。犯罪分子和恐怖分子获取人工智能的技术和财务门槛较低,一旦将其用在军事或非军事领域都可能对全球和平与安全造成极为严重的后果。
古特雷斯还指出有关人工智能的其他隐患。生成式人工智能可能造成假信息和仇恨言论泛滥;一些人工智能系统的功能难以预料,可能带来意外的安全风险;人工智能存在运转失常的隐患;人工智能与核武器、生物技术、神经技术、机器人技术的交互让人不寒而栗。他强调,生成式人工智能同时具有行善与作恶的巨大潜能,如不采取措施防范风险,将是对当代和后代的失职。
古特雷斯说,联合国是探讨人工智能全球治理机制的理想场所。一些国家呼吁成立一个新的联合国机构以加强对人工智能的全球治理,他对此表示欢迎。新机构的首要目的是支持各国最大化利用人工智能技术,规避现有和潜在风险,并建立运行国际机制以监测和治理人工智能技术。
古特雷斯表示,他已着手成立“人工智能高级别咨询委员会”,计划年底前就人工智能全球治理提出政策建议。
芝加哥大学数据科学研究所主任丽贝卡·维莱特教授在接受采访时说,目前的人工智能系统并非完全自主,设计这些系统的人同样需要承担责任。她在谈及监管问题时表示:“我们需要一个国际机构为基础的协议框架,可执行的监管与约束能够让事情变得更好,更安全。”
中方提出人工智能治理五条原则
香港中通社报道,张军发言指出,人工智能的复杂效应不断显现,既产生巨大的技术红利,也引发越来越多的担忧,凸显了构建人类命运共同体的重要性、必要性、紧迫性。
张军强调,人工智能作为“双刃剑”,它是好是坏、是善是恶,取决于人类如何利用、如何规范、如何统筹科学、发展与安全。国际社会应秉持真正的多边主义精神,开展广泛对话,不断凝聚共识,探讨制定人工智能治理的指导性原则。中方支持联合国在此方面发挥中心协调作用,支持古特雷斯秘书长召集各方深入讨论,支持各国特别是发展中国家充分参与、作出贡献。
张军提出关于人工智能治理的五条原则:一是坚持伦理先行,二是坚持安全可控,三是坚持公平普惠,四是坚持开放包容,五是坚持和平利用。
张军表示,要逐步建立并完善人工智能伦理规范、法律法规和政策体系。要强化风险意识,建立有效的风险预警和应对机制,确保不发生超出人类掌控的风险,确保不出现机器自主杀人,确保在关键时刻人类有能力摁下停止键。
张军说,个别发达国家为谋求科技霸权,构建排他性小圈子,以种种借口和行动恶意阻挠他国技术发展,人为制造科技壁垒,中方对此坚决反对。科技发展要在推动技术进步和保障安全应用两方面取得相对平衡,最佳路径是保持开放合作,鼓励跨学科、跨领域、跨地区、跨国界的交流对话,反对各种形式的“小院高墙”“脱钩断链”,打造开放、包容、公正、非歧视的科技发展环境。
张军表示,要重点挖掘人工智能在促进可持续发展、推动跨领域融合创新等方面的潜力,更好赋能全球发展事业。安理会可以深入研究人工智能在冲突局势中的应用和影响,采取措施丰富联合国的和平工具箱。各国应秉持负责任的国防政策,反对利用人工智能谋求军事霸权、破坏他国主权和领土完整。
张军表示,中国秉持人类命运共同体理念,始终以高度负责的态度参与人工智能全球合作与治理,相继在联合国平台提交了关于人工智能军事应用、伦理治理的两份立场文件。中方愿同国际社会一道,在人工智能领域积极落实全球发展倡议、全球安全倡议、全球文明倡议,坚持发展优先,维护共同安全,促进跨文化交流与合作,携手各国共享人工智能技术成果,共同防范和应对风险挑战。