网站地图
中国首家网上媒体 1995年 1 月 12 日创办
社内媒体
官方微信
官方微博
当前位置: 首页 > 观点 > 正文
人工智能治理应坚持伦理先行、以人为本智能向善
发布时间: 来源: 中国网

  11月16日,在瑞士日内瓦举行的联合国《特定常规武器公约》2022年缔约国大会上,中国政府正式提交了《中国关于加强人工智能伦理治理的立场文件》。中方在文件中提出,人工智能治理应坚持伦理先行,通过制度建设、风险管控、协同共治等推进人工智能伦理监管;应加强自我约束,提高人工智能在研发过程中的算法安全与数据质量,减少偏见歧视;应提倡负责任使用人工智能,避免误用、滥用及恶用,加强公众宣传教育;应鼓励国际合作,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。

  上述“应坚持”“应加强”“应提倡”“应鼓励”四项主张,是中国智慧、中国方案的重要内涵,表明了中国人工智能伦理治理的立场,抓住了国际人工智能伦理治理的关键,为推动形成全球人工智能治理“以人为本”“智能向善”的框架和标准规范,作出了中国贡献。

  科学发明与技术进步,从来都是一柄“双刃剑”,在造福人类的同时也潜在着巨大的风险。如同核弹可以毁灭人类、核电可以福荫百姓一样,人工智能作为颠覆性新技术,也在给人类社会发展带来巨大红利的同时,伴之以现实危害和诸多挑战,对各国政治、经济、军事、社会等领域的复杂影响日益显现。

  一方面,人工智能已在数字经济、智能制造、生物医药等方面崭露头角,为全球发展和繁荣注入强大动力;另一方面,人工智能技术的现实应用正放大数据安全风险、侵犯个人隐私,给全球非传统安全带来了新的负面影响。人工智能技术一旦被误用、滥用,特别是用于武器,可能冲击社会道德规范和现有法律体系,引发严重灾难和伦理问题。加强人工智能伦理治理,已成为摆在各国面前必须认真对待的重要课题。

  人工智能伦理治理,首先要解决方向问题,即人工智能技术再怎么发展,都不能走到反噬人类的歧路上去。不难想见,当基因编辑、脑机接口、神经工程以及人工智能等技术不断发展将人类改造自然的能力从外部拓展到人类自身时,有关人的身体技术化和精神技术化问题就会导致各种伦理矛盾尖锐出现。因此,要形成广泛共识,限制特定类型的人工智能研发,尤其是禁止相关技术在军事领域的应用。近年来,联合国开始讨论如何应对“致命性自主武器系统”,联合国教科文组织也就人工智能伦理问题制定了建议文件。中国的“立场文件”,体现的是“以人为本”的理念,彰显的是“智能向善”的引领。

  此外,人工智能伦理治理要涵盖监管、研发、使用各个环节,伦理道德要融入人工智能全生命周期。监管上坚持伦理先行,从制度建设、风险管控、协同共治等多方面推进人工智能伦理监管;研发上将伦理考量融入各个环节,加强对数据采集和算法开发的伦理审查,实现人工智能系统的普惠性、公平性和非歧视性;使用上强调负责,避免技术的误用、滥用及恶用,保障产品与服务使用中的个人隐私与数据安全,反对非法收集利用个人信息。

  中国始终致力于在人工智能领域构建人类命运共同体,坚持以人为本、智能向善原则,确保人工智能安全、可靠、可控。近年来,中国加快人工智能伦理治理步伐,发布了一系列规范性文件,明确人工智能治理框架和行动指南。中方继去年提交《中国关于规范人工智能军事应用的立场文件》后再次在联合国就人工智能治理提出方案,核心就是要发展为人服务的人工智能,努力提高人民的获得感、幸福感和安全感。

  在全球化背景下实现这一目标,不仅需要中国努力,更需要摒弃“本国优先”、避免“脱钩断链”、反对“筑墙设垒”,形成广泛共识,不断完善和加强人工智能领域全球治理水平,积极构建人类命运共同体。如是,人工智能技术就将赋能人类社会发展进步,为各国人民带来更多福祉。

责任编辑:施惠文

文章中观点仅代表作者个人观点,不代表本网站的观点和看法。

神州学人杂志及神州学人网原创文章转载说明:如需转载,务必注明出处,违者本网将依法追究。