EN

人工智能北京共识

人工智能的发展关乎全社会、全人类及环境的未来。下述准则对推进人工智能的研发、使用、治理和长远规划提出倡议。通过推动人工智能的健康发展,助力于人类命运共同体的构建,实现对人类和自然有益的人工智能。

研发

人工智能的研究与开发应遵循以下原则:

  • 造福:人工智能应被用来促进社会与人类文明的进步,推动自然与社会的可持续发展,造福全人类与环境,增进社会与生态的福祉。

  • 服务于人:人工智能的研发应服务于人类,符合人类价值观,符合人类的整体利益;应充分尊重人类的隐私、尊严、自由、自主、权利;人工智能不应被用来针对、利用或伤害人类。

  • 负责:人工智能的研发者应充分考虑并尽力降低、避免其成果所带来的潜在伦理、法律、社会风险与隐患。

  • 控制风险:人工智能及其产品的研发者应不断提升模型与系统的成熟度、鲁棒性、可靠性、可控性,实现人工智能系统的数据安全、系统自身的安全以及对外部环境的安全。

  • 合乎伦理:人工智能的研发应采用符合伦理的设计方法以使得系统可信,包括但不限于:使系统尽可能公正,减少系统中的歧视与偏见;提高系统透明性,增强系统可解释度、可预测性,使系统可追溯、可核查、可问责等。

  • 多样与包容:人工智能的发展应该体现多样性与包容性,尽可能地为惠及更多的人而设计,尤其是那些技术应用中容易被忽视的、缺乏代表性的群体。

  • 开放共享:鼓励建立人工智能开放平台,避免数据与平台垄断,最大范围共享人工智能发展成果,促进不同地域、行业借助人工智能机会均等地发展。



使用

人工智能的使用应遵循以下原则:

  • •善用与慎用:人工智能的使用者应具备使人工智能系统按照设计运行所必需的知识和能力,并对其所可能带来的潜在影响具备充分认识,避免误用、滥用,以最大化人工智能带来的益处、最小化其风险。

  • •知情与同意:应采取措施确保人工智能系统的利益相关者对人工智能系统对其权益的影响做到充分的知情与同意。在未预期情况发生时,应建立合理的数据与服务撤销机制,以确保用户自身权益不受侵害。

  • •教育与培训:人工智能的利益相关者应能够通过教育与培训在心理、情感、技能等各方面适应人工智能发展带来的影响。


治理

人工智能的治理应遵循以下原则:

  • •优化就业:对于人工智能对人类就业的潜在影响,应采取包容的态度。对于一些可能对现有人类就业产生巨大冲击的人工智能应用的推广,应采取谨慎的态度。鼓励探索人机协同,创造更能发挥人类优势和特点的新工作。

  • •和谐与合作:应积极开展合作建立跨学科、跨领域、跨部门、跨机构、跨地域、全球性、综合性的人工智能治理生态系统,避免恶意竞争,共享治理经验,以优化共生的理念共同应对人工智能带来的影响。

  • •适应与适度:应积极考虑对人工智能准则、政策法规等的适应性修订,使之适应人工智能的发展。人工智能治理措施应与人工智能发展状况相匹配,既不阻碍其合理利用,又确保其对社会和自然有益。

  • •细化与落实:应积极考虑人工智能不同场景、不同领域发展的具体情况,制定更加具体、细化的准则;促进人工智能准则及细则的实施,并贯穿于人工智能研发与应用的整个生命周期。

  • •长远规划:鼓励对增强智能、通用智能和超级智能的潜在影响进行持续研究,以确保未来人工智能始终向对社会和自然有益的方向发展。



文本正文
复制文本
媒体联络
media@baai.ac.cn