《人工智能北京共识》发布 为研发、使用、治理提出15条原则

   2019-05-26 互联网张桓硕网660
核心提示:人工智能伦理与规范是未来智能社会的发展基石,为规范和引领人工智能健康发展,为未来打造负责任的、有益的人工智能。5月25日,
  人工智能伦理与规范是未来智能社会的发展基石,为规范和引领人工智能健康发展,为未来打造“负责任的、有益的”人工智能。5月25日,《人工智能北京共识》发布,这一共识提供的“北京方案”,对于实现人工智能“自律”“善治”“有序”具有重要意义。

《人工智能北京共识》是由北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所、新一代人工智能产业技术创新战略联盟等高校、科研院所和产业联盟共同发布。同时,北京智源人工智能研究院人工智能伦理与安全研究中心揭牌成立。


高校、院所和企业代表共同签署《北京共识》

《人工智能北京共识》针对人工智能的研发、使用、治理三方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则。


北京智源人工智能研究院院长黄铁军发布《北京共识》

北京智源人工智能研究院院长黄铁军发布《北京共识》时强调:研发方面,提倡要有益于增进社会与生态的福祉,服从人类的整体利益,设计上要合乎伦理,体现出多样性与包容性,尽可能地惠及更多人,要对潜在伦理风险与隐患负责,提升技术水平控制各种风险,并最大范围共享人工智能发展成果。

使用方面,提倡善用和慎用,避免误用和滥用,以最大化人工智能技术带来的益处、最小化其风险,应确保利益相关者对其权益所受影响有充分的知情与同意,并能够通过教育与培训适应人工智能发展带来的影响。

治理方面,对人工智能部分替代人类工作保持包容和谨慎态度,鼓励探索更能发挥人类优势和特点的新工作,广泛开展国际合作,共享人工智能治理经验。人工智能的准则与治理措施应做到适应和适度,并开展长远战略设计,以确保未来人工智能始终保持向对社会有益的方向发展。

据介绍,人工智能伦理与规范已经引起了各国政府和学术界、企业界等的广泛关注。欧盟、英国、日本等国际组织和国家,均发布了人工智能的伦理准则。《人工智能北京共识》关注“服务于人”,将“和谐与优化共生”这一中国哲学和文化中的特色理念,作为寻求跨行业、跨部门、跨地区全球协作的指导思想,并强调促进人工智能相关准则的“落地”。

另外,为降低人工智能发展过程中可能存在的技术风险和伦理隐患,北京智源人工智能研究院专门成立人工智能伦理与安全研究中心,中国科学院自动化研究所曾毅研究员任研究中心主任。


新成立的人工智能伦理与安全研究中心主任曾毅介绍研究中心

曾毅介绍人工智能伦理与安全研究中心的主要研究内容是:“研究中心将围绕人工智能伦理与安全的理论探索、算法模型、系统平台、行业应用等开展一系列研究,目前主要包括四大方面:一是低风险机器学习模型与平台的构建,建立机器学习模型安全性的评估体系,并结合具体领域进行验证。二是开展符合人类伦理道德的智能自主学习模型研究,实现人工智能行为与人类价值观的校准,并在模拟环境与真实场景中进行验证。三是建设数据安全示范应用系统,建立数据基础设施、数据分级、权限控制、数据审计,最大限度防止数据泄密,降低风险,探索允许用户撤销个人数据授权的机制及计算平台。四是构建人工智能风险与安全综合沙盒平台,建设自动检测平台,针对数据与算法的安全性、公平性、可追溯性、风险类型、影响程度与影响范围等方面,对人工智能产品及应用进行风险与安全综合检测与评估,引导行业健康发展。”


北京市科委主任许强讲话

北京市科委主任许强认为:经过60多年的发展,新一代人工智能正在全球范围蓬勃兴起,深刻地影响和改变了人类的生产生活方式,带动人类社会全面进入智能时代。人工智能涉及范围极广,应对人工智能带来的挑战,不是一个领域、一个城市、一个部门、一个机构能够独立完成的,需要充分汇聚科学家、企业家、产业联盟和社会各界的力量,多方参与、共同努力,持续推动人工智能伦理、规范方面的学术研究与成果转化应用,并不断强化行业自律。

会议倡导北京人工智能领域广大创新主体,积极践行并不断完善共识的内涵,共同营造良好生态,加快人工智能领域基础研究、核心技术创新和高精尖产业发展,让人工智能更好支撑北京高质量发展和创新驱动发展战略实施,并更好造福全人类。

今后,人工智能伦理与安全研究中心将为降低人工智能的风险和伦理隐患提供技术服务,促进人工智能行业的良性健康发展。
 
举报收藏 0打赏 0评论 0
 
更多>同类新闻资讯
推荐图文
推荐新闻资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  积分购买  |  隐私政策  |  使用协议  |  版权隐私  |  sitemaps  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报