12月10日,由清华大学主办、清华大学人工智能国际治理研究院(I-AIIG)承办的第三届人工智能合作与治理国际论坛举办。其中,第二场主论坛以“人工智能治理技术”为主题,与会专家展开热烈讨论。
主论坛II由清华大学人工智能国际治理研究院、人工智能研究院、智能产业研究院共同承办,重点探讨如何通过技术工具来实现人工智能可知、可信、可控和可用;如何实现算法的可解释、可控制与公平性,将伦理准则“嵌入”到人工智能产品与系统的研发设计;以及如何将产业监管要求转化为技术解决方案,开发针对人工智能行业或应用的“治理技术”与服务。
哥伦比亚大学常务副校长、计算机科学系教授周以真,中国工程院院士、鹏城实验室主任、清华大学人工智能国际治理研究院学术委员高文,瑞莱智慧(RealAI)公司联合创始人及首席执行官田天,清华大学智能产业研究院国强教授、首席研究员聂再清等专家出席论坛并作主旨发言,介绍人工智能研究与技术前沿进展,并通过圆桌对话深入探讨如何通过技术创新应对和解决人工智能带来的风险与挑战。主论坛II由清华大学人工智能研究院常务副院长、欧洲科学院外籍院士孙茂松主持。
【资料图】
周以真教授以《可信赖的人工智能》为题发表主旨演讲。她介绍了正在推动的“值得信赖的人工智能”研究议程,其目的在于把人工智能社区、网络安全社区和正式方法社区三个社区聚集在一起。她指出,一些人工智能系统可能是脆弱和不公平的,因此需要努力实现可信赖的人工智能。可信赖计算意味可靠性、安全性、可用性,要考虑准确性、稳健性、公平性,通过问责制、透明度、可解释性、道德伦理等设置人工智能执行的任务和环境。关于如何能够实现可信赖的人工智能,除了必要的测试、模拟、良好的软件工程实践之外,她提出了一种构建可信系统的事后验证方法,即用数据模型、代码程序来满足我们关心的正确性属性、安全性属性、活性属性等性质,并通过列举研究问题应用形式化方法,来尝试实现人工智能系统的可信度。她同时指出,确保人工智能系统可信性还有其它方法,比如构造正确的模型,利用有评估模型和模型检查的统计方法等。
高文院士以《新一代人工智能发展的安全问题》为题发表主旨演讲。他认为人工智能改变了安全格局,进一步扩大了威胁,需要从多个层面进行风险管控。在人的层面应加强伦理教育;在模型算法层面,期望它可信、可控、可解释并且被正当使用;在数据层面,期望数据具有充足的系统防护保证其安全。强人工智能安全风险来源于三个方面,一是模型的不可解释性,二是算法和硬件的不可靠性,三是自主意识的不可控性。对于这些,一方面要在设计及应用阶段采取预防和检测措施,另一方面要加强国际合作,相互取长补短,还要加强人才培养。对于数据安全问题,他认为隐私保护和数据有效使用是一对矛盾,需要做到平衡,鹏程实验室所采用的“防水堡”技术,对于保护模型训练数据安全共享和使用提供了解决思路,该技术可以做到只分享价值,不分享数据,在保证原始数据不移动的情况下也能够使数据可用。
田天先生以《人工智能安全的实践探索》为题发表主旨演讲。他认为人工智能正在进入一个从高速增长向高质量增长转变的新发展阶段,这对人工智能的安全性和可靠性提出了更多新要求。他列举了一些已经真实地发生在我们身边的人工智能安全问题,比如人脸识别产生的安全隐患和实际损失,同时指出,我们并不能因噎废食地不去使用人工智能,而是应当进一步完善治理,让人工智能在更安全的前提下发挥它应有的作用。
聂再清教授以《可信AI技术与应用》为题发表主旨演讲,他表示安全可信是人工智能治理的核心诉求,而安全可信的人工智能技术产品需要具备安全可控、数据资产和隐私保护、可解释性等条件,并进一步结合智慧医疗、车路协同自动驾驶等实践案例作了详细讲解。AI安全性方面,他以车路协同感知为例,讲解了自动驾驶领域如何通过多传感器的协同感知,来提升AI协同内部可靠性,从而提高AI安全性。在数据资产和隐私保护方面,他以多中心医疗联邦协作科研平台为例进行讲解,并提出通过多中心的联合协作,解决数据孤岛、数据单边样本不足、标签严重缺失等挑战,做到数据的可用不可见以及面向隐私保护的机器学习,并强调公平和可解释的激励机制是多中心联邦协作的基础。可解释性方面,他以面向营养健康管理的可解释个性化推荐为例进行讲述,提出需要“引导式”而非“迎合式”信息推荐,提升用户依从性并充分考虑营养健康因素,避免迎合式的饮食推荐。
圆桌对话环节,与会专家围绕“人工智能治理技术”问题作进一步研讨,并回答了线上嘉宾的提问。
围绕主持人提出的从技术角度或技术应用角度,怎样才能实现人工智能技术的可用、管用乃至好用这个问题,高文院士认为,现阶段很多技术在发展过程中,过早说哪个不能用可能会抑制技术本身的发展。现阶段更多是从道德层面做引导,尽量把一些可能的风险抑制工具想明白。聂再清教授认为,在创新和监管之间需要平衡,一方面控制技术、工具、创新的个人有责任保证工具或将创新控制在危险可控范围内;另一方面社会也要集体监督,确保某个出现问题的产品或技术能够回滚、撤销。田天先生指出,技术可解释性需要将技术发展与应用场景深度结合,在不同领域需要不同的可解释的能力及不同的可解释级别,让技术在应用场景下发挥最好的作用。
围绕关于现阶段是否有必要设计一部分可操作具体规则,特别是将伦理准则嵌入到人工智能产品与系统研发设计中的问题,田天认为,在发展的阶段需要鼓励为主,各种人工智能难免涉及到一些模糊地带,一方面不能一棒子打死导致技术无法进步,另一方面也要设立一些红线,制定清晰的惩罚规定确保人工智能不触犯人类利益的基本保障。在此基础上,给智能应用留有更多空间,鼓励重视伦理,提供正向激励,促进合规发展。主持人孙茂松教授认为,应鼓励应用,鼓励创新,在行动中及时发现问题,及时改正,及时总结经验,使人工智能技术在应用中更好地完善和发展。
关于人类自身偏见和歧视被写进代码造成AI的偏见与歧视的问题,聂再清教授认为AI基于数据学习获取知识错误并不是观点歧视,而是能力不足。有可能通过引入更多的知识库或知识图谱能够得到提升,不应该把这个问题过分在伦理层面去拔高,更多还是解决训练数据问题。对未来数据隐私保护的责任可否由平台和用户共同承担的问题。田天认为基于现在新兴的隐私计算、区块链等技术,用户自身能够对数据具有一定控制权。个人对于数据的拥有或对应的权利会越来越大,越来越清晰。
2022人工智能合作与治理国际论坛由清华大学主办,人工智能国际治理研究院(I-AIIG)承办。大会论坛以“人工智能引领韧性治理与未来科技”为主题,是继2020年“后疫情时代的人工智能国际合作与治理”、2021年“如何构建一个平衡包容的人工智能治理体系”主题的基础上,进一步推动全球各方在人工智能合作与治理方面的对话,旨在更加深入地探讨如何构建适合人工智能健康发展的治理体系,推动建设人类命运共同体。论坛议程为两天,设有三场主论坛、一场特别论坛、七场专题论坛,并举行首届北京人文论坛。