让科技伦理建设为人工智能健康发展护航

发布时间:2024-11-23 05:56:03 来源: sp20241123

  【聚焦科技伦理】

  ◎陈小平

  当前,加强人工智能领域科技伦理建设的必要性、紧迫性和原则规范已成共识。前不久,《科技伦理审查办法(试行)》(以下简称《审查办法》)的正式发布,标志着我国科技伦理建设全面进入治理阶段,对于推动我国人工智能等领域的健康发展和负责任创新具有重要的现实意义。

  现阶段人工智能伦理审查面临诸多挑战

  现阶段人工智能科技活动伦理审查工作重点和突出难点可归纳为以下几个方面。

  一是正确判断科技活动是否属于伦理审查范围。《审查办法》第二条明确规定了科技活动的审查范围,从内容上看主要考虑的是受试者的合法权益以及科技活动可能对生命、生态、公共秩序、社会发展等造成的伦理风险。该文件是科技伦理审查的通用性规定,尚未对每一项具体科技活动是否属于审查范围作出规定。因此,科技活动承担单位的科技伦理审查委员会(可能还有承担专家复核的机构)需要结合实际情况,细化本单位的科技伦理审查范围,同时根据《审查办法》第九条制定科技伦理风险评估办法,指导科研人员开展科技伦理风险评估,按要求申请伦理审查。目前,虽然我国人工智能学界、业界和管理机构对伦理风险的认识正在提升,但风险判断能力和水平滞后于认识程度的提升,如何作出正确判断将是一项新挑战。

  二是恰当把握审查内容和审查尺度。《审查办法》第十五条对科技伦理审查内容作出了明确的规定,特别对涉及个人隐私数据等的科技活动提出了要求,与个人信息保护法、数据安全法等进行了很好的衔接。但在实际工作中,还需要制定可操作的审查细则。此外,《审查办法》提出,地方、相关行业主管部门或科技类社会团体可以制定或修订本地方、本系统、本领域的科技伦理审查细则、具体规范和指南。今年2月,国家卫健委、教育部、科技部等制定了《涉及人的生命科学和医学研究伦理审查办法》,对生命科学和医学领域的研究作了更详细的规定,而人工智能领域尚缺少更具体的规定,因此人工智能伦理审查实施细则的制定应是下一步重点工作之一,并且要在审查实践中逐步完善。在实施细则的设置中,如何恰当把握审查尺度将面临挑战,容易出现尺度过松或过严的现象,进而对后续的伦理审查产生系统性影响。如果尺度过松,有可能导致一些存在伦理风险的科技活动伦理审查不全面,从而留下伦理风险隐患;如果尺度过严,可能妨碍科技活动的正常推进,降低国家科技进步和经济、社会发展的速度。

  三是加强科技伦理风险预警与跟踪研判。《审查办法》规定,对可能产生较大伦理风险挑战的新兴科技活动实施清单管理。清单的制定涉及对伦理风险的预测,这种预测往往是非常困难的,对人工智能长期社会效应的分析、预测尤其困难。因此,清单的滞后性将持续存在。尤其需要警觉的是,某些伦理后果无法通过事后治理加以消除,或事后治理的代价过大。因此,清单的动态调整机制尤为重要。在对较高风险的科技活动的伦理风险防控上,要坚持《关于加强科技伦理治理的意见》提出的敏捷治理要求,加强科技伦理风险预警与跟踪研判,及时动态调整治理方式和伦理规范,快速灵活应对科技创新带来的伦理挑战。

  多措并举推动人工智能伦理审查落到实处

  人工智能领域的伦理审查是一项新事物,要求科技活动的承担者、伦理委员会委员和工作人员、参与复核的专家和其他工作人员等参与《审查办法》实施的人员认真学习、深刻理解《审查办法》及其他相关政策规定,掌握背景知识,不断在实践中提高伦理审查的能力。

  首先,要提高参与《审查办法》实施的人员对人工智能的认识水平。当前,人们对于人工智能的认识仍存在不少误区,不少人错误地认为人工智能与人类智能是本质相同的,只是程度不同而已,为此认为对人的管理、教育方法也适用于人工智能。这种误解、误判会严重地干扰人工智能治理。“人工智能之父”麦卡锡等人首次使用了“人工智能”一词,并明确指出,“AI的大部分工作是研究世界对智能提出的问题,而不是研究人或动物。AI研究者可以使用人没有或人不能使用的方法,即使这些方法主要涉及计算”。由此可见,在人工智能伦理审查中务必根据数据、模型、算法、平台等AI技术要素的实际特性,作出客观的判断,而不能混淆人工智能与人类智能。

  其次,根据伦理审查的人才现状和工作需要,亟须加强科技伦理审查人才队伍的培养,以满足现阶段的迫切需要。要从更长期的需要出发,加大力度,通过学校教育、进修培训等方式,培养一大批科技伦理治理的专业人才。

  再次,落实《审查办法》必须从全局观点出发,清单管理是重中之重,应根据人工智能研究和应用的发展情况和治理需要,对清单进行及时调整,并就调整内容及时发布相关说明和实施指导。另外,有条件的地区、行业和单位,应加快启动伦理审查工作,及时总结经验教训,发挥示范和引领作用。还需加强《审查办法》实施过程中相关经验的信息共享,以提高全国范围内伦理审查的效率和效能。

  最后,针对滞后性挑战和人工智能的特点,建议开设一个新的研究方向——人工智能可控性研究。以往的研究主要针对工程可靠性,而对人工智能来说,这是远远不够的,有必要从基础理论、模型、算法、数据、平台等各个角度,对人工智能的可控性展开全面研究。同时,需要积极探索人工智能在相关领域的伦理效应和潜在风险,增强我国对人工智能等科技活动的风险预测和防范能力。

  (作者系中国人工智能学会人工智能伦理与治理工委会主任)

  来源:科技日报 【编辑:曹子健】