科技日报记者 刘垠
在9月8日举行的2024浦江创新论坛科技伦理专题论坛上,科技部副部长邱勇表示,当前科学研究不断突破人类认知边界,技术创新进入前所未有的密集活跃期,生命科学、医学、人工智能等前沿科技交叉融合,在促进科学发现、推动经济社会发展的同时,也给个人和社会带来新的挑战,对全球范围现有伦理秩序造成冲击。
“中国政府始终高度重视科技伦理治理,积极倡导科技向善理念,着力构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系。”邱勇说道。
人工智能要不要“踩刹车”
近年来,以ChatGPT、Sora为代表的人工智能技术,在给世界带来机遇的同时,也带来了风险挑战,如隐私泄露、算法偏见等。为了确保人工智能安全、可靠、可控,我国提出建立人工智能安全监管制度。
那么,究竟该怎么监管?中国工程院院士、国家科技伦理委员会委员高文说,目前,围绕人工智能伦理的讨论主要有两种观点:一种是强调坚决严格控制风险;另一种认为现在的人工智能尚未发展到需要立刻“踩刹车”的阶段,现阶段只需做好“刹车”设计,而不必“踩刹车”。
为了规避潜在的危害,高文认为,要加强技术研究和制度设计,预留对人工智能进行“刹车”或“关电源”的处理手段。其中,“刹车”的效果和灵敏度与技术相关,因此要加强技术研究。
在高文看来,判别式人工智能和生成式人工智能发展如火如荼,但对当前的劳动力市场影响还不大。他判断,下一轮热潮很可能是具身智能、人形机器人等,“如果大量使用机器人,如何让人仍有工作,这是我们必须要面临的问题。”
怎样平衡科技创新与伦理责任
如何平衡科技创新与伦理责任,挑战是什么?在科技伦理论坛圆桌环节,专家们各抒己见。
中国新一代人工智能发展战略研究院执行院长龚克表示,最大的挑战在于是否拥有将强烈伦理意识和创新能力相结合的人。只有那些能将伦理和创新紧密结合的人,才能有效推动科技创新朝着负责任的方向发展。
“我们正处在多元价值时代,一方面要包容多元;另一方面在一些具体问题上要达成共识变得困难。”复旦大学哲学学院教授王国豫说,大家都意识到负责任创新,但在具体落实时,距离负责任的行为还有很大差距,这是很大的挑战。
就在两个月前,国家科技伦理委员会医学伦理分委员会制定发布《人类基因组编辑研究伦理指引》,力促人类基因组编辑研究健康发展。
“科学技术的进步不能成为科学家的‘特权’,这其实给我们提出了责任问题。”北京协和医学院生命伦理学研究中心执行主任翟晓梅强调,科学进步推动医学发展,是人类基因组编辑技术发展和应用的价值所在。但它同时产生重要的伦理问题和社会问题,特别是人类生殖系基因编辑技术的临床应用面临的风险,不可能局限在某个国家、某个共同体、某个社会,因为它是可传递的,可能给人类带来重大风险。
在翟晓梅看来,作为国家科技伦理委员会医学伦理分委员会编制的第一份伦理规范,《人类基因组编辑研究伦理指引》最大的特点是将不同科学活动面临的伦理挑战做了区分,无论是体外实验室研究、临床前研究、临床应用,还是体细胞的研究和生殖细胞的研究。与此同时,伦理学的考量应该是动态的,需要动态评估安全性问题。
“科技伦理治理攸关人类文明长远发展,是全球共同关注的议题。”邱勇指出,中国将持续加强科技伦理治理,积极推动深化科技伦理领域的国际交流合作,促进科学创新更好造福于人类。一是坚持科技向善,促进负责任创新;二是坚持伦理先行,实施敏捷治理,加强科技伦理风险监测,实施更加符合科技活动规律的敏捷审慎治理策略,把好科技伦理“方向盘”;三是坚持开放合作,共享科技惠益。
责任编辑:高阳