2025年5月30日,由中法人工智能协会与清华大学马克思主义学院联合主办的“跨文化视野下的人工智能伦理”中法学术圆桌论坛在法国巴黎顺利举行。活动汇聚了来自中法两国二十余位人工智能伦理领域的知名学者与业界专家,围绕AI发展过程中的伦理、安全、文化差异等核心议题展开深入交流,展现了科技与人文融合的跨文化对话价值。
肖巍教授:构建“向善”的AI伦理体系,深化中法合作清华大学马克思主义学院教授肖巍发表主旨演讲《中国人工智能伦理的演进与挑战》。她回顾了中国AI伦理的发展历程,指出中国坚持“人工智能向善”的治理理念,构建了以政策引导、专家支撑与企业广泛参与为特征的协同治理体系。她也坦言当前仍面临立法滞后、技术发展快于伦理建设、透明度不足、跨学科人才短缺等挑战。肖教授表示,中国在发展AI伦理的同时高度重视国际对话,欧盟在立法与监管机制方面的经验值得借鉴,此次圆桌为中法交流搭建了良好平台,有助于推动全球AI伦理治理的协同发展。
Emmanuel Roberto Goffi教授:伦理不应“一刀切”,应尊重文化差异法国ISEP高等电子学院人工智能伦理学教授Emmanuel Roberto Goffi以《欧洲视角下的AI伦理》为题,阐释了欧洲伦理思想传统及欧盟“可信AI”原则的制定逻辑。他强调,伦理并非静态标准,而是面向特定目标在特定情境下的道德决策。在AI引发的深层风险面前,仅靠法律可能不足以应对,伦理判断的作用愈发凸显。他呼吁应超越西方主导的单一伦理体系,包容各地的价值体系与文化背景。Goffi指出:“人工智能本身无善恶之分,关键在于使用它的人希望达成什么目标。”他强调AI伦理的核心,在于调节人类与AI之间的关系,以及技术与社会环境的互动。
Philippe Huneman教授:AI生成内容正挑战知识与责任边界法国国家科学研究中心(CNRS)与巴黎索邦大学科学哲学研究所研究主任Philippe Huneman教授从科学哲学角度出发,探讨了AI发展对作者身份、真实性判别及责任归属的冲击。他指出,大模型(如GPT、DeepSeek)在医疗、写作等领域的广泛应用正在模糊“谁是作者”的界限。AI虽然能生成高质量内容,却不具备知识分子对真理的追求或医生的道德义务,这种本体与知识论的断裂需要引发伦理警觉。他警示,如无明确责任主体,AI决策的不可预测性将带来潜在风险。
圆桌对话:共识构建与全球治理的未来图景在随后的圆桌讨论环节,与会专家围绕“人工智能伦理的文化差异”“AI治理的哲学基础”“技术责任与社会影响”“AI伦理标准的构建”“全球伦理共识的可能路径”等议题展开深入讨论。参与者包括中法人工智能协会特别顾问方志刚,清华大学马克思主义学院教授刘敬东、副教授朱效梅、李江静、刘恩至,助理教授陈艺文,秘书吴丹,巴黎大学助理研究员Benoît Duchemann,圣艾蒂安让·莫内大学副教授张海飞,法国总理府战略署专家倪金城,巴黎纽约大学讲师Piera Maurizio,中法人工智能协会执行秘书长、巴黎文理研究大学制度经济学在读博士王尹,索邦大学哲学在读博士符律等专家以及多位青年学者。大家一致认为,推动跨文化伦理对话与制度协商机制,对于未来AI全球治理具有重要意义。
本次会议在轻松而富有成效的交流午宴中圆满结束。与会者纷纷表示,期待中法两国在人工智能伦理研究、政策制定与实践应用等方面持续深化合作,为全球AI治理贡献智慧与经验。