您所在的位置:首页 - 新闻快讯 - 学术活动

学术活动

我院张欣副教授受邀参加2022人工智能合作与治理国际论坛

202212921:00-23:00,我院张欣副教授受邀参加清华大学与联合国开发计划署等合办的2022人工智能合作与治理国际论坛。张欣副教授在专题论坛4正视人工智能引发的性别歧视论坛上作为与会嘉宾参与了圆桌对话与讨论。该论坛由联合国开发计划署助理驻华代表张薇主持,一同参与的讨论的嘉宾有Woman at the Table CEO Caitlin Kraft Buchman, 腾讯研究院高级研究员曹建峰、联合国妇女署马雷军、微软Azure AI部门首席部门产品经理Sarah Bird以及清华大学交叉信息研究院助理教授于洋。

论坛伊始,由清华大学交叉信息研究院助理教授于洋分享了其团队开发的评估AI模型职业性别歧视的方法,并通过网页(aijustice.sqz.ac.cn)形式向公众如实披露不同AI模型的职业性别偏向和程度。

图为于洋团队开发的人工智能模型性别歧视水平评估系统

图为论坛讨论现场

张欣副教授在圆桌讨论有关人工智能性别歧视的法律规制方面进行了发言。她认为,人工智能性别歧视的治理并非一蹴而就,需要在治理机制、治理工具等方面作出变革性应对。首先,应当尝试在技术标准和法律层面逐步厘清人工智能性别歧视的定义,以便科技企业在设计阶段就能嵌入法律和伦理的要求,而避免走一条先污染、后治理的道路。其次,应当创建一系列人工智能治理工具支持协同化、敏捷化、精准化的治理。这些工具包括算法影响评估、算法审计、算法公平认证等。再次,应当寻找软法与硬法兼具的治理机制。与硬法相比,软法更具适应性和灵活性,可以与硬法协同发挥良好治理效果。最后,需要构建一种多元主体参与的共建共享治理机制,将社会公众、科技企业、大众媒体、监管机关、非营利组织等纳入其中,协同治理人工智能模型可能带来的性别歧视问题。

就人工智能性别歧视在目前法律中的定义难题,张欣副教授指出目前各国立法者虽然正在进行积极的尝试,但是明确的定义仍在发展之中。基于以下三个原因,对于人工智能性别歧视的法律定义会面临挑战。首先,人工智能模型运作机理复杂,立法者尚难以清晰理解其运作和形成机理,贸然下定义会引发一系列负面影响。其次,人工智能性别歧视的体现是多面性的,有限的法律规则难以全面涵盖所有的情形。最后,人工智能技术更新迭代迅速,法律的制定具有滞后性。动态变换、跨域隐秘的人工智能歧视带来的危害和影响尚难以衡量,因此还需继续研究如何将其纳入法律规制框架之中。