省政协委员林翠珠:建议根据风险等级实行AI准入管理

fjmyhfvclm2025-01-19  8

文/羊城晚报记者 郭思琦

图/羊城晚报记者 宋金峪 曾育文

人工智能技术迅猛发展,社会各个领域深受影响。从医疗诊断的精准辅助,到交通出行的智能调度;从娱乐视觉领域的个性化定制,到金融行业的风险预测与防控,人工智能如同催化剂,加速推动各行各业创新升级。

然而,这股技术浪潮伴随着很多问题。例如,AI换脸技术遭滥用、数据隐私泄露事件频发、责任界定模糊不清等问题逐渐凸显,给社会带来了潜在风险。

广东省政协委员、广东恒福律师事务所创始合伙人、主任林翠珠观察到,当前人工智能领域尚处于一种无序的“野蛮生长”状态。在今年的省两会上,她带来了“关于尽快出台规范人工智能行业法律法规”的提案,针对人工智能发展过程中的乱象与痛点,提出极具针对性的建议,其中包括依据风险等级实行AI准入管理等举措。

林翠珠指出,目前,全球范围内多个国家和地区已经开始着手制定人工智能的法律法规,例如,欧盟通过了《人工智能法案》。我国在此方面立法相对滞后,这不仅影响了我国在全球人工智能治理领域的话语权,也给国内人工智能产业的健康发展带来了潜在风险。

林翠珠进一步分析道,在数据隐私与安全问题方面,当下的人工智能系统存在过度收集、滥用以及泄露用户数据的风险;在责任界定方面,当人工智能系统出现故障、错误决策或引发损害后果时,责任归属的判定往往引发诸多争议。

“这些问题可能导致一部分人工智能企业肆意扩张、AI技术被滥用,也会导致部分企业因担心潜在的法律责任而不敢大胆创新和应用人工智能技术。”基于此,林翠珠呼吁,尽快启动规范人工智能行业法律法规的立法程序,明确人工智能发展的基本原则,如以人为本、安全可控、公平公正等;确立人工智能活动的主体范围,包括人工智能研发企业、使用者、数据提供者、监管机构等各方的权利、义务和责任;建立人工智能责任保险制度,鼓励企业购买保险,以分散潜在的法律责任风险,保障受害者能够及时获得赔偿,维护其合法权益。

此外,林翠珠建议根据风险等级实行AI准入管理。“可以将AI系统分为4个风险类别,即最小风险、特定透明度风险、高风险和不可接受风险。”林翠珠解释,最小风险AI系统,如垃圾邮件过滤器和AI视频游戏,基本上不受法律法规约束,但鼓励采用行为准则;特定透明度风险的AI系统,例如聊天机器人,必须明确告知用户,他们正在与机器交互,并且某些AI生成的内容必须被标记为AI生成;高风险AI系统,如医疗软件或招聘中的AI系统,必须遵守严格的要求,包括风险缓解系统、数据集的高质量、清晰的用户信息和人类监督等;不可接受风险的AI系统,例如某些类型的生物识别分类、社会评分和预测性警务,应被法律明确禁止,禁止AI进入。

林翠珠还特别提出,相关的法律规定可以设置缓冲期,在不同的时间生效。例如,不可接受风险的AI系统,可以在相关法律法规生效后6个月实施;高风险系统的相关规定比较严格,可以在相关法律法规生效后36个月实施。“如此一来,既为市场主体提供了规范其行为的法律依据,又给予市场一定的自我调节时间”。

转载请注明原文地址:https://www.gamev918.cn/tech/1301289.html