以法治之力护航“人工智能+”

国务院印发的《关于深入实施“人工智能+”行动的意见》明确,以科技、产业、消费、民生、治理、全球合作等领域为重点,深入实施“人工智能+”行动,涌现一批新基础设施、新技术体系、新产业生态、新就业岗位等,并提出加快实施6大重点行动、强化8项基础支撑能力,旨在加强战略引导与统筹指导,全面推进人工智能科技创新、产业发展与赋能应用。
同时,人工智能发展可能会带来前所未遇的风险挑战,需要加强人工智能治理。当前我国人工智能核心技术仍面临瓶颈制约,数据隐私与安全风险日益凸显,技术快速迭代催生了一系列亟待破解的伦理与法律难题。对此,我国已展开积极应对,制定了一系列法规制度,2023年发布的《生成式人工智能服务管理暂行办法》等为这一新兴技术领域提供了重要法律保障。


人工智能走向法治化,关键在管。要构建跨部门协同监管机制,明确各部门责任,推动信息共享与执法联动。搭建风险预警和动态评估平台,实时监测分析平台运行状态、数据流向等信息,加强对违规内容与行为的实时识别与研判。同时,建立数据使用的标准与规范,提升数据质量,定期审查数据的收集、存储、使用和共享情况,及时发现并纠正数据滥用、隐私泄露等问题,确保数据使用与技术发展始终处于可控范围,不断强化源头管理。

此外,要守住人工智能向善发展底线,将“坚持以人为本、智能向善”理念深度嵌入技术研发、训练、应用全链条。在算法设计环节规避偏见,在数据训练阶段强化伦理过滤,在应用部署时设置风险阀门。一方面,建立人工智能项目伦理审查前置机制,对涉及公共利益的重大应用开展多学科伦理评估;另一方面,加强从业者伦理培训,确保技术发展始终与人类价值同频共振。
注:以上内容摘自民主与法制时报,作者:钱立功。
- 鑫诚法务 为您服务 专业专注 安全放心 -
