据报道,《人工智能法》已列入立法计划,草案预备年内提请全国人大常委会审议。近日,《国务院2023年度立法工作计划》对外公布,披露这一动向。这表明,中国官方将推动全国层面的人工智能专门立法。其实,2017年国务院印发的《新一代人工智能发展规划》就提出“三步走”的战略目标,2020年,部分领域的人工智能伦理规范和政策法规初步建立。
2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。中国社科院法学所研究员、科技与法研究中心主任、博士生导师杨延超在接受红星新闻采访时表示,需要既考虑人工智能风险,又要考虑产业发展。
人工智能还属于技术发展的初期,不宜将很多问题规定得过细甚至过严。法律还应当以鼓励产业发展为主,要确定大的红线和负面清单的立法思想。所谓大的红线和负面清单,就是考虑到人工智能可能给社会发展带来的几大危害,划定红线。比如人工智能不能用于诈骗、不能用于数据攻击等。
近期以ChatGPT为代表的人工智能行业正在飞速发展,深度合成和生成式AI技术被滥用的可能性提高,造成安全风险与实质性危害,包括制造虚假视频、语音进行诈骗、勒索的违法行为不断增多,给个人、企业造成肖像、名誉等人格和财产权益损害,数据、隐私保护等安全需求将进一步上升,网络安全防护范围、防护主体将进一步扩大,有望打开行业成长新空间。
制定法律如何既规避乱象,又不限制技术发展,实现良法善治?杨延超表示,这就要既考虑人工智能风险,又要考虑产业发展。因为目前还属于技术发展的初期,不宜将很多问题规定得过细甚至过严。整部法律还应当以鼓励产业发展为主,要确定大的红线和负面清单的立法思想。所谓大的红线和负面清单就是考虑到人工智能可能给社会发展带来的几大危害,划定红线。比如人工智能不能用于诈骗、数据攻击等。划好红线,任何产业发展不能逾越。这样既给了产业发展极大空间,又保障了人类社会基本安全不会受到侵犯。
张欣表示,人工智能治理一方面要进行敏捷治理,同时又要保证治理具有韧性。在提出这个治理架构和目标之后,要依靠一系列的治理工具将它落地,比如在人工智能领域中,算法影响评估、算法认证、算法审计等都是非常好的治理工具。有了这些工具之后就可以保证它跟这些技术的发展是不断同态调整的,这是一个持续动态调整和调优的过程。在人工智能领域当中,不管是进行立法,还是在整个治理过程中,需要依赖一系列治理工具把它落地。
关注本站不迷路。带你及时获取游戏讯息,游戏攻略、热点话题、娱乐八卦、最新资讯等!