法律赋予用户拒绝个人隐私泄露的权利
为了更好地应对人工智能带来的新风险,在保护创新的同时确保人类生活的品质,法律发展可能应该包括以下这样几个向度。 首先,现有的法律模式没有摆脱传统的具象化乃至拟人化的思维方式,仅仅将有形的智能化机器或机器人纳入规制范围。但是这些有形的机器人只是人工智能的一种表现形态。其实它们都受一种无形的、弥散化的智能的控制。这种被称为合成智能的由算法、网络和大数据组成的无形无界的存在才是人工智能的智能所在。 其次,为了做到这一点,政府应当在发展人工智能方面加大投入,吸收更多的人工智能人才参与立法、行政和司法工作,避免使自己远远落后于商业力量。因为现在商业力量在人工智能发展方面已经远远地超过了政府,而政府不得不大量地借助商业机构开发的软件,政府在这时就很可能会被商业机构所操纵。一方面,我们要让越来越多的法律人进入商业机构去介入它的算法设计。另一方面,政府本身也应该越来越多地吸收人工智能人才,包括公、检、法都应该配备自己专门的技术人员,而不仅仅是去购买企业所开发的人工智能产品。这在我国相对来说比较容易做到,因为顶尖的大学和科研机构都是国家资助和管理的。而如果这些人才中大多数都转而为商业机构服务,不仅无法体现社会主义的优越性,也不利于让人工智能向服务于社会公共利益的方向发展。 再次,从现有的各国立法模式来看,欧盟和德国直接修改民事规则和交通法规的做法是在事实不清、需要解决的问题不明朗的情况下作出的仓促选择,既不利于鼓励创新,也不利于保障公民的权利。在目前这个阶段比较稳妥的方案是指定一个现有的政府部门负责确立相关的行业技术标准、安全标准和个人数据保护标准。但是,这个标准本身不应当是自上而下强加给行业,而应该是由行业自己来提出。政府只是作为一个把关者,在最后通过的时候需要邀请行业专家学者还有业界人士共同来参与评估企业自己所提出的这些标准是不是符合公共利益,这也是非常重要的一个方面。 最后,德国的自动驾驶汽车程序设计伦理规范是一个可取的思路。由于人工智能的核心在于算法,算法的设计决定着智能化机器的行为。而对于普通人和大多数立法者、执法者和司法人员来说,算法都是一个黑箱,人们只能看到它所导致的结果,却无法看到它的运行过程。制定相关规则来约束算法设计者的行为,在发生可疑后果的时候要求程序员用自然语言来解释算法的设计原理,并且追究其相关责任,这显然是一种治本之法。因为算法只要是人设计的,它就符合一定的人类目的,就都是用自然语言可以说清楚的。并不见得法律人都必须去学习编程,但是你必须懂得人工智能的技术原理以及它哪些方面可能出错,将来我们就可以要求程序员用自然语言来说明它编程的原理。也就是说,本来是可以防范、防止某种危害的,你没有在算法当中写入防止这种危害的程序,那么就要承担相关的责任。不愿意解释或认为解释不清楚,都只是一种推托之词。 鉴于人工智能对人类社会的影响越来越大,我建议应像普及法律知识一样普及人工智能知识。但是,在人工智能知识像普法一样被普及开来之前,一个过渡性的做法是设立由相关领域专家和法律职业人士共同组成的伦理委员会或者“人工智能法院”,按照风险防范而不是纠纷解决的思路来处理相关规则的设计和落实问题。也就是说现在仓促地立法可能还为时过早,但是相关的讨论、正式的公共政策讨论应该纳入议事日程 (编辑:焦作站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |