当前位置: 中外法学 > 科技治理“伦理化”的法律意涵
科技治理“伦理化”的法律意涵
赵鹏,中国政法大学法治政府研究院{教授}

引言

科技发展在带来巨大社会变革的同时,也引发了人际交互方式的变革,动摇了传统道德观念发挥作用的环境,带来了现实的伦理问题。随着技术不断应用到现实生活场景,过去主要作为理论问题的“科技伦理”,开始进入公共政策的议程。例如,国家科技伦理委员会开始组建;近期,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,明确科技伦理治理的制度框架。伦理议题已经出现“公共政策转向”,即伦理不仅要作为个体层面道德反思的指引,也要成为公共层面政策制定的参考,并形成对科技研发、应用活动有约束力的治理架构。与之相呼应,决策层亦强调要完善相关法律法规、伦理审查规则及监管框架。

就理论回应而言,在一些具体的领域,法学界已经开始关注科技伦理议题与法律的关联。然而,在更为抽象的层面,对于科技伦理治理的兴起对法律提出了何种课题,法律介入科技伦理议题意味着何种挑战、又如何回应等问题,理论界还缺乏系统的分析。本文正是基于这一问题意识,试图论证一个基本命题:科技伦理治理的兴起,意味着科技治理内涵的扩容。这种新的治理需求,给法律带来了某种范式转换的压力,法律需要适当调整规制立场及手段。

一、科技伦理治理的兴起及其意义

新的科技嵌入社会,总会对既有的人与人、人与社会环境的关系产生冲击,与规范社会活动的法律和政府监管产生连接,引发相应的规范议题。然而,将关注重点置于何处,将形成不同意义的建构,这又会在相当程度上引导甚至规定法律的回应方式。在这个意义上,对科技的治理过去聚焦于对健康、环境的物理性风险,而当下开始叠加更多的社会伦理视角,这种转换值得法律关注与回应。

(一)科技治理:从物理风险到社会伦理

科技是创新的结果,其在投入应用之初,社会无法掌握其全部影响,因而经常会在一段时间后才显现出非预期的损害。上个世纪中期,这些损害(如核电站泄漏、化学物质污染等)引发了社会广泛关注,最终被概念化为“风险”问题,并形成了风险社会理论。

由于保障安全是国家最重要的职能,这种科技风险问题很快引发了政策回应。需要强调的是,风险本身是一个扩展性很强的概念,它可以用来描述所有非预期后果。但是,法律和政策的回应不可能如此泛化,它们关注的核心还是对健康、环境等领域有威胁的、可能影响人类生存物理基础的风险,本文称之为“物理风险”。而且,也正是在这个领域,法律和监管层面形成了相对稳定的规范方式,即以科学性的风险评估为基础建立对风险性质的判定,并根据这种判断采取对应的干预措施(参见表1),理论将其概括为风险规制。

实践中,有关风险规制的法律并不仅仅针对科技,也包括其他人类活动。但是,在现代社会,风险的产生或者放大与科技应用有着密不可分的关系,因此,这些法律从另一个侧面来看,就是有关科技治理的法律。

表1 以风险规制为主题的立法内容

然而,近年来,科技对人类交互方式的影响日益深远,科技研发、应用产生的隐私、平等、公正等问题也逐步现实化。这些问题用“风险—安全”的概念难以完全囊括,围绕科技伦理的治理架构逐渐兴起。

一方面,围绕科技伦理形成的治理架构不断形成并扩大覆盖范围。关于科技伦理虽然很早便有学术和社会层面的讨论,但是作为一种治理架构,其发展相对较晚。这一治理架构最早出现在生物医学领域。改革开放后,我国生物医学加入全球化网络,国际交流的需要也促使学术界和行业组织引入这套治理机制。此后,这种从伦理上的善出发设计治理架构的经验开始被其他领域所吸收借鉴。以当下受到广泛关注的个人信息保护为例,其源起就是学术界、产业界率先探索的伦理治理框架,这种治理框架后来演化成有广泛影响的公平信息实践(Fair Information Practices,FIPs)。作为其延伸,当下,全球范围内在人工智能领域也已经形成了由政府、行业组织等推动形成伦理准则进行治理的趋势。此外,除了上述具体领域,在整体意义上讨论科技伦理的国际组织也开始组建并发布相应的伦理指导文件。

另一方面,科技伦理治理与国家法律和监管体系开始发生嵌合。上述科技伦理治理架构在早期多属指导性或者自律性。但是,伴随科学技术逐步深入地嵌入社会、经济、政治和文化机理中,其对社会核心价值和利益分配机制的冲击日益深远,国家开始通过法律手段介入,伦理治理日渐与国家法律和监管体系产生嵌合。首先,一些曾经属于社会自我规制性质的伦理治理架构开始被立法确认、强化,开启了法制化的进程。在生物医学领域,伦理原则、伦理审查等被立法引入、确认,从而在一定范围内成为法律的强制要求。近年来,包括我国在内的一些国家推进个人信息保护立法,其诸多内容也可以视为对早期公平信息实践形成的伦理规范予以法律确认与发展。其次,科技伦理日益制度化地影响立法和监管规则的制定过程。越来越多的国家成立专门的伦理咨询委员会,对相关议题进行审议讨论,为立法和监管规则提供咨询建议。这意味着,科技伦理开始制度化地嵌入到法律和公共政策的形成过程中。就我国而言,这种探索发端于生物医学领域。2019年,中央全面深化改革委员会通过国家科技伦理委员会组建方案。由此,相应的机制建设覆盖到更广泛的科技领域。近期,决策层面进一步强调,要加快推进科技伦理治理法律制度建设,及时推动将重要的科技伦理规范上升为国家法律法规。

(二)科技治理“伦理化”与治理任务的扩容

上述发展表明了科技治理的“伦理化”趋势,即科技发展引发的社会争议越来越多地被解释和界定为伦理问题,并在伦理思维的引导下形成治理方案。这种治理架构的特殊意涵,可以在与传统风险规制架构的比较中得以明确。实际上,有研究已经指出,用“风险”和“伦理”两个不同解释框架界定问题,将导致关注重点、信息组织方式的不同,形成不同的意义建构,引导出不同的制度回应。

如前所述,风险可以在非常宽泛意义上用于描述某种非预期的后果。在这个意义上,科技引发的伦理挑战也可以视为一种风险,一些学术和政策文件也的确在这一意义上使用“科技伦理风险”这一概念。实际上,风险社会理论也是在这个意义上使用风险概念。从法律制度设计来看,这种社会学意义上的风险概念,主要功能在于提示关注潜在不利后果,但并无明确的规范功能。按照这个概念,一切均可风险化,因此,其无法作为规则设计基准。

在法律制度中,拥有具体规范功能的风险概念并非如此宽泛。因为,如果强调将风险判断作为决策依据,它就不能是不证自明的,必须能服务于测量和预测。由此,风险概念受到数学、保险、自然科学技术等领域的深刻影响,逐渐狭义化为一个在“科学”能够证实的范围内,量化评价潜在危害的性质、规模,为干预措施提供科学基础的概念。法律重点关注并形成了稳定调整范式的“风险”,就聚焦于前文所称的健康、环境等领域的“物理风险”。传统科技风险治理关注的核心也在这个方面,并以此形成了成熟的风险规制方法。

就科技伦理的讨论而言,其源于科技发展使曾经无可改变的自然基础成为人力可以操纵的领域,这就要求我们回答,如何将科技“能为”(can do)的面向与伦理“当为”(should do)的面向结合起来,形成一种“谦卑的技术”(technologies of humility)。科技伦理更多在描述意义上被使用,并未成为一个精确的法律概念。但从讨论范围来看,它涵盖的范围比物理风险更广。

例如,我国政策层面强调的科技伦理原则,除了包括合理控制风险、尊重生命权利等指向物理性风险规制的原则外,还包括增进人类福祉、公平公正、保持公开透明等更广泛的维度。再比如,涉及人的生物医学研究伦理审查既要保护人的生命和健康,从而有控制风险原则;也要致力于维护人的尊严,从而有知情同意、免费和补偿、保护隐私等原则。

因此,科技伦理治理兴起的意涵在于,科技治理从传统上局限于回应健康、环境等物理层面的直接影响,到开始增加关注并回应科技对人的主体性、社会交往规则、价值观念等相对间接但更加深远的影响。

正是这种新的治理任务要求我们思考是否需要新的制度安排。因此,为了方便比较,下文的讨论将“风险”限定于科技在健康、环境等方面的物理性风险,正是在这个维度,科技治理形成了传统的、相对稳定的规范方式。而本文所称“伦理”问题则主要指向科技对人的主体性、社会交往价值观念等方面的社会性影响,虽然现实的科技伦理讨论包括了物理性风险,但既有理论已经提供了相对完善的解释框架,需要重点关注的是新增加的这部分治理任务。

本文如此定义,核心是为了比较不同治理任务所提出的不同制度需求。现实中,“风险”“伦理”无疑是可伸缩的概念,出于不同目标和语境,会有不同的定义和使用,难免交叉重叠,本文并不否认这些使用的意义。但可以强调的是,实践中不同的概念使用并不会否认下文分析的意义。

例如,在个人信息保护这一涉及科技社会性影响的领域,有理论提出了风险控制的思路,欧盟《通用数据保护条例》(General Data Protection Regulation, GDPR)也引入了基于风险(risk-based)的保护方法。但是,正如有研究指出的,针对在涉及个体尊严、表达自由等领域的“风险”规制,无法套用传统针对物理风险、基于科学分析的风险规制架构:这一领域风险无法量化,而无法量化的风险概念,其意义就不再明显;在这一领域,风险的功利考虑和基本权利的道德边界也难以调和等等。这就说明,即使我们用“风险”来描述科技对社会关系的影响,它所面对的问题性质也和传统物理性风险不同。就此而言,本文从科技伦理治理角度提出的分析同样具有参考意义。

二、科技治理“伦理化”给法律提出的课题

由于科技伦理治理的框架日益与国家法律和监管体系发生嵌合,决策层也释放了推动科技伦理法制建设的政策信号。理解科技治理“伦理化”对法律提出的新课题,意味着我们需要反思传统上法律介入科技议题的基本立场和方法。

(一)反思割裂科技与科技应用的方法论

虽然传统上法律对科技本身的治理聚焦于其潜在的物理风险,但是,从整体来看,法律并非全然不顾及科技使用带来的其他社会影响,而采取了一种将科技和科技使用行为相区分的规范方式。

对科技本身,法律主要借助风险规制体系评价其工具价值。一项科技能否被法律许可投入使用,判断的核心就是成本效益分析或者说风险收益比这种工具性的标准。其基本逻辑是,如果某项科技能够带来相应的收益,而且其正常使用对一些相关法益如环境、健康、财产等的影响是可以接受的,那么该项科技就应当被法律允许使用。至于说个体是否会“非正常”的使用这些科技,科技大规模部署后人际交互关系又会发生何种实质性的变化等等问题,则并非针对科技规制的法律需要考虑的事项。它们要么由规范相关活动的其他法律调整,要么被交由未来或者其他社会机制调整。

以药品监管为例,对任何新的药品进入市场前的注册申请,法律关注的核心就是安全性、有效性和质量可控性等工具性标准。至于药品使用可能产生诸如药品成瘾、用于运动竞赛者的身体增强等问题,则交由其他法律部门或者其他社会机制来解决。

这种将科技与科技使用行为相割裂的方法,依据的是工具主义的科技观或者说“技术中立”原则。即科技被视为一种中立的、工具性的存在,“技术仅是一种手段,它本身并无善恶,一切取决于人从中造出什么,它为什么目的而服务于人,人将其置于什么条件之下”。在这种观念下,使用者的责任被强调按照一般规则对人使用科技的目的和实际后果进行调控即可。

科技伦理治理的兴起,在相当程度上是对这种工具主义科技观及由此发展出来的治理框架的修正。科技伦理这一概念本身就承认科技与科技的使用无法截然分离,科技并非价值中立,而是具有价值负载的。人在科技使用中的自主性不应被夸大,不同科技相互嵌入形成的技术结构也会引导甚至设定未来的行为,从而形成一种软性的决定。

具体而言,在这种软性决定机制下,如果法律仅仅着眼于调控科技的使用行为,往往并不能达到预期的目标:其一,科技如何被使用取决于社会结构、文化等非常复杂的因素,法律的调控只能覆盖有限范围。仍然以前述药品监管为例,假设某种创新药品在治疗疾病方面具有某些非常有限的功效,但其更大的功能是令使用者相对其他社会成员获得体能或智力上的竞争优势。可以设想,当其被批准使用后,社会的竞争结构很可能促进技术运用的军备竞赛,使扩散不可避免,从而带来有关维护平等、保护人的尊严等议题。

而且,一旦科技深度地嵌入社会,形成相应的使用文化,再进行矫正就变得十分困难。对此,有技术哲学家就提出了“反向适应”(reverse adaption)的悖论:科技作为方法本应当服务于人的目的,但是,法律制度往往无法有效地矫正技术的使用行为,现实的情况因而往往是人的目的不得不被迫调整以适应既有方法。以数据驱动的算法决策技术为例。最初,该项技术意在形成更智能的决策辅助,将人解放出来,使技术成为人的辅助、人的延伸。但是,当这些技术大规模应用并产生效用后,它本身就成为社会变化的驱动力量。过度收集个人信息、算法对人的支配便成为不可回避的问题,人反而成为技术的延伸。而当生活更多地与技术交织,技术也将更多地影响我们的价值体系、行为规范、利益和文化。

其二,法律规则因应新科技的调整存在时滞,新的科技也很可能改变执法能力和违法成本的对比,因此,仅仅规范个体的使用行为可能面临系统性的失灵。例如,P2P文件分享技术系统性地方便了传播淫秽物品、侵犯版权等违法行为。但是,鉴于执法成本,法律却很难追究技术使用者的责任。最终,在该技术使用形成较严重的社会问题后,执法者不得不在某种程度上放弃了技术中立原则,而在“快播”案中追究技术设计和管理者的责任。尽管该案的刑事责任认定不乏争论,但至少说明,忽视对技术设计和管理者的规范,这样的法律是存在缺陷的。

由此,科技伦理治理的兴起,意味着法律至少在某些场景中需要反思其基本方法,不能完全割裂科技本身和科技的使用行为。

(二)推动科技治理的适度民主化

在传统风险规制的框架下,法律为科技在市场准入、使用条件等方面设定要求,确保科技使用所产生的风险是较低的、可以接受的。但是,这种风险的判断主要是以科学方法和经验证据的应用为基础,使用量化、统计分析等正式工具,对风险的性质、规模、概率等形成尽量精确的判断。

这是一种强调技术理性的规制架构,依赖专家判断,相关讨论也主要在科学框架内展开。在这一过程中,规制决策的科学基础具有关键意义,专家的角色因而举足轻重,其要承担“向权力诉说真理”(speaking truth to power)的责任。因此,这是一种从科学内部出发来寻求科技治理方案的思路。

这种规制框架并不过多考虑科技使用的文化和社会环境,也相对忽略在科学与社会之间建立系统的对话、商谈机制,一直以来都遭到批评。一方面,从风险这一议题本身而言,风险指向非预期的后果,这一概念包含了损害的不确定性,科学本身无法消除这种不确定性。由于相关决策的后果是由社会来承担,不考虑社会观念就难以具备合法性。而从社会的角度来看,风险本身具有社会建构的特征,一定的社会文化背景决定了生活于该社会中的人们是如何认识风险的,有关风险的决策实际上应当是一个社会选择何种生活方式的决策。另一方面,科技具有建构某种社会场域(social domains)的作用,其普及过程将参与建构社会条件,从而强化或者扭曲社会中的参与者看待自身及其活动的方式。这意味着,科技对社会发展和人类行为的影响往往是以难以预测的方式,“我们先是塑造了工具,而后工具塑造了我们”,这进一步导致了仅从“科学”角度评价科技的局限性。

针对这些批评,现行的风险规制架构也在探究改进方案。例如,有理论提出了通过强化规制过程中的公众参与,增强风险沟通。问题在于,风险这一概念已经被赋予太强的技术属性,其概念容量不足撬动更广泛的议题。在这种狭义风险概念的主导下,缺乏科学证据的公众焦虑,往往被描述成对规制过程的误解,对事实的忽视。所谓的风险沟通,也更多是对公众的教育,用于解决公众的非理性问题,技术专家的地位实际上被强化,对科学技术本身的反思变得更加不容易。

由此可见,以技术化的风险概念为基础形成的治理架构,对科技的评价容易被科技自身所主导。在这种单一尺度下,科技容易被塑造成为一种支配方式,排除了其他思考、对话和行动的可能性。就此而言,从伦理角度形成的治理架构,有推动科技研发设计考虑更加广泛的社会价值、从而推动科技治理适度民主化的功能。因为,伦理本身就是呈现社会价值体系的概念。它认可社会子系统存在不同的理性、操作逻辑和参与者的世界观。非科技专家的观点不应视为非理性,即使在潜在损害大小、发生损害的概率等科学维度基本达成了一致,仍然可以开放出辩论的空间。

因此,科技伦理治理的兴起给法律提出的另外一个任务是,要推动有关科技的决策不仅仅依赖专家技术理性,而要求更多地考虑社会价值,即推动科技治理的适度民主化。

三、法律介入科技伦理议题的挑战

(一)科技与社会关系的不确定性

社会对科技的治理一直面临所谓“科林格里奇困境”(Collingridge’s Dilemma),即在某项科技发展的初期,存在多种方案来引导科技未来的走向。然而,这一阶段存在大量未知问题,不同方案的影响很难评估。在后期,科技的影响逐渐明确,但技术的锁定效应又使得选择十分有限。

科技伦理治理的兴起,意味着仅仅从“下游”科技使用行为进行规制已经不能提供充分的保护,而需要通过恰当的机制引导负责任的科技研发。这势必在反方向上遭遇挑战,即面对大量的不确定性,法律如何提出和证成其规范性要求。

这种“面向未知而决策”的问题亦是风险规制的主要挑战,但其解决方案却不能被科技伦理治理所照搬。在回应健康、环境等物理性损害问题时,由于科技本身是通过作用于物理世界而产生作用的,这些风险是可以借助科学方法评价的。尽管这种评估不可避免地存在不确定性,法律仍然可以通过程序的规范来尽可能有效利用既有知识,减少或者至少掌握不确定性的范围。

然而,科技伦理治理需要评价科技的社会性影响,由于科技创新广泛地嵌入社会机制和政治安排之中,社会对待技术的使用方式又是持续变动的,故很难像风险规制那样,基于预测评价而采取规制措施,因为这需要一种能够准确考虑非常复杂变量的超级理性,而这在现实中是不存在的。

(二)开放决策考虑维度的难题

传统上,法律制度对社会问题的回应,往往是基于某些关键视角的、有限度的回应。它通过将决策需要考虑的要素限定于一些法定要件,构建一个相对独立于外部环境的“隔音空间”,确保决策能够及时且依照可预见的方式做出。

科技伦理指向科技的社会性影响,势必牵涉出非常广泛的考虑维度。以生命伦理为例,除了获益与伤害、环境与生物多样性影响等与传统风险考虑有重叠的维度外,其关注的议题还涵盖人的尊严、自主、隐私、平等与非歧视、利益共享等更广泛的维度。这些不同考虑之间存在很多复杂的、经常冲突的面向,很难提炼出可以普遍适用的、稳定的决策要件。

例如,从经常被使用的从“尊重人”或者“人性尊严”这个原则出发,既可能得出应当尊重人的理性,从而尊重其自主决策的面向;也可能得出防止人被利用、操纵而工具化,而需要适当父爱主义干预,限制其自主决策的面向。很多决策都需要在具体语境中权衡且仍然不乏分歧。

这一问题在科技风险治理中虽也有一定程度的反映,但还是有质的差异。在风险规制的框架下,“风险”无法在立法事先的想象中被充分认识,法律决策需要考虑的信息范围就需要伴随科学知识的增进而动态调整。但是,法律毕竟划定了需要探究的问题边界,即聚焦于对健康、环境等产生物理性影响的风险的性质、范围以及损害发生的概率等。尽管这些考量因素的实质判断需要开放给科学知识、伴随科学知识的演进而不断调整,但是,何种知识是决策相关的,仍然需要满足一定的科学共识。由此,决策需要考虑的信息边界虽轮廓模糊但仍然可视为存在,法律对这种活动仍然能够进行部分的规范。

但是,如前所述,科技伦理治理的兴起的问题意识之一,即传统的科技治理将问题限定于风险,甚至将一些政策考虑、价值权衡的问题都风险化,限制了思考的维度。而开放决策考虑的维度后,也就将上述问题进一步放大。因此,要判断科技对某种社会价值的影响,就很难采取风险规制这种模式化的方式。

实际上,即使对其中某一个伦理考量维度进行评估,亦是如此。例如,有学者主张像环境影响评价那样,引入技术对社会公平影响的评价。然而,生态环境的影响固然已经高度复杂,但其至少遵循某种物理规律。相较而言,科技的研发、利用和发展是嵌入在一个变动不居、犬牙交错的社会现实中的,社会对技术的使用显然更加复杂、动态。因此,将何种要素作为评价的核心,很难找到一个客观、有共识性的标准。

(三)伦理立场的多元性与变动性

伦理思考基于一定的道德观念,而在当下社会,道德观念是多元而难以统一的。以人胚胎基因编辑技术的研发为例,虽然在“基因编辑婴儿事件”中,涉事科学家因研究条件不成熟等原因而广受批评。但是,对于是否需要发展人胚胎基因编辑技术这一根本伦理立场而言,仍存在广泛的分歧。

与此同时,科技本身的特点加剧了这一问题的复杂性。因为,伦理观念以一定的世界观和社会交往方式为基础,而科学研究和技术的应用总是会改变我们的认知和社会交往方式。因此,从科技工作者的角度来看,以既定世界观和社会交互方式作为不可挑战的、固定的准则,并无根据。以生命科学为例,问题的重点即在于,当科技能够从遗传层面介入生命后,就意味着科技的发展不但触及生物存在的形式,同时也已经松动人类长期依赖的对人的本质的理解,而对人的理解实际上是一切伦理考虑的重要出发点。

虽然在风险规制框架下,也会存在共识难以达成的情况,但其与伦理议题下的困境并非一个层次。在风险议题下,社会在“科技应当安全”这一原则层面存在共识,对于“多安全是足够安全的”亦可通过诸如民主决策程序安排来形成法律认可的共识。因此,相关分歧主要出现在一些相对技术的层次,例如,该项技术是否会导致某种损害,哪些是可接受的证据等等。这些分歧大多可以还原为知识问题,并凭借对专家意见的适当安排而得以解决。即使不同群体对风险认知存在一定的主观偏好差异,各方观点仍然围绕安全这一基本价值展开。

然而,在伦理议题下,分歧是在基础规范层次或者说原则层次的。例如,对于生命伦理领域关于是否应当放开人类胚胎体外培养不得超过14天的限制,以给科学研究以更多空间的争论,其实质就是如何在保护作为有潜质发展为人的胚胎的尊严和科学研究自由间的复杂权衡。这些争论无法用知识的增进予以解决或者视为已经解决,法律必须直面这种价值冲突。

一定程度的共识是整个法律规制体系运行的基础。否则,法律的干预可能导致某种单一伦理观念的强化,无法及时回应科技和社会关系的变迁,也很可能催生规范和社会现实之间的不一致,从而损害法律的权威。由此,如果法律不希望其介入带来僵化或者激化冲突,就需要确保整个规制程序能够调和相互冲突的主张,并对分歧保持足够的尊重。这也给法律的介入方式和介入强度提出了挑战。

四、法律介入科技伦理议题的立场

上述挑战的根源在于,在健康、环境风险规制中,法律是从“安全”这一相对明确、稳定的社会价值出发,对科技建立规制架构。而科技伦理治理意在回应科技引发的更为广泛、深刻的社会影响,问题就不能简单地定位为科技与社会价值体系的背离,不宜由法律向科技发出单方性的呼吁。相反,应当理解为科技与包括伦理、法律在内的社会秩序具有相互影响、共同演化的特质。

这种相互塑造的关系意味着,法律固然需要对科技的社会关系建构能力保持敏感,但也不能滑向技术决定论,不能忽视人类活动面对新兴科技的调适能力,也不能贬低在具体使用场景中衡量处理方式的重要性。由此,法律需要采取一种相对折衷的立场:既在整体上尊重科技发展过程中个体使用技术的自主性,并维护市场机制在技术选择中的基础性地位;也要意识到科技是具有价值负载的,充分地辩论科技发展所影响的利益,识别出其中最为关键的,并尝试新的法律方法来保护。从这一点出发,法律需要采取综合性的调控方案,一方面,适度介入科技研发、设计等“上游”过程;另一方面,也更具回应性地规范“下游”的涉科技使用行为。

(一)对科技研发、设计的“上游”进行原则性、程序性规制

在传统技术中立观念的影响下,法律对科技的研发、设计限于在一个狭小范围内评价其工具价值,规范的压力主要被推至“下游”的科技使用环节。这种规范模式对科技本身所具有的社会关系建构能力未能保持足够敏感,需要适度修正。

对于一些具有重要变革意义的、可能深刻影响社会交往方式的科技,法律在研发、技术设计这一“上游”就需要适当介入。法律需要引导利益相关方对一些重要伦理问题进行思考,例如,我们为什么需要这项科技,它们对家庭关系、社区关系意味着什么,它们对处于弱势的人群意味着什么等等;同时,推动基于这些思考而选择科技研发的方向,实现负责任的创新。

实际上,科技的研发本身并不是一个自我规定、客观的进程。优先选择何种科学研究、技术路线等都暗含了价值选择。在过去,这种选择是隐而不述,未经充分检讨的。而一旦进入“下游”的使用环节,法律往往只能聚焦于使用细节,而难以基于前述问题而调整。这既会给“下游”使用行为的规范带来巨大的成本,在某些情况下本身也会阻碍社会对这些技术的接受。

以农业转基因生物技术为例,这项技术的应用既涉及健康、环境等方面的风险议题,又涉及经济权力、利益分配等更广泛的社会议题。但是,现有法律制度几乎聚焦于前者,并未充分讨论这项技术的社会目的。从现实来看,社会对整个科技研发的过程缺乏讨论、控制,在很大程度上影响了对该技术的信任。

但是,在科技研发、设计中,法律对科技伦理议题的介入需要采取与风险规制不同的强度。在风险议题下,物理性的风险一旦现实化,会威胁生存根基。社会在“维系安全”这一点上已经形成共识,法律需要进行较强程度的干预,确保基本权利保护义务的履行,其方法,就是法律授权监管部门进行评估、预测,进而采取规制行为。

在科技伦理治理架构中,科技的研发和使用应当关注、回应何种价值,需要与社会持续商谈、调试,其需要遵循的实体性义务是弹性的、取向具体情景并且因应现实变化而不断调整的。这意味着,法律需要对一些具体的道德争议保持相对中立,其功能主要在于提供制度框架和程序机制,促成不同观点的沟通、对话。

因此,法律除了在一些已经具有高度共识、形成常态化行为准则或者涉及重大伦理挑战而需要暂时性管制的领域可以设定具体、细致的行为规则外,要重视通过确立原则来引领科技伦理治理。实践中,以人工智能领域为代表,新兴科技治理领域涌现了大量伦理原则治理文件,其核心考虑就是既引导科技发展的基本方向,又给相关研发机构和企业根据具体的技术场景进行选择的灵活空间。

当然,如何强化这些伦理原则的约束力亦需要有所考虑,否则宽泛的原则无法带来实质性的改变,也就无法引导科技稳序地嵌入社会。对此,一个可供参考的思路就是将相关制度设计理解为一个程序而非确定的规则。原则的文本并非包含了所有的答案,也不可能通过一个清单式样的合规要求来保证完美的合规。但是,法律和监管部门需要推动监管对象将其义务理解为一个持续评估并不断反思调整的过程,从而通过这种程序法治的进路推动伦理考量嵌入到科技研发、应用的过程中。

在这种程序性规制路径中,法律对科技创新与应用的相关主体并不规范特定的技术要求或绩效结果,而是为其提供关于内部管理的基本程序框架,引导其建立符合企业文化特征与场景特征的内部伦理反思计划、管理流程及行为决策规则,从而将伦理原则的价值要求转化为匹配科技创新与应用场景的具体行为规范。具体而言,这种程序性的规制可以从以下方面推进。

一方面,扩张科技伦理评估范围。“科技伦理评估”指要求相关主体在开展科学研究和技术开发项目前,按照法律的程序要求对所涉项目的价值影响与利益冲突开展伦理审查,属于在科技创新上游阶段执行伦理原则的重要程序节点。

过去,我国法律强制要求的伦理评估覆盖面不广,主要限于临床医学研究领域。当下纳米科技、认知与神经科技、人工智能科技等新兴科技具备重新塑造逻辑、生命、物质与大脑神经的潜力,而且以融合性的方式相互赋能、共同发展,对社会生活构成重大潜在影响。因此,确有必要将伦理评估扩展至新兴科技创新领域,使这种程序化的规范机制能够实现更为全面的覆盖。

实际上,近年来的立法已经有扩展相关制度的趋势。例如,《个人信息保护法》规定了个人信息保护影响评估制度,要求在特定情况下,个人信息处理者应当事前进行个人信息保护影响评估,并对处理情况进行记录。虽然有学者将其描述为一种风险控制措施,但实际上,这一制度更类似于生物医学研究中的伦理审查。从制度设计来看,这种评估是由个人信息处理者自行进行的,法律也仅仅提示了这些评估需要考虑的主要原则。这就是一种克制的程序化规制,即要求个人信息处理者在内部建立评估、发现问题并采取措施的机制,从而改变机构内部的决策程序以及其决策偏好。这与传统风险规制领域监管部门直接从外部施加相对统一、标准化的控制有很大差异。

另一方面,要求大型科技企业进行伦理组织化保障。要求程序性管理标准真正内化为企业机制的一部分,还须课予企业相应的“组织化保障义务”,即成立专门组织、建立相应的内部治理架构负责相关管理制度的实施。就此而言,《个人信息保护法》要求处理个人信息达到规定数量的企业设立个人信息保护负责人,就是一个很好的尝试。这种方式意在企业内部创造一种类似于任期制的特殊管理职位,课以其超越对公司忠诚的法律义务,其核心任务是依据法律要求从企业内部来监督企业执行相关规范,同时作为监管部门和被监管部门之间的联络点,确保在之后的执法活动中配合监管部门。

整体而言,在这种程序化规制的思路下,法律并不授权监管部门从外部构建管制框架。相反,法律意在推动规范对象自身建立对现状和可能的选择进行反思的制度能力。通过要求利益攸关方在做出重要的技术选择时考虑更广泛的因素,有意识地思考相关选择所具有的伦理意涵,更深入的探究是否存在其他替代性的设计方案,法律可以推动伦理考量结构化地嵌入到科技研发、设计和使用的过程中,最终确保科技的研发考虑工具性的价值,而成为复合性的科技—伦理探究。

(二)更具回应性地规范涉及科技使用的行为

科技伦理治理并非滑向技术决定论,而需要承认人的自主性、市场对技术选择的基础性意义。因此,通过部门法规范科技的使用行为,仍然具有重要意义。但是,部门法的回应,也需要对科技应用带来的社会交互关系的实质变化保持敏感,更具回应性地规范相关的行为。

传统上,部门法虽然也调整科技的使用行为,但其对新兴科技的回应,主要属于“翻译”既有规范以适用于新的对象的问题,很少涉及改变或者重新检讨规范背后的既定价值。这种现象有其可理解之处,毕竟,部门法的回应应当同时注重规则内在的一致性和可预见性,为受到影响的个体提供稳定的预期。但是,这种规范方式意味着,科技带来的实质性变化可能无法得到有效的回应。实际上,决策者日渐强调解决新技术应用所带来的制度空白问题。因此,部门法针对新兴科技带来的变化,应当在固守不变和激进革命之间寻求平衡,通过渐进但持续性的调适来匹配科技带来的实质性变化。具体分析展开如下。

其一,识别科技发展所影响的核心价值,明确法律回应的优先议题。新的科技嵌入社会,总是会引发大量的伦理议题。但是,由于科技与社会本身具有相互塑造的关系,一些问题实际上可以通过技术使用者的适应、社会和市场机制的自我调适而缓解,并非所有的伦理议题都需要法律层面的回应。否则,法律过度的介入,既会影响相关问题处理的弹性,也会给自身带来过度的调整压力。实际上,决策层亦提出“要避免把科技伦理问题泛化”。因此,法律层面应当首先检视,传统上受到法律保护的价值是否因为某项技术的应用而面临系统性的保护漏洞。

当然,这一分析既要涵盖当下明确、现实的威胁,也要关注那些更深层次、结构性的挑战。以互联网和数字技术为例,它们革命性地降低了信息记录、复制、传播的成本,就其个体而言,带来的直接问题是隐私暴露的风险。然而,我们也需要意识到,数字空间实际上是人与人之间交互的信息界面。在个体在数字空间的停留越来越多时间的情况下,这种信息界面实际上已经成为人理解自己和理解社会的限定结构。在此背景下,相关主体基于对个人信息的掌握,精细化地操控对其呈现的信息,可以塑造一个人的认知和偏好,形成对人的操纵,从而深刻侵蚀个体的自治,这构成长期且更为深刻的挑战。

综合性的理解、回应科技应用带来的这种直接威胁和长期挑战,正是推动科技伦理治理的关键。因为,即使在工具主义的科技观念下,往往也能够发现科技应用带来的直接威胁,并推动法律做出一定的回应。但是,只有更深入、全面地探究科技带来的实质性变化、理解其价值负载,才能准确理解相应的长期挑战。例如,如果我们将互联网视为单纯的工具,将个人在网络空间活动留下的信息视为个人身份在网络空间的投射,也可以从延伸隐私保护的角度得出对个人数据进行保护的必要性。但是,只有当我们更深入地理解个人数字化生活所带来的交互方式变革,理解数字经济背后的驱动因素,我们才能更加准确的理解个人自治面临的挑战,并做出更具预见性的回应。

其二,调整既有法律规则的适用范围,调适规范方案。法律对行为的规范往往是以现有的、典型的社会交往方式为蓝本设计的,而与法律相关联的科技伦理问题,大多源于科技改变了既有交互方式,使一些原先受到很好保护的价值变得脆弱,或者使一些原来只在背景存在的问题走向前台。在此背景下,如果既要法律规范的稳定性、连续性,又要解决相应的伦理挑战,一个较好的方式就是充分开发既有规范的解释和适用空间。

以前述数字化生活所带来的个人决策被操纵、自治受侵蚀为例。其中大量有风险的行为是基于商业推广目的,意在影响消费者的消费决策。此时,调适《广告法》的适用范围和规范方式,就是非常重要的回应方式。从实践来看,借助互联网技术实施的大量有争议的商业推广形式如竞价排名、经验分享、消费测评,其潜在危害就在于实质上进行了收费推广,但却隐藏了这种交易关系,让消费者误认为是一种客观、中立的信息展示行为,从而达到更为隐秘地影响消费决策的目的。这些行为在广告法中本有相应的规范原则,但是,互联网技术应用制造的新的场景形成了相关法律是否需要适用的争议地带,需要法律明确规制立场。

当然,同样需要关注的是,新科技应用衍生的行为内涵往往已与过去法律规范的典型形态有差异,法律在介入的同时也需要适当调整相关的规范内容。例如,上述利用互联网技术进行的隐形商品和服务推广,固然需要较全面地纳入广告法的规范。但是,监管部门也需要认识到,互联网技术的使用也已经使广告的功能、发布的方式、相关参与主体的角色定位等等发生了实质性变化,法律的介入也需要系统性地调适包括平台审核义务等在内的规范方式。

实际上,科技应用对社会交互方式的改变往往造成一种“相似但不同”的情况,仅仅基于相似性就全部援用相应规则,可能是过于简化的,规制方案的设计应当深入相关活动的具体语境和应用机制。因此,上述“旧法新释”并非简单、机械地将法律“翻译”于新的情况,而必须结合新科技所产生的实质性变化而进行调适,既确保法律能够应对新科技带来的伦理挑战,亦确保这种回应能够契合科技和商业的内在规律,符合事物的本质。

其三,逐步确认新兴权利,探索新型规制路径。当代科技已经从传统物的角色日益演变为改造生活环境的驱动因素:数字技术突破既有时空限制,革命了信息传播的方式;基因科技改变了生命现象,使人群关系、人与自然的关系得以改造。这意味着,我们需要探究人类本性在既有空间未曾被探索认知的部分,形成人性与价值的新观点,并以此调适相应的法律规则。

仍以前述数字化环境对个人自治的威胁为例。既有法律如《广告法》的调适虽可发挥重要的规范作用,但仍存在力所不及之处。毕竟,在互联网环境下,隐形的、试图影响互联网用户认知、偏好的商业推广,已经超出对特定商品和服务的范畴,而是扩展到非常广泛的目的。而且,其影响的也并非仅仅是消费者权益,而波及到整个公共对话的有效性、信息环境的可信性。此外,即使非商业推广性的新闻、内容分发,由于个性化算法技术的应用,也会产生诸如“信息茧房”之类的效应。

正因如此,在数字环境下,操纵个人决策、侵蚀个人自治的威胁是全方位、结构性的,法律就可以考虑更全面的评估,形成新的定位,发展出诸如数字人格之类的法益。基于这种定位,在权衡各方因素的基础上,法律可通过确认个体新兴权利、加强对平台算法决策问责等方式,在新的技术环境下保护个体的自治。

五、结语

近年来,在政策议程中,科技创新被前所未有地置于现代化的核心地位。而当中国日益成为全球范围内科技创新的引领者,也将面对科技及其应用所带来的挑战。一方面,我们需要珍视科技创新的价值,并动员市场机制利用和反馈这种创新;另一方面,我们也需要创造出相应的空间,确保社会能够集体地决定其未来,确保技术能够服务于人。就此而言,科技伦理治理的兴起以及法律的逐步介入,正当其时。

与此同时,相较于传统上对科技健康、环境等物理性风险的规制,科技伦理治理要求处理科技引发的广泛而深远的社会影响,法律的功能定位与介入方式需要有所调整。特别是,我们必须认识到科技与社会具有相互塑造的关系。由此,法律的功能应当定位为创造一种结构性的环境,确保科技与社会价值体系之间建立有效的连接界面,使两者持续对话,相互调适,缓解技术变迁对社会核心价值的冲击。

(责任编辑:王锡锌)

【注释】

  [1]参见“习近平在中国科学院第二十次院士大会、中国工程院第十五次院士大会、中国科协第十次全国代表大会上的讲话(2021年5月28日)”,载《人民日报》2021年5月29日,第2版。

  [2]这主要在集中在生命科学和信息技术两个领域。参见朱振:“反对完美?——关于人类基因编辑的道德与法律哲学思考”,《华东政法大学学报》2018第1期,第72-84页;丁晓东:“算法与歧视——从美国教育平权案看算法伦理与法律解释”,《中外法学》2017年第6期,第1609-1623页。

  [3]就此而言,社会学家欧文·戈夫曼(Erving Goffman)的“框架理论”对此有深刻的阐释,其核心是社会事件是无序的,它们只有被嵌入到某种“解释图式”即框架中才能够呈现意义。See Erving Goffman, Frame Analysis: An Essay on the Organization of Experience, Berlin: Harvard University Press, 1974, pp.11-12.

  [4]代表性的著作可参见(德)乌尔里希·贝克:《风险社会》,何博闻译,译林出版社2004年版。

  [5]参见沈岿主编:《风险规制与行政法新发展》,法律出版社2013年版;赵鹏:《风险社会的行政法回应——以健康、环境风险规制为中心》,中国政法大学出版社2018年版;金自宁:《风险中的行政法》,法律出版社2014年版。

  [6]例如,有学者就论证了,作为风险规制代表的环境法,本身就可以视为现代科技管制的先驱。参见王毓正:“论环境法与科技关联下之立法困境与管制手段变迁”,《成大法学》2006年第12期,第95-150页。

  [7]See Jonathan Montgomery, “Bioethics as a Governance Practice, “Health Care Analysis, Vol.24, No.3, 2016, pp.10-21.

  [8]有文献指出,中国的伦理审查制度是在生物医学研究国际合作时应外方要求引入的。参见邓蕊:“科研伦理审查在中国——历史、现状与反思”,《自然辩证法》2011年第8期,第116-121页。

  [9]比较有影响力的是英国计算机协会提出的关注处理个人信息的“杨格报告”(Younger Report)。 See Gerald Dworkin, “The Younger Committee Reporton Privacy, “The Modern Law Review, Vol.36, No.4, 1973, pp.400-406.

  [10]See Pam Dixon, “A Brief Introduction to Fair Information Practices, “World Privacy Forum, December 19, 2007, https://www.worldprivacyforum.org/2008/01/report-a-brief-introduction-to-fair-informa tion-practices/, last visited on 3 August 2022.

  [11]See Daniel Schiffetal., “What’s Nextfor AI Ethics, Policy, and Governance? A Global Overview, “in Ammette Markham et al.(eds.), AIES’20: AAA/ACM Conferenceon AI, Ethics, and Society, New York: Association for Computing Machinery, 2020, p.153.我国《国务院关于印发新一代人工智能发展规划的通知》(国发〔2017〕35号)亦提出“建成更加完善的人工智能法律法规、伦理规范和政策体系”;国家人工智能治理专业委员会已经成立并于2021年发布了《新一代人工智能伦理规范》,载科技部网站,http://www.most.gov.cn/kjbgz/202109/t20210926_177063.html,最后访问日期:2022年8月3日。

  [12]对这些文件的综述可以参见董群:“国际社会科技伦理的发展态势——以几个重要文件为背景”, 《东南大学学报(哲学社会科学版)》2006年第4期,第24-27页。

  [13]参见《民法典》(2020年)第1008、1009条,《生物安全法》(2020年)第34、40条,《基本医疗卫生与健康促进法》(2019年)第32条第3款,《药品管理法》(2019年修订)第20条等。

  [14]See Woodrow Hartzog, “The Inadequate, Invaluable Fair Information Practices, ”Maryland Law Review, Vol.76, No.4, 2017, pp.973-977.

  [15]参见《国家卫生计生委办公厅关于成立国家卫生计生委医学伦理专家委员会的通知》(国卫办科教函〔2015〕1156号)。

  [16]参见“习近平主持召开中央全面深化改革委员会第九次会议强调紧密结合‘不忘初心、牢记使命’主题教育推动改革补短板强弱项激活力抓落实”,载《人民日报》2019年7月25日,第1版。

  [17]参见中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》(2022年发布)。

  [18]See Alexander Bognerand Wolfgang Menz, “How Politics Deals with Expert Dissent: The Case of Ethics Councils, “Science, Technology, & Human Values, Vol.35, No.6, 2010, pp.888-914.

  [19]See Bognerand Menz, supra note [17], pp.888-914; Mercy W. Kamara, Arne T. Mortensen and Erling Jelsøe, “Changing Frames: The Emergence of Ethics in European Policyon Biotechnology, “Notizie Di Politeia, Vol.17, No.63, 2001, pp.80-93.

  [20]从一些政策表述来看,决策者有时使用广义的风险概念,将科技伦理问题也描述为一种风险,参见“《关于加强科技伦理治理的意见》新闻发布会”,载科技部网站http://www.most.gov.cn/xwzx/twzb/fbh22032301/,最后访问日期:2022年8月21日;有时又区分了风险问题和伦理问题,例如,习近平总书记就指出,要“要前瞻研判科技发展带来的规则冲突、社会风险、伦理挑战”,见前注[1]。

  [21]例如,在贝克的分析中,诸如气候变化、恐怖主义等具有不同规范含义的危害也被置于统一的风险概念下。参见(德)乌尔里希·贝克:《风险社会》,何博闻译,译林出版社2004年版,第10-14页;(德)乌尔里希·贝克:“‘9·11’事件后的全球风险社会”,王武龙译,《马克思主义与现实》2004年第2期,第70-83页。

  [22]表1中法律对风险评估的要求,就是希望精确测量、定性风险。

  [23]有学者对风险的概念史进行了研究。参见(德)格哈德·班塞:“风险研究的缘由和目标”,陈霄、刘刚译,载刘刚编译:《风险规制:德国的理论与实践》,法律出版社2012年版,第3-77页。

  [24]详细分析,参见本文第二(二)部分的内容。

  [25]See Sheila Jasanoff, “Technologies of Humility: Citizen Participation in Governing Science, ”Mi- nerva, Vol.41. No.3, 2003, pp.223-244.

  [26]参见“习近平主持召开中央全面深化改革委员会第二十三次会议强调加快建设全国统一大市场提高政府监管效能深入推进世界一流大学和一流学科建设李克强王沪宁韩正出席”,载《人民日报》2021年12月18日,第1版。

  [27]参见《涉及人的生物医学研究伦理审查办法》(2016年发布)第1、18条。

  [28]参见张涛:“探寻个人信息保护的风险控制路径之维”,《法学》2022年第6期,第57-71页。

  [29]See GDPR Article 24(1)and 25(1).

  [30]See Karen Yeung and Lee A. Bygrave, “Demystifying the Modernized European Data Protection Regime: Cross-disciplinary Insights from Legal and Regulatory Governance Scholarship, “Regulation & Governance, Vol.16, No.1, 2021, pp.137-155.

  [31]参见《药品管理法》(2019年修订)第25条。

  [32](德)卡尔·雅斯贝尔:《历史的起源与目标》,魏楚雄、俞新天译,华夏出版社1989年版,第142页。

  [33]See Wiebe E. Bijker, Thomas P. Hughes and Trevor Pinch, The Social Construction of Techno- logical Systems, Cambridge: MIT Press, 1989, pp.108-110.

  [34]参见王蔚:“走向‘超人’:‘完美健康权’的期待与悖论”,《中国法律评论》2022年第1期,第163-166页。

  [35]参见(美)兰登·温纳:《自主性技术:作为政治思想主题的失控技术》,杨海燕译,北京大学出版社2014年版,第193-201页。

  [36]例如,技术可监控社会的形成。Seee.g., Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Futureat the New Frontier of Power, New York: Public Affairs, 2019.

  [37]参见桑本谦:“网络色情、技术中立与国家竞争力——快播案背后的政治经济学”,《法学》2017第1期,第79-94页。

  [38]参见刘艳红:“无罪的快播与有罪的思维——‘快播案’有罪论之反思与批判”,《政治与法律》2016第12期,第104-112页。

  [39]See Danie J., Fiorino, “Technical and Democratic Valuesin Risk Analysis, “Risk Analysis, Vol.9 No.3, 1989, p.293-299.

  [40]See Aaron B. Wildavsky, Speaking Truth to Power: The Art and Craft of Policy Analysis, Boston: Little, Brown & Company, 1979.

  [41]有学者讨论专家的风险认知和公众风险认知的差异,参见戚建刚:“风险认知模式及其行政法制之意蕴”,《法学研究》2009年第5期,第100-110页。

  [42]See Andrew Feenberg, Transforming Technology: A Critical Theory Revisited, New York: Oxford University Press, 2002, pp.6-7.

  [43]John M. Culkin, A Schoolman’s Guideto Marshall Mcluhan, New York: Saturday Review, 1967, pp.51-53, 71-72.

  [44]参见高秦伟:“科学民主化:食品安全规制中的公众参与”,《北京行政学院学报》2012第5期,第7-13页。

  [45]See Brian Wynne, “Riskas Globalizing ‘Democratic’Discourse? Framing Subjects and Citizens, ” in Melissa Leach, Ian Scoones and Brian Wynne (eds.), Science and Citizens: Globalization and the Chal- lenge of Engagement, London: Zed Books, 2005, pp.66-82.

  [46]有学者以生物科技为例,讨论了从治理架构从风险到伦理转化的这种逻辑。See Kamaraetal., supra note [19], pp.80-93.

  [47]See David Collingridge, The Social Control of Technology, London: Pinter, 1980, pp.13-22.

  [48]参见赵鹏:“风险评估中的政策、偏好及其法律规制——以食盐加碘风险评估为例的研究”,《中外法学》2014年第1期,第28-45页。

  [49]See Langdon Winner, Autonomous Technology: Technics-out-of-controlasa Theme in Political Thought, Cambridge: MITPress, 1978, pp.88-106.

  [50]参见季卫东教授对法律功能自治的分析,季卫东:《法律程序的意义——对中国法制建设的另一种思考》,中国法制出版社2004年版,第33-34页。

  [51]See Henk A. M. J.ten Have and Bert Gordijn, Handbook of Global Bioethics, Berlin: Springer, 2014, pp.43-250.

  [52]有研究详细分析了人性尊严的两种面向在生物医学伦理中的具体表现。Seee.g., Brownsword Roger, “Bioethics Today, Bioethics Tomorrow: Stem Cel Research and the Dignitarian Aliance, “Notre Dame Journal of Law, Ethics& Public Policy, Vol.17, No.1, 2003, pp.20-33.

  [53]参见赵鹏:“风险社会的自由与安全——风险规制的兴起及其对传统行政法原理的挑战”,载季卫东编:《交大法学(第2卷)》,上海交通大学出版社2011年版,第43-60页。

  [54]一些学者比较了风险社会的安全保障国家和传统法治国的差异,但也承认这种部分的规范的可能性。参见(德)哈贝马斯:《在事实与规范之间——关于法律和民主法治国的商谈理论》,童世骏译,生活·读书·新知三联书店2003年版,第533页。

  [55]See Frank Pasquale, “Technology, Competition, and Values, “Minnesota Journal of Law, Sci- ence& Technology, Vol.8, No.2, 2007, pp.607-622.

  [56]对于该案基于科学事实的分析可以参见蔡甫昌、庄宇真、赖品妤:“生殖系基因编辑之伦理法律分析:以中国基因编辑婴儿为例”,《台湾医学》2019年第2期,第134-139页。

  [57]参见陶应时、罗成翼:“人类胚胎基因编辑的伦理悖论及其化解之道”,《自然辩证法通讯》2018年第2期,第86-88页。

  [58]目前,《人胚胎干细胞研究伦理指导原则》第6条第1项规定:“利用体外受精、体细胞核移植、单性复制技术或遗传修饰获得的囊胚,其体外培养期限自受精或核移植开始不得超过14天。”但是,科学研究的进展已经提出放开该期限、以释放更多科学研究自由空间的讨论。相关报道可以参见徐路易:“胚胎研究‘魔盒’开启”,《财新周刊》2021年第22期。

  [59]我国《民法典》人格权编第1009条规定:“从事与人体基因、人体胚胎等有关的医学和科研活动,应当遵守法律、行政法规和国家有关规定,不得危害人体健康,不得违背伦理道德,不得损害公共利益。”这可以理解为,并未将胚胎视为人,但承认其具备发展成为人的潜能而应当受到保护。这类保护并不具有绝对性,仅仅是权衡式的。域外法院对类似问题的分析,可以参见陈仲妮:“从人性尊严面向思考之胚胎保护——从德国联邦宪法法院几件涉及人性尊严之裁判谈起”,《兴大法学》2018年第23期,第45页。

  [60]See Cinzia Piciocchi, “Bioethicsa nd Law: Between Values and Rules, “Indiana Journal of Global Legal Studies, Vol.12, No.2, 2005, pp.476-479.

  [61]See Arthur J.Cockfield,“Towards a Law and Technology Theory,”Manitoba Law Journal,Vol. 30 No.3, 2004, pp.383-415.

  [62]参见(美)希拉·贾萨诺夫:《发明的伦理——技术与人类的未来》,尚智丛、田喜腾、田甲乐译,中国人民大学出版社2018年版,第23-24页。

  [63]参见郭于华:“透视转基因:一项社会人类学视角的探索”,《中国社会科学》2004年第5期,第141-150页。

  [64]有研究指出,同样为基因技术,人用基因技术的研发的伦理问题有充分的检讨,社会对其接受度要高于农业用基因技术。See James Wilsdon and Rebecca Willis, See-through Science: Why Public Engage- ment Needsto Move Upstream, London: Demos, 2004, p.20.

  [65]有学者将其概括为通过促进对话来进行规制。See Julia Black, “Regulationas Facilitation: Nego-tiating the Genetic Revolution”, Modern Law Review, Vol.61, No.5, 1998, pp.621-660.

  [66]有关设计标准规制与绩效标准规制的论述,参见(美)史蒂芬·布雷耶:《规制及其改革》,李洪雷等译,北京大学出版社2022年版,第132页。

  [67]就此可参考对新兴科技的特征及其伦理影响的讨论。Seee.g., Elena Grebenshchikova, “NBIC-Convergence and Technoethics: Common Ethical Perspective, “International Journal of Technoethics, Vol.7, No.1, 2016, pp.77-84.

  [68]参见《个人信息保护法》第55、56条。

  [69]参见张涛,见前注[28],第65页。

  [70]对生物医学研究中的伦理审查制度的详细分析可以参见赵鹏:“生物医学研究伦理规制的法治化”,《中国法学》2021年第6期,第25-44页。

  [71]参见谭冰霖:“论政府对企业的内部管理型规制”,《法学家》2019年第6期,第74-87页。

  [72]参见《个人信息保护法》第52条。

  [73]See Daniel Sarewitz, “Anticipatory Governance of Emerging Technologies, “in Gary E. Marchant, Braden R. Allenby and Joseph R. Herkert (eds.), The Growing Gap Between Emerging Technologies and Legal-Ethical Oversight: The Pacing Problem, Berlin: Springer, 2011, p.110.

  [74]例如,2021年以来对平台经济领域隐私保护、妨碍竞争等方面的治理有其必要性,但是,治理也导致大量互联网平台公司市值异常调整,其部分原因就是规则调整过于突然,扰乱市场预期。对此,决策层面也提出,要按照市场化、法治化、国际化的方针完善既定方案,坚持稳中求进,通过规范、透明、可预期的监管,稳妥推进并尽快完成大型平台公司整改工作。参见“国务院金融委会议研究当前形势”,载《人民日报》2022年03月17日,第2版。

  [75]参见习近平:“坚定不移走中国特色社会主义法治道路为全面建设社会主义现代化国家提供有力法治保障”,《求是》2021年第5期。

  [76]就此可参见关于适应性治理的论述。Seee.g., J. B. Ruhl, “Regulationby Adaptive Management- Is It Possible?” Minnesota Journal of Law, Science& Technology, Vol.7, No.1, 2005, pp.21-57.

  [77]有学者分析了社会主义价值观入法必须坚持科学立法的原则,科技伦理议题由于涉及价值观念,与这一问题有类似性。参见王怡:“社会主义核心价值观如何入法——一个立法学的分析框架”,《法学》2019年第9期,第58-59页。

  [78]见前注[26]。

  [79]See Massimo Durante, Ethics, Law and the Politics of Information: A Guide to the Philosophy of Luciano Floridi, Berlin: Springer, 2017, pp.5-17.

  [80]See Yochai Benkler, “Siren Songs and Amish Children: Autonomy, Information, and Law, “New York University Law Review, Vol.76, No.1, 2001, pp.23-113.

  [81]参见赵鹏:“搜索引擎对信息传播的影响及其法律规制”,《比较法研究》2018年第4期,第188-120页;应飞虎、葛岩:“软文广告的形式、危害和治理——对<广告法>第13条的研究”,《现代法学》2007年第3期,第29-39页。

  [82]《广告法》(2021年修订)第14条第1款规定:“广告应当具有可识别性,能够使消费者辨明其为广告。”

  [83]监管部门已经表达了相应的立场,参见市场监督管理总局《互联网广告管理办法(公开征求意见稿)》第2、8条。

  [84]例如,有学者以竞价排名广告为例,提出了科学处理互联网平台“核对”义务的观点。参见宋亚辉:“竞价排名广告规制模式的转型——从政府规制到受监督的自我规制”,《中国市场监管研究》2018年第4期,第40-47页。

  [85]有学者以互联网应用为例,探讨了这种关注实质变化的重要性。See Timothy Wu, “Application-Centered Internet Analysis, “Virginia Law Review, Vol.85, No.6, 1999, pp.1163-1204.

  [86]“事物的本质”的讨论及其在行政法上的意义可以参见陈爱娥:“事物本质在行政法上之适用”,《中国法律评论》2019年第3期,第82-92页。

  [87]参见刘尚志、林三元:“科技法律之本质与范围”,《月旦法学杂志》2009年第3期,第118-119、130-132页。

  [88]参见胡凌:“商业网络推手现象的法律规制”,《法商研究》2011第5期,第3-11页。

  [89]See Ellen P. Goodman, “Stealth Marketing and Editorial Integrity, “Texas Law Review, Vol.85, No.1, 2006, pp.83-152.

  [90]参见(美)凯斯·桑斯坦:《网络共和国:网络社会中的民主问题》,黄维明译,上海人民出版社2003年版,第2页。

  [91]See Frank Pasquale and Arthur J. Cockfield, “Beyond Instrumentalism: A Substantivist Perspective on Law, Technology,  and the Digital Persona, “Michigan State Law Review, Vol.2018, No.4, 2018, pp.821-868.我国亦有学者提出了数字人权的概念,参见马长山:“智慧社会背景下的‘第四代人权’及其保障”,《中国法学》2019第5期,第5-24页。实际上,我国的《个人信息保护法》第1条将个人信息保护与宪法层面人格尊严相关联,也可以理解为提示了发展数字人格的趋势。对该条的理解可以参考江必新:“全国人民代表大会宪法和法律委员会关于<中华人民共和国个人信息保护法(草案)>审议结果的报告”,载《全国人民代表大会常务委员会公报》2021年第6号。

  [92]参见张欣:“从算法危机到算法信任:算法治理的多元方案和本土化路径”,《华东政法大学学报》2019第6期,第17-30页。

  [93]《中共中央关于制定国民经济和社会发展第十四个五年规划和二○三五年远景目标的建议》(2020年10月29日中国共产党第十九届中央委员会第五次全体会议通过)提出,“坚持创新在我国现代化建设全局中的核心地位,把科技自立自强作为国家发展的战略支撑”。

  [94]有学者将其描绘为“共同塑造”(co-production)。See Sheila Jasanoff, “Ordering Knowledge, Orde- ring Society, “in Sheila Jasanoff(ed.), Statesof Knowledge: The Co-production of Science and Social Order, New York: Routledge, 2004, pp.13-45.