既要坚持中国特色社会主义的根本制度、基本制度、重要制度,又要坚持制度创新,不断完善中国特色社会主义制度,并将制度优势转化为制度效能。

(19)即使它要对现有法律提出批判与改良,也是在法体制的内部展开。从研究目标上看,政治学的立法研究主要关心立法机关以及立法活动的政治结果,不太关注立法结果,而我们下文提及的作为法学研究的立法学研究则首先立足于立法结果,然后由此回溯到产生立法结果的立法过程与立法机关。

梨泰院踩踏事故死亡人数升至155人 失物招领处鞋子...

首先,立法是一个国家最为重要的法律渊源之一,特别是在以成文法为主导的国家,立法决定了整个法律体系的基本内容,法官也只能在有限的范围内解释或发展法律。(77)See Jeremy Waldron,Law and Disagreement,Oxford University Press,1999,p.116. (78)也有学者将其归纳为法理政治化、政治法理化,参见宋方青、姜孝贤:《立法法理学探析》,《法律科学》2013年第6期,第52-54页。它的独特之处首先在于将法律制度置于政治实践中予以审视,揭示法理论的政治特征。就像司法活动一样,立法也要从事实评估开始,没有事实调查就没有立法依据。⑥在我国,很早就有学者提倡将立法研究作为政治学研究的重要内容,因为立法本身承担了多项政治功能。

(25)近年来,法理学的性质问题(方法论问题)也日渐成为一个独立的讨论话题,其争议的焦点是法理学的性质到底是描述性的还是规范性的。再者,在政治学进路下,立法常常给人以政治黑箱的形象,立法不过是有权机关活动的产物,是一个混乱的交易过程。算法歧视虽然是一种新型的歧视类型,但它并没有创造歧视本身,也没有改变歧视的本质,而只是改变了歧视的产生方式和存在方式,使得歧视有了更广阔的外延,是歧视在数字社会中的一种特殊表现形式。

(2)对于商业机构来说,则需要在保障科技创新发展和竞争性商业机密的前提下,对算法设计过程及算法决策进行有针对性地解释。算法按照设定的标准,通过利用公民的数据信息来重新分配公民身份,识别公民的社会关系。而且考虑到现实中黑人的再犯罪率确实会更高的情况,算法在分析具有黑人属性特征的罪犯时,也难免会将其纳入高概率再犯的范畴,将黑人属性的特征值与再犯概率进行了关联,从而产生算法歧视。对于用户而言,算法解释是一种权利,而对于算法设计人员而言则是一种义务。

算法的编辑和数据的收集、训练都是在人的操作下进行的,因此难免会携带设计人员的某种偏见。对此,(1)要以平等保护和无害化作为数据信息处理的基本原则。

梨泰院踩踏事故死亡人数升至155人 失物招领处鞋子...

歧视是一切对公民群体或个人所实施的,其目的或效果在于不合理的区分、限制、排斥、优待或侵害人尊严的行为或制度安排〔2〕。对算法歧视的发生逻辑与法律规制的研究,首先是要明晰算法歧视的核心要义。算法歧视即是随着人工智能、大数据、算法等新兴技术的发展和应用而产生的新的社会歧视类型。我国《关于加强互联网信息服务算法综合治理的指导意见》(国信办发文〔2021〕7号,2021年9月17日发布)明确指出,要以算法安全可信、高质量、创新性发展为导向,建立健全算法安全治理机制,构建完善算法安全监管体系,推进算法自主创新,促进算法健康、有序、繁荣发展,为建设网络强国提供有力支撑。

具体而言,算法歧视的核心要义体现在以下几个方面: (一)算法歧视是一种不合理的区别对待 如果将歧视比作风险和灾难,那么算法技术的发展让歧视这一风险也随之获得了新的载体和表现形式,呈现出歧视风险的高科技性,这种高科技性可能会让更多、更普遍的人遭受歧视。这极大地提高了决策效率,给人们生活带来了诸多便利。我国《民法典》即以法律的形式确立了数据信息的权利属性;《国家人权行动计划(2021—2025年)》也将个人信息权益作为互联网时代的基本人权。作为数字社会的新歧视类型,算法歧视的发生有其内在的必然性,其中既有人的因素,也有技术本身的因素,更有算法运行决策的因素。

针对先行存在的歧视技术本身的歧视以及决策性歧视,可通过以下措施来实现相应的法律规制。运用数据交互所实现的算法个性化推荐,原本是为了给不同用户提供个性化和差异化服务,以获得更好、更符合需要的用户体验。

梨泰院踩踏事故死亡人数升至155人 失物招领处鞋子...

算法歧视的不可逆性,体现在算法决策的过程与结果的双重不可逆性上。(2)建立算法的分级分类管理制度。

但与此同时,我们还发现,算法對人们生活领域的渗透还带来了新的问题,如在不同的手机端预定机票、酒店或打车时会得到不同的报价;亚马逊公司使用的简历分析系统,自动将女性求职者的排名置于男性之后……这表明,歧视已经随着时代发展而呈现出新的表现形式。数字社会与人类社会实际上是一种镜像关系,即人类社会无法避免的歧视问题,在数字社会也同样无法避免,甚至在数字空间中愈演愈烈。实际上,在算法运行中所产生的对某类特定群体的区别对待,其实并非完全是依据人类所认为的区分属性或特征(如籍贯、性别等)来作出区别对待或决策的,而只是在算法运行时挖掘出了数据中的标志性特征,并进行匹配性判断,从而对某类特定群体进行区别对待或决策。另一方面,算法黑箱也使得算法决策过程处于不公开不透明的状态,普通用户往往只能得到最终的决策结果,并被动地接受结果,而无法发现算法歧视。而这一歧视性结果的输出还将会进一步分别反馈给算法的内部循环系统与外部流通系统,造成进一步的歧视循环与流通。算法歧视反映的正是一种社会权力关系中深层次的不平等。

《在线旅游经营服务管理暂行规定》第15条还对禁止滥用大数据分析作出规定:在线旅游经营者不得滥用大数据分析等技术手段,基于旅游者消费记录、旅游偏好等设置不公平的交易条件,侵犯旅游者合法权益,从而起到对平台收集和使用公民个人信息的限制作用。重塑算法时代人与人、人与社会之间的和谐关系,让算法技术的开发和利用更好地为社会服务、为人类服务,使每位公民都能够在以算法为主导的智能社会法律秩序中享有充分的平等、自由、尊重和不受歧视的权利,从而在承认人的价值、保障人的自由、尊严及利益的基础上,保障公民权利的价值性质量〔13〕。

事实上,当算法掌控者根据各种数据变量进行对象分组而产生算法画像时,歧视便产生了,因为这种依据算法画像来分配资源的方式,本身具有歧视性。根据算法歧视的核心要义和呈现形式可以发现,算法歧视有先行存在的歧视——人类社会歧视的算法转化技术本身的歧视——算法设计所导致的歧视和决策性歧视——算法运行所产生的歧视三种发生逻辑。

表现为大数据杀熟的算法歧视在更深层次的机理上即是一种由交换不对等所引起的不平等。而在算法中,算法决策反倒可以规避反歧视的约束,肆意对基于个人或群体的固定特征进行自动化的分类。

这是因为:(1)数据的偏差性会导致算法歧视。它包括但不限于在数据动态交互中,由于冗余编码和信息茧房而产生的算法歧视,以及因数据评估的导向性而引发的算法歧视。但正如法律会由于立法者的有限理性而产生立法空白、漏洞一样,算法虽然能够在一定程度上掌控现实世界的变量,但也难免会由于算法设计人员的有限理性或认知盲区而产生算法歧视等问题。如为保护高校贫困生的自尊而利用算法黑箱进行的扶贫助学,即是通过算法黑箱起到了规避歧视的作用。

(二)算法歧视是智能机器自动化决策的产物 算法的建构与运行极具复杂性。由此可见,算法在商事经营中乃是一种商家为最大限度地获得商业利润的技术手段,而巨大的商业利益也在推动着信息茧化的速度与程度,用户无法自主决定自己所接收到的信息,而是被算法精准预测并精准推送,在这一过程中也不自觉地形成了算法歧视。

算法歧视其实也是算法运行中的策略选择,它虽然生成了歧视性结果,但也符合一定的技术秩序,是在算法运行环境中所产生的决策性歧视。因此,本文关注的问题是,算法歧视的发生逻辑是什么?以及如何对算法歧视进行法律规制?既有理论研究,大多关注的是算法的宏观规制问题,所提出的规制对策并非专门针对算法歧视,因此缺少针对性。

(二)技术本身的歧视——算法设计所导致的歧视 1.归纳式的算法思维逻辑导致算法歧视 算法作为人类思维的外化物,在学习方法的本质上是类似于人的,即算法运用的也是一种在特定条件、特定范围下的因果推论,是通过归纳法(即在既有知识的基础上总结经验、得出结论)建立并运行起来,继而发挥相应的预测功能的(即从经验和结论出发而对更多现象予以分析、进行预测)。在现代法治理念中,基于个人或群体的固定特征,如种族、性别、肤色、宗教信仰等作出区别性对待的公共决策与私人决策都会有歧视的嫌疑。

数字社会中,公民的姓名、性别、民族、种族、住址等涉及隐私的个人信息已经越过国家机关而被商业算法平台收集、存储,并进行开发与应用。如2016年魏则西事件,由于搜索平台的竞价排名而导致魏则西误信了算法所推荐的医疗机构,最终贻误了病情,酿成悲剧。(一)先行存在的歧视——人类社会歧视的算法转化 歧视在人类社会中是普遍存在并不断发展的,算法决策又是对人类决策的深度学习,因此,算法歧视在很大程度上源于对人类社会歧视的算法转化,是在对现有文化中存在的歧视进行归纳或同构后,形成的数字社会中的文化禁锢或社会禁锢。无害化是欧盟《统一数据保护条例》(GDPR)所确立的大数据处理与自动决策算法的基本原则。

如果算法掌控者存在看人下菜碟的故意,那么就不可避免地会出现算法歧视。算法决策是在数据分析的基础上建立起来的,因此,若数据存在错误,或数据本身即具有歧视性,又或是数据参数或属性不够全面,就会使算法模型产生对特定群体的特定预测,从而造成不合理的区别对待,形成歧视性的算法结果。

(1)算法平台或算法设计人员要经过严格的伦理审计。从算法歧视的损害结果出发,通过考察某行为是否直接或间接地侵害了特定群体的合法权益,是否产生了歧视的不利后果(差异性影响),进而按照谁设计谁负责谁主管谁负责的标准,向算法平台、算法设计人员等有关主体问责〔14〕。

如浙江省温州市是皮革业的聚集地,算法即认定一名温州人应该有从事皮革行业人士的待遇,从而在与该人的户籍进行关联的基础上,进一步发掘了该人从事皮革业的特征。(三)通过建立算法的监管制度,规制决策性歧视 对于因数据动态交互和数据评估的导向性所引发的算法歧视的法律规制,需要在充分明晰算法的应用范畴与算法规则的基础上,建立起对算法的监管制度,加强对算法技术的法律规制,以法律价值来影响算法,以强制性的法律规范来确保技术规范的正确实施。

文章发布:2025-04-05 17:32:53

本文链接: http://nug2x.onlinekreditetestsiegergerade.org/98494/369.html