《说法讲理》节目
由南宁市司法局与
南宁市融媒体中心综合广播
联合制作播出
播出平台及时间
990新闻台:周二 19:00(首播)
1074交通台:周六19:00(重播)
本期关注
AI时代下的算法歧视与公平性
(点击音频收听完整节目)
↓↓↓

近年来,算法技术的广泛应用在带来便利的同时,也催生了一系列新型社会问题——消费者发现同一航班越搜越贵,求职者因“35岁门槛”被系统自动筛选排除,平台利用用户数据实施差异化定价……这些现象背后,是算法歧视从技术问题向公共议题的演变。法律如何规制“算法霸权”?本期说法讲理带您深入剖析这一数字经济时代的法律困局。
一
事件聚焦:算法操控下的“迷之操作”
人工智能是一种强大的技术工具,核心是基于数据和算法的自动化决策能力。算法歧视,是这种技术工具在反映和放大人类社会既有偏见时产生的负面影响。
典型案例:
有网友在社交平台上爆料,某航线同一航班同舱位机票在不同手机上,价格从400元到1330元不等,相差近千元。更令人担忧的是,北京市消费者协会的调查数据显示,86%的受访者有过被大数据杀熟的经历。
在就业领域,早在2022年,最高人民法院发布的指导案例第185号就涉及地域歧视问题。某公司在招聘系统中直接标注拒绝河南籍求职者,法院最终认定这种行为构成就业歧视。
此外,学历背景歧视在算法筛选中也日益凸显。 一些大型企业在校园招聘中使用的AI简历筛选工具,被设定为优先筛选“985”“211”或海外顶尖院校毕业生,将大量优秀的“双非”院校毕业生简历在初筛阶段就自动过滤掉,即使这些学生的实践能力、项目经验完全符合甚至超越岗位要求。
这种算法设定,实质上是将教育资源分配不公的历史问题,通过技术手段在就业市场进一步放大和固化,剥夺了许多求职者公平竞争的机会。
二
技术角度:算法歧视有哪些表现形式?
1.偏见代理的算法歧视
也称为关联歧视。算法决策者使用了表面客观中立的数据,但这些数据组合却产生了歧视性后果。
2.特征选择的算法歧视
这是传统歧视模式在数字时代的再现,算法直接将性别、年龄等敏感属性纳入决策系统。
3.大数据杀熟
“大数据杀熟”并非新现象,其本质是平台通过收集用户行为数据,利用算法模型对用户进行画像,进而实施差异化定价。近年来,从网约车、外卖到在线教育、酒店预订,多领域均被曝出类似问题。
这三类歧视的产生源于“数据偏见、算法黑箱和技术权力的不对等”。平台掌握海量数据和技术资源,而普通用户既无法理解算法逻辑,也难以收集维权证据。
三
法律依据:从消费者权益到反垄断规制
首先,算法歧视并不是一个严格的法律概念,我们在提到算法歧视时,常常将其与“公正公平”“公开透明”等法律原则对立起来。其次,从法律的角度来看,算法歧视主要违反下述几方面法律规定。
1.《中华人民共和国民法典》
《中华人民共和国民法典》当中确立的“公平原则和禁止权利滥用原则”。当算法决策导致不合理差别待遇时,可能构成对公平交易原则的违反。
2.《中华人民共和国个人信息保护法》
第二十四条:个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。
该条款的作用在于防止算法滥用对个人权益造成侵害,是个人信息处理中自动化决策领域的核心规范。换句话说,是规制算法歧视的直接法律依据。
3.《中华人民共和国反不正当竞争法》
当平台利用算法实施“大数据杀熟”,对交易条件相同的消费者实施不同定价,可能扰乱市场竞争秩序。
4.《中华人民共和国消费者权益保护法实施条例》
第九条第二款进一步规定:“经营者不得在消费者不知情的情况下,对同一商品或服务在同等交易条件下设置不同的价格或者收费标准。”这为打击大数据杀熟提供了更明确的法律武器。
四
责任主体分析:行业、监管与消费者的三角关系
一是在监管层面,建议建立全国性算法伦理委员会,构建“长牙齿”的长效治理机制。同时探索“举证责任倒置”规则,在算法侵权诉讼中实行过错推定原则。
二是在行业层面,各行业协会应制定防范算法歧视的自律准则,建立行业定价透明机制和黑名单制度。
三是在消费者层面,要保障用户知情权与选择权。算法服务商应以普通人能理解的方式披露算法风险与运行规则,并提供便捷的算法关闭选项。同时探索算法领域的民事公益诉讼制度,增强用户维权力量。
五
律师提醒
不仅是法律问题,更是技术伦理与商业道德的试金石。当算法成为攫取超额利润的工具时,法律必须为其划定红线。唯有通过平台自律、监管革新与消费者觉醒的三重合力,才能打破“算法霸权”,重建公平透明的数字经济生态。
更多精彩内容
大家可点击上方音频获取!
来源丨《说法讲理》栏目组
原标题丨AI时代下的算法歧视与公平性
一审丨黄馨怡
二审丨李夏
三审丨杨泓