1. 首页
  2. 智能硬件

算法为何会存在偏见?

文|陈根由于算法对数据的掌控及后续分析,衍生出了丰富的信息要素深刻影响经济与社会进程。算法之下,个人信息的掌握和分析成为简单和日常的事情,人自然而然地成了计算的客体,由此衍生的算法可能带有偏见。

文|陈根

由于算法对数据的掌控及后续分析,衍生出了丰富的信息要素深刻影响经济与社会进程。算法之下,个人信息的掌握和分析成为简单和日常的事情,人自然而然地成了计算的客体,由此衍生的算法可能带有偏见。

大数据时代,如果经营者收集的信息足够全面,掌握的算法足够先进,足以甄别出每位消费者的购买意愿和支付能力,就可针对消费者单独制定不同的价格。商家为了获得更多用户,便可以通过大数据算法获知哪些用户可以接受更高的价格,哪些用户应该适当地予以降价,“大数据杀熟”由此诞生。

常见“杀熟”套路主要有三种:根据不同设备进行差别定价,比如针对苹果用户与安卓用户制定的价格不同;根据用户消费时所处的不同场所,比如对距离商场远的用户制定的价格更高;根据用户的消费频率的差异,一般来说,消费频率越高的用户对价格承受能力也越强。

早在 2000 年,就已有“大数据杀熟”事件发生。一名亚马逊用户在删除浏览器 Cookies 后,发现此前浏览过的一款 DVD 售价从 26.24 美元变成了 22.74 美元。当时,亚马逊 CEO 贝索斯也作出了回应,说明该事件是向不同的顾客展示差别定价的实验,处于测试阶段。同时,他还表示与客户数据无关,并最终停止了这一实验。

算法为何会存在偏见?

而二十年后的今天,随着网络普及,用户信息不断沉淀,大数据杀熟则成为了普遍存在的不良现象。根据北京市消费者协会 2019 年 3 月发布的“大数据杀熟”问题调查结果,88.32% 被调查者认为“大数据杀熟”现象普遍或很普遍,且 56.92% 被调查者表示有过被“大数据杀熟”的经历。

面对不透明的、未经调节的、极富争议的甚至错误的自动化决策算法,我们将无法回避“算法歧视”与“算法暴政”导致的偏见与不公。随着算法决策深入渗透我们的生活,我们的身份数据被收集、行迹被跟踪,我们的工作表现、发展潜力、偿债能力、需求偏好、健康状况等特征无一不被数据画像从而被算法使用者掌控。

如今不管是贷款额度确定、招聘筛选、政策制定乃至司法辅助量刑等,诸多领域和场景中都不乏算法自动化决策。社会原有的结构将被进一步固化,个体或资源在结构框架之外的流动愈发被限制。

算法对每一个对象相关行动代价与报偿进行精准评估的结果,将使某些对象因此失去获得新资源的机会,这似乎可以减少决策者自身的风险,但却可能意味着对被评估对象的不公。

免责声明:本站旨在传递信息,不代表AI在线的观点和立场。本站遵循行业规范,如转载您的文章未标注版权,请联系我们(QQ:2265783423)改正。本站的原创文章,如若转载,请注明出处:http://www.ainoline.cn/zhinengyingjian/30505.html

联系我们

在线咨询:点击这里给我发消息

邮件:2265783423@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

QR code