加入收藏 | 设为首页 | 会员中心 | 我要投稿 威海站长网 (https://www.0631zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

脱离算法面临“两难抉择”专家提倡开展场景化精细化治理

发布时间:2021-06-03 16:38:45 所属栏目:大数据 来源:互联网
导读:算法基于人的行为而产生锁定效应。虽然立法也赋予了用户拒绝个性化推荐的权利,但对许多用户而言,完全拒绝算法追踪,可能会影响平台内其他功能的使用。因此,还需对算法进行场景化和精细化治理。 大数据杀熟升级、个性化推送固化思维前不久,上海市消费者权
算法基于人的行为而产生“锁定效应”。虽然立法也赋予了用户拒绝个性化推荐的权利,但对许多用户而言,完全拒绝算法追踪,可能会影响平台内其他功能的使用。因此,还需对算法进行场景化和精细化治理。
“大数据杀熟”升级、个性化推送固化思维……前不久,上海市消费者权益保护委员会透露,随着人工智能等新技术的应用,算法快速更迭,再加上平台对消费者个人信息的全方位收集,算法“杀熟”方式升级,转向基于被平台充分掌握个人信息的“杀熟”,比如平台会根据消费者使用的手机型号等个人信息匹配相关的产品、广告或不同的优惠券。
面对越来越多的算法套路、越来越精准的营销和个性化推送,用户能否彻底拒绝或者脱离算法?又该如何对算法进行规制?近日,专家学者接受民主与法制社记者采访时,从技术和立法层面对这些问题进行了剖析。
 
算法技术会固化、放大偏见
上海大学法学院大数据与人工智能法治研究中心执行主任陈吉栋表示,狭义上的算法可以视为纯粹的技术,但随着人工智能技术及大数据的发展,它被应用于更多领域。广义上的算法是一种以构建社会秩序等目标而设定的一系列步骤。
“我们常说的人工智能从某种意义上讲,就是一种能学习、判断和决策的算法。”陈吉栋说,算法是一种人机交互场景下决策的新形态,在算法技术下,人类可以通过代码设置、数据运算与机器自动化判断进行决策。这个过程人机共同参与,既有人的决策也有机器的自动化决断。
既然如此,算法歧视到底是人为还是机器所为?对外经济贸易大学数字经济与法律创新研究中心执行主任张欣说,这应从算法技术架构原理说起。
“导致算法歧视的原因很多,有模型设计原因,有数据本身存在歧视的问题。”张欣说,算法本身是一项纯粹的技术,但如今算法技术深度嵌入平台经济,依据不同场景运行,有些是完全自动化决策,有些需要人为干预,但最终产生的算法结果是批量、大规模、系统性的决策,这可能会使传统世界中存在的偏见和歧视问题被系统性放大。
陈吉栋也表示,运用算法技术进行决策可能会固化和放大偏见。这是由于算法数据采集于人类,其不可避免地在数据中会掺杂人的情感认知偏见。这些数据输入终端后使得算法在模型更新迭代过程中让偏见因素进一步固化,加深偏见和歧视,例如求职类App对应聘者进行筛选时可能包含一些性别和地域偏好。
这种基于人为偏见而导致的算法模型在多个场景深度嵌入后,会出现用户在多个场景中被屡次歧视的“锁定效应”。张欣举例称,如果某个用户不恰当地被打上了“信誉低”的数据标签,通过数据标签的共享,就可能产生歧视“锁定效应”。如用户在免押租金使用共享单车的场景下因为“信誉低”被拒绝,转而发现在保险费率核定、银行贷款等更多场景下,也会遇到类似情形。
陈吉栋说,因为算法机器学习和自身的复杂性,加之部分商业平台算法的商业秘密特征,使得大多数人无法理解算法的工作原理,由此导致算法使用者处于事实上的支配地位。

(编辑:威海站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读