加入收藏 | 设为首页 | 会员中心 | 我要投稿 鹤壁站长网 (https://www.0392zz.cn/)- 分布式云、存储数据、视频终端、媒体处理、内容创作!
当前位置: 首页 > 站长资讯 > 外闻 > 正文

如何发现它并减轻其影响

发布时间:2021-03-27 10:36:21 所属栏目:外闻 来源:互联网
导读:使在数据收集过程中,也可能会无意中包含偏见。正如Capatosto所说,某些偏见可能会根深蒂固于用于收集数据的调查中,但是由于访问障碍,偏见也可能出现数据收集过程。最近的美国人口普查就是一个例子。 Capatosto说:语言、贫困、获取技术等方面存在障碍,这

使在数据收集过程中,也可能会无意中包含偏见。正如Capatosto所说,某些偏见可能会根深蒂固于用于收集数据的调查中,但是由于访问障碍,偏见也可能出现数据收集过程。最近的美国人口普查就是一个例子。

Capatosto说:“语言、贫困、获取技术等方面存在障碍,这使得很难将这种信息有意义地整合到任何给定过程中。”

另一件事是混杂。Capatosto说,算法偏差最突出的问题之一是将身份与一定程度的风险混为一谈。

Capatosto说:“在医疗保健方面,这非常重要,它具有联系人追踪功能,以及如何利用大数据和其他措施来建立围绕健康问题的公共设施和基础设施。”

她引用了最近的一项研究,该研究发现某些社区据称具有更普遍的医疗保健需求,但是满足这些需求的参数是花在医疗保健上的钱。其他研究发现,费用是有偏见的参数,因为有时费用本身首先是获取医疗保健的障碍。

虽然移除大数据中的恶意意图偏见很重要,但有时有必要包含偏见。

Gartner公司副总裁Svetlana Sicular说:“如果数据量很大,你可能只想知道某个特定人群。”

Leone认为,故意偏见在某种程度上意味着分析重点。当涉及个性化或瞄准特定目标人群时,有偏见的数据集可以帮助实现这些目标。

他说:“偏见可为每位客户提供真正定制的体验。”

但是,使用目标数据集来定制受众的体验,并不会引起大数据偏差的大问题。更大的问题是无意识的偏见。

Sicular说:“无意的偏见可以源自不同的目的,包括恶意目的,例如使数据中毒或攻击模型。”

Sicular表示,大数据无意偏见的示例是2019年Apple Card推出。在发行之后不久,该算法被发现为女性设置较低的信用额度。尽管苹果和高盛(Goldman Sachs)声称这种歧视是无意的,但这样的事情可能构成最大的问题,即大数据中出现无意的偏见。

Sicular说:“很多技术,很多平台都试图获得可解释性,解释算法内部发生了什么。”

在整个数据管道中,建立这种可解释性可以减轻无意识的偏见。Capatosto说,这需要首先了解和熟悉大数据偏见的概念。这里的关键是建立透明度和强大的数据治理流程,以消除数据集中的偏差。

她说:“首先,要确保问责制不仅仅是事后的想法。”

多元化团队

Leone说,多元化的数据团队可以确定何时需要故意偏见。Sicular说,一个由具有不同背景的人组成的团队将根据他们的不同经验提出疑问,这些经验可能会改变方法。

(编辑:鹤壁站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读