加入收藏 | 设为首页 | 会员中心 | 我要投稿 焦作站长网 (https://www.0391zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 动态 > 正文

人工智能怎样增强现有的人类偏见?

发布时间:2021-10-07 14:10:00 所属栏目:动态 来源:互联网
导读:根据定义,人工智能 (AI) 旨在模拟人脑的工作机制以优化组织活动。 ASP站长网 不幸的是,虽然我们已经能够更接近于人工地重新创造人类智能,但人工智能也表现出

根据定义,人工智能 (AI) 旨在模拟人脑的工作机制以优化组织活动。ASP站长网

 

 

 

不幸的是,虽然我们已经能够更接近于人工地重新创造人类智能,但人工智能也表现出另一种独特的人类特征——基于种族、民族或性别对某人的偏见。人工智能中的偏见并不是一个新概念。最近和过去都发现了医疗保健、执法和招聘行业中存在偏见的算法示例。

 

因此,几个世纪以来的不容忍和歧视不断以一种或另一种形式出现,即使世界似乎正在朝着对所有人包容的方向发展。要了解人工智能如何强化长期存在的人类偏见,我们需要找出偏见潜入人工智能模型和神经网络的方式。

 

用于训练 AI 模型的有偏数据集

人工智能驱动的系统的决策仅反映用于模型训练的输入数据的类型。因此,如果 AI 模型吸收的数据集具有歧视性,则输出推荐或决策将遵循相同的趋势。在初始机器学习阶段,可以通过两种方式创建有偏差的 AI 模型。首先,如前所述,用于训练 AI 模型的数据(总体上)是狭窄且有偏见的。其次,由于给定数据集中的样本存在偏差,因此创建了判别算法。由于疏忽或因为从事训练过程的数据科学家本身保守、心胸狭窄,有偏见,输入数据可能很窄。

 

歧视性人工智能的最佳例子之一是臭名昭著的 COMPAS 系统,该系统在美国多个州使用。人工智能驱动的系统使用历史监狱数据库和回归模型来预测被释放的罪犯将来是否有可能再次犯罪。正如预期的那样,该系统的预测表明,与白种人相比,非洲裔美国人的再犯人数几乎翻了一番。这种偏见的主要原因之一是,网络管理员在分析其预测时从未尝试检测系统的歧视性暗示。通常,人工智能偏见的受害者是女性、特定地区的少数族裔或有移民背景的人。正如他们所说,人工智能的模型不会引入新的偏见,而只是反映社会中已经存在的偏见。

(编辑:焦作站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读