IT必须注意隐藏的偏见 并采取措施将伤害降至最低
导读 据Gartner Research称,从现在起到2022年,由于数据,算法或负责管理它们的团队的偏见,85%的AI项目将产生错误的结果。此外,据盖洛普民意
据Gartner Research称,从现在起到2022年,由于数据,算法或负责管理它们的团队的偏见,85%的AI项目将产生错误的结果。此外,据盖洛普民意调查组织报道,85%的人目前至少使用一种人工智能设备,程序或服务。
当我从20世纪80年代后期开始使用AI系统时,这种偏见是我早已知道的。事实上,人们编程和教授人工智能系统,因此那些人工智能系统往往会有教导他们的人的固有偏见。
使用云来托管昂贵的人工智能系统实际上会让事情变得更糟,因为能够负担人工智能的公司数量已经增加,但拥有可靠人工智能技能的人数并没有以同样的速度增长。因此,除了广泛使用的人工智能工具之外的天生偏见之外,人才的缺乏也意味着知识库如何构建的更多错误将在一段时间内变得普遍。
这些偏见是什么样的?女性可能会发现她们正在获得短杆。这是因为男性在人工智能开发和教学中占绝大部分,因此他们的意识或无意识偏见被编码。例如,2015年的一项研究表明,在谷歌搜索“首席执行官”的图像中,只有11%的人是女性 - 尽管27%的首席执行官是女性。(虽然很容易在谷歌上挑选,但它很快就纠正了这些问题。)
公司将不得不为这些内置AI偏见付费。例如,他们需要吸收不向足够的女性发放贷款的利润,这些女性占市场的55%左右。而且,至少是坏业力,它会让你在最坏的情况下进入合法的热水。
关于这个还能做什么?现实情况是,有偏见的人工智能系统比例外更为常态。因此,IT需要认识到存在或可能存在偏差,并采取措施限制损害。幸运的是,工具正在出现,以帮助您发现基于AI的偏见。
THE END
0
二维码
海报
IT必须注意隐藏的偏见 并采取措施将伤害降至最低
导读 据Gartner Research称,从现在起到2022年,由于数据,算法或负责管理它们的团队的偏见,85%的AI项目将产生错误的结果。此外,据盖洛普民意
据Gartner ……