类通常无法胜任这项任务

whatsapp lead sale category
Post Reply
rochona
Posts: 33
Joined: Thu May 22, 2025 5:06 am

类通常无法胜任这项任务

Post by rochona »

不幸的是,人。人类的本性驱使人们选择阻力最小的道路,因此他们通常会听从人工智能的建议,而不是依靠自己的判断。这种倾向加上理解人工智能决策背后原理的难度,导致人类实际上无法提供这种防止偏见的安全机制。

这并不意味着高风险、关键的决策应该简单地自动化。这意味着我们需要确保人们能够解读人工智能的解释,并有动力举报存在偏见或损害的决策。欧盟关于数据保护和隐私的法律——《通用数据保护条例》(GDPR)允许人工智能对具有法律影响的决策(例如贷款批准或拒绝)提出建议,但最终决策仍需由人类做出。

避免代理变量
从法律上讲,无论是人类还是人工智能做出的决策,招聘或贷款决策都不能基于某人的年龄、性别、种 手机号数据库列表 族或其他受保护的属性。因此,这些属性不应包含在模型中。但这也意味着模型应该避免使用与敏感变量高度相关的代理变量。例如,在美国,邮政编码与种族高度相关,因此,如果模型排除种族但包含邮政编码,则可能仍然包含偏见。

如何将合乎道德的人工智能实践添加到您的业务中
因此,一些高管一开始可能不愿收集敏感数据(例如年龄、种族和性别),这可以理解。有些人担心无意中会对其模型造成偏差,或无法正确遵守隐私法规。然而,不作为并不能实现公平。公司需要收集这些数据,以便分析不同群体是否会受到不同的影响。这些敏感数据可以存储在单独的系统中,伦理学家或审计师可以访问这些数据,以进行偏见和公平性分析。
Post Reply