偏差检测和缓解:
IBM AI Fairness 360:一个开源工具集,“可以帮助检查、报告和减少人工智能应用程序整个生命周期中机器学习模型中的歧视和偏见。”
Aequitas:一个开源工具包,用于机器学习开发人员和数据分析师的偏见和公平性评估。
可解释性和可解释性:
LIME(本地可解释的不可知模型解释):一种解释任何黑盒机器学习模型的预测的技术。
SHAP(原 SHapley Additive Planning):一种博弈论方法,通过分析每个特征的重要性及其相互关系来解释任何机器学习模型的输出。
风险评估和管理:
AI 风险管理框架导航器:NIST 开发的另一个工具,可帮助组 BC 马来西亚数据 织识别和减轻与 AI 系统的部署和操作相关的风险
隐私:
OpenMined:用于构建机器学习系统的开源项目隐私比平常更重要
TensorFlow Privacy:用于训练机器学习模型的库,具有训练数据的隐私性
模型文档:
Card Model:一个 HuggingFace 框架,用于透明呈现 AI 模型信息
情况说明书:IBM 提高人工智能信任度和透明度的方法
TensorFlow 隐私概述。
TensorFlow 隐私。 (来源:TensorFlow)
这些工具和技术有助于确保人工智能系统得到负责任的管理和维护。能治理工具和标准。然而,值得注意的是,仅靠工具是不够的。它们必须与可靠的流程和监督齐头并进才能有效。
案例研究:微软负责任的人工智能
多家公司已采取实际步骤实施人工智能治理。微软的 Responsible AI 计划就是一个例子。微软是当今人工智能领域最大的参与者之一,但它也有不少失败的人工智能项目,其中最著名的是 Tay。
Tay 最初由 Microsoft 于 2016 年发布,是一个聊天机器人,旨在在 Twitter 上学习和交互。由于缺乏安全措施,短短24小时内,推特用户就教会了Tay法西斯主义、攻击性和种族主义。泰伊向他们学习,但没有任何关于该学习什么和该避免什么的限制。 Tay 最终被关闭,但这成为了一个宝贵的教训。
微软通过其 Responsible AI 计划在人工智能治理实践的开发和实施中崭露头角。微软 Responsible AI 计划值得注意的方面之一是其运营结构。该公司成立了一个人工智能伦理委员会,称为 Aether 委员会(人工智能、工程和研究中的伦理与影响),负责审查人工智能项目是否存在潜在的伦理问题。该委员会聚集了各个领域的专家,旨在审查人工智能技术对社会的影响并提供指导。