人的偏见,开始影响科技真伪,为核心决策真实性,人类开始想办法

01 一、解释自动决策的方法

列支敦士登大学的约翰内斯?施耐德(Johannes Schneider),和其他人介绍了一种系统。该系统会 检查自己 ,做出的决定,然后为改变(不正确的)。为决定找到,合理的理由。在将属于互联网电影资料库(IMDb)的电影,评论分为正面或负面时。

可靠的模型会通过,强调“令人愉快”和“受赞赏”等词。来解释自己为什么,将一篇评论归为正面。不过 施耐德的系统 ,将同一篇评论标为负面。并指出脱离语境时,某些词语看起来是一种批评。

解释自动决策的方法,是使用一种被研究人员称为 “输入扰动” 的技术。如果想了解哪些输入,会造成系统批准或拒绝贷款,我们可以 创建多份贷款申请副本 ,并以各种方式 修改输入 。比如修改申请人的性别,或者略微改收入。提交所有申请并分别记录其审批结果,就可以发现哪些输入有影响。这 可以合理地解释,一些原本神秘的决策系统,是如何工作的。

不过希玛宾度 ? 拉克拉珠(Himabindu Lakkaraju),带领的哈佛大学研究团队。已开发出一种 决策系统 ,该系统可以检测这种探查,并相应地调整其输出。在接受测试时,系统会 保持其最佳行为。

忽略 种族或性别等 限制因素 。其他时候,则回到其固有的 偏见方式 。这项研究的作者之一,索菲 ? 希尔加德(Sophie Hilgard)。将使用这种方案(到目前为止,只是一个理论问题),比作是大众公司在 汽车 ,进行排放测试时临时调整发动机参数。使排放的废气,比正常情况下更清洁。

02 二、输出简单决策树

另一种解释判断的方法是,输出一个 简单的决策树 if-then(如果-那么) 规则清单 。不过决策树不会,概括整个算法。相反它只包括了,做出有问题的决策时所使用的因素。

2019 年法国国家科学研究中心,埃尔万 ? 勒 ? 梅勒(Erwan Le Merrer)和吉尔 ? 特雷丹(Gilles Trédan)介绍了一种 以欺骗方式,构建这些决策树的办法 。这样它们可以用 看似客观的 术语来解释信用评级。同时隐藏系统,对申请人的性别、年龄和移民身份的依赖。

是否已经使用或将要使用,这些 欺骗手段 是一个 悬而未决的问题 。也许某种程度的欺骗,已经很普遍了,比如解释广告如何寻找目标的算法。 列支敦士登大学的施耐德说,目前实施的欺骗手段,可能 不是那么明目张胆 。而且他指出,要符合当前哪些要求, 提供解释的法律也不难 。“如果你需要提供解释,也没有人告诉你它应该是什么样的。”

虽然 XAI 可能存在欺骗行为,但杜克大学的鲁丁,对如何解决潜在问题采取了强硬态度。她认为我们不应该,依赖任何需要解释的决策系统。她 不提倡可解释的人工智能 ,而是提倡可解读的人工智能,即 具有内在透明性的算法

“人们真的喜欢自己的黑匣子”。“对于我所见过的,每一个数据集。你都可以得到一个可解读的(系统),它就像黑匣子一样精确。”

与担保信任相比,解释可以带来更多的信任。

比如你说“我可以使用这个黑匣子,因为我可以解释它,所以没关系它可以 安全使用 。”关于透明性使这些系统更容易被玩弄的观点,鲁丁并不买账。她断言如果你能 玩弄它们 ,那就说明它们是糟糕的系统。在产品评级方面,我们会要求透明度。评级算法因其 复杂性 ,或 需要保密而变得不透明 时,每个人都会受影响。

“制造商想要设计出一辆好车,但他们不知道质量好意味着什么。”此外她还补充道,人工智能要继续发展。并非一定要具备保持, 知识产权私有化 的能力,至少在高风险应用中是如此。如果不得不 公开算法 ,一些公司可能会失去兴趣。但会有其他公司,来填补这一空白。

卡内基梅隆大学的立普顿,不同意鲁丁的观点。他说许多任务,仍然要求深度神经网络, 黑匣子 中最神秘的部分表现出 最佳性能。 特别是那些用于图像,和语音识别的任务。所以对 XAI的需求,将继续存在。不过他说, 欺骗性 XAI 的可能性,指向了一个更大的问题。 即使没有被操纵,解释也可能有误导性。

结语: 最终人类必须, 评估自己使用的工具 。如果一个算法,突出强调了我们自己,在决策过程中也会考虑的因素。我们就可能将其标准评判, 为可接受的 。即使我们没有获得,更多见解或者解释,没有说明全部情况。 目前尚没有单一的理论,或实践方法来衡量解释的质量。

这种概念上的模糊,为误导提供了真正的机会。 在某些情况下,任何解读尝试都可能是徒劳的。期盼我们未来,能理解某些复杂的人工智能系统在做什么。这是 拟人观的体现, 我们实际应将这些系统视为 外星智能 。或者更确切地说,是一些深奥的数学函数。其内部运作方式本来就, 超出了我们的掌握范围 。问一个系统是如何思考的,那么“得到的只有错误答案”。