人工智能的下一个挑战 —— 可解释性和可诠释性?

Synopsys Editorial Staff

Aug 27, 2019 / 1 min read

Table of Contents

机器学习模式识别

“It’s not a human move. I’ve never seen a human play this move(这不是人类的下棋策略。我从来没见过任何人这样下棋。)”

2016年,谷歌AlphaGo挑战世界上最伟大的围棋选手之一,李世石,当AlphaGo最终击败世石,取得决定性胜利时,另一位围棋专家樊麾如此评论道。

樊麾的这句经典点评,恰恰反映了我们正在使用超精确的机器学习(ML)模型时所面临的问题。尽管这些模型展示了超越人类的能力,但我们尚不确定输入的数据中的哪些具体信息,使它们做出决定。深度学习模型通常包含深度嵌套的非线性结构,使其变得不那么透明。缺乏透明度, 对AlphaGo本身来说不是问题。然而,在可解释性(explainability)、可诠释性(interpretability)和透明度至关重要的领域(如医疗诊断、军事和战斗行动)中,模型的不透明性则大大阻碍了AI/ML的扩展。

在人工智能和机器学习中,可解释性(explainability)和可诠释性(interpretability)经常互换使用。然而,这两者之间有一个细微的区别。可解释性是关于理解为什么某些事情发生的机制,而可诠释性是关于如何用人类的术语很好地来说明白这些机制。可诠释性的研究目前发展迅速;但有很多还需要做。

ML模型中精确度和可解释性之间的权衡

ML模型中精确度和可解释性之间的权衡,神经网络是最缺乏解释性的。

解决方案:

上图所示,经典的机器学习算法(如线性算法或基于树的算法)的可诠释性很好。而现有的模型不可知方法可分为5大类:

  • 可视化(Visualizations): 提高模型可诠释性的常用可视化方法有:部分依赖图(Partial Dependenc Https://Christophm.Github.Io/Interpretable-Ml-Book/e Plots, PDP)、个体条件期望图(Individual Conditional Expectation , ICE)和累积局部效应图(Accumulated Local Effects , ALE)PDP和ICE可以用来显示特征对预测值的影响,特别是当关系是线性的、单调的(特征对目标的影响总是在同一方向,但不以恒定的速度)或更复杂的情况下。当特征互相关联时,ALE图则更有用(在这种情况下,PDPs不是很有用)。
  • 基于特性的(Feature-based): 特征的交互和特征重要性也是了解模型的方法。H值 (H-statistic, 由Friedman提出的一种度量方法)是一种广泛应用于特征交互的度量方法。特征重要性的概念相当简单。特征的重要性是通过对特征值进行变更后,预测误差的增加来衡量的。若预测误差没有变化,说明该特性“不重要”。
  • 代理模型:代理模型在许多工程领域都很常见。代理建模背后的概念是,如果测量输出值耗时且麻烦,我们可以使用更快的代理模型。在机器学习中,代理模型需是可诠释的机器学习模型。
    Shapley Values(Shapley Values): Shapley技术博弈论(game theory)为基础。博弈论中的一个经典问题是,倘若玩家拥有不同的技能水平,他们将如何为总支出做出贡献。在机器学习中,支出是对单个实例的预测,而特征就是不同的玩家。非常坦白地说,个人认为Shapley值对于计算任何ML模型(不仅仅是线性模型)中特征对单个预测的贡献特别有用。
  • LIME: LIME(Local interpretable model-agnostic explanations的缩写,局部保真可诠释的与模型无关的解释)背后的关键想法是,通过一个简单的本地模型来近似一个黑盒子模型,要比试图全局近似一个模型容易得多。LIME将模型视为一个黑盒子,对于每个感兴趣的实例,生成一个新的数据集,该数据集由变更后的样本和黑盒子模型的相应预测组成。这个经过更改的数据集构成了可诠释模型的基础,该模型通过采样的实例与目标实例之间的接近程度来加权。

然而,不是每一个上述方法都能对深度神经网络管用。

在今后, 我会讨论其他方法来提高卷积神经网络(CNN)和 循环神经网络(RNN)的诠释性。

Continue Reading