告别AI模型黑盒子:可解释的神经网络研究(一)

    你是否曾被无理拒绝贷款而烦恼??你是否怀疑过自己的汽车自动驾驶的安全性??你说这种药物能治疗肺癌,,,,为什么呢???种种怀疑充斥在科学研究、、、、金融市场等领域。。。。众所周知,,,,机器学习模型,,如神经网络,,,,深度神经网络等,,,,有非常不错的预测能力,,,但是让人信任一个模型的结果除了有良好的精度之外,,可解释性也是一个重要的因素。。。。本文将介绍机器学习模型可解释性的定义、、、性质和方法,,并在后续的文章中,,着重介绍不同解释模型的方法,,,力求在维持模型精度的同时,,,通过更好的解释模型方法,,,提高模型的可解释性,,,,从而提高人们对模型和模型结果的信任和接受程度。。。。

    立即体验,,开启数字化转型之旅 !

    站点地图