告别AI模型黑盒子:可解释的神经网络研究(一)

你是否曾被无理拒绝贷款而烦恼???你是否怀疑过自己的汽车自动驾驶的安全性???你说这种药物能治疗肺癌,,,,为什么呢????种种怀疑充斥在科学研究、、、、金融市场等领域。。。。众所周知,,,,机器学习模型,,如神经网络,,深度神经网络等,,有非常不错的预测能力,,但是让人信任一个模型的结果除了有良好的精度之外,,,可解释性也是一个重要的因素。。。。本文将介绍机器学习模型可解释性的定义、、性质和方法,,并在后续的文章中,,,着重介绍不同解释模型的方法,,,,力求在维持模型精度的同时,,,,通过更好的解释模型方法,,提高模型的可解释性,,,从而提高人们对模型和模型结果的信任和接受程度。。。

立即体验,,,,开启数字化转型之旅 !

站点地图