理解如何使用可解释人工智能(XAI)库,并建立对人工智能和机器学习模型的信任。本书采用问题解决的方法来解释机器学习模型及其算法。 本书从监督学习线性模型的模型解释开始,包括分类和回归模型的特征重要性、部分依赖分析和影响数据点分析。接下来,介绍了使用非线性模型和最先进的框架(如SHAP值/分数和LIME)进行监督学习的方法。使用LIME和SHAP覆盖时间序列模型的可解释性,以及与自然语言处理相关的任务,如文本分类,ELI5的情感分析和不证明。本书以使用CAPTUM框架展示特征归因、神经元归因和激活归因的复杂模型分类、类回归神经网络和深度学习模型作为结尾。 读完本书后,你将理解人工智能和机器学习模型,并能够将这些知识应用到实践中,为你的分析带来更高的准确性和透明度。
《可解释的AI谱系,使用Python实现模型可解释性和可解释性的解决方案》 272页
暂无讨论,说说你的看法吧