
出版社: 东南大学
原售价: 128.00
折扣价: 98.40
折扣购买: 面向从业者的可解释人工智能
ISBN: 9787576609950
Michael Munn是谷歌的ML解决方案工程师,他与谷歌Cloud的客户一起帮助他们设计、实现和部署机器学习模型。他还在高级解决方案实验室教授ML浸入式课程。迈克尔拥有纽约城市大学数学博士学位。在加入谷歌之前,他是一名研究教授。
公平性公理 Shapley 值被认为是一种“有利且公平”的归因方法,因为它们满足四个 公平的公理:效率、对称性、零玩家和可加性/线性: 效率(efficiency)公理表示,总归因是以无损的方式在所有模型特 征中分配的。也就是说,应用Shapley值时确定的所有特征归因之和 等于模型的总归因。 对称性(symmetry)公理表示,如果两个特征扮演相同的角色,那 么它们的 Shapley 值必须相等。这意味着只有角色的作用才重要;标 签或具体名称是无关的。更改特征名称不会更改Shapley值 零玩家(null player)公理表示,如果特征的边际重要性始终为零 则该特征的基线值也为零。 可加性/线性(additivity/linearity)公理确保了关于模型线性组合的 特征归因之间的一致性。 这四个公理提供了 Shapley值的独特表征。让我们讨论一下这些公理在 机器学习可解释性的背景下的状态。另见第6章中关于评估可解释性技 术的公理化方法的讨论。 这是一本为在行业中工作的 ML 工程师编写的书,重点是针对现实世界应用 程序的实际实现。这本书并不是为工业实验室或学术界的研究科学家编写的, 尽管初级研究者可能会发现它是一个宝贵的参考资料。