编辑推荐
《集成学习:基础与算法》是目前国内独本系统性阐述集成学习的著作。
集成学习的思路是通过结合多个学习器来解决问题,集成学习在实践中大获成功——人称“从业者应学应会的大杀器”之一。
化繁为简:将复杂的原理简化为易于理解的表达,通俗易懂;
结构合理:兼具广度与深度。既阐述该领域的重要话题,又详释了重要算法的实现并辅以伪代码,更易上手;
注重实践:阐述集成学习在多个领域的应用,如计算机视觉、医疗、信息安全和数据挖掘竞赛等;
拓展阅读:提供丰富的参考资料,读者可按图索骥、自行深入学习;
新手通过《集成学习:基础与算法》很容易理解并掌握集成学习的思路与精粹;
老手通过《集成学习:基础与算法》能学会不少技巧并深化对集成学习的理论理解,更好地指导研究和实践。
《机器学习理论导引》
(1)随着人工智能技术的不断发展和应用,机器学习在近年来备受关注,对机器学习理论感兴趣的专业人士也日益增多。
(2)机器学习理论的主要内容是分析学习任务的困难本质,为学习算法提供理论保证,并根据分析结果指导算法设计。虽然机器学习理论对深入理解机器学习技术非常重要,但由于内容艰深广袤,且来源流派颇为不同,学习难度非常大。
(3)国际上机器学习理论的专业图书很少,往往侧重从理论角度来理解机器学习具体技术,或聚焦于某项具体的学习理论,缺乏全面性和系统性。
(4)本书由机器学习领域著名学者周志华教授领衔的南京大学LAMDA团队四位教授合著,旨在为有志于机器学习理论学习和研究的读者提供一个入门导引。
(5)四位作者梳理出机器学习理论中的七个重要概念或理论工具,除介绍基本概念外,还给出若干分析实例,展示如何应用不同的理论工具来分析具体的机器学习技术。
内容简介
集成学习方法是一类先进的机器学习方法,这类方法训练多个学习器并将它们结合起来解决一个问题,在实践中获得了巨大成功。 《集成学习:基础与算法》分为三部分。第一部分主要介绍集成学习的背景知识;第二部分主要介绍集成学习方法的核心知识,包括Boosting、Bagging、Random Forests 等经典算法,平均、投票和Stacking 等模型和方法、相关理论分析工作,以及多样性度量和增强方面的进展;第三部分介绍集成学习方法的进阶议题,包括集成修剪、聚类集成和集成学习方法在半监督学习、主动学习、代价敏感学习、类别不平衡学习及提升可理解性方面的进展。此外,《集成学习:基础与算法》还在每章的“拓展阅读”部分提供了相关的进阶内容。
机器学习是计算机科学与人工智能的重要分支领域. 本书作为该领域的入门教材,在内容上尽可能涵盖机器学习基础知识的各方面. 全书共16 章,大致分为3 个部分:第1 部分(第1~3 章)介绍机器学习的基础知识;第2 部分(第4~10 章)讨论一些经典而常用的机器学习方法(决策树、神经网络、支持向量机、贝叶斯分类器、集成学习、聚类、降维与度量学习);第3 部分(第11~16 章)为进阶知识,内容涉及特征选择与稀疏学习、计算学习理论、半监督学习、概率图模型、规则学习以及强化学习等. 每章都附有习题并介绍了相关阅读材料,以便有兴趣的读者进一步钻研探索。 本书可作为高等院校计算机、自动化及相关专业的本科生或研究生教材,也可供对机器学习感兴趣的研究人员和工程技术人员阅读参考。
《机器学习理论导引》机器学习领域著名学者周志华教授领衔的南京大学LAMDA团队四位教授合著 系统梳理机器学习理论中的七大重要概念或理论工具,并给出若干分析实例 机器学习理论内容浩瀚广博,旨在为机器学习理论研究的读者提供入门导引
本书旨在为有志于机器学习理论学习和研究的读者提供一个入门导引。在预备知识之后,全书各章分别聚焦于:可学性、(假设空间)复杂度、泛化界、稳定性、一致性、收敛率、遗憾界。 除介绍基本概念外,还给出若干分析实例,如显示如何将不同理论工具应用于支持向量机这种常见机器学习技术。
作者简介
周志华,教授、南京大学计算机系主任、人工智能学院院长、校学术委员会委员。 欧洲科学院外籍院士,首位在人工智能相关五大主流国际学会ACM、AAAI、AAAS、IEEE、IAPR均当选为会士的华人学者。 中国计算机学会、中国人工智能学会会士。 曾获IEEE计算机学会Edward J. McCluskey技术成就奖、CCF王选奖等。
李楠,博士,毕业于南京大学计算机系机器学习与数据挖掘研究所(LAMDA),师从周志华教授从事机器学习研究。 发表论文20余篇,并获国际数据挖掘竞赛冠军及最佳论文奖。 先后供职于阿里巴巴iDST/达摩院和微软亚洲互联网工程院,主要从事机器学习在互联网搜索、推荐和广告中的研究和应用工作。
章节目录
《集成学习:基础与算法》
第1章 绪 论 1 1.1 基本概念1 1.2 常用学习算法3 1.2.1 线性判别分析 3 1.2.2 决策树 4 1.2.3 神经网络 6 1.2.4 朴素贝叶斯8 1.2.5 k-近邻 9 1.2.6 支持向量机和核方法 9 1.3 评估和对比 12 1.4 集成学习方法14 1.5 集成学习方法的应用 16 1.6 拓展阅读19 第2章 Boosting21 2.1 Boosting 过程21 2.2 AdaBoost 算法 22 2.3 说明性举例 26 2.4 理论探讨29 2.4.1 基本分析 29 2.4.2 间隔解释 30 2.4.3 统计视角 32 2.5 多分类问题 35 2.6 容噪能力37 2.7 拓展阅读40 第3章 Bagging43 3.1 两种集成范式43 3.2 Bagging 算法44 3.3 说明性举例 45 3.4 理论探讨48 3.5 随机树集成 52 3.5.1 随机森林 52 3.5.2 随机化谱 55 3.5.3 随机森林用于密度估计56 3.5.4 随机森林用于异常检测58 3.6 拓展阅读60 第4章 结合方法 61 4.1 结合带来的益处 61 4.2 均值法 62 4.2.1 简单平均法62 4.2.2 加权平均法63 4.3 投票法 65 4.3.1 绝对多数投票法 65 4.3.2 相对多数投票法 66 4.3.3 加权投票法67 4.3.4 软投票法 68 4.3.5 理论探讨 70 4.4 学习结合法 76 4.4.1 Stacking 76 4.4.2 无限集成 78 4.5 其他结合方法79 4.5.1 代数法 80 4.5.2 行为知识空间法 81 4.5.3 决策模板法81 4.6 相关方法82 4.6.1 纠错输出编码法 82 4.6.2 动态分类器选择法85 4.6.3 混合专家模型 86 4.7 拓展阅读87 第5章 多样性 91 5.1 集成多样性 91 5.2 误差分解92 5.2.1 误差-分歧分解 92 5.2.2 偏差-方差-协方差分解94 5.3 多样性度量 96 5.3.1 成对度量 96 5.3.2 非成对度量97 5.3.3 小结和可视化 100 5.3.4 多样性度量的局限101 5.4 信息论多样性102 5.4.1 信息论和集成 102 5.4.2 交互信息多样性 103 5.4.3 多信息多样性 104 5.4.4 估计方法 105 5.5 多样性增强 106 5.6 拓展阅读108 第6章 集成修剪 109 6.1 何谓集成修剪109 6.2 多比全好110 6.3 修剪方法分类113 6.4 基于排序的修剪 114 6.5 基于聚类的修剪 117 6.6 基于优化的修剪 117 6.6.1 启发式优化修剪 118 6.6.2 数学规划修剪 118 6.6.3 概率修剪 121 6.7 拓展阅读122 第7章 聚类集成 125 7.1 聚类125 7.1.1 聚类方法 125 7.1.2 聚类评估 127 7.1.3 为什么要做聚类集成 129 7.2 聚类集成方法分类130 7.3 基于相似度的方法132 7.4 基于图的方法133 7.5 基于重标记的方法136 7.6 基于变换的方法 140 7.7 拓展阅读143 第8章 进阶议题 145 8.1 半监督学习 145 8.1.1 未标记数据的效用145 8.1.2 半监督学习的集成学习方法 146 8.2 主动学习151 8.2.1 人为介入的效用 151 8.2.2 基于集成的主动学习 152 8.3 代价敏感学习153 8.3.1 不均等代价下的学习 153 8.3.2 代价敏感学习的集成方法154 8.4 类别不平衡学习 158 8.4.1 类别不平衡158 8.4.2 类别不平衡学习的性能评估 160 8.4.3 类别不平衡学习的集成方法 163 8.5 提升可解释性166 8.5.1 集成约简 166 8.5.2 规则抽取 167 8.5.3 可视化 168 8.6 未来的研究方向 169 8.7 拓展阅读171 参考文献173 索引203
……
《机器学习理论导引》套装是2020年由电子工业出版社,机械工业出版社,清华大学出版社出版,作者。
得书感谢您对《《机器学习理论导引》套装》关注和支持,如本书内容有不良信息或侵权等情形的,请联系本网站。