Profile

lyuJef

这家伙很懒,什么也没写
资源:7 粉丝:0

lyuJef上传的资源

推荐系统实战项亮
推荐系统第1章 好的推荐系统  11.1 什么是推荐系统  11.2 个性化推荐系统的应用  41.2.1 电子商务  41.2.2 电影和视频网站  81.2.3 个性化音乐网络电台  101.2.4 社交网络  121.2.5 个性化阅读  151.2.6 基于位置的服务  161.2.7 个性化邮件  171.2.8 个性化广告  181.3 推荐系统评测  191.3.1 推荐系统实验方法  201.3.2 评测指标  231.3.3 评测维度  34第2章 利用用户行为数据  352.1 用户行
RAR
11.26MB
2019-09-27 23:55
统计学习方法_李航
统计学习是计算机及其应用领域的一门重要的学科。本书全面系统地介绍了统计学习的主要方法,特别是监督学习方法,包括感知机、k近邻法、朴素贝叶斯法、决策树、逻辑斯谛回归与最大熵模型、支持向量机、提升方法、em算法、隐马尔可夫模型和条件随机场等。除第1章概论和最后一章总结外,每章介绍一种方法。叙述从具体问题或实例入手,由浅入深,阐明思路,给出必要的数学推导,便于读者掌握统计学习方法的实质,学会运用。为满足读者进一步学习的需要,书中还介绍了一些相关研究,给出了少量习题,列出了主要参考文献。《统计学习方法》是统计学习
RAR
16.92MB
2019-09-24 19:39
Deep Learning深度学习圣经_Ian Goodfellow_dml
Deep Learning Deep Learning Bible - Ian Goodfellow_dml
RAR
13.31MB
2019-06-25 18:34
python核心知识思维导图14张
主要涵盖 Python 编程的核心知识 (暂不包括标准库和第三方库)。一系列思维导图按顺序显示了以下内容: 基础知识、数据类型 (数字、字符串、列表、元组、字典、集合) 、条件和循环、文件对象、错误与异常,函数,模块,面向对象编程
rar
6.79MB
2019-06-21 01:51
大数据处理之道
这是目前为止唯一一本各大电商网站卖到缺货的书,二手书的价钱已经到了230元以上,新书一本难求,火到爆本书覆盖了当前主流的大数据处理领域的热门技术,包括Hadoop,Spark,Storm,Dremel/Drill等,详细的分析了各种技术的应用场景和优缺点。同时,本书阐述了大数据下的日志分析系统,重点讲解了ELK日志处理方案。最后分析了大数据处理技术的发展趋势。本书以幽默大话的表述风格,使读者容易理解,轻松掌握。重点从各个技术的起源、设计思想、构架方面阐述,帮助读者能从根源上悟出大数据处理之道。本书适合大数据开发、大数据测试人员,以及其他软件开发或者管理人员和计算爱好者阅读此书从广度上,涵盖了目前几乎所有的大数据处理热门技术,实为大数据行业的入门人
RAR
92.97MB
2019-05-06 02:55
程序员代码面试指南_代码
该资源涵盖原书所有源代码,绝对物超所值,导入直接用 程序员代码面试指南:IT名企算法与数据结构题目最优解左程云 著 这是一本程序员面试宝典!书中对IT名企代码面试各类题目的最优解进行了总结,并提供了相关代码实现。针对当前程序员面试缺乏权威题目汇总这一痛点,本书选取将近200道真实出现过的经典代码面试题,帮助广大程序员的面试准备做到万无一失。“刷”完本书后,你就是“题王”! 本书采用题目+解答的方式组织内容,并把面试题类型相近或者解法相近的题目尽量放在一起,读者在学习本书时很容易看出面试题解法之间的联系,使知识的学习避免碎片化。
rar
424KB
2019-02-11 05:55
机器学习实战Peter Harrington著
机器学习是人工智能研究领域中一个极其重要的研究方向,在现今的大数据时代背景下,捕获数据并从中萃取有价值的信息或模式,成为各行业求生存、谋发展的决定性手段,这使得这一过去为分析师和数学家所专属的研究领域越来越为人们所瞩目。 本书第一部分主要介绍机器学习基础,以及如何利用算法进行分类,并逐步介绍了多种经典的监督学习算法,如k近邻算法、朴素贝叶斯算法、Logistic回归算法、支持向量机、AdaBoost集成方法、基于树的回归算法和分类回归树(CART)算法等。第三部分则重点介绍无监督学习及其一些主要算法:k均值聚类算法、Apriori算法、FP-Growth算法。第四部分介绍了机器学习算法的一些附属工具。 全书通过精心编排的实例,切入日常工作任务,摒弃学术化语言,利用高效的可复用Python代码来阐释如何处理统计数据,进行数据分析及可视化。通过各种实例,读者可从中学会机器学习的核心算法,并能将其运用于一些策略性任务中,如分类、预测、推荐。另外,还可用它们来实现一些更高级的功能,如汇总和简化等。 目 录   第一部分 分类   第1章 机器学习基础 2   1.1  何谓机器学习 3   1.1.1  传感器和海量数据 4   1.1.2  机器学习非常重要  5   1.2  关键术语 5   1.3  机器学习的主要任务 7   1.4  如何选择合适的算法 8   1.5  开发机器学习应用程序的步骤 9   1.6  Python语言的优势 10   1.6.1  可执行伪代码 10   1.6.2  Python比较流行 10   1.6.3  Python语言的特色 11   1.6.4  Python语言的缺点 11   1.7  NumPy函数库基础 12   1.8  本章小结 13   第2章 k-近邻算法  15   2.1  k-近邻算法概述 15   2.1.1  准备:使用Python导入数据 17   2.1.2  从文本文件中解析数据 19   2.1.3  如何测试分类器 20   2.2  示例:使用k-近邻算法改进约会网站的配对效果 20   2.2.1  准备数据:从文本文件中解析数据 21   2.2.2  分析数据:使用Matplotlib创建散点图 23   2.2.3  准备数据:归一化数值 25   2.2.4  测试算法:作为完整程序验证分类器 26   2.2.5  使用算法:构建完整可用系统 27   2.3  示例:手写识别系统 28   2.3.1  准备数据:将图像转换为测试向量 29   2.3.2  测试算法:使用k-近邻算法识别手写数字 30   2.4  本章小结 31   第3章 决策树  32   3.1  决策树的构造 33   3.1.1  信息增益 35   3.1.2  划分数据集 37   3.1.3  递归构建决策树 39   3.2  在Python中使用Matplotlib注解绘制树形图 42   3.2.1  Matplotlib注解 43   3.2.2  构造注解树 44   3.3  测试和存储分类器 48   3.3.1  测试算法:使用决策树执行分类 49   3.3.2  使用算法:决策树的存储 50   3.4  示例:使用决策树预测隐形眼镜类型 50   3.5  本章小结 52   第4章 基于概率论的分类方法:朴素贝叶斯  53   4.1  基于贝叶斯决策理论的分类方法 53   4.2  条件概率 55   4.3  使用条件概率来分类 56   4.4  使用朴素贝叶斯进行文档分类 57   4.5  使用Python进行文本分类 58   4.5.1  准备数据:从文本中构建词向量 58   4.5.2  训练算法:从词向量计算概率 60   4.5.3  测试算法:根据现实情况修改分类器 62   4.5.4  准备数据:文档词袋模型 64   4.6  示例:使用朴素贝叶斯过滤垃圾邮件 64   4.6.1  准备数据:切分文本 65   4.6.2  测试算法:使用朴素贝叶斯进行交叉验证 66   4.7  示例:使用朴素贝叶斯分类器从个人广告中获取区域倾向 68   4.7.1  收集数据:导入RSS源 68   4.7.2  分析数据:显示地域相关的用词 71   4.8  本章小结 72   第5章 Logistic回归  73   5.1  基于Logistic回归和Sigmoid函数的分类 74   5.2  基于最优化方法的最佳回归系数确定 75   5.2.1  梯度上升法 75   5.2.2  训练算法:使用梯度上升找到最佳参数 77   5.2.3  分析数据:画出决策边界 79   5.2.4  训练算法:随机梯度上升 80   5.3  示例:从疝气病症预测病马的死亡率 85   5.3.1  准备数据:处理数据中的缺失值 85   5.3.2  测试算法:用Logistic回归进行分类 86   5.4  本章小结 88   第6章 支持向量机 89   6.1  基于最大间隔分隔数据 89   6.2  寻找最大间隔 91   6.2.1  分类器求解的优化问题 92   6.2.2  SVM应用的一般框架 93   6.3  SMO高效优化算法 94   6.3.1  Platt的SMO算法 94   6.3.2  应用简化版SMO算法处理小规模数据集 94   6.4  利用完整Platt SMO算法加速优化 99   6.5  在复杂数据上应用核函数 105   6.5.1  利用核函数将数据映射到高维空间 106   6.5.2  径向基核函数 106   6.5.3  在测试中使用核函数 108   6.6  示例:手写识别问题回顾 111   6.7  本章小结 113   第7章 利用AdaBoost元算法提高分类   性能  115   7.1  基于数据集多重抽样的分类器 115   7.1.1  bagging:基于数据随机重抽样的分类器构建方法 116   7.1.2  boosting 116   7.2  训练算法:基于错误提升分类器的性能 117   7.3  基于单层决策树构建弱分类器 118   7.4  完整AdaBoost算法的实现 122   7.5  测试算法:基于AdaBoost的分类 124   7.6  示例:在一个难数据集上应用AdaBoost 125   7.7  非均衡分类问题 127   7.7.1  其他分类性能度量指标:正确率、召回率及ROC曲线 128   7.7.2  基于代价函数的分类器决策控制 131   7.7.3  处理非均衡问题的数据抽样方法 132   7.8  本章小结 132   第二部分 利用回归预测数值型数据   第8章 预测数值型数据:回归  136   8.1  用线性回归找到最佳拟合直线 136   8.2  局部加权线性回归 141   8.3  示例:预测鲍鱼的年龄 145   8.4  缩减系数来“理解”数据 146   8.4.1  岭回归 146   8.4.2  lasso 148   8.4.3  前向逐步回归 149   8.5  权衡偏差与方差 152   8.6  示例:预测乐高玩具套装的价格 153   8.6.1  收集数据:使用Google购物的API 153   8.6.2  训练算法:建立模型 155   8.7  本章小结 158   第9章 树回归 159   9.1  复杂数据的局部性建模 159   9.2  连续和离散型特征的树的构建 160   9.3  将CART算法用于回归 163   9.3.1  构建树 163   9.3.2  运行代码 165   9.4  树剪枝 167   9.4.1  预剪枝 167   9.4.2  后剪枝 168   9.5  模型树 170   9.6  示例:树回归与标准回归的比较 173   9.7  使用Python的Tkinter库创建GUI 176   9.7.1  用Tkinter创建GUI 177   9.7.2  集成Matplotlib和Tkinter 179   9.8  本章小结 182   第三部分 无监督学习   第10章 利用K-均值聚类算法对未标注数据分组 184   10.1  K-均值聚类算法 185   10.2  使用后处理来提高聚类性能 189   10.3  二分K-均值算法 190   10.4  示例:对地图上的点进行聚类 193   10.4.1  Yahoo! PlaceFinder API 194   10.4.2  对地理坐标进行聚类 196   10.5  本章小结 198   第11章 使用Apriori算法进行关联分析 200   11.1  关联分析 201   11.2  Apriori原理 202   11.3  使用Apriori算法来发现频繁集 204   11.3.1  生成候选项集 204   11.3.2  组织完整的Apriori算法 207   11.4  从频繁项集中挖掘关联规则 209   11.5  示例:发现国会投票中的模式 212   11.5.1  收集数据:构建美国国会投票记录的事务数据集 213   11.5.2  测试算法:基于美国国会投票记录挖掘关联规则 219   11.6  示例:发现毒蘑菇的相似特征 220   11.7  本章小结 221   第12章 使用FP-growth算法来高效发现频繁项集 223   12.1  FP树:用于编码数据集的有效方式 224   12.2  构建FP树 225   12.2.1  创建FP树的数据结构 226   12.2.2  构建FP树 227   12.3  从一棵FP树中挖掘频繁项集 231   12.3.1  抽取条件模式基 231   12.3.2  创建条件FP树 232   12.4  示例:在Twitter源中发现一些共现词 235   12.5  示例:从新闻网站点击流中挖掘 238   12.6  本章小结 239   第四部分 其他工具   第13章 利用PCA来简化数据 242   13.1  降维技术 242   13.2  PCA 243   13.2.1  移动坐标轴 243   13.2.2  在NumPy中实现PCA 246   13.3  示例:利用PCA对半导体制造数据降维 248   13.4  本章小结 251   第14章 利用SVD简化数据 252   14.1  SVD的应用 252   14.1.1  隐性语义索引 253   14.1.2  推荐系统 253   14.2  矩阵分解 254   14.3  利用Python实现SVD 255   14.4  基于协同过滤的推荐引擎 257   14.4.1  相似度计算 257   14.4.2  基于物品的相似度还是基于用户的相似度? 260   14.4.3  推荐引擎的评价 260   14.5  示例:餐馆菜肴推荐引擎 260   14.5.1  推荐未尝过的菜肴 261   14.5.2  利用SVD提高推荐的效果 263   14.5.3  构建推荐引擎面临的挑战 265   14.6  基于SVD的图像压缩 266   14.7  本章小结 268   第15章 大数据与MapReduce 270   15.1  MapReduce:分布式计算的框架 271   15.2  Hadoop流 273   15.2.1  分布式计算均值和方差的mapper 273   15.2.2  分布式计算均值和方差的reducer 274   15.3  在Amazon网络服务上运行Hadoop程序 275   15.3.1  AWS上的可用服务 276   15.3.2  开启Amazon网络服务之旅 276   15.3.3  在EMR上运行Hadoop作业 278   15.4  MapReduce上的机器学习 282   15.5  在Python中使用mrjob来自动化MapReduce 283   15.5.1  mrjob与EMR的无缝集成 283   15.5.2  mrjob的一个MapReduce脚本剖析 284   15.6  示例:分布式SVM的Pegasos算法 286   15.6.1  Pegasos算法 287   15.6.2  训练算法:用mrjob实现MapReduce版本的SVM 288   15.7  你真的需要MapReduce吗? 292   15.8  本章小结 292   附录A  Python入门 294   附录B  线性代数 303   附录C  概率论复习 309   附录D  资源 312   索引 313   版权声明 316 5   1.2  关键术语 5   1.3  机器学习的主要任务 7   1.4  如何选择合适的算法 8   1.5  开发机器学习应用程序的步骤 9   1.6  Python语言的优势 10   1.6.1  可执行伪代码 10   1.6.2  Python比较流行 10   1.6.3  Python语言的特色 11   1.6.4  Python语言的缺点 11   1.7  NumPy函数库基础 12   1.8  本章小结 13   第2章 k-近邻算法  15   2.1  k-近邻算法概述 15   2.1.1  准备:使用Python导入数据 17   2.1.2  从文本文件中解析数据 19   2.1.3  如何测试分类器 20   2.2  示例:使用k-近邻算法改进约会网站的配对效果 20   2.2.1  准备数据:从文本文件中解析数据 21   2.2.2  分析数据:使用Matplotlib创建散点图 23   2.2.3  准备数据:归一化数值 25   2.2.4  测试算法:作为完整程序验证分类器 26   2.2.5  使用算法:构建完整可用系统 27   2.3  示例:手写识别系统 28   2.3.1  准备数据:将图像转换为测试向量 29   2.3.2  测试算法:使用k-近邻算法识别手写数字 30   2.4  本章小结 31   第3章 决策树  32   3.1  决策树的构造 33   3.1.1  信息增益 35   3.1.2  划分数据集 37   3.1.3  递归构建决策树 39   3.2  在Python中使用Matplotlib注解绘制树形图 42   3.2.1  Matplotlib注解 43   3.2.2  构造注解树 44   3.3  测试和存储分类器 48   3.3.1  测试算法:使用决策树执行分类 49   3.3.2  使用算法:决策树的存储 50   3.4  示例:使用决策树预测隐形眼镜类型 50   3.5  本章小结 52   第4章 基于概率论的分类方法:朴素贝叶斯  53   4.1  基于贝叶斯决策理论的分类方法 53   4.2  条件概率 55   4.3  使用条件概率来分类 56   4.4  使用朴素贝叶斯进行文档分类 57   4.5  使用Python进行文本分类 58   4.5.1  准备数据:从文本中构建词向量 58   4.5.2  训练算法:从词向量计算概率 60   4.5.3  测试算法:根据现实情况修改分类器 62   4.5.4  准备数据:文档词袋模型 64   4.6  示例:使用朴素贝叶斯过滤垃圾邮件 64   4.6.1  准备数据:切分文本 65   4.6.2  测试算法:使用朴素贝叶斯进行交叉验证 66   4.7  示例:使用朴素贝叶斯分类器从个人广告中获取区域倾向 68   4.7.1  收集数据:导入RSS源 68   4.7.2  分析数据:显示地域相关的用词 71   4.8  本章小结 72   第5章 Logistic回归  73   5.1  基于Logistic回归和Sigmoid函数的分类 74   5.2  基于最优化方法的最佳回归系数确定 75   5.2.1  梯度上升法 75   5.2.2  训练算法:使用梯度上升找到最佳参数 77   5.2.3  分析数据:画出决策边界 79   5.2.4  训练算法:随机梯度上升 80   5.3  示例:从疝气病症预测病马的死亡率 85   5.3.1  准备数据:处理数据中的缺失值 85   5.3.2  测试算法:用Logistic回归进行分类 86   5.4  本章小结 88   第6章 支持向量机 89   6.1  基于最大间隔分隔数据 89   6.2  寻找最大间隔 91   6.2.1  分类器求解的优化问题 92   6.2.2  SVM应用的一般框架 93   6.3  SMO高效优化算法 94   6.3.1  Platt的SMO算法 94   6.3.2  应用简化版SMO算法处理小规模数据集 94   6.4  利用完整Platt SMO算法加速优化 99   6.5  在复杂数据上应用核函数 105   6.5.1  利用核函数将数据映射到高维空间 106   6.5.2  径向基核函数 106   6.5.3  在测试中使用核函数 108   6.6  示例:手写识别问题回顾 111   6.7  本章小结 113   第7章 利用AdaBoost元算法提高分类   性能  115   7.1  基于数据集多重抽样的分类器 115   7.1.1  bagging:基于数据随机重抽样的分类器构建方法 116   7.1.2  boosting 116   7.2  训练算法:基于错误提升分类器的性能 117   7.3  基于单层决策树构建弱分类器 118   7.4  完整AdaBoost算法的实现 122   7.5  测试算法:基于AdaBoost的分类 124   7.6  示例:在一个难数据集上应用AdaBoost 125   7.7  非均衡分类问题 127   7.7.1  其他分类性能度量指标:正确率、召回率及ROC曲线 128   7.7.2  基于代价函数的分类器决策控制 131   7.7.3  处理非均衡问题的数据抽样方法 132   7.8  本章小结 132   第二部分 利用回归预测数值型数据   第8章 预测数值型数据:回归  136   8.1  用线性回归找到最佳拟合直线 136   8.2  局部加权线性回归 141   8.3  示例:预测鲍鱼的年龄 145   8.4  缩减系数来“理解”数据 146   8.4.1  岭回归 146   8.4.2  lasso 148   8.4.3  前向逐步回归 149   8.5  权衡偏差与方差 152   8.6  示例:预测乐高玩具套装的价格 153   8.6.1  收集数据:使用Google购物的API 153   8.6.2  训练算法:建立模型 155   8.7  本章小结 158   第9章 树回归 159   9.1  复杂数据的局部性建模 159   9.2  连续和离散型特征的树的构建 160   9.3  将CART算法用于回归 163   9.3.1  构建树 163   9.3.2  运行代码 165   9.4  树剪枝 167   9.4.1  预剪枝 167   9.4.2  后剪枝 168   9.5  模型树 170   9.6  示例:树回归与标准回归的比较 173   9.7  使用Python的Tkinter库创建GUI 176   9.7.1  用Tkinter创建GUI 177   9.7.2  集成Matplotlib和Tkinter 179   9.8  本章小结 182   第三部分 无监督学习   第10章 利用K-均值聚类算法对未标注数据分组 184   10.1  K-均值聚类算法 185   10.2  使用后处理来提高聚类性能 189   10.3  二分K-均值算法 190   10.4  示例:对地图上的点进行聚类 193   10.4.1  Yahoo! PlaceFinder API 194   10.4.2  对地理坐标进行聚类 196   10.5  本章小结 198   第11章 使用Apriori算法进行关联分析 200   11.1  关联分析 201   11.2  Apriori原理 202   11.3  使用Apriori算法来发现频繁集 204   11.3.1  生成候选项集 204   11.3.2  组织完整的Apriori算法 207   11.4  从频繁项集中挖掘关联规则 209   11.5  示例:发现国会投票中的模式 212   11.5.1  收集数据:构建美国国会投票记录的事务数据集 213   11.5.2  测试算法:基于美国国会投票记录挖掘关联规则 219   11.6  示例:发现毒蘑菇的相似特征 220   11.7  本章小结 221   第12章 使用FP-growth算法来高效发现频繁项集 223   12.1  FP树:用于编码数据集的有效方式 224   12.2  构建FP树 225   12.2.1  创建FP树的数据结构 226   12.2.2  构建FP树 227   12.3  从一棵FP树中挖掘频繁项集 231   12.3.1  抽取条件模式基 231   12.3.2  创建条件FP树 232   12.4  示例:在Twitter源中发现一些共现词 235   12.5  示例:从新闻网站点击流中挖掘 238   12.6  本章小结 239   第四部分 其他工具   第13章 利用PCA来简化数据 242   13.1  降维技术 242   13.2  PCA 243   13.2.1  移动坐标轴 243   13.2.2  在NumPy中实现PCA 246   13.3  示例:利用PCA对半导体制造数据降维 248   13.4  本章小结 251   第14章 利用SVD简化数据 252   14.1  SVD的应用 252   14.1.1  隐性语义索引 253   14.1.2  推荐系统 253   14.2  矩阵分解 254   14.3  利用Python实现SVD 255   14.4  基于协同过滤的推荐引擎 257   14.4.1  相似度计算 257   14.4.2  基于物品的相似度还是基于用户的相似度? 260   14.4.3  推荐引擎的评价 260   14.5  示例:餐馆菜肴推荐引擎 260   14.5.1  推荐未尝过的菜肴 261   14.5.2  利用SVD提高推荐的效果 263   14.5.3  构建推荐引擎面临的挑战 265   14.6  基于SVD的图像压缩 266   14.7  本章小结 268   第15章 大数据与MapReduce 270   15.1  MapReduce:分布式计算的框架 271   15.2  Hadoop流 273   15.2.1  分布式计算均值和方差的mapper 273   15.2.2  分布式计算均值和方差的reducer 274   15.3  在Amazon网络服务上运行Hadoop程序 275   15.3.1  AWS上的可用服务 276   15.3.2  开启Amazon网络服务之旅 276   15.3.3  在EMR上运行Hadoop作业 278   15.4  MapReduce上的机器学习 282   15.5  在Python中使用mrjob来自动化MapReduce 283   15.5.1  mrjob与EMR的无缝集成 283   15.5.2  mrjob的一个MapReduce脚本剖析 284   15.6  示例:分布式SVM的Pegasos算法 286   15.6.1  Pegasos算法 287   15.6.2  训练算法:用mrjob实现MapReduce版本的SVM 288   15.7  你真的需要MapReduce吗? 292   15.8  本章小结 292   附录A  Python入门 294   附录B  线性代数 303   附录C  概率论复习 309   附录D  资源 312   索引 313   版权声明 316
RAR
13.03MB
2018-12-28 00:20
暂无更多数据