|
| 1 | +--- |
| 2 | +layout: post |
| 3 | +title: "Python3 机器学习简明教程" |
| 4 | +author: iosdevlog |
| 5 | +date: 2019-01-08 19:40:48 +0800 |
| 6 | +description: "" |
| 7 | +category: |
| 8 | +tags: [] |
| 9 | +--- |
| 10 | + |
| 11 | + |
| 12 | + |
| 13 | + |
| 14 | +1 机器学习介绍 |
| 15 | +    1.1 什么是机器学习 |
| 16 | +    1.2 机器学习的应用 |
| 17 | +    1.3 机器学习基本流程与工作环节 |
| 18 | +        1.3.1 数据采集与标记 |
| 19 | +        1.3.2 数据清洗 |
| 20 | +        1.3.3 特征选择 |
| 21 | +        1.3.4 模型选择 |
| 22 | +        1.3.5 训练和测试 |
| 23 | +        1.3.6 模型使用 |
| 24 | +    1.4 机器学习算法一览 |
| 25 | +2 Python 3 机器学习软件包 |
| 26 | +    2.1 多种机器学习编程语言比较 |
| 27 | +    2.2 开发环境 Anaconda 搭建 |
| 28 | +        2.2.1 Windows |
| 29 | +        2.2.2 macOS |
| 30 | +        2.2.3 Linux |
| 31 | +    2.3 Jupyter Notebook 介绍 |
| 32 | +    2.4 Spyder 介绍 |
| 33 | +    2.5 Numpy 介绍 |
| 34 | +        2.5.1 Numpy 数组 |
| 35 | +        2.5.2 Numpy 运算 |
| 36 | +        2.5.3 Numpy Cheat Sheet |
| 37 | +    2.6 Pandas 介绍 |
| 38 | +        2.6.1 十分钟入门 pandas |
| 39 | +        2.6.2 Pandas Cheat Sheet |
| 40 | +    2.7 Matplotilb 介绍 |
| 41 | +        2.7.1 Pyplot 教程 |
| 42 | +        2.7.2 plots 示例 |
| 43 | +        2.7.3 Matplotilb Cheat Sheet |
| 44 | +    2.8 scikit-learn 介绍 |
| 45 | +        2.8.1 scikit-learn 教程 |
| 46 | +        2.8.2 scikit-learn 接口 |
| 47 | +        2.8.3 scikit-learn Cheat Sheet |
| 48 | +    2.9 数据预处理 |
| 49 | +        2.9.1 导入数据集 |
| 50 | +        2.9.2 缺失数据 |
| 51 | +        2.9.3 分类数据 |
| 52 | +        2.9.4 数据划分 |
| 53 | +        2.9.5 特征缩放 |
| 54 | +        2.9.6 数据预处理模板 |
| 55 | +3 回归 |
| 56 | +    3.1 简单线性回归 |
| 57 | +        3.1.1 算法原理 |
| 58 | +        3.1.2 预测函数 |
| 59 | +        3.1.3 成本函数 |
| 60 | +        3.1.4 回归模板 |
| 61 | +    3.2 多元线性回归 |
| 62 | +    3.3 多项式回归 |
| 63 | +        3.3.1 案例:预测员工薪水 |
| 64 | +    3.4 正则化 |
| 65 | +        3.4.1 岭回归 |
| 66 | +        3.4.2 Lasso 回归 |
| 67 | +    3.5 评估回归模型的表现 |
| 68 | +        3.5.1 R平方 |
| 69 | +        3.5.2 广义R平方 |
| 70 | +        3.5.3 回归模型性能评价及选择 |
| 71 | +        3.5.4 回归模型系数的含义 |
| 72 | +4 分类 |
| 73 | +    4.1 逻辑回归 |
| 74 | +        4.1.1 算法原理 |
| 75 | +        4.1.2 多元分类 |
| 76 | +        4.1.3 分类代码模板 |
| 77 | +        4.1.4 分类模板 |
| 78 | +    4.2 k-近邻 |
| 79 | +        4.2.1 算法原理 |
| 80 | +        4.2.2 变种 |
| 81 | +    4.3 支持向量机 |
| 82 | +        4.3.1 算法原理 |
| 83 | +        4.3.2 二分类线性可分 |
| 84 | +        4.3.3 二分类线性不可分支持 |
| 85 | +        4.3.4 多分类支持向量机 |
| 86 | +        4.3.5 Kernel SVM - 原理 |
| 87 | +        4.3.6 高维投射 |
| 88 | +        4.3.7 核技巧 |
| 89 | +        4.3.8 核函数的类型 |
| 90 | +    4.4 决策树 |
| 91 | +        4.4.1 算法原理 |
| 92 | +        4.4.2 剪枝与控制过拟合 |
| 93 | +        4.4.3 信息增益 |
| 94 | +        4.4.4 最大熵与EM算法 |
| 95 | +5 聚类 |
| 96 | +    5.1 扁平聚类 |
| 97 | +        5.1.1 k 均值 |
| 98 | +        5.1.2 k-medoids |
| 99 | +    5.2 层次聚类 |
| 100 | +        5.2.1 Single-Linkage |
| 101 | +        5.2.2 Complete-Linkage |
| 102 | +6 关联规则 |
| 103 | +    6.1 关联规则学习 |
| 104 | +    6.2 先验算法Apriori |
| 105 | +    6.3 FP Growth |
| 106 | +7 降维 |
| 107 | +    7.1 PCA(主成分分析) |
| 108 | +    7.2 核 PCA |
| 109 | +    7.3 等距特征映射IsoMap |
| 110 | +8 强化学习 |
| 111 | +    8.1 置信区间上界算法 |
| 112 | +        8.1.1 多臂老虎机问题 |
| 113 | +        8.1.2 置信区间上界算法原理 |
| 114 | +    8.2 Thompson 抽样算法 |
| 115 | +        8.2.1 抽样算法 - 原理 |
| 116 | +        8.2.2 抽样算法 vs. 置信区间上界算法 |
| 117 | +9 集成学习 |
| 118 | +    9.1 Stacking |
| 119 | +    9.2 Bagging |
| 120 | +        9.2.1 随机森林 |
| 121 | +    9.3 Boosting |
| 122 | +        9.3.1 XBoost |
| 123 | +        9.3.2 LightGBM |
| 124 | +        9.3.3 CatBoost |
| 125 | +        9.3.4 AdaBoost |
| 126 | +10 深度学习 |
| 127 | +    10.1 什么是深度学习? |
| 128 | +    10.2 人工神经网络ANN |
| 129 | +        10.2.1 神经元 |
| 130 | +        10.2.2 激活函数 |
| 131 | +        10.2.3 神经网络如何运作? |
| 132 | +        10.2.4 神经网络如何训练? |
| 133 | +        10.2.5 梯度下降 |
| 134 | +        10.2.6 随机梯度下降 |
| 135 | +        10.2.7 反向传播 |
| 136 | +        10.2.8 商业案例介绍 |
| 137 | +    10.3 卷积神经网络CNN |
| 138 | +        10.3.1 卷积神经网络是什么? |
| 139 | +        10.3.2 卷积 |
| 140 | +        10.3.3 线性整流层 ReLU Layer |
| 141 | +        10.3.4 最大池化 |
| 142 | +        10.3.5 扁平化 |
| 143 | +        10.3.6 全连接 |
| 144 | +        10.3.7 商业案例介绍 |
| 145 | +11 概率模型 |
| 146 | +    11.1 贝叶斯网络 |
| 147 | +        11.1.1 朴素贝叶斯 |
| 148 | +        11.1.2 贝叶斯网络与有向分离 |
| 149 | +        11.1.3 马尔科夫模型 |
| 150 | +        11.1.4 实战案例 |
| 151 | +    11.2 隐马科夫链模型HMM |
| 152 | +        11.2.1 隐马科夫链 |
| 153 | +        11.2.2 隐马科夫链解法 |
| 154 | +        11.2.3 隐马科夫链应用 |
| 155 | +    11.3 主题模型 |
| 156 | +        11.3.1 主题模型理论 |
| 157 | +        11.3.2 主题模型算法 |
| 158 | +        11.3.3 实战案例 |
| 159 | +12 模型选择和提升 |
| 160 | +    12.1 交叉验证 |
| 161 | +    12.2 网格搜索 |
| 162 | +13 项目实战 |
| 163 | +    13.1 自然语言处理 |
| 164 | +        13.1.1 自然语言处理简介 |
| 165 | +        13.1.2 NLTK |
| 166 | +        13.1.3 正则表达式 |
| 167 | +        13.1.4 文本清理 |
| 168 | +        13.1.5 标识化处理 |
| 169 | +        13.1.6 词干提取 |
| 170 | +        13.1.7 文本分类 |
| 171 | +        13.1.8 取样操作 |
| 172 | +        13.1.9 词袋 |
| 173 | +        13.1.10 实战案例:饭店评论 |
| 174 | +    13.2 移动 App |
| 175 | +        13.2.1 Tensorflow Lite |
| 176 | +        13.2.2 Core ML |
| 177 | +        13.2.3 图片风格迁移 |
| 178 | +        13.2.4 手写数字识别 |
| 179 | +    13.3 Kaggle项目 |
| 180 | +        13.3.1 波士顿房价 |
| 181 | +        13.3.2 泰坦尼克 |
| 182 | +        13.3.3 车价预测 |
| 183 | +        13.3.4 Facebook招聘 |
| 184 | + |
| 185 | +2019-01-07 |
| 186 | + |
0 commit comments