9万
28万
管理员
网易云课堂《菜菜的机器学习sklearn课堂》 目录连载 章节1:决策树与泰坦尼克号生存预测 课时1第一章课件+数据 课时21. 引言,sklearn入门07:54 课时32. 决策树:概述08:52 课时43.1 分类树:参数Criterion07:11 课时53.2 分类树:实现一棵树,随机性参数27:11 课时63.3 分类树:剪枝参数调优(1)12:08 课时73.4 分类树:剪枝参数调优(2)07:36 课时83.5 分类树:重要属性和接口15:37 课时94.1 回归树:参数,属性和接口.mp408:44 课时104.2 回归树:交叉验证 (1)06:26 课时114.3 回归树:交叉验证(2)04:07 课时124.4 回归树案例:用回归树拟合正弦曲线29:13 课时135.1 案例:泰坦尼克号生存者预测 (1)34:41 课时145.2 案例:泰坦尼克号生存者预测 (2)10:04 课时155.3 案例:泰坦尼克号生存者预测 (3)16:12 课时165.4 案例:泰坦尼克号生存者预测 (4)03:14 章节2:随机森林与医疗数据集调参 课时17第二章课件+数据 课时181 集成算法概述12:26 课时192.1 随机森林分类器37:53 课时202.2 参数boostrap & oob_score + 重要属性和接口32:03 课时212.3 [选学] 袋装法的另一个必要条件05:30 课时223.1 随机森林回归器10:13 课时233.2 案例:用随机森林填补缺失值 (1)25:20 课时243.3 案例:用随机森林填补缺失值 (2)14:28 课时253.4 案例:用随机森林填补缺失值 (3)29:57 课时263.5 案例:用随机森林填补缺失值 (4)09:01 课时274. 机器学习中调参的基本思想17:29 课时285.1. 案例:随机森林在乳腺癌数据上的调参 (1)16:42 课时295.2 案例:随机森林在乳腺癌数据上的调参 (2)24:02 章节3:数据预处理与特征工程 课时30第三章课件+数据 课时310 概述 + 12期课纲15:42 课时321.1 数据预处理1:数据归一化17:31 课时331.2 数据预处理2:数据标准化08:44 课时341.3 数据预处理3:缺失值 (1)07:51 课时351.4 数据预处理4:缺失值 (2)14:58 课时361.5 数据预处理5:处理分类型数据34:47 课时371.6 数据预处理6:处理连续型数据17:30 课时382.1 特征选择1:过滤法-方差过滤 (1)14:40 课时392.2 特征选择2:过滤法-方差过滤 (2)28:12 课时402.3 特征选择3:过滤法-卡方过滤18:37 课时412.4 特征选择4:过滤法-F检验和互信息法 (1)09:31 课时422.5 特征选择5:过滤法-互信息法(2) + 总结03:24 课时432.6 特征选择6:嵌入法 (1)07:15 课时442.7 特征选择7:嵌入法 (2)20:50 课时452.8 特征选择8:包装法 + 总结18:01 章节4:降维算法PCA与手写数字案例 课时46第四章课件+数据 课时471 降维算法概述13:08 课时482.1 降维究竟怎样实现?23:07 课时492.2 参数 + 案例:高维数据的可视化 (1)33:42 课时502.2 参数 + 案例:高维数据的可视化 (2)04:32 课时512.3 参数 + 案例:人脸识别中的components_应用.mp441:45 课时522.3 PCA中的SVD,重要参数svd_solver23:31 课时532.4 重要接口 + 案例1:用人脸识别看PCA降维后的信息保存量15:59 课时542.4 重要接口 + 案例2:用PCA实现手写数字的噪音过滤15:05 课时552.5 原理,流程,重要属性接口和参数的总结05:51 课时563.1 案例:PCA实现784个特征的手写数字的降维 (1)24:45 课时573.2 案例:PCA实现784个特征的手写数字的降维 (2)08:11 章节5:逻辑回归和信用评分卡 课时58第五章课件+数据 课时590 前言03:25 课时601.1 逻辑回归概述:名为“回归”的分类器14:54 课时611.2 为什么需要逻辑回归08:37 课时621.3 sklearn当中的逻辑回归05:01 课时632.1.1 二元逻辑回归的损失函数09:22 课时642.2.1 正则化:重要参数penalty & C28:46 课时652.2.2 逻辑回归的特征工程 (1)08:15 课时662.2.2 逻辑回归的特征工程 (2)06:15 课时672.2.2 逻辑回归的特征工程 (3)15:53 课时682.2.2 逻辑回归的特征工程 (4)04:18 课时692.3.1 重要参数max_iter - 梯度下降求解逻辑回归的过程06:49 课时702.3.2 梯度的概念与解惑11:01 课时712.3.3 步长的概念与解惑18:52 课时722.4 二元回归与多元回归:重要参数solver & multi_class12:26 课时732.5 样本不均衡与参数class_weight05:19 课时743.1 案例:评分卡与完整的模型开发流程06:36 课时753.2.1~2 案例:评分卡 - 数据预处理(1) - 重复值与缺失值26:42 课时763.2.3 案例:评分卡 - 数据预处理 (2) - 异常值14:44 课时773.2.4 案例:评分卡 - 数据预处理 (3) - 标准化03:21 课时783.2.5 案例:评分卡 - 数据预处理 (4) - 样本不均衡问题07:43 课时793.2.6 案例:评分卡 - 数据预处理 (5) - 保存训练集和测试集数据05:08 课时803.3 案例:评分卡 - 分箱 (1) - 概述与概念10:47 课时813.3.1 案例:评分卡 - 分箱 (2) - 等频分箱 (1)06:58 课时823.3.1 案例:评分卡 - 分箱 (3) - 等频分箱 (2)09:31 课时833.3.2 案例:评分卡 - 分箱 (4) - 选学说明02:06 课时843.3.3 案例:评分卡 - 分箱 (5) - 计算WOE与IV06:09 课时853.3.4 案例:评分卡 - 分箱 (6) - 卡方检验、箱体合并、IV值等22:32 课时863.3.5 案例:评分卡 - 分箱 (7) - 包装分箱函数04:44 课时873.3.6 案例:评分卡 - 分箱 (8) - 包装判断分箱个数的函数06:09 课时883.3.7 案例:评分卡 - 分箱 (9) - 对所有特征进行分箱07:15 课时893.4 案例:评分卡 - 映射数据 (1)06:44 课时903.4 案例:评分卡 - 映射数据 (2)08:02 课时913.5 案例:评分卡 - 建模与模型验证11:41 课时923.6 案例:评分卡 - 评分卡的输出和建立16:59 章节6:聚类算法与量化案例 课时93第六章课件+数据 课时940 概述01:32 课时951.1 无监督学习概述,聚类vs分类09:34 课时961.2 sklearn当中的聚类算法04:18 课时972.1 Kmeans是如何工作的?11:39 课时982.2 & 2.3 簇内平方和,时间复杂度16:48 课时993.1.1 KMeans - 重要参数n_clusters26:30 课时1003.1.2 聚类算法的模型评估指标 (1)12:58 课时1013.1.2 聚类算法的模型评估指标 (2) - 轮廓系数05:50 课时1023.1.2 聚类算法的模型评估指标 (3) - CHI09:44 课时1033.1.3 案例:轮廓系数找最佳n_clusters (1)10:02 课时1043.1.3 案例:轮廓系数找最佳n_clusters (2)10:59 课时1053.1.3 案例:轮廓系数找最佳n_clusters (3)23:18 课时1063.2 重要参数init & random_state & n_init:初始质心怎么决定?08:24 课时1073.3 重要参数max_iter & tol:如何让聚类停下来?04:09 课时1083.5 重要属性与接口 & 函数k_means06:22 课时1094 案例:Kmeans做矢量量化 (1):案例背景03:59 课时1104 案例:Kmeans做矢量量化 (2)18:00 课时1114 案例:Kmeans做矢量量化 (3)06:52 课时1124 案例:Kmeans做矢量量化 (4)14:26 章节7:支持向量机与医疗数据集调参(上) 课时113第七章课件+数据 课时1140 本周要学习什么01:52 课时1151.1 支持向量机概述:最强大的机器学习算法09:35 课时1161.2 支持向量机是如何工作的 & sklearn中的SVM15:09 课时1172.1.1 线性SVC的损失函数 (1)18:03 课时1182.1.1 线性SVC的损失函数 (2)10:22 课时1192.1.2 函数间隔与几何间隔04:41 课时1202.1.3.1 损失函数的拉格朗日乘数形态14:52 课时1212.1.3.2 拉格朗日对偶函数 (1)13:28 课时1222.1.3.2 拉格朗日对偶函数 (2)08:07 课时1232.1.3.3 求解拉格朗日对偶函数极其后续过程03:49 课时1242.1.4 SVM求解可视化 (1):理解等高线函数contour11:44 课时1252.1.4 SVM求解可视化 (2):理解网格制作函数meshgrid与vstack07:53 课时1262.1.4 SVM求解可视化 (3):建模,绘制图像并包装函数12:11 课时1272.1.4 SVM求解可视化 (4):探索建立好的模型02:24 课时1282.1.4 SVM求解可视化(5):非线性数据集上的推广与3D可视化08:17 课时1292.1.4 SVM求解可视化(6):Jupyter Notebook中的3D交互功能03:08 课时1302.2.1 & 2.2.2 非线性SVM与核函数:重要参数kernel10:54 课时1312.2.3 案例:如何选取最佳核函数 (1)26:07 课时1322.2.3 案例:如何选取最佳核函数 (2)15:52 课时1332.2.4 案例:在乳腺癌数据集上探索核函数的性质33:08 课时1342.2.5 案例:在乳腺癌数据集上对核函数进行调参 (1)05:37 课时1352.2.5 案例:在乳腺癌数据集上对核函数进行调参 (2)12:00 课时1362.3.1 SVM在软间隔数据上的推广12:47 课时1372.3.2 重要参数C & 总结08:19 章节8:支持向量机与Kaggle案例:澳大利亚天气数据集 课时138支持向量机 (下) 课件 + 源码 + 数据 课时1390 目录:本周将学习什么内容02:33 课时1401.1 简单复习支持向量机的基本原理06:43 课时1411.2 参数C的深入理解:多个支持向量存在的理由12:30 课时1421.3 二分类SVC中的样本不均衡问题08:19 课时1431.3 如何使用参数class_weight (1)05:14 课时1441.3 如何使用参数class_weight (2)09:06 课时1452 SVC的模型评估指标03:29 课时1462.1 混淆矩阵与准确率05:42 课时1472.1 样本不平衡的艺术(1):精确度Precision07:27 课时1482.1 样本不平衡的艺术(2):召回率Recall与F1 measure07:07 课时1492.1.3 对多数类样本的关怀:特异度Specificity和假正率04:28 课时1502.1.4 sklearn中的混淆矩阵01:55 课时1512.2 ROC曲线:Recall与假正率FPR的平衡02:06 课时1522.2.1 概率与阈值18:01 课时1532.2.2 SVM做概率预测08:41 课时1542.2.3 绘制ROC曲线 (1)04:00 课时1552.2.3 绘制ROC曲线 (2)07:52 课时1562.2.3 绘制ROC曲线 (3)05:22 课时1572.2.4 sklearn中的ROC曲线和AUC面积10:11 课时1582.2.5 利用ROC曲线求解最佳阈值06:53 课时1593 选学说明:使用SVC时的其他考虑01:59 课时1604 案例:预测明天是否会下雨 - 案例背景03:52 课时1614.1 案例:导库导数据,探索特征13:22 课时1624.2 案例:分集,优先处理标签11:34 课时1634.3.1 案例:描述性统计,处理异常值10:10 课时1644.3.2 案例:现实数据上的数据预处理 - 处理时间35:43 课时1654.3.3 案例:现实数据上的数据预处理 - 处理地点 (1)03:42 课时1664.3.3 案例:现实数据上的数据预处理 - 处理地点 (2)10:43 课时1674.3.3 案例:现实数据上的数据预处理 - 处理地点 (3)11:15 课时1684.3.3 案例:现实数据上的数据预处理 - 处理地点 (4)10:12 课时1694.3.4 案例:现实数据上的数据预处理 - 填补分类型变量的缺失值12:07 课时1704.3.5 案例:现实数据上的数据预处理 - 编码分类型变量04:15 课时1714.3.6 & 4.3.7 案例:现实数据集上的数据预处理:连续型变量07:37 课时1724.4 案例:建模与模型评估 (1)04:49 课时1734.4 案例:建模与模型评估 (2)03:25 课时1744.5.1 案例:模型调参:追求最高的recall04:55 课时1754.5.2 案例:模型调参:追求最高的精确度 (1)12:07 课时1764.5.2 案例:模型调参:追求最高的精确度 (2)04:23 课时1774.5.3 案例:模型调参:追求精确度与recall的平衡14:56 课时1784.6 SVM总结与结语01:42 章节9:回归大家族:线性,岭回归,Lasso,多项式 课时179回归大家族:课件 + 代码 课时1800 本周要学习什么.mp403:51 课时1811 概述,sklearn中的线性回归大家族04:57 课时1822.1 多元线性回归的基本原理和损失函数11:02 课时1832.2 用最小二乘法求解多元线性回归的过程13:09 课时1842.3 多元线性回归的参数,属性及建模代码27:44 课时1853.1 回归类模型的评估指标:是否预测准确?15:32 课时1863.2 回归类模型的评估指标:是否拟合了足够的信息?29:29 课时1874.1 多重共线性:含义,数学,以及解决方案34:35 课时1884.2.1 岭回归处理多重共线性13:00 课时1894.2.2 sklearn中的岭回归:linear_model.Ridge21:40 课时1904.2.3 为岭回归选择最佳正则化参数23:46 课时1914.3.1 Lasso处理多重共线性11:40 课时1924.3.2 Lasso的核心作用:特征选择16:36 课时1934.3.3 Lasso选择最佳正则化参数27:30 课时1945.1.1 & 5.1.2 线性数据与非线性数据09:05 课时1955.1.3 线性vs非线性模型 (1):线性模型在非线性数据集上的表现16:34 课时1965.1.3 线性vs非线性模型 (2):拟合,效果与特点15:10 课时1975.2 离散化:帮助线性回归解决非线性问题30:39 课时1985.3.1 多项式对数据做了什么?26:27 课时1995.3.2 多项式回归提升模型表现11:08 课时2005.3.3 多项式回归的可解释性18:52 课时2015.3.4 多项式回归:线性还是非线性模型? + 本周结语09:41 章节10:朴素贝叶斯 课时202朴素贝叶斯课件 + 源码 课时2030 本周要讲解的内容01:44 课时2041.1 为什么需要朴素贝叶斯04:03 课时2051.2 概率论基础 - 贝叶斯理论等式06:01 课时2061.2.1 瓢虫冬眠:理解条件概率 (1)08:12 课时2071.2.1 瓢虫冬眠:理解条件概率 (2)09:10 课时2081.2.1 瓢虫冬眠:理解条件概率 (3)05:36 课时2091.2.2 贝叶斯的性质与最大后验估计06:36 课时2101.2.3 汉堡称重:连续型变量的概率估计 (1)04:02 课时2111.2.3 汉堡称重:连续型变量的概率估计 (2)08:53 课时2121.3 sklearn中的朴素贝叶斯02:34 课时2132.1.1 认识高斯朴素贝叶斯19:56 课时2142.1.2 高斯朴素贝叶斯擅长的数据集04:08 课时2152.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (1)02:29 课时2162.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (2) - 代码讲解 (1)21:42 课时2172.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (3) - 代码讲解 (2)03:20 课时2182.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (4) - 分析与结论12:47 课时2192.2.1 概率类模型的评估指标 (1) - 布里尔分数12:40 课时2202.2.1 概率类模型的评估指标 (2) - 布里尔分数可视化06:01 课时2212.2.2 概率类模型的评估指标 (3) - 对数损失Logloss13:12 课时2222.2.3 概率类模型的评估指标 (4) - 可靠性曲线 (1)08:11 课时2232.2.3 概率类模型的评估指标 (5) - 可靠性曲线 (2)27:04 课时2242.2.4 概率类模型的评估指标 (6) - 概率分布直方图10:33 课时2252.2.5 概率类模型的评估指标 (7) - 概率校准 (1)18:39 课时2262.2.5 概率类模型的评估指标 (8) - 概率校准 (2)03:07 课时2272.3.1 多项式朴素贝叶斯 (1) - 认识多项式朴素贝叶斯05:14 课时2282.3.1 多项式朴素贝叶斯 (2) - 数学原理05:50 课时2292.3.1 多项式朴素贝叶斯 (3) - sklearn中的类与参数04:28 课时2302.3.1 多项式朴素贝叶斯 (4) - 来构造一个分类器吧11:29 课时2312.3.2 伯努利朴素贝叶斯 (1) - 认识伯努利朴素贝叶斯02:47 课时2322.3.2 伯努利朴素贝叶斯 (2) - sklearn中的类与参数03:08 课时2332.3.2 伯努利朴素贝叶斯 (3) - 构造一个分类器03:21 课时2342.3.3 探索贝叶斯 - 朴素贝叶斯的样本不均衡问题13:42 课时2352.3.4 补集朴素贝叶斯 - 补集朴素贝叶斯的原理 (1)04:36 课时2362.3.4 补集朴素贝叶斯 - 补集朴素贝叶斯的原理 (2)05:29 课时2372.3.4 补集朴素贝叶斯 - 处理样本不均衡问题03:40 课时2383.1.1 案例:贝叶斯做文本分类 (1) - 单词计数向量技术07:49 课时2393.1.1 案例:贝叶斯做文本分类 (2) - 单词计数向量的问题04:35 课时2403.1.2 案例:贝叶斯做文本分类 (3) - TF-IDF技术06:55 课时2413.2 案例:贝叶斯做文本分类 (4) - 探索和提取文本数据15:29 课时2423.3 案例:贝叶斯做文本分类 (5) - 使用TF-IDF编码文本数据03:37 课时2433.4 案例:贝叶斯做文本分类 (6) - 算法应用与概率校准12:29 章节11:XGBoost 课时244XGBoost课件 + 代码 课时2450 本周要学习什么06:01 课时2461 XGBoost前瞻:安装xgboost,xgboost库与skleanAPI12:44 课时2472.1 梯度提升树(1):集成算法回顾,重要参数n_estimators13:14 课时2482.1 梯度提升树(2):参数n_estimators下的建模21:23 课时2492.1 梯度提升树(3):参数n_estimators的学习曲线13:37 课时2502.1 梯度提升树(4):基于方差-偏差困境改进的学习曲线12:38 课时2512.2 梯度提升树(5):控制有放回随机抽样,参数subsample15:17 课时2522.3 梯度提升树(6):迭代决策树:重要参数eta20:51 课时2532.3 梯度提升树(7):迭代决策树:重要参数eta03:37 课时2543.1 XGBoost的智慧 (1):选择弱评估器:重要参数booster04:40 课时2553.2 XGBoost的智慧 (2):XGBoost的目标函数,使用xgboost库建模28:01 课时2563.3 XGBoost的智慧 (3):求解XGBoost的目标函数 - 推导过程18:15 课时2573.3 XGBoost的智慧 (4):XGboost的目标函数 - 泰勒展开相关问题05:46 课时2583.4 XGBoost的智慧 (5):参数化决策树,正则化参数lambda与alpha16:09 课时2593.5 XGBoost的智慧 (6):建立目标函数与树结构的直接联系11:24 课时2603.5 XGBoost的智慧 (7):最优树结构,求解w和T20:32 课时2613.6 XGBoost的智慧 (8):贪婪算法求解最优树10:05 课时2623.7 XGBoost的智慧 (9):让树停止生长:参数gamma与工具xgb.cv34:11 课时2634.1 XGBoost应用 (1):减轻过拟合:XGBoost中的剪枝参数08:42 课时2644.1 XGBoost应用 (2):使用xgb.cv进行剪枝参数的调参35:15 课时2654.2 XGBoost应用 (3):使用pickle保存和调用训练好的XGB模型10:46 课时2664.2 XGBoost应用 (4):使用joblib保存和调用训练好的XGB模型07:39 课时2674.3 XGBoost应用 (5):XGB分类中的样本不平衡问题 - sklearnAPI12:18 课时2684.3 XGBoost应用 (6):XGB分类中的样本不平衡问题 - xgboost库15:48 课时2694.4 XGBoost应用 (7):XGB应用中的其他问题09:18 章节12:神经网络
使用道具 举报
本版积分规则 发表回复 回帖后跳转到最后一页
|Archiver|手机版|IT视频教程资源网
GMT+8, 2025-3-29 22:43 , Processed in 4.275692 second(s), 22 queries .
在线 客服
在线客服9:00-24:00
客服 热线
微信7*24小时微信 客服服务
扫码添 加微信
关注 公众号