CDA数据科学研究院
CDA考试中心
CDA网校
企业服务
CDA社区
CDA竞赛
CDA技术答疑
CDA俱乐部
CDA论坛
关于CDA
App下载
登录
注册
登录
注册
首页
课程中心
数据科学
人工智能
学术量化
全部课程
>>>上线日志
>>>课程分类
公开课
直播课
就业课试听
国外公开课
行业公开课
数据圈子
CDA数字化能力提升计划
CDA考试专区
CDA会员专区
CDAS峰会
SQL答疑专区
会员专区
会员中心
会员课程
线下面授
CDA数据分析脱产就业班(试听)
CDA LEVEL | 数据分析周末班(试听)
CDA LEVEL || 商业分析周末班(试听)
CDA LEVEL ||| 机器学习周末班(试听)
全部班级课
CDA认证
CDA介绍
CDA大纲
CDA题库
CDA教材
CDA专访
CDA考试专区
CDA备考攻略
登录
注册
全部课程
数据科学
新职位
数据科学家
数据分析师
业务数据分析师
大数据工程师
机器学习工程师
商业数据分析师
微专业
案例微课
人力资源
工具安装
Excel基础
SQL数据库
R语言
Python
Python爬虫
Python自动化
统计学
业务分析
数据思维
可视化
BI 商业智能
数据运营
用户画像
互联网运营
Linux
Hadoop
Hive
ETL工具
PySpark
数学基础
数据挖掘/机器学习
空间地理数据处理
数据治理
数字化转型
区块链
金融商业数据分析
数据要素
新职位
微专业
人工智能
微专业
深度学习基础
NLP自然语言处理
CV计算机视觉
SR语音识别
TensorFlow
PyTorch
微专业
学术量化
学术
Python
金融
Stata
SSCI/SCI
DSGE
SPSS
DID专题
内生性
社会网络分析
量化投资
量化
量化投资分析师
学术
量化
公开课
行业公开课
新零售行业
医疗行业
数据中台
金融行业
汽车行业
电商行业
自动驾驶
国外公开课
公开课
CDAS峰会视频
CDA大咖汇
CDA体验课
CDA直播课
CDA大课试听
行业公开课
公开课
认证考试
CDA认证
CDA 认证考试模拟题
CDA 持证人专访
CDA 会员活动
CDA认证
首页
课程中心
数据科学
人工智能
学术量化
全部课程
>>>上线日志
>>>课程分类
公开课
直播课
就业课试听
国外公开课
行业公开课
数据圈子
CDA数字化能力提升计划
CDA考试专区
CDA会员专区
CDAS峰会
SQL答疑专区
会员专区
会员中心
会员课程
线下面授
CDA数据分析脱产就业班(试听)
CDA LEVEL | 数据分析周末班(试听)
CDA LEVEL || 商业分析周末班(试听)
CDA LEVEL ||| 机器学习周末班(试听)
全部班级课
CDA认证
CDA介绍
CDA大纲
CDA题库
CDA教材
CDA专访
CDA考试专区
CDA备考攻略
菜菜的机器学习sklearn课堂
第149任务: 2.1.1 混淆矩阵与准确率
查看课程
任务列表
第1任务: 课程介绍
第2任务: 开始学习机器学习之前:配置环境
第3任务: 全部章节数据
第4任务: 决策树课件
第5任务: 1. 引言,sklearn入门
第6任务: 2. 决策树:概述
第7任务: 3. 分类树:参数Criterion
第8任务: 4. 分类树:实现一棵树,随机性参数
第9任务: 5. 分类树:剪枝参数调优(1)
第10任务: 5. 分类树:剪枝参数调优(2)
第11任务: 6. 分类树:重要属性和接口
第12任务: 7. 回归树:参数,属性和接口
第13任务: 7. 回归树:交叉验证 (1)
第14任务: 7. 回归树:交叉验证(2)
第15任务: 8. 回归树案例:用回归树拟合正弦曲线
第16任务: 9. 案例:泰坦尼克号生存者预测 (1)
第17任务: 9. 案例:泰坦尼克号生存者预测 (2)
第18任务: 9. 案例:泰坦尼克号生存者预测 (3)
第19任务: 9.案例:泰坦尼克号生存者预测 (4)
第20任务: 随机森林课件
第21任务: 2.0 集成算法概述
第22任务: 2.1 随机森林分类器 参数n_estimators与建立一片森林
第23任务: 2.2 参数boostrap & oob_score + 重要属性和接口
第24任务: 2.3 [选学] 袋装法的另一个必要条件
第25任务: 3.1 随机森林回归器
第26任务: 3.2 案例:用随机森林填补缺失值 (1)
第27任务: 3.3 案例:用随机森林填补缺失值 (2)
第28任务: 3.4 案例:用随机森林填补缺失值 (3)
第29任务: 3.5 案例:用随机森林填补缺失值 (4)
第30任务: 4. 机器学习中调参的基本思想
第31任务: 5. 案例:随机森林在乳腺癌数据上的调参 (1)
第32任务: 5. 案例:随机森林在乳腺癌数据上的调参 (2)
第33任务: 数据预处理与特征工程课件
第34任务: 概述 + 12期课纲
第35任务: 数据预处理1:无量纲化:数据归一化
第36任务: 数据预处理2:无量纲化:数据标准化
第37任务: 数据预处理3:缺失值 (1)
第38任务: 数据预处理4:缺失值 (2)
第39任务: 数据预处理5:处理分类型数据:编码与哑变量
第40任务: 数据预处理6:处理连续型数据:二值化和分箱
第41任务: 特征选择1:过滤法:方差过滤 (1)
第42任务: 特征选择2:过滤法:方差过滤 (2)
第43任务: 特征选择3:过滤法:卡方过滤
第44任务: 特征选择4:过滤法:F检验和互信息法 (1)
第45任务: 特征选择5:过滤法:互信息法(2) + 总结
第46任务: 特征选择6:嵌入法 (1)
第47任务: 特征选择7:嵌入法 (2)
第48任务: 特征选择8:包装法 + 总结
第49任务: 降维算法课件
第50任务: 1 概述
第51任务: 2.1 降维究竟怎样实现?
第52任务: 2.2 参数应用案例:高维数据的可视化 (1)
第53任务: 2.2 参数应用案例:高维数据的可视化 (2)
第54任务: 2.3 PCA中的SVD,重要参数svd_solver
第55任务: 2.3 属性应用案例:人脸识别中的components_应用
第56任务: 2.4 接口应用案例:用人脸识别看PCA降维后的信息保存量
第57任务: 2.4 接口应用案例:用PCA实现手写数字的噪音过滤
第58任务: 2.5 总结:原理,流程,重要属性接口和参数
第59任务: 3 案例:PCA实现784个特征的手写数字的降维 (1)
第60任务: 3 案例:PCA实现784个特征的手写数字的降维 (2)
第61任务: 逻辑回归课件
第62任务: 1.0 前言
第63任务: 1.1 逻辑回归概述:名为“回归”的分类器
第64任务: 1.2 为什么需要逻辑回归
第65任务: 1.3 sklearn当中的逻辑回归
第66任务: 2.1.1 二元逻辑回归的损失函数
第67任务: 2.2.1 正则化:重要参数penalty & C
第68任务: 2.2.2 逻辑回归的特征工程 (1)
第69任务: 2.2.2 逻辑回归的特征工程 (2)
第70任务: 2.2.2 逻辑回归的特征工程 (3)
第71任务: 2.2.2 逻辑回归的特征工程 (4)
第72任务: 2.3.1 重要参数max_iter - 梯度下降求解逻辑回归的过程
第73任务: 2.3.2 梯度的概念与解惑
第74任务: 2.3.3 步长的概念与解惑
第75任务: 2.4 二元回归与多元回归:重要参数solver & multi_class
第76任务: 2.5 样本不均衡与参数class_weight
第77任务: 3.1 评分卡案例 - 评分卡与完整的模型开发流程
第78任务: 3.2.1~2 评分卡 - 数据预处理(1) - 重复值与缺失值
第79任务: 3.2.3 评分卡 - 数据预处理 (2) - 异常值
第80任务: 3.2.4 案例:评分卡 - 数据预处理 (3) - 标准化
第81任务: 3.2.5 案例:评分卡 - 数据预处理 (4) - 样本不均衡问题
第82任务: 3.2.6 案例:评分卡 - 数据预处理 (5) - 保存训练集和测试集数据
第83任务: 3.3 案例:评分卡 - 分箱(1) - 概述与概念
第84任务: 3.3.1 案例:评分卡 - 分箱 (2) - 等频分箱 (1)
第85任务: 3.3.1 案例:评分卡 - 分箱 (3) - 等频分箱 (2)
第86任务: 3.3.2 案例:评分卡 - 分箱 (4) - 选学说明
第87任务: 3.3.3 案例:评分卡 - 分箱 (5) - 计算WOE与IV
第88任务: 3.3.4 案例:评分卡 - 分箱 (6) - 卡方检验,箱体合并,IV值曲线,确定最优的箱子个数
第89任务: 3.3.5 案例:评分卡 - 分箱 (7) - 包装分箱函数
第90任务: 3.3.6 案例:评分卡 - 分箱 (8) - 包装判断分箱个数的函数
第91任务: 3.3.7 案例:评分卡 - 分箱 (9) - 对所有特征进行分箱
第92任务: 3.4 案例:评分卡 - 映射数据 (1)
第93任务: 3.4 案例:评分卡 - 映射数据 (2)
第94任务: 3.5 案例:评分卡 - 建模与模型验证
第95任务: 3.6 案例:评分卡 - 评分卡的输出和建立
第96任务: 聚类算法Kmeans课件
第97任务: 1.0 概述
第98任务: 1.1 无监督学习概述,聚类vs分类
第99任务: 1.2 sklearn当中的聚类算法
第100任务: 2.1 Kmeans是如何工作的?
第101任务: 2.2 & 2.3 簇内平方和,时间复杂度
第102任务: 3.1.1 KMeans - 重要参数n_clusters
第103任务: 3.1.2 聚类算法的模型评估指标 (1)
第104任务: 3.1.2 聚类算法的模型评估指标 (2) - 轮廓系数
第105任务: 3.1.2 聚类算法的模型评估指标 (3) - CHI
第106任务: 3.1.3 案例:轮廓系数找最佳n_clusters (1)
第107任务: 3.1.3 案例:轮廓系数找最佳n_clusters (2)
第108任务: 3.1.3 案例:轮廓系数找最佳n_clusters (3)
第109任务: 3.2 重要参数init & random_state & n_init:初始质心怎么决定?
第110任务: 3.3 重要参数max_iter & tol:如何让聚类停下来?
第111任务: 3.5 重要属性与接口 & 函数k_means
第112任务: 4 案例:Kmeans做矢量量化 (1):案例背景
第113任务: 4 案例:Kmeans做矢量量化 (2)
第114任务: 4 案例:Kmeans做矢量量化 (3)
第115任务: 4 案例:Kmeans做矢量量化 (4)
第116任务: SVM (上) 课件
第117任务: 1.0 本周要学习什么
第118任务: 1.1 支持向量机概述:最强大的机器学习算法
第119任务: 1.2 支持向量机是如何工作的 & sklearn中的SVM
第120任务: 2.1.1 线性SVC的损失函数 (1)
第121任务: 2.1.1 线性SVC的损失函数 (2)
第122任务: 2.1.2 函数间隔与几何间隔
第123任务: 2.1.3.1 损失函数的拉格朗日乘数形态
第124任务: 2.1.3.2 拉格朗日对偶函数 (1)
第125任务: 2.1.3.2 拉格朗日对偶函数 (2)
第126任务: 2.1.3.3 求解拉格朗日对偶函数极其后续过程
第127任务: 2.1.4 线性SVM可视化 (1):理解等高线函数contour
第128任务: 2.1.4 线性SVM可视化 (2):理解网格制作函数meshgrid与vstack
第129任务: 2.1.4 线性SVM可视化 (3):建模,绘制图像并包装函数
第130任务: 2.1.4 线性SVM可视化 (4):探索建立好的模型
第131任务: 2.1.4 线性SVM可视化 (5):非线性数据集上的推广与3D可视化
第132任务: 2.1.4 线性SVM可视化 (6):Jupyter Notebook中的3D交互功能
第133任务: 2.2.1 & 2.2.2 非线性SVM与核函数:重要参数kernel
第134任务: 2.2.3 案例:如何选取最佳核函数 (1)
第135任务: 2.2.3 案例:如何选取最佳核函数 (2)
第136任务: 2.2.4 案例:在乳腺癌数据集上探索核函数的性质
第137任务: 2.2.5 案例:在乳腺癌数据集上对核函数进行调参 (1)
第138任务: 2.2.5 案例:在乳腺癌数据集上对核函数进行调参 (2)
第139任务: 2.3.1 SVM在软间隔数据上的推广
第140任务: 2.3.2 重要参数C & 总结
第141任务: SVM (下)课件
第142任务: 1.0 目录:本周将学习什么
第143任务: 1.1 简单复习支持向量机的基本原理
第144任务: 1.2 参数C的深入理解:多个支持向量存在的理由
第145任务: 1.3 二分类SVC中的样本不均衡问题:重要参数class_weight
第146任务: 1.3 如何使用参数class_weight (1)
第147任务: 1.3 如何使用参数class_weight (2)
第148任务: 2 SVC的模型评估指标
第149任务: 2.1.1 混淆矩阵与准确率
第150任务: 2.1.2 样本不平衡的艺术(1):精确度Precision
第151任务: 2.1.2 样本不平衡的艺术(2):召回率Recall与F1 measure
第152任务: 2.1.3 对多数类样本的关怀:特异度Specificity与假正率FPR
第153任务: 2.1.4 sklearn中的混淆矩阵
第154任务: 2.2 ROC曲线:Recall与假正率FPR的平衡
第155任务: 2.2.1 概率与阈值
第156任务: 2.2.2 SVM做概率预测
第157任务: 2.2.3 绘制ROC曲线 (1)
第158任务: 2.2.3 绘制ROC曲线 (2)
第159任务: 2.2.3 绘制ROC曲线 (3)
第160任务: 2.2.4 sklearn中的ROC曲线和AUC面积
第161任务: 2.2.5 利用ROC曲线求解最佳阈值
第162任务: 3 选学说明:使用SVC时的其他考虑
第163任务: 4 案例:预测明天是否会下雨 - 案例背景
第164任务: 4.1 案例:导库导数据,探索特征,jupyter中的快捷键
第165任务: 4.2 案例:分集,优先处理标签
第166任务: 4.3.1 案例:描述性统计,处理异常值
第167任务: 4.3.2 案例:现实数据上的数据预处理 - 处理时间
第168任务: 4.3.3 案例:现实数据上的数据预处理 - 处理地点 (1)
第169任务: 4.3.3 案例:现实数据上的数据预处理 - 处理地点 (2)
第170任务: 4.3.3 案例:现实数据上的数据预处理 - 处理地点 (3)
第171任务: 4.3.3 案例:现实数据上的数据预处理 - 处理地点 (4)
第172任务: 4.3.4 案例:现实数据上的数据预处理 - 填补分类型缺失值
第173任务: 4.3.5 案例:现实数据上的数据预处理 - 编码分类型变量
第174任务: 4.3.6 & 4.3.7 案例:现实数据集上的数据预处理 - 处理连续型变量
第175任务: 4.4 案例:建模与模型评估 (1)
第176任务: 4.4 案例:建模与模型评估 (2)
第177任务: 4.5.1 案例:模型调参:追求最高的recall
第178任务: 4.5.2 案例:模型调参:追求最高的精确度 (1)
第179任务: 4.5.2 案例:模型调参:追求最高的精确度 (2)
第180任务: 4.5.3 案例:模型调参:追求精确度与recall的平衡
第181任务: 4.6 SVM总结与结语
第182任务: 线性回归大家族课件
第183任务: 0 本周要学习什么
第184任务: 1 概述,sklearn中的线性回归大家族
第185任务: 2.1 多元线性回归的基本原理和损失函数
第186任务: 2.2 用最小二乘法求解多元线性回归的过程
第187任务: 2.3 多元线性回归的参数,属性及建模代码
第188任务: 3.1 回归类模型的评估指标:是否预测准确?
第189任务: 3.2 回归类模型的评估指标:是否拟合了足够的信息?
第190任务: 4.1 多重共线性:含义,数学,以及解决方案
第191任务: 4.2.1 岭回归处理多重共线性
第192任务: 4.2.2 sklearn中的岭回归:linear_model.Ridge
第193任务: 4.2.3 为岭回归选择最佳正则化参数
第194任务: 4.3.1 Lasso处理多重共线性
第195任务: 4.3.2 Lasso的核心作用:特征选择
第196任务: 4.3.3 Lasso选择最佳正则化参数
第197任务: 5.1.1 & 5.1.2 线性数据与非线性数据
第198任务: 5.1.3 线性vs非线性模型 (1):线性模型在非线性数据集上的表现
第199任务: 5.1.3 线性vs非线性模型 (2):拟合,效果与特点
第200任务: 5.2 离散化:帮助线性回归解决非线性问题
第201任务: 5.3.1 多项式对数据做了什么?
第202任务: 5.3.2 多项式回归提升模型表现
第203任务: 5.3.3 多项式回归的可解释性
第204任务: 5.3.4 多项式回归:线性还是非线性模型? + 本周结语
第205任务: 朴素贝叶斯课件
第206任务: 1.0 本周要讲解的内容
第207任务: 1.1 为什么需要朴素贝叶斯
第208任务: 1.2 概率论基础 - 贝叶斯理论等式
第209任务: 1.2.1 瓢虫冬眠:理解条件概率 (1)
第210任务: 1.2.1 瓢虫冬眠:理解条件概率 (2)
第211任务: 1.2.1 瓢虫冬眠:理解条件概率 (3)
第212任务: 1.2.2 贝叶斯的性质与最大后验估计
第213任务: 1.2.3 汉堡称重:连续型变量的概率估计 (1)
第214任务: 1.2.3 汉堡称重:连续型变量的概率估计 (2)
第215任务: 1.3 sklearn中的朴素贝叶斯
第216任务: 2.1.1 认识高斯朴素贝叶斯
第217任务: 2.1.2 高斯朴素贝叶斯擅长的数据集
第218任务: 2.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (1)
第219任务: 2.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (2) - 代码讲解 (1)
第220任务: 2.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (3) - 代码讲解 (2)
第221任务: 2.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (4) - 分析与结论
第222任务: 2.2.1 概率类模型的评估指标 (1) - 布里尔分数
第223任务: 2.2.1 概率类模型的评估指标 (2) - 布里尔分数的可视化
第224任务: 2.2.2 概率类模型的评估指标 (3) - 对数损失Log loss
第225任务: 2.2.3 概率类模型的评估指标 (4) - 可靠性曲线 (1)
第226任务: 2.2.3 概率类模型的评估指标 (5) - 可靠性曲线 (2)
第227任务: 2.2.4 概率类模型的评估指标 (6) - 概率分布直方图
第228任务: 2.2.5 概率类模型的评估指标 (7) - 概率校准 (1)
第229任务: 2.2.5 概率类模型的评估指标 (8) - 概率校准 (2)
第230任务: 2.3.1 多项式朴素贝叶斯 (1) - 认识多项式朴素贝叶斯
第231任务: 2.3.1 多项式朴素贝叶斯 (2) - 数学原理
第232任务: 2.3.1 多项式朴素贝叶斯 (3) - sklearn中的类与参数
第233任务: 2.3.1 多项式朴素贝叶斯 (4) - 来构造一个分类器吧
第234任务: 2.3.2 伯努利朴素贝叶斯 (1) - 认识伯努利朴素贝叶斯
第235任务: 2.3.2 伯努利朴素贝叶斯 (2) - sklearn中的类与参数
第236任务: 2.3.2 伯努利朴素贝叶斯 (3) - 构造一个分类器
第237任务: 2.3.3 探索贝叶斯 - 朴素贝叶斯的样本不均衡问题
第238任务: 2.3.4 补集朴素贝叶斯 - 补集朴素贝叶斯的原理 (1)
第239任务: 2.3.4 补集朴素贝叶斯 - 补集朴素贝叶斯的原理 (2)
第240任务: 2.3.4 补集朴素贝叶斯 - 处理样本不均衡问题
第241任务: 3.1.1 案例:贝叶斯做文本分类 (1) - 单词计数向量技术
第242任务: 3.1.1 案例:贝叶斯做文本分类 (2) - 单词计数向量的问题
第243任务: 3.1.2 案例:贝叶斯做文本分类 (3) - TF-IDF技术
第244任务: 3.2 案例:贝叶斯做文本分类 (4) - 探索和提取文本数据
第245任务: 3.3 案例:贝叶斯做文本分类 (5) - 使用TF-IDF编码文本数据
第246任务: 3.4 案例:贝叶斯做文本分类 (6) - 算法应用与概率校准
第247任务: XGBoost课件
第248任务: 0 本周要学习什么
第249任务: 1 XGBoost前瞻:安装xgboost,xgboost库与sklearn API
第250任务: 2.1 梯度提升树(1):集成算法回顾,重要参数n_estimators
第251任务: 2.1 梯度提升树(2):参数n_estimators下的建模
第252任务: 2.1 梯度提升树(3):参数n_estimators的学习曲线
第253任务: 2.1 梯度提升树(4):基于方差-偏差困境改进的学习曲线
第254任务: 2.2 梯度提升树(5):控制有放回随机抽样,参数subsample
第255任务: 2.3 梯度提升树(6):迭代决策树:重要参数eta
第256任务: 2.3 梯度提升树(7):迭代决策树:重要参数eta
第257任务: 3.1 XGBoost的智慧 (1):选择弱评估器:重要参数booster
第258任务: 3.2 XGBoost的智慧 (2):XGBoost的目标函数,使用xgboost库建模
第259任务: 3.3 XGBoost的智慧 (3):求解XGBoost的目标函数 - 推导过程
第260任务: 3.3 XGBoost的智慧 (4):求解XGboost的目标函数 - 泰勒展开的相关问题
第261任务: 3.4 XGBoost的智慧 (5):参数化决策树,正则化参数lambda与alpha
第262任务: 3.5 XGBoost的智慧 (6):建立目标函数与树结构的直接联系
第263任务: 3.5 XGBoost的智慧 (7):最优树结构,求解w和T
第264任务: 3.6 XGBoost的智慧 (8):贪婪算法求解最优树
第265任务: 3.7 XGBoost的智慧 (9):让树停止生长:重要参数gamma与工具xgb.cv
第266任务: 4.1 XGBoost应用 (1):减轻过拟合:XGBoost中的剪枝参数
第267任务: 4.1 XGBoost应用 (2):使用xgb.cv进行剪枝参数的调参
第268任务: 4.2 XGBoost应用 (3):使用pickle保存和调用训练好的XGB模型
第269任务: 4.2 XGBoost应用 (4):使用joblib保存和调用训练好的XGB模型
第270任务: 4.3 XGBoost应用 (5):XGB分类中的样本不平衡问题 - sklearnAPI
第271任务: 4.3 XGBoost应用 (6):XGB分类中的样本不平衡问题 - xgboost库
第272任务: 4.4 XGBoost应用 (7):XGB应用中的其他问题 + XGB结语
学
习
中
心
TOP
技术支持
CDA人工智能社区
工作时间:9:00-19:00
陈老师:13077998983
邮箱:
edu_cda_cn@foxmail.com