2020 《机器学习导论》(广州中医药大学) 最新满分章节测试答案
- 【作业】第1章:绪论 第1章 单元作业
- 第1章:绪论 第1章 单元测验
- 第2章:模型评估 第2章 单元测验
- 【作业】第2章:模型评估 第2章 单元作业
- 【作业】第3章:线性学习 第3章 单元作业
- 第3章:线性学习 第3章 单元测验
- 【作业】第6章:决策树学习 第6章 单元作业
- 第6章:决策树学习 第6章 单元测验
- 第5章:神经网络学习 第5章 单元测验
- 【作业】第5章:神经网络学习 第5章 单元作业
- 【作业】第4章:支持向量机学习 第4章 单元作业
- 第4章:支持向量机学习 第4章 单元测验
- 【作业】第7章:贝叶斯学习 第7章 单元作业
- 第7章:贝叶斯学习 第7章 单元测验
- 第10章:集成学习 第10章 单元测试
- 【作业】第10章:集成学习 第10章 单元作业
- 第9章:无监督学习 第9章 单元测试
- 【作业】第9章:无监督学习 第9章 单元作业
- 第8章:最近邻学习 第8章 单元测验
- 【作业】第8章:最近邻学习 第8章 单元作业
本答案对应课程为:点我自动跳转查看
本课程起止时间为:2020-02-27到2020-06-12
本篇答案更新状态:已完结
【作业】第1章:绪论 第1章 单元作业
1、 问题:回归任务和分类任务的区别是什么?
评分规则: 【 回归任务预测的是连续值(1分),分类任务预测的是离散值(1分)。
】
2、 问题:监督学习和无监督学习的区别是什么,各举出一个例子。
评分规则: 【 监督学习的训练数据有标记信息(1分),无监督学习的训练数据没有标记信息(1分)。分类学习和回归学习(或者说出具体的分类/回归算法名字)都属于监督学习(1分),聚类(或者说出具体的聚类算法名字)属于无监督学习(1分)。
】
第1章:绪论 第1章 单元测验
1、 问题:机器学习与数据挖掘之间的关系和区别为( )(多选题)
选项:
A:数据挖掘可以视为机器学习和数据库的交叉。
B:数据挖掘主要利用机器学习界提供的技术来分析海量数据,利用数据库界提供的技术来管理海量数据。
C:机器学习偏理论,数据挖掘偏应用。
D:两者是相互独立的两种数据处理技术。
答案: 【数据挖掘可以视为机器学习和数据库的交叉。;
数据挖掘主要利用机器学习界提供的技术来分析海量数据,利用数据库界提供的技术来管理海量数据。;
机器学习偏理论,数据挖掘偏应用。】
第2章:模型评估 第2章 单元测验
1、 问题:通常( )误差作为泛化误差的近似。(单选)
选项:
A:训练
B:经验
C:测试
D:以上都可以
答案: 【测试】
2、 问题:将数据集划分成训练集S和测试集T的常见方法有( )。(单选)
选项:
A:留出法
B:交叉验证法
C:自助法
D:以上均正确
答案: 【以上均正确】
3、 问题:在类不平衡数据集中,( )和( )通常作为更合适的性能度量。(多选)
选项:
A:准确率
B:错误率
C:查准率
D:查全率
答案: 【查准率;
查全率】
4、 问题:( )和( )是分类任务中最常用的两种评估指标。(多选)
选项:
A:错误率
B:准确率(精度)
C:查准率
D:查全率
答案: 【错误率;
准确率(精度)】
5、 问题:测试集应该尽可能与训练集( ),即测试样本尽量不在训练集中出现、未在训练过程中使用过。(填空)
答案: 【互斥】
分析:【只有训练集和测试集尽可能的互斥,得到的测试结果才能较为客观地反映学习器的真实学习性能。】
【作业】第2章:模型评估 第2章 单元作业
1、 问题:什么是交叉验证法?
评分规则: 【 交叉验证法先将数据集D划分为k个大小相似的互斥子集(1分),每个子集D_i都尽可能保持数据分布的一致性,即从D中通过分层采样得到(1分)。然后,每次用k-1个子集的并集作为训练集,余下的那个子集作为测试集(1分);这样就可获得k组训练/测试集,从而可进行k次训练和测试,最终返回的是这k个测试结果的均值(1分)。显然,交叉验证法评估结果的稳定性和保真性,在很大程度上取决于k的取值,通常交叉验证法又称为“k折交叉验证”(1分)。k最常用的取值是10。
】
2、 问题:什么是自助法?
评分规则: 【 自助法是直接以自助采样法为基础,给定包含m个样本的数据集D,我们对它进行采样产生数据集D’:每次随机从D中挑选一个样本,将其拷贝放入D’(1分),然后再将该样本放回初始数据集D中,使得该样本在下次采样时仍有可能被采到(1分);这个过程重复执行m次后,我们就得到了包含m个样本的数据集D’(1分),这就是自助采样的结果。通过自助采样,初始数据集D中约有36.8%的样本未出现在采集数据集D’中(1分),我们将采集数据集D’用作训练样本,D\D’用作测试集(1分)。
】
【作业】第3章:线性学习 第3章 单元作业
1、 问题:什么是线性回归?
评分规则: 【 线性回归试图学得一个线性模型(1分),以尽可能准确地预测实值输出标记(1分)。
】
2、 问题:什么是最小二乘法?
评分规则: 【 基于均方误差最小化(1分)来进行模型求解的方法(1分)
】
3、 问题:什么是对数几率回归?
评分规则: 【 用线性回归模型的预测结果去逼近真实标记的对数几率,其对应的模型就称为“对数几率回归”(2分)。值得注意的是,虽然它的名字是回归,但却是一个分类学习方法。
】
第3章:线性学习 第3章 单元测验
1、 问题:在逻辑斯蒂(对数几率)回归中将输出y视为样本x属于正例的概率。给定训练数据集,通常采用( ) 来估计参数w和b,最大化样本属于其真实类标记的概率的对数,即最大化对数似然。(单选)
选项:
A:最小二乘法
B:留出法
C:极大似然法
D:交叉验证法
答案: 【极大似然法】
2、 问题:在多分类学习中,经典的拆分策略有( )。(多选)
选项:
A:一对一(One vs. One,简称OvO)
B:一对其余(One vs. Rest,简称OvR)
C:多对多(Many vs. Many,简称MvM)
D:二对二(Two vs. Two,简称TvT)
答案: 【一对一(One vs. One,简称OvO);
一对其余(One vs. Rest,简称OvR);
多对多(Many vs. Many,简称MvM)】
3、 问题:回归预测的目标函数是离散值,分类预测的目标函数是连续值。(判断)
选项:
A:正确
B:错误
答案: 【错误】
4、 问题:最小二乘法是基于预测值和真实值的均方差最小化的方法来估计线性回归学习器的参数w和b的。(判断)
选项:
A:正确
B:错误
答案: 【正确】
5、 问题:对数线性回归是将真实值的对数作为线性回归逼近的目标,具体函数方程为。(判断)
选项:
A:正确
B:错误
答案: 【正确】
6、 问题:逻辑斯蒂(对数几率)回归是一种回归学习方法。(判断)
选项:
A:正确
B:错误
答案: 【错误】
分析:【逻辑斯蒂(对数几率)回归是一种分类学习方法。】
7、 问题:线性学习适合结合连续属性值的问题,对于离散属性值的问题,需要首先将其( ),这一步也称为数字化编码。(填空)
答案: 【连续化】
8、 问题:利用二分类学习器解决多分类任务的基本策略是对多分类任务进行( ),为拆出的每个二分类任务训练一个分类器,然后对每个分类器的预测结果进行集成,以获得最终的多分类结果。(填空)
答案: 【拆分】
【作业】第6章:决策树学习 第6章 单元作业
1、 问题:决策树的生成是一个递归的过程。在决策树基本算法中,有哪三种情形会导致递归返回?
评分规则: 【 1)当前结点包含的样本全属于同一类别,无需划分;(2分)2)当前属性集为空(1分),或是所有样本在所有属性上取值相同,无法划分;(1分)3)当前结点包含的样本集合为空,不能划分。(2分)
】
2、 问题:什么是剪枝处理,预剪枝,后剪枝?
评分规则: 【 剪枝是决策树学习算法对付“过拟合”的主要手段(2分),具体来说,是通过主动去掉一些分支来降低过拟合的风险。(2分)决策树剪枝的基本策略有预剪枝和后剪枝。(2分)预剪枝是指在决策树生成过程中,对每个结点在划分前先进行估计(2分),若当前结点的划分不能带来决策树泛化性能的提升,则停止划分并将当前结点标记为叶结点;(2分)后剪枝则是先从训练集生成一棵完整的决策树,然后自底向上地对非叶结点进行考察(2分),若将该结点对应的子树替换为叶结点能带来觉得书泛化性能的提升,则该子树替换为叶结点。(2分)
】
第6章:决策树学习 第6章 单元测验
1、 问题:决策树学习是一种逼近离散值目标函数的方法,学习到的函数被表示为一棵决策树。(判断)
本文章不含期末不含主观题!!
本文章不含期末不含主观题!!
支付后可长期查看
有疑问请添加客服QQ 2356025045反馈
如遇卡顿看不了请换个浏览器即可打开
请看清楚了再购买哦,电子资源购买后不支持退款哦