如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下列哪种做法是正确的()。
A.增加树的深度
B.增加学习率
C.减小树的深度
D.减少树的数量
A.增加树的深度
B.增加学习率
C.减小树的深度
D.减少树的数量
第2题
A.各基分类器之间有较强依赖,不可以进行并行训练
B.最著名的算法之一是基于决策树基分类器的随机森林
C.当训练样本数量较少时,子集之间可能有重叠
D.为了让基分类器之间互相独立,需要将训练集分为若干子集
第3题
A.数据集合扩充
B.L1和L3正则化
C.提前停止训练
D.使用Dropout方法
第4题
A.除去神经网络中的最后一层,冻结所有层然后重新训练
B.对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层
C.使用新的数据集重新训练模型
D.所有答案均不对
第7题
A.对训练集随机采样,在随机采样的数据上建立模型
B.尝试使用在线机器学习算法
C.使用PCA算法减少特征维度
第9题
A.贝叶斯算法
B.支持向量机算法
C.神经网络算法
D.决策树算法
第10题
A.使用前向特征选择方法
B.使用后向特征排除方法
C.我们先把所有特征都使用,去训练一个模型,得到测试集上的表现.然后我们去掉一个特征,再去训练,用交叉验证看看测试集上的表现.如果表现比原来还要好,我们可以去除这个特征
D.查看相关性表,去除相关性最高的一些特征