题目
A.PCA和LDA均是基于监督学习的降维方法
B.假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1
C.LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)
D.PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)
第3题
A.主成分分析要学习一个映射矩阵,其大小是d×l
B.主成分分析学习得到了l个d维大小的向量,这l个d维向量之间彼此相关
C.在主成分分析中,我们将带约束的最优化问题,通过拉格朗日乘子法将其转化为无约束最优化问题
D.每个原始数据的维数大小从d变成了l
第4题
A.逻辑斯蒂回归和线性区别分析都是直接在数据原始空间进行分类
B.以上都不正确
C.逻辑斯蒂回归可直接在数据原始空间进行分类,线性区别分析需要在降维所得空间中进行分类
D.逻辑斯蒂回归在降维所得空间中进行分类,线性区别分析在数据原始空间进行分类
第5题
A.只要保证同一类别样本尽可能靠近
B.既要保证同一类别样本尽可能靠近,也要保证不同类别样本尽可能彼此远离
C.既要保证不同类别样本尽可能靠近,也要保证同一类别样本尽可能彼此远离
D.只要保证不同类别样本尽可能彼此远离
第6题
A.在主成分分析中,所得低维数据中每一维度之间具有极大相关度
B.主成分分析可保证原始高维样本数据被投影映射后,其方差保持最大
C.在主成分分析中,将数据向方差最大方向进行投影,可使得数据所蕴含信息没有丢失,以便在后续处理过程中各个数据“彰显个性”
D.主成份分析是一种特征降维方法
第7题
A.A.0
B.B.25
C.C.50
D.D.75
E.E.100
第8题
A.特征人脸方法是一种应用主成分分析来实现人脸图像降维的方法
B.特征人脸之间的相关度要尽可能大
C.每一个特征人脸的维数与原始人脸图像的维数一样大
D.特征人脸方法是用一种称为“特征人脸(eigenface)”的特征向量按照线性组合形式来表达每一张原始人脸图像
第9题
B.在主成份分析的降维过程中,尽可能将数据向方差最大方向进行投影,使得数据所蕴含信息没有丢失,彰显个性
C.主成份分析方法是一种保证数据被投影后方差最大的特征降维方法
D.特征人脸方法是一种应用主成份分析来实现人脸图像降维的方法,其本质是用一种称为“特征人脸(eigenface)”的特征向量按照线性组合形式来表达每一张原始人脸图像,进而实现人脸识别
第10题
A.回归是一种无监督学习、分类学习是有监督学习
B.两者均是学习输入变量和输出变量之间潜在关系模型
C.在分类模型中,学习得到一个函数将输入变量映射到离散输出空间
D.在回归分析中,学习得到一个函数将输入变量映射到连续输出空间
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!