AI算法笔试题模拟-机器学习基础-2
2025-09-15
📘 模块二:机器学习基础扩展题(30题)
监督 / 无监督学习(1–10)
Q1. 在线性回归中,如果特征之间高度相关,最可能出现的问题是:
- A. 过拟合
- B. 欠拟合
- C. 多重共线性
- D. 方差减小
✅ 答案:C
Q2. 在 Logistic 回归中,输出值可以解释为:
- A. 分类结果
- B. 条件概率
- C. 距离
- D. 似然函数
✅ 答案:B
Q3. LDA (Linear Discriminant Analysis) 的主要目标是:
- A. 降维同时最大化类间距离、最小化类内距离
- B. 仅最小化类内距离
- C. 仅最大化类间距离
- D. 仅降维
✅ 答案:A
Q4. KMeans 收敛到局部最优的原因是:
- A. 样本不均衡
- B. 初始质心选择不同
- C. 特征尺度不同
- D. 算法是非凸优化
✅ 答案:B
Q5. 高斯混合模型 (GMM) 的核心思想是:
- A. 用高斯分布拟合数据密度
- B. 用正态分布聚类
- C. 用指数分布聚类
- D. 用线性边界分类
✅ 答案:A
Q6. DBSCAN 的优势是:
- A. 不需要指定聚类个数
- B. 对噪声敏感
- C. 不适合发现任意形状簇
- D. 只能处理线性边界
✅ 答案:A
Q7. 决策树分裂标准中,信息增益基于:
- A. 均方误差
- B. 熵
- C. 方差
- D. KL 散度
✅ 答案:B
Q8. 回归树分裂标准常用的是:
- A. 熵
- B. 基尼指数
- C. 方差减少
- D. 交叉熵
✅ 答案:C
Q9. 朴素贝叶斯分类器的“朴素”在于:
- A. 假设特征相互独立
- B. 假设特征服从高斯分布
- C. 假设标签均匀分布
- D. 假设特征权重相同
✅ 答案:A
Q10. SVM 使用核技巧的原因是:
- A. 加快训练
- B. 降低维度
- C. 将线性不可分问题转为线性可分
- D. 减少支持向量
✅ 答案:C
损失函数与正则化(11–18)
Q11. Huber 损失函数主要用于:
- A. 处理分类问题
- B. 处理回归问题中离群点影响
- C. 增强模型稀疏性
- D. 替代交叉熵
✅ 答案:B
Q12. Ridge 回归对应的是:
- A. L1 正则
- B. L2 正则
- C. Elastic Net
- D. Dropout
✅ 答案:B
Q13. Lasso 回归的特点是:
- A. 系数收缩但不为零
- B. 系数可以被压缩为零
- C. 不适合特征选择
- D. 不会减少方差
✅ 答案:B
Q14. Elastic Net 结合了:
- A. L1 和 L2 正则
- B. Dropout 和 BatchNorm
- C. MSE 和 交叉熵
- D. 集成学习方法
✅ 答案:A
Q15. Softmax 函数的输出具有:
- A. 可能为负
- B. 和为 1
- C. 不唯一
- D. 与输入无关
✅ 答案:B
Q16. Cross-Entropy 与 KL 散度的关系是:
- A. 等价
- B. Cross-Entropy = KL 散度 + 熵
- C. KL 散度 = Cross-Entropy + 熵
- D. 无关
✅ 答案:B
Q17. 在回归任务中,MSE 相比 MAE 的劣势是:
- A. 对大误差敏感
- B. 不可导
- C. 对小误差不敏感
- D. 训练速度慢
✅ 答案:A
Q18. 正则化的主要作用是:
- A. 提高训练精度
- B. 防止过拟合
- C. 增加模型容量
- D. 提高方差
✅ 答案:B
集成学习(19–24)
Q19. Bagging 的主要思想是:
- A. 多个弱分类器串行训练
- B. 多个弱分类器并行训练取平均
- C. 使用不同的损失函数
- D. 使用权重调整样本
✅ 答案:B
Q20. Boosting 与 Bagging 的主要区别是:
- A. 是否使用并行训练
- B. 是否需要弱分类器
- C. 是否使用线性模型
- D. 是否可以处理分类问题
✅ 答案:A
Q21. 随机森林中,增加树的数量通常会:
- A. 增加方差
- B. 减小方差
- C. 增加偏差
- D. 不影响性能
✅ 答案:B
Q22. Gradient Boosting 的基本更新方式是:
- A. 在残差方向上拟合新的弱学习器
- B. 在原始特征上训练更多模型
- C. 直接更新梯度
- D. 随机采样特征训练
✅ 答案:A
Q23. 在 XGBoost 中,正则化的主要目的包括:
- A. 防止过拟合
- B. 增加方差
- C. 减少特征维度
- D. 增加样本数
✅ 答案:A
Q24. LightGBM 相比 XGBoost 的主要优化是:
- A. 使用深度学习加速
- B. 使用基于直方图的分裂方法
- C. 使用 Dropout
- D. 使用更多正则化
✅ 答案:B
模型评估与选择(25–30)
Q25. ROC 曲线横轴是:
- A. True Positive Rate
- B. False Positive Rate
- C. Recall
- D. Precision
✅ 答案:B
Q26. 在二分类中,如果类别极度不平衡,优先考虑的指标是:
- A. 准确率
- B. 精确率 / 召回率
- C. MSE
- D. RMSE
✅ 答案:B
Q27. 交叉验证的主要作用是:
- A. 增加训练样本
- B. 更稳健的泛化性能评估
- C. 增加模型容量
- D. 减少计算量
✅ 答案:B
Q28. 在 k 折交叉验证中,k 值越大:
- A. 计算成本降低
- B. 训练数据量越少
- C. 评估结果方差越小
- D. 过拟合风险越高
✅ 答案:C
Q29. 偏差-方差分解中,模型过于复杂通常表现为:
- A. 高偏差低方差
- B. 低偏差高方差
- C. 高偏差高方差
- D. 低偏差低方差
✅ 答案:B
Q30. AUC = 0.5 通常说明:
- A. 分类器完全正确
- B. 分类器完全错误
- C. 分类器等价于随机猜测
- D. 分类器效果最佳
✅ 答案:C