AI算法笔试题模拟-机器学习基础
2025-09-15
📘 模块二:机器学习基础(20题)
监督/无监督学习(1–7)
Q1. 下列哪个模型本质上是最大间隔分类器?
- A. Logistic Regression
- B. KNN
- C. SVM
- D. 决策树
✅ 答案:C
Q2. KMeans 算法的目标函数是:
- A. 最大化类间距离
- B. 最小化类内平方和 (SSE)
- C. 最大化似然
- D. 最小化正则化项
✅ 答案:B
Q3. 决策树容易过拟合的主要原因是:
- A. 偏差大
- B. 偏差小、方差大
- C. 方差小、偏差大
- D. 偏差和方差都小
✅ 答案:B
Q4. KNN 算法中,k 值越小,分类器的方差:
- A. 增大
- B. 减小
- C. 不变
- D. 无法确定
✅ 答案:A
Q5. 以下哪种算法可以用于降维?
- A. PCA
- B. KMeans
- C. Logistic 回归
- D. SVM
✅ 答案:A
Q6. 线性回归中,最小二乘法的基本假设不包括:
- A. 误差均值为 0
- B. 误差独立同分布
- C. 误差方差齐次
- D. 自变量必须独立
✅ 答案:D
Q7. EM 算法主要用于:
- A. 有监督学习
- B. 无监督学习(隐变量模型)
- C. 强化学习
- D. 半监督学习
✅ 答案:B
损失函数与正则化(8–12)
Q8. Logistic 回归使用的损失函数通常是:
- A. MSE
- B. 交叉熵
- C. Hinge Loss
- D. KL 散度
✅ 答案:B
Q9. L1 正则化的作用是:
- A. 特征稀疏化
- B. 降低过拟合但不稀疏
- C. 增加模型复杂度
- D. 提高方差
✅ 答案:A
Q10. L2 正则化在参数过大时会:
- A. 将参数压缩为 0
- B. 将参数趋向于较小值但不为 0
- C. 完全忽略特征
- D. 增加过拟合
✅ 答案:B
Q11. SVM 使用的损失函数是:
- A. MSE
- B. Hinge Loss
- C. 交叉熵
- D. 对数似然
✅ 答案:B
Q12. 偏差-方差权衡中,偏差大往往意味着:
- A. 模型过拟合
- B. 模型欠拟合
- C. 模型复杂
- D. 方差大
✅ 答案:B
集成学习(13–16)
Q13. Bagging 的代表性算法是:
- A. AdaBoost
- B. Random Forest
- C. XGBoost
- D. Logistic 回归
✅ 答案:B
Q14. Boosting 的基本思想是:
- A. 多个弱分类器并行训练取平均
- B. 多个弱分类器串行训练、不断调整权重
- C. 随机采样特征进行训练
- D. 直接用深度网络替代弱分类器
✅ 答案:B
Q15. AdaBoost 主要通过调整什么来提高性能?
- A. 特征数量
- B. 学习率
- C. 训练样本权重
- D. 正则化系数
✅ 答案:C
Q16. XGBoost 相比传统 GBM 的优势不包括:
- A. 正则化更完善
- B. 支持并行化
- C. 损失函数更少
- D. 使用二阶导数信息
✅ 答案:C
核方法 & 其他(17–20)
Q17. 在核方法中,核函数的本质是:
- A. 非线性映射后的内积
- B. 欧几里得距离
- C. L1 范数
- D. 卷积操作
✅ 答案:A
Q18. 以下哪种核函数不是常用的?
- A. 多项式核
- B. RBF 核
- C. Sigmoid 核
- D. 卷积核
✅ 答案:D
Q19. 在分类问题中,AUC 衡量的是:
- A. 精确率
- B. 召回率
- C. ROC 曲线下的面积
- D. F1 分数
✅ 答案:C
Q20. 在不平衡数据集中,常用的评估指标是:
- A. 准确率 (Accuracy)
- B. 精确率/召回率 (Precision/Recall)
- C. MSE
- D. R²
✅ 答案:B