AI算法笔试题模拟-计算机视觉&NLP-1
2025-09-15
📘 模块四:计算机视觉 & NLP(20题)
计算机视觉基础(1–7)
Q1. 在卷积神经网络中,padding=1,stride=1 的 3×3 卷积对输入大小的影响是:
- A. 输出变小
- B. 输出不变
- C. 输出变大
- D. 不可确定
✅ 答案:B
Q2. 卷积层相比全连接层的主要优势是:
- A. 参数更少,捕捉局部特征
- B. 训练更慢
- C. 表达能力更差
- D. 需要更多样本
✅ 答案:A
Q3. 在目标检测中,IoU(交并比)的定义是:
- A. 预测框面积 ÷ 真值框面积
- B. 预测框与真值框交集 ÷ 并集
- C. 预测框 ÷ 并集
- D. 交集 ÷ 预测框
✅ 答案:B
Q4. NMS(非极大值抑制)的主要作用是:
- A. 提高分类准确率
- B. 移除重叠预测框
- C. 提高召回率
- D. 增大感受野
✅ 答案:B
Q5. 在图像分割任务中,常用的指标是:
- A. Accuracy
- B. IoU / mIoU
- C. Top-k Accuracy
- D. BLEU
✅ 答案:B
Q6. Dice 系数(Dice coefficient)的取值范围是:
- A. [0,1]
- B. [0,∞)
- C. [−1,1]
- D. 无界
✅ 答案:A
Q7. Faster R-CNN 中的 RPN(Region Proposal Network)主要作用是:
- A. 分类
- B. 提取候选框
- C. 提高分辨率
- D. 减少参数量
✅ 答案:B
计算机视觉进阶(8–10)
Q8. YOLO 系列检测器相比两阶段检测器(如 Faster R-CNN)的优势是:
- A. 精度更高
- B. 速度更快
- C. 需要更少的训练数据
- D. 完全不需要 NMS
✅ 答案:B
Q9. 在图像分类中,Top-5 Accuracy 计算方式是:
- A. 预测第一名类别正确的比例
- B. 预测前 5 名中包含正确类别的比例
- C. 预测前 5 名类别的平均精度
- D. 预测前 5 名类别的交集比例
✅ 答案:B
Q10. 视觉 Transformer (ViT) 中的输入图像通常被:
- A. 转换为一维像素向量
- B. 划分为固定大小 patch 并嵌入
- C. 直接作为卷积输入
- D. 转换为灰度图
✅ 答案:B
自然语言处理基础(11–15)
Q11. Word2Vec 的 Skip-gram 模型目标是:
- A. 预测下一个词
- B. 预测中心词
- C. 通过中心词预测上下文
- D. 通过上下文预测中心词
✅ 答案:C
Q12. 词向量的一个重要性质是:
- A. 稀疏表示
- B. 可以捕捉语义相似性
- C. 与独热编码等价
- D. 只适合小词表
✅ 答案:B
Q13. 机器翻译 BLEU 指标主要衡量:
- A. 语法正确性
- B. 翻译与参考译文的 n-gram 重叠程度
- C. 翻译的多样性
- D. 模型参数量
✅ 答案:B
Q14. 在序列标注任务(如命名实体识别 NER)中,常用的解码算法是:
- A. Beam Search
- B. Viterbi
- C. 贪心搜索
- D. BFS
✅ 答案:B
Q15. RNN 在处理长文本时常见的问题是:
- A. 梯度消失/爆炸
- B. 过拟合
- C. 数据不均衡
- D. 模型太小
✅ 答案:A
自然语言处理进阶(16–20)
Q16. Self-Attention 的复杂度相对 RNN 的优势是:
- A. O(n³) vs O(n²)
- B. O(n²) vs O(n)
- C. O(n²) vs O(n) (但可并行)
- D. O(n) vs O(n²)
✅ 答案:C
Q17. BERT 的训练任务中不包括:
- A. Masked Language Model
- B. Next Sentence Prediction
- C. 图像分类
- D. 句子相似度预测
✅ 答案:C
Q18. GPT 采用的训练范式是:
- A. 自编码(Autoencoder)
- B. 自回归(Autoregressive)
- C. 半监督
- D. 强化学习
✅ 答案:B
Q19. 在文本生成中,Beam Search 的主要作用是:
- A. 加快训练
- B. 提高生成序列的全局最优性
- C. 减少模型参数
- D. 防止过拟合
✅ 答案:B
Q20. 大规模预训练语言模型的一个典型优势是:
- A. 不需要 GPU
- B. 少样本学习 (Few-shot / Zero-shot) 能力
- C. 不需要数据清洗
- D. 完全避免过拟合
✅ 答案:B