<
回复: 7
收起左侧

[面试经验] MLE/RS 最近三个月地里的题 (ML/NLP 问答合集)

   
匿名用户-HY4EC  2024-6-12 15:27:46 来自APP
本楼:   👍  6
100%
0%
0   👎

2023(4-6月) MachineLearningEng 博士 全职@meta - Other - 技术电面  | 😐 Neutral 😣 HardWaitList | 应届毕业生
最近在准备MLE/RS的面试,ML问答是我比较头疼的地方,因为感觉准备的cheetsheet 挺多的。所以最近在地里看了一波店面经验, 整理了24年一月底到五月比较新的帖子里的店面ML问答题目和各自的链接🔗

因为是自用,并不是很完全,也并不精致,仅供参考~


这是之前地里的ML八股
https://www.1point3acres.com/bbs/thread-713903-1-1.html


这下面的是一些纯经验分享和如果准备MLE帖子:
https://www.1point3acres.com/bbs/thread-1068267-1-1.html

https://www.1point3acres.com/bbs/thread-1069790-1-1.html

https://www.1point3acres.com/bbs/thread-1068145-1-1.html

https://www.1point3acres.com/bbs/thread-1064289-1-1.html

https://www.1point3acres.com/bbs/thread-1051733-1-1.html


然后对于ML八股问答,因为不仅有传统的ML概念,还有LLM这些,有些还会涉及到ML手写coding这些,比较杂,整理了一个pdf,感觉还是根据具体岗位和自己的resume来出发。总结下大部分问答(因岗位和个人背景),我看到的:

Machine learning:
  • Precision/Recall, ROC曲线, AUC
  • Bias vs Variance tradeoff, overfitting/underfitting及解决方法
  • 决策树,随机森林,XGBoost,LightGBM等树模型的原理及区别
  • Logistic回归,正则化(L1/L2)
    您好!
    本帖隐藏的内容需要积分高于 188 才可浏览
    您当前积分为 0。
    使用VIP即刻解锁阅读权限或查看其他获取积分的方式
    游客,您好!
    本帖隐藏的内容需要积分高于 188 才可浏览
    您当前积分为 0。
    VIP即刻解锁阅读权限查看其他获取积分的方式
    ew?usp=sharing


    (不够好多帖子都看不了,求加米,谢谢各位!因为觉得有用的话求加大米~点帖子下面的评分按钮即可,ps:给别人加大米并不会减少自己的大米:)

    祝大家找工作顺利!

    补充内容 (2024-06-17 18:25 +08:00):

    原始的🔗好像失效了,可以用这个,https://drive.google.com/file/d/...FMGsMJShWIPBQ3/view


    整理不易求加米

本帖子中包含更多资源

您需要 登录 才可以下载或查看附件。没有帐号?注册账号

x

评分

参与人数 13大米 +20 收起 理由
包子家家 + 1 很有用的信息!
bryanjhy + 5 给你点个赞!
惰性气体 + 1 赞一个
hlll + 2 给你点个赞!
微信用户_9vcl4 + 1 赞一个

查看全部评分


上一篇:Google 2024 L3 Phone Screen
下一篇:[面试经验] MLE/RS 最近三个月地里的题 (ML/NLP 问答合集)
地里匿名用户
匿名用户-HY4EC  2024-6-16 19:26:53
本楼:   👍  1
100%
0%
0   👎
继续updated, 分享俩个超级好用的github repo。 ps, 大米不够好多帖子都看不了,求加米,谢谢各位!如果觉得有用的话求加大米~点帖子下面的评分按钮即可,ps:给别人加大米并不会减少自己的大米:)



https://github.com/andrewekhalel/MLQuestions
https://github.com/alirezadir/Machine-Learning-Interviews

评分

参与人数 1大米 +1 收起 理由
Andyliu + 1 赞一个

查看全部评分

回复

使用道具 举报

地里匿名用户
匿名用户-HY4EC  2024-6-16 18:59:38
本楼:   👍  1
100%
0%
0   👎
继续updated, 不想自己总结的可以看我的总结罗列 (只针对近几个月的帖子)。 (ps, 大米不够好多帖子都看不了,求加米,谢谢各位!如果觉得有用的话求加大米~点帖子下面的评分按钮即可,ps:给别人加大米并不会减少自己的大米:))

Machine Learning (ML) 基础知识

  • 如何处理overfitting?
  • 描述bias和variance的区别
  • Regularization的作用是什么?常见的regularization方法有L1和L2
  • 解释PR-AUC和ROC-AUC这两种evaluation metrics
  • 如何处理imbalanced data?
  • 什么是hyperparameter optimization?
  • 机器学习中常见的data split方法有哪些?比如train/validation/test
  • 解释logistic regression的原理
  • 描述decision tree的原理,以及在inference时的时间复杂度
  • Random forest和XGBoost有什么区别?
  • 比较bagging和boosting的异同
  • 描述K-means算法的原理和缺点
  • 如何实现KNN算法?
  • 解释PCA的原理和应用场景
  • 定义SVM并描述其优化过程
扫码关注一亩三分地求职移民公众号
更多干货内容等你发现
回复

使用道具 举报

地里匿名用户
匿名用户-HY4EC  2024-6-16 18:40:54
本楼:   👍  0
0%
0%
0   👎
之后问了一小会儿ML八股(how to deal with overfitting之类的)。然后让我选topic:NLP还是CV,我选CV。然后面试官让我描述CNN的结构,ViT的结构以及和普通Transformer的区别,ViT相比CNN有什么优缺点,如果让你用一个DL model分别做classification, object detection, semantic segmentation这三种task,分别需要注意什么。如果让你把一堆3D的点map到2D空间里,你会采用哪几种方法。最后15分‍‌‌‌‌‍‍‌‍‍‌‌‍‍‌‌‍‌‌‍钟给了一篇关于masked transformer的paper,让总结内容和创新点,以及model的input和output分别是什么。

updated, 原帖: https://www.1point3acres.com/bbs/thread-1034388-1-1.html
回复

使用道具 举报

地里匿名用户
匿名用户-HY4EC  2024-6-16 19:01:37
本楼:   👍  0
0%
0%
0   👎
继续updated, 不想自己总结的可以看我的总结罗列

Deep Learning (DL) 模型和技术

  • 描述CNN的结构和原理
  • 比较RNN和LSTM的区别
  • 详细解释Transformer的结构和原理,包括:
                Attention mechanism的原理
               Self-attention的计算过程
               Multi-head attention的作用
               Positional encoding的作用和实现方法
               Encoder-decoder结构
  • Dropout的原理和作用
  • 神经网络中常用的weight initialization方法
  • 比较Adam和RMSprop等optimization algorithms的异同
  • 什么是vanishing和exploding gradients问题?如何缓解?
  • 推导Backpropagation的数学公式,并描述实现步骤
  • 解释VAE的原理和应用场景
回复

使用道具 举报

地里匿名用户
匿名用户-HY4EC  2024-6-16 19:03:44
本楼:   👍  0
0%
0%
0   👎
继续updated, 不想自己总结的可以看我的总结罗列。 求加大米

Large Language Models (LLMs)

  • 比较GPT、BERT、T5等模型的区别和特点
  • 有哪些常见的tokenization方法和类型?
  • 描述LLM常用的fine-tuning方法,如LoRA
  • 介绍一些LLM的efficient training和inference技术
  • LLM目前存在哪些局限性?
  • 什么是prompt engineering?
  • LLM在工业界有哪些应用?
推荐系统
  • 推荐系统中的candidate generation模型通常有哪些?它们的复杂度如何?
  • 常见的ranking模型有哪些?它们的复杂度如何?
  • 推荐系统中的特征工程和特征选择有哪些考虑?
  • 介绍常见的embedding方法,如user/item embedding
编程和系统设计

  • 手写实现logistic regression、decision tree、KNN、K-means等ML模型
  • 手写实现CNN、RNN、Transformer等DL模型 (手写self-attention考过几次)
  • 实现precision、recall、ROC等常见评估指标
  • 如何设计一个推荐系统的架构?
  • 如何设计LLM的部署和服务流程?
  • 如何优化模型训练和推理的效率?
  • 如何设计实验和A/B测试?
回复

使用道具 举报

地里匿名用户
匿名用户-HY4EC  2024-6-17 15:18:00
本楼:   👍  0
0%
0%
0   👎
继续updated, 持续update看到MLE相关好贴和资源。 求加大米



https://www.1point3acres.com/bbs/thread-901595-1-1.html
回复

使用道具 举报

地里匿名用户
匿名用户-HY4EC  2024-6-17 21:32:39
本楼:   👍  0
0%
0%
0   👎
LLM近几个月比较常见的问题

What are some ways to adapt LLMs to new tasks?
Explain the Transformer architecture, including the encoder, decoder, QKV, and attention mechanisms.
Why do we choose decoder-only models instead of encoder-decoder models for certain tasks?
What is LoRA (Low-Rank Adaptation) and what is it used for in the context of LLMs?
What are the differences and advantages/disadvantages between continue training and LoRA training for LLMs?
If we want to train an LLM to output a specific style, what techniques should we use?
Describe the differences between BERT and vanilla Transformer models.
What are the differences in attention mechanisms and position embeddings across various LLMs like OPT and LLaMA?
How would you reduce the latency of an LLM at inference time?
What changes are needed when moving an LLM from offline to online usage?
Explain the tokenizer mechanism used in LLMs and describe the different types of tokenizers.
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册账号
隐私提醒:
  • ☑ 禁止发布广告,拉群,贴个人联系方式:找人请去🔗同学同事飞友,拉群请去🔗拉群结伴,广告请去🔗跳蚤市场,和 🔗租房广告|找室友
  • ☑ 论坛内容在发帖 30 分钟内可以编辑,过后则不能删帖。为防止被骚扰甚至人肉,不要公开留微信等联系方式,如有需求请以论坛私信方式发送。
  • ☑ 干货版块可免费使用 🔗超级匿名:面经(美国面经、中国面经、数科面经、PM面经),抖包袱(美国、中国)和录取汇报、定位选校版
  • ☑ 查阅全站 🔗各种匿名方法

本版积分规则

Advertisement
>
快速回复 返回顶部 返回列表