高级农民
 
- 积分
- 1478
- 学分
- 个
- 大米
- 颗
- 鳄梨
- 个
- 水井
- 尺
- 蓝莓
- 颗
- 萝卜
- 根
- 小米
- 粒
- UID
- 188922
- 注册时间
- 2015-10-19
- 最后登录
- 1970-1-1
- 在线时间
- 小时
- 好友
- 收听
- 听众
- 日志
- 相册
- 帖子
- 主题
- 分享
- 精华
升级
  11.95%
 分享帖子到朋友圈
|
本楼: |
👍
100% (6)
|
|
0% (0)
👎
|
全局: |
👍 97% (417) |
|
2% (10) 👎 |
注册一亩三分地论坛,查看更多干货!
您需要 登录 才可以下载或查看,没有帐号?注册账号
x
传送门:
https://www.1point3acres.com/bbs/thread-713903-1-1.html 一
https://www.1point3acres.com/bbs/thread-714090-1-1.html 二
Again这是面经整理,不是全面的知识点整理。
面经范围仅限楼主自己扒到的帖子..剔除了一些我觉得过于少见的题目..
欢迎大家把自己的答案贴在回复里..
5. implementation 、推导类
写代码实现两层fully connected网络
手写CNN
手写KNN
手写K-means
手写softmax的backpropagation
给一个LSTM network的结构要你计算how many parameters
convolution layer的output size怎么算? 写出公式
6.项目经验类
训练好的模型在现实中不work,问你可能的原因
Loss趋于Inf或者NaN的可能的原因
生产和开发时候data发生了一些shift应该如何detect和补救
annotation有限的情況下你要怎麼Train model
假设有个model要放production了但是发现online one important feature missing不能重新train model 你怎么办
7. NLP/RNN相关
LSTM的公式是什么
why use RNN/LSTM
LSTM比RNN好在哪
limitation of RNN
How to solve gradient vanishing in RNN
What is attention, why attention
Language Model的原理,N-Gram Model
What’s CBOW and skip-gram?
什么是Word2Vec, loss function是什么, negative sampling是什么
8. CNN/CV相关
maxpooling, conv layer是什么, 为什么做pooling,为什么用conv lay,什么是equivariant to-translationa, invariant to translation
1x1 filter
什么是skip connection
(楼主没有面任何CV的岗位之前所以基本没收集到什么CV相关的问题)
=========================
9. 关于准备考ML 概念的面试的一些建议
1. 如果你简历上提到了一个模型,请确保你对这个模型有着深入全面的了解 (比如很多人可能简历里都提到了XgBoost,但是可能了解并不全面)
举个例子,我简历上提到了Graph Convolutional NN, 我面试的时候就被要求不用包手写一个简单的GCN。
2. 如果job description上提到了某些模型,最好对这些模型也比较熟悉。
3. 对你这个组的domain的相关模型要熟悉。
比如,你面一个明确做NLP的组,那么上述面经就过于基础了。
你或许还要知道 What is BERT, explain the model architecture;what is Transformer model, explain the model architecture;Transformer/BERT 比LSTM好在哪;difference between self attention and traditional attention mechanism;或许你还要知道一些简单的做distill的方法..或许根据组的方向你还要知道ASR, 或者Chat bot等等的方向的一些widely used的模型或者方法。
比如你面一个CTR的组,或许可能你大概至少要稍微了解下wide-and-deep
比如你面一个CV-segment的组,你或许可能要了解DeepMask,U-Net...等等..
你应该不一定需要知道最SOTA的模型,但是知道那些最广为运用的模型或许可能是必要的。这是我的想法,不一定正确。
最后最后 还是希望大家能多多回复一些你们收集到的 高频 的面经。
以及你们的对于某个问题的答案的想法。大家一起讨论。
|
评分
-
查看全部评分
|