回复: 4
收起左侧

Coinbase MLE Intern OA面经

匿名用户-NDC0A  2025-2-6 08:44:12
本楼:   👍  0
0%
0%
0   👎

2025(1-3月) MachineLearningEng 硕士 实习@Coinbase - 网上海投 - 在线笔试  | 🙁 Negative 😣 Hard | WaitList | 应届毕业生

注册一亩三分地论坛,查看更多干货!

您需要 登录 才可以下载或查看附件。没有帐号?注册账号

x
本帖最后由 匿名 于 2025-2-5 19:50 编辑

Linkedin海投的,2025 summer MLE Intern。总体下来我觉得偏难,上来直接两个OA。
第一个OA: 包含assessment of logical reasoning和assessment measuring your alignment with the Coinbase cultural tenets。logical reasoning15分钟50题,包含多种题目:简单算术题,图表题,数字找规律,图形找规律,英语完形填空...反正50个题15分钟我觉得绝大
您好!
本帖隐藏的内容需要积分高于 188 才可浏览
您当前积分为 0。
使用VIP即刻解锁阅读权限或查看其他获取积分的方式
游客,您好!
本帖隐藏的内容需要积分高于 188 才可浏览
您当前积分为 0。
VIP即刻解锁阅读权限查看其他获取积分的方式
iers,x和y。输出经过majority voting后的predicted y。答案大概长这样:
  1. from random import randint, seed
  2. from sklearn.tree import DecisionTreeClassifier
  3. import numpy as np

  4. def bootstrap(n: int) -> list[int]:
  5.     """
  6.     Step 1: Bootstrap the train samples for each base classifier.
  7.     """
  8.     indices = [randint(0, n-1) for _ in range(n)]
  9.     return indices

  10. def fit(classifiers: list[DecisionTreeClassifier], x: list[list[float]], y: list[int]):
  11.     """
  12.     Step 2: Train each classifier based on its own bootstrapped samples.
  13.     """
  14.     n_samples = len(x)
  15.     for clf in classifiers:
  16.         indices = bootstrap(n_samples)
  17.         x_bootstrapped = [x[i] for i in indices]
  18.         y_bootstrapped = [y[i] for i in indices]
  19.         clf.fit(x_bootstrapped, y_bootstrapped)

  20. def predict(classifiers: list[DecisionTreeClassifier], x: list[list[float]]) -> list[int]:
  21.     """
  22.     Step 3: Assign class labels by a majority vote of the base classifiers.
  23.     """
  24.     predictions = np.array([clf.predict(x) for clf in classifiers])
  25.     # Majority vote
  26.     final_predictions = np.apply_along_axis(lambda x: np.bincount(x).argmax(), axis=0, arr=predictions)
  27.     return final_predictions.tolist()

  28. def solution(x_train: list[list[float]], y_train: list[int], x_test: list[list[float]], n_estimators: int) -> list[int]:
  29.     """
  30.     Step 4: Pull everything together
  31.     """
  32.     seed(42)
  33.     classifiers = [DecisionTreeClassifier(random_state=0) for _ in range(n_estimators)]
  34.     fit(classifiers, x_train, y_train)
  35.     return predict(classifiers, x_test)
复制代码
第三道code:手动实现Naive Bayes算法。到这我已经没时间了。

总体而言,我觉得Coinbase疯了。
请给点米吧!!!真的好多都看不了,以后还会分享更多相关经验的。

评分

参与人数 3大米 +12 收起 理由
腹语大师加菲猫 + 1 赞一个
清道神君 + 10 欢迎分享你知道的情况,会给更多大米奖励!
physicsbamboo74 + 1 很有用的信息!

查看全部评分


上一篇:Meta Tech Screening
下一篇:麦塔 变种怎么做
roy081 2025-2-8 05:24:04 | 显示全部楼层
本楼:   👍  0
0%
0%
0   👎
全局:   4
80%
20%
1
刚做完,一样的题,最后一题没时间写了。第一题recall那个说我选错了,那个1不是positive吗,哎也不知道为什么。反正刚刚邮件说不move on,行了我没面试了,TMD麻了
回复

使用道具 举报

地里匿名用户
匿名用户-NDC0A  2025-2-8 06:11:35
本楼:   👍  0
0%
0%
0   👎
roy081 发表于 2025-2-7 16:24
刚做完,一样的题,最后一题没时间写了。第一题recall那个说我选错了,那个1不是positive吗,哎也不知道为 ...

有提前看看我的面经么hhh
扫码关注一亩三分地求职移民公众号
更多干货内容等你发现
回复

使用道具 举报

roy081 2025-2-8 06:55:27 | 显示全部楼层
本楼:   👍  0
0%
0%
0   👎
全局:   4
80%
20%
1
本帖最后由 roy081 于 2025-2-7 16:02 编辑
匿名用户 发表于 2025-2-7 15:11
有提前看看我的面经么hhh

我提前看了很多面经,应该没有你的,因为我就是周二做的hhhhh
回复

使用道具 举报

地里匿名用户
匿名用户-NDC0A  2025-2-9 01:43:46
本楼:   👍  0
0%
0%
0   👎
roy081 发表于 2025-2-7 17:55
我提前看了很多面经,应该没有你的,因为我就是周二做的hhhhh

没事儿,他们不想招人可以明说的,不用搞这么多OA的
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册账号
隐私提醒:
  • ☑ 禁止发布广告,拉群,贴个人联系方式:找人请去🔗同学同事飞友,拉群请去🔗拉群结伴,广告请去🔗跳蚤市场,和 🔗租房广告|找室友
  • ☑ 论坛内容在发帖 30 分钟内可以编辑,过后则不能删帖。为防止被骚扰甚至人肉,不要公开留微信等联系方式,如有需求请以论坛私信方式发送。
  • ☑ 干货版块可免费使用 🔗超级匿名:面经(美国面经、中国面经、数科面经、PM面经),抖包袱(美国、中国)和录取汇报、定位选校版
  • ☑ 查阅全站 🔗各种匿名方法

本版积分规则

Advertisement
>
快速回复 返回顶部 返回列表