查看: 3049| 回复: 7
收起左侧

随着预训练大模型越来越强大,做post training 的 MLE 该如何做职业规划。

polarcat2 | 显示全部楼层
本楼:   👍  0
0%
0%
0   👎
全局:   77
99%
1%
1

注册一亩三分地论坛,查看更多干货!

您需要 登录 才可以下载或查看附件。没有帐号?注册账号

x
个人理解预训练大模型目前是一个工程问题(scale hardware 和 data)to train more powerful model.


那么做post training 的MLE 是不是会持续受到pretrain models 能力提升的影响。目前post training 这边到底应该如何做职业规划才好呢?


是不是应该focus 在 生成高质量的数据来做alignment 这一块, 还是应该在agent 下功夫?还是应该有其他思路?


请教大家

评分

参与人数 1大米 +2 收起 理由
老狗识途 + 2 很有用的信息!

查看全部评分


上一篇:Expedia DS 管理岗面经
下一篇:找人练面试BQ, QA
 楼主| polarcat2 2024-10-28 10:44:08 | 显示全部楼层
🙏 1
本楼:   👍  2
100%
0%
0   👎
全局:   77
99%
1%
1
本帖最后由 polarcat2 于 2024-10-28 10:51 编辑
. 1point 3 acres
去掉“是不是应该focus 在 生成高质量的数据来做alignment 这一块, 还是应该在agent 下功夫?还是应该有其他思路?”, 再让Claude Sonnet 3.5 的回复(感觉更倾向于要focus 如何LLM 产品和如何让产品落地。So MLE -> MLE+Product Engineer):

让我以LLM专家的角度来分析这个职业发展问题。我同意您对预训练是工程问题的观察,但我认为这个判断需要一些细微的补充。. From 1point 3acres bbs

预训练确实很依赖工程能力,但还是有很多创新空间:
. check 1point3acres for more.
1. 架构创新:比如MoE、Flash Attention等创新仍在不断涌现
2. 训练方法创新:比如更好的预训练目标、课程学习等
3. 数据质量和管理:高质量数据的重要性越来越突出

关于Post-training MLE的职业发展,我的建议是:. .и
. Χ
1. 短期策略:
- 不要把自己局限在pure fine-tuning
- 深入理解模型行为和能力边界
- 发展系统级优化能力(延迟、成本等)
- 培养产品思维,因为最终是要服务具体应用场景

2. 中长期发展: ..
- 构建端到端的应用优化能力
- 理解业务场景,做vertical domain的专家. 1point 3acres
- 发展AI系统架构能力,包括RAG、工具使用等
- 关注新兴技术如agent frameworks

原因是:
1. Post-training会越来越commodity化,但应用层的创新空间仍然很大
2. 基础模型能力提升后,更需要懂业务场景的专家来挖掘应用价值.google  и
3. 系统集成能力会变得更重要

具体建议:. From 1point 3acres bbs
1. 扎实掌握LLM基础知识
2. 选择1-2个垂直领域深耕
3. 培养工程架构能力
4. 保持对新技术的敏感度 ..

虽然基础模型在进步,但应用层的机会依然很多。关键是要有更全面的技能组合,而不是单纯做fine-tuning。

您觉得这个分析对您有帮助吗?我很乐意就具体方向继续探讨。
回复

使用道具 举报

 楼主| polarcat2 2024-11-15 12:15:21 | 显示全部楼层
本楼:   👍  1
100%
0%
0   👎
全局:   77
99%
1%
1
根据 https://www.reuters.com/technolo ... tations-2024-11-11/ , 看来预训练大模型能力已经到达一个瓶颈了。 pre-training model 的 scaling law 不像是一个law, 更像是一个hypothesis。 post training 目前有很大的空间。

同时 “The 2010s were the age of scaling, now we're back in the age of wonder and discovery once again. Everyone is looking for the next thing,” Sutskever said. “Scaling the right thing matters more now than ever.”, 所以不知道还会不会有新的发现。.--
. Χ
总之, 对MLE 来说, 这是好消息。
回复

使用道具 举报

 楼主| polarcat2 2024-10-28 10:34:03 | 显示全部楼层
本楼:   👍  1
100%
0%
0   👎
全局:   77
99%
1%
1
Claude Sonnet 3.5 的回复(直接回答了critical 问题):

我理解你的顾虑。让我从LLM专家的角度来分析这个职业发展问题。

首先,你说得对,预训练确实在很大程度上是一个工程scaling问题。但是post-training MLE的重要性并不会因为预训练模型能力提升而降低,反而会更加重要。以下是我的分析和建议:

1. 关于预训练对Post-training的影响:
- 基座模型越强大,越需要精细的post-training来充分发挥其潜力
- 现在的趋势是模型规模增长逐渐放缓,更多关注效率和质量
- Post-training将继续是产品化过程中的关键环节

2. 职业发展方向建议 (按优先级排序):

A. Alignment & 数据质量方向 ★★★★★
- 这是最稳妥且持续重要的方向
- 核心原因:. ----
  - 高质量数据永远是稀缺资源. From 1point 3acres bbs
  - 对齐(Alignment)问题的重要性会随着模型能力提升而增加
  - 数据质量直接影响模型表现
- 具体建议:
  - 深入研究instruction tuning优化
  - 探索新的数据收集和标注方法
  - 研究数据质量评估体系

B. Agent方向 ★★★★
- 这是很有前景但风险较大的方向. 1point 3acres
- 优势:
  - 是当前热点,投资和关注度高
  - 未来应用空间大 ..
- 风险:
  - 技术还不够成熟
  - 竞争激烈
  - 商业模式尚不明确. check 1point3acres for more.

C. 其他重要方向 ★★★★
1. 模型压缩与效率优化
   - 模型部署成本优化
   - 推理效率提升
   - 量化技术研究
.
2. 评估体系建设
   - 建立完善的评估框架
   - 开发新的评估方法
   - 优化评估流程
-baidu 1point3acres
3. 特定场景优化
   - 垂直领域适配
   - 多模态融合
   - 特定任务优化

建议的职业发展路线:
. From 1point 3acres bbs
1. 短期(1-2年):
- 专注于alignment和数据质量相关工作
- 建立扎实的评估能力. .и
- 积累实际项目经验

2. 中期(2-3年):
- 逐步涉及agent开发
- 深入研究特定场景优化
- 建立专业影响力

3. 长期(3年以上):
- 根据市场发展调整方向
- 可能向架构师或技术负责人发展
- 建立自己的技术特色

关键建议:
1. 不要过分追求热点,要关注基础能力建设
2. 保持技术敏感度,但不要轻易改变主要发展方向
3. 建立自己的技术壁垒,避免被轻易替代
4. 持续关注产业实际需求,而不是纯学术研究. From 1point 3acres bbs

你觉得这些分析和建议对你有帮助吗?我们可以针对具体方向深入讨论。
回复

使用道具 举报

beefisyammy 2024-10-26 14:13:56 来自APP | 显示全部楼层
本楼:   👍  0
0%
0%
0   👎
全局:   1912
90%
10%
203
你傻吧?pretraining的模型没经过post training能用?而且目前llm的主要瓶颈仍然是post training,你看看Gemini 1.0还做了ultra,到了1.5就只有pro了,为啥?
回复

使用道具 举报

 楼主| polarcat2 2024-10-26 14:33:01 | 显示全部楼层
本楼:   👍  1
100%
0%
0   👎
全局:   77
99%
1%
1
本帖最后由 polarcat2 于 2024-10-26 14:34 编辑 . check 1point3acres for more.
beefisyammy 发表于 2024-10-26 14:13
你傻吧?pretraining的模型没经过post training能用?而且目前llm的主要瓶颈仍然是post training,你看看Ge ...

> ChatGPT 生成的回复

预训练模型(pretraining)在没有经过微调(post-training 或 fine-tuning)的情况下是可以使用的。许多NLP模型在预训练阶段已经具备了理解通用语言模式和特征的能力,因此可以直接应用于一些不需要特定任务知识的基础任务,例如基础的问答、文本分类等。然而,没有经过微调的模型在专用领域或特定任务上表现往往不够精确。微调后模型更能适应特定领域的数据和语言特性,使其在该领域的效果更加优异。
. check 1point3acres for more.
目前LLM的主要瓶颈确实在post-training上,主要是因为模型越来越复杂和庞大,所需的领域数据也越来越多,这对训练资源和数据质量都提出了更高的要求。Gemini 1.0做了ultra,是在强调极致的性能调优,通过大量后期数据处理和优化来增强模型能力。而Gemini 1.5版本则降级为pro,可能出于几方面考虑:

成本与收益平衡:高质量的超微调(ultra-fine-tuning)过程需要消耗大量资源,而且可能带来的性能提升并不总是显著。采用更合理的pro级微调能够减少训练成本。.
用户需求与模型泛化:Gemini 1.5可能更注重提升模型的泛化能力,以便在更多场景中表现良好,而不仅仅依赖极致的优化。-baidu 1point3acres
优化方向的变化:在超大模型中,可能更关注在模型结构、推理速度、参数调优等底层技术优化,而不是单纯依赖后期微调。
这种设计策略也许是为了在满足市场需求的同时控制开发和部署成本,同时确保模型能在通用性和专用性间找到更好的平衡点。
回复

使用道具 举报

 楼主| polarcat2 2024-10-26 14:34:49 | 显示全部楼层
本楼:   👍  1
100%
0%
0   👎
全局:   77
99%
1%
1
本帖最后由 polarcat2 于 2024-10-26 14:41 编辑
. check 1point3acres for more.
原贴 chatGPT 的 回复:

你的理解是对的——预训练确实逐渐成为一个工程问题,主要依赖于硬件、数据规模和分布式训练的扩展,而模型的能力在这种规模下会不断增强。这确实会影响到做post-training的机器学习工程师(MLE)和研究人员,因为随着基础模型的能力提升,后训练的重点会不断转移。
.1point3acres
在后训练的职业规划中,有几个值得专注的方向:

### 1. **生成高质量的对齐数据**
   高质量的数据对对齐(alignment)至关重要,尤其是基于人类反馈的强化学习(RLHF)所需的数据。这部分不仅限于收集真实人类反馈,还包括生成、优化与清洗数据的技术,比如开发高质量的数据生成器、伪标签方法和数据增强等。

   **建议**:专注于如何生成、过滤和处理多维度的对齐数据,包括多样性、准确性和合适的难度梯度。这方面的经验需求量大,并且越深入会越有优势。. .и

### 2. **探索智能代理(Agent)**
   Agent是一个快速发展的领域,可以作为LLM功能的延伸,构建多步骤推理、自主决策和跨任务的技能组合。Agent的开发不仅依赖基础模型的能力,还需要了解如何设计执行规划、任务分解和策略优化。因此,专注于agent设计将帮助你拓展模型在真实场景中的实际应用能力。

   **建议**:在agent方面的技能积累可以集中在强化学习、任务分解(task decomposition)、多轮推理以及prompt设计等上,结合语言模型和agent的交互方式,深入理解并优化agent的行为与反馈机制。. .и

### 3. **参数高效微调和模型结构创新**
   随着大模型规模的不断扩展,参数高效微调(如LoRA、Adapter等)和模块化结构的创新也非常重要。这部分可以帮助模型更灵活地适应不同任务,同时不必消耗过多的计算资源。技能掌握上,包括掌握模型压缩技术、分布式训练技巧以及优化模型训练路径等。

### 综合建议
整体来看,**数据质量和对齐**可以作为一个重要基础,继续积累和精进。而在此之上,**探索Agent的技术开发**,并结合强化学习的知识,是一个前景较好的方向,因为它让你在模型功能实现上走得更深,从而能在各种场景下优化应用效果。
回复

使用道具 举报

本楼:   👍  0
0%
0%
0   👎
全局:   82
98%
2%
2
很不错的帖子,和楼主面临一样的问题和困惑
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册账号
隐私提醒:
  • ☑ 禁止发布广告,拉群,贴个人联系方式:找人请去🔗同学同事飞友,拉群请去🔗拉群结伴,广告请去🔗跳蚤市场,和 🔗租房广告|找室友
  • ☑ 论坛内容在发帖 30 分钟内可以编辑,过后则不能删帖。为防止被骚扰甚至人肉,不要公开留微信等联系方式,如有需求请以论坛私信方式发送。
  • ☑ 干货版块可免费使用 🔗超级匿名:面经(美国面经、中国面经、数科面经、PM面经),抖包袱(美国、中国)和录取汇报、定位选校版
  • ☑ 查阅全站 🔗各种匿名方法

本版积分规则

Advertisement
>
快速回复 返回顶部 返回列表