查看: 1600| 回复: 1
收起左侧

LLM 实用 insights 分享

polarcat2 | 显示全部楼层
本楼:   👍  1
100%
0%
0   👎
全局:   208
100%
0%
1

注册一亩三分地论坛,查看更多干货!

您需要 登录 才可以下载或查看附件。没有帐号?注册账号

x
本帖最后由 polarcat2 于 2025-5-11 20:50 编辑

分享这个五月刚出不久的video:https://www.youtube.com/watch?v=NHMJ9mqKeMQ
个人觉得非常实用. 比如:
  • Fine-tuning 也可以用来将知识融入模型权重,但这可能导致过拟合和幻觉增加。并且一旦知识固化在权重中,更新会变得困难。相比之下,上下文记忆更容易更新。通常,RAG 比持续 Fine-tuning 成本更低。(个人觉得Fine-tuning 比RAG inference 时会快一些, 但RAG更实用,更容易Adapt)
  • 对于处理数十亿 token 的大规模知识库(如企业知识库),RAG 仍然是必需的。长上下文并不会取代 RAG,而是会协同工作。长上下文允许模型容纳 RAG 检索到的更多相关信息,这有助于提高有用信息的召回率。
  • 生成思维轨迹(generate a thinking trace)之所以有效,是因为它允许模型超越其网络深度在一单次处理中的限制,通过利用自身生成的输出来构建理解,并执行更复杂的逻辑步骤,从而能够解决单靠模型内部处理难以解决的任务
  • 如果模型需要依赖上下文记忆而非权重记忆(例如更新过时信息),应通过 Prompt 明确指示,如使用“基于以上信息”之类的短语,以解决潜在的冲突或歧义

分享给大家。希望有用。希望加些大米。感谢各位老板!

上一篇:最容易起步的 facial expression + eye tracking + voice classification
下一篇:UCI CS的同学回中国可以用学校的VPN远程工作吗?
igp2bgp 2025-5-12 12:43:29 来自APP | 显示全部楼层
本楼:   👍  0
0%
0%
0   👎
全局:   172
93%
7%
13
有人说rag converge 很慢,不如mcp, 当然 tool 要写的够好,且llm 能支持 tool calling.
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册账号
隐私提醒:
  • ☑ 禁止发布广告,拉群,贴个人联系方式:找人请去🔗同学同事飞友,拉群请去🔗拉群结伴,广告请去🔗跳蚤市场,和 🔗租房广告|找室友
  • ☑ 论坛内容在发帖 30 分钟内可以编辑,过后则不能删帖。为防止被骚扰甚至人肉,不要公开留微信等联系方式,如有需求请以论坛私信方式发送。
  • ☑ 干货版块可免费使用 🔗超级匿名:面经(美国面经、中国面经、数科面经、PM面经),抖包袱(美国、中国)和录取汇报、定位选校版
  • ☑ 查阅全站 🔗各种匿名方法

本版积分规则

>
快速回复 返回顶部 返回列表