查看: 10991| 回复: 42
收起左侧

你们说现在nlp的research还有什么搞头?

  |只看干货
本楼: 👍   59% (16)
 
 
40% (11)   👎
全局: 👍   74% (119)
 
 
25% (41)    👎

注册一亩三分地论坛,查看更多干货!

您需要 登录 才可以下载或查看附件。没有帐号?注册账号

x
都是堆大模型,模型上超越self-attention已不可能,所以没什么可搞的了,chatgpt也是一个工程化的东西;multimodal,multilingual搞来搞去还是用transformer;in-context learning prompt这一套我感觉就不像科学;搞搞新的setting像什么human in the loop这种也是大花头;text-to-image aigc这些只有大lab能玩的起;nlp在其他各种花里胡哨的地方的application(social good,bio,political science等等)这种又没什么意思。
求大佬指点江山。

上一篇:如何高效的做实验管理
下一篇:求助大佬 有无chatbot free deployment平台?评论都会加米!
run93 2023-1-28 01:51:47 来自APP | 显示全部楼层
本楼: 👍   100% (33)
 
 
0% (0)   👎
全局: 👍   97% (429)
 
 
2% (10)    👎
我想你应该知道现在我们学习和使用的算法代码都是2012年手写数字识别的算法爆火了以后研究起来的。在此之前,人工智能经历了两次起落。

在这第三次火起来之前,这些researcher是如何沉住气,在第二次人工智能的消沉中慢慢推进的?因为A模型打压B模型,就不继续改进B模型和研发C模型了吗?

评分

参与人数 2大米 +2 收起 理由
oracler + 1 赞一个
flyaway1217 + 1 赞一个

查看全部评分

回复

使用道具 举报

run93 2023-1-28 02:42:28 来自APP | 显示全部楼层
本楼: 👍   100% (21)
 
 
0% (0)   👎
全局: 👍   97% (429)
 
 
2% (10)    👎
Giveatry 发表于 2023-01-27 10:18:16
你也是个杠精 我都不爱回你 我帖子的意思是现在不太可能有 麻烦您去各大顶会上看看有多少能提出说自己超越self-attention的东西  别回复我了哥
现在各大顶会没有提出超越selfattention的东西,没问题,我认同的,这代表的就是机遇,你如果潜心研究提出一个,你就是新一代大佬啊,没有人天生就是大佬的。。。我还是要回到之前的讨论,请问你是如何因此得出你帖子第一句话“模型上超越selfattention已不可能”,有论文证明吗?还是说你认为一个东西现在没有就是不可能?
回复

使用道具 举报

run93 2023-1-28 01:53:29 来自APP | 显示全部楼层
本楼: 👍   100% (17)
 
 
0% (0)   👎
全局: 👍   97% (429)
 
 
2% (10)    👎
Giveatry 发表于 2023-01-27 09:37:30
求你反驳我吧 有任何一个LLM超越transformer架构的吗?能不能读读paper再回复我
现在没有LLM超越Transfoemers架构的研究,以后就不可能会有吗?还从原理上证明就不可能吗?求你发个从原理上证明LLM无法超越Transformers架构的论文看看。。。
回复

使用道具 举报

flyaway1217 2023-1-27 23:55:44 | 显示全部楼层
本楼: 👍   100% (4)
 
 
0% (0)   👎
全局: 👍   89% (95)
 
 
10% (11)    👎
对大模型进行explainable的分析也是一个近年来比较火的方向
回复

使用道具 举报

S__F 2023-1-28 00:00:33 来自APP | 显示全部楼层
本楼: 👍   100% (3)
 
 
0% (0)   👎
全局: 👍   92% (105)
 
 
7% (9)    👎
从用户的角度来看,感觉NLP还有很多需要搞的
回复

使用道具 举报

brtt13 2023-1-28 00:07:47 来自APP | 显示全部楼层
本楼: 👍   100% (4)
 
 
0% (0)   👎
全局: 👍   94% (2114)
 
 
5% (133)    👎
Research 角度来说,nlp近几年不如cv……应用角度另说
回复

使用道具 举报

jkooy 2023-1-28 01:21:01 | 显示全部楼层
本楼: 👍   100% (5)
 
 
0% (0)   👎
全局: 👍   95% (1069)
 
 
4% (49)    👎
第一句就不同意,模型上超越self-attention已不可能,你是从哪得出来这个结论?剩下来每点都想反驳你,懒得打字
回复

使用道具 举报

 楼主| Giveatry 2023-1-28 01:37:30 来自APP | 显示全部楼层
本楼: 👍   22% (2)
 
 
77% (7)   👎
全局: 👍   74% (119)
 
 
25% (41)    👎
jkooy 发表于 2023-01-27 09:21:01
第一句就不同意,模型上超越self-attention已不可能,你是从哪得出来这个结论?剩下来每点都想反驳你,懒得打字
求你反驳我吧 有任何一个LLM超越transformer架构的吗?能不能读读paper再回复我

评分

参与人数 1大米 +1 收起 理由
oracler + 1 赞一个

查看全部评分

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册账号
隐私提醒:
  • ☑ 禁止发布广告,拉群,贴个人联系方式:找人请去🔗同学同事飞友,拉群请去🔗拉群结伴,广告请去🔗跳蚤市场,和 🔗租房广告|找室友
  • ☑ 论坛内容在发帖 30 分钟内可以编辑,过后则不能删帖。为防止被骚扰甚至人肉,不要公开留微信等联系方式,如有需求请以论坛私信方式发送。
  • ☑ 干货版块可免费使用 🔗超级匿名:面经(美国面经、中国面经、数科面经、PM面经),抖包袱(美国、中国)和录取汇报、定位选校版
  • ☑ 查阅全站 🔗各种匿名方法

本版积分规则

>
快速回复 返回顶部 返回列表