传统基础模型在S-NIAH单针大海捞针等简单检索任务中尚能维持表现,但在信息密度更高的复杂任务中,其推理性能随输入长度增加而下降。相比之下,RLM在输入长度超过特定阈值区间后,依然保持得分稳定性。
说到底,MIT这项关于递归语言模型的研究为我们展示了一种全新的AI工作方式。不再是让AI硬记所有信息,而是教会AI如何聪明地利用外部资源,如何分解复杂问题,如何进行有效的信息管理。这种方式不仅更加高效,也更加接近人类的思维模式。
《MIT科技评论》发布对2026年人工智能领域的五大趋势预测:其一,中国开源大模型因开放权重和高度可定制性,将在美国硅谷获得更广泛采用;其二,美国将陷入联邦与州之间的监管拉锯战;其三,AI购物助手将改变零售业,预计到2030年代理商务规模可达数万亿美元;其四,大语言模型将辅助人类做出重要科学发现,有望在数学、材料学等领域催生新突破;其五,针对AI公司的法律诉讼将升级,相关审判将逐步厘清法律责任边界 ...
科技行业薪酬数据印证了这场人才争夺战的激烈程度。据Business Insider获取的2025年一季度招聘记录显示,Thinking Machines为技术员工开出平均46.25万美元年薪,其中基础薪资最高达50万美元。这一水平不仅远超OpenAI技术团队29.2万美元的平均年薪,也高于Anthropic的38.75万美元。尽管与me ta某些高管超亿元薪酬仍有差距,但在初创公司中已属顶尖水准。
麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究团队提出了一种突破性方法,旨在解决大型语言模型处理超长文本时面临的“上下文腐烂”难题。这项发表于arXiv平台的研究(编号:2512.24601v1)显示,通过引入递归语言模型(RLM),AI系统处理长文本的能力实现了两个数量级的跨越,同时保持成本可控甚至更低。 传统语言模型在面对长文本输入时,性能会随文本长度增加而急剧下降。研究团队将其类 ...