来自北京大学、上海 AI Lab 和加州大学圣巴巴拉分校的十位研究者近期发布了一篇关于 in-context learning 的综述论文。 随着语言模型和语料库规模的逐渐扩大,大型语言模型(LLM)展现出更多的潜力。近来一些研究表明,LLM 可以使用 in-context learning(ICL)执行一 ...
Google 的新野心:用「嵌套学习」解释一切深度学习架构 今天介绍一篇来自 Google Research 的非常有意思的论文《Nested Learning: The Illusion of Deep Learning Architecture》(嵌套学习:深度学习架构的错觉),发表在 NeurIPS 2025 上。