2 月 2 日,OpenAI 正式发布了 Codex 的独立桌面 App,并向所有 Apple 设备上的 ChatGPT 用户限时开放。这款应用不再只是“写代码的助手”,而是试图把 AI 编程推进到多智能体协作的新阶段。
阅读之前记得关注+星标⭐️,,每天才能第一时间接收到更新 多年来我一直是终端/Emacs 的忠实用户,但自从使用 Codex 应用程序后,再回到终端就感觉像是回到了过去。这简直是专为Agent打造的原生开发界面体验这是OpenAI总裁Greg Brockman为刚刚推出的Codex ...
比如,Claude是完美的CTO,它沟通能力超强,非常聪明;它不会照搬你的想法,而是很有主见,同时也非常愿意协作,这也是Claude最吸引他的地方。
阶跃星辰联合创始人兼 CTO 朱亦博在最新的博客中提到,Step 2 模型时代,他们也曾是 Scaling Law(规模定律)的忠实信徒。和当时所有的模型厂商一样,他们认真地爬着那座名为参数的梯子,设计了比 DeepSeek V3 ...
杨植麟在AMA中正面回应了这个问题:在正确的系统提示词下,模型回答“我是Kimi”的概率非常高。网友指出的现象主要是因为 团队在预训练阶段对最新编程数据进行了上采样,而这些数据与“Claude”这个token的关联性较强 。 事实上,K2.5在许多基准测试中都优于Claude。
月之暗面核心团队近日在社交媒体平台Reddit上举办了一场备受瞩目的有问必答活动,三位联合创始人杨植麟、周昕宇和吴育昕与全球网友展开深度交流,话题涵盖模型技术、行业趋势以及公司发展等多个方面,从凌晨持续到凌晨三点,解答了众多关键疑问。 活动伊始,就有网友提出尖锐问题,质疑Kimi K2.5自称Claude是对其进行蒸馏的证据。杨植麟解释,这是由于预训练阶段对最新编程数据上采样,而这些数据与“Cla ...
智东西(公众号:zhidxcom)编译 | 陈骏达编辑 | ...
笔者在学习这门课的过程中整理了各种课程资源,包括视频、笔记、书籍等。具体如下: 这是笔者最用心整理也是花的时间最多的,读者可以边看视频边看我的笔记,希望能给读者提供微薄之力。所有精炼笔记都已发布在个人主页上。但是为了便于大家线下阅读 ...
点击上方“Deephub Imba”,关注公众号,好文章不错过 !这篇文章从头实现 LLM-JEPA: Large Language Models Meet Joint Embedding Predictive Architectures。需要说明的是,这里写的是一个简洁的最小化训练脚本,目标是了解 JEPA 的本质:对同一文本创建两个视图,预测被遮蔽片段的嵌入,用表示对齐损失来训练。本文的目标是 ...
对于备受期待的Kimi K3,杨植麟透露将在Kimi Linear架构基础上进行多项优化,虽然未承诺具体性能提升倍数,但坚信新模型将带来显著进步。团队正在探索持续学习技术以增强模型自主性,同时保持对线性注意力机制的研究投入。针对模型个性变化的问题,吴育昕承认这是当前面临的棘手挑战,正在努力平衡性能提升与用户个性化需求。
Vibe Coding的进化速度,可能还是超乎了我们的想象。 今天,我们在测试Kimi K2.5的网页生成功能时,旁边的前端开发同事还以为是真实的网页场景,低声问我:“你这是在写代码吗,还是在摸鱼打游戏?” ...
近期,人工智能领域迎来重要动态,大模型公司Kimi在海外市场取得显著进展,其海外收入已超越国内收入,新模型K2.5发布后,全球付费用户数量实现4倍增长,这一变化在短短数日内便迅速显现。