社区对此反应不一。有人指出相关论文早在2022年就发表了,质疑这是否算"新"技术。但核心论文提出的是数学概念,最新进展在于将其成功应用于现代AI硬件和大模型场景。也有人担心这种方法对LLM是否实用,因为序列化注意力计算可能带来速度问题。