Tenstorrent 的最新一代 AI 芯片 Grendel 将采用芯片封装架构,并将高性能 RISC-V CPU 核心和 AI 核心分开,以提高性能和灵活性。
该芯片的架构类似于 GPU,但更优,因为它没有 L2 缓存,并使用小型嵌入式 CPU 核心来启动内核和数据传输。
Tenstorrent 还拥有强大的 CPU 架构团队,使其成为未来混合 AI 工作负载的最佳选择。
Will Whitney 提出了将 AI 视为工具而非人的新型交互模式,即“模型即计算机”。他认为,将大型模型视为计算机应用可以提供更丰富、更强大的计算环境,允许用户通过图形界面与模型进行高效互动。这种模式将克服当前“模型即人”隐喻的局限性,并可能引领计算的新范式,允许用户实时生成和修改应用程序,从而改变我们与计算机的互动方式。
“GitHub地图”项目展示了超过40万个GitHub项目,每个点代表一个项目,点的位置取决于它们有多少共同的星星。项目使用了公共数据集,并通过AWS EC2实例进行计算,最终将项目分为1000多个集群。
微软推出Phi-4,这是Phi系列中的最新小型语言模型,拥有14B参数,擅长数学等复杂推理,同时进行传统语言处理。Phi-4在Azure AI Foundry上可用,并将于下周在Hugging Face上推出。
谷歌DeepMind推出了新一代视频生成模型Veo 2,该模型能够根据简单的指令生成具有真实感和高质量输出的视频,分辨率可达4K。Veo 2在细节、真实感和去噪方面相较于其他AI视频模型有了显著提升。该模型还具备先进的运动能力,能够精确地遵循详细指令,并模拟真实的物理效果。此外,Veo 2提供了更广泛的相机控制选项,可以创造出多样化的镜头风格和角度。Veo 2在MovieGenBench数据集上的性能超过了其他顶级视频生成模型。
OpenAI发布12月11日事故报告,揭示系统过载导致服务中断
OpenAI近日公开了12月11日发生的一起系统故障的详细报告。报告指出,由于数千个节点同时执行操作,导致Kubernetes API服务器过载,进而使大部分大型集群的控制平面崩溃。此次事件凸显了系统过载作为常见故障模式的严重性,并强调了在全面负载条件下测试系统的重要性。OpenAI工程师通过多策略并行操作,成功恢复了集群运行,但此次事件也揭示了系统复杂性导致的意外交互和DNS缓存延迟对问题诊断的影响。
东京初创公司Sakana AI的研究人员开发了一种新技术,可以使语言模型更高效地使用内存,从而帮助企业降低在大型语言模型(LLMs)和其他Transformer模型基础上构建应用程序的成本。该技术被称为“通用Transformer内存”,使用特殊的神经网络优化LLMs,保留重要的信息,丢弃冗余的细节。实验表明,使用NAMMs,Transformer模型在非常长的序列上在自然语言和编码问题上表现更好。同时,通过丢弃不必要的标记,NAMM使LLM模型在执行任务时节省高达75%的缓存内存。
《信息学教育》杂志于2024年12月10日发表了Michael Kölling撰写的一篇题为《教育编程语言设计原则》的开放获取文章。文章探讨了编程语言设计在教育领域的重要性,以及为何教育工作者在初学者编程语言的选择上仍存在分歧。文章回顾了自Niklaus Wirth提出的编程语言设计原则,如简洁性、模块化、正交性和可读性,并分析了这些原则在当前技术背景下的含义和解释。此外,文章讨论了教育语言与行业语言之间的相对优势,并强调每一代学习者都需要适合自己时代的编程语言。