一夜之间,初创公司Groq爆火,其在同名模型启动器上运行的大模型,能够每秒输出近500个token,输出速度比Gemini快10倍,比GPT-4快18倍。
Groq并没有研发新模型,主页上运行的是开源模型Mixtral 8x7B-32k和Llama 270B-4k。其神速的响应源于自研的语言处理单元LPU。根据Groq官网的介绍,LPU是一种专为AI推理所设计的芯片。
Groq官网的测试资料显示,由Groq LPU驱动的Meta Llama 2模型推理性能是顶级云计算供应商的18倍。Groq创始人Jonathan Ross称,在大语言模型任务上,LPU比英伟达的GPU性能快10倍,但价格和耗电量都仅为后者的十分之一。单卡仅有230MB内存,2万美元一张。
自研芯片速度碾压英伟达10倍 初创公司Groq一夜爆火。点击视频,一看究竟!
文章作者
视点
相关视频 09'18'' 英伟达营收好于市场预期 黄仁勋称人工智能触及“临界点”丨从华尔街到陆家嘴 11小时前 01'56'' 2035年中国人工智能产业规模将达到1.73万亿元 业内:大模型对算力和效率提出极大考验 01-16 22:44 07'53'' 英伟达推出新芯片 宣称在人工智能PC竞赛中处于领先地位丨从华尔街到陆家嘴 01-09 10:12 01'55'' 英伟达或成今年全球半导体收入第一名 分析师:并非高枕无忧 2023-12-26 22:42 00'56'' 英伟达新产品被曝出首张渲染图 改良版AI芯片或明年1月接受预定 2023-12-26 22:41 一财最热 点击关闭