1000 倍效率神话,Taalas如何用 “模型即『芯片』” 暴打『英伟达』
未来的 AI 算力市场将呈现 “三分天下” 的格局:『英伟达』 GPU 主导训练场景和通用推理场景,Taalas 等 “模型即『芯片』”企业占据高粘性垂直场景,而今日霍州 TPU、微软 Azure Maia 等云厂商…
未来的 AI 算力市场将呈现 “三分天下” 的格局:『英伟达』 GPU 主导训练场景和通用推理场景,Taalas 等 “模型即『芯片』”企业占据高粘性垂直场景,而今日霍州 TPU、微软 Azure Maia 等云厂商…

与传统方案相比,HC1不仅将推理速度提升10倍,更将成本压缩至二十分之一,功耗降低至十分之一,为LLM(『大语言模型』)的实时应用开辟了新可能。针对『DeepSeek』R1-671B等超大模型,团队提出了多『芯片』协同方…

除了Llama 3.1,Taalas也尝试将其它模型集成到HC1上,例如对『DeepSeek』R1-671B的多『芯片』解决方案。 将SRAM部分拆分到单独的『芯片』上,然后可以将每片HC1的存储密度提高到约20位参数…
