分享此頁

熱門新聞

AI 新創 Groq 發表「比 NVIDIA GPU 更快」新型晶片 LPU,引爆 AI 社群! @ 2024-02-23T08: 返回 熱門新聞
關鍵詞:比亞迪 中國 新能源車 全球 特斯拉 車銷量 電動車
概念:
Groq 采用新AI 晶片「LPU」,每秒產生約247 個token,而微軟Azure 只能每秒產生約18 個。#半導體,人工智慧,AI,GPU,Groq,LLM,Transformer,LPU...
【明報專訊】AI晶片龍頭Nvidia(美:NVDA)的圖像處理器(GPU),通常被視為運行AI模型的標配,但對於大型語言模型(LLM)的處理效率,AI初創公司Groq...
聊天機械人背後必須依賴晶片運算。美國人工智能(AI)晶片初創Groq最近聲名大噪,該企主打研發「語言處理單元」(LPU)晶片,當中采用張量流處理...
近日有AI芯片初創展示用LPU推論引擎執行大型語言模型(LLM)並開放免費試用,引起全球AI社群關注。該初創專門用於AI推論的芯片效能速度,...
芯片推理速度較英偉達GPU提高10倍、成本只有其1/10;運行的大模型生成速度接近每秒500 tokens,碾壓ChatGPT-3.5大約40 tokens/秒的速度——短短幾天,...
FX168財經報社(北美)訊周二(2月20日),Groq是最新出現的人工智能(AI)工具,憑藉其響應速度和可能無需GPU的新技術,正在席卷社交媒體。
許多X平台用戶展示Groq與ChatGPT的效能比較影片,在兩者的對話介面輸入同樣提示,顯示Groq生成答案的速度遠快於ChatGPT.
最近流行的AI 聊天機械人雖然方便,不過其實背後需要大量的運算才可以運作,AI 運算晶片因此也變得相當搶手。AI 晶片初創Groq 最近就開放免費試用,...
【明報專訊】AI晶片龍頭Nvidia(美:NVDA)的圖像處理器(GPU),通常被視為運行AI模型的標配,但對於大型語言模型(LLM)的處理效率,AI初創公司Groq...

流動版 | 完全版
論壇守則 | 關於我們 | 聯繫方式 | 服務條款 | 私隱條款 | 免責聲明 | 網頁指南
版權所有 不得轉載 (C) 2025 Suntek Computer Systems Limited.
免責聲明 : 88iv設立此一網站,旨在以最快捷的方式為公眾人士提供清楚準確的最新資料,但在整理資料及編寫程式時或會有無心之失。故88iv特此聲明,此一網站所載的資料如有任何不確之處、遺漏或誤植錯字,並引致任何直接或間接的損失或虧損,88iv概不負責,亦不會作出任何賠償(不論根據侵權法、合約或其他規定亦然)。此外,88iv並不保證本網站所載的資料乃屬正確無誤及完整無缺,亦不擔保可以及時將資料上網及內容適合有關用途。