产品功能

  • - 提供快速的人工智能推理服务,支持开源模型如Llama 3.1。
  • - 通过更改三行代码,可以轻松从其他提供商如OpenAI迁移到Groq。
  • - 提供与OpenAI端点的兼容性,允许用户设置Groq API Key和选择模型运行。
  • - 声称其速度即时,并通过Artificial Analysis的独立基准测试证明其基础开源模型的快速推理能力。
  • - 支持市场上领先的开源AI模型,如LLAMA、MIXTRAL、GEMMA和WHISPER。
  • - 提供全球访问的GroqCloud™服务,包括公共、私有和共云实例。
  • - 提供开发者层级,支持更高的速率限制和批量API 25%的折扣。
  • - 提供Flex Tier beta访问,支持按需处理,适用于优先快速推理的工作负载。
  • - 引入新的用例,支持在Groq速度下运行的AI应用程序。
应用市场介绍

Groq的LPU™ Inference Engine是一款集硬件与软件于一体的平台,提供卓越的计算速度、质量及能效。支持快速AI推理服务,兼容LLama 3.1等开源模型,轻松实现向Groq迁移。与OpenAI端点兼容,全球GroqCloud™服务覆盖,支持公共、私有及共云实例。开发者层级提供更高速率限制及批量API折扣。Flex Tier beta支持按需处理,适用于优先推理工作负载。新用例支持在Groq速度下运行的AI应用,并引入Qwen-2.5-32b等模型,提供长上下文支持,助力复杂数学与编程任务。

收起

用户评价

你有多大可能性向朋友推荐 Groq is Fast AI Inference
0
1
2
3
4
5
6
7
8
9
10
非常不推荐
非常推荐
请分享你的使用体验,帮助其他用户更好地了解这个产品
用户评论
暂无用户评价,马上成为第一个评价该产品的人吧~