0%

利用大模型量化技术可以显著地减少大模型推理部署时的显存开销。

通过分片可以将模型分割成小块,每个分片包含模型的较小部分,通过在不同设备上分配模型权重来解决GPU内存限制。

能在单个显卡上部署的支持中文的开源LLM推荐。