标签:Ollama API

使用客户端对话本地deepseek大模型

前面我们讲到了如何在本地部署deepseek开源大模型,“使用ollama本地部署deepseek”。使用ollama部署之后有一个很不好的就是每次需要使用命令行来进行对话。这...

快速本地部署Meta Llama3模型以及API调用

在本地安装Ollama 首先我们需要在本地先安装Ollama。Ollama是一个开源项目,专为运行、创建和分享大型语言模型而设计,并为开发者和研究者提供一个方便的部署...