安装
Ollama的安装方式常用的有两种,一种是去官网下载,另一种是去GitHub下载,可以选择对应的系统版本进行下载
官网首页直接下载 https://ollama.com/
Github Relase下载 https://github.com/ollama/ollama/releases
模型
运行模型
ollama run qwen2:0.5b
访问
Ollama提供服务的本质是http接口,通过http接口的方式来调用/api/generate接口
curl http://localhost:11434/api/generate -d '{
"model": "qwen2:7b",
"prompt": "请你告诉我你知道的天气有哪些?用json格式输出",
"stream": false
}'
上面提到了两种方式访问Ollama服务,一种是命令行的方式,另一种是http接口的方式。这两种虽然方式原始,但是并没有界面操作显得直观
WebUI
选用的是一个Open WebUIOpen WebUI
useful links
https://www.cnblogs.com/mq0036/p/18866251