llama.cpp 本地大模型多一个选择

使用流程:

一、下载llama.cpp windows版本的exe程序

https://github.com/ggml-org/llama.cpp/releases


二、下载GGUF格式的模型文件,跟llama放在同一个目录
https://huggingface.co/models?sort=trending&search=Qwen3.5

三、打开CMD,或者在LLama目录 直接运行CMD

#命令行交互方式
llama-cli -m Qwen3.5-0.8B-BF16.gguf

#webui界面交互方式
llama-server -m Qwen3.5-0.8B-BF16.gguf --port 8080


llama-server -m Qwen3.5-35B-A3B-UD-IQ3_S.gguf -c 8192 -ngl 999 --port 8080



如果您喜欢本站,点击这儿不花一分钱捐赠本站

这些信息可能会帮助到你:下载帮助 | 报毒说明 | 进站必看

修改版本安卓软件,加群提示为修改者自留,非本站信息,注意鉴别

(0)

发表回复

评论问题之前, 点击我,能帮你解决大部分问题

评论列表(0条)

请用支付宝扫一扫完成支付