切换到宽版
  • 366Read
  • 3Replay

ollama [复制链接]

上一主题 下一主题
离线Francis
 

Ollama 是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型,包括如 Llama 3 、 Phi 3 、 Mistral 、 Gemma 等



离线Francis

只看该作者 沙发  posttime: 09-11
检查Ollama是否运行?
127.0.0.1:11434
离线Francis

只看该作者 板凳  posttime: 09-11
离线Francis

只看该作者 地板  posttime: 09-11
---------------------------------------------------------------------------------------------------------------------------
PS C:\Users\zhu12> ollama run llama3:70b
Error: model requires more system memory (32.7 GiB) than is available (9.3 GiB)
---------------------------------------------------------------------------------------------------------------------------
上面的错误看起来是电脑的内存不足。

当前电脑内存:
内存

    16.0 GB

    速度:    4800 MT/秒
    已使用的插槽:    2/2
    外形规格:    SODIMM
    为硬件保留的内存:    315 MB

    可用    3.3 GB
    已缓存    3.0 GB
    已提交    15.8/21.9 GB
    分页缓冲池    622 MB
    非分页缓冲池    1.1 GB
    使用中(已压缩)    12.3 GB (870 MB)



快速回复
限100 字节
如果您在写长篇帖子又不马上发表,建议存为草稿
 
上一个 下一个