本地运行AI模型的最简单方法(ollama/lm-studio)

本地运行AI模型的最简单方法

本地运行AI模型主要分两部分:

  1. 运行AI模型的后端服务
  2. 处理用户输入交互的前端界面

LM-Studio

2026-03-17 update:

使用LM-Studio在AMD显卡上运行模型更简单,比Ollama使用方便,对模型更好设置参数,模型更新的也快,需要在程序里面搜索模型,能看到更多的模型,官网看到的模型数量很少,软件里面是直接从hugging-face获取的模型列表,并且官方支持HuggingFace的代理。

  • 官方模型下载代理,需要在设置菜单中的General中打开Use LM Studio's Hugging Face Proxy,不过下载速度没有ollama的快,可以自己使用工具下载gguf的模型,在软件中加载自己下载好的模型文件。
  • 在软件左侧工具中的模型搜索中就可以下载想要的模型,并且软件会提示这个模型在本机能否正常运行
  • 软件提供自己的API和OpenAI兼容的API接口服务,可以使用LM-studio在后台加载运行模型,在CherryStudio中使用API来访问模型
  • 在软件顶部的加载模型列表中,可以手动选择模型加载的参数,例如模型的上下文大小,GPU负载的数量,软件会预估GPU的使用,如果配置的参数超过本机性能,系统会立即提示
  • 在软件右侧可以设置这次聊天的模型参数设置例如温度,输出格式,默认的系统提示词等
  • 自己使用过程中,觉得和Ollama的速度差不多,只有第一次加载的时候需要时间多一点

Ollama运行AI模型

Ollama安装配置

2026-03-17 新版本Ollama与以前安装有差异

  1. 在命令行执行 OllamaSetup.exe /DIR="D:\Program\Ollama",后面的DIR参数用来指定Ollama的安装位置
  2. 可以直接按窗口程序中设置模型的位置

AMD显卡配置

2026-03-17 update:

https://github.com/likelovewant/ollama-for-amd/releases
最新支持AMD的6650XT的版本是0.16.1
HIP支持6650XT的版本是6.4.2,这也是6.x的最后一个版本了,7.x现在还不知道是否支持6650XT

ollama-windows-amd64.7z
HIP 6.4.2
rocm.gfx1032.for.hip.6.4.2.7z

参考https://github.com/patientx/ComfyUI-Zluda 来升级为6.4.2版本

  1. uninstall 6.2.4 and then delete the ROCm directory from your Program Files folder otherwise there may be problems even after uninstalling.
  2. Install HIP SDK 6.4.2 from AMD ROCm Hub
  3. Add entries for HIP_PATH and HIP_PATH_62 to your System Variables (not user variables), both should have this value: C:\Program Files\AMD\ROCm\6.2\
  4. Check the PATH system variable and ensure that C:\Program Files\AMD\ROCm\6.4\bin is in the list.
  5. Download this addon package from Google Drive (or alternative source)
  6. Extract the addon package into C:\Program Files\AMD\ROCm\6.4 overwriting files if asked
  7. Get library files for your GPU from rocm.gfx1032.for.hip.6.4.2.7z
  8. 使用下载的包中的library目录覆盖C:\Program Files\AMD\ROCm\6.4\bin\rocblas\library
  9. 把下载包中rocblas.dll文件覆盖到C:\Program Files\AMD\ROCm\6.4\bin目录
  • Ollama使用6.4.2的Rocm
  1. 解压ollama-windows-amd64.7zD:\Program\ollama-windows-amd64\

  2. 删除D:\Program\ollama-windows-amd64\lib\ollama\rocm\rocblas\library目录

  3. rocm.gfx1032.for.hip.6.4.2.7z中的library目录替换进去

  4. rocm.gfx1032.for.hip.6.4.2.7z中的rocblas.dll放到D:\Program\ollama-windows-amd64\lib\ollama\rocm

  5. 运行ollama serve,可以看到日志

    1
    library=ROCm compute=gfx1032 name=ROCm0 description="AMD Radeon RX 6650 XT" libdirs=ollama,rocm driver=60450.10 pci_id=0000:07:00.0 type=discrete total="8.0 GiB" available="7.0 GiB"
  6. ollama run xxx,运行一个模型后,可以在任务管理器中明显看到显存使用增加

以我的电脑AMD 6650 XT 8G显卡为例:

  1. 下载ollama-windows-amd64.7z ,并解压到D:\Program Files\ollama-windows-amd64
  2. 由于Ollama默认不支持 6650XT ,所以需要使用对应显卡内核编译好的的库,例如6650的内核为gfx1032.可以从 https://rocm.docs.amd.com/projects/install-on-windows/en/develop/reference/system-requirements.html 查看
  3. https://github.com/likelovewant/ROCmLibs-for-gfx1103-AMD780M-APU/releases 下载适用于gfx1032的版本rocm.gfx1032.for.hip.sdk.6.1.2.7z 也可以尝试最新版本
  4. 下载AMD的HIP SDK https://www.amd.com/en/developer/resources/rocm-hub/hip-sdk.html ,之前下载的是6.1.2版本,所以SDK也要下载6.1.2版本. HIP SDK可以简单理解为AMD的CUDA平替
  5. 安装HIP SDK后,把下载的rocm.gfx1032.for.hip.sdk.6.1.2中的文件覆盖 C:\Program Files\AMD\ROCm\6.1\bin目录中的rocblas.dllC:\Program Files\AMD\ROCm\6.1\bin\rocblas\library目录
  6. 使用rocm.gfx1032.for.hip.sdk.6.1.2的文件替换ollama安装目录的rocblas.dllD:\Program Files\ollama-windows-amd64\lib\ollama\rocblas\library目录
  7. 在Ollama目录中运行ollama serve,可以看到输出日志msg="inference compute" id=0 library=rocm variant="" compute=gfx1032 driver=6.2 name="AMD Radeon RX 6650 XT" total="8.0 GiB" available="7.8 GiB"说明可以以显卡来运行ollama中的模型
  8. 配置ollama的模型默认安装位置(默认C盘用户目录下的.ollama),新增环境变量OLLAMA_MODELS,值为想要放置模型的目录D:\ollama
  9. 执行ollama run huihui_ai/deepseek-r1-abliterated:8b 安装deepseek-r1-abliterated的模型,也可以在ollama官网安装想用的其他模型,安装完成后,就可以在命令提示符中执行进行对话
    ollama_install_model
    ollama_install_model

对话交互UI

Ollama可以直接和Open-webUI配合使用,默认不需要任何配置。https://github.com/open-webui/open-webui

安装open webUI

  1. 安装python 3.11以上版本,我使用Python 3.12.2 (tags/v3.12.2:6abddd9, Feb 6 2024, 21:26:36) [MSC v.1937 64 bit (AMD64)] on win32也是可行的
  2. 安装pip install open-webui 这个步骤持续时间很长
  3. 运行open-webui serve
  4. 浏览器中http://127.0.0.1:8080/ 访问时,提示注册一个本地用户,随便注册就行

open_webui
open_webui

0%