# 使用 IPEX-LLM 在 Intel GPU 上运行 Ollama Portable Zip

< English | 中文 >

本指南演示如何使用 [Ollama portable zip](https://github.com/intel/ipex-llm/releases/tag/v2.2.0-nightly) 通过 `ipex-llm` 在 Intel GPU 上直接免安装运行 Ollama。 > [!NOTE] > 目前,IPEX-LLM 仅在 Windows 上提供 Ollama portable zip。 ## 目录 - [系统环境安装](#系统环境准备) - [步骤 1:下载和解压](#步骤-1下载和解压) - [步骤 2:启动 Ollama Serve](#步骤-2启动-ollama-serve) - [步骤 3:运行 Ollama](#步骤-3运行-ollama) ## 系统环境准备 检查你的 GPU 驱动程序版本,并根据需要进行更新: - 对于 Intel Core Ultra processors (Series 2) 或者 Intel Arc B-Series GPU,我们推荐将你的 GPU 驱动版本升级到[最新版本](https://www.intel.com/content/www/us/en/download/785597/intel-arc-iris-xe-graphics-windows.html) - 对于其他的 Intel 核显和独显,我们推荐使用 GPU 驱动版本 [32.0.101.6078](https://www.intel.com/content/www/us/en/download/785597/834050/intel-arc-iris-xe-graphics-windows.html) ## 步骤 1:下载和解压 从此[链接](https://github.com/intel/ipex-llm/releases/tag/v2.2.0-nightly)下载 IPEX-LLM Ollama portable zip。 然后,将 zip 文件解压到一个文件夹中。 ## 步骤 2:启动 Ollama Serve 在解压后的文件夹中双击 `start-ollama.bat` 即可启动 Ollama Serve。随后会弹出一个窗口,如下所示:
## 步骤 3:运行 Ollama 在 Intel GPUs 上使用 Ollama 运行 LLMs,如下所示: - 打开命令提示符(cmd),并通过在命令行输入指令 `cd /d PATH\TO\EXTRACTED\FOLDER` 进入解压后的文件夹 - 在命令提示符中运行 `ollama run deepseek-r1:7(可以将当前模型替换为你需要的模型)