🔧 Windows 系统安装步骤
1. 系统与硬件准备
- 操作系统:Windows 10/11(64 位)。
- 硬件要求:
- 显卡:NVIDIA 显卡(推荐显存≥4GB,SDXL 模型需≥8GB),支持 CUDA 加速。
- 内存:建议 12GB 以上,避免生成大尺寸图像时卡顿。
- 存储空间:基础安装需 10GB,模型库建议预留 50GB 以上。
- 软件依赖:
- Python 3.10/3.11(3.9 版本已不再支持)。
- Visual C++ Redistributable:微软官方运行库,解决 DLL 加载问题。
- Hugging Face Token:用于下载模型(注册账号后获取)。
2. 下载与解压安装包
- 下载方式:
- 官方渠道:从 GitHub 最新版本页(https://github.com/invoke-ai/InvokeAI/releases)下载对应系统的安装包(如
InvokeAI-installer-v4.2.3.zip
)。 - 国内加速:若网络受限,可通过第三方镜像站(如openai.wiki)获取网盘分流包。
- 官方渠道:从 GitHub 最新版本页(https://github.com/invoke-ai/InvokeAI/releases)下载对应系统的安装包(如
- 解压路径:
- 将压缩包解压至非系统盘(如 D 盘),建议路径简洁(例如
D:\InvokeAI
),避免中文或特殊符号。 - 关键文件:解压后目录包含
install.bat
(安装脚本)、WinLongPathsEnabled.reg
(长路径支持注册表文件)。
- 将压缩包解压至非系统盘(如 D 盘),建议路径简洁(例如
3. 安装前环境配置
- 启用长路径支持:
- 双击
WinLongPathsEnabled.reg
文件,确认添加注册表项,解决路径过长导致的安装失败问题。
- 双击
- 安装 Python:
- 检查版本:若系统未安装 Python 3.10/3.11,安装包内通常已包含对应版本(如
python-3.11.1-amd64.exe
),双击运行并勾选Add Python to PATH
。 - 验证安装:打开 CMD,输入
python --version
,确保输出Python 3.10.x
或3.11.x
。
- 检查版本:若系统未安装 Python 3.10/3.11,安装包内通常已包含对应版本(如
- 安装 Visual C++ 库:
- 若安装过程中提示 DLL 错误,访问微软官网下载最新版运行库并安装。
4. 执行自动化安装脚本
- 启动安装:
- 双击
install.bat
,脚本将自动检测环境并安装依赖(包括 PyTorch、xformers 等)。 - 注意:安装过程需联网下载约 2-3GB 依赖项,耗时可能长达 30 分钟,建议保持网络稳定。
- 双击
- 配置选项:
- 安装路径:默认
C:\Users\用户名\invokeai
,可自定义(需确保目录有足够空间)。 - GPU 选择:若有 NVIDIA 显卡,脚本会自动配置 CUDA 环境;若无显卡或使用 CPU 模式,选择对应选项。
- 安装路径:默认
- Hugging Face Token:
- 安装中途会提示输入 Token,登录Hugging Face 官网创建 Token(权限选择
write
),粘贴后继续。
- 安装中途会提示输入 Token,登录Hugging Face 官网创建 Token(权限选择
5. 启动与测试
- 启动程序:
- 安装完成后,双击
invoke.bat
,选择选项1
或2
启动 Web 界面(默认端口9090
)。 - 首次运行:程序会自动下载基础模型(如 Stable Diffusion 1.5),耗时约 5-10 分钟。
- 安装完成后,双击
- 访问界面:
- 打开浏览器,输入
http://localhost:9090
,进入 InvokeAI 操作面板。 - 测试生成:在文本框输入提示词(如
A fantasy landscape with dragons
),点击Invoke
生成图像,验证部署是否成功。
- 打开浏览器,输入
🖥️ Mac 系统(M1/M2 芯片)安装步骤
1. 系统与工具准备
- 操作系统:macOS 12.3+(Monterey 及以上)。
- 硬件要求:
- 芯片:Apple Silicon(M1/M2)或 Intel 芯片(需 Rosetta 转译)。
- 内存:建议 8GB 以上,M1 芯片的统一内存架构可优化显存使用。
- 软件依赖:
- Homebrew:包管理器,用于安装依赖项(如 Python、cmake)。
- Python 3.10/3.11:通过 Homebrew 安装或使用系统自带版本。
- Xcode Command Line Tools:用于编译依赖库,首次使用时系统会提示安装。
2. 安装 Homebrew 与依赖项
- 安装 Homebrew:
- 打开终端,执行以下命令(M1 芯片路径为
/opt/homebrew
):bash/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
- 配置环境变量:编辑
.zshrc
或.bash_profile
,添加:bashexport PATH="/opt/homebrew/bin:$PATH"
- 验证安装:输入
brew --version
,确保输出版本号(如3.6.14
)。
- 打开终端,执行以下命令(M1 芯片路径为
- 安装依赖工具:bash
brew install cmake protobuf rust python@3.10 git wget
- 说明:
python@3.10
为指定版本 Python,避免与系统默认版本冲突。
- 说明:
3. 下载与安装 InvokeAI
- 获取安装包:
- 从 GitHub 下载 Mac 版安装包(如
InvokeAI-installer-v4.2.3-mac.zip
),解压至用户目录(如~/invokeai
)。
- 从 GitHub 下载 Mac 版安装包(如
- 执行安装脚本:
- 打开终端,进入解压目录,拖拽
install.sh
到终端窗口并回车:bashcd ~/invokeai bash install.sh
- 配置选项:
- 安装路径默认
~/invokeai
,可自定义。 - 选择
Apple Silicon (M1/M2)
或Intel
架构,根据芯片类型选择。
- 安装路径默认
- 打开终端,进入解压目录,拖拽
- 处理依赖项:
- 脚本会自动安装 PyTorch(基于 MPS 加速)、xformers 等库,耗时约 20-30 分钟,需保持网络畅通。
4. 配置与启动
- Hugging Face Token:
- 安装过程中提示输入 Token,操作方式与 Windows 一致,粘贴后继续。
- 启动程序:
- 安装完成后,在终端执行:bash
cd ~/invokeai ./invoke.sh
- 选择选项
1
启动 Web 界面,浏览器访问http://localhost:9090
。
- 安装完成后,在终端执行:
- 模型下载:
- 首次启动会下载基础模型,M1 芯片可利用 Metal Performance Shaders(MPS)加速,生成速度优于 CPU 模式。
5. M1/M2 芯片优化
- 显存管理:
- 在
invokeai.yaml
中配置max_cache_vram_gb
为显存的 70%-80%(如 8GB 显存设为 6GB),避免内存溢出。
- 在
- 性能调优:
- 使用
--medvram
或--lowvram
参数启动,启用分块加载模式,降低显存占用。
- 使用
- Rosetta 转译(仅 Intel 芯片):
- 若使用 Intel Mac,右键
install.sh
选择Get Info
,勾选Open using Rosetta
,确保脚本以 x86 模式运行。
- 若使用 Intel Mac,右键
🛠️ 进阶配置与优化
1. 模型管理与扩展
- 添加自定义模型:
- 将下载的模型文件(如
.safetensors
或.ckpt
)放入models/stable-diffusion
目录,重启程序后在界面中选择Load Model
加载。
- 将下载的模型文件(如
- 模型库推荐:
- 基础模型:Stable Diffusion 1.5、SDXL 1.0(需高显存)。
- 风格模型:Deliberate(写实)、Anything-V3(动漫),可从CivitAI或Hugging Face获取。
- LoRA 与 ControlNet:
- 将 LoRA 文件放入
models/lora
,ControlNet 模型放入models/controlnet
,通过界面插件加载。
- 将 LoRA 文件放入
2. 显存优化策略
- 低显存模式:
- 编辑
invokeai.yaml
,添加:yamlenable_partial_loading: true pytorch_cuda_alloc_conf: backend: cudamallocasync
- 保存后重启程序,启用模型分块加载,4GB 显存可生成 512x512 图像。
- 编辑
- 动态缓存调整:
- 根据显存大小设置
max_cache_ram_gb
(内存缓存)和device_working_mem_gb
(显存预留),例如:yamlmax_cache_ram_gb: # 系统内存32GB时 device_working_mem_gb: # 预留3GB显存用于推理
- 平衡缓存与速度,避免频繁磁盘读写导致延迟。
- 根据显存大小设置
3. 命令行高级功能
- 批量生成:
- 使用
invokeai-batch
命令行工具,按预设提示词和参数批量渲染图像:bashinvokeai-batch --prompt "A sunset over the ocean" --n_samples --output_dir ./batch_output
- 使用
- 模型训练(需专业版):
- 通过
invokeai-train
命令微调 LoRA 模型,指定数据集和训练参数:bashinvokeai-train lora --pretrained_model sd-1.5 --train_data_dir ./my_dataset --output_name my_lora
- 通过
4. 性能监控与调试
- 查看日志:
- 启动时终端会显示 GPU/CPU 使用情况、内存占用等信息,若生成缓慢可检查是否调用了正确设备(如
Using device: mps
或cuda:0
)。
- 启动时终端会显示 GPU/CPU 使用情况、内存占用等信息,若生成缓慢可检查是否调用了正确设备(如
- 显存分析:
- 使用
nvidia-smi
(Windows/Linux)或Activity Monitor
(Mac)监控显存占用,确保未超出显卡容量。
- 使用
🚨 常见问题与解决方案
1. 安装失败或依赖错误
- Python 版本不兼容:
- 解决:卸载旧版 Python,重新安装 3.10/3.11,并确保
python
命令指向正确版本。
- 解决:卸载旧版 Python,重新安装 3.10/3.11,并确保
- Visual C++ 库缺失:
- 解决:从微软官网下载对应版本(x64)安装,重启后重试。
- 网络连接问题:
- 解决:使用代理或镜像源(如
https://mirrors.ustc.edu.cn
)加速下载,或离线安装依赖包。
- 解决:使用代理或镜像源(如
2. 启动后界面无法访问
- 端口占用:
- 解决:检查是否有其他程序占用 9090 端口(如另一个 InvokeAI 实例),通过
invoke.sh --port 8080
指定新端口。
- 解决:检查是否有其他程序占用 9090 端口(如另一个 InvokeAI 实例),通过
- 防火墙拦截:
- 解决:在 Windows 防火墙或 Mac 安全设置中允许
invoke.bat
/invoke.sh
访问网络。
- 解决:在 Windows 防火墙或 Mac 安全设置中允许
3. 生成图像质量差或失败
- 模型文件损坏:
- 解决:删除
models
目录下的异常文件,重新下载模型或验证文件哈希值。
- 解决:删除
- 提示词权重问题:
- 解决:使用
(keyword:1.5)
语法提升关键词权重,或通过Negative Prompt
排除不良内容(如text, watermark
)。
- 解决:使用
- 显存不足:
- 解决:降低图像分辨率(如从 1024x1024 降至 512x512)、启用低显存模式,或升级显卡。
4. Mac M1/M2 专属问题
- MPS 加速未启用:
- 解决:确保 PyTorch 版本支持 MPS(>=1.12),在终端输入
python -c "import torch; print(torch.backends.mps.is_available())"
验证,若返回False
需重新安装依赖。
- 解决:确保 PyTorch 版本支持 MPS(>=1.12),在终端输入
- 权限不足:
- 解决:在
系统设置 > 隐私与安全性 > 开发者工具
中允许终端访问文件系统。
- 解决:在
📊 性能对比与选型建议
场景 | Windows(NVIDIA GPU) | Mac(M1/M2) |
---|---|---|
生成速度 | 快(CUDA 加速,RTX 3090 生成 512x512 约 5 秒) | 中(MPS 加速,M1 Pro 约 10 秒) |
显存支持 | 高(支持 24GB + 显存模型) | 中(依赖统一内存,建议≤8GB) |
扩展性 | 强(支持 ControlNet、LoRA 等插件) | 中(部分插件需适配 ARM 架构) |
适合用户 | 专业设计师、开发者 | 轻度用户、移动办公 |
- 推荐配置:
- 预算充足:Windows + RTX 4090 显卡,适合高分辨率、复杂模型生成。
- 便携优先:MacBook Pro M2 Max,兼顾性能与续航,适合旅途中创作。
📌 总结与资源
通过以上步骤,无论是 Windows 还是 Mac 用户均可完成 InvokeAI 的本地部署,解锁 AI 绘画的无限可能。从基础的文本生成图像,到高级的模型训练与工作流设计,InvokeAI 凭借开源生态和灵活配置,成为创意工作者的得力工具。如需进一步优化或探索新功能,可参考以下资源:
- 官方文档:InvokeAI Documentation
- 社区支持:GitHub Issues、Discord 频道
- 模型库:Hugging Face Models、CivitAI
【该文章由dudu123.com嘟嘟 ai 导航整理,嘟嘟 AI 导航汇集全网优质网址资源和最新优质 AI 工具】