Всем привет. Решил сделать памятку по самым важным вещам при установке ComfyUI. Это довольно элементарные вещи, но так как переустановку ComfyUI делаешь не часто, то на эти вещи можно убить час, а когда по прошествии часа, ты найдешь как это делать, то непременно скажешь — да это же элементарно, можно ничего не записывать и так понятно, но в следующий раз опять убьешь час.
Что нужно сделать сразу после установки ComfyUI
Установка менеджера нод
https://github.com/Comfy-Org/ComfyUI-Manager
Установка crystools
crystools — удобная панелька для мониторинга загрузки CPU, GPU, RAM, очистки памяти и т.д. Заходим в Manager -> Custom Nodes Manager -> вводим Crystools, ждём Install на ComfyUI-Crystools , после установки перезапускаем ComfyUI
Симлинки
Не обязательная для ComfyUI, но очень удобная вещь, особенно если у вас модели раскиданы по разным папкам и дискам. К примеру вам нужна модель которая у вас находится в папке F:\AI\Files\text_encoders\Qwen3-4B-UD-Q8_K_XL.gguf
а должна она быть в C:\ComfyUI_windows_portable\ComfyUI\models\clip\Qwen3-4B-UD-Q8_K_XL.gguf
Вы можете ввести команду
mklink "C:\ComfyUI_windows_portable\ComfyUI\models\clip\Qwen3-4B-UD-Q8_K_XL.gguf" "F:\AI\Files\text_encoders\Qwen3-4B-UD-Q8_K_XL.gguf"
Физически, модель будет лежать там же где и лежала, но система будет думать что она находится в
C:\ComfyUI_windows_portable\ComfyUI\models\clip\Qwen3-4B-UD-Q8_K_XL.gguf. Чтобы не прописывать симлинки через командную строку, можете воспользоваться небольшой программой HardLinkShellExt_X64 , скачать её можно по ссылке https://schinagl.priv.at/nt/hardlinkshellext/linkshellextension.html
https://schinagl.priv.at/nt/hardlinkshellext/linkshellextension.html
Установка SageAttention
SageAttention — это метод оптимизации механизма внимания (attention) в трансформерных моделях. Его главная цель — ускорение в 2.1–2.7× по сравнению с PyTorch, без заметной потери качества. По умолчанию ComfyUI использует PyTorch Attention (нативный механизм внимания PyTorch)
Заходим в папку python_embeded вашего ComfyUI у меня она находится в C:\ComfyUI_windows_portable\python_embeded
Запускаем cmd и теперь нам нужно узнать какую версию Python использует ваш ComfyUI — вводим python.exe -V теперь мы видим версию Python — у меня 3.12.10
cmd
python.exe -V
Теперь нам нужно скачать эту версию Python и установить её на компьютер. Скачать можно по адресу https://www.python.org/downloads/windows/ Переходим, ищем нужную вам версию, скачиваем и устанавливаем. По умолчанию она устанавливается в папку с вашим профилем, у меня это.
C:\Users\vaf\AppData\Local\Programs\Python\Python312
https://www.python.org/downloads/windows/
Теперь нам нужно скопировать папки liclude и libs из установленного python в папку python_embeded вашего ComfyUI. У меня это в C:\ComfyUI_windows_portable\python_embeded
Возвращаемся в наш терминал и устанавливаем python.exe -m pip install triton-windows
python.exe -m pip install triton-windows
Теперь нам нужно посмотреть какой torch использует ваш ComfyUI, делается это командой python.exe -m pip show torch
python.exe -m pip show torch
- Переходим на https://github.com/woct0rdho/SageAttention , нажимаем на последний релиз Releases и находим SageAttention который сответствует вашей версии torch. Так как у меня torch 2.9.1+cu128 то моя версия sageattention-2.2.0+cu128torch2.9.0.post3-cp39-abi3-win_amd64.whl нам нужно скопировать ссылку на неё в буфер обмена.
https://github.com/woct0rdho/SageAttention
Теперь возвращаемся в терминал и вводим команду python.exe -m pip install ваша ссылка. У меня получилось вот так
python.exe -m pip install https://github.com/woct0rdho/SageAttention/releases/download/v2.2.0-windows.post3/sageattention-2.2.0+cu128torch2.9.0.post3-cp39-abi3-win_amd64.whl и дожидаемся окончания установки
python.exe -m pip install ваша ссылка
Чтобы использовать sageattention нам нужно подредактировать файл для запуска ComfyUI, run_nvidia_gpu.bat дописав в конец —use-sage-attention
у меня получилось .\python_embeded\python.exe -s ComfyUI\main.py —windows-standalone-build —use-sage-attention
--use-sage-attention
Второй способ использования Sage Attention через ноду KJNodes, зайдите Manager -> Custom Nodes Manager и введиде в поиске KJNodes , у вас появится нода ComfyUI-KJNodes, установите её