Pythonと[stable-diffusion-webui]でローカル環境に生成AIをインストールした時の手順を備忘録的に投稿しておきます。
ローカル環境に生成AIをインストール
chatGPTに聞きながら、[stable-diffusion-webui]をインストールしてみたが、依存ライブラリのバージョンでエラーが発生する。
一部のライブラリをダウングレードするなどが必要だったので動作したライブラリのインストール手順を記録しておきます。
とりあえず仮想環境を作成(ライブラリのダウングレードを伴うので専用の環境を作っておいた方がベター)
python -m venv .venv
.venv\Scripts\activate.ps1
PyTorch関連のライブラリをインストール(利用するCUDAのバージョンを合わせる)
pip install torch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 --index-url https://download.pytorch.org/whl/cu117
[pytorch-lightning]をダウングレード
pip install pytorch-lightning==2.0.9
GitHubから直接[stable-diffusion-webui]をコピー。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
[stable-diffusion-webui]のインストール
cd stable-diffusion-webui
pip install -r requirements.txt
[stable-diffusion-webui]を起動
python launch.py
CUDAを利用した依存ファイルのインストール
CUDAが利用できる環境であればライブラリの処理をGPUに任せることで高速な処理が実現できます。
CUDAを利用した依存ファイルのインストールについては別記事をご覧ください。
まとめ
今回は短い記事ですが、Pythonと[stable-diffusion-webui]でローカル環境に生成AIをインストールする際の手順について書きました。
生成AIのローカルインストールを考えている人の参考になれば幸いです。
スポンサーリンク
最後までご覧いただき、ありがとうございます。
