本次測試一共收到三張顯卡,分別是NVIDIA RTX? A4000、NVIDIA RTX? A4500、NVIDIA RTX? A5000顯卡,顯存大小分別是16GB、20GB、24GB,搭配測試的塔式工作站主機是全新戴爾Precision 3660塔式工作站,搭載第十三代英特爾?酷睿? i7-13700處理器,內存為32GB,硬盤為2T+256G SSD。
模型訓練的基本要求
Lora與Dreambooth
提到訓練模型,我想簡單地介紹一下關于Stable Diffusion模型訓練的基本概念與模型訓練對配置的更低需求(注:這里所指的需求是我結合官網推薦以及本次測試結果綜合考量后得到的)!
提到模型的訓練,就不得不說一下關于大模型的基礎模型和微調模型的概念:
基礎模型
大模型的基礎模型在SD中指的是Stable diffusion:V1.4/V1.5/V2.0等,這些都是大模型,它們泛化性、通用性很好,是官方利用大量的數據訓練而來。對于大模型的基礎模型訓練我們個人用戶或者微小企業而言成本太高了,所以大模型的基礎模型訓練不在本次的測試范圍之內。
微調模型
本次測試的主要內容是訓練微調模型,而微調模型的種類很多,其中分為在大模型的基礎模型的基礎上結合自己的自有數據進行二次訓練,從而得到新的微調大模型(Dreambooth),以及在大模型基礎模型的基礎上,訓練Lora、Embedding、Hypernetwork等微調模型。
鑒于Embedding、Hypernetwork這兩種微調模型實用性目前來看不是很高,所以此次測試主要以訓練Lora模型為主。其中新生成的微調大模型(Dreambooth)就是我們在SD界面中上方所切換的模型。
而微調模型Lora模型,是我們在大模型生成的基礎上對畫面的風格進行微調時所調用的模型。
對于訓練來說,微調大模型(Dreambooth)和微調模型(Lora)又分不同的版本,比如SD1.5版本的Dreambooth模型與Lora模型以及SDXL的Dreambooth模型與Lora模型,兩大版本不同的模型在訓練過程中對配置的要求是不一樣的。
如果想要訓練SD1.5的微調模型(Lora),要求我們的硬件顯存必須要6G以上,這是更低要求,而我推薦想要進行微調模型的訓練,顯存更好超過8GB。
如果想要訓練SD1.5的大模型(Dreambooth),需要我們的硬件顯存必須要12GB以上,這里也是更低要求,我推薦的顯存也是12GB。