czy społeczeństwa są na to gotowe !/?
Przynajmniej ja jeszcze nie i zapieranie się nic nie zmieni,
trzeba będzie się nauczyć z tym żyć w symbiozie:
Od następnego semestru dodaje tematy wykorzystujące elementy powstałe przez AI do ćwiczeń.
![]() |
Specjalne oprogramowanie i GUI do niego AUTOMATIC1111wykorzystując karta grafiki RTX3070 8GB przez 20 sekund wygenerowała lokalnie coś co nie istnieje i jest nieprawdopodobne |
Stable Diffusion zjadacz zasobów większy niż BITCOIN
Moja domowa NVIDIA Quadro P400 256 rdzeni CUDA (odpowiednik GeForce GT 1030), 2GB GDDR5 wystarczy na wygenerowanie obrazu maksymalnej wielkości 512x320 pikseli.
PASCAL [GT]: FP64(1:32) / FP32 / FP16 (1:64)
TURING [GTX]: FP64(1:32) / FP32 / FP16 (2:1)
set COMMANDLINE_ARGS=--skip-torch-cuda-test --no-half --precision full --use-cpu all
Szału nie ma bo,
Można włączyć tryb oszczędzania oraz współdzielenia pamięci i generować obrazy o większej rozdzielczości, ale wtedy prędkość obliczeń spada drastycznie i w dodatku nie ma to sensu, bo obrazy stają mniej "ładne / nie realne" prawdopodobnie z powodu za małej ilości pamięci: 6min (512x512), 45min (1024x1024), 110min (1600x1200)
Quadro P400 2GB 512x320, Euler'a, 20steps, CFG12 "supercow, drawing, oil, rgb, full color"
NVIDIA Quadro do 75W
PASCAL: P4002GB25630W P6002GB38440W P6202GB51240W P10004GB64047W P20004GB102475W
TURING: T4002GB4GB38430W T6004GB64040W T10004GB8GB89650WPASCAL: P4002GB25630W P6002GB38440W P6202GB51240W P10004GB64047W P20004GB102475W
PASCAL [GT]: FP64(1:32) / FP32 / FP16 (1:64)
TURING [GTX]: FP64(1:32) / FP32 / FP16 (2:1)
QUADRO P1000 4GB [Samsung 14nm] {640} 1266(1480) FP16(1:64) FP32: 1.6(1.9) TFLOPS
NVIDIA T1000 8 GB [TSMC 12nm] {896} 1065(1395)MHz FP16(2:1): 3.8(5) TFLOPS
NVIDIA T1000 8 GB [TSMC 12nm] {896} 1065(1395)MHz FP16(2:1): 3.8(5) TFLOPS
Stable Diffusion CPU
webui-user.bat:set COMMANDLINE_ARGS=--skip-torch-cuda-test --no-half --precision full --use-cpu all
Szału nie ma bo,
RTX3070 podczas generacji obrazu (1024x1024) wykorzystywało prawie 6GB GDDR6 (8GB dostępnych) i obliczenia trwały tylko 20 sekund , a liczone na procesorze są 60 razy wolniejsze i potrzeba 64GB RAM (sam pyton w peaku zajmuje ponad 40GB). Ale z drugiej strony obliczenia są z pełną jakością (--precision full) i "przez noc" mogę wygenerować też jeszcze większe obrazy, dla których 8GB RAM grafiki nie wystarczy.
CPU INTEL i7-9700: 512x512 ~8s/it 2:40; 1024x1024 -81s/it 28:06; 1600x1200 246s/it 82:20,
2048x2048 pyton deklaruje rezerwacje pamięci do 78 807 680 KB 1312s/it ~7h godzin.
Brak komentarzy:
Prześlij komentarz