LocalForge AILocalForge AI
BlogFAQ
← Zurück zum Blog
EN

Stable Diffusion auf AMD GPUs: Lokales unzensiertes Setup 2026

Kann man Stable Diffusion auf AMD Radeon GPUs lokal ausführen? Ja — hier erfährst du wie. ROCm unter Linux, DirectML unter Windows, Leistungserwartungen und welche AMD-Karten funktionieren.

AMD funktioniert

Stable Diffusion läuft nicht nur auf NVIDIA. Mit ROCm (Linux) oder DirectML (Windows) kannst du auch AMD GPUs für die KI-Bildgenerierung nutzen.

Linux + ROCm

RX 7900 XT/XTX, RX 7800 XT, RX 6800 XT oder besser empfohlen. ROCm installieren und den ROCm-Build von PyTorch verwenden. Leistung liegt bei 70-90% des NVIDIA-Äquivalents.

Windows + DirectML

DirectML ist Windows-nativ und unterstützt die meisten AMD GPUs. Allerdings langsamer als ROCm mit einigen Funktionseinschränkungen.

Empfohlene Konfiguration

Budget: RX 7800 XT (16 GB VRAM). High-End: RX 7900 XTX (24 GB VRAM). Linux wird dringend empfohlen.