Bei den Tools zur Bildgenerierung handelt es sich um Text-zu-Bild-KI. Man gibt nach einem Prompt (einer Eingabeaufforderung) die Beschreibung dessen ein, was man auf dem Bild sehen will. Dann greift die anhand einer riesigen Menge von Bild- und Beschreibungsdaten trainierte KI auf entsprechende Motive zu und konstruiert eine Abbildung, die den Text-Input umsetzt. Je vollständiger die eingegebene Beschreibung ist, desto perfekter ist anschließend das Bild, das die KI erzeugt. Die aktuellsten Bild-KI sind spezielle Autoencoder oder Diffusion-Modelle, künstliche neuronale Netze, die neue Daten generieren können. Ich gehe davon aus, dass alle drei gängigen Tools eine ähnliche Modellarchitektur besitzen. Als Entwickler für KI-Plattformen interessiert mich zudem auch der Programmcode. Der ist bei "Midjourney" geheim, bei "Stable Diffusion" hingegen offen.