Wenn eine KI Bilder erstellt – wie funktioniert das eigentlich? Es gibt drei Hauptmethoden der KI-Bildgenerierung, durch die du dich hier durchklicken kannst:
- SVG-Generierung: Hier siehst du, wie LLMs Vektorgrafiken durch direkte Programmierung erzeugen. Ein animiertes Logo veranschaulicht die Flexibilität und Skalierbarkeit dieser Methode. SVGs sind extrem vielseitig, und sie lassen sich animieren: Es ist möglich, Interface-Elemente einzubauen, sagen wir mal einen Play- und Pause-Button. Oder Overlays. Tipp: Solche SVGs kann u.a. Claude „programmieren“ (wie das gesamte Erklär-Tool).
- Diffusion: Diese moderne Technik wird durch eine Animation dargestellt, die den Prozess der schrittweisen Bildverfeinerung aus purem Rauschen zeigt. Diffusion ist der Standard für „echte“ Bilder und Videos. Du kennst das von Bing, Midjourney, Flux, Bria, iStock, Runway, was auch immer.
- Generative Adversarial Networks (GANs): Das ist ein „Wettkampf“ zwischen Generator und Discriminator, der zu erstaunlich realistischen Bildern führt.
So sieht „Diffusion“ in live aus
Hier ist ein Screenrecording aus dem (sehr coolen) Intel AI Playground (eines Windows-Programms, um lokal mit KI zu arbeiten). Im Video siehst du, wie der Diffusion-Pozess abläuft:
- Das Bildgenerierungstool ist RunDiffusion/Juggernaut-XL-v9 (es frisst 10 GB Grafikspeicher-RAM, was noch harmlos ist)
- Es ist eingestellt auf „30 Schritte“
- Das heißt, dass es 30 Verfeinerungsschritte vornimmt – und mit jedem Schritt „Rauschen“ entfernt
- Da das System weiß, dass es 30 Schritte verbraten darf, tastet es sich schrittweise vor. Trotzdem bekommt es out of the box nicht alles auf die Kette (achte auf die Finger, schlimme Sache – muss man besser prompten).
- Der Prompt war: „Documentary photo: A scientist tries to explain the concept of ai image generation via „diffusion““
Kleiner Tipp: Mehr Schritte machen das Bild nicht unbedingt besser (und daneben kosten sie Rechenpower und Zeit). Teils sind – speziell mit Flux – Bilder nach 10 Schritten super, in den Folgeschritten fügt die KI dann noch Nonsens-Bildinhalte ein. Da hilft nur rumprobieren.
Artikel zu ähnlichen Themen
- Longevity Marketing: So finden Kunden und Marken zusammen
- Projektmanagement im Marketing: PRINCE2 oder V-Modell® XT?
- Marketing-Digitalisierung: Mehr als nur Software und Automatisierung
- Öffentlichkeitsarbeit: Instrumente, die auch Digital und Social funktionieren
- Employer Branding Kampagnen: Darum solltest du viel mehr KPIs messen
- Recruiting: Vom Employer Branding zum Job Content Branding
- Dynamic Pricing, mal echt anschaulich
- Marketing Automation: 3fach gedacht, plus Customer Experience
- UX-Writing Crashkurs: Do’s und To do’s
- Social-Media-Management-Workflow? Mehrsprachig!
- Website-Audit-Planungshilfe
- KI: Machine Learning, Generative KI & RPA als Team
- Prompting aufgeschlüsselt: Vieles ist unsichtbar
- KI-Bildgenerierung: SVG, Diffusion oder GAN?
- LLMs verstehen: Token und Vektoren als Dashboard
- Claude: Was kann die KI von Anthropic?
- Performance Marketing: Leistung braucht Kreativität
- Marketingberatung: Erst das Rezept, dann ans Werk
- Social Selling: Hallo wer? Oder Ja gern?
- KI-Ethik und EU AI Act: Mitdenken ist Pflicht
- Customer Journey: Das Ziel ist das Ziel
- Chat GPT: Überblick, GPTs nutzen, Alternativen
- Google Gemini: KI mit Riesenhirn
- Statt Online Marketing Agentur: Flexibler mit Freelancern?
- TikTok für Unternehmen: 4 schnelle Tipps plus Ads-Tutorial
- KI-Videogenerator: Meine Testergebnisse
- KI-Bild generieren: und die Lizenz? Mit Vergleichstest!
- Hugging Chat Assistants: Alternative zu Custom GPTs
- Marketingmaßnahmen als 5-Dimensionen-Modell (mit Chat Bot)
- Hugging Face Spaces: der KI-Abenteuerspielplatz