Google hat mit Nano Banana (Gemini 2.5. Flash Image) ihr neustes Bildmodell veröffentlicht. Das Modell überzeugt besonders bei der Bearbeitung und Komposition von (mehreren) bestehenden Bildern. Die Konsistenz von Charakteren und Objekten ist dabei einzigartig unter Bildmodellen. In unserem Test haben wir das Modell dem Vergleich mit Flux Kontext unterzogen. Was direkt auffällt? Die Prompt Adherence ist beeindruckend.
Mooodboard.com wurde nach einiger Verzögerung im August veröffentlicht. Das Tool unterstützt die Konzeption, indem es AI-gestützte Moodboards erstellt. Dabei kreiert es keine neuen Bilder, sondern sucht lediglich bestehende Werke zu einem Thema zusammen. Mooodboard ist vergleichbar mit bestehenden Tools wie Cosmos oder Shotdeck, nur dass die Ergebnisse kuratiert sind.
Figma Make wurde bereits vor einiger Zeit angekündigt. Nun ist die Funktion auch in der Schweiz verfügbar. Mit Make können Nutzer*innen direkt in Figma Webseiten «vibe-coden». Dieser Schritt folgt der branchenweiten Entwicklung, dass etablierte Applikationen immer mehr AI-Funktionen integrieren. Wir gehen davon aus, dass in naher Zukunftt bestehende Figma-Funktionalitäten in Make integriert werden.
Wan ist eigentlich ein Videomodell. Doch die Version 2.2 macht besonders dank hyperrealistischen Bilder auf sich aufmerksam. Die Darstellung von Personen in alltäglichen Situationen gelingt dabei besonders gut. Etwas schwächer schneidet das Modell hingegen bei der Wiedergabe von Text und Grafiken ab.
Runway legt mit Aleph den Grundstein für die kontextualisierte Anpassung von Videos. Neu kannst du in bestehenden Clips den Winkel, Ort oder die Umweltbedingungen ändern. Zudem kannst du Clips aus neuen Perspektiven darstellen lassen oder den Stil für eine neue Szene übernehmen.
Midjourney gehört zusammen mit Flux zu den Marktführern im Bereich der Bildgenerierung. Doch das reicht dem Unternehmen nicht mehr: Mitte Juni kündigte Midjourney die Integration von Videofunktionen in sein Tool an. Neu können generierte Bilder auch animiert werden. Besonders überzeugend ist das Verständnis für Bildinhalte und den allgemeinen Kontext. Für längere Szenen ist das Tool unserer Einschätzung nach allerdings noch nicht geeignet.
Flux Kontext ermöglicht es Nutzern, präzise und kontextbezogene Änderungen an bestehenden Bildern per Texteingabe vorzunehmen. Das Update sorgt für konsistente Charakterdarstellungen über mehrere Bilder hinweg, erlaubt gezielte lokale Bearbeitungen und arbeitet deutlich schneller. So wird KI-gestützte Bildbearbeitung zu einem intuitiven, iterativen Prozess.
Google Veo 3.0 liefert verbesserte visuelle Qualität und Realismus mit bis zu 4K-Auflösung sowie einer höheren Prompt Adherence. Nutzer profitieren von erweiterter kreativer Kontrolle über Kamera und Objekte und können bis zu 60 Sekunden lange Videosequenzen erstellen.
Knapp einen Monat nach dem beindruckenden Model 2.0 bringt der AI-Video Generator Kling schon die Version 2.1. heraus. Momentan befindet sich Kling 2.1 noch in der Beta-Testphase aber die Resultate sind schon stark. Kling 2.0 hat es geschafft, wirklich cinematische Sequenzen zu erzeugen, die gerade bei Menschen auch realistisch aussehen. Kling 2.1 hat das nochmal verbessert - insbesondere bei Bewegungen.