Ich hatte mal für WASTED die Artikel-Idee, die Beschreibungen der ersten Bildschirme aus berühmten Textadventures von einer Text-zu-Bild KI interpretieren zu lassen. Leider konnte ich das aus Zeitgründe nicht umsetzen, aber vielleicht hat ja jemand Bock, bzw. wir können das zusammentragen…
Das hier ist zb das Einstiegsbild bei Zork:
„West of House You are standing in an open field west of a white house, with a boarded front door.“
There is a small mailbox here.
The Hitchhiker’s Guide to the Galaxy:
The bedroom is a mess
Is is a small bedroom with a faded capet and old wallpaper. There is a washbasin, a chair with a tatty dressing gown slung over it, and a window with the curtains dawn. Near the exit leading south is a phone. There is a flathead srewdriver here (outside the bed)
There is a toothbrush here (outside the bed)
The Hobbit:
You are in a comfortable tunnel like hall with a perfectly round green door like a porthole.
softporn-adventure:
„A dimly lit hallway. The paint is peeling off the walls and the floor hasn’t been cleaned in months. Cockroaches run across the floor- jumping as the loosely installed lightbulb crackles and flickers. An old desk sits pushed against the wall.“
Ich werde die Tage eine neue Single veröffentlichen. Das Lied heißt „Sommer“ und ist eine Art Schlager mit bewusst überproportional verwendeten Sommer Cliches.
Ich suche gerade eine Coverbild für Youtube. Wäre das eine Aufgabe für die KI? Und kann ich dass dan als offizielles Cover verwenden?
Cooler Artikel auf jeden Fall! Ich hab in letzter Zeit vor allem mit Stable Diffusion (NMKD GUI 1.9.1) rumgespiellt und damit versucht Harry Potter Charaktere im Stil von Rembrandt van Rijn zu generieren (fragt bitte nicht warum). Die Idee war, dass diese Bilder immer den gleichen Stil besitzen, demnach wiedererkennbar sind und sich nur das Motiv ansich unterscheidet. Leider hat das Ganze nur so mittelgut funktioniert und war gleichzeitig so zeitaufwendig, dass ich es am Ende gelassen habe. Der wesentliche Vorteil von SD, wie @lnhh ja bereits in seinem Artikel geschrieben hat, also das Generieren am eigenen Heimcomputer ist gleichzeitig auch ein wesentlicher Nachteil. Einerseits werden die Daten (meines Wissens) nicht auf irgendwelchen Servern gespeichert und ihr könnt theoretisch ohne jedwede Kosten beliebig viele Bilder generieren. Andererseits setzt das ganze System schon eine hohe Rechenleistung und/oder sehr viel Zeit vorraus, die wiederum die fehlende Power des eigenen PCs ersetzt. Gerade beim erstellen mehrerer Bilder mit entsprechend vielen Steps sind bei meiner okayen GPU (NVIDA Geforce GTX 1080Ti) pro Bild schon mal einige Minuten vergangen.
Mein Fazit der ganzen Sache: Mit einem KI-Bildgenerator zufriedenstellende Ergebnisse zu erzielen ist eine Kunst für sich. Gerade bei SD gibt es sooo viele Stellschrauben an denen gedreht werden kann (Prompts, negative Promts, mit oder ohne Input Data aka. Bildern als Vorlage, der verwendete Sampler, locked Seeds ja/nein, etc. etc.), dass für die passenden Einstellungen schon Stunden ins Land gehen können. Und selbst wenn du sehr viel Zeit investierst und versuchst die dahinter liegenden Logiken zu verstehen, weil ohne dieses Verständnis bist du dem Tool noch mehr ausgeliefert, bleiben die Ergebnisse am Ende doch immer (zu) unberechenbar. Für meinen - zugegeben sehr speziellen Anwendungsfall - waren die Bilder in der Masse daher eher unbrauchbar.
Einfach weil es mich interessiert hat, hab ich trotzdem mal den Prompt aus dem Artikel auf meine akutellen Einstellungen losgelassen und poste euch mal die Ergebnisse:
Wie ihr seht sind die Ergebnisse bei SD ohne Locked Seed und weitere Spezifikationen sehr wild. Schön zzu sehen ist auch das SD ein Problem damit hat eine „realistische“ Katze darzustellen (gleiches gilt auch für Menschen). Ergänzt man den Prompt zum Beispiel um die Angaben „a masterpiece“ und „good lightning“ sowie die negativen Angaben „worst quality“ und „low quality“ (als „klassiche“ Bildverbesserer") bekommt ihr mit dem Seed aus dem dritten Bild (1724317073) folgendes Ergebnis:
Da ich eine AMD-Karte habe und mir schon nur das Durchlesen des entsprechenden Artikels in der c’t zu lokalem Verwenden von Stable Diffusion zu aufwendig war, habe ich es einfach sein lassen.
Also Respekt @Lipardus für dein Durchhaltevermögen.
Ich haue jetzt bei Bedarf ganz stumpf meine Prompts bei Stable Diffusion XL rein und fühle mich so richtig als Prompt-Engineer³.