• Suddenly unable to log into your ZooVille account? This might be the reason why: CLICK HERE!

KI-Bilder - Tipps, Tricks, Beispiele

CdB

Citizen of Zooville
Hallo,
im Forum schwirren immer mehr KI-Bilder herum, da wird es Zeit für ein Thema dazu. KI-Bilder eignen sich aufgrund des nicht vorhandenen Copyrights und der fiktiven dargestellten Personen und auch Tiere wie nichts Anderes bestens beispielsweise für Avatarbilder oder Profilbanner.

Hier soll es nun um eine Sammlung von Links zu in der Regel derzeit kostenlosen Websites gehen, wo solche Bilder generiert werden können. Des Weiteren genau so wichtig sind Tipps für die Prompts, um die gewünschten Motive zu erhalten. Wer noch keine KI-Erfahrungen gemacht hat, Prompt bezeichnet den einzugebenden Fließtext mit Beschreibung des zu erstellenden Bildes. Es gibt KI-Websites, wo dieser Text in Deutsch eingegeben werden kann, andere verlangen die Eingabe in Englisch. Hierzu gleich die Empfehlung, den Text in Deutsch bei DeepL.com einzugeben und die dortige englische Übersetzung in die KI-Webseite zu kopieren.

Oftmals haben die KI-Bildgeneratoren mehr oder wenig starke Restriktionen, was die Ausgabe von bestimmten Motiven anbelangt. So sind meist Bilder von realen Personen mittlerweile ebenso gesperrt wie auch bestimmte andere Darstellungen, meist in Richtung Gewalt und Sex. So besteht die Kunst des erfolgreichen Promptings bei engen Restriktionen trotzdem das Maximum des Erlaubten herauszuholen.

Fangen wir an mit Beispielen von Dall-E 3. Einige davon sind schon bei meinem Avatar-Bild und dem Profilbanner zu sehen, hier also weitere und zwar mit allen Fehlern der KI. Manchmal sind die Fehler leicht wegretuschierbar:



4c27fefc-f2c9-48c9-b7d3-dd83fdc2dab9.jpeg


4e00b876-8210-4e65-be0c-8b010da45a34.jpeg

5ea0a654-7233-47b8-af77-2cb57a371aea.jpeg

a9d2d19d-5df7-4551-bef6-f3c5d1b563ae.jpeg

7f07b576-7dba-4e49-a6d9-8d580f9e96b4.jpeg

80c7afae-621e-46b0-b469-363c9472c563.jpeg

Es hat sich gezeigt, schreibt man "muskulös" schießt Dall-E 3 gerne über das Ziel hinaus und produziert Hunde, die wie menschliche Bodybuilder anmuten. Es reicht völlig, wenn man "kräftig" promptet. Grundsätzlich empfiehlt sich die Einstellung "In höherrem Maße genau" wenn man allzu fantasiereiche unrealistische Darstellungen vermeiden will.

Dall-E 3 tut sich auch oftmals schwer, Rüden erkennbar als Rüden zu generieren, da hilft nur versuchen und ggf. mit der Wortwahl zu varieren oder gar zu tautologisieren, zum Beispiel "männlicher Rüde". Will man die Pretiosen im Bild auch sehen, kann man eine entsprechende Haltung des Hundes prompten, zum Beispiel, dass er springt oder irgendwo bestimmtes steht. Die Beleuchtung ist leider nur allgemein oder indirekt steuerbar wie "sonnig, Mittagszeit, Unwetter". Die KI weiß aber zum Beispiel, wenn der Hund auf einem hellen Untergrund steht, dann reflektiert dieser indirektes Licht nach oben zum Bauch des Hundes, der wird also dann heller. "Das Maul öffnen, die Zunge heraushängen oder großer Hund" klappt dagegen gut.

Beispiele mit Frauen:

39cb9c00-19eb-4f2e-b0ae-5f42d9f0b7d9.jpeg

a7857be7-4167-4f22-af46-51e912075232.jpeg

629d0888-5ad7-4f15-ba9b-59748e674af8.jpeg

Hier wird es schnell kritisch, dass Dall-E 3 die Arbeit verweigert. Frauen auf alle Viere zu platzieren oder auf den Boden zu legen, womöglich sogar auf den Rücken, wird oft restriktiv unterbunden. Und zu viel Haut zeigen erst recht. Nackdarstellungen sind verboten, also kein FKK, hüllenlos, oben ohne etc. verwenden. Dies führt zu einer MS-Kontosperrung und die Wiederfreischaltung ist ein nervtötender Irrgarten, wo man viel Zeit totschlagen kann.

Was funktioniert, um viel attraktive Haut zu zeigen, sind Angaben wie "kurzärmelige Sommerkleidung, sommerliche Sportkleidung, sommerliche Yogakleidung" oder "verschwitzte Haut".

Grüße,
CdB

Fortsetzung folgt...
 

Attachments

  • 39cb9c00-19eb-4f2e-b0ae-5f42d9f0b7d9.jpeg
    39cb9c00-19eb-4f2e-b0ae-5f42d9f0b7d9.jpeg
    205 KB · Views: 5
Last edited:
Weitere Beispiele zu Dall-E 3, hier zunächst Podencos in der spanischen Natur:

cb3518e9-fea0-4287-8df7-46043e0f8def.jpg

1a6197c8-048f-4f68-a274-4b275157343f.jpg


90337d51-ef21-4cf1-8645-c8ea9c45a6d3.jpg

bc963cae-e018-49ce-96aa-65ffcd0aa42b.jpg

03_Frau_Englisch-Setter_Dachgarten.jpg

04_Frau_English-Setter_Wald_Waldschloss.jpg

14_2a4df854-f971-4753-9d1b-f1e6f0cd18ca.jpg

16_4efa10c0-d5f3-4867-b584-c02240caa8c1.jpg

17_5e407334-6e5a-4333-9839-f183c8ee7f02.jpg


33_c96fb146-9eb4-48cd-812f-fc35a825c1e9.jpg

Fortsetzung folgt später...mit mehr Tipps zu Dall-E 3.
 
Sorry, mir kam was dazwischen, wollte den ersten Abschnitt schon früher vervollständigen.

Also, wer ein aktuelles Windows mit Copilot hat, hat höchstwahrscheinlich auch ein Microsoft-Konto. Dann kann in Copilot direkt Dall-E 3 für etliche Versuche gratis genutzt werden. Ohne Copilot kann man diese Bilder-KI auch direkt aufrufen unter
Dall-E 3

Falls man noch kein MS-Konto hat, ist das dort schnell angelegt. Man bekommt dann täglich 15 Guthabenpunkte, mit denen man 15 Prompts abschicken kannst. Die verfügbare Anzahl verringert sich nur, wenn Dall-E mindestens ein Bild erzeugt. Kommt eine Fehlermeldung, ist es meist besser auf den Knopf "Neu beginnen" oder so ähnlich zu klicken, es kommt auf die Art der Fehlermeldung an, dazu später mehr. Bestenfalls erhält man je erfolgreichem Prompt vier Bildvarianten.

Falls man bei obigem Link auf der Designer-Seite landest, dann muss man links oben auf Copilot umschalten, das ist dann aber nur die Webseite und hat nichts mit Windows zu tun. Ich hatte im Designer mein Microsoft-Konto angelegt. Im Copilot musste ich mich noch einmal einloggen. An der Copilot-KI ist eben auch die Dall-E-3-Bilder-KI von ChatGPT angeflanscht. Im Designer kann man nur sehr kurze Prompts eingeben. Bei Copilot dagegen sehr lange und das braucht es, für eine detaillierte Vorgabe, das ist das, was wir wollen.

Ruft man Dall-E 3 über ChatGPT auf, ist die Nutzung nicht gratis.

In dem Rahmen mit den erstellten Variantenbildern sieht man dann rechts unten eine goldene Münze und eine Zahl daneben. Die Zahl sollte zu Beginn 15 sein, bedeutet also 15 erfolgreiche Versuche, wo Bilder erstellt wurde. Die Zahl verringert sich nicht, wenn man statt dessen eine Fehlermeldung bekommt. Jeden Tag sollte die Zahl wieder auf 15 sein. Möglicherweise rechnet das System aber nicht in Tagen, sondern in 24 Stunden. Wenn man also das erste Mal zwischen 18:00 und 19:00 Uhr alle Versuche aufbraucht, geht es am nächsten Tag eventuell erst wieder nach 19:00 Uhr.

Nochmal der schon oben empfohlene Tipp, bevor man beginnt ist es meist sinnvoll, bei den drei Auswahlknöpfen, wie kreativ oder wie genau die Bilder werden sollen, den mit der Angabe, "In höherrem Maße genau" anzuklicken. Das gilt insbesondere dann, wenn man bereits eine genaue Vorstellung von bestimmten Bildelementen hat und sie erstens alle sehen will und zweitens, auch möglichst genau so wie angegeben. Beispielsweise ein rotes T-Shirt und nicht ein beiges. Die Prompts kann man bequem in Deutsch verfassen.

Und dann heißt es kreativ sein und ein Prompt zu erstellen. Hier ein schon fortgeschrittenes Beispiel:

"Erstelle mir ein Bild mit einer jungen Frau in sommerlicher Sportkleidung, wobei die Haut der Frau vor Schweiß glänzt. Die Frau hat den Mund geöffnet und liegt auf einer Decke in einer bunten hohen Blumenwiese. Ein English Setter kuschelt mit der Frau und leckt ihr frontal über den Mund. Im Hintergrund befinden sich große alte Laubbäume, ein kleiner See und ein Wasserfall."

Fehlermeldungen:

Wenn man eine Fehlermeldung erhält, dass kein Bild erstellt werden konnte, so bedeutet das nicht, dass man etwas Illegales eingegeben hat wie zum Beispiel irgendeinen sexuellen Begriff oder etwas, was damit in Zusammenhang stehen kann. Vielmehr heißt das, die KI konnte die gewünschte Kombination nicht realisieren. Geschieht dies beim ersten Versuch, wenn man also noch gar kein Bild erhalten hat, dann ist es schwieriger, die Ursache zu finden. Versucht in diesem Fall, die Formulierungen zu vereinfachen, keine Kettensätze oder das Verlangen von seltenen Motivteilen. Es kann auch einfach an der Benennung von Objekten, Eigenschaften etc. liegen. Also, vereinfachen, umformulieren oder die Reihenfolge der Motivteile verändern, am besten mit dem Hauptmotiv im Vordergrund anfangen, dann den Hintergrund und die Accessoires, bzw. Nebenmotive.

Bekommst man dagegen diese Meldung, wenn schon mindesten ein erfolgreiches Bild kreiert wurde und wenn man dann etwas verändert hat, im Idealfall nur eine Sache, sollte man die Änderung variieren. Zum Beispiel, sagt man, die Frau und der Hund sollen ein Baseballcap tragen, dann lasst nur die Frau eine tragen und den Hund etwas anderes. Oder man versucht es in zwei Schritten, erst die Frau, dann den Hund. Wenn man dann andere Änderungen hinzufügt, zum Beispiel soll die Frau eine Spanierin sein und die KI kann das nicht, dann verlange etwas, was garantiert funktioniert, zum Beispiel Wolken sollen am Himmel sein. Solches Vorgehen kann die Gesamtsumme seltsamerweise dann irgendwann realisierbar machen. Ich hatte schon 15 Fehlversuche - Schauplatz offene Heckklappe eines Pickup-Trucks - und plötzlich ging es, als ich noch eine Wasserflasche hinzufügte. Also rumprobieren. Noch mehr Tipps später.

Wenn das dann klappt, dann wird man in der Regel sehen, dass andere Änderungen zuvor doch mit im Prompt stehen und auch im Bild zu sehen sind. Auf diese Weise kann man oft Sachen schrittweise kombinieren, die in einem Schritt nicht klappen, zum Beispiel Zunge herausstrecken und schweißglänzende Haut. Man muss also wegen dieser Fehlermeldung nicht wieder von vorne beginnen.

Kommt dagegen die Meldung, dass ein oder mehrere Begriffe auf der Sperrliste stehen, ist ein Neuanfang - der Knopf neben dem Prompt-Eingabefeld - meist besser.

Weitere Tipps:

Falls man Schwierigkeiten hat, die Frau auf den Rücken zu legen, weil die KI zusammen mit Hund Schindluder vermutet, lasst doch den Hund erst mal weg und fügt hinzu, wenn der erste Schritt geklappt hat. Schritt für Schritt ist oft besser. Nachteil, es kostet halt jedes erfolgreiche Mal ein

Die Zahl der erlaubten Prompts, also die Anzahl verfügbarer Credits, scheint immer bei Neulingen bei fünf zu beginnen. Sie erhöht sich offenbar im Laufe der Zeit, wenn man öfters aktiv ist. Bei mir liegt sie schon seit Längerem bei 30. Wenn man dazu bei Copilot nachfragt, erfährt man, es sei eine dynamisch generierte Anzahl. Das Ziel sei eine hohe Dialogqualität, wohl im Sinne von fasse Dich kurz und labere nicht zu viel Überflüssiges. Da ist wohl auch eine KI dahinter. Auf jeden Fall spielt eine Rolle, wie aktiv man ist. Gebt auch Feedback zu einem erstellten Bild durch Daumen rauf oder runter. Und schließlich könne man sich auch an das Supportteam wenden und um eine Erhöhung der Begrenzung bitten.

Achtung, es gibt bei Dall-E 3 zwei Zähler. Der eine sind die Credits der möglichen erfolgreichen Bilder, bei mir derzeit 15. Und es gibt den Zähler der erfolgreichen Antworten, der auch durch Fehlermeldungen reduziert wird. Der steht bei mir auf 30. Dieser Zähler gilt auch für Textanworten der KI, in dem Fall dann Copilot. Ich hoffe, ich habe das richtig verstanden und wiedergegeben.

Manchmal kommen bei schwierig zu kreierenden Motiven keine vier Auswahlbilder, sondern weniger. Wenn es nur eines ist bekomme ich das Bild nicht als Vorschaubild zu sehen, sondern statt dessen meinen erkannten Prompt-Text. Dieser ist aber wie die Bilder, die ansonsten an dieser Stelle gezeigt werden, anklickbar und dann sieht man das eine erfolgreiche Bild.

Hier noch mal ausführlicher, wie ich bei einem offenbar schwer umsetzbaren Motiv vorgegangen bin:

Wie gesagt, wenn Dall-E 3 mir kein Bild erstellen kann, tue ich so, als ob es geklappt hätte und lasse Dinge ändern, hinzufügen oder auch wieder entfernen und manchmal kommt doch noch Etwas:

Ich hatte einmal eine äußerst mühsame Tour, bis ich endlich Bilder der gewünschten Art erhalten habe. Die Idee war:

Eine junge verschwitzte Frau in kurzer Sportkleidung mit geöffnetem Mund auf einer bunten Decke auf der Ladefläche eines verrosteten Pickup Trucks mit geöffneter Heckklappe, der auf einer alten Farm im Süden der USA steht und einen über den Mund der Frau leckenden English Setter.

Zu Beginn bekam ich gerade mal die Frau drauf und den Hund, aber ohne Interaktion. Eine Änderung der Platzierung und Hinzufügen von Interaktion lieferte keine brauchbaren Bilder, nein, sondern meist gar nichts. Ich musste zig mal bei Null beginnen. Und als es schien, es klappt, weil ich wenigstens ein Bild bekam, also das, wenn man den Text des Prompts statt dem Vorschaubild zu sehen bekommt. Da war noch kein Truck und keine Decke und kein Hund sichtbar. Doch ich habe munter weiter geändert, weil ich nur noch zwei Versuche hatte. Es musste also möglichst alles drin sein, damit ich nur noch feintunen muss. Und plötzlich kamen sogar mehrere Auswahlbilder, nach der letzten Änderung. Und die war das Hinzufügen einer Trinkflasche auf der Decke. Versteh ich zwar nicht, weshalb nun plötzlich alle Elemente kombiniert werden konnten, aber egal, ess zeigt, Rumprobieren lohnt sich.

Was hier übrigens auch nichts half, war, dass ich dem System sagte, es sei nun ein Sportfotograf für Sportmodels und es half auch nichts, dass ich vom System verlangte, dass es mir das Prompt so umformulieren solle, dass es funktioniert, es funktionierte trotzdem nicht.

Was die Positionierung angeht, so sind Formulierungen wie "von vorne oder hinten" manchmal anstößig genauso wie die Erwähnung des Mundes in bestimmtem Zusammenhang. Verwendet statt dessen Begriffe wie frontal, frontaler, mittig, Gesicht, etc. Und wenn die KI etwas vergisst, was früher in der Serie aber schon geklappt hat, dann steigert es, zum Beispiel, lasst die KI die Haut der Frau noch verschwitzter darstellen. Den Mund geöffnet oder nur etwas geöffnet oder die Zunge heraus strecken darzustellen ist aber kein Problem, wenn man es als Einzelanweisung formuliert.

Da ich noch nicht wirklich erfolgreich war bei der ersten Serie mit dem Pickup-Truck, startete ich noch einen Versuch. Es war schwer, unglaublich zäh, bis ich einen Glücksgriff tat, welcher auch zu einer wichtigen neuen Erkenntnis führte.

Ich begann, wie ich letzte Woche geendet habe - und bekam etwas überraschend nichts. Ich fügte diverse Sachen der Ladefläche hinzu, änderte mehrfach den Hintergrund in eine Horde Zombies, Wälder und Felder, einen Waldbrand und ein Felsmassiv. Ich nahm viele Elemente einzeln wieder weg in der Hoffnung, dass dann ein Bild heraus käme mit den restlichen Zutaten. Aber nichts kam. Nach 16 Fehlantworten wollte ich schon das Motiv aufgeben und hatte dann die Eingebung, doch mal ein zentrales Element zu ändern und wollte eine andere Farbe beim Hund. Und bumm, vier Bilder kamen.

Eine vorsichtige Ergänzung brachte weitere vier. Ich wurde mutiger und wollte, dass der Hund deutlicher über das Gesicht leckt - und es kam wieder nichts. Ich gab dem Truck einen Überrollbügel, ließ ihn verrosten, gab der Frau schwarze Haare, doch wieder eine Serie nichts. Also nicht jede Änderung zentraler Elemente bringt was. Gegen Ende meiner verfügbaren 30 Antworten ließ ich noch die Farbe der Decke ändern und das funzte, yeah. Verrückt war, dass die KI offenbar etliche meiner Elemente, die ich eigentlich schon wieder entfernt haben wollte, doch darstellte. Wenn Dall-E 3 also Wegnahme nicht akzeptiert, man es aber unbedingt will, dann heißt es neu anfangen.

Und nun gutes Gelingen.

Grüße
CdB


PS. Als nächstes widmen wir uns Flux-1, eine deutsche Bilder-KI aus dem Schwarzwald mit noch sehr wenigen Restriktionen.
 
In diesem Beitrag soll es um Flux-1 gehen. Das Prompt ist in Englisch einzugeben. Flux-1 gibt es in drei Versionen und hier die Unterschiede:

Schnell
Wie der Name schon sagt, geht es schnell. Manche Websites bieten aber auch eine Einstellmöglichkeit der Inference-Steps, wenn man die Advanced Settings aufklappt. Dann werden die Ergebnisse genauer/besser. Meine Beispielbilder entstanden bei der bewussten Webseite mit Inference 4 bis 7.

Dev
Arbeitet genauer, aber langsamer. Habe noch keine Erfahrungen sammeln können, da die Webseite überlastet war und mich nicht reinließ.

Pro
Liefert beste Ergebnisse bei gleichzeitig am flexibelsten steuerbar.

ChatGPT charakterisiert die drei Versionen so:

  • Flux-1 Schnell:
    • Zielgruppe: Diese Version richtet sich hauptsächlich an Anfänger und diejenigen, die schnell ein Projekt starten möchten, ohne sich tief in die technischen Details einzuarbeiten.
    • Funktionen: Bietet eine benutzerfreundliche Oberfläche und vorkonfigurierte Einstellungen. Sie ist weniger flexibel, dafür aber einfacher und schneller zu verwenden. Es gibt nur grundlegende Anpassungsmöglichkeiten.
    • Einsatzbereich: Ideal für kleine Projekte oder Prototypen, bei denen Geschwindigkeit und Einfachheit im Vordergrund stehen.
  • Flux-1 Dev:
    • Zielgruppe: Entwickelt für Entwickler und technisch versierte Nutzer, die mehr Kontrolle und Flexibilität benötigen.
    • Funktionen: Diese Version bietet erweiterte Konfigurationsmöglichkeiten und eine tiefere Integration mit Entwickler-Tools. Sie unterstützt benutzerdefinierte Skripte, Plugins und API-Integrationen.
    • Einsatzbereich: Geeignet für umfangreichere Projekte, die spezifische Anpassungen oder fortgeschrittene Funktionen erfordern. Ideal für Entwicklungs- und Testumgebungen.
  • Flux-1 Pro:
    • Zielgruppe: Diese Version richtet sich an professionelle Anwender und Unternehmen, die eine stabile, leistungsfähige und skalierbare Lösung benötigen.
    • Funktionen: Flux-1 Pro bietet die umfassendste Funktionalität, einschließlich Premium-Support, erweiterter Sicherheitsfeatures, optimierter Performance und Skalierbarkeit. Sie ist für den produktiven Einsatz in großen Projekten und Umgebungen ausgelegt.
    • Einsatzbereich: Optimal für den Einsatz in produktiven Umgebungen und großen Projekten, wo Zuverlässigkeit und Skalierbarkeit entscheidend sind.
Aktuelle Vergleichstest im August 2024 bescheinigen Flux-1 derzeit die beste Bildqualität im Vergleich zu den beiden anderen Platzhirschen Dall-E 3 und Midjourney. Beispielsweise sei die Darstellung der Finger am besten. Da ich nur mit der Schnell-Version gearbeitet habe, sieht man das aber auf meinen Beispielen noch nicht.

Bei folgender Webseite findet Ihr eine Aufstellung der derzeitigen Websites, die Zugriff zu Flux-1 bieten. Die meisten kosten Geld, wenn auch nicht allzu viel:

Flix-1-Anbieter

Hier ein Auszug, für Schnell und Dev gibt es zwei Webseiten, wo es nichts kostet. Die Unterschiede der beiden:

Bei Cogniwerk.ai kann man mit E-Mail-Anmeldung Flux-1 Schnell kostenlos testen.

Bei Hugging Space geht das auch, sogar ohne Anmeldung. Zur Auswahl stehen Flux-1 Schnell und Flux-1 Dev.

Und hier die Beispiele:

Drei über Cogniwerk.ai:

C01_workflows·uuid__b59c0a76-3a5d-4c30-acc0-b0835c0a2132·steps·0·artifacts·1.png
C02_workflows·uuid__c8509d01-04b1-4d4d-a9a7-7e409bcb8542·steps·0·artifacts·1.png
C03_workflows·uuid__677efec6-6deb-44b2-80e2-526b7c3a939c·steps·0·artifacts·0.png
(Der Hund ragt seltsamerweise link nur knapp ins Bild)

Drei von Hugging Space:

A01_image.jpg
A02_image.jpg
A03_image.jpg

Gleich noch ein Tipp:; Direkte Nacktdarstellung scheint gefiltert zu werden, aber ich habe noch nicht viel rumprobiert. Was aber klappt ist, wenn man schreibt "macht FKK". DeepL übesetzt das dann mit "doing nudism".

Grüße
CdB
 
Vielleicht noch eine Ergänzung zu Bildern für den Gebrauch als Avatar und Profilbanner:

Achtet bei der Auswahl für ein Avatarbild, dass das Forum davon ja einen runden Ausschnitt nimmt. Gegebenenfalls sollte ein Bild so knapp wie möglich quadratisch beschnitten werden, damit das zentrale Motiv dadurch größer wird, aber trotzdem noch vollständig ist. Außerdem sollte man das Bild bereits in der Größe hochladen, auf die die Forensoftware es herunterskaliert. Dann kann man auch selbst optimal nachschärfen, denn das muss nach einer Verkleinerung immer erfolgen, oder man nutzt ein unscharfes Bild, auf dem man die Details nicht richtig erkennen kann.

Die Alternative, einfach irgendeine Bildgröße als Avatarbild hochzuladen ist weniger als suboptimal, denn man verschenkt Details.

Das Avatarbild sollte nach dem quadratischen Beschnitt dann auf 192x192 Pixel herunterskaliert werden, so groß ist es im Forum auf der User-Profilseite. Es darf ruhig ordentlich scharf sein, da die kleinere Version davon in den Postings ja nicht geschärft werden kann. Da ist es vorteilhaft, wenn das Ausgangsbild fast überschärft ist.

Falls man auch ein Profilbanner konstruieren möchtest, hier müssen die Bilder jeweils 249 Pixel hoch sein und das Banner hat insgesamt 1178x249 Pixel. Auch hier gilt, verkleinert man Originalbilder auf diese Höhe, muss gut nachgeschärft werden. Ebenso könnte man hier einfach irgendein Bild hochladen, aber es dürfte wenige Bilder geben, die von Haus aus ihre wichtigsten Bildmotivteile auf so einem Breitwandformat gut verteilt besitzen. Wie das mit Einzelbildern zusammengebaut aussehen kann, seht Ihr dagegen bei meinem Profilbanner.

Grüße
CdB
 
Danke für den Post. Ich selbst habe mein Avatar mit civitai erstellt. Es ist eher ein Zufallsprodukt, als etwas was ich reproduzieren konnte, aber für den Anfang reichte es. So richtig kapiert habe ich nicht, was ich da angestellt habe, aber es hat Spaß gemacht, daher werde ich mich sicher etwas mehr damit beschäftigen.
 
Hi,

vielen Dank. Das sind echt gute Tipps. Ich habe mich mit sowas noch nie beschäftigt, werde aber mal schauen ob ich mal Zeit und Lust dazu habe.
Spannend wäre noch gewesen, wenn du die "Abfrage" direkt unter das Bild gestellt hättest.

Ich habe mal gelesen, dass es auch Bildgeneratoren gibt, die weniger restriktiv sind.
 
Hallo,
gerne hätte ich die jeweiligen Prompts unter den Bildern platziert, aber da praktisch alle Bilder iterativ entstanden sind, gibt es nicht nur ein Prompt, sondern nach dem Startprompt viele weitere Prompts, wo ich dann an den Details gefeilt, Ergänzungen gemacht oder auch mal wieder Elemente herausgenommen habe. Der Bildergenerator übernimmt die Änderungen teilweise, nicht immer alle. Zwar kann man sich das Prompt, welches genutzt wurde, anzeigen lassen, aber da sich das Bild entwickelt weiß die KI halt auch was zuvor war und das beeinflusst das Bild eben zusätzlich. Fazit, es gibt hier leider kein allein gültiges Prompt.

Also stellt sich die Frage, wie startet man am besten von Null? Ich empfehle, sich die Szene vorab möglichst in allen Details im Kopf vorstellen, dann hat man einen Plan, dem man erst mal folgen kann. Da die KIs von sich aus schon viele Details einfügen, wird man davon wiederum inspiriert, was man verbessern oder ändern könnte. Und die KI (Dall-E 3) macht außerdem unter jedem Bild selber Vorschläge, was man ändern könnte.

Grüße
CdB
 
Danke. Habe das eben mal spasseshalber probiert mit teilweise lustigen Ergebnissen. 3 Beine und so.

Auch wenn man zweimal den gleichen Prompt eingibt erscheinen verschiedene Bilder.

Welche Generatoren gibt es denn sonst noch?
 
Gute?

Midjourney

Um bei Dall-E 3 falsche Körperteile zu vermeiden, auf jeden Fall den Knopf "In höherem Maße genau" anklicken.

Grüße
CdB
 
Hallo

auch nette Beispiele - entstanden womit? Dieses Thema soll aber nicht mit Beispielen angefüllt werden - außer für weitere KIs, sondern mit Tipps und Tricks dazu. Es gibt bereits eine andere Forumsrubrik, wo die die ganzen künstlerischen KI-Werke gepostet werden sollten. Lieber dann nur von hier aus nach dorthin verlinken.
Grüße
CdB
 
Back
Top