Dann mit Blumen an der Brust, aber da hat mir die KI ein "no no" gegeben. Wegen Pornographie und so.
In einem solchen Fall, dass der safety filter während der Bilderzeugung anspringt, klappt es meistens, wenn man einfach noch einmal auf Generieren klickt. Selbst bei den harmlosesten Bildbeschreibungen kann dieser Filter zuschlagen, wohl weil sich das Programm auch von dort aus zufällig in Darstellungen verirrt, die es selbst als problematisch kategorisiert.
Nichtsdestotrotz erhält man manchmal Bilder, bei denen man sich dann wundert, wie die durchgekommen sind. Dämoninnen kommen ganz gerne mal barbusig an, und wenn sich die KI bei Kampfszenen mit weiblich konnotierten Raufenden zu sehr in japanische Comic-Gefilde verirrt, wo man gern mal einen Blick unter möglichst kurze Röcke riskiert, kann man unter (zugegebenermaßen äußerst seltenen) Umständen Einblicke gewinnen, die man jetzt nicht erwartet hatte. Es dürfte auf solchen Plattformen stets so einige Mitglieder geben, die sich einen Sport daraus machen, das Programm zu solch möglichst freizügigen Darstellungen zu verführen.
So verständlich der Einsatz dieser Filter ist, weist er auf ein prinzipielles Problem bei der Verwendung von KI-Systemen hin, wenn sie denn erst einmal gut genug funktionieren: Wenn die Effektivitätssteigerung durch den KI-Einsatz so groß ist, dass kein Gafiker oder Texter mehr ohne KI auskommt (oder andererseits deren Kunden vielleicht gar ganz ohne Grafiker oder Texter auskommen), dann wird nur noch das dargestellt werden können, was eine solche KI zulässt.
Es gab mal eine Zeit, da hätte man so etwas bedenklich gefunden.
Oft wusste ich weder im Wachzustand noch im Albtraum, auf welchem Planeten ich mich befand, oder in welchem Zeitalter, sondern driftete im großen Mahlstrom von Zeit und Raum und Begebenheiten, ohne Boden, auf dem mein Bewusstsein stehen konnte; und die Welt war für mich nur ein Trugbild und eine neue Darbietung; und die Grenzen von Traum und Wachsein verwischten. (Matthew Phipps Shiel: The Purple Cloud)