BACKGROUND KNOWLEDGE

Künstliche Intelligenz und Design

© dube⁺ / made with midjourney

Schon 2017 prophezeite eine Oxford-Studie, dass in den nächsten 25 Jahren nahezu die Hälfte aller Jobs durch Computer und/oder KI ersetzt werden. Kreative Berufe aber galten lange Zeit als durch KI unersetzbar. Jack Ma, Gründer von Alibaba, betonte 2018 in einem Interview, dass wir die Fertigkeiten fördern sollten, die nicht durch Maschinen ersetzt werden können: „Ich finde wir sollten unseren Kindern […] Kunst beibringen – um sicher zu gehen, dass sie anders sind.“ 

Dennoch wurde gerade im letzten Jahr deutlich, wie nahe die KI in Form von bspw. DALL·E 2 kreativer Bildkomposition gekommen ist. Auf für jeden zugänglichen Portalen, wie DALL·E 2 von OpenAI oder Midjourney tummeln sich seitdem Interessierte und trainieren durch Ihre Versuche die KI immer weiter. Durch dieses massenhafte Feedback der Nutzer lernt die KI genau das zu liefern, was die meisten von Ihr erwarten. Es wimmelt von bekannten Bildwelten vor allem aus der Science-Fiction Spielewelt, dem Comic oder der künstlichen Instagram Welt. Aber auch andere, eher ungewöhnliche Stile, wie sie von bestimmten Künstlern oder Kameras erzeugt werden, können bereits ansatzweise umgesetzt werden.

Ist das echte Kreativität?

Die neurobiologische Definition von Kreativität wird oft so beschrieben: Kreativität ist die „Neuformierung von vorgegebenen Informationen“. Die meisten aktuellen KI Angebote funktionieren als Text zu Bild Technologien. Das heißt: der Nutzer kann versuchen, durch bestimmte Beschreibungen und Befehle die KI so zu „füttern“, dass sie ihm das gewünscht Bild erzeugt. Die KI weiß (durch das Training), dass viele Menschen, die ihr bestimmte Codes zukommen lassen, oft bestimmte Erwartungen haben. Sie liefert dann auch echte Varianten davon, die manchmal so unterschiedlich sind, dass man fast das Gefühl bekommt, sie hätte die beschriebene Szenerie/Situation tatsächlich verstanden.

In einem kurzen Aufriss von Prof. Dr. Andreas Koch, Vorgelegt von Bastian Kilper, wird erklärt wie neuronale Netze (KNN) nach dem Vorbild biologischer Lebewesen kombiniert mit Deep Learning künstliche Intelligenz erzeugen. Diese kann so vorhandenes neu kombinieren. Neue Kombinationen in neuronalen Netzen führen zu neuen originellen Ideen. Analog zu den Neuronen in unserem Gehirn. Auch wir als Künstler oder Designer schöpfen in Wirklichkeit nicht aus dem Nichts. Wir sind vorgeprägt und kombinieren zumeist auch nur neu. Aber was ist dann noch der Unterschied zur menschlichen Kreativität?

© dube⁺ / made with midjourney

künstliche intelligenz kreativität und design

Müssen wir uns fürchten?

Yuval Noah Harari oder auch Elon Musk warnen: Künstliche Intelligenz könnte dem Menschen in nicht allzu ferner Zukunft gefährlich werden. Was unterscheidet ihrer Meinung nach heutige Formen künstlicher Intelligenz von unserer menschlichen? Den Unterschied macht das „in unseren Leib integrierte Bewusstsein“. Als Säugetiere ist unsere Identität – unser ganzes Erleben – als intelligente, kreative Lebewesen untrennbar mit dieser Körper-Existenz verbunden. Deshalb verstehen wir nicht nur abstrakt, dass ein Sonnenuntergang ein oft erwünschtes, positives Bild ist. Sondern wir erleben dieses Bild als positiv (oder auch kitschig) weil wir zugleich alle Erlebnisse von Sonnenuntergängen unseres Lebens erinnern. Denn jede und jeder hat eine ganz einzigartige Historie und ein ganz eigenes Erleben (durch Genetik oder Epigenetik). Wir verstehen also dieses Bild als Situation nicht nur, sondern wir wissen genau, wie sich so ein Sonnenuntergang an einem lauen Abend am Meer anfühlt. Genau das ist der Grund, weshalb wir auch einen Willen haben. Wir wollen in den Urlaub fahren, auch wenn wir z.B. kein Geld mehr haben :-). Oder wir wollen eben ein Bild kreieren um uns dann dieses in dem Bild manifestierte Gefühl über das Sofa zu hängen.

Erst wenn wir es schaffen der KI über z.B. Sensoren ein eigenes Körper-Erleben (Emotionen) und damit eine eigene Historie (Tod), also ein eigenes Bewusstsein zu geben, wird sie zu einem menschenähnlichen Akteur, der selbst etwas wollen kann. Der Menschheit entsteht dann allerdings auch ein Konkurrent, der überlegen sein könnte. 

Nein.

Wir haben es also bei den Anwendungen Künstlicher Intelligenz in den verschiedenen Bereichen bisher nur mit mehr oder weniger nützlichen Werkzeugen zu tun, die uns vieles einfacher und viele Abläufe schneller machen können. Wir sollten das alles, wo sinnvoll, als Kreative, Künstler, Designer nutzen. Das nötige Know How dazu müssen wir uns wieder selbst aneignen. Aber dadurch werden ja auch wieder neue Verknüpfungen direkt in unserem eigenen Hirn geschaffen. 🙂 Ist doch toll! Keine Angst: Es bleibt anstrengend, denn die Ansprüche der Nutzer/Kunden wachsen immer mit den Möglichkeiten. 

© dube⁺ / made with midjourney

Konkrete Anwendungen

Wir stehen kurz vor der kommerziellen Anwendbarkeit der Technologien. Besonders klischeehafte bzw. ikonische Darstellungen lassen sich schon sehr gut anfordern.  Auch kennt die KI das Aussehen öffentlicher Personen. Das könnte, z.B. für meinungsstarke Pressemedien interessant werden.

Auflösung

Die max. Auflösung von 1024 Pixeln nach einem upscal bietet noch zu wenig Substanz für zB. den Print-Bereich. Aber alles illustrative kann ja durchaus noch einmal händisch überarbeitet werden.

Medienrecht

Der Bot wird auch mit Bildmaterial und mit Stilen von Illustratoren und Künstlern „gefüttert“. Inwiefern hier die Urheberrechte verletzt werden, ist noch völlig offen.

© dube⁺ / made with midjourney

Wo finde ich visual open AI?

Hier geht es zu einigen Adressen

Der Name bildet ein Kofferwort aus dem kleinen animierten Roboter Wall-E aus dem gleichnamigen Film und dem spanischen Surrealisten Salvador Dalí. Das Programm nutzt künstliche neuronale Netzwerke, ⁣um Wörter als Input in Anordnungen von Pixeln als Output zu transferieren.

Midjourney wurde von David Holz, dem Mitbegründer von Leap Motion, gegründet. Die offene Beta-Phase begann am 12. Juli 2022.  Am 14. März 2022 startete der Discord-Server mit der Aufforderung, qualitativ hochwertige Fotos auf Twitter/Reddit zu posten, um das System zu trainieren.

Stable Diffusion ist ein kostenloses Deep-Learning-Modell für die Text-Bild-Erkennung, das 2022 veröffentlicht wurde. Es wird in erster Linie verwendet, um detaillierte Bilder auf der Grundlage von Textbeschreibungen zu generieren, kann aber auch für andere Aufgaben wie Inpainting, Outpainting und die Generierung von Bild-zu-Bild-Übersetzungen auf der Grundlage einer Textaufforderung verwendet werden.

Was sagt jetz der?

Wir sind eine inhabergeführte Kreativagentur in München mit zwei Verantwortlichen und stehen seit mehr als 15 Jahren für durchdachte, überraschende und inspirierte Kreativlösungen für Marken und Kampagnen. Ein Workflow ohne Umwege, Phrasen und ohne ständig wechselnde Ansprechpartner.

089 7857673-0

dube + partner / Kreativagentur für Marken und Design
Hofmannstraße 5 / 81379 München