Ausstellung

«Was wir sehen, hat nie existiert»

Interview
Michael Hunziker
Fotos
Maren Burghard, KI-generiert

«Sich lieben heißt sich teilen»

Unser medialer Alltag ist von KI-generierten Bildern geprägt. Das Stadtmuseum Aarau lädt ein, sich mit dem problematischen Zerrspiegel genauer auseinanderzusetzen. Wir haben mit der Kuratorin Maren Burghard geredet.

Für die Ausstellung «New Realities – wie KI uns abbildet» haben Sie während drei Jahren Portraits von KI generieren lassen. Was interessierte Sie am Projekt?

Maren Burghard: Ich wollte wissen, wie die KI Menschen darstellt. Bildgeneratoren werden mit riesigen Datensätzen trainiert, mit Modefotos, Kunstwerken, Stockfotos und so ziemlich allen Arten von Bildern, die man im Internet findet. Sie übernehmen Muster aus diesen Bildern und erzeugen auf Basis meiner Texteingabe, dem sogenannten Prompt, ein neues Bild. Doch die Trainingsdaten sind nicht neutral. Sie stecken voller Muster und Vorurteile: Schönheitsideale, stereotype Darstellungen von Geschlecht und Alter oder bestimmte Inszenierungen von Macht und Status. Diese Prägungen beeinflussen, wie die KI Menschen zeigt. Das ist an sich schon interessant und sagt eigentlich mehr über uns und unsere Kultur aus als über KI-Modelle selbst.

Und was war Ihr Ansatz?

Ich habe mich gefragt, kann ich die KI dazu bringen, andere Gesichter, ungewöhnliche Posen oder vielfältigere Körper zu erzeugen? Oder bleibt sie den bekannten Mustern treu? Der kreative Prozess mit KI ist mehr als ein Spiel mit Bildern – er fordert ein Nachdenken über unsere Bildkultur. Das finde ich spannend. Über Jahrhunderte haben wir gelernt, Bilder zu lesen: Ein Renaissance-Porträt verstehen wir anders als ein Passfoto. Doch KI-Bilder verwirren. Sie wirken wie Fotografien oder Gemälde, aber es gibt keine echte Person, keine Biografie, keinen Moment der Entstehung. Trotzdem reagieren wir häufig emotional auf synthetisch entstandene Porträts. KI-Porträts sind spannende kulturelle Artefakte. Weil sie unsere visuellen Erwartungen spiegeln und herausfordern.

Fragen Sie in Ihrem Alltag als Kuratorin Chat GPT oder seine Geschwister oft um Rat?

Wir Kuratorinnen haben mehrere CustomGPT und einen Chatbot als Assistenzen eingerichtet. Unser Curator Bot hat eine grosse Knowledge Base, die Ausstellungskonzeption, Ausstellungstexte, Wandabwicklungen enthält. Er weiss also, um was es geht. Im Stadtmuseum ist auch eine Rauminstallation zu sehen, die einen mit KI generierten Arbeitsplatz zeigt. Alle Medien, die in dieser Rauminstallation hängen, haben meine Co-Kuratorin Dr. Annabelle Hornung und ich mit Hilfe des Curator Bots generiert. Er kann auch Social-Media-Texte schreiben oder andere kleine Aufgaben übernehmen. Die kuratorischen Entscheidungen überlassen wir ihm aber nicht.

Wie haben sich aus Ihrer Perspektive die KI-Applikationen in dieser kurzen Zeit verändert?

Rasend schnell! Zweimal habe ich erlebt, wie wir gerade eine neue Ausstellung eröffnet hatten – und nur wenige Tage später erschien ein neues Bildmodell, das so viel besser funktionierte, dass ich mir im Nachhinein viele Stunden Arbeit hätte sparen können. Vorher musste ich mit Tricks und Umwegen hantieren, um etwa halbwegs anatomisch korrekte Hände darzustellen – ein echtes Problem. Dann kam ein Update, und plötzlich war das Thema erledigt. Über Nacht. Ich erinnere mich auch, wie wir Anfang 2023 manche KI-generierten Bilder als «fotorealistisch» betrachteten. Heute wirken sie fast archaisch – wie Höhlenmalerei aus der Frühzeit der generativen Bild-KI.

KI-Bild-Praxis diffundiert immer mehr in den Alltag. Persönliche Fotos werden künstlich animiert, Menschen spielen damit herum. Wie beurteilen Sie diese Entwicklung?

Wir stehen sogar erst am Anfang der breiten Nutzung. Schon jetzt werden bestimmte Social-Media-Kanäle durch eine Flut von Bildern entwertet, die nicht als Fiktion erkennbar sind. Unser Vertrauen in Bilder wird untergraben – wir wissen immer weniger, ob das, was wir sehen, auch wirklich passiert ist. Das macht Medien insgesamt weniger glaubwürdig. Und es bringt unser Gefühl dafür durcheinander, was echt ist und was nicht. Hinzu kommt der hohe Energieverbrauch solcher Systeme – auch das dürfen wir nicht aus den Augen verlieren.

Also Alarmstufe?

Nicht unbedingt. Ich halte es für wichtig, dass Menschen sich aktiv mit generativer KI auseinandersetzen. Wir können nicht einerseits fordern: «Versteht KI!», und andererseits verlangen, sie nicht zu nutzen. Nur wer selbst experimentiert, begreift, wie diese Systeme funktionieren – und wo ihre Grenzen liegen. Gerade deshalb brauchen wir Schulen, Museen, ausserschulische Lernorte, die kritische Medienkompetenz fördern. Denn als Gesellschaft und als Einzelne können wir nicht gründlich genug verstehen, was generative KI ist. Und was sie nicht ist.

Warum wirken Ihre Bilder in der Ausstellung so vertraut, obwohl sie einem seelenlosen Apparat entstammen?

Das Vertraute entsteht nicht trotz, sondern gerade wegen der maschinellen Herkunft: weil die KI unsere visuellen Gewohnheiten verdichtet, kombiniert – und spiegelt. In einem KI-generierten Porträt verschmelzen visuelle Codes barocker Heiligenbilder mit der Ästhetik von Instagram-Selfies. Diese Bilder wirken vertraut, weil sie aus dem bestehen, was wir schon tausendfach gesehen haben.

Doch die Porträts in der Ausstellung sind nicht zufällig entstanden. Ich habe sie nicht «einfach auf Knopfdruck» generiert und die KI machen lassen, sondern mit konkreten Szenarien und einer Hintergrunderzählung entwickelt.

Ein Beispiel ist das grosse Porträt von 2023. Damals schrieb ich in den Prompt, der Mann erkenne seine Niederlage – und wisse, dass er seine Fehler nicht mehr rückgängig machen könne. Das Bild zeigt also nicht nur ein Gesicht, sondern trägt eine emotionale Geschichte in sich. Das erkennen wir (siehe Bild oben, Anm. d. Red).

Was unterscheidet eigentlich die Betrachtung eines Fotos von der eines KI-Bildes?

Ein Foto steht – zumindest theoretisch – in direkter Verbindung zu dem, was es zeigt. Es entsteht durch Licht, das auf einen Sensor oder Film trifft. Selbst wenn es inszeniert, bearbeitet oder gestellt ist, gibt es einen Moment der Aufnahme, in dem etwas tatsächlich geschah. Ein KI-generiertes Bild hat diese Verbindung zur Realität nicht. Es zeigt etwas, das nie existiert hat. Es entsteht vollständig durch Berechnungen – eine Fiktion aus statistischen Wahrscheinlichkeiten. Und doch wirkt es oft wie ein Foto.

Das ist folgenreich …

Ja, wir sehen KI-Bilder mit denselben Erwartungen wie Fotos, können uns aber nicht mehr sicher sein, dass sie eine Verbindung zur Wirklichkeit haben. Das verändert unser Verhältnis zur visuellen Wahrheit.

Wir betrachten KI-Bilder mit denselben Augen wie Fotografien. Unser Blick sucht nach Spuren der Wirklichkeit – nach Details, nach Ausdruck, nach Hinweisen. Doch was wir sehen, hat nie existiert. Und dennoch wirkt das Bild. Es funktioniert, weil es unsere Sehgewohnheiten erfüllt. Genau hier verschiebt sich etwas: Wir erleben eine visuelle Wahrheit, die sich von der Realität löst.

Das tönt dystopisch.

Wenn wir lernen, damit umzugehen, ist das aber auch eine Chance: Wir müssen lernen, Bilder als Möglichkeiten zu deuten, nicht mehr als Belege. Es bedeutet eine tiefgreifende Veränderung unseres Vertrauens in das Bild an sich – und damit auch unserer Vorstellung davon, wie Wissen aussieht.

Zur Person

Maren Burghard (1967, lebt und arbeitet in Nürnberg) studierte u.a. Kommunikationswissenschaften. Sie konzipiert Inhalte, versteht und entwickelt Chatbots und analysiert die Nutzung digitaler Angebote. Zudem kuratiert sie die Ausstellungsreihe «New Realities» und ist MIT-zertifizierte KI-Strategin. Das Bild von ihr wurde von einer KI generiert.

«Wir müssen lernen, Bilder als Möglichkeiten zu deuten, nicht mehr als Belege – eine tiefgreifende Veränderung unseres Vertrauens in das Bild an sich.»

Wir vermenschlichen die KI ständig. Was ist daran problematisch?

Die Industrie gibt das ja auch vor. Durch Namen wie Claude oder Alexa, durch die Dialogform, durch Stimmen. Und wir übernehmen das gern. Manche sagen «er» zu ChatGPT, andere «sie», wieder andere nennen es liebevoll «Chatty» und berichten von ihren Gesprächen, als wäre es ein kluger Freund. Das wirkt niedlich, ist aber eigentlich hochproblematisch: Es verschleiert, wie diese Systeme tatsächlich funktionieren. Diese Vermenschlichung verhindert echte Auseinandersetzung: Statt zu fragen, was da eigentlich aus der Maschine spricht, geben wir der Stimme einen Namen.

Sie haben untersucht, wie die Maschinen Ungerechtigkeiten reproduzieren? Können Sie das etwas ausführen?

Die Modelle zeigen zunächst oft die üblichen Verdächtigen: jung, weiss, normschön, meist weiblich. Inzwischen haben einige Modelle etwas nachgebessert. Besonders aufschlussreich wird es, wenn man soziale Szenen erzeugt – etwa Kinder, die zusammen spielen; oder eine Gruppe von Erwachsenen, die gemeinsam einen Drachen steigen lässt. Dann erkennt man schnell, wer erklärt, wer zuhört, wer im Mittelpunkt steht – und wer fast nie aktiv handelt: zum Beispiel Mädchen oder nicht-weisse Figuren.

Selbst wenn ausdrücklich «Diversität» verlangt wird, bleibt die Handlungsmacht meist männlich geprägt. Hautfarbe oder Kleidung ändern sich vielleicht – doch die visuelle Hierarchie bleibt: Wer handelt, wer führt, wer bleibt bloss Statist. Vergleiche von Bildgeneratoren, die auf demselben Trainingsdatensatz entwickelt wurden, zeigen: Die Verzerrungen liegen nicht allein in den Trainingsdaten, sondern auch in der Modellarchitektur selbst. Sie spiegeln oft tief verwurzelte kulturelle Vorstellungen über Macht, Rollen und Zugehörigkeit.

Das sieht ja beinahe so aus, als stünden gewisse Ideologien hinter dieser Technik …

Ja, so wirkt es tatsächlich – und das ist kein Zufall. Die Entwicklung dieser Systeme verschlingt enorme Summen. Für die meisten Anbieter hat es keine Priorität, aktiv gegen Verzerrungen zu arbeiten. Stattdessen richten sie sich vor allem nach den Vorlieben ihrer zahlenden Kundschaft. Wer etwa in die öffentlich zugänglichen Galerien von MidJourney schaut, erkennt sofort: Die Industrie optimiert ihre Modelle, um möglichst reibungslos das zu liefern, was ihre User ohnehin erwarten.

Die Ausstellung haben Sie bereits in Nürnberg gezeigt. Wie war die Resonanz beim Publikum?

Besonders erinnere ich mich an eine über 80-jährige Besucherin in Nürnberg. Sie war nur ins Museum gekommen, weil es draussen regnete. Den Digital Turn hatte sie bewusst ignoriert und hielt KI für ein schwer verständliches Modethema, das sie nicht betraf. Wir nahmen eine Handvoll Fotos aus einer der Fotokisten, betrachteten ein Album. Genau hier griff unser Konzept der Reverse Remediation: Indem wir das digitale Medium auf analoge Träger zurückführen, machen wir es für alle Zielgruppen zugänglich und verständlich. Bei dieser Frau war das fast rührend zu beobachten. Sie erkannte, dass sie über eine enorme Bildkompetenz verfügt: Sie entdeckte Unstimmigkeiten in synthetischen Bildern, unterschied Porträts und zog kluge Vergleiche. Am Ende hatte sie nicht nur etwas über KI gelernt, sondern auch über ihre eigene, beachtliche Medienkompetenz. Solche Momente zeigen, dass die Ausstellung nicht nur entmystifiziert, sondern auch das Selbstvertrauen in die eigene Fähigkeit zur Bildkritik stärkt – unabhängig von Alter oder technischer Vorerfahrung.

Ausstellung «New Realities»

Welches Menschenbild transportieren heutige KI-Generatoren? Das Stadtmuseum zeigt in der Ausstellung «New Realities– wie Künstliche Intelligenz uns abbildet» fotorealistische KI-Bilder von Maren Burghard, die während drei Jahren entstanden sind. Eine Gelegenheit, sich kritisch mit Chancen und Risiken von generativer KI auseinanderzusetzen. An der Vernissage wird die KI-Band mit dem verheissungsvollen Namen Prompted Misery spielen.

AARAU Stadtmuseum, Sa, 8. November, 18 Uhr (Eröffnung); bis 1. März 2026, stadtmuseum.ch

«Morgen schon verloren»