"Das Verständnis von künstlicher Intelligenz ist sehr von Hollywood geprägt"
Dr. Wolfgang Hildesheim (IBM) über den Vormarsch von KI in Kunst und Kultur

Jetzt können sich die Besucher des PalaisPopulaire von MIA, einem Museumsassistenten mit künstlicher Intelligenz, Bilder erklären lassen. Doch was bringt das? Und wie funktioniert es? Kostet KI nicht menschliche Arbeitsplätze? Dr. Wolfgang Hildesheim, Director Watson, Data Science & Artificial Intelligence, ist bei IBM für die Entwicklung von MIA mitverantwortlich. Für ArtMag steht er Rede und Antwort.
Oliver Koerner von Gustorf: Man kennt künstliche Intelligenz bereits aus allen möglichen Bereichen, der Wirtschaft, der Wissenschaft, dem Dienstleistungssektor. Warum brauchen wir jetzt eigentlich KI noch in der Kunstvermittlung? Was bietet MIA für Vorteile und was unterscheidet es von herkömmlichen Führungen?

Dr. Wolfgang Hildesheim: Künstliche Intelligenz stellt einen weltweiten Mega-Trend dar, der die Art, wie wir leben und arbeiten, grundlegend verändern wird – in allen Bereichen des täglichen Lebens, in allen Branchen, im öffentlichen Sektor, aber auch bei Produkten, Dienstleistungen, überall. Und natürlich sind dann auch Museen und Museumsbesucher davon betroffen. MIA gehört zu der Anwendungsklasse der smarten Assistenten, die im Moment besonders beliebt ist, weil hier die neuen verfügbaren Fähigkeiten sehr gut zum Tragen kommen können. Es geht dabei um eine bestimmte Art von Software, die gesprochene Worte analysiert, in den richtigen Kontext einordnet und darauf reagiert. MIA, die Anwendung des PalaisPopulaire, ist ein sogenannter smarter Assistent für ein Museum.

OK: Was genau ist MIAs Aufgabe?

WH: Man erlebt das tagtäglich: Man kommt in ein Museum, sieht ein Bild und fragt sich: Wow, das gefällt mir aber, das finde ich toll, aber was ist das eigentlich, habe ich das verstanden? Wie kann man das interpretieren? Was ist dieses Objekt dort unten in der linken Ecke? Solche Dinge hat jeder in einem Museum schon erlebt, dass man Antworten auf ganz spezifische Fragen bekommen möchte. Der klassische Audio-Guide, den man heute in den Museen einsetzt, ermöglicht genau das nicht. Viele Fragen, die Museumsbesucher an Bilder haben, werden nicht beantwortet. Das ist unbefriedigend. Und hier wollen wir mit den Museumsorganisatoren den nächsten logischen Schritt gehen. Die Idee ist, dass man mit Kunstwerken gewissermaßen reden und auch jede x-beliebige Frage an das Kunstwerk stellen kann. Wenn der smarte Assistent, wie MIA, gut gemacht ist, dann kann er wesentliche Fragen zu den Kunstwerken beantworten.

OK: Diese Beantwortung von Fragen durch smarte Assistenten ist ja bereits Alltag, wenn man etwa auf die Webseiten von Versicherungen schaut und einem der Smart Assistant Auskunft über Leistungen und Tarife gibt. Das funktioniert gut, wenn es um ganz handfeste Zahlen und Fakten geht. MIA assistiert in einer ganz anderen Situation. Natürlich werden viele Menschen fragen: „Was ist das da auf dem Bild?“ Aber was passiert, wenn das nicht eindeutig oder gar abstrakt ist? Wie sie gerade schon gesagt haben, geht es auch um Interpretation und sehr subjektive Eindrücke, vielleicht auch um Emotionen oder persönliche Erinnerungen. Vor welche Herausforderung hat Sie das denn gestellt?

WH: Das ist eine sehr gute Frage, weil es da wirklich eben Unterschiede gibt. Von einem Chatbot einer Zahnzusatzversicherung bekommt man eben Antworten zu einer Zahnzusatzversicherung, wie man die erwerben kann, was sie abdeckt. Das ist also sehr zielorientiert aufgebaut. Oder zum Beispiel bei der Schadensabwicklung einer Autoversicherung. Da geht es darum, zu erkennen, ob die Beule jetzt groß oder klein ist, ob die Reparatur viel oder wenig kostet. Die smarten Assistenten in diesem Bereich sind sehr zielgerichtet. Und auch der Anwender kennt dieses Ziel, er will bestimmte, relativ begrenzbare Informationen bekommen. Bei einem Bild im Museum ist das anders. Es hat einen viel breiteren und offeneren Kontext. Der kann philosophisch, ästhetisch, gesellschaftlich sein oder mit der persönlichen Biografie des Künstlers oder der Künstlerin zusammenhängen. Es ist natürlich eine große Herausforderung, das alles abzudecken. Nichtdestotrotz ist eines gleich: Die Betrachter des Bildes, die Nutzer von MIA als dem smarten Assistenten, wollen etwas über das Bild lernen.

OK: Aber anders als bei einem Blechschaden, wo die Fragen absehbar sind, muss MIA erst mal wissen, was gefragt wird, um antworten zu können.

WH: Genau. Deswegen haben wir am Anfang Fragen von vielen Leuten gesammelt, die ins Museum gehen, was sie eigentlich an den Bildern interessiert, zu denen MIA jetzt in der Ausstellung live antwortet. Wenn man hunderte, tausende oder zehntausende Fragen hat, dann fangen die Fragen an, sich mit der Zeit immer mehr zu wiederholen. Und dann kann man – und das ist auch der typische Ablauf eines solchen KI-Projektes – die häufigen und einfachen Fragen zuerst beantworten und automatisieren und dann die komplizierteren und selteneren Fragen auch durch Texte oder Textabschnitte abdecken, die die Künstlerin selbst geschrieben hat. In dieser Kombination, auch eben mit Sprach- und Textverarbeitung, kann dann so ein Assistent gebaut werden und verbessert sich, so dass mit der Zeit immer mehr Fragen beantwortet werden können.

OK: Eine normale Kunstführung würde, wenn Sie mit einer Museumspädagogin oder einem -pädagogen durch eine Ausstellung gehen, im Dialog stattfinden. Ein menschlicher Führer würde das Bild nicht frontal erklären oder nur Fragen beantworten, sondern den Besucher in ein Gespräch einbinden. Ist es denkbar, dass MIA in Zukunft dialogischer werden könnte?

WH: Die Antwort ist eindeutig ja. In diese Richtung geht auch die Entwicklung der Technik, an der wir bei IBM arbeiten. Das zeigt unser neues IBM Project Debater. Haben Sie davon schon einmal gehört?

OK: Nein.

WH: IBM definiert regelmäßig sogenannte „Grand Challenges“ – das sind „große“ Aufgaben, deren Lösung man zunächst für nahezu unmöglich halten würde. Bei diesen Aufgaben treten von IBM in unseren Forschungslaboren entwickelte Technologien gegen menschliche Intelligenz an, gegen die Meister einer bestimmten Disziplin. Bei diesen Challenges wird immer etwas versucht, was zuvor nicht möglich schien. 1997 etwa bestritten wir mit Big Blue eine Grand Challenge, bei der ein von uns entwickelter Schachcomputer den Schachweltmeister Garri Kasparow schlug. Die nächste Grand Challenge war 2011 der Auftritt von IBM Watson in der beliebten amerikanische Quizshow Jeopardy! Auch da war nicht klar, ob man solch komplizierte Fragen eigentlich mit Software beantworten kann. Doch Watson gewann gegen zwei Jeopardy!-Champions.

OK: Aber auch das ist faktenbasiert. Das sind ja ganz logische Gedankengänge oder Wissen, das abgefragt wird.

WH: Eben, deshalb sage ich das. Das war ja 2012, vor acht Jahren. Und der nächste Schritt ist genau der, den Sie ansprechen, dass die Technik in die Richtung geht, Dialoge zu führen. Sie haben recht, aktuell ist MIA fakten- und nicht dialogbasiert, es spuckt lediglich Fakten oder vorbereitete Fragen aus. Es wird mit dem Besucher noch kein wirklicher Dialog geführt. Das ist der nächste technische Schritt, wie jetzt bei der dritten Grand Challenge. Das IBM Project Debater trat 2019 in San Francisco in einer öffentlichen Debatte gegen den Debattier-Weltmeister Harish Natarajan an. Hier gewann Natarajan zwar nach Meinung des Publikums, aber die Leistung von Debater und die vorgebrachten Argumente waren beeindruckend.

OK: Was nutzt dieses Debatten-Programm im Alltag?


WH: Man nennt das eine textbasierte Entscheidungshilfe. Es sammelt Argumente und hilft bei potentiell polarisierenden Themen bei der kollektiven Entscheidungsfindung, sei dies in Gemeinden oder in Unternehmen.

OK: Kann denn KI Zusammenhänge finden, die der Mensch nicht findet?

WH: In der Technik und Forschung ist das ein ganz klares ja. Eine der Hauptanwendungen von künstlicher Intelligenz ist die Mustererkennung. Und gerade die Fähigkeit, Muster zu erkennen, ist ein Herzstück menschlicher Forschung. Nehmen Sie zum Beispiel die Analyse des menschlichen Genoms, mit Millionen von Aminosäuren hintereinander verkettet. Hierfür nutzt man Deep Learning-Algorithmen, also künstliche Intelligenz, um zum Beispiel einen Zusammenhang zwischen bestimmten Krankheiten und ihrer Heilung durch bestimmte Medikamente zu finden. Mit Sicherheit werden jetzt bei der Suche nach Medikamenten gegen den Corona-Virus in verschiedenen Forschungszweigen auch Deep Learning-Algorithmen eingesetzt.

OK: Aber wie ist das mit den Debatten zum Virus?

WH: Wenn in den sozialen Medien Tausende von Leuten ihre Meinungen zum Corona-Virus sagen, dann kann ich natürlich mit solchen Techniken auch herausfinden, wie viele Leute welche Gefühle haben, ob sie Angst haben, wovor sie Angst haben, ob sie wissen, was sie tun können. Ich kann mir da viel schneller einen Überblick verschaffen und eventuell auch Meinungen von Ärzten finden, die ich bisher übersehen habe. Das ist die besondere Fähigkeit von KI, aus großen Textmengen Zusammenfassungen zu erstellen, eben in Millionen von Texten die Sätze nach Suchbegriffen zu klassifizieren. Und so kann ich dann auch neue Fakten und andere Meinungen finden.

OK: Das ist wirklich faszinierend. Auf der anderen Seite haben ja viele Leute Angst, dass künstliche Intelligenz Arbeitsplätze zerstört, dass man am Telefon bald nur noch mit einem Chatbot redet, dass quasi das Menschliche verloren geht. Was würden Sie den Leuten antworten, die sich vor der Überwältigung durch künstliche Intelligenz fürchten?

WH: Zunächst einmal, es wird noch sehr lange Zeit dauern bis Maschinen psychologische, emotionale und hochkomplexe Dialoge führen können. Davon ist die Technik unendlich weit entfernt, also viel zu dumm. Das allgemeine Verständnis von künstlicher Intelligenz ist sehr geprägt von Hollywood, von Filmen wie Terminator oder Independence Day oder von HAL in 2001: Odyssee im Weltraum, wo es immer bestimmte Computer, Roboter oder Cyborgs gibt, die unendlich viel intelligenter sind als der Mensch. Das nennt man „super intelligent“. Daraus kann ich schöne Filme machen in Hollywood und die Leute begeistern. Allerdings ist in der Realität unsere Technik heute Lichtjahre davon entfernt, so intelligent zu sein. Das, was wir aktuell haben, die sogenannten künstlichen neuronalen Netze sind „narrow artificial intelligence“, also eine sehr begrenzte Form von künstlicher Intelligenz, die nur kleine, eng umrissene Aufgaben erledigen kann, wie zum Beispiel eine Bilderkennungs-Software eine Katze erkennen kann. Das ist gemessen an dem, was der Mensch kann, unwahrscheinlich wenig. Insofern sind die durch Hollywood geschürten Ängste übertrieben und viele Leute sorgen sich völlig zu Unrecht, weil die Technik an sich extrem viel dümmer ist.

OK: Aber warum ist dann KI so wichtig?

WH: Die Chancen dieser kleinen, dummen Schritte sind unterschätzt. Ich kann damit schon mehr machen, als man denkt. Gerade für Deutschland als hochentwickeltes Land ist das extrem wichtig. Und da komme ich jetzt auch zu der Antwort auf Ihre Frage. Sie haben ja gerade suggeriert, durch KI gingen Arbeitsplätze verloren. Das Gegenteil ist wahr. Arbeitsplätze gehen verloren, wenn wir KI nicht einsetzen und den KI-Trend verpassen. Das hat bereits der Internet-Trend gezeigt, der hier in Deutschland lange verschlafen wurde. Wenn deutsche Unternehmen jetzt den nächsten Trend, also die KI, die intelligente Schicht auf dem Internet, mitprägen und den Wettbewerb bestimmen, dann bin ich optimistisch, dass es keine negativen Auswirkungen auf den Arbeitsmarkt geben wird. Wir wollen mit unseren Technologien den Menschen unterstützen und ihn nicht ersetzen. Es wird ein Miteinander von Menschen und intelligenten Systemen geben.