Macht Sinn: Menschliche Intelligenz gibt Auskunft über Künstliche Intelligenz.

Marke People Data & Tech Lifestyle
31.07.2023

Dr. Markus Gottschling ist nicht nur selbst Wissenschaftler, sondern sitzt in Tübingen in einem Epizentrum der KI-Forschung inmitten zahlreicher KI-Experten. Er ist damit der perfekte Gesprächspartner, wenn es darum geht auszuloten, was es mit dem aktuellen KI-Hype auf sich hat. Von ihm erfahren wir jede Menge Spannendes über Mythen, Meinungen und Machbares rund um KI.

Center of Rhetorical Science Communication Research on ­Artificial ­Intelligence“. Das klingt schon mal extrem vielsagend und vielversprechend …

Das RHET AI sitzt in Tübingen und Karlsruhe und wird gefördert von der Volkswagen-Stiftung. Das heißt, wir sind eher ganz geerdet unterwegs. Unsere Hauptbeschäftigung gilt besonders zwei Themenkomplexen. Der eine ist, wie wir in der Öffentlichkeit über Künstliche Intelligenz sprechen. Das bedeutet eben ganz häufig, dass Künstliche Intelligenz ein umfassendes Kofferwort ist, in dem alles Mögliche stecken kann. Dahinter können sich technische Aspekte verbergen, aber auch Mythen und Imaginationen, die teilweise tausende Jahre alt sind und die wir als Menschen immer wieder ausgraben. All das schwingt im Begriff Künstliche Intelligenz mit.
Andererseits ist der Begriff auch emotional aufgeladen, wenn es um ganz konkrete Ereignisse geht. Hier in Tübingen war vor ein paar Jahren großer Protest angesagt wegen der angedachten Ansiedlung des Cyber Valley, an dem die Universität, aber auch Unternehmen wie Bosch oder Amazon beteiligt sein sollten. Allein der Begriff KI sorgte in dem Kontext schon für Aufregung. Da ging es dann vor allem um Dinge wie: Wie teuer wird dann das Wohnen hier? Was für ein Unternehmen ist denn eigentlich Amazon und wollen wir das überhaupt in der Stadt angesiedelt haben? Sollen die jetzt Forschungsgelder reinbringen dürfen und dazu dann noch Einfluss besitzen?! Unter dem Begriff der Künstlichen Intelligenz kann man ganz viel diskutieren. Und wir wollen herausfinden: Was verstehen die Menschen eigentlich darunter? Welche Ängste, welche Möglichkeiten sehen sie und was von dem technischen Hintergrund nehmen sie überhaupt mit?
Und als zweiter Themenkomplex, gerade weil es hier in Tübingen einen so großen Forschungsschwerpunkt zu KI gibt, interessiert uns natürlich auch die Frage, wie diese Forschung eigentlich in die Öffentlichkeit kommuniziert wird. Und wie kann man es vielleicht besser kommunizieren, so dass die Bevölkerung von Tübingen, aber auch die Leute im Allgemeinen ein besseres Verständnis davon bekommen, was diese Forschung ausmacht? Und dann eben im Umkehrschluss vielleicht nicht mehr so undifferenziert über Künstliche Intelligenz sprechen, sondern über Machine Learning, Robotics oder über Computer Vision.

DR. MARKUS GOTTSCHLING

forscht und lehrt zu Literatur, Rhetorik und Wissenschaftskommunikation an der Universität Tübingen. Er ist Wissenschaftlicher Koordinator des Zentrums für Rhetorische Wissenschaftskommunikationsforschung zur Künstlichen Intelligenz (RHET AI Center) und leitet dort auch die Arbeitsgruppe „Communicative Competence“. Regelmäßig entwickelt und lehrt er Fortbildungsformate zur Wissenschaftskommunikation. Für das „Science Notes“-Magazin verfasst er die musikalische Kolumne „Playlist“.

Wissenschaft ist immer auch Storytelling

Wenn wir Wissen und Wissenschaft in die Öffentlichkeit bringen, geht es eben nicht nur darum, Fakten zu benennen, sondern auch zu verstehen: Welche Storys, welche Narrative stecken dahinter, was spricht die Leute an, welche Perspektiven haben die einen Forscher:innen, welche Perspektiven haben die anderen? Welche Erzählung setzt sich durch? Da ist Sprache sehr geformt und sehr aufgeladen. Wissen und Wissenschaft sind eben nicht frei von rhetorischen Funktionen, auch wenn früher häufig noch geglaubt wurde, dass man einfach nur Wissen weitergeben muss und dann wird es schon verstanden werden.

Über die Grenzen von ChatGPT und darüber hinaus

Programme und Tools wie ChatGPT beruhen alle auf wissenschaftlichen Entwicklungen. Die großen Sprachmodelle wie GPT-4, auf denen die Chatbots basieren, arbeiten mit sehr großen Datensätzen und haben einen selbstlernenden Mechanismus, um Text oder wie bei Midjourney eben auch Bilder zu generieren, wenn sie entsprechend mit passenden Daten trainiert wurden. Die exakte Funktionsweise ist allerdings unklar, weil es so viele Parameter gibt. Den einzelnen, konkreten Weg, den ein Input durch dieses neuronale Netzwerk nimmt, um nachher zu einem Output zu werden, können wir gar nicht nachvollziehen. Bei GPT-3 waren es 175 Milliarden Parameter, also einzelne Knotenpunkte in einem neuronalen Netzwerk, die sich dieses Netzwerk selbst beigebracht hat, um am Ende den gewünschten Output generieren zu können. Bei GPT-4 wurde gemutmaßt, dass es noch deutlich umfangreicher sei – auch wenn wir die genaue Zahl nicht kennen, weil OpenAI die Trainingsdaten und den Aufbau des Netzes nicht mehr offenlegt.
Offen bleibt, ob die sprunghafte Entwicklung im Bereich generativer KI so weitergehen kann. Ich habe schon von mehreren Forschern hier in Tübingen gehört, dass sie davon ausgehen, dass GPT-5 gar keinen großen Durchbruch mehr bringen kann. Bisher lief das so: Je mehr ich an Daten reinpacke, umso mehr kommt am Ende heraus, aber das ist irgendwann weder finanzierbar noch nachhaltig. Es ist doch eher so, dass die Modelle wahrscheinlich wieder kleiner, schlanker und spezifischer in ihren Aufgaben werden.
Daneben sind es vor allem ethische und urheberrechtliche Fragen, die noch völlig offen sind: Welche Daten fließen ins Training ein – und welche Antworten dürfen die Modelle generieren? Von Bildern im Stil von lebenden Künstler:innen bis zum Bombenbau geht da das Spektrum.

KI-Programme – mehr als nur stochastische Papageien?

Ob generative KI irgendeine Form von menschlicher Intelligenz besitzt oder ihr ähnlich sein könnte, ist Anlass für Spekulationen – von „absoluter Nonsens“ bis „Funken von allgemeiner Intelligenz“ ist alles dabei. Ich würde mich selbst eher auf der Nonsens-Seite sehen, allerdings ist es eine wirklich hochspannende Entwicklung, dass diese Programme plötzlich so hochwertige sprachliche Ausgaben machen können, Kontexte zu verstehen scheinen und wir tatsächlich nicht hundertprozentig nachvollziehen können, warum und wie sie diese Kontexte gelernt haben. Dennoch: Computerlinguist:innen wie Emily M. Bender sagen, das sind nur stochastische Papageien. Das bedeutet, dass die KIs basierend auf ihrem Grundlagenmaterial die Wahrscheinlichkeit des nächsten Wortes berechnen und, wenn sie entsprechend viel Grundlagenmaterial haben, auch gute und sinnvolle Sätze konstruieren können. Dass aber das Programm rein gar nichts versteht.
Fragwürdig ist aber auch schon, ob so ein Programm überhaupt irgendetwas verstehen kann. Denn wenn wir sagen, es „versteht“ etwas, oder es „macht“ etwas verleihen wir einer technischen Sache menschliche Qualität. Anthropomorphisieren nennt das die Forschung und sieht darin hauptsächlich eine Gefahr. Allerdings gibt es auch Stimmen, die sagen, ja, die Programme scheinen sich so was wie ein menschliches Weltmodell aufzubauen, um ihnen gestellte Aufgaben zu lösen. Also: Es gibt Befürworter:innen und es gibt Sachverhalte, die gegen so etwas wie generelle Künstliche Intelligenz sprechen. Für den Moment müssen wir aber festhalten, dass die Tools nur das ausführen können, womit sie durch eine Eingabeaufforderung beauftragt werden.
In diesem Zusammenhang ist der Begriff des Halluzinierens spannend: So wird es genannt, wenn Nonsens als Output generiert wird und KIs Fakten erfinden. Das zeigt, dass die Programme nichts an sich verstehen, sondern, dass sie nach Wahrscheinlichkeits- und statistischen Prinzipien Worte aneinanderreihen. Die Ergebnisse können wirklich überzeugend sein – auch wenn man sie mit früheren Versionen vergleicht. Aber es ist halt trotzdem so, dass ein Tool wie ChatGPT sehr fehlerbehaftet ist und dass man jetzt eben nicht sagen kann, dass da ein Verständnis von der Welt da wäre.

Der Begriff „Künstliche Intelligenz“ – maximal ungünstig

Mit Intelligenz ist ja etwas Menschliches gemeint. Der Begriff stammt vom Titel eines wissenschaftlichen Workshops, der 1956 am Dartmouth College stattfand und vom Informatiker John McCarthy veranstaltet wurde. Das Problem ist, wir bekommen diese Bezeichnung nicht mehr weg. Fakt ist, sobald wir den Begriff Intelligenz nutzen, denken wir automatisch ein humanoides Gegenüber.
Und dann gibt es auch noch den Turing-Test, bei dem wir der Vorstellung folgen, die KI müsste einen Menschen so gut wie möglich simulieren oder ihm ähnlich sein – und das wäre dann die entscheidende Leistung. Der Mensch ist also scheinbar immer die Folie für diese technische Entwicklung. Ein weiterer Grund zur Tendenz der Vermenschlichung von KI liegt in den Mythen und Narrativen begründet, die wir uns sozusagen über uns selbst erzählen. Zum Beispiel mit der Frage, ob wir selbst Gott sein können oder ob wir künstliche Geschöpfe erschaffen können. Es gibt vom Pygmalion-Mythos aus der Antike über das Mittelalter, den Golem in der jüdischen Tradition bis hin zu Frankensteins Monster eine ganz lange Geschichte über die Hybris des Menschen, Gott gleich zu werden und einen neuen Menschen erschaffen zu wollen. Immer verbunden mit der Angst, von diesem wiederum abgeschafft zu werden. Wir Menschen sind fasziniert von diesem Spiel.
Dazu kommt, und wir sehen das jetzt auch bei der generativen KI, dass die Programme angelegt sind, gewisse menschliche Züge zu simulieren und vorzuspiegeln, weil wir dann offensichtlich besser mit ihnen interagieren können. Prompting, also Eingabeaufforderungen für generative KI, kennen einige schon von den Vorgängern von ChatGPT. Bei GPT-1 und GPT-2 und auch bei den Bild-Generierungs-Programmen musste man noch relativ detaillierte Prompts schreiben, um erfolgreich zu sein. So durch die Decke gegangen ist ChatGPT vor allen Dingen, weil wir plötzlich einen Chatbot haben, der nicht mehr die detaillierten Prompts erwartet, und ich nun direkt interagieren kann – auf scheinbarer Augenhöhe. Und dann blinken auch noch drei Punkte auf. Wir kennen das von diversen Messengern, das vermittelt uns das Gefühl, da gibt jemand gerade Text ein.
Und dann sagt die KI auch noch „Ich“. Deshalb haben wir sofort diese Assoziationen, dieses „Gegenüber“ ist uns irgendwie ebenbürtig. Das hat was Menschliches, das macht was mit uns. Es gab ja letztes Jahr diesen kleinen Aufruhr rund um das Chatsystem LaMDA. Der Google-Ingenieur Blake Lemoine hielt das Language Model für ein bewusstes Wesen, weil es ihm geantwortet hat: „Ich fühle mich wie ein Wesen. Ich habe ein Bewusstsein.“ Gekündigt wurde ihm dann, weil er sensible Daten geleakt hat, um auf LaMDAs scheinbares Bewusstsein aufmerksam zu machen.

Der Google-Ingenieur Blake Lemoine hielt das Language Model für ein bewusstes Wese, weil es ihm geantwortet hat: "Ich fühle mich ein Wesen. Ich habe ein Bewusstsein."

Artificial intelligence is neither artificial nor intelligent

Es gibt einen Satz der Forscherin Kate Crawford, die sagt: „Artificial intelligence is neither artificial nor intelligent.“ Das Künstliche ist eben nicht vollständig durchautomatisiert, weiterhin stecken zahllose menschliche Entscheidungen drin. Angefangen bei der Datenauswahl bis hin zum Reinforcement Learning. Mit dem bestimmt man am Ende des Tages, welche Outputs das Programm positiv oder negativ beurteilen soll. Es steckt eigentlich immer automatisch so viel Mensch drin, dass man nicht von „artificial“ reden kann. Deswegen sprechen andere dann eben auch lieber von „Statistical Renderings“. Das ist auch nicht intelligent, sondern es laufen auf Statistik beruhende Prozesse ab. Ja, das macht dann schon eine Maschine, aber eben nicht mit einem Kreativitäts-Funken dahinter. Die Autorin Kathrin Passig hat einmal gesagt: „Man sollte, bevor man einen Artikel über bücherschreibende Roboter verfasst, immer nach dem Menschen Ausschau halten. Meistens ist das nicht schwer zu erkennen.“ Wenn behauptet wurde, dass ein Gedicht mit KI geschrieben wurde, lief das dann meistens so, dass jemand das noch nachbearbeiten musste, weil manches einfach keinen Sinn gemacht hat. Dieses Nachjustieren wird natürlich immer weniger und findet auch immer verdeckter statt. Da die Tools in der Interaktion immer autonomer werden, wird der menschliche Einfluss immer weniger sichtbar. Das ist ein Problem, weil wir eben annehmen, dass dieses Ding dann doch irgendwie eine Form von Künstlicher Intelligenz besitzt. Was es aber einfach nicht tut.

Autor
Kai Hafner

Ähnliche Themen

Marke 26. Februar 2024

Einigkeit und Recht und Fußball

Marke 26. Februar 2024

Aus unserer Werkstatt 2024

People 26. Februar 2024

Schland hat Schiss

Marke 13. Februar 2024

Die Social Media Molekülwolke

People 12. Februar 2024

Mobile Lifestyle: Auf zu neuen Ufern

People 8. Dezember 2022

"Ja, ich will hier arbeiten."

People 8. Dezember 2022

Ein Gespräch mit Bernd Kammerer

Marke 8. Dezember 2022

Aus unserer Werkstatt 2022

Marke 18. November 2022

Das Heimatsystem: Owned Media

Marke 18. November 2022

Der Out Of Home Galaxienhaufen

Marke 18. November 2022

Der Asteroidengürtel von Event

Marke 18. November 2022

Die weißen Zwerge von Print

Marke 18. November 2022

Die Recruiting Galaxie

Marke 18. November 2022

The Universe of employer branding

Marke 30. Juni 2022

Nachhaltigkeit

Marke 30. Juni 2022

Aus unserer Werkstatt 01/2022

People 30. Juni 2022

Mit dem Machen anfangen

Data & Tech 23. Mai 2021

Roboter kennen keine Liebe.

Marke 18. Mai 2021

Ohne CX war alles nix

Marke 11. März 2020

Aus unserer Werkstatt 2020

Marke 11. März 2020

Leben und arbeiten mit Insights

Marke 9. März 2020

Effie, Effie und nochmal Effie

People 18. November 2019

Insights from the Outside

People 12. September 2018

Industrie 4.0 kann man nicht kaufen

Marke 12. September 2018

Ist doch schön

People 11. September 2018

Standard ist tödlich.

People 11. September 2018

Ich wünsche mir mehr Mut

Marke 11. September 2018

Warum Marken Kreativität brauchen.

Marke 26. April 2018

Aus unserer Werkstatt 2018

Data & Tech 26. April 2018

3 Tage auf Tinder

Marke 26. Februar 2024

Einigkeit und Recht und Fußball

Marke 26. Februar 2024

Aus unserer Werkstatt 2024

People 26. Februar 2024

Schland hat Schiss

Marke 13. Februar 2024

Die Social Media Molekülwolke

People 12. Februar 2024

Mobile Lifestyle: Auf zu neuen Ufern

People 8. Dezember 2022

"Ja, ich will hier arbeiten."

People 8. Dezember 2022

Ein Gespräch mit Bernd Kammerer

Marke 8. Dezember 2022

Aus unserer Werkstatt 2022

Marke 18. November 2022

Das Heimatsystem: Owned Media

Marke 18. November 2022

Der Out Of Home Galaxienhaufen

Marke 18. November 2022

Der Asteroidengürtel von Event

Marke 18. November 2022

Die weißen Zwerge von Print

Marke 18. November 2022

Die Recruiting Galaxie

Marke 18. November 2022

The Universe of employer branding

Marke 30. Juni 2022

Nachhaltigkeit

Marke 30. Juni 2022

Aus unserer Werkstatt 01/2022

People 30. Juni 2022

Mit dem Machen anfangen

Data & Tech 23. Mai 2021

Roboter kennen keine Liebe.

Marke 18. Mai 2021

Ohne CX war alles nix

Marke 11. März 2020

Aus unserer Werkstatt 2020

Marke 11. März 2020

Leben und arbeiten mit Insights

Marke 9. März 2020

Effie, Effie und nochmal Effie

People 18. November 2019

Insights from the Outside

People 12. September 2018

Industrie 4.0 kann man nicht kaufen

Marke 12. September 2018

Ist doch schön

People 11. September 2018

Standard ist tödlich.

People 11. September 2018

Ich wünsche mir mehr Mut

Marke 11. September 2018

Warum Marken Kreativität brauchen.

Marke 26. April 2018

Aus unserer Werkstatt 2018

Data & Tech 26. April 2018

3 Tage auf Tinder

Search form

Advanced search