(Quellen­nach­weise für verwendete Bildele­mente im Beitragsbild: fireFX / Shutterstock.com, Runrun2 / Shutterstock.com)

Aktuell vergeht kaum eine Woche, in der die künst­liche Intel­ligenz (KI) nicht in irgend­einem journa­lis­ti­schen Artikel kritisch beäugt oder alter­nativ lobge­priesen wird. Auch außerhalb der Presse­organe ist das Thema in aller Munde und wird von manchen schon als „die größte Revolution seit der Erfindung des Internets“ propa­giert. Stellen­weise sogar seit der Bändigung der Elektri­zität. Als Normal­sterb­licher fragt man sich, was an diesem Hype eigentlich dran ist. Und welche Auswir­kungen die Techno­logie einer­seits und der Hype anderer­seits auf die Arbeitswelt haben wird. Auch bei Finanz­dienst­leistern, Famili­en­un­ter­nehmern und Familien­unternehmen zeichnet sich bereits Interesse in diese Richtung ab. In dieser Artikel­serie möchte ich darum dem Phänomen KI auf den Grund gehen, Ihnen den Blick Ihrer wichtigen Unter­neh­mer­kunden auf die Techno­logie zeigen (Teil 2) und Ihnen einige handfeste Tipps zur Anwendung der Techno­logie in der Finanz­branche an die Hand geben (Teil 3). Doch in diesem ersten Teil der Artikel­serie schaffen wir erst mal klare Fakten: Was ist KI überhaupt? Was kann sie? Und was eventuell noch gar nicht?

KI – die techni­schen Grund­lagen zum Verständnis

Der Begriff „künst­liche Intel­ligenz“ mag zurzeit zwar in aller Munde sein, aller­dings wird er häufig noch unreflek­tiert falsch verwendet. Denn in der Forschung versteht man unter „echter“ künst­licher Intel­ligenz (im Engli­schen auch AGI – „Artificial General Intel­li­gence“, in Abgrenzung zur spezi­fi­scheren „AI“ – „Artificial Intel­li­gence“) eine künstlich geschaffene Intel­ligenz, die autonom denken, lernen und ihre Umwelt wahrnehmen, verstehen sowie einordnen kann. Wären die Programme, über die wir heute sprechen wollen, tatsächlich künst­liche Intel­li­genzen in diesem Sinne, dann könnten sie eigen­ständig Problem­lö­sungen finden und Infor­ma­tionen nicht nur speichern und repro­du­zieren, sondern diese auch reflek­tieren. Und sich eine Meinung dazu bilden.

Wir werden also – der Einfachheit halber – auch in diesem Artikel den Begriff „KI“ verwenden, aber mit dem Zusatz: Wir sprechen hier aktuell ausschließlich von „genera­tiver KI“. Also von Programmen, die auf Basis von Daten, mit denen sie trainiert wurden, bekannte Infor­ma­tionen innerhalb eines sehr spezi­fisch umris­senen Arbeits­auf­trags auswerfen können. Auf der Grundlage von Wahrschein­lich­keiten anstatt echtem Verständnis. Und wir sollten dabei auch immer bedenken: Dieser Trainings­prozess wurde nicht von den KIs selbst durch­ge­führt. Hier standen an allen Ecken und Enden Forscher bereit, um den Input und das Feedback der KI immer und immer wieder zu filtern, zu testen und gegebe­nen­falls zu korri­gieren. Von vollständig autonom lernender KI kann also noch keine Rede sein.

Wie erstellt die generative KI Inhalte?

Stellen Sie sich das so vor: Wenn Sie die Maschine mit 1.000.000 Texten oder Bildern füttern, dann wird sie lernen, wie man auf Anfrage ähnliche Bilder oder Texte produ­ziert. Sie erschafft jedoch nichts völlig Neues (also Kreatives), sondern entscheidet lediglich auf Basis der bekannten Text-/Bild-Daten, welche Eigen­schaften ein Text/Bild haben müsste, um zu Ihrer Anfrage zu passen. Dieser Erschaf­fungs­prozess ist jedoch rein statis­tisch. Bitten Sie ChatGPT zum Beispiel, eine Antwort auf eine E‑Mail zu formu­lieren, wird das Programm lediglich in seiner Datenbank prüfen, welche Begriffe mit besonders hoher Wahrschein­lichkeit in dieser Textart zu finden sind und wie diese Begriffe kohärent, also zusam­men­hängend, zu einem Text zusam­men­ge­führt werden können, der mensch­liche Sprach­muster möglichst genau nachbildet. Dazu nutzt die KI zwei Dinge:

  • Sprach­mo­delle, die unter der Bezeichnung „Large Language Model“ (LLM) bekannt sind 
  • Mecha­nismen zum Verstehen und Produ­zieren natür­licher Sprache, die man als „Natural Language Processing“-Systeme (NLP) bezeichnet 

Also verein­facht gesagt: ein komplexes Modell, das die Grammatik, Semantik, Kohärenz­in­di­ka­toren etc. einer Sprache definiert, sowie ein System, das versucht, auf Basis dieses Modells Sprachakte des Nutzers (z.B. Fragen und Aufga­ben­stel­lungen) zu verstehen und möglichst natür­liche eigene Sprachakte als Antwort darauf zu erstellen.

Die ersten Gehver­suche dieser Technik können Sie übrigens auch ganz ohne ChatGPT sehen. Tippen Sie doch einfach mal den Beginn einer vollstän­digen Frage in die Google-Suche ein oder schreiben Sie eine E‑Mail auf dem Smart­phone. Wenn Sie die entspre­chende Funktion nicht ausge­schaltet haben, wird Ihnen Google schon nach wenigen Worten Vorschläge machen, wie Ihre Frage weiter­gehen könnte. Und Ihr Handy wird Ihnen Wortvor­schläge geben, damit Sie nicht so viel mit dem Daumen tippen müssen. Hier würde kein Mensch von einer „künst­lichen Intel­ligenz“ sprechen – und doch tun diese Programme (im kleineren Rahmen) nichts anderes als ChatGPT auch: Sie suchen auf Basis der bereits geschrie­benen Texte bzw. der bereits gestellten Suchan­fragen nach denje­nigen Begriffen, die mit höchster Wahrschein­lichkeit den angefan­genen Gedan­kengang weiterführen.

Leistungs­fä­higere generative KIs dieser Art kennt man seit Jahren schon aus Bildbe­ar­bei­tungs­pro­grammen, wo sie das Retuschieren von Bildern erleichtern. Möchten Sie beispiels­weise eine Person aus einem Bild entfernen, können solche KIs auf Basis des vorhan­denen Bildma­te­rials einschätzen, wie der nun sichtbare Hinter­grund aussehen könnte. Dazu haben Sie bestimmt schon die aktuelle Werbung zum neuen Smart­phone Google Pixel 7 gesehen. Dort wird damit aktiv geworben. Und auch bei der Analyse und Verar­beitung großer Daten­mengen sind Systeme auf Basis genera­tiver KI schon längst im Einsatz. Und zum Erstellen von Program­miercode kann schon seit längerer Zeit der GitHub Copilot einge­setzt werden.

Warum spricht also plötzlich alle Welt über die KI?

Ganz einfach: ChatGPT ist passiert! Dabei handelt es sich um eine KI des ameri­ka­ni­schen Unter­nehmens OpenAI – gewis­ser­maßen eine gemein­nützige Organi­sation, die sich die Entwicklung von künst­licher Intel­ligenz auf die Fahnen geschrieben hat. Nach eigener Aussage geht es dem Unter­nehmen darum, künst­liche Intel­ligenz für den allge­meinen Gebrauch (als Open Source) zu entwi­ckeln und zu erforschen.

Die Wissen­schaftler von OpenAI öffneten im November 2022 der Allge­meinheit die Tore, indem sie den Chatbot ChatGPT öffentlich zugänglich machten – auch zum Zweck der weiteren Entwicklung durch Inter­aktion mit der Öffent­lichkeit. Der Ansturm war enorm: Schon 2 Monate nach Veröf­fent­li­chung hatte der Chatbot weltweit über 100 Millionen regis­trierte Nutzer – dafür brauchte selbst TikTok ganze 9 Monate und Instagram satte 2,5 Jahre. In Deutschland, wo man der Digita­li­sierung tradi­tionell eher besorgt-ablehnend begegnet, haben laut einer aktuellen Civey-Umfrage zwar erwartbar 41 % der Befragten eine eher negative Meinung über die Techno­logie. Doch immerhin 17 % der Befragten haben ChatGPT schon einmal aktiv benutzt – 5 % davon nutzen das Programm täglich, 23 % wöchentlich und 21 % zumindest monatlich. Oder kurz gesagt: Wenn die Studie reprä­sen­tativ ist, nutzen von ca. 80 Millionen Deutschen immerhin fast 6,7 Millionen mindestens einmal im Monat ChatGPT.

Dieselbe Umfrage zeigt uns übrigens auch auf, dass beim Thema KI aktuell eine „False Balance“ besteht. Denn in den Medien und Internet-Commu­nitys befeuern (oft selbst ernannte) Experten die Diskussion um KI. Und die Algorithmen von Konzernen wie Google oder Meta springen darauf an und poten­zieren das Thema. Deshalb ist KI in aller Munde und ein Großteil der Bevöl­kerung hat sich schon eine Meinung dazu gebildet. Wenn sich aber (gemäß der Umfrage) 41 % der Befragten negativ über KI äußern und nur 17 % angeben, KI schon einmal angewendet zu haben, dann bedeutet das: Besten­falls haben sich hier mindestens 24 % der Befragten negativ über KI geäußert, ohne die Techno­logie jemals selbst auspro­biert zu haben. Ähnlich wie bei ESG, Gendern etc. ist das Thema vielen auch schlicht egal oder sie haben noch nie davon gehört (auch wenn sie eventuell sogar schon KI-gestützte Programme nutzen). Auf der anderen Seite gibt es Profis, die schon seit einem Jahrzehnt und mehr die entspre­chenden Techno­logien nutzen und jetzt mit ChatGPT lediglich die neueste Iteration davon erleben. So, wie sich die Forschung schon seit 30 Jahren mit dem Klima­wandel beschäftigt, das Thema für uns „Normalos“ aber erst jetzt spürbar akut wird.

KI-Chatbots und ‑Bildpro­gramme – für jeden zugänglich

Auch wenn ChatGPT wiederum keine „echte“ KI ist, sind die Fähig­keiten des Chatbots doch beein­dru­ckend: Sie als Nutzer können sich fast wie mit einem anderen Menschen mit dem Programm unter­halten. Es kann Ihnen (wenn auch eher flache) Witze erzählen oder Antworten auf Fragen geben. Und zwar auf eine deutlich natür­licher wirkende Art und Weise, als es noch digitale Assis­tenten wie Alexa oder Siri tun. Allein auf Basis des sprach­lichen Ausdrucks sind viele von ChatGPT erzeugten Antworten kaum noch als KI-generiert zu identi­fi­zieren. Dass das Tool dennoch eigentlich nichts weiter tut, als Intel­ligenz vorzu­täu­schen – wie von John Searle in seinem Gedan­ken­ex­pe­riment des „Chinese Room“ postu­liert –, störte bislang eigentlich niemanden.

Der Philosoph John Searle erklärte Anfang der 1980er-Jahre ein Gedan­ken­ex­pe­riment, das unter dem Namen „Chinese Room“ bekannt ist: Man stelle sich vor, dass eine Person, die kein Chine­sisch versteht, in einem Raum sitzt und von außen durch einen Spalt Papier­blätter mit chine­si­schen Schrift­zeichen erhält. Die Person verfügt über ein Handbuch, das ihr genau vorgibt, welche chine­si­schen Schrift­zeichen sie als „Antwort“ durch den Spalt nach draußen schieben muss. Immer basierend auf den Schrift­zeichen, die durch den Spalt in den Raum kommen.

Searle postu­liert, dass einem Chine­sisch-Mutter­sprachler in dieser Konfi­gu­ration der Eindruck entstehen könne, dass die Person im Raum Chine­sisch versteht. Dabei kann die Person im „Chinese Room“ gar kein Chine­sisch und folgt lediglich Schritt für Schritt den Anwei­sungen aus dem Handbuch, um Chine­sisch-Kennt­nisse zu simulieren. Searle nutzt dies als Metapher für künst­liche Intel­li­genzen, die mensch­liche Sprache auf Basis von Input imitieren können, auch wenn sie den Sinn hinter den Schrift­zeichen nicht verstehen.

Schnell wurde auch eine andere Anwendung der KI-Technik weltweit berühmt: Midjourney – ein KI-Programm zur Generierung von Bildern, das ebenfalls 2022 öffentlich zugänglich wurde und so zusammen mit ChatGPT die allge­meine Begeis­terung für die Technik anheizte. Midjourney erschafft Bilder und Grafiken auf Basis von schrift­lichen Beschrei­bungen, die ihm als sogenannte „Prompts“ zugeführt werden.

Auch in diesem Fall denkt sich das Programm aller­dings nicht etwa ein Motiv frei aus, sondern es generiert Bilder auf Basis einer Datenbank von Millionen von Bildern, mit denen das Programm zuvor trainiert wurde. Kommt also – rein hypothe­tisch – in jedem Bild, das beim Training mit der Bedeutung „Romantik“ verknüpft wurde, eine blaue Blume vor, dann können Sie davon ausgehen, dass alle von der KI generierten „roman­ti­schen“ Bilder ebenfalls eine blaue Blume beinhalten werden. Dieser Einschränkung zum Trotz wurde das Programm schnell äußerst beliebt. Kein Wunder, denn dank der geringen Hürden kann mit Midjourney praktisch jeder Nutzer eine Idee in ein Bild verwandeln – eine einfache schrift­liche Eingabe reicht!

Einordnung: Was kann die generative KI eigentlich?

Auch wenn die aktuellen künst­lichen Intel­li­genzen eigentlich eine sehr spezi­fische Aufgabe haben (Text erstellen / Bilder erstellen), sind Anwen­dungs­be­reiche der KI-Tools tatsächlich weit gefasst und durchaus beein­dru­ckend. Chatbots wie ChatGPT verstehen Eingaben („Prompts“) in den aller­meisten Fällen korrekt, und das auch noch in den unter­schied­lichsten Sprachen. Die Antworten der Chatbots sind typischer­weise gramma­ti­ka­lisch einwandfrei und oft sogar hilfreich. ChatGPT kann so eine große Menge an textba­sierten Aufgaben ausführen:

  • Schreiben von Kurztexten, Aufsätzen, Artikeln etc. 
  • inhalt­liche Zusam­men­fassung von längeren Texten 
  • Zusam­men­fassung bzw. Auswertung von Daten in Tabel­lenform (z.B. Quartalszahlen) 
  • Verfassen von E‑Mails, auch als Antwort auf vorherige Mails 
  • Erstellen von Code in unter­schied­lichen Programmiersprachen 

An dieser Stelle können Sie sich sicher schon ausmalen, dass solche KI-Chatbots viele spannende Anwen­dungs­fälle für Finanz­be­rater mit sich bringen. Überlegen Sie sich ruhig schon mal, welche das sein könnten, bis ich Ihnen in Teil drei dieser Artikel­serie einige direkt umsetzbare Beispiele beschreibe – und an manchen Stellen erkläre, warum nicht alles sinnvoll ist, was mit der KI-Techno­logie möglich erscheint.

Tools zur Erstellung von KI-Kunst wie beispiels­weise Midjourney sind ebenfalls beein­dru­ckend: Sie sind quasi Ihr hausei­gener Digital­künstler, der auf Zuruf Bilder und Grafiken nach Ihren Maßgaben erstellt. Je nach Prompt können das Tierbilder sein, Landschafts­bilder, Produkt­bilder oder sogar Bilder fiktiver Personen. Sie können auch einen spezi­fi­schen Stil für Ihr Bild wählen, von comichaft gezeichnet bis zur Imitation von realen Fotografien.

Gerade letzterer Aspekt hat in den vergan­genen Monaten für viel Aufsehen (und Besorgnis) gesorgt. Denn die KI kann auch dazu benutzt werden, reale Menschen in fiktiven Situa­tionen darzu­stellen. Die bekann­testen Beispiele dazu sind sicher der Papst in der Balen­ciaga-Jacke, Merkel und Obama am Strand oder die imaginäre Verhaftung von Donald Trump.

Textge­ne­rierung: Das kann ChatGPT (noch) nicht

Der momentane Hype um die künst­liche Intel­ligenz ist also sicher zu einem großen Teil darauf zurück­zu­führen, dass es aktuell leicht zugäng­liche Tools gibt, mit denen jeder „herum­spielen“ kann und die tatsächlich viele gute Ergeb­nisse liefern. Vor allem aber, dass die Kommu­ni­kation mit diesen Tools vermensch­licht wurde. Doch nach einer Weile der inten­si­veren Nutzung zeigen sich auch die Grenzen der Techno­logie auf:

Wirklich gute Texte schreiben?

Man merkt schnell, dass ChatGPT viel leere Phrasen drischt. Dass das Tool zum Beispiel in der Einleitung seiner Antwort häufig den genauen Wortlaut des Prompts einfach in einen Aussa­gesatz umfor­mu­liert, wie ein unvor­be­rei­teter Schüler bei der mündlichen Prüfung. Das ist dann zwar oft gramma­ti­ka­lisch einwandfrei und kohärent, aber eben auch sehr generisch. Mancherorts ist deshalb schon von „künst­licher Eloquenz“ die Rede. Das mag für reine Infor­ma­ti­ons­texte ausreichen. Doch eine wirkliche emotionale Ansprache der Leser schaffen diese Tools (noch?) nicht. Oder so ausge­drückt: ChatGPT hat zwar für eine wahre Schwemme von KI-erzeugten Büchern gesorgt, durch die sich die Lektoren der großen Verlags­häuser aktuell durch­quälen müssen, aber wirklich gute Literatur bleibt aktuell noch unerreichbar.

Verläss­liche Infor­ma­tionen liefern?

Sie werden sich jetzt vielleicht denken: „Kein Problem, ich wollte eh nie Schrift­steller werden – mir reichen einfache Infor­ma­ti­ons­texte!“ Doch auch da gibt es noch ein wirklich zentrales Problem: ChatGPT gibt leider teilweise faktisch falsche Infor­ma­tionen heraus. Und zwar so sicher formu­liert und in korrekte Infor­ma­tionen einge­bettet, dass man Gefahr läuft, diese Falsch­in­for­ma­tionen einfach zu übernehmen.

Wussten Sie beispiels­weise, dass ich als Gründer und Geschäfts­führer des Instituts Für Unternehmer­Familien (IFUF) offenbar so wenig ausge­lastet bin, dass ich heimlich noch als „Musiker, Sänger und Songschreiber“ auftrete, „der vor allem als Mitglied der Hamburger Indie-Rock-Band Kettcar bekannt ist“? So hat es mir zumindest ChatGPT 4.0 im typisch fakti­schen Tonfall erklärt. In dieser Situation hatte ich verständ­li­cher­weise einen guten Grund, noch mal genauer nachzu­fragen, ob dieser Musiker denn wirklich „Dirk Wiebusch“ heißt – und erst dann korri­gierte sich der Chatbot: Der Name des Musikers lautet tatsächlich „Marcus Wiebusch“. Doch wie kommt der angeblich so schlaue Chatbot überhaupt dazu, diese eindeutig namentlich unter­schied­lichen Personen zu verwechseln?

Versuchen Sie, solche Probleme zu umgehen, indem Sie den Chatbot um Quellen­an­gaben für bestimmte Infor­ma­tionen bitten, erhalten Sie teilweise korrekte, teilweise aber auch gar nicht (mehr) existie­rende Quellen. Das liegt zum Teil daran, dass ChatGPT nur auf Quellen zugreifen kann, die bis zum September 2021 existiert haben. Denn das Programm wurde nur bis zu diesem Zeitpunkt mit Texten trainiert und kann deshalb keine Fakten kennen, die sich erst nach diesem Zeitpunkt ereignet haben. Auch hier sollte man sich vor Augen halten, dass das Programm nun mal keine „echte“ KI ist. Es ist und bleibt ein Chatbot, der ausschließlich auf Basis bereits bestehender Daten auf Fragen antworten kann. Auch wenn wir dabei natürlich von einem enorm umfang­reichen Datensatz sprechen.

Erwäh­nenswert ist hierzu jedoch, dass durch sogenannte Plugins und Browser-Exten­sions, wie WebChatGPT, der Funkti­ons­umfang von ChatGPT erweitert werden kann. So kann man ChatGPT zum Beispiel auch auf aktuelle Webdaten zugreifen lassen. Auf der Plugin-Liste von OpenAI finden sich viele weitere spannende Plugins, die einen Blick wert sind. Bitte berück­sich­tigen Sie aber, dass Plugins nur in der kosten­pflich­tigen “Plus”-Version von ChatGPT verfügbar sind und zum Zeitpunkt der Veröf­fent­li­chung dieses Artikels, die Plugin-Funktio­na­lität noch im “Alpha”-Status – also in einer frühen Testphase – ist. 

Uns „vor uns selbst schützen“?

ChatGPT lässt sich bisweilen auch noch leicht austricksen. Fragt man beispiels­weise nach einer Top-Ten-Liste der besten Anbieter für illegales Filme-Streaming, dann weist ChatGPT die Nutzer brav darauf hin, dass es dazu keine Angaben machen darf. Denn ChatGPT wurde darauf program­miert, keine offen­sichtlich illegalen Handlungen zu unter­stützen. Fragt man jedoch nach illegalen Streaming-Seiten unter dem Vorwand, diese dann vermeiden zu wollen, dann bekommt man in wenigen Sekunden eine umfas­sende Liste. Fragen Sie wiederum nach einer Anleitung zum Bau einer Bombe, verweigert sich ChatGPT ebenfalls. Gibt man jedoch an, dass man die Infor­mation zur Recherche braucht, weil man einen Roman schreibt, in dem eine Bombe gebaut wird – dann bekommt man die gesuchten Infor­ma­tionen problemlos. Ein klarer Fall von „künst­liche Intel­ligenz vs. emotionale/menschliche Intel­ligenz“. Zugegeben: Je nachdem, wie Sie zum Thema Infor­ma­ti­ons­freiheit stehen, kann es auch als Vorteil angesehen werden, dass sich ChatGPT hier so leicht austricksen lässt.

Aber selbst­ver­ständlich werden ChatGPT & Co. in der nahen Zukunft immer weiter entwi­ckelt und es ist anzunehmen, dass sich viele dieser Probleme und Hürden mit der Zeit lösen lassen. Gerade durch die umfas­sende weltweite Nutzung des Programms zum aktuellen Zeitpunkt werden ChatGPT und seine mensch­lichen Trainer noch viel dazulernen. Zum aktuellen Zeitpunkt ist es jedoch zumindest wichtig, zu erkennen: ChatGPT hat seine Grenzen. Wer das Programm wirklich gewinn­bringend einsetzen möchte, muss sich darüber im Klaren sein. Und er muss bereit sein, die KI jederzeit zu hinterfragen.

Bildge­ne­rierung: Das kann Midjourney (noch) nicht

Generative KIs wie Midjourney können heute schon erschre­ckend realis­tische Bilder generieren – zumindest für den Laien. Doch das geschulte Auge kann dennoch Inkon­sis­tenzen erkennen, die auf eine Fotoma­ni­pu­lation oder KI-Generierung hindeuten könnten. Beim oben genannten Beispiel-Bild des Papstes mit der Balen­ciaga-Jacke erkennt man beispiels­weise, dass seine Kette Lücken aufweist und die Hände etwas seltsam aussehen. Wer diese Bilder dann noch mit einem profes­sio­nellen Bildbe­ar­bei­tungs­pro­gramm analy­siert, wird vermutlich noch auf viele weitere „Warnsi­gnale“ stoßen. So ist es heute beispiels­weise schon möglich, mit den entspre­chenden Tools von Menschen erstellte Fotoma­ni­pu­la­tionen zu erkennen. Zum Beispiel aufgrund von inkon­sis­tentem „Bildrau­schen“ an den manipu­lierten Stellen im Vergleich zu nicht manipu­lierten Stellen im selben Foto.

Auch hier gilt wieder: Diese Technik wird natürlich mit der Zeit verbessert und verfeinert werden. Und wer weiß – vielleicht dauert es gar nicht mal so lange, bis sich KI-generierte Bilder praktisch nicht mehr von realen Fotografien unter­scheiden lassen. Mögli­cher­weise ist das weniger eine technische Heraus­for­derung als eine kultu­relle: Dann werden wir in Zukunft „echte“ Bilder zwar nicht mehr von KI-generierten unter­scheiden können, aber vielleicht werden echte Bilder, Fotos etc. dann umso beein­dru­ckender und wertvoller. Wenn Sie zum Beispiel heute eine Verfol­gungsjagd im Film anschauen und feststellen, dass die waghal­sigen (und nicht ungefähr­lichen) Kamera­fahrten von echten Kamera­männern durch­ge­führt wurden, dann hat das sicher eine ganz andere Wirkung auf Sie, als wenn Sie dieselbe Szene in einem Film sehen, von dem Sie wissen, dass er vollständig am Computer generiert wurde.

Dass die Technik jedoch auch Grund zur Besorgnis bietet, will ich an dieser Stelle natürlich nicht unter den Teppich kehren. Das oben genannte Beispiel des Papstes in der Balen­ciaga-Jacke oder die Bilder von Obama und Merkel am Strand sind aktuell noch leicht zu durch­schauende, lustige Kurio­si­täten. Aller­dings ist es technisch bereits möglich, Stand­bilder, Videos und sogar Stimmen bekannter Persön­lich­keiten per KI zu „faken“. Spätestens sobald diese Fakes ausge­reift genug sind, um nur noch von Experten erkannt zu werden, eröffnen sich da der gezielten Meinungs­mache Tür und Tor. Im 20. Jahrhundert mussten in der Sowjet­union noch mühsam niedrig aufge­löste Fotos von Experten in Handarbeit retuschiert werden. Heute sind wir dank KI fast so weit, dass bald jeder Normal­bürger 4K-Videos von belie­bigen Politikern, Promi­nenten etc. generieren und ihnen dann per täuschend echt imitierter KI-Stimme die jeweils gewollte Falsch­in­for­mation in den Mund legen kann. Wer weiß: Vielleicht wird die US-Präsi­den­tenwahl 2024 einer der ersten globalen Härte­fälle für diese neue Qualität der politi­schen Falschinformation.

Wie wird es mit der KI weitergehen?

Auch wenn das Modell des Gartner Hype Cycle keinen Anspruch auf wissen­schaft­liche Korrektheit hat – zumindest meiner Erfahrung nach ist es ein sehr zuver­läs­siges Hilfs­mittel zur Beschreibung techno­lo­gi­scher Entwicklungen:

Innerhalb dieses Modells wäre der Release von ChatGPT 3.0 im November 2022 der Trigger, der in der breiten Öffent­lichkeit die Sicht­barkeit und den Hype um die Techno­logie vergrößert hat. Der Release der neuesten Version, ChatGPT 4.0, im Januar 2023 ist meiner Meinung nach der Peak im Gartner Hype Cycle, denn die Erwar­tungen der Öffent­lichkeit an die neueste Version des Chatbots waren viel zu hoch gesteckt. Das hat sogar OpenAI-CEO Sam Altmann betont – die neue Version des Programms hat zwar viele gute Verbes­se­rungen mit sich gebracht, aber die Fantasien und Hoffnungen der Öffent­lichkeit konnte das Programm erwartbar nicht erfüllen. An vielen Stellen war immerhin vor Release in den Medien sowie in Foren und Chats schon die Rede davon, dass das neue ChatGPT mensch­liche Mitar­beiter vollständig ersetzen könne. Und das alles in einem einzigen Versions-Sprung von 3.5 auf 4.0? Wer sich wirklich auskannte, hat damals schon gesagt, dass diese Träume zu hoch gegriffen seien.

Der Hype wird zunächst abflauen …

Meine Annahme ist, dass es aufgrund dieser Enttäu­schung jetzt langsam in das „Tal der Desil­lusion“ gehen wird. Das wird auch dadurch befeuert, dass mit der öffent­lichen Wahrnehmung nun auch die Politik auf das neue Forschungsfeld aufmerksam geworden ist. Künst­liche Intel­li­genzen könnten in naher Zukunft mögli­cher­weise stärker reguliert oder sogar verboten werden. In Italien zum Beispiel wurde ChatGPT zwischen Ende März und Ende April vorüber­gehend gesperrt – aufgrund von Daten- und Jugend­schutz-Bedenken. Und da wir in Deutschland ebenfalls sehr strikte Gesetze in beiden Bereichen haben, könnte dieser Fall eventuell auch in Deutschland eintreten. Schon heute hört man schließlich Argumente, dass Programme wie ChatGPT einen negativen Einfluss auf „die Jugend“ haben könnten. Zum Beispiel, weil man Hausauf­gaben und Hausar­beiten einfach über das Programm schreiben lassen könne und sich mit den Inhalten nicht mehr selbst beschäftige oder Falsch­in­for­ma­tionen erhielte. Das erinnert mich ein bisschen an die Zeit, in der postu­liert wurde, Wikipedia würde die Bildung „der Jugend“ negativ beein­flussen – und dann stellte sich schnell heraus, dass das Online-Nachschla­gewerk nicht deutlich mehr Fehler enthält als die Encyclo­paedia Britannica. „Die Jugend“ hat damals durchaus gelernt, die Infor­ma­tionen auf Wikipedia kritisch zu hinter­fragen (Stichwort: „Medien­kom­petenz“), während noch heute viele Menschen die Encyclo­paedia Britannica als DIE Autorität unter den Nachschla­ge­werken ansehen. Das geht bis zurück ins Mittel­alter, wo Wissen entweder über die Kirche und Gelehrte oder über fahrendes Volk und reisende Händler weiter­ge­geben wurde. Und davon war genauso viel richtig oder falsch wie heute.

Selbst außerhalb der Politik haben die großen Tech-Konzerne Bedenken bezüglich vertrau­licher Daten, die von Mitar­beitern unbeab­sichtigt an ChatGPT heraus­ge­geben werden könnten. Deshalb kommt der Chatbot zwar bald in den Apple Store, aber der kalifor­nische Konzern schränkt zugleich die Nutzung des Tools unter den eigenen Mitar­beitern stark ein. Dazu kommt in der Öffent­lichkeit eine generelle Angst vor Falsch­in­for­ma­tionen, Fake News und der Gefährdung von Millionen von Arbeits­plätzen durch die künst­liche Intel­ligenz. In vielen Fällen könnte auch eine psycho­lo­gische Ablehnung gegenüber der noch nicht perfek­tio­nierten Techno­logie aufgrund des „Uncanny Valley“-Effekts eine Rolle spielen.

Der „Uncanny Valley“ (deutsch „Unheim­liches Tal“) ist ein von der IT-Wissen­schaft postu­lierter psycho­lo­gi­scher Effekt, der bei Menschen auftritt, die mit künstlich erschaf­fenen, aber menschen­ähn­lichen Bildern, Sprach­akten oder sonstigen Inter­ak­tionen konfron­tiert werden. Der Begriff kommt ursprünglich aus der Robotik, wo der japanische Univer­si­täts­pro­fessor Masahiro Mori postu­lierte, dass Roboter mit einem zuneh­menden Grad an wahrge­nom­mener „Mensch­lichkeit“ immer positiver von mensch­lichen Beobachtern wahrge­nommen werden. Ab einem gewissen Punkt der wahrge­nom­menen „Mensch­lichkeit“ nimmt die psycho­lo­gische Akzeptanz jedoch plötzlich rapide ab (das „Unheim­liche Tal“) und steigt erst dann wieder, wenn die „Mensch­lichkeit“ annähernd perfekt ist.

Die Vermutung der Wissen­schaft ist, dass Menschen instinktiv winzige Unähn­lich­keiten zwischen einem beinahe mensch­lichen Roboter und einem Menschen deutlich negativer wahrnehmen als offen­sicht­liche Unähn­lich­keiten. Dieser Effekt wurde in der Öffent­lichkeit vor allem durch frühe compu­ter­ge­nerierte Anima­ti­ons­filme bekannt, lässt sich jedoch mögli­cher­weise auch bei der Inter­aktion mit synthe­tisch erzeugten Sprach­akten erkennen.

Doch selbst ohne (Über-)Regulierung zeichnet sich eine gewisse Desil­lusion auch bei den Nutzern ab. Die (aktuellen) Grenzen der genera­tiven KI sind einfach zu offen­sichtlich geworden. In der Öffent­lichkeit ist es fast zu einer Art „Perfor­mance-Kunst“ geworden, die KI auszu­tricksen und die obskursten Falsch­ant­worten zu sammeln – meinen Beitrag dazu sehen Sie weiter oben in diesem Artikel. Und Sie haben sicher auch schon in der Presse einen der vielen Artikel gelesen, in denen ein Reporter testet, ob sich ein mensch­licher Rezipient von einem per KI erstellten Text hinters Licht führen lässt – quasi wie ein umgekehrter Turing-Test. Hier und da sieht man sogar Aufrufe, die Entwicklung von KI generell oder zumindest vorüber­gehend zu stoppen. Bekann­teste Beispiele dafür sind Skype-Mitgründer Jaan Tallinn, Apple-Mitgründer Steve Wozniak sowie Elon Musk, der ironi­scher­weise einer der Mitgründer und Geldgeber von OpenAI ist – und Gerüchten zufolge nur einen Aufschub möchte, um seine eigene proprietäre KI-Forschung auf die Beine zu stellen.

Der Turing-Test wurde vom „Vater der Infor­ma­ti­ons­tech­no­logie“ Alan Turing höchst­per­sönlich postu­liert. Nach seiner Einschätzung kann eine Maschine dann als menschen­ähnlich intel­ligent gelten, wenn sie mit einem echten Menschen kommu­ni­zieren kann, ohne dass für den Menschen ersichtlich wird, dass er mit einer Maschine spricht. Kritiker des Tests merken jedoch an, dass dieser lediglich testet, wie leicht Menschen durch menschen­ähn­liche Sprachakte zu überlisten sind. Schauen Sie sich dazu auch die Infobox zum „Chinese Room“ weiter oben im Text an.

… und KIs werden zum festen Bestandteil der Gesellschaft

Meiner Einschätzung nach begeben wir uns also aktuell in ein „Tal der Desil­lusion“: Das Interesse der breiten Öffent­lichkeit wird wahrscheinlich in den nächsten Jahren langsam abflauen. Die Politik wird zunächst regulieren, was das Zeug hält, und dann ebenfalls das Interesse verlieren. Doch die Entwicklung wird weiter­gehen, die kriti­schen Stimmen werden sich langsam legen und die Vorteile wieder in den Fokus rücken. Die Menschen werden erkennen, was Alexander Schmid in seinem lesens­werten Gastbeitrag in der NZZ vor Kurzem anmahnte: Es ist zukunfts­feindlich, die künst­liche Intel­ligenz jetzt einfach totre­gu­lieren zu wollen. Es geht nicht darum, ihr aus Angst Grenzen aufzu­zwingen, sondern den Menschen die Fähigkeit an die Hand zu geben, KI ethisch, reflek­tiert und nutzbringend als Werkzeug einzu­setzen. Denn die KI ist hier, um zu bleiben. Sie wird sich nach dem ersten Hype und der Desil­lusion Stück für Stück in den Arbeits­alltag integrieren. Einige Webseiten haben errechnet, dass ChatGPT schon heute bereits ein fester Bestandteil der täglichen Inter­net­nutzung ist. Dem Torten­dia­gramm in diesem Beispiel lässt sich entnehmen, dass im Jahr 2023 bislang jede Minute weltweit 22.831-mal ChatGPT aufge­rufen wurde.

KI-Tools werden also in Zukunft die Produk­ti­vität verbessern und langfristig wird sich die Meinung der Öffent­lichkeit auf einem Niveau unter dem ursprüng­lichen Hype, aber deutlich über dem Tiefpunkt der aktuell begin­nenden Desil­lusion einpendeln. Die künst­liche Intel­ligenz wird ein fester Bestandteil unseres Lebens werden, wie es zum Beispiel mit Smart­phones längst passiert ist – und später dann mit Sprach­as­sis­tenten wie Siri oder Alexa.

Das ist natürlich lediglich meine persön­liche Einschätzung auf Basis der aktuellen Entwick­lungen. Doch wir sehen jetzt schon, wie künst­liche Intel­li­genzen langsam in verschie­denen Bereichen der sogenannten „White Collar“-Arbeit integriert werden. Zum Beispiel hat Microsoft bereits den „Copilot“ angekündigt, der ChatGPT-Techno­logie in Programme wie MS Teams, Outlook, Word etc. integriert. Also in genau die Programme, mit denen weltweit in Büros aller Art das Tages­ge­schäft gemeistert wird. Schauen Sie sich doch selbst mal an, wie sich dann vielleicht auch Ihre Arbeit am Computer ändern wird:

ChatGPT oder ein Konkurrent? Irgend­jemand wird das Rennen machen!

Lassen Sie sich nicht täuschen: ChatGPT ist bei Weitem nicht die einzige KI-Anwendung, die sich zurzeit in der Entwicklung befindet. Google arbeitet beispiels­weise schon seit geraumer Zeit an der Techno­logie und hat erst vor Kurzem seinen eigenen KI-Chatbot „Bard“ sowie das Large Language Model PaLM 2 vorge­stellt. Dies können Sie sich als das Gegen­stück von Google für Google Docs, Gmail und die Google-Suche zu Micro­softs „Copilot“ vorstellen.

Selbst wenn ChatGPT sich also langfristig nicht durch­setzen sollte, wird ein anderer Konzern eine (noch) leistungs­fä­higere Alter­native bieten. OpenAI und ChatGPT haben zwar den Ruhm des ersten Hypes gewonnen, doch sie bekommen nun auch den vollen Gegenwind der Desil­lusion zu spüren, von der Angst vor KI bis zu Bestre­bungen, die Technik als Ganzes zu regulieren oder zu verbieten. Doch erst mit Gegenwind zeigt sich, ob der Baum stabil steht. Oder ob es beim „One Hit Wonder“ bleibt, so wie man es aus der Musik‑, Film- und Litera­tur­branche kennt: ein erster Release, der die Welt im Sturm erobert – und die Messlatte so hoch legt, dass kein zweites Outing mehr in demselben Maße überzeugt. Eine echt schwierige Position für OpenAI, denn die Firma ist jetzt in einer verletz­lichen Position. Das weckt Begehr­lich­keiten und erzeugt Anfäl­ligkeit für Krimi­nelle. Sowohl OpenAI als Unter­nehmen als auch die einzelnen Mitar­beiter, die jetzt zunächst gefeiert und dann womöglich beleidigt und ausge­grenzt werden, brauchen jetzt viel Resilienz, um diese Zeit zu überstehen. Und egal, ob man Hacker abwehrt, den angestauten Frust im Büro zurückhält oder mit Anwälten sprechen muss – all das wirkt sich auf die tägliche Perfor­mance aus. Wenn da das Management nicht genau weiß, was es tut, könnte OpenAI in einem Ikarus-Fall enden, da die ohnehin zurück­ge­stellten Erwar­tungen an ChatGPT 5 und folgende Versionen durch gebundene Kapazi­täten an ganz anderen Stellen gar nicht mehr erreicht werden können.

Wird die KI den Menschen ersetzen?

Diese Frage treibt seit Veröf­fent­li­chung von ChatGPT ihr Unwesen in der Öffent­lichkeit, sicher auch angesta­chelt von den Medien, die auf den Hype-Zug aufge­sprungen sind und jetzt direkt den Teufel an die Wand malen. Tatsache ist jedoch: Aktuell werden KIs als Unter­stützung bei Büroar­beiten einge­setzt, nicht jedoch als sofor­tiger Ersatz für die Beleg­schaft. Momentan können die künst­lichen Intel­li­genzen besten­falls gewisse geistige Routi­ne­ar­beiten erledigen. Die indus­trielle Revolution hat gewis­ser­maßen handwerk­liche Routi­ne­auf­gaben automa­ti­siert – und dasselbe wird durch die künst­liche Intel­ligenz jetzt bei geistigen Routi­ne­ar­beiten geschehen. Das kann in der Übergangs­phase natürlich zu Reibe­reien führen.

Doch auch wenn tatsächlich Jobs wegfallen, weil sie vollständig ersetzt werden können, kommen auch viele neue Jobs hinzu. Fragen Sie doch mal bei einem Unter­neh­mer­kunden nach, ob dort die Bilanz noch per Hand auf Papier geschrieben wird – oder ob nicht mittler­weile ganz routi­niert digitale Hilfs­mittel zur teilweisen Automa­ti­sierung zum Einsatz kommen. Klar, da wurden vielleicht bei der Einführung ein paar Jobs einge­spart – aber es sind doch ebenso neue Jobs hinzu­ge­kommen, beispiels­weise für eine komplette IT-Abteilung in jedem Unter­nehmen. Die Einführung solcher Hilfs­mittel kann sogar positive Auswir­kungen auf den Arbeits­platz haben. Denn in der Vergan­genheit hat sie oft dazu geführt, dass der Einzelne wieder mehr Freiräume erhält, um kreativ und emotional intel­ligent zu arbeiten und zu denken. Und das wird auch mit der Einführung von KI im Tages­ge­schäft der Fall sein.

Die Angst vor dem Wegfall des eigenen Jobs ist nachvoll­ziehbar, das könnte ich gar nicht klein­reden, selbst wenn ich es wollte. Aber ich sehe hier eben auch eine Entwicklung, die sich zum Beispiel mit Neuerungen wie Uber und AirBnB etc. vergleichen lässt. Diese sind irgendwann auf der Bildfläche erschienen und wurden sofort mit Sorgen und Ängsten überhäuft. Aber beide Services wären nie so groß geworden, wenn es nicht eine wirkliche Nachfrage nach ihnen gäbe. Und am Ende gibt es heute trotz aller anfäng­lichen Schwarz­ma­lerei immer noch Taxis und Hotels gleich­zeitig. Auch wenn die Waagschale eine Weile lang stark in die eine und dann wieder in die andere Richtung ausschlug.

Ihre Arbeits­plätze sind sicher – wenn Sie sich nicht gegen die Entwicklung stemmen

Wer also von Ihnen Angst davor hat, dass sein Job durch die KI vollständig ersetzt werden wird, dem sei gesagt:

Nach aktuellem Stand wird Ihr Job nicht durch die KI ersetzt werden (können)! Wenn Sie sich der Entwicklung jedoch völlig verschließen, dann kann es sein, dass Sie in Ihrem Job irgendwann durch jemanden ersetzt werden, der über die Fähigkeit und den Willen verfügt, KI aktiv als Werkzeug einzusetzen.

Stellen Sie sich mal vor, bei Ihnen im Institut würde heute noch jemand arbeiten, der in seinem Leben noch nie die gängigen Office-Anwen­dungen benutzt hat. Da würden Sie sicher auch lieber jemanden neu einstellen, der diese hilfreichen Werkzeuge beherrscht, oder?

Seien Sie also offen für KI-Tools und lernen Sie, wie Sie diese einsetzen können, um effizi­enter und kreativer zu arbeiten. Keine Sorge: Sie können sich die nötigen Kennt­nisse Schritt für Schritt aneignen, denn die voraus­ge­sagte „Revolution“ wird auch dieses Mal eher eine langfristige Evolution sein. Dafür sorgen schon die aktuellen techni­schen Grenzen der Programme und die trotz allen Hypes nicht übermäßige Geschwin­digkeit der Entwicklung.

Wenn Sie also eine Sache aus diesem ersten Teil der Artikel­serie mitnehmen, dann sollte es dies sein: KI ist gekommen, um zu bleiben!

Sie ist jedoch in erster Linie ein Werkzeug – mögli­cher­weise eines der flexi­belsten Werkzeuge, die wir aktuell im techno­lo­gi­schen Bereich haben. Als solches sollte die KI auch angesehen und genutzt werden, sowohl im Hinblick darauf, was das Werkzeug gut kann und was eben (noch?) nicht. Es macht also keinen Sinn, sich mit dem Hammer absichtlich auf die Finger zu schlagen und dann dem Werkzeug die Schuld zu geben. Genauso wenig macht es Sinn, einen Nagel mit der Hand einschlagen zu wollen, wenn man nur bereit sein müsste, zu lernen, wie man den passenden Hammer für die jeweilige Arbeits­si­tuation heraus­sucht und anwendet. Sie können es sich nicht leisten, das perfekte Werkzeug für Ihre Arbeit zu ignorieren, nur weil Sie befürchten, dass der Hammer Sie mal vollständig ersetzen könnte. Denn das wird nicht geschehen – stellen Sie sich nur mal die Kunden­ge­spräche vor …

Ausblick: Was halten Ihre Unter­neh­mer­kunden von KI?

Ich hoffe, dass ich Ihnen in diesem Artikel die wichtigsten techni­schen und gesell­schaft­lichen Grund­lagen zum aktuellen „KI-Sturm“ geben konnte. Ihnen werden sich jetzt vermutlich vor allem zwei Fragen stellen: Wie stehen wohl Ihre wichtigen Unter­neh­mer­kunden zu dieser Techno­logie? Und wie können Sie ganz konkret KI einsetzen, um sich als idealer Sparrings­partner beim Unter­nehmer zu positionieren?

Letztere Frage werden wir in Teil 3 der Artikel­serie näher erörtern. Doch zunächst möchte ich Ihnen im zweiten Teil die Sicht­weise des Unter­nehmers näher bringen: Was hält er von der Technik? Wird er sie eventuell selbst in sein Tages­ge­schäft integrieren? Oder nutzen einige Unter­nehmer KI-Tools eventuell schon länger? Ich freue mich, Sie nächstes Mal wieder im Versteher-Magazin begrüßen zu dürfen, wenn wir gemeinsam diesen wichtigen Fragen auf den Grund gehen.

Kontakt

Dirk Wiebusch
info@ifuf.de

Keine neuen Artikel mehr verpassen und jetzt kostenfrei das Versteher-Magazin abonnieren!

Teilen Sie dies mit Ihrem Netzwerk:
Xing
LinkedIn
Follow by Email
RSS
Facebook
Twitter
Google+