Schlagwort-Archiv KNN

Dumm wie Bohnenstroh – KI oder wir Menschen?

Der Algorithmus der KI kann auf Anfrage durch Prompts (Eingaben) Texte erstellen, von denen man im ersten Impuls meint, ein Mensch hätte sie geschrieben. Das Programm kann Alternativvorschläge machen, (Schul)Aufsätze schreiben, Dialoge führen, Recherchen durchführen, Fragen beantworten oder Erklärungen geben.

„Während KI klassischerweise als die Fähigkeit von Computern definiert wird, menschliche Aufgaben genauso gut oder besser als Menschen zu erledigen (Ertel, 2016), lässt sich gleichzeitig beobachten, dass unser Begriff der KI wandelbar ist. Zum Beispiel gelang es dem Programm Deep Blue von IBM im Jahr 1997, den damaligen Schachweltmeister Garry Kasparov zu bezwingen. Somit hatte erstmals ein Schachcomputer übermenschliches Niveau erreicht. Trotzdem weigerten sich viele Expert*innen von echter Intelligenz zu sprechen, denn Deep Blue hatte einfach mithilfe von roher Rechenkraft (Brute Force) vor jedem Zug rund 50 Milliarden Spielpositionen ausgewertet, um die beste Option zu ermitteln.“  (vgl. Fesefeldt, dgp)

Dabei ist die Geschichte der KI noch älter. Sie beginnt bereits in den 50/60ern mit der erstmaligen Bezeichnung von simulierter maschinellen Intelligenz als „Künstliche Intelligenz“. Bereits 1966 wurde der erste Chatbot „ELIZA“ entwickelt, 1972 wurde MYCIN das erste Mal in der medizinischen Praxis angewandt. Und spätestens seit 2011 sind Sprachassistenten im Smartphone integriert.

Ohne KI wären bestimmte medizinische Diagnosen oder personalisierte Medizin nicht möglich, kein autonomes Fahren und Routenoptimierung in der Logistik, keine selbstlernende Roboter- und Maschinensysteme, keine personalisierten Empfehlungen an Kunden im Marketing oder als Anlagestrategien in der Finanzwirtschaft. Auch um die Cybersicherheit oder die Wettervorhersagen wäre es schlechter bestellt.

Heute verbinden Chatbots Methoden der natürlichen Sprachverarbeitung für Text und Bild in Kombination mit einem künstlichen neuronalen Netzwerk (KNN). Mit höherer Rechner- und Speicherkapazität und der Lösung von Verbindungsproblemen gelang schließlich der Durchbruch. ChatGPT läuft auf Rechnern von „Microsoft Azure AI Supercomputers“. Weltweit gibt es etwa 60 Datenzentren, in denen jeweils zehntausende Grafikprozessoren oder GPU (Graphic Processing Units) von Nvidia zusammengeschaltet sind, die die komplexen Matritzenberechnungen möglich machen. Gespräche und Bilder sind also weltweit abgespeichert. Datensicherheit und -schutz werden somit zu ernsten Problemen. Um KNN von ChatGPT zu trainieren, erfolgt eine Phase des „überwachten“ Lernens, in der ein Basissatz an Trainingsdaten eingespeist wird. ChatGPT reagiert auf die so eingespeisten Eingaben mit Antworten, welche dann Menschen bezüglich ihrer Passung bewerten. Das System lernt, gute von schlechten Antworten zu unterscheiden. Der entstandene Datensatz wird wiederum genutzt, um ein „Reward Model“ (Belohnungsmodell) zu trainieren.

Soweit – so gut. Mehr Rechenleistung, mehr Sprache, mehr Information. Aber bessere Information?

Befrage ich eine KI, woher die Redewendung „dumm wie Bohnenstroh“ käme, antwortet sie mir noch richtig: „Der Begriff geht auf die ältere Wendung „grob wie Bohnenstroh“ zurück. In früheren Zeiten konnten sich viele Menschen kein hochwertiges Getreidestroh leisten und griffen stattdessen auf das günstigere und oft reichlich vorhandene Bohnenstroh zurück. Verwendung: Bohnenstroh wurde häufig als Schlafunterlage verwendet, da es kostengünstig und einigermaßen weich war. Dies führte dazu, dass es mit einer gewissen Armut und Ungebildetheit assoziiert wurde.“ Frage ich weiter, warum sich Arme kein Stroh aus Getreide leisten konnten, antwortet mir der Chatbot jetzt: „Für viele arme Menschen war die Produktion von Nahrungsmitteln wie Brot und Brei von größter Bedeutung. Sie konzentrierten sich darauf, genug Getreide für den eigenen Bedarf anzubauen, anstatt in die Qualität des Strohs zu investieren.“ Der Widerspruch zur vorherigen Antwort fällt dem maschinell Antwortenden nicht auf.

Es existieren erhebliche Schwächen der hochgelobten ChatBots, obwohl die jetzigen Angebote trotzdem immer mehr als Lösung für (fast) alles herhalten sollen.

Probleme der Sprachverarbeitung

  • Das „Denken“ der KI beruht ausschließlich auf Rechenleistung und Informationen im Internet. Andere Quellen werden nicht berücksichtigt.
  • Bei Mangel an Informationen werden wahrscheinliche Lösungen fantasiert. Das gilt auch bei Recherchen zur Angabe von Literaturquellen.
  • Oft klingen Antworten annehmbar, sind aber sinnlos.
  • Für das Training der Chatbots fehlt eine zuverlässige „Wahrheitsquelle“.
  • Sprache ist Wiedergabe. Es besteht kein echtes Sprachverständnis.
  • Bei tieferem Nachfragen oder Kritik kommt es zu Entschuldigungen und dem Wechsel des Themas.
  • „Moderation API“ (Beschränkungssystem) ermöglicht es kritische Inhalte anzuzeigen, schränkt Konversationsfähigkeit des Systems ein.
  • KI hat nur eine begrenzte Fähigkeit zum Umgang mit Metaphern und Analogien. Sie kann nicht mit der Hintersinnigkeit der Sprache umgehen, z.B. Humor,
    Ironie oder para- und extraverbalen Sprachebenen.
  • Kein tiefer Dialog oder Wissensgewinn ist möglich, ChatBots werden im Zeitverlauf immer allgemeiner.
  • KI nutzt bestimmte Wörter und Phrasen aufgrund der
    Trainingsdaten sehr häufig
  • Bestimmte Modell können nicht korrekt rechnen, Ergebnisse oder Rechenwege sind oft falsch, bei komplexen Aufgaben sind keine korrekten logischen Schlussfolgerungen möglich. Auch das räumliche Schlussfolgerungsvermögen ist eingeschränkt.

Andere Probleme

  • Algorithmen sind oft nicht transparent.
  • Datenschutz: Anwendung und Daten werden von Rechenzentren im Ausland verarbeitet
  • Anfragen haben einen sehr hohen Energiebedarf. Eine Anfrage verbraucht Strom einer 5-Watt-Glühbirne in einer Stunde.
  • „Clickworker“ arbeiten unter nicht hinnehmbaren Bedingungen sowie psychischen Problemen beim Training der „Moderation API“ durch problematische Inhalte.
  • Trainingsdaten umfassen nur Netzinformationen bis zum Veröffentlichungsdatum der nächsten Version.

Fazit

Künstliche „Intelligenzen“ wie ChatGPT können uns trotz ihrer imponierenden Vielseitigkeit im Umgang mit Sprache oder anderen Problemen wie medizinische Diagnostik nicht verstehen. Die menschliche Intelligenz schlägt die Wahrscheinlichkeitsansätze der Chatbots bei Weitem (vgl. Turing-Test).

Bohnen gehörten im Mittelalter zu den wichtigsten Nutzpflanzen Europas. Sie waren Grundnahrungsmittel und wurden in großen Mengen angebaut, da sie sowohl für die menschliche Ernährung als auch als Futtermittel für Tiere von Bedeutung waren. Bohnen galten als sättigend und waren vor allem für die ärmeren Bevölkerungsschichten erschwinglich. Die Bohnenpflanze hinterließ nach der Ernte jedoch eine große Menge an nutzlosem Stroh. Dieses „Bohnenstroh“ – die trockenen, holzigen Reste der Pflanzen – war weder für den menschlichen Verzehr noch für Tiere brauchbar. Anders als Getreidestroh, das oft als Futter oder Einstreu diente, war Bohnenstroh zu grob. Es wurde als wertlos angesehen und oft einfach entsorgt oder bestenfalls als Brennmaterial verwendet. Im Mittelalter entwickelte sich so eine enge metaphorische Verbindung zwischen „Stroh“ und Wertlosigkeit, Kargheit oder Leere.

Vom Stroh zu Hunden. Kennen Sie den Golden-Retriever-Effekt? Eine KI wurde mit 100 Bildern von Hunden trainiert, generierte daraufhin Bilder von Hunden mit dem Ergebnis, dass seltene Hunderassen zunehmend aus dem Ergebnis verschwanden. Nach mehreren Runden sahen alle Hunde aus wie Golden Retriever. Die Vielfalt und die Nuancen verschwanden. Das Aus für den Kaukasischen Owtscharka, den Wolfsspitz oder den Deutschen Pinscher.

Was bei Bildern deutlich wird, birgt bei der Entstehung von Wissen und wissenschaftlichen Inhalten extreme Risiken. Wissenschaftler ließen Texte von der KI bauen, die Ergebnisse nahmen sie als Grundlage für weitere Inhalte – mit nur noch 10 Prozent menschlicher Beteiligung. Dieser Prozess wurde mehrfach wiederholt. Bereits nach fünf Durchläufen zeigte sich eine deutliche Verschlechterung der Textqualität. Nach zehn Wiederholungen waren die Texte beinahe unverständlich. Das Experiment verdeutlicht, wie schnell die Qualität von Inhalten abnimmt, wenn der menschliche Einfluss schwindet. Eine Studie der Oxford University zeigt sogar, dass die Menschheit durch KI verdummen könnte. Kritisches Denken, Kreativität und  Erfahrungen können nur Menschen einbringen. Ohne diese Balance droht eine Verdummung der Verantwortlichen in der Wirtschaft, dass man sich nicht vorstellen möchte.

Das Denken ist keine Funktion, die jemals von einer Maschine ausgeführt werden kann. Vielmehr zeigt das „Metadenken“, das Nachdenken über das Denken, dass nicht nur Daten und Fakten dazugehören: Problemlösen, Entscheiden, Planen, Kreativität, Kritik, Analysieren, Urteilen, Erinnern, Vorstellen, Abstrahieren und Symbolisieren. Das Gleiche gilt für die Sprache, deshalb lassen sich auf gängigen Business-Netzwerken so gut KI-generierte Texte von anderen unterscheiden. Situationsangemessen können Sprache und Denken nur über das menschliche Gehirn verbunden werden.
Eine KI wie ChatGPT kann damit nicht auf eine spezifische Situation reagieren, wie es die sehr allgemeinen Ratschläge in Problemlagen, in denen sich Menschen befinden, immer wieder zeigen. Denn Kombinationen aus Null und Eins haben keine Ziele, Vorlieben, Motivation, Emotionen oder Erfahrungen. Rechenleistung verfügt auch nicht über nonverbalen Ausdruck. Führen Sie sich bitte das geheimnisvolle Lächeln der Mona Lisa vor Augen.

Pflegen Sie Ihr Denken und Fühlen, werden Sie nicht dumm wie Bohnenstroh. In Zeiten, in denen es um die natürliche Intelligenz nicht zum Besten steht, sollten wir diese weiterentwickeln, sei es beim Recruiting oder beim Texten der Marketingbeiträgen.

Quellen:

  • Johannes Fesefeldt: Fachbeitrag dgp: Warum ChatGPT und andere KIs so „dumm“ sind wie ein Pferd
  • Kishor Shridar: Mit KI droht eine menschliche Verdummung statt Steigerung der Intelligenz