• Frage: Gibt es etwas bei KIs, das fast alle falsch machen, wenn ja, was ist das?

    Frage gestellt buss27eve am 12 Jun 2024.
    • Foto: Christian Sievers

      Christian Sievers Beantwortet am 12 Jun 2024:


      Hallo! Danke für die tolle Frage. Ja, das gibt es. Fast alle vermenschlichen „Künstliche Intelligenzen“. Man sagt dann, die KI „denkt“, oder „sie hat gesagt“, oder man redet von ihr, als hätte sie eine Persönlichkeit, oder Gefühle oder eine Meinung zu etwas. Der Fachausdruck dafür ist „anthropomorphisieren“. Kaum jemand schafft es, das nicht zu tun.

      Letztendlich aber sind die „KIs“ nicht wirklich intelligent. Schon der Ausdruck „KI“ ist falsch. Ich setze den Begriff gerne in Häkchen, um auch mich selbst immer wieder daran zu erinnern, dass es sich um Software handelt, die zwar mit sehr viel Material „trainiert“ wurde (schon wieder eine Vermenschlichung!), die aber nicht wirklich versteht, um was es geht. Letztendlich gibt die Software nur papageienartig wieder, was sie aufgeschnappt hat.

    • Foto: Knut Linke

      Knut Linke Beantwortet am 12 Jun 2024:


      Mir fallen hier 2 Sachen ein.

      1. Die Erwartung, dass eine KI alles weiß, bzw. meine Probleme lösen kann.
      Ich treffe häufig Anwender, die denken, dass eine KI sozusagen Gedankenlesen kann und alle Informationen der Welt hat oder sich diese holen kann. Das stimmt natürlich nicht. Man muss die Grenzen einer KI kennen und erlernen und verstehen mit welchen Daten eine KI trainiert ist.

      2. Die Bedienung von KI
      Mir fallen häufig Anwender auf, die sich über die Ergebnisse aufregen. Es ist wichtig zu verstehen, wie man Prompting betreiben sollte (wie muss ich meine Anforderung in eine KI eingeben) und wie ich mit den Ergebnissen arbeiten kann.

    • Foto: Julia Eckel

      Julia Eckel Beantwortet am 16 Jun 2024: last edited 16 Jun 2024 2:24 pm


      Man muss sich in der Interaktion mit KIs immer im klaren sein, wie diese funktionieren – da kann ich meinen Vorrednern nur Recht geben. Diese basieren eben auf der Errechnung von Wahrscheinlichkeiten und sind daher nur indirekt faktenbasiert. Zudem sind Mechanismen wie ChatGPT darauf ausgelegt, mich als User:in zufriedenzustellen. Sprich: Es kommt oft nicht unbedingt eine wahre Antwort heraus, sondern oft nur eine, die ich hören will. Das kann man sehr schön nachvollziehen, wenn man ChatGPT bittet, einem Quellen (also wissenschaftliche oder sonstige Texte und Publikationen) zu einem bestimmten Thema zu nennen. ChatGPT spuckt einem da zu jedem Thema einfach wild irgendwelche Quellen aus, die aber meist überhaupt gar nicht existieren, wenn man sie sucht. Ich habe mal probeweise eine Recherche zum Thema „Naivität“ über ChatGPT durchgeführt und bekam ganz tolle Quellenangaben zu Texten geliefert, die vom Titel her ganz toll klangen, sich aber bei Prüfung als inexistent herausgestellt haben. Das ging sogar soweit, dass ich ChatGPT mehrfach nach weiteren Details zu den Publikationen gefragt habe und das System mir daraufhin sogar eine ISBN-Nummer genannt hat, die nicht existierte. Man sollte also alles, das einem eine solche Maschine mitteilt immer auf seinen Wahrheitsgehalt hin gegenprüfen. Wissenschaftlichen Standards hält das System an solchen Stellen jedenfalls nicht Stand und ich kann nur allen Schüler:innen und Studierenden davon abraten mit ChatGPT Quellenrecherche zu betreiben. Das führt ins Nichts.

      Ein weiterer wichtiger Aspekt ist, dass KI-Systeme ja anhand von Daten trainiert werden, die aber nicht tagesaktuell, sondern in der Regel „alt“ sind. Sprich, wenn man sich über relativ aktuelles Geschehen informieren will, nutzt einem das System überhaupt nicht. Ohnehin würde ich immer empfehlen, sich im Hinblick auf tatsächliches Geschehen und eine Einordnung von aktuellen Fakten und Nachrichten immer auf etablierte, gute News-Seiten (etwa der großen Tageszeitungen oder der öffentlich-rechtlichen Fernsehsender) zu verlassen. Gerade in Zeiten von Fake News sollte man sich klar machen, dass die öffentlich-rechtlichen Medien und die großen, etablierten Nachrichtenorgane sich journalistisch hohen Standards der Wahrheitssuche und -findung verpflichtet haben und sie in der Regel versuchen, Zusammenhänge von mehreren Seiten aus zu analysieren und zu beschreiben (während man das von vielen selbsternannten „Alternativen“-Nachrichtenplattformen nicht behaupten kann).

    • Foto: Clarissa Elisabeth Hohenwalde

      Clarissa Elisabeth Hohenwalde Beantwortet am 18 Jun 2024:


      Hallo, meine Kolleg*innen haben schon super Antworten gegeben. Mir fallen bei der Frage vor allem folgende drei Punkte ein:

      1. Menschen haben oft unrealistische Erwartungen: Sie überschätzen, was KI leisten kann. Gleichzeitig unterschätzen sie, wie viel Aufwand nötig ist, um eine effektive KI-Lösung zu entwickeln.
      2. Leute vertrauen oft KIs zu stark und achten nicht darauf sensible Daten zu schützen.
      3. Viele vernachlässigen die ethischen Aspekte von KI. Leute denken, dass KI faire Entscheidungen trifft und nur die Wahrheit sagt. Wir wissen aber, dass es so etwas wie Bias (Voreingenommenheit) und Halluzinationen (erfundene Aussagen) gibt.

Kommentare