• Frage: Welche ethischen Fragen entstehen durch den Einsatz von KI in kreativen Prozessen?

    Frage gestellt head27kat am 17 Jun 2024.
    • Foto: Julia Eckel

      Julia Eckel Beantwortet am 17 Jun 2024: last edited 17 Jun 2024 9:07 am


      Die Ethik fragt ja danach, was gutes oder schlechtes Handeln ist. Man sollte also jede Anwendung von KI daraufhin hinterfragen, an welchen Stellen ihr Einsatz (den man gerade bei autonom agierenden KIs vielleicht auch als „Handeln“ bezeichnen könnte) möglicherweise negative Effekte hat. Im Feld der Kreativität könnte das z.B. bedeuten, dass man bei KI-generierten Texten und Bildern stark darauf achtet, inwiefern sie rassistische, sexistische, ableistische (= auf be_hinderte Menschen bezogene Vorurteile) und andere Stereotype reproduziert. Auch in Bezug auf das Training von KIs kann man ethische Fragen stellen, etwa wenn es darum geht, dass sehr viele, meist sehr schlecht bezahlte Menschen im Hintergrund an der Aufbereitung der Daten beteiligt sind, die für das Lernen der KI-Mechanismen nötig sind. Es wird oft so getan, als wäre KI etwas, das allein im Computer entsteht, aber es ist viel mehr menschliche (Vor)Arbeit dafür nötig, als wir am Ende sehen. Auch das gilt es ethisch zu bewerten.

    • Foto: Clarissa Elisabeth Hohenwalde

      Clarissa Elisabeth Hohenwalde Beantwortet am 17 Jun 2024:


      Es wird tatsächlich heiß diskutiert, was es bedeutet, wenn KI an der Entstehung von Kunst beteiligt ist. Mir fallen spontan drei wichtige Themenbereiche ein:

      1. Urheberrecht und geistiges Eigentum
      Wenn eine KI ein Bild malt oder einen Song komponiert, wem gehört dieses Werk eigentlich? Den Nutzer*innen der KI, den Programmierer*innen oder vielleicht allen gemeinsam? Das ist nicht leicht zu beantworten. Ein großes Problem ist auch, dass KI-Systeme oft mit riesigen Mengen an bestehenden Werken trainiert werden. Das bedeutet, dass eine KI manchmal ein Werk erschaffen kann, das einem bestehenden Werk sehr ähnlich sieht. Das könnte das Urheberrecht der ursprünglichen Künstler*innen verletzen.

      2. Bias und Vorurteile
      Ein weiterer wichtiger Punkt ist der Inhalt der von KI erzeugten Werke. Wie Julia Eckel bemerkt, gibt es oft einen Bias – also Vorurteile – in den Ergebnissen. Ein Beispiel: In der Vergangenheit haben KI-generierte Bilder von Ärzt*innen oft nur weiße, männliche Ärzte gezeigt und die Vielfalt der Gesellschaft nicht dargestellt. Das ist problematisch, weil es bestehende Vorurteile und Stereotypen verstärken kann.

      3. Jobsicherheit von Kreativen
      Als Gesellschaft müssen wir uns fragen, wann und wie wir KI in der Kreativbranche nutzen wollen. In Hollywood gab es letztes Jahr einen großen Streik, bei dem sich Drehbuchautor*innen und Schauspieler*innen gegen den Einsatz von KI gewehrt haben. Sie hatten Angst, dass KI ihnen die Jobs wegnimmt, indem sie immer mehr Teile von Filmen erstellt. In den USA hat man sich nun darauf geeinigt, dass Schauspieler*innen zustimmen müssen, bevor von ihnen eine digitale Kopie erstellt wird. Aber das löst nicht alle Probleme: Zum Beispiel wirft Scarlett Johansson aktuell OpenAI vor, ihre Stimme ohne Zustimmung geklont zu haben.

Kommentare