• Frage: Wie oft am Tag benutzen sie die KI?

    Frage gestellt tech27are am 12 Jun 2024.
    • Foto: Milos Jovanovic

      Milos Jovanovic Beantwortet am 12 Jun 2024:


      Aktuell nutze ich KI-Tools so 2-3 mal am Tag. Ich gehe aber stark davon aus, dass das in den nächsten Jahren auf einem ähnlichen Niveau sein wird wie heute Microsoft Office.

    • Foto: Christian Becker-Asano

      Christian Becker-Asano Beantwortet am 12 Jun 2024:


      Nun muss ich dem Kollegen Jovanovic „widersprechen“.
      Ich bin kein Geisteswissenschaftler und habe deshalb auch nur begrenzt Zeit, immer bis an die Primärquellen zu gehen. Aber zumindest während meiner Zeit als Doktorand habe ich das versucht und als sehr bereichernd empfunden.
      Ich habe irgendwann bemerkt, dass man immer mehr erkennt wieviel man eigentlich nicht weiß, umso mehr man gelesen und recherchiert hat.
      Außerdem: Große Firmen (Meta, Alphabet, Microsoft) haben unsere Daten rechtswidrig verwendet, um ihre „KIs“ damit zu trainieren. Deshalb sollten wir ein wenig kritischer darüber nachdenken, ob wir diese Maschinen, die zudem auch noch sehr viel Energie verbrauchen, wirklich so unbedarft nutzen sollten, finde ich.

    • Foto: Teresa Luther

      Teresa Luther Beantwortet am 12 Jun 2024:


      „Die“ eine KI gibt es ja nicht 😉
      ChatGPT nutze ich mehrmals in der Woche, um neue Funktionen, gerade jüngst mit ChatGPT-4o, auszuprobieren.

    • Foto: Knut Linke

      Knut Linke Beantwortet am 12 Jun 2024:


      Jeden Tag mehrfach.

      Im Browser habe ich Google gegen Perplexity ausgetauscht, so dass ich bei jeder Suchanfrage eine KI frage und hier mit der Antwort weiterarbeiten kann.

      Ansonsten nutze ich 2-3 mal die Woche ChatGPT sehr stark (mehrere Chatverläufe mit KI-Diskussionen).

      Bild-KI nutze ich selber eher seltener, vielleicht 3-4x im Monat.

      Ansonsten spiele ich aktuell mit Sound-KI herum. Da bin ich gerade fast täglich dabei.

    • Foto: Paul Strohmeier

      Paul Strohmeier Beantwortet am 14 Jun 2024: last edited 14 Jun 2024 9:38 pm


      Ich halte es für total gefährlich, irgendwelche inhaltlichen Infos aus generativen Modellen zu holen.

      Diese Modelle sind darauf trainiert, plausible Antworten zu liefern. Sprich, es schaut oberflächlich gut aus. Allerdings gibt es null Garantie, dass die Antworten Sinn machen.

      Das ist speziell dann gefährlich, wenn man Infos in einem Gebiet sucht, in dem man sich nicht auskennt. Wie unterscheidet man, ob etwas plausibel und wahr oder plausibel, aber knapp an der Realität vorbei ist? (Wenn man sich auf dem Gebiet auskennt findet man die Fehler, aber dann braucht man ja auch nicht ChatGPT zu fragen).

      Weil es keine Methode gibt, die Quelle der präsentierten Information zu prüfen, ist die Information meiner Meinung nach wertlos.

      (Weil hier von Perplexity anstelle von Google und KI für Recherche gesprochen wird.)

      Auch hier wieder: Die Frage ist etwas zu breit. Fast jeder von uns nutzt „KI“ täglich, z. B. beim Auto-Complete am Handy…

    • Foto: Julia Eckel

      Julia Eckel Beantwortet am 17 Jun 2024:


      Ich nutze KI-Tools wie ChatGPT oder DeepL manchmal zur Unterstützung bei Übersetzungen (wobei man gerade bei wissenschaftlichen Texte, wo es ja um jede Bedeutungs-Nuance geht, auch oft immer noch nachkorrigieren muss, weil die Maschinen manchmal nicht direkt verstehen, was ich sagen will). Zudem teste ich ab und zu Videogenerierungs-Tools wie Midjourney aus, um zu verstehen, wie hier der Workflow ist. Ansonsten ist meine Aufgabe gerade eher, zu untersuchen, wie andere KI benutzen; sprich: ich schaue mir z.B. an, welche neuen Videos Tech-Unternehmen wie OpenAI oder Google herausgeben, um ihre neuestesn Text-to-Video-Tools zu bewerben. Oder ich schaue mir die Arbeiten von Künstler:innen an, die mit KI arbeiten. Ein tolles Künstler:innen-Kollektiv ist z.B. Sagans, die Musikvideos produzieren (siehe etwa hier: https://www.youtube.com/watch?v=kASqM5HTvfY).
      Ansonsten kann ich mich den kritischen Stimmen hier unter der Frage nur anschließen: als wissenschaftliches Recherchetool sind die aktuellen KI-Angebote wie ChatGPT hochgradig ungeeignet, weil sie eben nicht auf Fakten, sondern Warhscheinlichkeiten basieren. Zudem sagt ChatGPT das, was ich hören will und nicht unbedingt das, was die Wahrheit ist. Siehe dazu auch meine Antwort zur Frage, was KI alles falsch macht. https://kikreativ24.imascientist.de/question/gibt-es-etwas-bei-kis-das-fast-alle-falsch-machen-wenn-ja-was-ist-das/

    • Foto: Clarissa Elisabeth Hohenwalde

      Clarissa Elisabeth Hohenwalde Beantwortet am 18 Jun 2024:


      Hi, ich benutze in meinem Alltag sehr oft KI-Tools. Ich würde schätzen, dass bei mir KI-Anwendungen mehr als 50 mal pro Tag zum Einsatz kommen.

      Folgende KIs benutze ich (fast) täglich:
      – ChatGPT zur Korrektur von Texten
      – Perplexity für Websuchen
      – Spezielle KIs zum Suchen von Forschungsliteratur (z.B. Elicit oder ResearchRabbit)
      – WolframAlpha, eine KI für komplizierte Matheprobleme
      – Emailfilter, um automatisch Spam aussortieren zu lassen
      – Netflixempfehlungssystem, um coole neue Serien zu finden
      – Spotifyempfehlungen für neue Musik, die ganz nach meinem Geschmack ist
      – Google Maps, da mein Orientierungssinn nicht besonders gut ist
      – Siri am Smartphone, weil ich manchmal nicht tippen möchte
      – Autocomplete am Smartphone, um nicht jeden Buchstaben zu tippen
      – Die Möglichkeit, Apps mit meinem Fingerabdruck zu entsperren
      – Instagram „For you“-Seite und Instagramfilter
      – Automatische Untertitel auf YouTube
      – Sprachlernapp mit KI, da ich endlich Spanisch sprechen möchte
      – Google Home für mein smartes Zuhause

      An der Liste sieht man auch, dass KI schon heute in vielen Anwendungen steckt, auch wenn wir sie nicht explizit als KI-Tools benennen.

Kommentare