Zum Hauptinhalt springen

Woran erkennt man die Qualität von KI-Outputs?

Bei der Bewertung KI-generierter Inhalte können – in Anlehnung an das AI-Literacy-Framework von EDUCAUSE (2024) – fünf zentrale Kriterien herangezogen werden, die eine strukturierte Qualitätsprüfung ermöglichen (vgl. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/student-altl). 

1. Faktizität und Nachprüfbarkeit 

  • Stimmt der Inhalt mit überprüfbaren Quellen überein? 
  • Sind Behauptungen belegbar oder wirken sie plausibel, ohne überprüfbar zu sein? 

2. Quellenangaben 

  • Wird klar, woher Informationen stammen? 
  • Ist nachvollziehbar, auf welcher Grundlage der Output generiert wurde? 

3. Bias und Reproduktion von Stereotypen 

  • Enthält der Output problematische Generalisierungen oder Ausschlüsse? 
  • Verstärkt er bestehende Ungleichheiten? 

4. Angemessenheit für den Zweck (Fitness for Purpose

  • Passt der Output zum Kontext (z. B. akademische Arbeit, Unterricht, Entscheidung)? 

5. Ethik und Verantwortung (@Christian, bitte hier im LearnDash verlinken zu ethischer Perspektive [Ethische Perspektive von KI-Outputs: Was muss bei der Nutzung von KI beachtet werden?] Ich kann das hier im Dok nicht mache, da nicht alle mit “headings” gearbeitet haben) 

  • Werden problematische Inhalte unreflektiert reproduziert? 
  • Werden potenzielle Schäden erkennbar (Falschinformationen, diskriminierende Narrative)?