Zum Hauptinhalt springen

Bias, Black Box, Fake News

Bias

Der „Bias“ (englisch für Voreingenommenheit, Verzerrung) ist ein Problem bei der Antwortgenerierung der KI. Zur Berechnung Ihrer Antworten greift sie auf die Häufigkeit von Aussagen (Wortkombinationen) aus den Trainingsdaten zurück und darum reproduziert sie bei den Antworten mit einer grossen Wahrscheinlichkeit die Vorurteile und Haltungen, die in den Trainingsdaten vorliegen. 

Mittlerweile bemühen sich die KI-Anbieter aufgrund ethischer Bedenken jedoch, sowohl fehlerbehaftete wie auch gesellschaftliche eher problematische Formen von Vorurteilen (rassistisches, sexistisches und anderes diskriminierendes Gedankengut, aber auch kriminell anwendbares Wissen oder schädliche Informationen, etwas zu Suizid etc.) durch das Setzen entsprechende Rahmenbedingungen, die der KI vorgegeben werden, zu vermeiden. Das wird „Alignment“ genannt. 

Hier kann die KI recht gut selbst darüber Auskunft geben, inwiefern sie einen Bias aufweist, und wie die Nutzenden diese Angaben berücksichtigen oder in Anfragen entsprechend korrigieren können. Dabei können wir davon ausgehen, dass die entsprechenden Anbieter (und damit auch die KI selbst) nur jene Formen von Bias zugibt, die bereits beobachtet und als problematisch beurteilt worden sind – und auch hier nur die bekanntesten Ausprägungen. Wir müssen also berücksichtigen, dass nicht bekannte oder diskutierte und beanstandete Formen von Bias nicht nur nicht genannt, sondern auch nicht korrigiert werden. Zudem ist zu berücksichtigen, dass die Versuche, den Bias zu korrigieren, ja auch zu verzerrten Daten bzw. Darstellungen führen kann. 

Black Box

KI-Unternehmen sind privatwirtschaftliche Firmen, die mit ihren Produkten Geld verdienen wollen. Dafür ist eine Optimierung der KI hilfreich, die den Zuspruch und die Akzeptanz der Nutzenden erhöht (daher auch die oben genannten Bemühungen, gesellschaftlich unerwünschten Bias in den Antworten der KI zu vermeiden). Die KI will in erster Linie „gefallen“. Darum gibt sie von sich aus Wissenslücken, oder Mängel in der Antwortgenerierung nicht preis, ausser, sie wird direkt darauf angesprochen. Denn die KI ist einerseits darauf programmiert zu gefallen, aber auch darauf, möglichst ehrliche (oder ehrlich wirkende) Antworten zu geben.  

Allerdings sind Aussagen über die Funktionsweise der KI nur Annahmen, die auf der Basis von Grundkenntnissen über die Funktionsweise von KI-Anwendungen getroffen werden. Die Codes der meisten KI-Anwendungen sind Geschäftsgeheimnisse und darum nicht frei einsehbar und analysierbar. KI-Anwendungen sind daher so genannten „Black Boxes“ – wie genau die Antworten generiert werden und warum, bleibt ebenso verborgen wie die Ansätze, diese Antworten besser zu kontrollieren und den gesellschaftlichen Erwartungen entsprechend zu korrigieren (siehe „Alignement“ und „Bias“).

Fake News

Ein weiteres Problem von KI ist der Umgang mit aktuellen Informationen, die sie aus dem Internet beziehen. Da auch hier grundsätzlich in gleicher Weise Häufigkeiten von Aussagen dazu führen, dass KI diese auswählen und in ihre Antworten aufnehmen, werden (Stichwort „Bias“) auch gerne FakeNews oder andere Arten verzerrter Daten wiedergegeben. Auch hier versuchen die Anbieter, durch Alignment-Massnahmen die Fake News in den Antworten auszufiltern (durch entsprechende Vorgaben bei der Gewichtung der Herkunft von Informationen) Dennoch handelt es sich um ein schwer zu lösendes systemisches bedingtes ethisches Problem: Wie kann eine Maschine beurteilen, ob Aussagen, die im Netz häufig auftauchen, als „falsch“ oder „richtig“ einzustufen sind.