Neulich stieß ich auf eine ÜbersetzungsAPP mit eingebauter KI-Funktion. Man kann die KI z.B. fragen: “Wie wird das Verb “klingeln” konjugiert” und erhält prompt grammatikalische Auskunft. Danach wollte ich einmal testen, wie es mit der semantisch-pragmatischen Kompetenz der KI steht. Ich habe sie also gefragt: Was bedeutet “du Schlampe” auf Chinesisch? Die Antwort war überraschend. Und das Überraschende war: Die KI hat so etwas wie moralisches Empfinden. Teufel auch, das hätte ich nicht gedacht. Hier der Beweis:
Dieser läppische Zwischenfall macht aber auch deutlich, wie sehr das Verhalten einer KI davon abhängt, was in sie hineingesteckt wurde. KI ist keineswegs neutral oder objektiv, da ihr Verhalten ganz klar von den subjektiven (also auch moralischen) Einstellungen ihrer Programmierer abhängig ist.
KI ist aber nicht nur subjektiv, also wertegeleitet, sondern auch in gewisser Weise recht kurzatmig. Nehmen wir doch einmal an, ich wollte den Ausdruck “du Schlampe” in einem ironischen Kontext verwenden, ihm dadurch seine beleidigende Performance nehmen, ja sogar ins Gegenteil verkehren, da ja ironisches Sprechen bedeuten kann, das Gegenteil von dem zu meinen, was man sagt, ich wollte also, in anderen Worten, nichts weniger als einen kleinen Flirt in meine Kommunikation einbauen, – genau dabei wäre mir die KI keine Hilfe, da sie die Arbeit verweigert auf Grund ihrer moralischen Vorurteile. Und genau das nenne ich ihre Kurzatmigkeit.
Ich habe übrigens den letzten Absatz in die KI der ÜbersetungsApp eingegeben mit der Bitte um Übersetzung ins Englische. Die Übersetzung wurde verweigert mit dem gleichen moralischen Hinweis wie oben. Ich habe sodann den Absatz direkt in der ÜbersetzungsApp eingegeben, also ohne Verwendung der KI. Das Ergebnis kann sich sehen lassen:
Let’s assume that I wanted to use the expression “you bitch” in an ironic context, thereby taking away from its offensive performance and even turning it into the opposite, since speaking ironically can mean meaning the opposite of what you say , in other words, I wanted to incorporate nothing less than a little flirtation into my communication – which is exactly where the AI would be of no help to me, as it refuses to work due to its moral prejudices.
Ein Clubgenosse des Handshake Computerclubs Saarbrücken hat auf diesen Beitrag geantwortet, allerdings auf Whatsapp, wobei er allerdings anmerkte, dies sei aus Versehen geschehen, er habe eigentlich im BLOG antworten wollen. Ich nehme mir also das Recht heraus, seine Antwort hier wiederzugeben und zu kommentieren.
Ralf schrieb: “Ich bezweifle, dass die KI alleine darauf gekommen ist, die Antwort auf Deine Frage zu verweigern. Die Filter wurden vielmehr von den Programmierern im Auftrag ihrer Auftraggeber eingearbeitet. Nur wird nicht sichtbar wie und mit welchen Fakten die KI ihre Antwort generiert. Zumindest nicht für den Benutzer. Deshalb gibt es ja schon Forderungen, dass diese Informationen zu jeder Antwort bereitgestellt werden müssen um ein Bewertung der Antwort zu ermöglichen. Wobei bei keiner der bis jetzt existierenden KI eine wirkliche Intelligenz oder viel mehr ein Bewustsein nachgewiesen werden konnte.”
Lieber Ralf, natürlich ist die KI nicht alleine darauf gekommen, die Antwort zu verweigern. Was soll denn das “von alleine” auch heißen? Dass es von Programmierern eingebaute Filter gibt, dürfte selbst mir Programmierlaien bekannt sein. Und dass die KI keinesfalls intelligent ist, habe ich ja schon auf einem anderen Beitrag in diesem BLOG aufgezeigt. (Siehe Göttliche KI).
Natürlich sind einige Äußerungen in meinem Post ironisch gemeint. Das scheinst Du komplett übersehen zu haben. Die Frage nach einem Gewissen ist natürlich absurd. Die Weigerung, den Ausdruck “du Schlampe” zu übersetzen, geschieht innerhalb der KI natürlich gemäß der algorithmischen Vorgabe, Beleidigungen zu vermeiden. Nun ist aber die KI grottenschlecht programmiert, wenn sie unabhängig vom Kontext jedes Vorkommen des Wortes Schlampe verhindert. Das habe ich ja durch meinen Zusatztext dokumentiert. Die KI ist also nicht in der Lage, den Gebrauch von Wörtern in verschiedenen Kontexten zu bewerten, sie ist also weder intelligent (Quod erat demonstrandum), geschweige denn moralisch. Und wenn ich von “moralischen Vorurteilen” spreche, ist natürlich auch das ironisch zu verstehen. Die Programmierer hinter der KI geben der KI bei der Begründung für die Weigerung, “du Schlampe” zu übersetzen, einen moralischen Anstrich, liegen aber rein sprachtechnisch gesehen falsch.