+41 544 36 40
  • en
  • de
  • Künstliche Intelligenz, Sprache und die Frage der gesellschaftlichen Verantwortung

    Künstliche Intelligenz, Sprache und die Frage der gesellschaftlichen Verantwortung

    Autor: Michael Keusgen, CEO, Ella Media AG

    Systeme, die auf Künstlicher Intelligenz (KI) basieren, haben in der Regel das Ziel, Menschen in ihren Handlungen zu unterstützen. Dabei eröffnen KI-Systeme neue Möglichkeiten, um Fehler zu minimieren, Prozesse effizienter zu gestalten und bestehende Probleme zu bearbeiten. Die Entwicklung der Künstlichen Intelligenz hat dabei das Potential, zunehmend Einfluss auf die Entscheidungen von Menschen zu nehmen. Deshalb ist ein verantwortungsvoller Umgang mit lernenden Systemen wichtig.

    KI imitiert Sprache ohne Verständnis der Inhalte

    KI selbst ist wertfrei, sie erfasst, analysiert und verarbeitet Sprache ausschließlich auf Basis der Daten, mit denen sie trainiert wurde. Dabei gibt KI bestehende Muster wieder, ohne den Inhalt der eigenen Texte tatsächlich zu verstehen. Das kann unerwünschte Folgen haben, wie beispielsweise die Reproduktion einer stereotypen Darstellung bestimmter Menschengruppen.

    Ein bekanntes und gut erforschtes Beispiel ist die Diskriminierung von Frauen in KI-gestützten Bewerbungsprozessen – etwa, weil die Datengrundlage aus einer Zeit stammt, in der in dem spezifischen Berufsfeld fast ausschließlich Männer tätig waren.

    Wer Sprach-KI entwickelt, trägt eine große Verantwortung

    Sprachbasierte KI-Systeme sind immer nur so gut wie die Texte, von denen sie lernen. Deshalb müssen Systembetreiber und Entwickler bereits lange vor dem ersten Einsatz einer KI konsequent darauf achten, Verzerrungen und daraus folgende Diskriminierungen (Bias) durch Fehler bei der Datenerfassung und -auswahl oder der Verarbeitung der Daten auf Basis von Algorithmen zu erkennen. Das erfordert eine Werteorientierung und eine hohe Kritik- und Lernfähigkeit der Unternehmen und der Menschen dahinter.

    Verantwortungsvoller Umgang mit Sprach-KI bedeutet für Unternehmen aber auch, dass sie bereits bei der Entwicklung einen möglichen Missbrauch der Technologie im Blick haben – etwa durch automatisiert erstellte Texte mit falschen oder absichtlich irreführenden Inhalten. KI-Systeme können darauf ausgerichtet werden, diese verfälschten Informationen in großer Menge und für bestimmte Zielgruppen zu erstellen – auch um den öffentlichen Diskus zu beeinflussen.

    Eine kluge und zielorientierte Auswahl der Datenquellen beugt auch Missbrauch vor. Ein redaktionelles KI-System wie Carla, das ausschließlich auf Daten der großen Nachrichtenagenturen basiert, bietet kein Potential für Missbrauch im Rahmen von Desinformationskampagnen.


    Sprach-KI eröffnet neue Wege im Kampf gegen Desinformation

    Zur gesellschaftlichen Verantwortung der Unternehmen gehört aber auch die Frage, wie die KI zum Vorteil der Menschen eingesetzt werden kann. Im Erkennen von unbeabsichtigten Fehlern, Plagiaten, aber auch gezielten Fake News ist die künstliche Intelligenz den Menschen häufig bereits um Längen überlegen. Erste Anwendungen sind bereits im Einsatz. So können spezielle KI-Systeme, in Echtzeit mit Texten und anderen Social Media Daten gefüttert, bei der Bekämpfung von Bots unterstützen.

    Verfasst am 8. September 2021