Deutsche Skepsis gegenüber generativer KI
Deutschland sieht generative KI als Risiko laut Studie „Digitalisierung der Wirtschaft“ des Branchenverbandes Bitkom
Deutschland sieht generative KI als Risiko laut Studie „Digitalisierung der Wirtschaft“ des Branchenverbandes Bitkom
Während die Investitionen in künstliche Intelligenz im Rest der Welt steigen, kann in Deutschland eine ablehnende Haltung gegenüber KI identifiziert werden. Besonders im Bezug auf generative KI, zeigen sich die Entscheidungsträger:innen in deutschen Unternehmen bisher noch wenig beeindruckt von ChatGPT und Co.
Das hat eine repräsentative Umfrage des Branchenverbandes Bitkom ergeben. Die Mehrheit der Befragten glaubt nicht, dass KI-Anwendungen die Fachkräftelücke schließen oder neue Geschäftsmodelle ermöglichen können. Sie sehen KI eher als Risiko, besonders im Hinblick auf den potenziellen Personalabbau.
Einerseits kritisieren wir die vorsichtige Herangehensweise deutscher Investoren und Unternehmen. Diese Skepsis führt nämlich zur eingeschränkten Beteiligung des Landes an der globalen KI-Revolution und am internationalen KI-Wettbewerb.
Um die transformative Kraft von KI voll auszuschöpfen, ist es für Deutschland entscheidend, schnell ein Gleichgewicht zwischen Vorsicht und Innovation zu finden. Nur so können das Potenzial von KI genutzt und gleichzeitig die damit verbundenen Herausforderungen bewältigt werden.
Andererseits verstehen wir, wie wichtig es ist, Bedenken über mangelndes Potenzial und hinsichtlich der möglichen Verdrängung von Arbeitsplätzen auszuräumen.
Um der Skepsis gegenüber generativer KI entgegenzuwirken, konzentriert sich unser Ansatz und unsere Softwareentwicklung auf gesellschaftliches Wohlergehen und gibt menschlichem Handeln den Vorrang.
Datensicherheit und Datenschutz bei Ella
Die Verwendung persönlicher Daten für KI-Training ist ein zunehmender Trend. Das Unternehmen X (ehemals Twitter) hat seine Datenschutzbedingungen überarbeitet und wird ab dem 29. September 2023 gesammelte persönliche Daten nutzen, um seine KI-Modelle zu trainieren. Unternehmen wie Zoom und Microsoft haben bereits die Nutzung von Daten für KI bestätigt oder planen diese. Es gibt jedoch Widerstand und Petitionen gegen solche Praktiken.
Die EU verhandelt derzeit über Regeln für die Entwicklung und den Einsatz von KI. Es wird vorgeschlagen, dass Unternehmen die ausdrückliche Erlaubnis der Betroffenen einholen sollten, bevor sie deren persönliche Daten für KI-Trainings verwenden dürfen.
Wir begrüßen die Absicht der EU, KI-basierte Datennutzung zu regulieren, denn der verantwortungsvolle Umgang mit Daten ist bei Ella besonders wichtig. Diese Regulierung wird unsere bestehenden Datenschutzgrundsätze weiter bekräftigen, die wie folgt lauten:
Die Bedeutung von verantwortungsvoller KI, die Urheberrechte respektiert
Der Einsatz von generativer KI in Hollywood ist zu einem der Hauptanliegen der aktuellen Streiks und Forderungen nach Regulierungen geworden. Schauspieler, die von der Screen Actors Guild of America (SAG-AFTRA) vertreten werden, befürchten, dass KI eine Bedrohung für ihre kreativen Berufe darstellt und ihre Identitäten und Talente ohne Zustimmung oder angemessene Vergütung ausbeuten könnte. Sie haben sich der Writer’s Guild of America (WGA) angeschlossen und fordern ausdrückliche KI-Bestimmungen zum Schutz der Autoren und ihrer Werke.
Die Besorgnis rührt von der zunehmenden Effektivität und Verbreitung von KI-Tools her, die Bilder und Texte erstellen, Gesichter und Stimmen reproduzieren und menschenähnliche Texte verfassen können. Auch wenn diese Tools oft Grenzen haben und abgeleitete oder ungenaue Inhalte produzieren, machen sich Entertainer und andere Kreativschaffende Sorgen, dass ihre Arbeit ohne strenge Regulierung von der KI kopiert und neu abgemischt werden könnte, was ihre Kontrolle und ihre Möglichkeiten, ihren Lebensunterhalt zu verdienen, einschränkt.
Ella unterstützt die Forderung der streikenden Schauspieler und Autoren nach Regelungen, die ihre Interessen schützen und angesichts der fortschreitenden KI-Technologien eine faire Entlohnung für ihre Arbeit gewährleisten. Wir sind der Meinung, dass ein offener Dialog und die Zusammenarbeit zwischen den beteiligten Akteuren unerlässlich sind, um das Potenzial von KI verantwortungsvoll auszuschöpfen.
Bei Ella werden menschliches Handeln und Urheberrechte priorisiert. Deshalb engagieren wir uns schon immer für die Entwicklung von verantwortungsvollen KI-Technologien, die Contentersteller im kreativen Prozess unterstützen und gleichzeitig das geistige Eigentum der Urheber von Inhalten respektieren.
Unser Grundsatz ist und bleibt es, KI-Tools zu entwickeln, die die höchsten ethischen Kriterien erfüllen und die Rechte und Interessen unserer Nutzer:innen wahren.
Autor: Michael Keusgen, CEO, Ella Media AG
Systeme, die auf Künstlicher Intelligenz (KI) basieren, haben in der Regel das Ziel, Menschen in ihren Handlungen zu unterstützen. Dabei eröffnen KI-Systeme neue Möglichkeiten, um Fehler zu minimieren, Prozesse effizienter zu gestalten und bestehende Probleme zu bearbeiten. Die Entwicklung der Künstlichen Intelligenz hat dabei das Potential, zunehmend Einfluss auf die Entscheidungen von Menschen zu nehmen. Deshalb ist ein verantwortungsvoller Umgang mit lernenden Systemen wichtig.
KI selbst ist wertfrei, sie erfasst, analysiert und verarbeitet Sprache ausschließlich auf Basis der Daten, mit denen sie trainiert wurde. Dabei gibt KI bestehende Muster wieder, ohne den Inhalt der eigenen Texte tatsächlich zu verstehen. Das kann unerwünschte Folgen haben, wie beispielsweise die Reproduktion einer stereotypen Darstellung bestimmter Menschengruppen.
Ein bekanntes und gut erforschtes Beispiel ist die Diskriminierung von Frauen in KI-gestützten Bewerbungsprozessen – etwa, weil die Datengrundlage aus einer Zeit stammt, in der in dem spezifischen Berufsfeld fast ausschließlich Männer tätig waren.
Sprachbasierte KI-Systeme sind immer nur so gut wie die Texte, von denen sie lernen. Deshalb müssen Systembetreiber und Entwickler bereits lange vor dem ersten Einsatz einer KI konsequent darauf achten, Verzerrungen und daraus folgende Diskriminierungen (Bias) durch Fehler bei der Datenerfassung und -auswahl oder der Verarbeitung der Daten auf Basis von Algorithmen zu erkennen. Das erfordert eine Werteorientierung und eine hohe Kritik- und Lernfähigkeit der Unternehmen und der Menschen dahinter.
Verantwortungsvoller Umgang mit Sprach-KI bedeutet für Unternehmen aber auch, dass sie bereits bei der Entwicklung einen möglichen Missbrauch der Technologie im Blick haben – etwa durch automatisiert erstellte Texte mit falschen oder absichtlich irreführenden Inhalten. KI-Systeme können darauf ausgerichtet werden, diese verfälschten Informationen in großer Menge und für bestimmte Zielgruppen zu erstellen – auch um den öffentlichen Diskus zu beeinflussen.
Eine kluge und zielorientierte Auswahl der Datenquellen beugt auch Missbrauch vor. Ein redaktionelles KI-System wie Carla, das ausschließlich auf Daten der großen Nachrichtenagenturen basiert, bietet kein Potential für Missbrauch im Rahmen von Desinformationskampagnen.
Zur gesellschaftlichen Verantwortung der Unternehmen gehört aber auch die Frage, wie die KI zum Vorteil der Menschen eingesetzt werden kann. Im Erkennen von unbeabsichtigten Fehlern, Plagiaten, aber auch gezielten Fake News ist die künstliche Intelligenz den Menschen häufig bereits um Längen überlegen. Erste Anwendungen sind bereits im Einsatz. So können spezielle KI-Systeme, in Echtzeit mit Texten und anderen Social Media Daten gefüttert, bei der Bekämpfung von Bots unterstützen.
Verfasst am 8. September 2021
Sie können jetzt maßgeschneiderte KI-Lösungen auf der neuen “Lösungen”-Webseite von Ella anfordern.
In einem sich schnell entwickelnden Markt für generative KI haben wir unsere Strategie fein abgestimmt: Wir bieten jetzt nicht nur ein breites Spektrum an spezialisierten KI-Services an, sondern arbeiten auch eng mit unseren geschätzten Kunden zusammen.
Dieser zweigleisige Ansatz ermöglicht, maßgeschneiderte KI-Lösungen zu entwickeln, die sich nahtlos in die einzigartigen Visionen und Ziele unserer Kunden umsetzen.
Als Beweis für diesen strategischen Wandel freuen wir uns, Ihnen unsere brandneue „Solutions“-Webseite zu präsentieren – ein digitales Portal, auf dem Sie das umfassende Spektrum unsere KI-Lösungen erkunden und Anfragen für maßgeschneiderte KI-Lösungen einreichen können.
Ella befähigt die NutzerInnen
unserer KI-Tools
Es vergeht kaum ein Tag, an dem nicht über KI (in den Medien) diskutiert wird. Der derzeitige Diskurs konzentriert sich jedoch eher auf die angstmachende Darstellung der Risiken von KI. Auch wenn es wichtig ist, die potenziellen Herausforderungen anzuerkennen, müssen wir uns bemühen, eine realistische Perspektive auf die gesellschaftlichen Auswirkungen der KI einzunehmen.
Im Laufe der Geschichte hat jeder gesellschaftliche Umbruch sowohl Risiken als auch Potenziale mit sich gebracht. Der technologische Wandel durch KI bildet da keine Ausnahme. Es ist wichtig, den Herausforderungen der KI proaktiv und verantwortungsbewusst zu begegnen, aber nicht mit Angst. Angst kann Fortschritt und Innovation behindern und uns daran hindern, die transformative Kraft der KI zum Wohle der Gesellschaft voll auszuschöpfen.
Bildung und Transparenz spielen hier eine Schlüsselrolle. Nur durch die Förderung von KI-Wissen können die gesellschaftlichen Auswirkungen von KI besser verstanden und die Herausforderungen der KI bewältigt werden. Das befähigt Einzelpersonen und Unternehmen, fundierte Entscheidungen über KI zu treffen, damit sie KI-Tools verantwortungsvoll und ethisch korrekt einsetzen können.
Transparenz bei der Entwicklung und dem Einsatz von KI ist ebenso wichtig, um das Vertrauen und die Zusammenarbeit zwischen EntwicklerInnen, NutzerInnen und der Gesellschaft insgesamt zu fördern. Sie stellt sicher, dass KI-Systeme rechenschaftspflichtig sind und in einer Weise arbeiten, die mit menschlichen Werten und Präferenzen übereinstimmt.
Das enorme Potenzial der KI sollte genutzt werden, um die menschlichen Fähigkeiten zu erweitern und zu ergänzen. Dafür muss jedoch der Mensch in den Mittelpunkt der KI-Entwicklung gestellt werden. Ella ist genau so ein Beispiel für dieses Engagement, indem wir uns bei der Entwicklung unserer KI-Software auf ethisches Design und Transparenz konzentrieren.
Wir sind der Meinung, dass die Befähigung unserer NutzerInnen durch KI-Technologie nicht auf Kosten der Privatsphäre, der Autonomie oder der Fairness gehen darf. Stattdessen soll KI ein kollaborativer Partner sein und die menschlichen Fähigkeiten ergänzen. Das Ziel von Ella ist es, unseren NutzerInnen die Möglichkeit zu geben, ihre menschlichen Fähigkeiten durch unsere KI-Tools zu erweitern.
Unsere Grundsätze
Im Rahmen einer Webinar-Reihe zur KI-Aufklärung für Arbeitnehmer befasst sich die vom Bundesministerium für Wirtschaft und Klimaschutz sowie dem Bundesministerium für Bildung und Forschung geleitete Plattform Industrie 4.0 mit dem Potenzial sowie den Herausforderungen von KI für Industrie und Mittelstand.
Einerseits wird betont, dass KI zur Entlastung von Personal sowie zur Qualitätssteigerung beitragen und dem Fachkräftemangel entgegenwirken kann. Andererseits dürfen dabei die Herausforderungen wie etwa mangelnde KI-Kenntnisse von Beschäftigten, ein geringer digitaler Reifegrad von Unternehmen oder Datenschutzbedenken nicht übersehen werden.
Wir bei Ella sind der festen Überzeugung, dass diese Herausforderungen nur durch Transparenz und Aufklärungsarbeit wirksam bewältigt werden und dadurch die großen Chancen von KI ermöglicht werden können. Als Anbieter von generativer KI haben wir uns folgenden Grundsätzen verschrieben:
ChatGPT hat in den letzten Monaten für viel Aufmerksamkeit gesorgt. In der Tat ist die Leistung von ChatGPT beeindruckend – und zusammen mit Lösungen wie Midjourney oder Lensa trägt das Tool KI als Instrument bei der Erstellung kreativer Inhalte in die breite Öffentlichkeit.
ChatGPT zeigt eindrucksvoll, wie ein gelungenes Design und ein niedrigschwelliger Zugang Menschen dazu bringt, sich der Nutzung von KI zu öffnen – und was damit möglich wird. E-Mails, Bewerbungen, Aufsätze, Programm-Code, Wortspiele: Der Vielseitigkeit von ChatGPT sind kaum Grenzen gesetzt.
???? Wissen, womit man es zu tun hat
Hinter ChatGPT steht ein Sprachmodell, dessen Qualität alles bisher Bekannte in den Schatten stellt. Es ist als Generalist ausgelegt: ChatGPTs Text Completion setzt auf einer großen Bandbreite von Inhalten in den Trainingsdaten auf. Doch wir müssen uns bewusst sein, dass wir es bei ChatGPT nicht mit qualitätsgesicherten Daten zu tun haben. Das Modell aggregiert sprachgewandten Output aus Wahrscheinlichkeiten und Mustern, die in den breiten Trainingsdaten vorliegen. Faktentreue garantiert es nicht: Nutzer:innen wissen nicht, ob eine Information „erfunden“ wurde oder eine verlässliche Quelle hat. Menschliche Expertise ist gefragt, um mögliche Falschaussagen zu identifizieren.
➡ Wie bei allen Tools müssen Nutzer:innen also auch bei ChatGPT lernen, mit ihm umzugehen und sich seiner Schwächen bewusst zu sein.
Die Sorgfalt bei der Auswahl und Vorbereitung der Trainingsdaten für KI-Modelle ist ein großer Faktor für den Erfolg von Modellen der künstlichen Intelligenz. Große KI-Modelle, die sich ausschließlich auf wahllose Online-Inhalte und Wissen stützen, können falsche, gar katastrophale Ergebnisse liefern, die wiederum von nachfolgenden KI-Modellen als Lerngrundlage verwendet werden können.
Es ist jedoch nahezu unmöglich, bei der großen Datenmenge für Large Language Models alle Falschinformationen herauszufiltern. Auch korrekte Trainingsdaten können mit der Zeit veralten oder in einem falschen Kontext zu falschen Ergebnissen führen. Daher ist neben der Sicherstellung der Nutzung von genauen und vertrauenswürdigen Daten, eine sorgfältige Überprüfung der Outputs und ein Postprocessing wichtig. Durch eine gesicherte Faktizität über die gesamte Pipeline hinweg, kann dieser Kreislauf von Fehlern, die sich im Laufe der Zeit potenzieren und verfestigen können, durchbrochen werden.
Ellas generative KI-Forschung und – Entwicklung zeichnet sich durch hohe Ansprüche und Standards aus, die an die Qualität von Input und Output gestellt werden. Wir bewerten die Fähigkeiten und verifizieren die Leistung unserer Sprachmodelle durch unsere spezielle TextQA, die von einem Team von Sprachexperten durchgeführt wird, die eng mit unseren Teams für maschinelles Lernen und Data Science zusammenarbeiten. So stellen wir sicher, dass unsere Kunden und Nutzer von einer marktführenden Sorgfalt profitieren.
Setzen Sie auf die Qualitätsstandards von Ella.
Der vorgeschlagene AI Act der EU stärkt unsere bestehenden Qualitäts- und Compliance-Verpflichtungen.
Endlich rücken auch bei der Politik die Themen Qualität und Compliance in den Fokus. Bei Ella ist dies eine Selbstverständlichkeit seit 5 Jahren.
Unsere KI-Lösungen sollen die höchsten ethischen Kriterien erfüllen und die Rechte und Interessen unserer Nutzer:innen wahren. Deshalb haben wir proaktiv robuste Maßnahmen bei der Entwicklung unserer KI-Produkte eingeführt. Zu diesen Maßnahmen gehören die bewusste Auswahl und Bereinigung von Quellen sowie unser Faktenprüfung- und -korrektursystem.
Der vorgeschlagene AI Act der EU stärkt unsere bestehenden Verpflichtungen. Der AI Act fördert die Annahme verantwortungsvoller KI-Praktiken, für die wir uns von Anfang an eingesetzt haben. Wir begrüßen die Absicht der EU, einen Rechtsrahmen für künstliche Intelligenz zu schaffen. Denn bei der Anwendung von verantwortungsvollen KI-Praktiken sehen wir Nachbesserungsbedarf – besonders im Mittelstandsbereich.
Wir möchten zudem betonen, dass ein Gleichgewicht zwischen Förderung von Innovation und dem verantwortungsvollen Einsatzes von KI von entscheidender Bedeutung ist. Wir erkennen die Notwendigkeit regulatorischer Leitlinien und erwarten durch diese einen fairen und innovativen Wettbewerb auf Basis von demokratischen Grundrechten.
Wir werden die Entwicklung und Weiterentwicklung des AI Acts genau verfolgen und sicherstellen, dass unsere KI-Lösungen den höchsten Qualitätsstandards entsprechen. Unser Ziel ist es, zukünftigen Vorschriften zuvorzukommen und übereinzustimmen.