RMA 2024: AI ein Mythos?

Editorial im Controller Magazin

Liebe Leserinnen und Leser,

verheißungsvoll wird in den Medien proklamiert, dass Künstliche Intelligenz die Lösung jeglichen Problems sein wird. Auch in Gesprächen erfahre ich, dass sich die Einen wahre Wunder erwarten, während Andere die Fähigkeiten und Möglichkeiten von Artificial Intelligence (AI) deutlich unterschätzen. Bahnbrechende Technologien haben in der Geschichte schon immer Begeisterung, Akzeptanz aber auch Befürchtungen hervorgerufen. So werden in diesem Zusammenhang entstehenden Chancen und Risiken ganz unterschiedlich betrachtet.

Alleine der englische Begriff Intelligence unterscheidet sich von der menschlichen Intelligenz deutlich, wird aber synonym verwendet. Unter Intelligence versteht man die Fähigkeit eines Systems oder einer Maschine, die auf Basis von Daten und Algorithmen mit menschenähnlichen kognitiven Fähigkeiten selbständig Aufgaben wie Daten-, Bild- und Spracherkennung lösen kann. Deshalb sollte man mehr von dem weiter gefassten Begriff „Intelligence“ sprechen, um nicht mit der menschlichen Intelligenz zu assoziieren. Derzeit gibt es keine einheitliche Definition von AI und eine genaue Definition wird sich erst mit der weiteren Entwicklung von AI präzisieren und erweitern lassen.

So faszinierend es ist, fast zeitgleich eine Übersetzung einer Fremdsprache schriftlich oder sprachlich zu bekommen, umfassende Informationen und unzählige Bilder analysiert zu erhalten, muss uns bewusst sein, dass AI-Modelle auf die Qualität und den Umfang der Daten angewiesen sind, mit denen sie trainiert wurden. AI ist jedoch oft auf spezifische Anwendungsbereiche beschränkt und funktioniert nicht universell für alle Arten von Problemen. Es bedarf weiterhin des menschlichen Verstandes damit es nicht zu Missverständnissen, falschen Vorstellungen und überzogenen Erwartungen kommt.

Artificial Intelligence ist bereits ein sehr wertvolles und in Zukunft unverzichtbares Werkzeug in vielen Lebensbereichen wie z. B. im Gesundheitswesen, in der Mobilität, in der Steuerung von Maschinen, im Erkennen von Mustern und Anomalien. AI basiert auf statistische Methoden und eignet sich (derzeit) hervorragend als Assistenzsystem für den Menschen oder als Copilot wie Microsoft bezeichnenderweise ihr Large Language System nennt.

AI wird aber emotionale Intelligenz des Menschen nicht erreichen. Auch wenn das System auf bestimmte Merkmale trainiert wird und Korrelationen herstellt, bedarf es dennoch des menschlichen Urteilsvermögens, ob z. B. ein Lächeln ein Akt der Höflichkeit oder aus Sympathie zu seinem Gegenüber erfolgt. Bewusstsein, Weisheit, Tugend, Mut und Besonnenheit fehlen der AI. Es sind die Werte, die dem menschlichen Leben Bedeutung geben und wesentlich die Entscheidungen des Menschen beeinflussen.

AI-Systeme sind nicht wirklich kreativ. Auch wenn sie „neue“ Bilder z. B. wie von Van Gogh malen oder „neue“ Musik komponieren können, so ist es doch nur eine Kombination aus bereits Bestehendem.

Die AI-Modelle können immer nur so gut sein, wie die Daten auf die die Algorithmen zugreifen. Der große Erfolg in den letzten Monaten ist dem Umstand der riesigen weltweit generierten Datenmengen, sowie der hohen Datenverarbeitungsgeschwindigkeit und Speicherkapazität der Rechenzentren geschuldet.

Ein großes noch nicht gelöstes Problem stellen Deep Fakes dar. Im Besonderen handelt es sich um Medienmanipulationen (Fotos, Audio- und Videoaufnahmen) die durch Techniken der AI abgeändert, verfälscht oder erzeugt worden sind. Dies stellt eine große Gefahr für Gesellschaft und Politik (Wahlmanipulation, Falschinformation) und für Unternehmen (Compliance-Risiken, Betrug) dar. Die Täuschung und Manipulation von Einzelpersonen ist ein weiteres von vielen noch nicht genannten Risiken. Fehlendes Vertrauen ist einerseits eine Barriere für die Akzeptanz von AI-Systemen, andererseits sind User zur kritischen Beurteilung bei der Verwendung aufgefordert, um den Wahrheitsgehalt zu überprüfen.

Vor allem Unternehmen laufen Gefahr, dass bei unbedachter Nutzung von Open Source-AI (wie ChatGPT) durch Mitarbeitende unternehmensspezifische und -kritische Daten das Unternehmen verlassen. Ein gedankenloser Umgang von Large Language Modellen (LLM) kann zum Abfluss (Input) von Know-how oder schutzbedürftigen personenbezogenen Daten führen, was wieder zu Rechtsverletzungen mit ihren Folgen führen kann. Der Output hingegen basiert auf Methoden unter Wahrscheinlichkeiten, sowie Zufälligkeiten und sei naturgemäß nicht immer richtig. Alle Nutzer müssen aufgeklärt und sich bewusst sein, dass KI-generierten Texte synthetisch sind, Bias enthalten oder erfunden sein können.

Die Anforderungen an vertrauenswürdige KI-Systeme zur Vermeidung von Risiken und unerwünschten Nebenwirkungen hat die Europäische Kommission in Ethik-Leitlinien (2019) zusammengefasst.

  • Vorrang menschlichen Handelns: Niemand soll einer ausschließlich automatisierten Entscheidung unterworfen werden, die ihm gegenüber rechtliche Wirkung entfaltet.
  • Menschliche Aufsicht: Ein KI-System soll die menschliche Autonomie nicht untergraben. Die Aufsicht kann durch interaktive Einbindung (Human-in-the-Loop), die Kontrolle (Human-on-the-Loop) oder die Gesamtsteuerung durch den Menschen erfolgen (Human-in-Command).
  • Technische Robustheit und Sicherheit: KI-Systeme müssen derart entwickelt werden, dass sie sich bestimmungsgemäß verhalten und unbeabsichtigten und unerwarteten Schaden verhindern oder minimieren. Dies umfasst auch die Resilienz gegen Angriffe auf das System.
  • Schutz der Privatsphäre: KI-Systeme müssen jederzeit den Schutz der Privatsphäre und den Datenschutz gewährleisten.
  • Datenqualitätsmanagement: Die Qualität der verwendeten Datensätze ist für die Leistungsfähigkeit von KI-Systemen von entscheidender Bedeutung. Bei der Erfassung der Daten können sozial bedingte Verzerrungen, Ungenauigkeiten, Fehler und andere Mängel auftreten. Die Eingabe schädlicher Daten in ein KI-System kann sein Verhalten verändern, insbesondere bei selbstlernenden Systemen. Die verwendeten Prozesse und Datensätze müssen in allen Schritten wie Planung, Ausbildung, Erprobung und Einsatz getestet und dokumentiert werden. Darüber hinaus muss die Integrität der Daten gewährleistet sein. Dies sollte auch für KI-Systeme gelten, die nicht intern entwickelt, sondern von außerhalb erworben werden.
  • Transparenz: Sowohl die technischen Prozesse eines KI-Systems als auch die damit verbundenen menschlichen Entscheidungen (z. B. Anwendungsbereiche eines KI-Systems) müssen nachvollziehbar sein. Technische Erklärbarkeit setzt voraus, dass die von einem KI-System getroffenen Entscheidungen vom Menschen verstanden und rückverfolgt werden können.
  • Vielfalt, Nichtdiskriminierung und Fairness: Insbesondere in der Beziehung zwischen Unternehmen und Verbrauchern sollten die Systeme benutzerorientiert und so gestaltet sein, dass alle Menschen unabhängig von ihrem Alter, Geschlecht, ihren Fähigkeiten oder Merkmalen KI-Produkte oder -Dienstleistungen nutzen können.
  • Gesellschaftliches und ökologisches Wohlergehen: Im Einklang mit den Grundsätzen der Fairness und Schadensverhütung sollten während des gesamten KI-Lebenszyklus die Grundsätze einer nachhaltigen und umweltfreundlichen Anwendung, sowie die sozialen Auswirkungen (z. B. Pflege, Medizin, Bildung, Arbeit, Freizeit) und Auswirkungen auf Institutionen, Demokratie und Gesellschaft insgesamt bewertet werden.
  • Rechenschaftspflicht: Die externe Nachprüfbarkeit sollte insbesondere bei Anwendungen sichergestellt sein, die sich auf die Grundrechte auswirken, sowie bei sicherheitskritischen Anwendungen.

KI verändert zunehmend auch die Arbeitswelt. Der Umgang, die Anwendung und der gezielte Einsatz von KI in bestehende Prozesse bedürfen der Schulung und grundlegender Ausbildung. Die Kooperation von Mensch und Maschine durch Automatisierung und Robotik erfordert neue Fähigkeiten in der Arbeitsweise. Ganz neue Berufe werden entstehen, jedoch werden auch viele Arbeitsplätze durch AI verloren gehen, insbesondere in Bereichen mit routinemäßigen Aufgaben.  

KI kann repetitive und zeitaufwendige Aufgaben automatisieren, wodurch Arbeitsprozesse effizienter werden (z. B. IoT Internet of Things). Durch die Analyse großer Datenmengen können wertvolle Erkenntnisse erlangt werden, die zu verbesserten Entscheidungsprozessen führen (z. B. predictive Maintenance, Analyse von Röntgenbildern). Neue auch branchenübergreifende Geschäftsmodelle entstehen, wohingegen traditionelle Geschäftsmodelle disruptiv verändert werden. Eine verbesserte medizinische Diagnostik und assistive Technologien werden unser Gesundheitswesen und unsere Lebensqualität verbessern. Den vielfältigen Veränderungen wohnen viele Chancen, aber auch (neue) Risiken inne.

Die mannigfaltigen Aspekte beim Einsatz von KI, vor allem die Auswirkungen auf den Menschen und die Wirkungen durch Menschen, von denen nur einige vorhin aufgezeigt wurden, wollen wir im Arbeitskreis Human Risk beleuchten und diskutieren. Handlungsempfehlungen und Erfahrungen von Chancen und Risiken sollen entstehen. Schauen Sie auf unsere Homepage www.rma-ev.org wo wir die Online-Meetings ankündigen oder schreiben Sie mir ein Mail brigitta.john@rma-ev.org.

 

Mit besten Grüßen

Ihre Britta John