Suche
Heyne München 2023, 318 Seiten, 20 Euro
Katharina Zweig zählt seit zehn Jahren zu den führenden Expertinnen für Künstliche Intelligenz (KI) in Deutschland und berät verschiedene Bundesministerien. Die Professorin für Bioinformatik hat an der rheinlandpfälzischen Technischen Universität Kaiserslautern-Landau (RPTU) den deutschlandweit einmaligen Studiengang Sozioinformatik ins Leben gerufen. Eine absolute Novität, denn die Studierenden lernen, Softwaresysteme vor dem Hintergrund ihrer gesellschaftlichen Auswirkungen zu bewerten und zu verändern. In „Die KI war’s! Von absurd bis tödlich: Die Tücken der künstlichen Intelligenz“ wägt Katharina Zweig Chancen und Risiken von KI ab. Im Gespräch mit unserer BFS-Trendinfo-Autorin Maicke Mackerodt erläutert sie, dass wir uns nicht fürchten müssen und wie sich die neue Technologie in den Griff bekommen lässt.
Künstliche Intelligenz ist längst mitten unter uns, das Tempo der Entwicklung ist für viele beängstigend. Kluge Maschinen übernehmen Aufgaben, die bislang Menschen vorbehalten waren. Die neuen Technologien machen Angst. Immer wieder ist die Rede von Millionen Jobs, die wegrationalisiert werden könnten. Katharina Zweig kann damit wenig anfangen. Für die Informatik-Professorin aus Kaiserslautern ist das Thema Künstliche Intelligenz – abgekürzt KI – längst zum Lebensthema geworden. Es geht ihr vor allem um die Ethik in einer Welt, in der Maschinen immer mehr komplexe und schwierige Entscheidungen treffen werden.
Eines der Hauptprobleme für Katharina Zweig ist das überbordende Vertrauen der Menschen in KI. Es sei erstaunlich, sagt die Autorin, wie zutraulich wir gegenüber Computern sind, wie sehr wir diese Blechbüchsen vermenschlichen und uns von KI so sehr blenden lassen, dass wir denken, diese Maschinen wären klüger als wir.
Das stimmt aber nicht. Einer der wesentlichen Unterschiede zwischen Mensch und Maschine ist für die Wissenschaftlerin, dass KI unvoreingenommen, ohne Emotion, ohne jegliche Moral entscheidet. Völlig frei von Vorstellungen wie wahr und falsch. Wobei es Katharina Zweig seltsam findet, von der KI zu glauben, sie habe etwas bewusst entschieden:
„Die Maschine entscheidet ja gar nicht etwas, weil sie eben kein handelndes Subjekt ist“, sagt Katharina Zweig im Skype-Gespräch. „An der Stelle bräuchten wir eigentlich ganz dringend neue Wörter.“ Was die Maschine tut, ist etwas völlig anderes, als das, was wir tun. „KI tut es ohne Moral, da sie nicht selbst tut. Trotzdem gibt es noch jemanden, der Moral mit hineinsteckt: der Mensch. Und zwar in dem Moment, wo er die Maschine programmiert,“ erläutert die Wissenschaftlerin. Sie leitet an der TU Kaiserlautern-Landau das „Algorithm Accountability Lab“, das sich vor allem mit der ethischen und gesellschaftlichen Verantwortung von Algorithmen auseinandersetzt.
Wie ein roter Faden ziehen sich Katharina Zweigs Forschungsfragen durch ihr Buch: Wie können Menschen mithilfe von Maschinen gute Entscheidungen treffen? Wann können Menschen sich auf Maschinen verlassen? Und Wann nicht? Wie sind wir als Gesellschaft darauf vorbereitet, wie gefordert? Welches Potential hat KI und welche Tücken?
Sie greift dabei auf eine Vielzahl von Beispielen aus dem Alltag zurück. „Ich muss der Maschine zum Beispiel irgendwie vorgeben: Das hier ist ein guter Kreditnehmer und das hier ist kein guter Kreditnehmer.“ Dann versucht KI aus einem Haufen von Daten herauszubekommen, welche Muster an Eigenschaften Menschen hatten, die ich als guten und als schlechten Kreditnehmer bezeichne. „Dann sage ich dem Computer: Bitte suche mir das beste Muster heraus, damit ich Kreditwürdige von nicht Kreditwürdigen trennen kann. Es ist vielleicht keine moralische, aber eine werthaltige Entscheidung und die gebe ich dem Computer mit.“
Eindrücklich beschreibt Katharina Zweig maschinelle Entscheidungen, die schlichtweg falsch waren. Ein Projekt zum automatisierten Fahren endet für eine Fahrradfahrerin tödlich, weil sie ihr Rad im Dunklen über eine Straße geschoben hat und nicht geradelt ist. KI kann diese komplexe Situation nicht korrekt einordnen und somit nicht rechtzeitig eine Notfallbremsung auslösen. „Ja, die KI war‘s, das ist das, was man erst mal denkt“, weiß die Informatikerin, „man möchte mit dem Finger auf jemanden zeigen, der verantwortlich ist und das wollte ich herausarbeiten.“ Aber: „Da gibt es kein Bewusstsein, da gibt es kein Subjekt, da müssen wir Menschen schon noch für geradestehen und können uns nicht so einfach verstecken.“
Anstatt die Debatte über KI ganz allgemein zu führen, sei es viel sinnvoller, die einzelnen Innovation und ihre Technikfolgen in den Blick zu nehmen. Katharina Zweig appelliert an Wissenschaft, Wirtschaft, Politik und Gesellschaft, sich kritisch mit KI auseinanderzusetzen. Sinnvoll sei KI ganz sicher in Schulen, um Kindern mit Lernschwächen zu helfen. Oder in der digitalen Landwirtschaft, wenn Landmaschinen Unkraut zupfen, anstatt Insektizide zu versprühen. Mittlerweile werden medizinische Prototypen für Hautkrebserkennung trainiert, passiert dies speziell nur auf heller Haut droht allerdings Diskriminierung, warnt die Autorin.
Längst können alle europäischen Sprachen gut und sicher von automatischen Übersetzungssystemen übersetzt werden. Das impliziert für Katharina Zweig nicht den Wegfall von Dolmetscher-Jobs, weil KI die menschliche Intelligenz nicht ersetzt. Kreativ sein, eine eigenwillige, poetische Sprache erfinden, das könne KI nicht. Es werden wahrscheinlich mehr Menschen gebraucht werden, die KI verstehen, kontrollieren und bedienen können.
Katharina Zweig wünscht sich ein digitales Siegel, das menschliche Arbeiten wie Texte zweifelsfrei erkennbar macht. „Das ist gerade der große Streit, brauchen wir ein Siegel für von KI generierten Dokumenten und/oder brauchen wir ein Siegel für etwas, wofür Menschen ihre Hand ins Feuer legen?“ Die Expertin geht davon aus, dass es ein Authentizitätsproblem geben wird. Es sei so leicht geworden, mit KI-Systemen Stimmen nachzumachen. Man könne Menschen fast alles in den Mund legen, was sie angeblich gesagt hätten. Sie wünscht sich, „jeglichen Text, hinter dem wir vollends stehen, mit unserem Namen zu siegeln“. Und wenn nur ein einziges Bit geändert wird, weil irgendjemand an dem Text rumfummelt, dann gilt das Siegel nicht mehr. Es sei künftig wichtig zu wissen, wann ein Mensch mit seinen Augen, mit seinen Geräten etwas gesehen und dokumentiert hat. „Oder über etwas nachgedacht hat und das für die Nachwelt wirklich bestätigen will, dass er oder sie das war“, fordert die Sozioinformatikerin.
„Die KI war’s nicht“, sagt Katharina Zweig nahezu gebetsmühlenartig, denn die KI hat weder ein Selbst noch ein Bewusstsein. Fehler mache immer nur der Mensch, der die Maschine falsch füttert. Entscheidend ist für die Wissenschaftlerin vielmehr die Frage: Wie gestalten wir den sozialen Prozess in Europa, KI klug einzusetzen und schädliche Nutzung zu verhindern? Ihrer Meinung nach warten alle sehr darauf, dass die europäische KI- Verordnung bis Ende des Jahres noch verabschiedet wird.
Insbesondere europäische Firmen, die gerne wissen würden: Wie werden wir reguliert? Welche Art von Gesetzen gibt es? Dann wird es ihrer Meinung nach Möglichkeiten geben, KI-Anwendungen zu kategorisieren, in solche, die unzulässig sind, wie beispielsweise autonome Waffensysteme, die direkt jemanden erschießen. In solche mit einer hohen Risikokategorie, wo es auch um Menschenwürde und um Diskriminierungsfreiheit geht. „Und solche, wo keine großen gesellschaftlichen und moralischen Entscheidungen mit drinstecken, wie zum Beispiel eine Maschine, die Schrauben auf einem Band untersucht, ob diese einen Defekt haben und diese dann vom Band pustet.“
Die Wissenschaftlerin teilt KI-Systeme in vier Sorten ein. Die erste Sorte gibt faktische Antworten, deren Ergebnisse nachprüfbar sind und da arbeitet die KI ihrer Meinung nach vertrauensvoll. Die zweite Kategorie macht statistische Vorhersagen, prüft beispielsweise für Versicherungen Unfallstatistiken und kann viel besser subtile Muster finden als der Mensch. Problematisch sei es, wenn eine Maschine zum Beispiel nicht überprüfbare politische Fragen beantworten soll. „Finger weg“, so die Autorin.
Das gelte auch für KI, die ethisch begründete Werturteile abgeben soll, wie Gerichtsurteile oder Prüfungsnoten. Das können wir Maschinen nicht beibringen, sagt Katharina Zweig. Ihr habe das Buch „Noise“ (Rauschen) von Daniel Kahnemann, Olivier Sibony und Cass Sunstein sehr geholfen. „Die haben diese Einteilung von bestimmten Entscheidungsproblemen oder Kategorien, die auch bei KI hervorragend gepasst hat.“ Damit sei ihr ein Durchbruch gelungen. Man müsse nur klären: Ist es was Faktisches? Hat es etwas mit Risiko zu tun? Oder gibt es etwas zu bewerten? Das Problem eines Werturteils kann KI im Moment noch nicht lösen, stellt Katharina Zweig fest und ist froh: „Das ist doch eine sehr starke Vereinfachung dieses Wustes von KI-Systemen, über die wir in den letzten Jahren diskutiert haben.“
Unterhaltsam, sachlich, klug und auch für Laien gut verständlich erläutert Katharina Zweig in „Die KI war’s“ die Tücken Künstlicher Intelligenz. Die Wissenschaftlerin beschreibt nachvollziehbar, was KI wirklich gut kann, wie künstliche Intelligenz tickt, und bei welchen Werturteilen der Mensch besser die Kontrolle behält.
Weiterführende Links:
abgerufen am 06.11.2023
Gemeinsam sozial wirksam
Die Bank als Impulsgeber für eine zukunftsfähige Entwicklung der Freien Wohlfahrtspflege
Pflege
Trotz exzellenter Vergütung: Deutlicher Rückgang der Ausbildungszahlen in der Pflege
Gesellschaft
ZiviZ-Survey 2023 – Einblicke in eine Zivilgesellschaft im Wandel
Pflege
Soziale Innovationen in der Pflegebranche: Herzensöffner bringen Freude, das Heim wird zum Club
Gesundheit
Professionelle Gesundheitskompetenz: Studie belegt Handlungsbedarf
Buchempfehlung
Katharina Zweig: Die KI war’s! Von absurd bis tödlich: Die Tücken der künstlichen Intelligenz
Susanne Bauer
Senior Referentin Unternehmenskommunikation
Konrad-Adenauer-Ufer 85
50668 Köln
T 0221 97356-237
F 0221 97356-477
E-Mail