Verantwortungsvolle Künstliche Intelligenz (Teil 2)

8 mins read

Im ersten Teil dieses Artikels wurden verschiedene Arten von Künstlicher Intelligenz (KI) vorgestellt, um darauf aufbauend im vorliegenden zweiten Teil differenziert auf Fragen der verantwortungsvollen KI eingehen zu können. Neben dem Vertrauen des Menschen in die KI geht es dabei auch um die Möglichkeiten technischer Ausgestaltung sowie um Fragen zu Philosophie, Recht und Gesellschaft

Abstract Teil 2: Der folgende Artikel widmet sich dem Ziel einer Künstlichen Intelligenz als Dienstleistung am Menschen (Abschnitt 5), um Vertrauen in KI (Abschnitt 5.1) durch Technikgestaltung (Abschnitt 5.2) zu erreichen. Ethische Orientierung der KI als humane Dienstleistung sind Menschenwürde und Autonomie, wie sie in den Grundrechten demokratischer Verfassungen gefordert werden (Abschnitt 5.3).

5.  KI als Dienstleistung am Menschen

5.1 Vertrauen in Künstliche Intelligenz

Häufig wird KI als Bedrohung menschlicher Arbeit dargestellt. Die Corona-Krise zeigt aber auch, wie KI und Robotik einspringen könnten, wenn der Mensch ausfällt, um die Wirtschaft am Laufen zu halten, wie digitale Kommunikation und Gesundheitsversorgung unterstützt werden könnte und wie in einem Lernprozess zusammen mit menschlicher Intelligenz die Lösung z.B. in Form eines Impfstoffs gefunden werden kann. Nach Corona ist nicht ausgeschlossen, dass wir von noch gefährlicheren Pandemien heimgesucht werden. Für die Zukunft wäre daher wünschenswert, wenn mit lernender KI mögliche Veränderungen von Viren vorher simuliert werden könnten, um damit einen Toolkasten zur schnellen Zusammenstellung von Impfstoffen zu entwickeln – quasi mit auf Vorrat produzierten KI-Algorithmen.

Um Vertrauen in KI-Tools zu fördern, müssen sie wie alle technischen Werkzeuge zertifiziert sein. An solchen „DIN-Normen“ arbeiten wir in einer Steuerungsgruppe für eine KI-Roadmap im Auftrag der Bundesregierung. Am Ende soll KI eine Dienstleitung für uns Menschen sein. Daher benötigen wir auch eine Stärkung der menschlichen Urteilskraft und Wertorientierung, damit uns Algorithmen und Big Data nicht aus dem Ruder laufen.

In der jüngsten Vergangenheit illustrieren dramatische Unfälle die Gefahren von Softwarefehlern und Systemversagen bei sicherheitskritischen Systemen. Programmfehler und Systemversagen können zu Katastrophen führen: In der Medizin verursachten 1985-87 massive Überdosierungen durch die Software eines Bestrahlungsgeräts teilweise den Tod von Patienten. 1996 sorgte die Explosion der Rakete Ariane 5 aufgrund eines Softwarefehlers für Aufsehen. Jüngstes Beispiel sind Softwarefehler und Systemversagen von Boing 737 max. Nun gehören Verifikationsprüfungen traditionell zum festen Bestanteil einer Programmentwicklung im Software Engineering. Nach Feststellung der Anforderungen, dem Design und der Implementation eines Computerprogramms erfolgt in der Regel seine Verifikation und schließlich für die Dauer seiner Anwendung eine vorausschauende Wartung, um vor dem Ausfall z.B. eines Maschinenteils durch Verschleiß Ersatz und Reparatur einzuleiten.

Ein Computerprogramm heißt korrekt bzw. zertifiziert, falls verifiziert werden kann, dass es einer gegebenen Spezifikation folgt. Praktisch angewendet werden Verifikationsverfahren mit unterschiedlichen Graden der Genauigkeit und damit der Verlässlichkeit (Tretmans, Brinksma,  2003). Aus Zeit-, Aufwands- und Kostengründen begnügen sich viele Anwender allerdings nur mit Stichprobentests. Im Idealfall müsste ein Computerprogramm aber so sicher sein wie ein mathematischer Beweis. Dazu wurden Beweisprogramme („Beweisassistenten“) entwickelt, mit denen ein Computerprogramm automatisch oder interaktiv mit einem Nutzer auf Korrektheit überprüft wird.

Die Idee stammt ursprünglich aus der mathematischen Beweistheorie des frühen 20. Jahrhunderts, als bedeutende Logiker und Mathematiker wie David Hilbert, Kurt Gödel und Gerhard Gentzen mathematische Theorien formalisierten, um dann z.B. die Korrektheit, Vollständigkeit oder Widerspruchsfreiheit dieser Formalismen (und damit der betreffenden mathematischen Theorien) zu beweisen. Die Formalismen sind nun Computerprogramme. Ihre Korrektheitsbeweise müssen selbst konstruktiv sein, um jeden Zweifel ihrer Sicherheit auszuschließen. Sowohl an der LMU als auch an der TU München werden Beweisassistenten untersucht (Mainzer, Schuster, Schwichtenberg 2018). Persönlich arbeite ich gerne mit dem französischen Beweisassistenten Coq, der u.a. auf den französischen Logiker und Mathematiker Thierry Coquand zurückgeht und im Namen an das französische Wappentier des Hahns erinnert (Coquand, Huet 1988; Coupet-Grimal,  Jakubiec 1996).

 Hier zeigt sich sehr klar, wie aktuelle Fragen der Sicherheit moderner Software und KI in Grundlagenfragen der Logik und Philosophie verwurzelt sind. Derzeit beschäftige ich mich mit der Frage, wie das moderne maschinelle Lernen durch solche Beweisassistenten kontrolliert werden kann (Mainzer, Schuster, Schwichtenberg 2021). Am Ende geht es um die Herausforderung, ob und wie man KI-Programme zertifizieren kann, bevor man sie auf die Menschheit loslässt. Statistisches Lernen, wie es heute praktiziert wird, funktioniert zwar häufig in der Praxis, aber die kausalen Abläufe bleiben oft unverstanden und eine Black Box. Statistisches Testen und Probieren reicht für sicherheitskritische Systeme nicht aus. Daher plädiere ich in der Zukunft für eine Kombination von kausalem Lernen mit zertifizierten KI-Programmen durch Beweisassistenten, auch wenn das für Praktiker aufwendig und ambitioniert erscheinen mag. 

5.2  Technikgestaltung und Verantwortung

KI-Programme treten mittlerweile aber nicht nur in einzelnen Robotern und Computern auf. So steuern bereits lernfähige Algorithmen die Prozesse einer vernetzten Welt mit exponentiell wachsender Rechenkapazität. Ohne sie wäre die Datenflut im Internet nicht zu bewältigen, die durch Milliarden von Sensoren und vernetzten Geräten erzeugt wird. Aufgrund der Sensoren kommunizieren nun also auch Dinge miteinander und nicht nur Menschen. Daher sprechen wir vom Internet der Dinge (Internet of Things: IoT).

In der Medizin und im Gesundheitssystem sind großen Klinikzentren Beispiele solcher komplexen Infrastrukturen, deren Koordination von Patienten, Ärzten, medizinischem Personal, technischen Geräten, Robotik und anderen Dienstleistern ohne IT- und KI-Unterstützung nicht mehr steuerbar wäre.

Die sicherheitskritischen Herausforderungen, die wir eben erörtert haben, werden sich in solchen Infrastrukturen noch einmal potenzieren. Darüber hinaus stellt sich aber die Frage nach der Rolle des Menschen in einer mehr oder weniger automatisierten Welt. Ich plädiere daher für Technikgestaltung, die über Technologiefolgenabschätzung hinausgeht. Die traditionelle Sicht, die Entwickler einfach werkeln zu lassen und am Ende die Folgen ihrer Ergebnisse zu bewerten, reicht aus Erfahrung nicht aus. Am Ende kann das Kind in den Brunnen gefallen sein und es ist zu spät. Nun lässt sich zwar Innovation nicht planen. Wir können aber Anreize für gewünschte Ergebnisse setzen. Ethik wäre dann nicht Innovationsbremse, sondern Anreiz zu gewünschter Innovation. Eine solche ethische, rechtliche, soziale und ökologische Roadmap der Technikgestaltung für KI-Systeme würde der Grundidee der sozialen Marktwirtschaft entsprechen, nach der ein Gestaltungsspielraum für Wettbewerb und Innovation gesetzt wird. Maßstab bleibt die Würde des einzelnen Menschen, wie sie im Grundgesetz der Verfassung als oberstes Axiom der parlamentarischen Demokratie festgelegt ist.

Diese ethische Positionierung im weltweiten Wettbewerb der KI-Technologie ist keineswegs selbstverständlich. Für die globalen IT- und KI-Konzerne des Silicon Valley geht es am Ende um ein erfolgreiches Geschäftsmodell, auch wenn sie IT-Infrastrukturen in weniger entwickelten Ländern unter von ihnen vorgegeben Geschäftsbedingungen fördern. Der andere globale Wettbewerber heißt aber China, der einen Staatsmonopolismus im Projekt der Seidenstraße strikt befolgt. Das chinesische Projekt des Social Core ist eng mit dem ehrgeizigen Ziel verbunden, die schnellsten Superrechner und leistungsfähigsten KI-Programme der Welt zu produzieren. Nur so lässt sich der Social Core mit der totalen Datenerfassung aller Bürgerinnen und Bürger und ihrer zentralen Bewertung realisieren. Die totale staatliche Kontrolle privater Daten mag westliche Beobachter schockieren, wird aber in weiten Bevölkerungskreisen Chinas akzeptiert. Dazu gehört der direkte Zugriff auf alle möglichen medizinischen Daten für die medizinische Forschung. Hinzu kommt eine andere Wertetradition, die über Jahrhunderte in China eingeübt wurde: In konfuzianischen Traditionen dieses Landes ist der oberste Wertmaßstab eine kollektive Harmonie und Sicherheit und nicht die Autonomie des Einzelnen mit einklagbaren Freiheitsrechten.   

Die Proklamation individueller Menschenrechte wurzelt tief in der philosophischen Tradition europäischer Demokratien. Wir brauchen zwar zertifizierte KI-Algorithmen als verlässliche Dienstleistung zur Bewältigung zivilisatorischer Komplexität. Entscheidend ist daher aber auch eine Stärkung der menschlichen Urteilskraft und Wertorientierung, damit uns Algorithmen und Big Data nicht aus dem Ruder laufen. Im weltweiten Wettbewerb der KI-Systeme sollten wir unsere Lebenswelt nach unseren Wertmaßstäben selbst gestalten können.

5.3   Autonomie in Philosophie, Recht und Gesellschaft

In der Philosophie wird spätestens seit Kant, Autonomie als fundamentales Alleinstellungsmerkmal des Menschen als vernunftbegabtes Wesen herausgestellt. Autonomie bedeutet danach die Fähigkeit zur Selbstgesetzgebung. Danach vermag der Mensch nicht nur Gesetzen zu folgen, sondern sie sich selbst allgemeinverbindlich zu geben, wie es im kategorischen Imperativ zum Ausdruck kommt. In der parlamentarischen Gesetzgebung wird diese Selbstautonomie politisch umgesetzt. In Gerichtsverfahren ist Autonomie eine Rechtsfigur, die freien Willen unterstellt, um Verantwortung für z.B. eine Straftat feststellen zu können.

Juristisch handelt es sich dabei um eine idealtypische Fiktion, die nicht einen naturwissenschaftlichen Beweis des „freien Willens“ voraussetzt. Faktisch ist menschliches Entscheiden und Handeln von verschiedenen genetischen, physiologischen, entwicklungspsychologischen, sozialen, emotionalen etc. Einflüssen abhängig, also nie vollkommen „autonom“. Daher sind auch menschliche Handlungen und Entscheidungen nach Graden der Autonomie zu bemessen. Im Recht werden allerdings nur einige dieser Faktoren wie z.B. emotionaler Affekt oder messbarer Alkoholpegel als Einschränkung der Autonomie (z.B. bei der Strafzumessung) anerkannt. Es kann nicht ausgeschlossen werden, dass in Zukunft aufgrund besserer Nachweise oder veränderter gesellschaftlicher Einschätzung auch andere Faktoren stärkere Berücksichtigung finden.

Was die KI betrifft, so sind heute bereits KI-Systeme zu begrenzter Selbstautonomie fähig, in dem sie lernen und sich auf dieser Grundlage für begrenzte Aufgaben selbst neu programmieren, also sich selbst Gesetze des Handelns geben können. Es wird daher in Zukunft nicht um die erkenntnistheoretische Frage gehen, ob KI-Systeme prinzipiell nie zur Selbstautonomie fähig wären. Man könnte einwenden, dass vollkommene Autonomie selbst für Menschen eine Fiktion ist. Vielmehr wird es um die ethische und rechtliche Frage gehen, bis zu welchem Grad wir die technische Entwicklung autonomer Systeme zulassen wollen.

Dieser Artikel ist eine erweiterte Fassung eines Vortrags an der Technischen Hochschule Deggendorf von 2022

Literaturverzeichnis:

acatech (Hrsg.): Cyber-Physical Systems. Innovationsmotor für Mobilität, Gesundheit, Energie und Produktion, Berlin 2011.

Brooks, Rodney A.: Menschmaschinen. Frankfurt 2005.

ChatGPT: The ultimate tool for natural language processing and text generation ((https://dev.to/abbhiishek/chatgpt-the-ultimate-tool-for-natural-language-processing-and-text-generation-40ag , abgerufen 26. Dezember 2022)

Coquand, T.; Huet, G.: The calculus of constructions, in: Information and Computation 1988 76(2–3), 95–120.

Coupet-Grimal, S.; Jakubiec, L.: Coq and Hardware Verification: a Case Study (TPHOLs 1996, LCNS 1125, 125-139).

Hornik, Kurt / Stinchcombe, Maxwell / White, Halbert: Multilayer feedforward networks are universal approximators neural networks, in: Neural Networks 2 1989, 359-366.

Hume, David: Eine Untersuchung über den menschlichen Verstand, übersetzt von R. Richter, hrsg. von J. Kulenkampff. 12. Aufl., Hamburg 1993.

Kant, Immanuel: Werke, Hrsg. Bd. 1-22 Preussische Akademie der Wissenschaften, Bd. 23 Deutsche Akademie der Wissenschaften zu Berlin, ab Bd. 24 Akademie der Wissenschaften zu Göttingen, Berlin 1900ff., AA III, 93– KrV B 106.

Knight, Will: The dark secret at the heart of AI, in: MIT Technology Review. April 11 2017, 1-22.

Lee, Edward A.: Cyber-physical systems: Design challenges, in: University of California, Berkeley Technical Report No. UCB/EECS-2008-8.

Mainzer, Klaus: Knowledge-based systems. Remarks on the philosophy of technology and artificial intelligence, in: Journal for General Philosophy of Science 21 1990, 47-74.

Mainzer, Klaus: From embodied mind to embodied robotics: Humanities and system theoretical aspects, in: Journal of Physiology (Paris) 103 2009, 296-304.

Mainzer, Klaus: Künstliche Intelligenz. Wann übernehmen die Maschinen? Berlin 2. Aufl. 2019.

Mainzer, Klaus: Statistisches und kausales Lernen im Machine Learning, in: Philosophisches Handbuch der künstlichen Intelligenz (Hrsg. Klaus Mainzer). Berlin 2020a.

Mainzer, Klaus: Leben als Maschine: Wie entschlüsseln wir den Corona-Code? Von der Systembiologie und Bioinformatik zur Robotik und Künstlichen Intelligenz. Paderborn.2.Aufl. 2020b.

Mainzer, Klaus; Kahle, Reinhard: Grenzen der KI – theoretisch, praktisch, ethisch, Berlin 2022.

Mainzer, Klaus; Schuster, Peter; Schwichtenberg, Helmut (Hrsg.): Proof and Computation. Digitalization in Mathematics, Computer Science, and Philosophy, World Scientific Singapore 2018.

Mainzer, Klaus; Schuster, Peter; Schwichtenberg, Helmut (Hrsg.): Proof and Computation. From Proof Theory and Univalent Mathematics to Program Extraction and Verification, World Scientific Singapore 2021.

Marcus, Gary: The Algebraic Mind: Integrating Connectionism and Cognitive Science. Cambridge (Mass.) 2003.

Mataric, Maja J. / Sukhatme, Gaurav S. / Ostergaard, Esben Hallundbaek: Multi-robot task allocation in uncertain environments, in: Autonomous Robots 14 (2-3) 2003, 253-261.

Newell, A./ Simon, Herbert Allen: Human Problem Solving. Englewood Cliffs NJ 1972.

Pearl, Judea: Causality: Models, Reasoning, and Inference. Cambridge (Mass.) 2009.

Pfeifer, Rolf/ Scheier, Christian: Understanding Intelligence. Cambridge (Mass.) 2001.

Puppe, Frank.: Einführung in Expertensysteme. Berlin 1988.

Tretmans, J.; Brinksma, E.: TorX: Automated model-based testing, in: A. Hartman and K. Dussa-Zieger (Eds.), Proceedings of the First European Conference on Model-Driven Software Engineering 2003

Valera, Francisco J. / Thompson, Evan / Rosch, Eleanor: The Embodied Mind. Cognitive Science and Human Experience. Cambridge (Mass.) 1991.

Vapnik, Vladimir N.: Statistical Learning Theory. New York 1998.

Wilson, Edward O.: Sociobiology. The New Synthesis. 25th Anniversary Edition. Cambridge (Mass.) 2000.


Der Text dieses Beitrags steht – soweit nicht anders gekennzeichnet – unter der Lizenz Creative Commons Namensnennung Weitergabe unter gleichen Bedingungen 4.0 International (CC BY-SA 4.0). Details zur Lizenz finden Sie unter https://creativecommons.org/licenses/by-sa/4.0/legalcode

Prof. Dr. Klaus Mainzer

Klaus Mainzer war nach einem Studium der Mathematik, Physik und Philosophie, Promotion und Habilitation in Münster Heisenbergstipendiat; Professor für Grundlagen der exakten Wissenschaften, Dekan und Prorektor der Universität Konstanz; Lehrstuhlinhaber für Philosophie und Wissenschaftstheorie, Direktor des Instituts für Philosophie und Gründungsdirektor des Instituts für Interdisziplinäre Informatik an der Universität Augsburg; Lehrstuhlinhaber für Philosophie und Wissenschaftstheorie, Direktor der Carl von Linde-Akademie und Gründungsdirektor des Munich Center for Technology in Society (MCTS) an der Technischen Universität München. Er ist u.a. Mitglied der Academy of Europe (Academia Europaea), der Europäischen Akademie der Wissenschaften und Künste (seit 2020 deren Präsident) und der Deutschen Akademie der Technikwissenschaften (acatech) (seit 2018 deren Sprecher des Themennetzwerks „Grundfragen“), Gastprofessor und Autor zahlreicher Bücher mit internationalen Übersetzungen. Seit 2016 lehrt er an der TUM Senior Excellence Faculty der Technischen Universität München, seit 2019 als Seniorprofessor am Carl Friedrich von Weizsäcker Center der Eberhard Karls Universität Tübingen. Seine Forschungsschwerpunkte sind Grundlagenforschung, Komplexitäts- und Berechenbarkeitstheorie, Grundlagen der Künstlichen Intelligenz, Wissenschafts- und Technikphilosophie, Zukunftsfragen der technisch-wissenschaftlichen Welt.