Weder Corona noch Klima noch Digitalisierung werden wir verantwortlich gestalten können, wenn wir individuelles Handeln oder kollektive Entscheidungen in Gesellschaft, Politik und Wirtschaft ausschließlich am Eigennutz orientieren und den Blick auf Andere oder bindende Verhaltensstandards abblenden. Die Einsicht, dass mit dem an Gewinnstreben ausgerichteten homo oeconomicus – der Chicagoer Schule zum Trotz – kein Staat, keine Familie, keine Freundschaft zu machen ist, hat sich rumgesprochen. Dennoch hält sich hartnäckig das Gerücht, dass das Nachdenken über moralische Verantwortung wirtschaftlichen Handelns und Entscheidens bestenfalls drei Ziele verfolgen könne: Werbestrategie (‚ethics washing‘), Ablenkung von Problemen, Zeitvertreib für überflüssige Mitarbeiter*innen – aber kaum könne es zu den eigentlichen betriebswirtschaftlichen Zielen, wie Gewinnsteigerung und Bestehen im Wettbewerb, beitragen. Keiner hat diese tief verwurzelte Skepsis so spöttisch auf den Punkt gebracht wie der geniale Sozialtheoretiker Niklas Luhmann, wenn er sinngemäß meint: Es gäbe Dinge, die nur in der Form eines Geheimnisses aufträten, um zu verdecken, dass es sie nicht gäbe, wie etwa die englische Küche oder eben: Wirtschaftsethik.

Offensichtlich ist die Zeit – zumindest in diesen Einschätzungen – über Luhmann hinweg gegangen. Nicht nur erfreuen zumindest manche Ergebnisse englischer Kochkunst selbst Gourmets außerhalb der Insel. Und die Wirtschaftsethik hat sich nicht nur als akademische Disziplin wenigstens einige Lehrstühle erobern können. Sondern vor allem haben wirtschaftsethische Ansätze wie Corporate Social Responsibility oder Corporate Citizenship und neuerdings das Modell der Purpose Economy Eingang in Unternehmensphilosophien gefunden. Augenscheinlich wollen sich Unternehmenspersönlichkeiten wie Konzerne nicht vorschreiben lassen, dass moralische Überzeugungen und Werte wie eben Nachhaltigkeit oder Gemeinwohlorientierung nur eine betriebswirtschaftliche Fata Morgana bildeten. Vielmehr glauben sie, dass Erfolg und Ethik kein Gegensatz bilden müssen, ja dass bestimmte moralische Standards erfolgversprechende Geschäftspraktiken sogar begrenzen sollen.

Corporate Digital Responsibility, das scheinbar nächste buzzword der Unternehmenskulturbranche, geht jedoch nicht in Versuchen, moralische und ethische Standards in die DNA der Geschäftswelt zu verankern, auf. Ich würde so weit gehen und die These aufstellen, dass eine menschen- und gesellschaftsförderliche Weiterentwicklung der Digitalisierung – was so viel heißt wie: der Gesellschaft, denn die ist eine digitalisierte – nicht ohne erhebliche Anstrengungen von CDR-Ansätzen auskommt. Das klingt auf den ersten Blick hochtrabend, ist aber bei näherem Hinsehen viel nüchterner, als es scheint.

Indem ich den Blick auf CDR und nicht nur auf die schier unendlichen Listen von Prinzipien, Kriterien und Werten der blühenden AI-Ethics (unter denen zu Recht die Explicability eine herausgehobene Stellung besitzt) lenke, möchte ich auf einen leicht und bisweilen auch zu gern übersehenen Punkt aufmerksam machen: Digitalisierung wird – das mag beunruhigen, ist aber so – wesentlich von Unternehmen voran getrieben, von großen Plattformanbietern bis hin zu Garagenklitschen, von denen sich viele gerne mit dem subversiven Start-Up-Hauch umgeben. Am Orte der Unternehmen müssen die hehren Prinzipien in die alltägliche und das heißt auch von Wettbewerb geprägte Praxis umgesetzt werden. Gelingt dies nicht, bleiben die frommen Werte (was immer das heißt – Werte sind als ethisches Konzept höchst umstritten, weil der Begriff Preis und damit Käuflichkeit konnotiert; aber das mag eine fachethische Spezialdiskussion sein) nicht mehr als Schall und Rauch auf schönen Hochglanzseiten. Das kostet vergleichsweise wenig und hat den AI-Ethics-Kodizes, und selbst allen, die sich um AI-Ethics bemühen, schnell den Vorwurf eingebracht, hier solle nur Legitimationsschmierstoff für eine ungeregelte Technik wie ein enthemmtes Geschäftsgebaren bereitgestellt werden.

In den letzten Jahren, seit sich unser aller Realität um die Ökonomie von Social Media, Big Data, Machine Learning, AI und demnächst vielleicht Quantencomputing dreht, ist zu viel passiert und zu wenig verantwortlich geregelt (was nicht heißt: reguliert) worden, als dass mit ein paar Werbebotschaften Vertrauen geschaffen, gewonnen oder wiedergewonnen werden kann.

Stattdessen schlagen CDR-Konzeptionen eine andere Richtung ein. Den Übergang von Prinzipien der AI-Ethics (im Zentrum oft: Autonomierespekt, Schadensvermeidung, Gerechtigkeit und Erklär- und Verstehbarkeit) zur Praxis von CDR lässt sich gut unter das Kästner’schen Motto: „Es gibt nichts Gutes, außer man tut es “ fassen – oder biblisch ausgedrückt: „An ihren Früchten sollt ihr sie erkennen.“ (Mt 7,16) CDR-Konzeptionen setzen dabei prozedural oftmals auf Ethics in/by Design-Ansätze. Doch nicht nur aus Gründen einer Smart Leadership oder resilienten Unternehmenskultur der Mitarbeiter*innenbeteiligung werden Ethics in/by-Design-Prozesse implementiert, sondern sie sollen auch helfen, in allen KI-basierten oder algorithmisch gelenkten Anwendungen, die unvermeidlichen kulturellen Biases mit ihren gefährlichen Diskriminierungspotentialen aufzudecken und möglichst zu vermeiden. Verpflichten sich – im besten Fall sogar mit Selbstsanktionierung – Unternehmen oder Organisationen, solche CDR-Aktivitäten öffentlich zu machen, erhalten zudem Geschäftspartner*innen, Kund*innen oder zivilgesellschaftliche Akteur*innen niedrigschwellig und bspw. über eine Ombudsperson zügig, verlässlich erreichbar und dokumentiert die Möglichkeit zu Einsicht, ggf. Adjustierung und Revision von oft in Black Boxes verschwundenen digitalen Entscheidungen oder Prädiktionen, dann bleibt CDR nicht nur Window-Dressing. CDR wäre gelebtes Commitment.

Was spricht ethisch, politisch, aber auch ökonomisch dafür, solche CDR-Selbstverpflichtungen einzuführen? Vorrangig geht es um Vertrauen, und darum grundlegende Rechte freiheitlicher Gesellschaften, wie den aus der Menschenwürde abgeleiteten Grundsatz der Entfaltung der eigenen Persönlichkeit einschließlich des Rechts auf informationelle Freiheitsbestimmung auch unter Big Data- und KI-Bedingungen zu garantieren. Firmen und Organisationen, die gegenüber Kund*innen, Klient*innen, Patient*innen, die immer auch Bürger*innen sind, kein Interesse an Vertrauensbildung zeigen, sondern sie nur gewinnmaximierend ‚ausnehmen‘ wollen, begeben sich auf dünnes Eis. Denn für komparative Wettbewerbsvorteile benötigt man unter KI- und Big Data-Bedingungen noch immer möglichst vielen Daten – und das setzt zumindest langfristig Vertrauensbildung gegenüber den Datensubjekten voraus. Selbst die größten Konzerne sind – trotz ihrer derzeit marktbeherrschenden Stellung – im Falle von Ertragskrisen oder politischer Einflussnahme (vgl. bspw. TikTok) keine Selbstläufer. Wer sich also nicht aufgrund von Einsicht in die moralische Richtigkeit dazu gedrängt sieht, Vertrauen durch belastbare und nachvollziehbare Verfahren oder erreichbare Organisationseinheiten zu schaffen, sollte wenigstens aufgrund nüchterner Risikokalkulation darüber nachdenken.

Für die Entwicklung einer smarten CDR-Strategie sollte man aber auch klug die gegenwärtige Debattenlage beobachten. Gegenwärtig werden vermeintlich attraktive Rubrizierungsmodelle angepriesen, um die Eingriffstiefe digitaler Anwendungen mit Kritikalitätspyramiden, -ampeln, oder -skalen zu bewerten. Oft erfassen diese aber nicht die problematischen De- und Rekontextualisierungen von Daten und Informationen. Sie können zudem den vielfachen Möglichkeiten der Datenverarbeitung wie bspw., mehrere in sich unproblematisch erscheinende Datensätze übereinanderzulegen, die im Gesamtbild zu möglicherweise diskriminierenden Schlussfolgerungen kommen, kaum Einhalt gebieten.

Deswegen hängt meiner Auffassung nach die Glaubwürdigkeit von künftigen CDR-Modellen an ihrer Output-Orientierung, das heißt: effektiv und schnell, dem Datensubjekt die Souveränität und Kontrollierbarkeit über seine verarbeiteten Datensätze zu sichern. Umsetzbare Ansätze wie ein Recht auf die Zusicherung sinnvoller Datenverwendungen, die Offenlegung der leitenden Kriterien des Algorithmus und ihrer Gewichtung oder ein Recht auf Erklärung, wann ein besseres Ergebnis für die von einer digitalen Anwendung Betroffenen erreicht werden würde, sind nicht unstrittig, könnten aber kreative CDR-Strategien zu mehr Datensouveränität inspirieren. Der Deutsche Ethikrat hat schon 2017 nicht nur konzeptionelle Überlegungen angestellt, sondern ganz praktische Umsetzungsmöglichkeiten wie bspw. die Etablierung von Datentreuhändern vorgeschlagen, um die Datensouveränität zu stärken. Die Datenethikkommission der Bundesregierung hat 2019 unter ihren vielen Vorschlägen ebenfalls ähnliche Konzepte wie Privacy Management Tools (PMT) und Personal Information Management Systems (PIMS) in Erwägung gezogen.

Ein europäisch-verantwortlicher Umgang mit Daten wird jenseits des amerikanisch-libertären oder des chinesisch-staatskapitalistischen Marktmodells nur dann eine Zukunft haben, wenn Datensubjekte als Co-Manager ihrer Daten anerkannt und gewürdigt werden. Darauf müssen europäische CDR-Konzepte zielen. Mit diesem Kompass können Firmen und Organisationen unter globalem Wettbewerbsdruck einen USP von Verantwortung und good governance setzen. Es wird sich – davon bin ich überzeugt – auch rechnen.

 

 

 

Prof. Dr. Peter Dabrock hat die Professur für Systematische Theologie (Ethik) am Fachbereich Theologie der Friedrich-Alexander-Universität Erlangen-Nürnberg inne und war von 2016 bis 2020 Vorsitzender des Deutschen Ethikrates.

(Foto: R. Zensen, Deutscher Ethikrat)

 

 

 

 

Der Text dieses Beitrags steht – soweit nicht anders gekennzeichnet – unter der Lizenz Creative Commons Namensnennung Weitergabe unter gleichen Bedingungen 4.0 International (CC BY-SA 4.0). Details zur Lizenz finden Sie unter https://creativecommons.org/licenses/by-sa/4.0/legalcode