Dr. Sarah J. Becker vom Institute for Digital Transformation in Healthcare, einem Aninstitut der Universität Witten/Herdecke, hat gemeinsam mit einem Forscherteam europaweite Leitlinien zur digitalen Ethik verglichen. Im Interview erläutert Sarah J. Becker zunächst das zugrundeliegende Verständnis von Corporate Digital Responsibility (CDR) sowie die Bedeutung des Themas in der Healthcare Branche, bevor sie auf das Studiendesign, Erkenntnisse und Handlungsempfehlungen auf Basis der durchgeführten Untersuchung eingeht.

 

Interview mit Dr. Sarah J. Becker zu Corporate Digital Responsibility und der durchgeführten Studie zu Leitlinien von Digitaler Ethik:

Welches Verständnis von CDR unterliegt der Arbeit des Institute for Digital Transformation in Healthcare?

Ich freue mich über diese erste Frage. Denn sie macht klar wo wir aktuell stehen. Wir greifen heute weder auf ein einheitliches Verständnis von Corporate Digital Responsibility zurück, noch haben wir einen (rechts-)verbindlichen Rahmen, wie wir das beispielsweise im Bereich der guten und verantwortungsvollen Unternehmensführung mit dem Corporate Governance Kodex 2002 unter Regie der Cromme-Kommission etabliert haben.

Gleichwohl nimmt Corporate Digital Responsibility aber mittlerweile einen festen Platz in den Diskussionen rund um den digitalen Wandel ein. Welche Verantwortung haben Unternehmen, wenn sie Algorithmen zur Vorauswahl von Bewerberinnen und Bewerbern verwenden? Wie kann ein datenbasiertes Geschäftsmodell aussehen, das die Privatsphäre der Nutzerinnen und Nutzern respektiert? Ist es vertretbar, den Kundendienst in Zukunft ausschließlich über Chatbots abzuwickeln?

Wir sehen es so: Aktuell gibt es auf der einen Seite den Diskurs theoretischer und normativer Überlegung zum ‘richtigen’ Umgang mit Daten und Algorithmen. Hier sprechen wir von “digitaler Ethik”, die sich zum einen in Leitlinien ausdrückt und darüber hinaus in wissenschaftlichen Papern diskutiert wird. Auf der anderen Seite steht die praktische Verortung dieser digital-ethischen Überlegungen im Unternehmenskontext – der “Corporate Digital Responsibility”. Das sind Fragen der Verantwortung, mit denen sich Unternehmen im Rahmen des digitalen Wandels konfrontiert sehen.

Für uns ist diese Trennung zwischen den Diskursen um “digitale Ethik” und der “Corporate Digital Responsibility” nur theoretischer Natur. Wir nehmen als Institut eine holistische Perspektive ein. Es ist noch zu früh, einzelne Bewegungen aus den Augen zu lassen. Darüber hinaus gibt es Diskurse in etablierten Bereichen, die gewissermaßen eine Renaissance erleben. Hierzu gehört auch die Bioethik.

 

Sie sagten einerseits, dass es noch kein einheitliches Verständnis gibt, der Diskurs aber dennoch zunimmt. Warum ist es so schwer dieses übergreifende Verständnis zu etablieren?

Die aufkommenden Fragen sind vielfältig und sicher nicht trivial in ihrer Beantwortung. Fest steht aber: Wir können heute nicht mehr Fragen nach der Digitalisierung stellen, ohne auch Fragen der digitalen Verantwortung zu berücksichtigen. Das konnten wir zuletzt in der Entwicklung der Corona-Warn-App durch Telekom und SAP beobachten. Es gab eine breite gesellschaftliche Diskussion, die weit über Fragen des Datenschutzes hinausging.

Im letzten Jahr war das noch anders. Da haben wir den ersten Summit zu CDR bei uns an der Universität Witten/Herdecke gemeinsam mit PwC ausgerichtet. Dort mussten wir noch viel mehr “Aufklärungsarbeit” leisten, warum das Thema wichtig ist, wo es im Unternehmen Anschluss findet, für wen das eigentlich relevant ist und dass es nicht nur darum geht, dass in einer intellektuellen Blase losgelöst von der digitalen Wertschöpfung der deutschen Industrie diskutiert wird. Heute sind wir da viel weiter. Das ist gut. Und ich meine zu erkennen, dass angekommen ist, dass Ethik weder Hemmschuh noch Blo­ckie­rer von Innovation ist.

Im Gegenteil, in einer gelebten Corporate Digital Responsibility gehört digitale Ethik neben der Technologiekompetenz zur Grundlage von Innovationen und bestimmt den ökonomischen Unternehmenserfolg. Bis das überall gelebt wird, ist es noch ein weiter Weg, den aber immer mehr Player auch aus der Wirtschaft nun mitgehen wollen. Hier setzten wir ja auch mit unserer Studie an.

 

Warum untersucht das Institute for Digital Transformation in Healthcare das Thema „Corporate Digital Responsibility“?

Healthcare ist in diesem Zusammenhang ein bisschen wie New York: “If you make it there, you can make it anywhere”. Wir haben uns bei hypersensitiven Gesundheitsdaten – und damit sind nicht nur die medizinischen Daten im engen Sinne gemeint, sondern Daten, die einen Menschen Zeitlebens umgeben – schon früh mit den Fragen der Verantwortung, der Datensouveränität und auch dem Potential der digitalen Wertschöpfung auseinandersetzen müssen. In der Medizin ist traditionell alles sehr viel strikter und regulierter als in anderen Branchen.

Dies liegt sicherlich an ihrer besonderen Stellung, denn die Medizin stellt seit jeher den Menschen in den Mittelpunkt. Das mag abgedroschen klingen, aber Fakt ist, dass Fragen nach Gesundheit und Krankheit uns alle vereinen. Und in der Medizin spielten auch schon immer ethische Konflikte eine große Rolle. So ist etwa bei einer unheilbaren Krebserkrankung im fortgeschrittenen Stadium zu fragen, ob eine weitere Chemotherapie dem Patienten nicht eher schadet, als nützt und damit unterlassen werden sollte. Schon sehr früh hat man daher versucht, einen Orientierungsrahmen für ärztliches Handeln zu schaffen. Der hippokratische Eid aus dem 4. Jahrhundert v. Chr. ist gewissermaßen eine erste Antwort darauf, wie sich Ärztinnen und Ärzte verhalten sollten. Doch da sich die Medizin seit damals natürlich rasant weiterentwickelt hat und wesentlich komplexer geworden ist, kommt man mit eben diesem hippokratischen Eid in der modernen Medizin nicht mehr weit.

Seit Ende der 1970er Jahre vertraut man daher auf die vier Prinzipien der Bioethik, die aus dem Belmont Report entstanden sind und die sich heute in der medizinischen Praxis etabliert haben. Sie dienen als angewandte Ethik einem bestimmten Zweck: Die Auswirkungen von medizinischen Handlungen auf den Menschen anhand der Prinzipien “autonomy”, “non-maleficence”, “beneficence” und “justice” abzuwägen und darauf aufbauend eine Entscheidung zu treffen. Ob die Entscheidung richtig oder falsch ist, spielt eine untergeordnete Rolle. Wichtig ist, dass es einen Orientierungsrahmen gibt, der überhaupt eine Entscheidung ermöglicht.

Aber warum erzähle ich das alles? Nun, weil es sich in der digitalen Ethik genauso verhält. Wenn wir sagen, dass wir Verantwortung in der Digitalisierung übernehmen und somit den Menschen bei allem technologischen Fortschritt berücksichtigen wollen, dann brauchen wir Prinzipien angewandter Ethik, mit denen wir zu Entscheidungen kommen können. Und hier sehen wir, dass sich die bioethischen Prinzipien auf die digitale Welt übertragen lassen. Das Spannende ist, dass die zugrundeliegenden Werte “autonomy, nonmaleficence, beneficence und justice” in nahezu allen der aktuell publizierten digital-ethischen Leitlinien zu finden sind – wenn auch in der Regel ohne Bezug zur Bioethik. Das hat uns bestätigt.

Healthcare und Ethik gehören also, wenn wir so wollen, von jeher zusammen. Wenn jetzt in Diagnostik, Behandlung, Therapie und auch der Forschung exponentielle Technologien zum Einsatz kommen, deren Wertschöpfung auf Daten beruht, sehen wir uns hier mit dem gleichen Paradigmenwechsel konfrontiert, wie in anderen Branchen. Industrien, die auch zum Teil schon viel weiter in der Digitalisierung ihres Kerngeschäfts und dem Aufbau datengetriebener Geschäftsmodellen sind, haben aber eben noch keine etablierten Mechanismen ethischer Entscheidungsfindung.

Es ist natürlich nicht trivial, die bioethischen Prinzipien ins Digitale zu übertragen, aber der bioethische Mechanismus aus Abwägen und Entscheiden ist ohne Frage sehr anschlussfähig für Managerinnen und Manager. Beim Thema digitale Ethik könnte Healthcare daher genau der Zugang sein, der bisher gefehlt hat und von dem andere Branchen lernen können. Dazu möchten wir einen Beitrag leisten.

 

Mit welcher Zielsetzung wurde die Studie durchgeführt?

Ganz trivial: Wir hatten Fragen über Fragen und wollten Antworten finden. Anfangs haben wir jede neue Leitlinie mit Spannung verfolgt und gelesen. Doch je mehr wir gelesen haben, umso mehr Fragen kamen hinzu. Und dann gab es auf algorithm.watch eine wachsende Übersicht über Leitlinien zu künstlicher Intelligenz. Da wollten wir genau wissen: Wo stehen wir eigentlich? Wo sind die Gemeinsamkeiten? Auf welchen Werten bauen wir auf? Und vor allem: Inwiefern helfen uns Leitlinien, um darauf CDR-Maßnahmen aufzubauen, die Unternehmen zur Orientierung dienen können. Denn letztlich wollen wir ja, dass Unternehmen in die Lage versetzt werden, Verantwortung im digitalen Wandel nicht nur zu predigen, sondern auch umzusetzen.

 

Wie wurde Corporate Digital Responsibility in der Studie untersucht?

Wir haben einen Researchteam aufgesetzt und ein qualitatives Studiensetting geschaffen. In diesem haben wir dann alle öffentlich zugänglichen digital-ethischen Leitlinien aus Europa miteinander verglichen. Aus unserer anfänglichen Neugier wurde also eine strukturierte Studie. Die Basis unserer Untersuchung bilden 42 Dokumente, die von einer Vielzahl an Herausgebern veröffentlicht wurden.

Darunter befinden sich zum Beispiel die Unternehmen SAP und Deutsche Telekom, aber auch zahlreiche Non-Profit-Organisationen wie die Bertelsmann Stiftung oder das britische Open Data Institute sowie politische Akteure wie die EU-Kommission. Die Bandbreite war erstaunlich.

In diesem Setting sind wir dann den zentralen Fragen nachgegangen, welche Gemeinsamkeiten sich identifizieren lassen und welche Werte diesen einzelnen Leitlinien zugrunde liegen.

 

Welche Herausforderungen lagen in der Studiendurchführung? 

Die größte Herausforderung lag in der Heterogenität der untersuchten Veröffentlichungen. Regeln, Empfehlungen, Fragenkataloge – die Dokumente könnten unterschiedlicher nicht sein. So mussten wir etwa ein 97-Seiten Dokument des Alan Turing Institutes mit einem zweiseitigen Flyer eines schwedischen Telekommunikationsanbieters vergleichen, um die gemeinsamen Werte beider Dokumente herauszuarbeiten.

Aber nicht nur beim Umfang, Sprache und der Darstellung gab es gewaltige Unterschiede. Einige Leitlinien umschreiben ihre zugrundeliegenden Werte nur implizit. Hier haben wir mit Methoden der empirisch-rekonstruktiven Sozialforschung gearbeitet, bei der Werte durch beschriebene Sinnzusammenhänge rekonstruiert werden mussten. Auch die Bezüge “wer adressiert wen” und “wer soll folglich was tun und einhalten”, musste mühsam herausgearbeitet werden.

Das war zunächst mal sehr umfangreich und erforderte ein hohes Maß an Struktur und schließlich auch Transparenz bei der eingesetzten Methodik und unserem Auswertungsprozess. Wir haben so gesehen “agile Methodenentwicklung” betrieben. Das heißt, nachdem neue Herausforderungen zu Tage getreten sind, haben wir in unserem interdisziplinären Team gemeinsam draufgeschaut. Quasi Studiendesign on the run: welche Methodik eignet sich um den jeweils nächsten Schritt zu erreichen?

Mit DFG-Projekten oder BMBF-Projekten, in denen wir als Institut ja auch arbeiten, kann man das wenig vergleichen. Dort wäre uns das Setting höchstwahrscheinlich um die Ohren geflogen. Aber: Wir wären auch längst nicht so weit, wie wir jetzt gekommen sind. Die Freiheiten, die wir uns mit der weiten Auslegung der “Wissenschaftlichkeit” genommen haben, haben uns zu einem ersten Minimum Viable Product (MVP) geführt.

Mit Blick auf unser Ziel, Orientierung für Unternehmen zu schaffen, haben wir mit der MVP-Logik definitiv die Anschlussfähigkeit für Unternehmen hinbekommen – so zumindest das bisherige Feedback.

 

Was sind die zentralen Erkenntnisse der Studie?

Das Thema ist jung und brandaktuell. Das lässt sich bestätigen. Die Veröffentlichungen digital-ethischer Leitlinien sind in den letzten Jahren sprunghaft angestiegen. Allein zwischen den Jahren 2017 und 2019 haben sich die Leitlinien versechsfacht.

Gut die Hälfte aller Leitlinien stammt von Non-Profit Organisationen (Verbände, Institute oder Stiftungen), dabei sehr prominente wie die Bertelsmann Stiftung aber auch kleinere Berufs- bzw. Branchenverbände. Ein weiteres Drittel stammt von politischen Institutionen, allen voran die “High-level Expert Group On Artificial Intelligence” der EU-Kommission mit ihren “Ethics Guidelines For Trustworthy AI”.

Nur rund 20 % der veröffentlichen Leitlinien stammt von Unternehmen selbst, angeführt von der Telekommunikationsbranche. Dabei sind es aber Unternehmen, die von rund 60 % der herausgegebenen Leitlinien adressiert werden.

Hier attestieren wir einen Prozess, den wir bereits aus der frühen Entwicklung der CSR kennen. Getrieben durch nicht-staatliche Akteure werden Politik sowie Unternehmen dazu aufgefordert, Standards und Regulierungen zu definieren und diesen zu folgen. Aber auch im Sinne einer freiwilligen Selbstverpflichtung gibt es eben Unternehmen, die Vorreiter sind. Hier zeichnen sich Entwicklungen ab, die es auch damals gab, lange bevor der o.g. Corporate Governance Kodex eingeführt wurde.

Inhaltlich nehmen die Leitlinien jeweils eine von zwei Perspektiven ein – die der Daten oder die der algorithmischen Systeme. Hierbei orientieren wir uns an der von der Datenethikkommission konstatierten Definition. Auffällig ist, dass sich die untersuchten Leitlinien mehrheitlich (69 %) auf die Algorithmen-Perspektive fokussieren. Zugegeben, wenn man sich vor Augen führt, dass der Umgang mit Daten durch die DSGVO rechtlich weitestgehend geregelt ist, ist der Fokus auf Algorithmen durchaus nachvollziehbar. Andererseits: in Bezug auf eine Corporate Digital Responsibility, die digitale Unternehmensverantwortung beschreiben soll, greift die Algorithmen-Perspektive erheblich zu kurz. Sie behandelt nur einen, wenn auch sehr brisanten Aspekt der digitalen Wertschöpfung. Das ist sicherlich richtig und wichtig, da wir es mit einem noch jungen und schnell entwickelnden Feld zu tun haben. Aber für eine Operationalisierung im Sinne der CDR fehlt hier die Einbettung ins große Ganze. Es wird sehr schwer sein, einen rein aus der Algorithmen-Perspektive geführten Diskurs auf die Ebene einer strategischen Unternehmensentwicklung zu bringen. Am Ende greifen Daten und Algorithmen eben Hand in Hand und CDR-Maßnahmen müssen entsprechend holistisch gedacht werden.

Der am wenigsten überraschende Aspekt in unserer Untersuchung bezieht sich hingegen auf die Wertebasis. Hier unterscheiden sich die Leitlinien nur unwesentlich voneinander. Insgesamt haben wir fünf Wertekategorien identifiziert (Autonomy, Beneficence, Non-Maleficence, Justice und Transparency), die mal mehr und mal weniger explizit vorkommen. In Europa ist man sich also recht einig, nach welchen Kriterien der verantwortungsbewusste Umgang mit digitalen Technologien zu gestalten ist. Darauf sollten wir aufbauen.

 

Welche konkreten Handlungsempfehlungen können Unternehmen aus der Studie ableiten?

Wir beobachten zwei Entwicklungen. Zum einen deutet vieles darauf hin, dass es nur eine Frage der Zeit ist, bis wir weitere gesetzliche Regulierungen zum verantwortungsvollen Umgang mit Daten und Algorithmen bekommen. Die Datenethikkommission der Bundesregierung hat ja hier bereits konkrete Vorschläge gemacht, dazu kommen die Entwicklungen aus Brüssel. Zum anderen werden Kunden und auch die eigenen MitarbeiterInnen in den nächsten Jahren verstärkt Wert auf Aspekte der digitalen Verantwortung legen.

Damit ergibt sich für Unternehmen aktuell eine spannende Lücke. Noch bietet sich nämlich die Möglichkeit, zu den Vorreitern der digitalen Ethik zu gehören. Das hat den Vorteil, mögliche Regulierungen aktiv mitzugestalten und CDR als Alleinstellungsmerkmal für das Recruiting von Fachkräften als auch für das Endkundengeschäft zu nutzen.

Für die Operationalisierung digitaler Ethik empfehlen wir aus unserer bisherigen Erfahrung vier Schritte:

  1. CDR ist ein Thema, dass wegen seiner strategischen Implikationen vom Top- Management protegiert werden muss.
  2. Unternehmen müssen sich Leitlinien der digitalen Ethik geben. Hier zeigt unsere Studie, dass die Wertebasis innerhalb Europas gelegt ist. Damit existiert ein Fundament für die Formulierung von Leitlinien.
  3. Strategische Handlungsfelder für CDR-Maßnahmen müssen abgesteckt werden. Diese sind vielfältig und erstrecken sich von inhaltlichen Anwendungsbereichen über Governance Themen.
  4. Get started! Es ist wichtig, so schnell wie möglich Erfolgserlebnisse zu schaffen, um CDR-Maßnahmen greifbar zu machen. In unserer Erfahrung hat es sich bewährt, mit einem ersten Projekt im Bereich der Produktinnovation zu starten.

 

Gibt es schon Pläne für Folgestudien? Wo sollte der Themenschwerpunkt für zukünftige CDR-Forschung liegen?

Da immer wieder neue Leitlinien veröffentlicht werden, ist unsere Arbeit noch nicht beendet. Wir erneuern unsere Datenbank laufend und passen die Ergebnisse in regelmäßigen Abständen an. Allerdings stellt sich mittlerweile eine Art theoretische Saturierung ein. Das heißt, die neuen Leitlinien reproduzieren mehr die bekannten Themen, als das beispielsweise neue Werte hinzukommen, wie es bei den anfänglichen Publikationen noch der Fall war. Deshalb war auch jetzt ein guter Zeitpunkt, einen Strich darunter zu machen und die Ergebnisse zu teilen und damit weiterzuarbeiten. Denn die Frage nach orientierungsgebenden CDR-Maßnahmen ist immer noch nicht zufriedenstellend beantwortet.

Weitere Impulse versprechen wir uns daher aus anderen Kulturkreisen und vergleichen aktuell auch Leitlinien aus dem nordamerikanischen und asiatischen Raum. Hier interessiert uns, welche Werte dort in den Vordergrund gestellt werden und wie sich diese entwickeln.

Darüber hinaus arbeiten wir aktuell an einem industrie-übergreifenden Projekt zum Thema CDR und freuen uns über jeden Austausch mit interessierten Institutionen und Unternehmen!

 

 

Weitere Einblicke in die Studienergebnisse können hier eingesehen werden: https://www.transforming-healthcare.com/wp-content/uploads/2020/06/idigit2020Europaweite_Leitlinien_zur_digitalen_Ethik_im_Vergleich_executive_summary.pdf

 

 

Über idigiT

Das Institute for Digital Transformation in Healthcare (idigiT) ist ein Spin-off der Universität Witten/Herdecke und agiert in Forschungs- und Beratungsprojekten. Dabei konzentriert sich das interdisziplinäre Team aus Wirtschaftswissenschaftlern, Medizinern, Soziologen und Philosophen auf die Fokusfelder „Digital Health“ und „Digital Ethics“. Besonderer Schwerpunkt liegt dabei auf dem Thema „Corporate Digital Responsibility“ – der Operationalisierung von digitaler Ethik im Unternehmenskontext.

Als Strategiepartner für Entscheidungsträger aus Wirtschaft, Politik und Gesellschaft arbeitet idigiT so an einer digitalen Transformation, die den Menschen in den Mittelpunkt stellt.