Das Vertrauen spielt eine wichtige Rolle im alltäglichen, wirtschaftlichen und politischen Leben. Es ist ein Grundelement zwischenmenschlicher und partnerschaftlicher Beziehungen, eine Grundvoraussetzung für die Funktionsfähigkeit demokratischer Strukturen und eine nicht zu vernachlässigende „Währung“ in der Wirtschaft. Dennoch ist eine genaue Begriffsbestimmung des „Vertrauens“ nicht einfach.

Zunächst bezeichnet „Vertrauen“ eine positive Erwartung in Bezug auf das Handeln einer Person oder Institution. Bei Georg Simmel handelt es sich dabei beispielsweise um einen „mittleren Zustand zwischen Wissen und Nichtwissen“, den er als „Hypothese künftigen Verhaltens“ beschreibt.[3] Über das Vertrauen lässt sich demnach erst dann sinnvoll sprechen, wenn das Handeln des Gegenübers nicht von vornherein feststeht. So bleibt es beispielsweise zunächst offen, ob eine politische Partei ihre Wahlversprechen auch tatsächlich umsetzen wird, und gerade deswegen wirbt sie um Vertrauen der Wählerinnen und Wähler. Das Vertrauen setzt also zunächst eine grundsätzliche, positiv konnotierte Offenheit der Handlungsoptionen voraus.

So braucht man beispielsweise kein Vertrauen gegenüber einer KFZ-Zulassungsstelle aufzubringen, dass sie bei der Vorlage aller erforderlichen Dokumente ein KFZ-Kennzeichen ausstellt – sie hat im Rahmen des Gesetzes keine alternativen Handlungsoptionen. Hierbei spielt das Vertrauen im Sinne der Ungewissheit über die tatsächliche Handlungsweise keine Rolle, da man sich in einem demokratischen Rechtstaat auf die Einhaltung der Vorschriften verlassen kann. Der Philosoph Martin Hartmann spricht in diesem Zusammenhang über das Vertrauen als Beziehungsgeschehen, zu dem auch alternative Handlungsoptionen gehören und von Verlässlichkeit unterschieden werden muss, die eher auf Kompetenz und Pflichterfüllung abzielt.[4] Bei der KFZ-Zulassungsstelle würde man sich demnach darauf verlassen können, dass die Mitarbeiterinnen oder Mitarbeiter kompetent sind und pflichtbewusst die Vorschriften befolgen. So verlasse ich mich bspw. auch darauf, dass mein Arbeitgeber mir pünktlich mein Gehalt überweist (da er dazu laut Arbeitsvertrag verpflichtet ist und in der Buchhaltung kompetente Fachkräfte arbeiten), vertraue aber darauf, dass er meine Leistung insgesamt fair bewertet (weil er dies grundsätzlich auch anders handhaben könnte).

Man muss zwar nicht vertrauen, wenn man sich auf etwas verlässt, allerdings kann mangelnde Verlässlichkeit die Vertrauenswürdigkeit in Frage stellen. Wenn man sich auf das pflichtbewusste Handeln einer Person oder Institution nicht verlassen kann (z.B. eines notorischen Lügners oder einer Behörde in einem korrumpierten Staat), kann derjenigen Person oder Institution auch schwerlich Vertrauen entgegengebracht werden. Wenn ein Unternehmen bestimmte Vorschriften willentlich umgeht (wie im Fall des VW-Dieselskandals) oder wenn Politikerinnen und Politiker sich in Korruptionsaffären verwickeln (wie im Fall der Corona-Maskenbeschaffung im Jahr 2021), kommen auch Zweifel an ihrer Integrität und Verlässlichkeit auf. Wer sich in einem bestimmten Fall als unzuverlässig erweist, verspielt gleichzeitig das Vertrauen, wenn es darauf ankommt, in Bezug auf das künftige Verhalten positive Erwartungshaltung entgegenzubringen. Denn man kann schwerlich das Vertrauen gegenüber jemanden aufbringen, der schon bei der Pflichterfüllung unzuverlässig ist. Aus dieser Perspektive setzt Vertrauen ein gewissen Maß an Verlässlichkeit voraus.

Vertrauen kann außerdem verspielt werden, wenn die positiven Erwartungen wiederholt oder gravierend enttäuscht werden. So haben die Enthüllungen von Edward Snowden das Vertrauen vieler Bürgerinnen und Bürger in gute Absichten des Staates deswegen ins Wanken gebracht, weil man von einem demokratischen Rechtstaat solch exzessive Überwachungspraktiken nicht erwartet hätte. Auch der Datenskandal um Cambridge Analytica, bei dem die Facebook-Daten der Nutzerinnen und Nutzer zur Erstellung psychologischer Profile genutzt und für Wahlkampfzwecke eingesetzt wurden, führte zum Vertrauensverlust gegenüber einem beliebten sozialen Netzwerk. Wenn Menschen feststellen, dass ein Unternehmen die Daten nicht nur zur Erbringung primärer Dienstleistungen oder nachvollziehbarer, legitimer Interessen wie Werbung verarbeiten, sondern darüber hinaus für undurchsichtige und in der Grauzone der Legalität stehende Zwecke benutzen, entstehen Vertrauenskrisen. Das Vertrauen wird verspielt, wenn die Handlungsfreiheit einer Institution ausgenutzt wird, um intransparente und für die Vertrauenden möglicherweise nachteilige Ziele zu verfolgen.

Ein mögliches Instrument zur Eindämmung des Macht- und Vertrauensmissbrauchs kann grundsätzlich eine starke Durchregulierung vorhandener Handlungsräume und fühlbare Sanktionierung der Pflichtverletzungen sein. So wurde beispielsweise mit der Datenschutz-Grundverordnung ein regulatorisches Instrument eingeführt, das mögliche Überschreitungen legitimer Handlungsräume mit erheblichen Geldbußen ahndet (bis zu 20 Millionen Euro oder im Fall eines Unternehmens bis zu 4% des gesamten weltweit erzielten Jahresumsatzes). Einerseits sind solche regulatorischen Instrumente notwendig, um Anreize zum Überstrapazieren des Vertrauens zu reduzieren. Allein ein „blindes Vertrauen“ (etwa bei Versprechen großer IT-Konzerne, die Welt „besser“ zu machen) kann die Übereinstimmung mit gesellschaftlichen Werten nicht garantieren.

Andererseits bedeutet eine immer intensivere Durchregulierung im Falle der Überregulierung eine Einschränkung der Handlungsräume. Sie ist darüber hinaus auch in der Praxis sehr schwer handhabbar (z.B. gleichintensive Anwendung der DSGVO-Anforderungen auf kleine gemeinnützige Vereine wie auf Großkonzerne). Zwischen zwei (utopischen) Extremen – der absoluten Kontrolle einerseits und des naiven Vertrauens in die Güte des anderen andererseits – muss ein Mittelweg gefunden werden, der als Grundlage einer offenen Gesellschaft dient. In einer solchen Gesellschaft soll, im Sinne Karl Poppers, der Macht- und Vertrauensmissbrauch verhindert und zugleich ein Raum für die Entfaltung autonomer Subjekte geschaffen werden. Vertrauen, das Handlungsoptionen schafft, ohne dabei naiv zu sein, zeichnet eine freie Gesellschaft aus.

Aus diesem Blinkwinkel hängt das Phänomen des Vertrauens eng mit dem Autonomiebegriff zusammen. Denn Vertrauen kann nur demjenigen entgegengebracht werden, der über die Autonomie verfügt, auch anders handeln zu können. Wiederum kann man aber nur dann autonom handeln, wenn durch das Vertrauen anderer ein Optionsraum entsteht, unterschiedliche Handlungswege einzuschlagen. Vertrauen und Autonomie sind daher komplementär. Versteht man die Macht – wie im zweiten Zwischenruf dieser Reihe – als „gegenseitige Anerkennung autonom handelnder Subjekte“, so kann diese „Anerkennung“ auch als gegenseitiges Vertrauen von Marktakteuren, von Führenden und Geführten verstanden werden. Mit dem Verspielen des Vertrauens verspielt man wiederum auch die eigene Machtstellung – sei es die eines Staates, das auf das Vertrauen der Bevölkerung nicht mehr zählen kann, sei es eines Unternehmens, das mangels Vertrauens die eigene Marktstellung einbüßt. Denn zur Natur des Vertrauens gehört auch, dass es auch leicht entzogen werden kann.

Mit welchen Mitteln kann das Vertrauen gerade im Digitalisierungsprozess aufgebaut und aufrechterhalten werden? Hierbei kann es hilfreich sein, zwischen Vertrauensmaßnahmen, Vertrauensräumen und Vertrauensankern zu unterscheiden:

Als einer der grundlegenden Vertrauensmaßnahmen gilt die Herstellung der Transparenz und Nachvollziehbarkeit datenbasierter Entscheidungsstrukturen und Geschäftsmodelle. Es geht dabei um die praktische Befähigung von Personen und Institutionen, die Gründe für bestimmte Entscheidungen und für die intrinsische Logik bestimmter Produktangebote nachzuvollziehen und sich ggf. in die Prozesse aktiv einbringen zu können. Bei der Gewährleistung der Transparenz als Vertrauensmaßnahme geht es dabei nicht bloß um eine rechtskonforme Umsetzung des Datenschutz-Grundsatzes „Transparenz“ aus Art. 5 Abs. 1 lit. a DSGVO bei der Verarbeitung personenbezogener Daten. Es geht vielmehr um eine faktisch nachvollziehbare Ausgestaltung von algorithmischen Systemen und Datenverarbeitungsprozessen: Das Deutlichmachen, dass algorithmische Prozesse überhaupt eingesetzt werden; die Schaffung eines rudimentären Verständnisses über die Funktionsweise dieser Prozesse; die Erklärbarkeit des Zustandekommens konkreter datengestützter Entscheidungen; sowie des dahinterliegenden Geschäftsmodells. Auf der technologischen Ebene kann dabei die Transparenz durch nutzerzentrierte Schnittstellen zur Datenverarbeitung, Einstellungsmöglichkeiten für individuelle Datenverarbeitung-Präferenzen sowie durch Visualisierungen von Datenverarbeitungsvorgängen durch die sogenannten „Privacy Information Management Systems“ (PIMS)[5] gefördert werden.

Ein weiteres Mittel zum Aufbau und Aufrechterhaltung des Vertrauens bildet die Schaffung von Vertrauensräumen, welche eine sichere und vernetzte Dateninfrastruktur bieten, den höchsten Ansprüchen an digitale Souveränität genügen allen beteiligten Akteuren die Teilung und gemeinsame Nutzung von Daten ermöglichen. So zielt beispielsweise das europäische Projekt Gaia-X auf die Schaffung eines Datenraumes, das Unternehmen sowie Nutzerinnen und Nutzer Daten zu sammeln und miteinander zu teilen ermöglicht – und zwar so, dass sie darüber die Kontrolle behalten.[6] Im Sinne vertrauenswürdiger Datenräume gewinnt zugleich auch das Thema der „Datentreuhänder“ zunehmend an Bedeutung. Dabei geht es um neutrale Vermittler zwischen Datengeber und Datennutzer, die dabei unterstützen, durch Absicherung der Datenzugänge, durch sichere Identifizierung der am Datenaustausch Beteiligten und durch die Organisation der Zugriffsberechtigungen Vertrauen zu schaffen.[7]

Als ein wesentliches Vertrauensmechanismus kommt schließlich die Etablierung von sogenannten Vertrauensankern in Frage, welche einen fairen Umgang mit Daten garantieren und auf die sich die NutzerInnen verlassen können. Denn Aufgrund der Komplexität und einer gewissen Unüberschaubarkeit der Funktionsweise digitaler Technologien für die NormalnutzerInnen einerseits und einer ebenso für die Durchschnittsverbraucher undurchsichtigen rechtlichen Regulierungslage andererseits, entstehen Bruchstellen zwischen dem Anspruch auf die Achtung der Datensouveränität und der in Wirklichkeit erfahrenen Ohnmacht der Einzelnen gegenüber datenverarbeitenden Stellen.[8] Solche Bruchstellen müssen überwunden werden. Da diese Überwindung schwerlich durch die Nutzerinnen und Nutzer selbst vollzogen werden kann, braucht es Vertrauensanker.

Als Vertrauensanker kann sowohl der Staat fungieren als auch zugleich die freiwilligen Selbstverpflichtungen der Unternehmen in Frage kommen. Der Staat tritt dabei seinerseits als Garant der Durchsetzung und Einhaltung von gesetzlichen Bestimmungen und als eine Stelle auf, die einen möglichen Vertrauensmissbrauch durch Dritte vorbeugt. Da aber – wie oben dargestellt – das hoheitliche Handeln allein für die Etablierung eines gegenseitigen Vertrauens von Marktakteuren nicht hinreichend ist, sind auch die Unternehmen als Handlungsakteure der Digitalisierung gefragt. Vor diesem Hintergrund kann „Corporate Digital Responsibility“ (CDR) als ein Ansatz für eine unternehmensseitige Etablierung von Vertrauensankern verstanden werden, der Handlungsoptionen schafft. Zugleich können Aktivitäten wie der Ausbau von Vertrauensräumen und die Umsetzung von Vertrauensmaßnahmen durchaus als Teilaspekte in eine CDR-Strategie einfließen.

Ausgehend von dem in diesem Text beschriebenen Vertrauensverständnis würde eine solche Selbstverpflichtung ein ausformuliertes Versprechen bedeuten, das eine positive Erwartung in Bezug auf das unternehmerische Handeln in der Zukunft begründet. Durch die Ausformulierung dieses „Versprechens“, die eigene Handlungsfreiheit nicht zu missbrauchen, werden einerseits die positiven Erwartungen gesteigert, was im Falle ihrer Enttäuschung viel schwerer auf die Unternehmen zurückfallen kann, als wenn man ein solches „Versprechen“ erst gar nicht abgäbe. Andererseits fördert dieses Versprechen gegenseitige Anerkennung von Marktakteuren, welche die Handlungsräume erweitert, gegenseitige Akzeptanz von Marktakteuren schafft und sich idealerweise auch als Wettbewerbsvorteil erweist.

 

 

 

[1] Vgl. Erster „Philosophischer Zwischenruf“: Booms/ Horn, „Macht, Vertrauen, Verantwortung – unternehmerische Grundorientierung in Zeiten des digitalen Wandels“, in CDR-Online-Magazin. URL: https://corporate-digital-responsibility.de/article/macht-vertrauen-verantwortung-booms-horn/.

[2] Horn, „Macht als Handlungsautonomie – zur Bedeutung von „Macht“ unter den Rahmenbedingungen der Digitalisierung“, in CDR-Online-Magazin. URL: https://corporate-digital-responsibility.de/article/philosophischer-zwischenruf-macht/.

[3] Georg Simmel, „Soziologie. Untersuchungen über die Formen der Vergesellschaftung“ (1908).

[4] Martin Hartmann: „Vertrauen. Die unsichtbare Macht“ (2020).

[5] Zu PIMS siehe: Stiftung Datenschutz (2017): Neue Wege bei der Einwilligung im Datenschutz – technische, rechtliche und ökonomische Herausforderungen: https://stiftungdatenschutz.org/themen/pims-studie/.

[6] https://www.bmwi.de/Redaktion/DE/Dossier/gaia-x.html.

[7] Zum Thema „Datentreuhänder“ siehe bspw.:  https://www.bundesdruckerei.de/de/loesungen/datentreuhaender.

[8] Horn / Stecher: Denkimpuls Innovativer Staat: „Datensouveränität – Datenschutz neu verstehen“, Initiative D21 (Hg.), Mai 2019, URL: https://initiatived21.de/app/uploads/2019/05/denkimpuls_datenschutz-neu-verstehen_20190528.pdf.

 

 

 

Dr. Nikolai Horn ist Philosoph und Mitarbeiter beim Thintank iRights.Lab. Nach seinem Studium der Philosophie arbeitete er am Lehrstuhl des damaligen Bundesverfassungsrichters Prof. Dr. Dr. Udo Di Fabio am Institut für Öffentliches Recht der Universi­tät Bonn und promovierte mit einer interdiszip­linären Arbeit zum Grundrecht der Gewissens­freiheit. Von 2015 bis 2017 war Horn als Referent für Grundsatzfra­gen bei der Stiftung Datenschutz für konzeptionelle Inhalte verantwortlich. Nikolai Horn befasst sich außerdem seit einigen Jahren in Essays, Zeitungsartikeln und Vorträgen mit dem Thema „Digitale Ethik“.

 

Der Text dieses Beitrags steht – soweit nicht anders gekennzeichnet – unter der Lizenz Creative Commons Namensnennung Weitergabe unter gleichen Bedingungen 4.0 International (CC BY-SA 4.0). Details zur Lizenz finden Sie unter https://creativecommons.org/licenses/by-sa/4.0/legalcode