Beim Fahren und bei den Daten – es geht um Selbstbestimmung

Die Digitalisierung bringt nicht nur politische, wirtschaftliche und gesellschaftliche Herausforderungen mit sich, sie wirft auch Fragen auf. Sei es die Frage nach der bindenden Kraft algorithmen-basierter Entscheidungen, die Frage nach dem Einsatz von Robotern im Medizin- und Pflege-Bereich oder die Gestaltung autonomer Transportsysteme – überall dort, wo es um Mensch-Maschine-Interaktionen geht, können sich grundlegende ethische Probleme ergeben. Fragen entstehen vor allem, wenn ursprünglich dem Menschen unterliegende Verantwortungsbereiche auf digitale Systeme verlagert werden. Politik und Gesellschaft haben dann die Aufgabe, die ethischen Konflikte zu lösen und Weichen für die digitale Zukunft zu stellen: Wie soll die Politik mit ethischen Herausforderungen des Digitalisierungsprozesses umgehen? Wo findet sich der normative Leitfaden für die Lösung ethischer Fragen?

„Digitale Ethik“ ist ein weites Feld, daher werbe ich für den Weg, nach Lösungen auf diesem Feld möglichst fachübergreifend zu suchen. Nicht einzelne Forschungsvorhaben werden uns auf diesem Gebiet weiterbringen, sondern das Zusammenwirken von Expertise aus verschiedenen Disziplinen. Das gilt für Fragen von Big Data ebenso wie für die anderen Herausforderungen der Digitalisierung. Die ganze Gesellschaft ist früher oder später mit diesen befasst, daher reicht es nicht, wenn Juristen, Techniker und Sozialwissenschaftler nebeneinander her arbeiten.

Für eine solche gemeinsame Suche gibt die Arbeit der vom Bundesverkehrsministerium eingesetzten Ethik-Kommission zum automatisierten Fahren ein gutes Beispiel. Diese interdisziplinäre Gruppe unter Leitung des ehemaligen Bundesverfassungsrichters Udo di Fabio sollte Leitlinien für die Programmierung automatisierter Fahrsysteme entwickeln. Dabei stand insbesondere die Frage im Vordergrund, inwiefern die Zulassung automatisierter Fahrsysteme ethisch verantwortbar ist und nach welchen ethischen Grundsätzen die Ausgestaltung dieser Systeme erfolgen solle. In Sommer legte die Kommission 20 Thesen zum automatisierten Fahrzeugverkehr vor.[1] Die im Blickpunkt behandelte Thematik wurde in der Öffentlichkeit meist mit der dramatischen Problemstellung in Verbindung gebracht, ob denn ein selbstfahrendes Auto eher ein Kind oder eher eine Oma überfahren sollte. Doch geht es um mehr als eine vermeintliche Lösung zu diesem in Abwandlungen schon seit Jahrtausenden bekannten Dilemma.

Bezeichnend für das Ergebnis der Kommissionsarbeit ist zum einen das Bestreben, Sicherheit in einer normativen Ordnung zu ermöglichen. In einer solcher Ordnung steht der Mensch nicht nur in seiner Verletzlichkeit, sondern auch in seiner Eigenverantwortlichkeit und Entfaltungsfreiheit im Mittelpunkt. Damit erteilte die Kommission einem allzu pragmatischen, utilitaristischen Denken eine Absage: Eine Handlung sei nicht bereits dann moralisch richtig, wenn sie für alle Beteiligten nutzbringend ist. Leitbild müsse vielmehr das neuzeitlich-humanistische Menschenbild sein. Spätestens seit Kant wird gemäß diesem Menschenbild das Individuum als freies Gemeinschaftswesen verstanden, das Kraft seiner Vernunft die Welt frei und nach eigener Vorstellung zu gestalten vermag. Die Grenzen seiner Freiheit finde der einzelne in der Freiheit der anderen. Als Konsequenz aus diesem Menschenbild wird von der Kommission unter anderem gefolgert, dass in Unfallsituationen eine Qualifizierung des Menschen nach persönlichen Merkmalen untersagt sein müsse. Es solle keine „Verrechnung“ von Opfern stattfinden; stattdessen sollen ein Prinzip der Schadens- und Risikominimierung gelten. Dem eigenverantwortlichen Menschen (in dem Fall: Fahrer) solle es frei gestellt bleiben, auf welche Weise er technische Möglichkeiten zum Schutz einsetzt – oder auch nicht. Dieses Credo kann ich nur unterstreichen: Die technischen Systeme müssen dem Menschen angepasst werden und nicht etwa das menschliche Verhalten der Technik.

Nicht anders als mit dem Steuern oder Steuernlassen eines Fahrzeuges verhält es sich mit den das Fahrzeug betreffenden Daten. Dem Leitbild der informationellen Selbstbestimmung folgend, verlangen wir zu Recht Transparenz über die Datenverwendung und eine Freiwilligkeit der Datenabgabe. Auch beim vernetzten Fahren soll mit dieser Maßgabe versucht werden, der normativen Kraft des Faktischen entgegenzuwirken. Das Selbstbestimmungsrecht des Einzelnen wird dabei nicht nur als Mittel zum Schutz der Privatsphäre verstanden, sondern auch als „Datenhoheit“.

Wie sollte nun also die Entwicklung vorangebracht werden ? Auch die Stiftung Datenschutz betont in ihrem jüngst erschienen Papier zur digitalen Ethik[2], dass ein ethischer Diskurs ein Problem und mögliche Lösungsansätze lediglich aufzeigen könne – denn verbindliche Richtlinien und harte Vorgaben sind in diesem Bereich schwierig. Doch sollte die Politik ganz wie in der erwähnten Ethik-Kommission zum Verkehrsbereich auch zu anderen Bereichen des digitalen Wandels und des modernen Datenumganges auf eine möglichst breite Expertise zurückgreifen. Sie sollte aktiv vorangehen und nicht darauf warten, welche Interessenvertretung sich später am geschicktesten oder lautesten durchsetzt. Eine frühe Einbeziehung von Wissenschaft, think tanks und Zivilgesellschaft in die Ausarbeitung ethischer Grundsätze zum Umgang mit Daten und Zukunftstechnologien ist unverzichtbar.

 


[1]www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.pdf?__blob=publicationFile.

[2] N. Horn, Grundlagen der digitalen Ethik, Stiftung Datenschutz (Hrsg.), Leipzig 2017, abrufbar unter: www.stiftungdatenschutz.org/digitale-ethik

mehr