14 Fragen der digitalen Ethik

Welche Schule darf ein Kind besuchen? Wer wird zum Bewerbungsgespräch eingeladen, und wer wird befördert? Wer wird von der Polizei am Bahnhof durchsucht, und in welchen Stadtvierteln patrouillieren Streifenwagen? Welche Häftlinge kommen auf Bewährung frei? Wer erhält einen Kredit? Welche Werbung bekommen wir im Internet zu sehen, und welche Nachrichten und Suchergebnisse stehen ganz oben auf dem Bildschirm? Welche Gebäude werden zuerst saniert? Welche Qualifizierungsmaßnahmen bekommen Arbeitslose angeboten, und wer wird auf Betrug von Sozialleistungen kontrolliert? Welchen Akzent hat eine Asylbewerberin, die ohne Papiere ihre Herkunft nachweisen muss? – Bei all dem verlassen wir uns bereits heute immer mehr auf Algorithmen.

Algorithmen sind keine fremden Mächte, die über uns bestimmen. Ihre Entwicklung wird von Menschen beauftragt, von Menschen programmiert und trainiert und von Menschen angewandt. Daher sind auch Menschen für deren Einsatz verantwortlich – und nicht ein anonymer Code. Unsere Daten und Algorithmen reflektieren daher auch die Werte, die ihnen beigebracht worden sind. Wir sind nicht an sie ausgeliefert, sondern können selbst bestimmen, wie wir sie für uns nutzen wollen.

Trotz solcher Vorzüge stellen sich in vielen Anwendungsfällen konkrete Fragen: Nach welchen Kriterien sollen die Algorithmen programmiert und trainiert werden? Wie sichern wir die Nachvollziehbarkeit und fördern Vertrauen und Transparenz? Und: Wer trägt die Verantwortung, wenn ein Fehler passiert? Diese Problemstellungen wollen wir anhand 14 konkreter Praxisfragen beleuchten.

  • Algorithmische Entscheidungssysteme können unbewusste Diskriminierung („Bias“) aufdecken und vermeiden, andererseits aber auch selbst unbeabsichtigt diskriminieren, wenn die zugrundeliegende Datenbasis oder Regelwerk nicht stimmen.

    Ein immer wieder intensiv diskutiertes Beispiel ist die 1927 gegründete, private Auskunftei SCHUFA, die maßgeblich für die Bonitätsbewertung ist: also dafür, ob jemand beispielsweise einen Kredit oder einen Mietvertrag bekommt. Wie genau die Bewertung zustande kommt, lässt sich von einzelnen Betroffenen nicht nachvollziehen – und wem ein Ratenkredit für das neue Auto verweigert wird, der tappt mitunter im Dunkeln. Auch in der Arbeitswelt können Algorithmen zu Benachteiligungen führen. Bekannt ist der Fall, bei dem Frauen bei Google-Suchen schlechter bezahlte Stellenanzeigen zu sehen bekamen als Männer. Eine mögliche Erklärung: Wenn der Algorithmus mit Daten trainiert wurde, denen zufolge Frauen eher schlechter bezahlte Berufe ausüben, erkennt der Algorithmus ein Muster und passt die Anzeigen entsprechend an. Amazon hat einen Algorithmus zur Vorsortierung von Bewerbungsunterlagen abgeschafft, da dieser unbeabsichtigt Frauen diskriminierte – weil er auf Grundlage eines männlich dominierten Datensatzes „gelernt“ hatte, dass Männer ideal für den Job sind.

    Allerdings: Wenn Menschen die Entscheidung treffen, führt das nicht unbedingt zu weniger Diskriminierung. Wenn eine Bankberaterin jemandem einen Kredit verweigert, weil sie die Kreditwürdigkeit des Antragstellers bezweifelt, oder wenn ein Angestellter die Stellenbewerbungen per Hand aussortiert, dann ist das weniger nachvollziehbar als wenn ein Algorithmus anhand definierter Kriterien eine Bewertung vornimmt. Mit dem Faktor Mensch kommen zwangsläufig unbewusste Vorurteile und eine gewisse Portion Willkür ins Spiel, die durch ein strikt kriterienbasiertes Entscheidungsverfahren überhaupt erst aufgedeckt werden können. Gerade bei Amtsmissbrauch, Korruption und Seilschaften, oder (oft unbewussten) Vorurteilen sind Algorithmen daher mitunter besser in der Lage, neutrale Entscheidungen zu treffen. Algorithmen können also unterm Strich zu weniger Diskriminierung führen.

    Wesentlich drängender und wichtiger werden diese Fragen aber beim Einsatz von KI im öffentlich-rechtlichen Kontext, also im Verhältnis zwischen Bürger und Staat. Denn während ihre Anwendung in der Privatwirtschaft unter die ebenfalls grundgesetzlich geschützten Betätigungsinteressen fällt, benötigen hierzulande der Staat bzw. die ihn repräsentierenden Behörden konkret gesetzliche Eingriffsbefugnisse. Die Anwendung Künstlicher Intelligenz kann, wenn falsch eingesetzt, zu massiven und rechtswidrigen Eingriffen in Grundrechte der Bürger führen, zu deren Schutz der Staat eigentlich verpflichtet ist. Es wird daher besonders darauf zu schauen und zu dokumentieren sein, wo solche Technologien staatlicherseits künftig eine Rolle spielen. Immer weiter gelockerte Beobachtungs- und Ausspähungssysteme durch den Staat führen zu schleichenden Grundrechtsbeeinträchtigungen und können letztlich unser freiheitliches Fundament untergraben.

    Längst finden Algorithmen auch bei staatlichen Behörden Anwendung – mit einigen problematischen Erfahrungen. In den USA nutzen viele Gerichte einen Algorithmus namens COMPAS („Correctional Offender Management Profiling for Alternative Sanctions“), um über die Freilassung auf Bewährung zu urteilen. Das Programm soll anhand von 137 Merkmalen die Wahrscheinlichkeit dafür berechnen, ob eine straffällige Person rückfällig werden wird oder nicht Allerdings berechnete COMPAS für Menschen mit schwarzer Hautfarbe eine doppelt so hohe Wahrscheinlichkeit, wiederholt kriminell zu werden – ohne dass dies stimmte. Die Hautfarbe selbst gehörte dabei gar nicht zu den abgefragten Kriterien, allerdings Fragen wie „Wurde Ihr Vater jemals verhaftet?“, die stärker Menschen mit schwarzer Hautfarbe betreffen. Dazu kommt Intransparenz darüber, welche Variablen wie stark gewichtet werden und so das Ergebnis beeinflussen. Maschinen können nur Korrelationen erkennen, aber tatsächliche kausale Zusammenhänge können sie nicht herausfinden. Hier ist der Mensch gefragt, um nicht die falschen Schlüsse zu ziehen.

    In Australien verwendeten Behörden einen Algorithmus, um Mahnbescheide wegen des Missbrauchs von Sozialleistungen zu versenden – automatisiert allein wegen eines Verdachts aufgrund maschinell erkannter Muster. Allerdings war das Programm offenbar nicht reif für den Einsatz, sodass viele Unschuldige ins Visier der Sozialprüfungen gerieten. In ihrem Buch „Automating Inequality“ („Automatisierte Ungerechtigkeit“) warnt die US-Politikprofessorin Virginia Eubanks, dass staatliche Behörden auf unausgegorene algorithmische Systeme setzen, um gerade ohnehin benachteiligte Bevölkerungsgruppen zu überwachen und zu drangsalieren – anstatt ihnen wirkliche Hilfe zukommen zu lassen.

    Menschen entscheiden allerdings nicht unbedingt weniger diskriminierend; eher im Gegenteil: Sind Menschen für die Personalplanung verantwortlich, haben beispielsweise Bewerber mit ausländisch klingendem Namen deutlich weniger Chancen – trotz gleicher Qualifikation. Wer einen deutschen Namen hat, muss fünf Bewerbungen schreiben, um zu einem Interview eingeladen zu werden – wer einen türkischen Namen hat, braucht dafür sieben Bewerbungen. Bereits in der Schule erhalten Kinder mit ausländischem Namen trotz gleicher Leistung schlechtere Noten. Auch das Geschlecht spielt eine Rolle: Wie ein Forschungsteam nachwies, werden äußerlich attraktive männliche Bewerber häufiger eingeladen als attraktive weibliche Bewerberinnen. Der Grund: Personalabteilungen sind überwiegend mit Frauen besetzt, die die Bewerbungen entsprechend selektieren; nur wenn die Rekrutierung auf externe Agenturen ausgelagert ist, erleiden attraktive Frauen keine Nachteile (die attraktiven Männer werden dennoch eingeladen). Und: Bereits in der Schule erhalten gut aussehende Mädchen und Jungen bessere Noten, werden häufiger aufgerufen, besser unterstützt und bei Fehlern oder Zuspätkommen eher entschuldigt.

    Wenn ältere Männer über Führungsposten entscheiden, suchen sie unbewusst meist diejenigen Bewerber aus, die ihnen ähnlich sind – ältere Männer eben. Hier können Algorithmen korrigierend eingreifen: Ein Forschungsteam mehrerer US-Universitäten ging diesem Muster nach und trainierte einen Algorithmus anhand von 41.000 Profilen so, dass er korrekt vorhersagen konnte, welche Profile später erfolgreich sein würden und welche nicht – unabhängig von Alter und Geschlecht. Dabei zeigte sich: Hätte der Algorithmus entscheiden dürfen, hätte er mehr Frauen und mehr junge Manager in den Vorstand berufen.

    Dies gilt auch im Verhältnis Staat-Bürger: So können Angeklagte vor Gericht – soll der Fall positiv ausgehen – heutzutage nur darauf hoffen, dass ihr Fall nach dem Mittagessen verhandelt wird. Denn: Eine Auswertung von über 1000 Urteilen hat nachgewiesen, dass Richter je härter urteilen, desto länger ihre Pause zurücklag. Wenn ein Richter lange nichts mehr zu essen hatte, lässt er keine Gnade walten. In Deutschland sind eklatante regionale Unterschiede beim gerichtlich verhängten Strafmaß nachgewiesen: Dasselbe Delikt wird in Frankfurt deutlich härter bestraft als in Freiburg. Algorithmen können helfen, diese menschliche Unfairness auszugleichen – denn Computer kennen weder Hunger noch Müdigkeit noch regionale Geschmäcker. Und was vor Gericht gilt, das betrifft auch Ärzte, Lehrer, Personalverantwortliche oder Finanzberater.

    Diskriminierung muss entschieden entgegengetreten werden – egal ob analog oder digital. Algorithmen können helfen, selbst unbewusste Diskriminierung zu vermeiden, wenn Kriterien und Trainingsdaten richtig gewählt sind. Algorithmische Entscheidungen müssen gerichtlich überprüfbar sein. Dieser Anti-Diskriminierungsgedanke findet sich auch bereits in Artikel 22 EU-Datenschutzgrundverordnung (DSGVO) und § 54 Bundesdatenschutzgesetz (BDSG), die ein Verbot der automatisierten Einzelentscheidung vorsehen. Eine Diskriminierung aufgrund von Profilings ist verboten.

     

  • Fehldiagnosen verschulden 30 Prozent aller vermeidbaren Todesfälle. Allein in den USA sterben jährlich 40.000 bis 80.000 Menschen infolge schwerer Diagnosefehler. Hinzu kommen noch etliche erfolglose Therapieversuche, bei denen Hilfesuchende eine falsche Behandlung erfahren.

    Ärzte handeln menschlich. Wie alle Menschen haben sie visuelle und kognitive Grenzen. Dank der Auswertung riesiger Datenmengen kann KI frühere, schnellere und genauere Diagnosen stellen. Und mit jedem neuen Datenpunkt lernt die KI dazu und wird damit immer besser. Dies ersetzt zwar nicht Arzt oder Ärztin, kann aber wertvolle Hilfestellung geben – eine Art automatisierte Zweitmeinung.

    Daher stellt sich die Frage, ob es der Einsatz von KI obligatorisch werden sollte, sobald diese nachweislich die Diagnose verbessert. Bereits heute gilt: Die ärztliche Sorgfaltspflicht verlangt den Einsatz moderner Behandlungsmethoden, die sich am neuesten Stand der Wissenschaft orientieren müssen. Hält ein Arzt oder eine Ärztin an Überholtem fest oder verzichtet er oder sie auf neuere und bessere Methoden, obwohl diese in Fachkreisen bekannt sind, so gilt dies als Verletzung der Sorgfaltspflicht.

    Eine zeitgemäße Definition der ärztlichen Sorgfaltspflicht sollte künftig auch die Anwendung von KI mit nachgewiesenem Nutzen umfassen.

  • Wer wird bestraft, wenn die Diagnose falsch ist: die Arztpraxis oder der Anbieter des Diagnosesystems? Und wer haftet, wenn ein selbstlenkendes Auto einen Unfall verursacht? Algorithmische Entscheidungssysteme können das Urteil von Fachleuten bei der medizinischen Diagnose nur unterstützen, können (und sollen) dieses aber nicht ersetzen. Auch wenn der Algorithmus eine falsche Diagnose stellt, bleibt der Arzt oder die Ärztin die letzte Entscheidungsinstanz für die Therapie und haftet demgemäß auch für etwaige Kunstfehler. Der richtige Umgang mit algorithmischen Systemen – also ein Verständnis deren Funktionsweise, Vorteile und Grenzen – ist damit von umso größerer Wichtigkeit. Zugleich müssen die im medizinischen Bereich eingesetzten Systeme eine wissenschaftliche Prüfung und Freigabe durchlaufen.

    Wenn ein Algorithmus hingegen ohne menschliche Zwischeninstanz eigenständig entscheidet, dann muss der Anbieter des Systems direkt verantwortlich und haftbar gemacht werden können. Dies ist beispielsweise bei selbstlenkenden Autos der Fall. Das Gesetz zur Erlaubnis hoch- und vollautomatisierten Fahrens in Deutschland regelt, dass der Fahrzeughersteller für Schadensfälle haftet, die durch Softwarefehler hervorgerufen werden. Der Fahrer bzw. die Fahrerin ist nur dann haftbar, wenn er offensichtlich hätte erkennen müssen, dass das Auto nicht funktioniert (wie bei einem platten Reifen) oder trotz ordnungsgemäßer Alarmierung durch das System es versäumt, die Lenkung wieder zu übernehmen. Ein Datenspeicher im Fahrzeug (Black Box) zeichnet die Abläufe auf, um nach einem Unfall die Fehlerquelle zu ermitteln.

    Diese Lösung bietet sich auch für andere vollautomatisierte Systeme an, denn: Technisches Versagen bleibt technisches Versagen – es ändert sich grundlegend nichts am bisherigen Haftungsrecht. Genauso verhält es sich bei Sicherheitslücken: Wenn Hacker eine Schwachstelle in der Software ausnutzen, um in ein automatisiertes Fahrzeug oder einen digitalen Herzschrittmacher einzudringen und dadurch einen Schaden herbeiführen, ist dafür der Hersteller im Rahmen der Produkthaftung verantwortlich.

    Wenn algorithmenbasierte Systeme fehlerhaft entscheiden und dadurch einen Schaden verursachen, muss die Haftung rechtlich geklärt sein. Etwaige Haftungslücken müssen ausgeschlossen werden. Die Verantwortung für Fehler und Schäden trägt auch bei algorithmischen Systemen immer der Mensch: entweder derjenige, der die letzte Handlungsentscheidung trifft, oder der Anbieter des Systems, wenn dieses ohne weitere menschliche Instanz eigenständig entscheidet. Zwischen der Produkthaftung (fehlerhafter Algorithmus) und Mitverschuldenshaftung (kein Software-Update installiert) muss ein interessengerechter Ausgleich geschaffen werden.

     

  • Krebs ist eine hochkomplexe Krankheit. Jeder Krebs ist anders und bedarf einer speziell abgestimmten Therapie. Bei bestimmten Krebsarten kommt die medizinische Forschung seit Jahrzehnten kaum voran. Dank KI kann Krebs heute früher und genauer diagnostiziert werden, und die Therapie kann immer besser individuell abgestimmt werden. Dank Big-Data-Analysen konnten beispielsweise neue Medikamente entwickelt werden, die zu einer schonenderen Behandlung von Hirntumoren bei Kindern verhelfen. „Der Rückgriff auf große Datenmengen“, so der Deutsche Ethikrat, ermöglicht es, dass „Nebenwirkungen reduziert und unnötige Therapieversuche unterbleiben können. Die Sammlung und Auswertung gesundheitsbezogener Daten erschließt zudem neue Potentiale bei der Früherkennung und Prävention von Erkrankungen.“

    Dies wirft die Frage auf, ob es nicht eine ethische Pflicht geben sollte, persönliche Gesundheitsdaten etwa für die Krebsforschung zu teilen. Schließlich möchten alle im Krankheitsfall von der Forschung profitieren, und unzählige Menschenleben stehen auf dem Spiel.  Überspitzt: Sollten die Menschen, die ihre Daten nicht spenden, auch nicht von den datenbasierten Therapiemethoden profitieren dürfen?

    Diese Frage stellt sich ähnlich auch für andere Bereiche des täglichen Lebens. Eine echte Datenwirtschaft ist abhängig von der Möglichkeit, Daten für die Entwicklung und den Einsatz darauf aufbauender Anwendungen nutzen zu können.

    Manche befürchten, dass sich Arbeitgeber, Versicherer oder Staat ihren Zugang zu diesen intimen Informationen ausweiten und diese zu Diskriminierung bei den Versicherungstarifen oder im Arbeitsverhältnis missbrauchen („gläserner Patient“). Das geltende Datenschutzrecht, das Allgemeine Gleichbehandlungsgesetz (AGG) und die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) stellen jedoch eine wirksame Vermeidung einer solchen Zweckentfremdung sicher und verhindern eine unbotmäßige Diskriminierung bei Tarifen und Angeboten, egal ob diese auf Big Data basieren oder nicht. Dieser institutionelle Rahmen hat sich bewährt.

    Denkbar wäre eine nationale Forschungsdatenbank, auf der die Daten beispielsweise von Krebstherapien standardisiert gesammelt werden, wobei eine individuelle Möglichkeit zum Widerspruch bestünde („opt-out“). Zu regeln wäre dabei auch, inwieweit bereits bestehende, jedoch bei unterschiedlichen Institutionen verstreute Daten dort zentral zusammengeführt werden können.

    Eine weitere Möglichkeit wäre eine „Datenspende“ analog zur Organspende: Viele Menschen sind bereit, ihre Gesundheitsdaten nach ihrem Tod für die medizinische Forschung zur Verfügung zu stellen. Hierfür könnte eine besondere Einwilligungserklärung geschaffen werden, mit der man sich für eine Datenspende registrieren und die Bedingungen angeben kann (z.B. Forschungszwecke, Datenbestandteile, Anonymisierung). Ein solches Verfahren würde auch die strengen Vorgaben des Datenschutzrechts berücksichtigen.

    Der Staat sollte eine nationale Forschungsdatenbank für Gesundheitsdaten zu Forschungszwecken einrichten und die Möglichkeit, persönliche Daten zur medizinischen Forschung zur Verfügung zu stellen, erleichtern. Insbesondere sollte eine Möglichkeit zur „Datenspende“ nach dem Tod geschaffen werden.

  • Intelligente Assistenzsysteme wie die Roboter „MARIO“, „Emma“, „Robina“, „Pepper“ oder „Alice“ können in Pflegeheimen und im eigenen Zuhause zur Unterstützung der Pflegebedürftigen eingesetzt werden. Sie dienen als Konversationspartner insbesondere für Demenzerkrankte, für die Sprachsteuerung der vernetzten Wohnung (beispielsweise zur Fernöffnung der Tür) oder als Notrufsystem (ggf. mit automatisierter, videogestützter Sturzerkennung).

    Die intuitive Befürchtung, dass mit dem Einsatz von Robotern noch mehr menschliche Nähe in der Pflege verlorengeht, scheint sich bislang eher nicht zu bewahrheiten. Das wäre auch gar nicht ihr Sinn und Zweck: Digitale Assistenzsysteme sind nicht als Ersatz, sondern als Ergänzung und Entlastung des Pflegepersonals gedacht. Pilotprojekte lassen vermuten, dass ältere Menschen trotz anfänglicher Skepsis die Pflegeroboter durchaus wertschätzen, wie der niederländische Dokumentarfilm „Ich bin Alice“ (2015) liebevoll zeigt.

    Ethische Bedenken ergeben sich beim Grad der Kontrolle der Pflegebedürftigen durch digitale Assistenzen. Roboter mit Sprach- und Bilderkennung sowie Internetverbindung sind technisch prinzipiell in der Lage, Dritten die dauerhafte Überwachung des Pflegebedürftigen zu ermöglichen. Wenn ein älterer Mensch beispielsweise die verschriebenen Medikamente nicht einnehmen möchte, könnte dies dem Personal oder den Angehörigen übermittelt werden. Auch kleine Regelverstöße könnten ständig geahndet werden – etwa, wenn in einem Pflegeheim Alkoholkonsum untersagt ist, die Bewohnerin sich aber dennoch heimlich ein Glas Wein genehmigt.

    Das Recht auf informationelle Selbstbestimmung macht indes auch am Pflegeheim nicht Halt. Wie weit ein Bürger oder eine Bürgerin persönliche Daten preisgibt, liegt in seiner bzw. ihrer Hand. Wenn ein älterer Mensch etwa weiß, dass er vergesslich ist, dann könnte er verfügen, dass sein Nachbar oder eine Angehörige per Push-Nachricht eine Warnung erhält, wenn er seine Medikamente nicht genommen hat. Jede Datenübertragung bedarf einer aktiven Einwilligung oder einer anderen datenschutzrechtlichen Grundlage.  Damit lassen sich unerwünschte Eingriffe in die Privatsphäre ausschließen. Ein Sonderfall liegt vor, wenn beispielsweise bei Demenzerkrankungen eine Betreuung gerichtlich angeordnet ist. Diese Fragen sind aber keine technischen Fragen – sie sind gesellschaftlicher Natur.

    Auch für Pflegebedürftige gilt der Schutz der informationellen Selbstbestimmung. Der Einsatz digitaler Monitoringsysteme bedarf daher der individuellen aktiven Einwilligung.

     

  • Die gesetzliche Krankenversicherung basiert auf dem Prinzip der Solidarität: Jede(r) zahlt den gleichen Beitrag entsprechend des Einkommens, ungeachtet des individuellen Krankheitsrisikos oder Lebensstils. Das Sozialgesetzbuch (SGB V) sieht allerdings auch gewisse Grenzen dieser Solidargemeinschaft vor; der Sozialversicherte bekommt nur jene Leistungen, die „angemessen, notwendig und zweckmäßig“ sind. Das SGB V kennt die Begriffe „Selbstverschulden“ und „Eigenverantwortung“. So ist die gesetzliche Krankenversicherung beispielsweise berechtigt, bei Selbstverschulden Leistungen zu kürzen oder gar nicht zu gewähren. 

    Die neue Datenfülle durch Sensoren, die am Körper getragen werden (Wearables) oder im Körper implantiert werden (Implantables), nähren die Befürchtung, dass die Solidarität zugunsten datenbasierter Individualtarife aufgeweicht werden könnte. In diesem theoretisch denkbaren Szenario würden Versicherte, die ihre Körperdaten an die Krankenkasse übermitteln und einen gesunden Lebenswandel nachweisen können, mit einem günstigeren Tarif belohnt werden. Die immer feinkörnigeren Analysen großer Datenmengen könnten es zudem ermöglichen, das Erkrankungsrisiko präzise für jeden einzelnen Menschen zu bestimmen, was eine sehr starke Individualisierung des Tarifs vorstellbar machen würde.

    In einem solchen Szenario, so wird befürchtet, könnten Gesunde vermehrt zu privaten Versicherern wechseln, wodurch sich bei den gesetzlichen Kassen diejenigen Menschen mit hohem Erkrankungsrisiko sammeln. Da die Privatversicherer die Tarifgruppe jedes/jeder Neuversicherten anhand umfassender Daten einschließlich medizinischer Vorbefunde festlegen (risikoäquivalente Prämien), könnten künftig weitere persönliche Daten etwa zu Ernährung oder Sport angefordert werden; wer sich dem verweigert, würde eine höhere Prämie erhalten.

    Bei dieser Angst vor einer digitalen Zwei-Klassen-Medizin handelt es sich aber lediglich um ein theoretisches Zukunftsszenario ohne aktuelle Bezüge. Weder private noch gesetzliche Kassen nutzen mittels Apps oder Körpersensoren erhobene Verhaltensdaten für ihre Tarifkalkulation. In der gesetzlichen Krankenversicherung gilt eine Aufnahmepflicht ohne vorherige Gesundheitsprüfung (Kontrahierungszwang), ebenso bei privaten Krankenversicherungen für neugeborene Kinder von privat versicherten Eltern. Tarifkriterien wie Erkrankungsrisiko oder Lebensstil sind untersagt. Das Versicherungsvertragsgesetz verbietet darüber hinaus ausdrücklich, dass die Weigerung, an „erweiterten Datensammlungen bezüglich seiner Gesundheit und seines Lebenswandels teilzunehmen“, zu Nachteilen beim Versicherungsbeitrag führen darf. Auch jüngste Initiativen für Wearables, wie Teilzuschüsse für Smartwatches durch die AOK Nordost, sind nicht an die Übermittlung der daraus generierten Daten gebunden; es handelt sich hierbei um eine Marketingmaßnahme. Zuschüsse und Bonuszahlungen bewegen sich innerhalb gesetzlich eng definierter Grenzen und werden auch im „analogen“ Leben gezahlt, beispielsweise für die Mitgliedschaft in einem Sportverein oder für die bloße Zusicherung, Nichtraucher zu sein. Hier macht die Digitalisierung keinen qualitativen Unterschied zum tradierten System.

    Beschränkt wird die befürchtete Abwanderung der Gesunden zu den privaten Kassen zudem durch die Beitragsbemessungsgrenze, die einen Wechsel zu einem Privatversicherer nur ab einer bestimmten Gehaltsklasse ermöglicht. Und: Auch private Kassen basieren auf der allgemeinen Versicherungslogik – auch hier zahlen immer Gesunde für Kranke. Wie bei jedweder Versicherung gilt auch hier die Logik der Risikoverteilung auf ein Kollektiv; nur die soziale Umverteilungskomponente ist schwächer ausgeprägt.

    Als kritisches Beispiel wird häufig das Vitality-Programm der Generali zitiert: Teilnehmende Versicherte können dabei Daten über ihr gesundheitsbewusstes Verhalten über Apps und Wearables übermitteln und kommen im Gegenzug in den Genuss von Prämienvorteilen. Allerdings handelt es sich hierbei nicht um eine Krankenversicherung, sondern um Lebensversicherungen (Berufs-/Erwerbsunfähigkeits- sowie Risikolebensversicherung). Eine Tarifkalkulation anhand risikorelevanter Daten (wie Vorerkrankungen) ist bei Lebensversicherungen seit jeher allgemein akzeptiert, worauf der Deutsche Ethikrat hinweist. Inwieweit dabei auch die Aufzeichnung der täglich gelaufenen Schritte aus ethischer Perspektive eine Rolle spielen kann, bleibt jedoch Gegenstand der Diskussion.

    Bei Privatversicherern besteht mehr Spielraum für datenbasierte Modelle, da sie sich seit jeher auf den kollektiven Risikoausgleich konzentrieren und generell dem Solidarprinzip nicht so strikt folgen wie die gesetzlichen Krankenversicherungen mit ihrer sozialen Umverteilungskomponente. Aber auch bei den gesetzlichen Kassen sind datenbasierte Modelle grundsätzlich vorstellbar, solange die Solidarität gewahrt bleibt. Unabhängig, ob nun Big Data und Algorithmen zum Einsatz kommen oder nicht, ist die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) bereits jetzt gehalten, die Tarifstruktur zu beobachten und nach Recht und Gesetz zu kontrollieren.  Eine digitale Zwei-Klassen-Medizin droht uns jedenfalls nicht.

    Solidarität ist keine technische Frage, sondern eine gesellschaftliche. Unsere bisherigen Prinzipien der Solidarität gelten auch für die digitale Gesellschaft und werden durch die staatliche Aufsicht nach Maßgabe von Recht und Gesetz kontrolliert. Ängste vor einer digitalen Zwei-Klassen-Medizin sind unbegründet. Stattdessen sollten wir uns mehr auf die Chancen der KI in der Medizin konzentrieren.

     

  • Versicherungen wie die Generali, die Allianz oder die HUK Coburg gehören zu den ersten Anbietern so genannter Telematiktarife in der Kfz-Versicherung: Wer umsichtig fährt, wird mit einem Bonus belohnt („Pay-as-you-drive“: „Bezahle, wie du fährst“). Ein im Auto installierter Datenspeicher (Black Box) zeichnet dafür das Fahrverhalten auf und übermittelt die Daten an die Versicherung, unter Voraussetzung der aktiven Zustimmung zur Datenübertragung. Gerade für junge Menschen, die sonst hohe Tarife zahlen müssen, kann ein solcher Tarif deutliche Einsparungen bringen. Zugleich versprechen sich die Versicherungen eine engere Beziehung zum ihren Kunden, wenn sie ihnen regelmäßig eine Auswertung ihres Fahrverhaltens senden.

    Im Unterschied zur Krankenversicherung sind in der Kfz-Versicherung individuelle Faktoren bei der Prämienberechnung gesellschaftlich allgemein akzeptiert. Der Tarif richtet sich seit jeher nach diversen persönlichen Merkmalen (wie Alter, Beruf, Fahrleistung, Wohnbezirk) sowie Kriterien zum Auto, und hebt dabei sehr stark auf das Individuum ab. So zahlen junge Menschen eine deutlich höhere Prämie – allein aufgrund ihres Alters. Eine soziales Umverteilungsziel, wie bei der gesetzlichen Krankenversicherung, ist der Kfz-Versicherung fremd. Die Solidargemeinschaft hebt allein auf die kollektive Versicherungslogik ab. Im Unterschied zur Krankenversicherung hat der/die Einzelne die von ihm/ihr verursachten Schäden im Straßenverkehr vorwiegend selbst in der Hand und wird auch durch eher individualisierte Tarife kaum in den Freiheitsrechten beschnitten, so die Ansicht der Ethik-Kommission des Bundesverkehrsministeriums. Telematiktarife bei Kfz-Versicherungen hält die Kommission daher im Rahmen einer Güterabwägung für vertretbar. 

    Telematiktarife in der Kfz-Versicherung sind ethisch unbedenklich. Die Verwendung der Daten muss im Einklang mit dem Datenschutzrecht erfolgen.

     

  • Jedes Fahrzeug, auch wenn es nicht vollständig autonom fährt, könnte mit einem digitalen Kontrollsystem ausgestattet werden, das ein Beschleunigen über die Höchstgeschwindigkeit hinaus technisch unmöglich macht oder auf einen bestimmte Toleranzzone (z.B. 7 km/h zu schnell) begrenzt. Neben solchen Abriegelungen wäre es auch denkbar, jede einzelne Überschreitung des Tempolimits an Flensburg zu übermitteln und per Strafzettel automatisch zu ahnden.

    Im Dienste der Verkehrssicherheit mag eine solche Regelung durchaus vorstellbar sein. Indessen gehört es jedoch auch zur Freiheit des Menschen, unvernünftig zu handeln – oder zumindest die bloße Möglichkeit dazu zu haben, ohne diese Möglichkeit tatsächlich zu nutzen. Die Ethik-Kommission Automatisiertes und Vernetztes Fahren verhält sich dazu wie folgt: „Ausdruck der Autonomie des Menschen ist es, auch objektiv unvernünftige Entscheidungen wie eine aggressivere Fahrhaltung oder ein Überschreiten der Richtgeschwindigkeit zu treffen. Dabei würde es dem Leitbild des mündigen Bürgers widersprechen, würde der Staat weite Teile des Lebens zum vermeintlichen Wohle des Bürgers unentrinnbar durchnormieren und abweichendes Verhalten sozialtechnisch bereits im Ansatz unterbinden wollen. Solche absolut gesetzlichen Sicherheitszustände können trotz ihrer unbestreitbar guten Zwecke die Grundlage einer humanen, freiheitlichen Gesellschaft untergraben. (…) Es besteht keine ethische Regel, die Sicherheit immer vor Freiheit setzt.“ Etwaige technische Voreinstellungen müssen es daher dem Individuum ermöglichen, in eigener Verantwortung die Abriegelung zu übergehen (Overruling).

    Die Geschwindigkeitskontrolle bei Autos ist hierbei nur ein Beispiel. Ebenso wäre technisch darstellbar, jede Ampel digital zu überwachen und alle Fußgänger, die bei Rot die Straße überqueren, an die Polizei zu melden. Für viele andere kleine und kleinste Regelverstöße könnten ähnliche Überwachungs- und Strafsysteme entworfen werden. Eine solche dauerhafte Verhaltenskontrolle ließe am Ende gar nicht mehr zu, überhaupt jemals etwas „Unvernünftiges“ zu tun, und würde damit den Menschen jeder Handlungsfreiheit und Würde berauben. Sie ist daher ethisch nicht zu begründen.

    Eine dauerhafte Verhaltenskontrolle durch technische Abriegelung oder automatisierter Sanktionierung ist ethisch nicht zu rechtfertigen. Etwaige Voreinstellungen etwa bei automatisierten Fahrzeugen müssen vom Menschen außer Kraft gesetzt werden können.

     

  • Man stelle sich folgende Situation vor: Sie sitzen am Lenkrad und stehen vor der Wahl, das Fahrzeug entweder in eine ältere Dame auf der Straße oder aber auf ein Kind auf dem Gehweg zu lenken – der Unfall an sich wäre aber unvermeidlich. Ein menschlicher Fahrer hätte wegen der kurzen Reaktionszeit gar keine Chance, sich wirklich bewusst zu entscheiden. Welche Entscheidung müsste ein Algorithmus treffen, der das Fahrzeug steuert?

    Diese Dilemma-Situation ist nicht neu, sondern wurde schon vor über 2000 Jahren im antiken Griechenland im Schiffbrüchigen-Dilemma diskutiert: damals am Beispiel einer eine Planke, die nur einen Schiffbrüchigen retten kann, sodass ein anderer geopfert werden muss. In den 1950er Jahren beschäftigte sich die juristische Literatur mit dem „Weichensteller-Fall“, bei dem ein Bahnarbeiter einen Güterzug auf ein anderes Gleis umleitet, um eine Kollision mit einem vollbesetzten Personenzug zu vermeiden, aber dafür das Leben einiger Gleisarbeiter opfern muss.

    Das Bundesverfassungsgericht hat 2006 in seinem Urteil zum Luftsicherheitsgesetz nochmals bekräftigt, dass das Grundgesetz verbietet, Menschenleben gegeneinander aufzuwiegen und die einen für die anderen zu opfern. Im konkreten Fall ging es darum, ob der Staat ein von Terrorkommandos entführtes Passagierflugzeug abschießen darf – beispielsweise, wenn die Maschine in ein Fußballstadion oder auf ein Atomkraftwerk zusteuert. Auch die Anzahl der zu rettenden Menschen darf dabei keine Rolle spielen, so das Gericht, denn es stehe nicht dem Staat zu, zu entscheiden, wer überleben dürfe und wer nicht.

    Die im Jahr 2017 vom Bundesverkehrsministerium berufene Ethik-Kommission Automatisiertes und Vernetztes Fahren wies jedoch darauf hin, dass bei der Programmierung von Algorithmen für autonome Fahrzeuge die Identität der möglichen Unfalltoten noch nicht feststeht. Damit unterscheidet sich die Situation von den oben genannten Fällen, denn die Entscheidung über die zu opfernden Menschenleben würde hier nicht konkret und ad hoc, sondern abstrakt und ex-ante gefällt. Eine Programmierung, welche die Zahl der Opfer reduziert, könnte damit mit der Menschenwürde vereinbar sein. Zu einer endgültigen Bewertung hat sich die Kommission nicht durchringen können. Sie unterstrich aber, dass in keinem Falle einzelne Menschenleben qualifiziert werden dürfen – ein Leben eines Kindes sei genau so viel wert wie das eines Älteren oder Kranken. Eine Programmierung nach bestimmten Merkmalen wie Geschlecht oder Alter verbiete sich demnach, eine allgemeine Programmierung zur Minderung der Zahl der Opfer sei aber ethisch möglicherweise zulässig.

    Das Urteil der meisten Menschen wäre dagegen ziemlich eindeutig, wie ein etwas makabres Experiment eines Forschungsteams des Massachusetts Institute of Technology (MIT) zeigt. Im Fragebogen „Moral Machine“ können Testpersonen entscheiden, wen sie töten würden, wenn es zum unvermeidbaren Crash kommt: eine Katze oder einen Menschen, eine schwangere Frau oder einen obdachlosen Mann, zwei Insassen oder drei Fußgänger, usw. Die meisten Teilnehmenden haben demnach deutliche Präferenzen, wen sie retten würden: lieber Menschen als Tiere, lieber mehr Menschenleben als weniger, lieber Jüngere als Ältere, und lieber Frauen als Männer.

    Indes: All diese Szenarien sind lediglich theoretische Gedankenspiele, die in der Realität praktisch nie vorkommen. Die Unfallforschung des Allianz Zentrums für Technik (AZT) hat detaillierte Analysen von über 30.000 Unfällen mit Sach- und Personenschaden seit 2008 durchgeführt. Dabei wurde keine einzige (!) Dilemma-Situation gefunden. Dilemma-Situationen sind also sehr seltene Ereignisse, obgleich nicht vollständig auszuschließen. Sie stellen also Extremfälle dar, und wären auch nicht zu lösen, wenn ein Mensch am Lenkrad säße. Es macht daher wenig Sinn, die Ethik von Algorithmen ausgerechnet und immer wieder am Beispiel von Dilemmata beim autonomen Fahren zu diskutieren.

    Jedes Jahr kommen in Deutschland über 3000 Menschen im Straßenverkehr ums Leben. Davon sind rund 90 Prozent auf menschliches Versagen zurückzuführen – wie zu hohe Geschwindigkeit, zu geringer Sicherheitsabstand zum vorausfahrenden Fahrzeug oder Unaufmerksamkeit –, während nicht einmal ein Prozent durch technische Mängel verursacht wurde. Automatisiertes Fahren bietet daher die Chance, die Zahl der Toten im Straßenverkehr drastisch zu reduzieren. Ist es gerechtfertigt, auf automatisiertes Fahren zu verzichten, wenn tausende Menschenleben gerettet werden könnten?

    Dilemma-Situationen sind per definitionem nicht zu lösen. In jedem Falle muss das Auto in einer drohenden Unfallsituation scharf bremsen, die Spur halten und die Kollision maximal verzögern, um die Unfallfolgen zu minimieren. Ein Computer kann deutlich schneller und stärker bremsen als ein Mensch. Das würde den Aufprall abschwächen und damit den möglichen Schaden zumindest reduzieren. Eine solche Regel muss dem Fahrzeug im maschinellen Lernen durch zielgerichtete Gestaltung von Trainingsdaten und Simulationen antrainiert und in Tests geprüft werden.

     

     

  • In Washington D.C. des Jahres 2054 geschehen keine Morde mehr. Die Firma Precrime hat sich darauf spezialisiert, Verbrechen vorherzusagen, bevor sie geschehen – und die künftigen Mörder bereits vor der Tat in Verwahrung zu bringen. – Was im US-Thriller „Minority Report“ (2002) noch pure Science-Fiction war, ist heute nicht mehr ganz abwegig. Sechs deutsche Bundesländer und viele Städte weltweit planen ihre Polizeiarbeit auf Basis algorithmengestützter Kriminalitätsprognosen. Die Modelle gehen dabei davon aus, dass eine höhere Zahl an Verbrechen in einem Straßenzug darauf hindeutet, dass in der Nähe auch weitere Taten wahrscheinlich sind („Near-Repeat“). Für manche Vergehen wie Wohnungseinbrüche ist dieses Muster empirisch nachgewiesen. Das Prinzip ist nicht neu: Bereits vor der Erfindung des Computers haben Behörden mit solchen Vorhersagen gearbeitet. Angesichts spärlicher Daten und einfacher Rechenmethoden blieben solche Prognosen aber lange holzschnittartig. Heutige Computermodelle erlauben deutlich komplexere Berechnungen.

    Der Eingriff in die Freiheitsrechte durch eine computergestützte Einsatzplanung ist verhältnismäßig gering, wenn keine personenbezogenen Daten in die Berechnungen einfließen. Ob sich dadurch tatsächlich Verbrechen verhindern lassen, ist indes schwer nachweisbar. Zudem kann eine vermehrte Polizeipräsenz auch zum Unsicherheitsgefühl der Anwohner beitragen und zu einer Abwertung der Wohngebiete führen.

    Problematischer als die Streifenplanung ist die automatisierte Gesichtserkennung. Politprojekte laufen auch in Deutschland, u.a. am Bahnhof Berlin-Südkreuz. Intelligente Kameras können sämtliche Passanten auf öffentlichen Plätzen erfassen und die Aufnahmen mit Fotos von Straffälligen abgleichen sowie auffällige Verhaltensmuster erkennen, die auf die Planung von Verbrechen schließen lassen. In China testet die Polizei spezielle Datenbrillen, um gesuchte Personen im öffentlichen Raum zu erkennen. Daten aus Verkehrsüberwachungskameras, Bankautomaten und Smartphones werden dort in einem zentralen Datenpool zusammengeführt. Es steht zu befürchten, dass die Technologie missbraucht wird, um Minderheiten und politisch gegnerischere Gruppen zu unterdrücken.

    Neben prinzipiellen Fragen des Datenschutzes drängt sich nicht nur in Deutschland die Frage auf, ob eine solche Massenüberwachung gerechtfertigt werden kann, um nur wenige Straftäter dingfest zu machen; in einer freiheitlichen Gesellschaft müssen sich die Mittel zur Rechtsdurchsetzung an der Verhältnismäßigkeit messen lassen. Trotz der immer besseren Reife der Technologie geraten zudem viele Unschuldige ins Fadenkreuz. Wenn der Algorithmus unter 100.000 gescannten Personen pro Tag nur ein Prozent fehlerhaft für gefährlich hält, müssten täglich 1000 Menschen eine Polizeikontrolle über sich ergehen lassen – ohne dass sie wüssten, warum. Eine von US-Polizeibehörden benutzte Software zur Gesichtserkennung stufte in einem Test beispielsweise 28 Kongressabgeordnete irrtümlich als gesuchte Kriminelle ein – scheinbar reichte deren dunkle Hautfarbe aus, um verdächtigt zu werden. Die derzeitige Fehlerquote, bei der gesuchte Personen unerkannt bleiben, aber andere fälschlicherweise ins Visier geraten, ist offensichtlich zu hoch.

    Rassismus ist aber kein Problem von Algorithmen alleine. Im Gegenteil: Obwohl „Racial Profiling“ – also polizeiliche Kontrollen nach äußerlichen Merkmalen wie Hautfarbe oder Gesichtszüge – geächtet ist, scheint es eine Tendenz zu geben, dunkelhäutige Personen deutlich häufiger zu kontrollieren, härter zu befragen und auch sonst anders zu behandeln – auch in Deutschland. Solcher Alltagsrassismus ist ein Problem, das stärker thematisiert werden muss, zumal er auch von staatlichen Behörden ausgeht.

    Regierungen könnten Gesichtserkennung einsetzen, um vermisste Kinder zu finden oder Terrorismus zu verfolgen. Sie könnten sie aber auch einsetzen, um jede Teilnehmerin und jeden Teilnehmer einer Demonstration automatisch in einem Archiv zu vermerken oder um Oppositionelle aufzuspüren. Sorgt dieses erhebliche Missbrauchspotenzial bereits in freiheitlichen Demokratien für Besorgnis, ist ein solches Szenario in autoritären Regimen umso beängstigender.

    Ein weiterer Aspekt ist die automatisierte Mustererkennung in E-Mails und Nachrichtenapps. Facebook scannt die im Messenger versendeten Nachrichten auf Verstöße gegen die Nutzungsrichtlinien und hat z.B. während des Völkermords in Myanmar 2018 private Nachrichten blockiert, die zum Hass aufstacheln sollten. Facebook hat außerdem einen Algorithmus entwickelt, um Selbsttötungsabsichten zu entdecken und im Notfall Helfer zu alarmieren. Einerseits kann maschinelles Scannen von Nachrichten als Übergriff in die private Kommunikation empfunden werden; andererseits muss auch gerechtfertigt werden, wenn man den Tod von Menschen in Kauf nimmt, der durch technische Abhilfe verhindert werden könnte.

    Präventive Polizeiarbeit kann tief in die Freiheitsrechte unbescholtener Bürger eingreifen, insbesondere bei der automatisierten Verknüpfung von Videomaterial mit weiteren Daten oder anderen Maßnahmen, die vom Einzelnen nicht nachvollzogen werden können. Prinzipiell ist eine flächendeckende Überwachung technisch darstellbar, sodass sich das Individuum gar nicht mehr anonym und unbeobachtet in der Öffentlichkeit bewegen könnte – und damit nicht mehr frei wäre. Das schafft eine Atmosphäre des Überwachtwerdens und der Einschüchterung, und vermag das Verhalten der Menschen im öffentlichen Raum zu lenken, was unvereinbar ist mit einer freiheitlichen Gesellschaftsordnung.

    Präventive Polizeiarbeit findet ihre rechtsstaatlichen Grenzen in der Unschuldsvermutung, der allgemeinen Handlungsfreiheit und der informationellen Selbstbestimmung. Massenhafte Videoüberwachung mit automatisierter Gesichtserkennung ist damit nicht vereinbar. Der Einsatz von KI in diesem Bereich wird das Problem noch verschärfen. Es bedarf neuer, engerer und eindeutigerer Gesetzesgrundlagen, um eine weitere Aushöhlung der Grundrechte zu verhindern. Der Staat kann sich seinem Schutzauftrag nicht weiter unter der Legitimationsfassade der Terrorismusbekämpfung entziehen. Hier wurden die Eingriffsbefugnisse der Behörden in den letzten Jahren massiv erweitert.

     

  •  

    In einer nicht mehr fernen Zukunft besteht die Möglichkeit, mittels einer AR-Brille (Augmented Reality) wie z.B. „Google Glass“ oder „HoloLens“ erweiterte Informationen beispielsweise über Gebäude oder Museen in die Brille einzublenden. Technisch denkbar wäre aber auch, Informationen über eine zufällig an uns vorbeigehende Passantin anzuzeigen, z.B. öffentlich gestellte Auskünfte aus sozialen Netzwerken wie Beziehungsstatus, Familienangehörige, Arbeitsstelle, Hobbys und Vorlieben. Algorithmen könnten zudem – zumindest theoretisch – ausrechnen, mit welcher Wahrscheinlichkeit die Person an bestimmten Krankheiten leidet, eine bestimmte sexuelle Orientierung hat oder arbeitslos zu werden droht.

    Hier stellt sich unmittelbar die Frage nach dem Erhalt der Privatsphäre im öffentlichen Raum. Ähnlich wie bei einer umfassenden Videoüberwachung mit automatisierter Gesichtserkennung wäre es dem Einzelnen nicht mehr möglich, sich überhaupt noch unbeobachtet zu bewegen. Die Verarbeitung personenbezogener Daten ist bereits heute in der EU-Datenschutzgrundverordnung strikt geregelt. Der dort verankerte Schutz der informationellen Selbstbestimmung verbietet ohne anderweitige Sicherungsmaßnahmen oder eine Einwilligung eine umfassende Profilbildung von Personen, auch mithilfe von AR-Brillen. Dass sich Google Glass nicht im Konsumentenbereich durchsetzen konnte und seit 2015 nur noch für industrielle  Anwendungen genutzt wird, ist ein wichtiges Indiz für die gesellschaftliche Akzeptanz solcher Technologien.

    Auf der anderen Seite können AR-Brillen dort ethisch unbedenklich ebenso wie sozial gewinnbringend eingesetzt werden, wo keine personenbezogenen Daten verarbeitet werden (wie etwa als Hilfestellung in  Industrie, Handwerk oder Logistik oder als Guide in Museen) oder wo sie als medizinisches Hilfsmittel dienen (wie etwa bei Blinden, bei denen digitale Brillen die Umwelt wahrnehmen und per Ton beschreiben, oder als „Lenkrad“ für die visuelle Steuerung von elektrisch betriebenen Rollstühlen).

    Die Verknüpfung von AR-Brillen mit personenbezogenen Daten findet ihre Grenze im Schutz der informationellen Selbstbestimmung. Zugleich sollten förderliche Einsatzgebiete von AR-Brillen, etwa im medizinischen Bereich, genutzt werden.

  • Soziale Medien öffnen Tür und Tor für Filterblasen, „Fake News“ und Manipulation; sie spalten die Gesellschaft und gefährden die Demokratie – so lautet zumindest der plakative Vorwurf. Eine deliberative Demokratie beruht auf einer gemeinsamen Verständigungsgrundlage darüber, was Tatsachen sind und was bloße Meinungen; denn wenn jeder seine „eigenen Fakten“ hat, kann der Diskurs nicht mehr funktionieren. Dann breitet sich Misstrauen aus, und die Gesellschaft spaltet sich.

    Das Internet hat zu einer Demokratisierung der Medienkommunikation geführt: Dank digitaler Medien können auch Menschen am Diskurs teilnehmen, die vorher keine Stimme hatten. Das ist ein unglaublicher Gewinn für die Gesellschaft. Und „Fake News“ sind keine Erfindung des Internets, sondern schon seit jeher in Gestalt von Propaganda, Verschwörungstheorien oder Ideologien natürlicher Teil der Menschheitsgeschichte. Auch heute sind Falschnachrichten kein exklusives Phänomen der sozialen Medien oder privater Blogs, sondern ebenso bedienen sich klassische Zeitungen und deren Onlineausgaben verzerrender Schlagzeilen.

    Allerdings sind Verschwörungstheorien gerade bei Menschen, die sich als marginalisierte Außenseiter fühlen, sehr populär; für sie sind soziale Medien ein idealer Kanal, um sich ihrer gefühlten Wahrheit zu versichern. Zu einem aufgeklärten demokratischen Diskurs trägt dies sicherlich nicht bei. Weil die Presse als vermittelnde Moderatorin geschwächt ist, können sich falsche Behauptungen schneller verbreiten, zumal wenn sie emotional aufgeladen sind. Eine großangelegte Studie zeigte, dass Falschnachrichten und Gerüchte auf Twitter mehr Menschen in einer höheren Geschwindigkeit erreichen als tatsächlich richtige Nachrichten. Nach Schätzung der Beratungsfirma Gartner werden wir im Jahr 2022 mehr falsche als richtige Informationen zu Gesicht bekommen.

    Falsche Informationen haben reale Folgen: In Myanmar stachelte eine feindselige Gruppe mithilfe einer Welle an Propaganda und Hasskommentaren – auch über soziale Medien – so sehr zu Gewalt auf, dass sie damit einen Völkermord an der ethnischen Minderheit der Rohingya auslöste. Im US-Wahlkampf 2016 verbreitete sich die Meldung über einen angeblichen Kindersexring im Keller einer Pizzeria in Washington D.C., in den auch Hillary Clinton verwickelt gewesen sein soll, derart rasant und für manche dermaßen überzeugend, dass ein mit einem Sturmgewehr bewaffneter Mann in die Pizzeria eindrang, in der Absicht, die Kinder zu befreien. Auch Deutschland bleibt nicht verschont: Sieben der zehn auf Facebook erfolgreichsten Beiträge über Angela Merkel sind faktisch falsch und dienen offenkundig ihrer gezielten Verleumdung. Insgesamt ist die Bedeutung von Fake News in Deutschland aber relativ gering und wird meist nur erreicht, wenn sich klassische Medien an deren Verbreitung beteiligen. Hauptquelle politischer Fake News sind hierzulande die AfD und andere rechtsextreme Gruppen.

    Für viele aktuelle Entwicklungen sind soziale Medien aber der falsche Sündenbock. So wurde oft gemutmaßt, Donald Trump habe seine Wahl zum US-Präsidenten hauptsächlich der massenhaften psychologischen Manipulation über Facebook-Werbung zu verdanken. Zwar hat die Trump-Kampagne mithilfe erschlichener Facebook-Profildaten unterschiedliche Zielgruppen mit maßgeschneiderten Werbebotschaften angesprochen (Microtargeting) und dabei auch (inzwischen nicht mehr mögliche) so genannte „Dark Ads“ benutzt, die nur für eine ausgewählte Zielgruppe sichtbar und für alle anderen verborgen sind.

    Allerdings ist die Vorstellung überzogen, man könne allein durch Werbeanzeigen auf Facebook eine halbe Nation hinters Licht führen. Die von Trump beauftragte (und inzwischen insolvente) Firma Cambridge Analytica machte eher durch zwielichtige Geschäftspraktiken von sich reden als durch überzeugende Belege für ihre großspurig behauptete Schlagkraft. Hinzu kommt: Trump-Sympathisanten nutzten kaum soziale Medien und informierten sich vornehmlich über den konservativen TV-Sender Fox News, was eher auf eine prominente Rolle des Fernsehens hindeutet.

    Ein damit verwandtes Problem besteht in der Bildung von digitalen Filterblasen. Es ist technisch denkbar, dass Algorithmen den Newsfeed in sozialen Netzwerken und die Ergebnisse bei Suchmaschinen derart vorfiltern, dass die jeweiligen Nutzer nur noch in ihren eigenen Ansichten bestätigt würden und andere Standpunkte gar nicht mehr zu Gesicht bekämen. Weil andere Meinungen dann gar nicht mehr auftauchen, müsste ein Einzelner so zwangsläufig den Eindruck bekommen, er sei mit seiner Ansicht in der Mehrheit – eine Echokammer, in der der eigene Ruf zurückhallt. In einer solchen Welt fehlt eine gemeinsame Verständigungsbasis, die für einen deliberativen Diskurs indes unabdingbar ist.

    Einer wissenschaftlichen Überprüfung hält die Befürchtung vor der Filterblase jedoch nicht stand. Eine Auswertung von acht Millionen Datensätzen bei Google-Suchen im Vorfeld der Bundestagswahl 2017 hat ergeben, dass die Suchergebnisse in Bezug auf Politiker und Parteien gar nicht personalisiert waren, abgesehen vom Ortsbezug. Tests in den USA bestätigen, dass auch dort keine nennenswerte politische Filterung auf Google stattfindet. Auch für Twitter und Facebook haben Analysen keine Filterblasen finden können. Die Forschungslage ergibt überdies recht eindeutig, dass die meisten Menschen in Deutschland andersartige Meinungen durchaus wahrnehmen und sich nicht nur über das Internet, sondern aus vielerlei Quellen informieren. In den USA korreliert eine höhere Nutzung sozialer Medien sogar mit geringerer politischer Polarisation – was sehr stark gegen das Argument der digitalen Filterblase spricht.

    Ein weiteres theoretisch denkbares Szenario betrifft die gezielte Manipulation des Algorithmus durch die Suchmaschinenbetreiber, um bestimmte politische Informationen entweder komplett auszublenden oder aber an erster Stelle anzuzeigen. Aus der Forschung weiß man, dass die Art der Berichterstattung die Wähler beeinflusst; so stieg nach jedem neuen Markteintritt des konservativen Fernsehsenders Fox News in einem US-Bundesstaat der Anteil der Wahlstimmen für die Republikaner signifikant an. Und bei Wahlzetteln neigen Wähler dazu, die Partei oder den Kandidaten bzw. die Kandidatin anzukreuzen, der bzw. die an erster Stelle steht. Ähnliche Effekte gelten auch online: Kandidaten, die weiter oben in den Suchergebnissen auftauchen, haben bei unentschlossenen Wählern deutlich höhere Chancen. Facebook hat nachgewiesen, dass allein die Einblendung einer „Ich habe gewählt“-Anzeige im Newsfeed die Wahlbeteiligung erhöhen kann – zwar nur schwach, aber durchaus genug, um bei knappen Wahlergebnissen den Ausschlag zu machen. Wenn diese Anzeige in einigen (z.B. eher linksliberalen) Bezirken ausgespielt wird, in anderen (z.B. eher konservativen) Bezirken aber nicht, könnte so das Wahlergebnis allein durch die Effekte der Wahlbeteiligung beeinflusst werden. Technisch wäre dies zwar denkbar, Facebook wendet diese Funktion aber nur einheitlich landesweit an und steigert damit allenfalls die Wahlbeteiligung insgesamt, ohne eine bestimmte Partei oder politische Richtung zu bevorzugen.

    Die Regulierung sozialer Medien gestaltet sich komplex, gerade bei der Eindämmung von absichtlichen Falschnachrichten, da die Grenze zwischen „wahr“ und „unwahr“ häufig verschwommen ist. Schon daher ist eine technische Lösung wie ein „Fake-News-Filter“ nicht in Sicht, zumal ein solches Instrument auch aus grundsätzlichen Bedenken gegenüber einer Zensurinfrastruktur abzulehnen ist. Nichtsdestoweniger ist eine höhere Transparenz bei politischer Werbung angebracht; es gibt zwar mannigfaltige gesetzliche Vorschriften für den Wahlkampf, die sich jedoch kaum auf den Onlineraum beziehen. In den USA und Deutschland arbeiten diverse Vorstöße von Regierungen und Wirtschaft daran, diese Lücke zu schließen. Facebook verlangt inzwischen für alle Anzeigen ein allgemein einsehbares Archiv einschließlich Angaben über Absender und Finanzier, und akzeptiert nur noch Werbekunden mit Sitz im Inland. Google hat eine Datenbank aller Werbekunden veröffentlicht, zunächst begrenzt auf die USA. Die EU-Kommission plant ebenfalls Maßnahmen gegen den Missbrauch persönlicher Daten für Wahlkampfzwecke, u.a. durch empfindliche Strafzahlungen für die die Verwendung erschlichener Daten wie im Fall Cambridge Analytica.

    Die Medien selbst müssen zur Qualitätssicherung beitragen und sorgfältige Recherche vor den Druck zur schnellen Meldung setzen, und damit sicherstellen, sich nicht selbst fahrlässig an der Entstehung oder Verbreitung von Fake News zu beteiligen. Der wirtschaftliche Druck zu hohen Klickraten rechtfertigt nicht jedes verkürzte Zitat oder jede irreführende Überschrift.

    Überfällig ist die Stärkung von Digitalkompetenz und Medienkunde in der Bevölkerung, und zwar in allen Altersklassen. Oft strotzen manipulative Meldungen von Rechtschreib- und Grammatikfehlern oder tauchen auf ominösen Webseiten auf – und sollten schon daher stutzig machen. Oft reicht kurzes Nachprüfen, um eine Falschmeldung als solche zu enttarnen. Auch andere Herausforderungen im Online-Medienkonsum können nicht ohne das Zutun der Nutzer angegangen werden.

    Politische Werbung muss auch in sozialen Medien transparent gemacht werden und Einmischung ausländischer Akteure muss ausgeschlossen werden. Die gegenwärtigen Initiativen von Digitalwirtschaft und Regierungen, demokratische Spielregeln für politische Werbung auch online zu gewährleisten, sind daher zu begrüßen. Medien, Wirtschaft, Staat und Zivilgesellschaft sollten intensiv daran arbeiten, die Kompetenzen der Bevölkerung in allen Altersgruppen im reflektierten Umgang mit digitalen Medien und sozialen Netzwerken zu stärken. Die Medien selbst müssen stärker in die eigene Qualitätssicherung investieren und Sorgfalt vor Schnelligkeit und Klickzahlen setzen.

     

     

  • Gesprächen kundtaten, wie etwa im kleinen Kreis am Stammtisch. Immer wieder werden Menschen zum Opfer einschüchternder Hassattacken und Gewaltandrohungen, die auch zu tatsächlichen gewaltsamen Übergriffen führen können.

    Die Anonymität im Internet ist keine überzeugende Erklärung für den rauen Umgangston, denn gerade die Zahl nicht-anonymer Hasskommentare ist erschütternd hoch. Mehr als zehntausend Menschen störte es beispielsweise nicht, mit vollem bürgerlichem Namen samt Foto öffentlich einer Facebook-Gruppe beizutreten, die die Wiederöffnung eines Konzentrationslagers forderte, bis die Gruppe schließlich von Facebook verbannt wurde.

    Die Meinungsfreiheit ist ein hohes Gut in einer freiheitlichen-demokratischen Grundordnung und wird vom Bundesverfassungsgericht weit ausgelegt. Auch mitunter als abstoßend, ausfällig oder beleidigend empfundene Äußerungen sind von der Meinungsfreiheit weitgehend geschützt. Die einfache Formel „Hass muss weg aus dem Netz!“ geht deshalb nicht auf. Zudem machen es subtile Untertöne, sarkastische/ironische Ausdrucksweisen oder kontextuelle Bezüge besonders schwer, eine Meinungsäußerung korrekt zu interpretieren. Eine automatisierte Löschung dürfte hier eine hohe Fehlerquote aufweisen und daher nicht infrage kommen. 

    Der deutsche Gesetzgeber hat 2018 mit dem auch seitens des BVDW stark kritisierten Netzwerkdurchsetzungsgesetz (NetzDG) die Verantwortung für die Inhaltskontrolle den Plattformen auferlegt. Demnach müssen private Unternehmen wie Facebook, Youtube und Twitter einstufen, welche Äußerungen gesetzeswidrig sind und „offensichtlich strafbare Inhalte“ binnen 24 Stunden löschen. Der Netzwerkbetreiber wird durch diese Regelung verpflichtet, sämtliche Inhalte, die in das soziale Netzwerk eingestellt werden sollen, bereits im Vorfeld auf ihre Rechtswidrigkeit – nämlich auf ihre Identität oder Vergleichbarkeit mit einem bereits entfernten Inhalt – zu prüfen.  Dies geht über das reine „Notice-and-Takedown“-Prozedere (also Entfernung eines beanstandeten Inhalts nach Erhalt eines Hinweises) hinaus, das in der europäischen E-Commerce-Richtlinie vorgesehen ist.  Eine solche Prüfung ist in einem rechtsstaatlich verfassten Gemeinwesen üblicherweise den Gerichten zugewiesen – hier befindet die Judikative darüber, ob und ggf. in welchem Ausmaß (Straf-)Gesetze verletzt werden. Es findet also eine Verlagerung originärer staatlicher Aufgaben auf Private statt.

    Ein systematisches Versäumnis der Löschpflicht zieht empfindliche Geldbußen nach sich, während eine zu hohe Löschquote (Overblocking) nicht sanktioniert wird. Unter dem Zeitdruck starrer Fristen kann eine juristische Abwägung der Rechtsgüter (Schutz des allgemeinen Persönlichkeitsrechts, Recht auf freie Meinungsäußerung) häufig nicht trennscharf erfolgen.  Bürgerrechtler befürchten daher eine Einschränkung der Meinungsäußerungsfreiheit.

    Erste Erfahrungsberichte legen nahe, dass Unternehmen vielfach Inhalte löschen, die zwar nicht gesetzlich strafbewehrt sind, aber gegen die – weiter gefassten –  Nutzungsbedingungen verstoßen.   Das private Hausrecht erlaubt es Plattformanbietern, Äußerungen, in denen sich Rassismus, Homophobie oder Sexismus wiederspiegeln, auf deren Plattform zu untersagen. Solche Inhalte sind häufig zwar nicht strafrechtlich relevant, vergiften jedoch die Debattenkultur, sowohl online als auch offline. Um den freien und sicheren Austausch von Meinungen zu gewährleisten, darf der Betreiber hier die Grenzen enger setzen als es das Strafrecht tut.

    Aufgrund der Rolle, die bestimmte soziale Netzwerke in der öffentlichen Meinungsbildung spielen, müssen die Hausregeln aufgrund der Ausstrahlungswirkung der Grundrechte deren wesentlichen Grundzüge wiederspiegeln. Das Recht des Plattformbetreibers, eigene Regeln zu setzen, wird hier mit dem Recht auf freie Meinungsäußerung der Nutzer abgewogen und in Einklang gebracht.

    Klar ist, dass es kein verfassungsrechtlich garantiertes Recht gibt, alles posten zu dürfen, was das Strafrecht nicht verbietet. Dieses Hausrecht wurde gerichtlich mehrfach anerkannt, zuletzt etwa bei einer Klage gegen die Hassrede-Klausel in den Facebook-Richtlinien, die auch menschenfeindliche Äußerungen unterhalb der strafrechtlichen Schwelle untersagt (im konkreten Fall ging es um die Bezeichnung des Islams als „Menschenrasse“). Dennoch wurde Facebook jüngst erstmals gerichtlich gezwungen, einen Kommentar wiederherzustellen, der wegen Verbots der Hassrede in den Nutzungsbedingungen gelöscht worden war (konkret ging es hierbei um eine abfällige Bemerkung zur Flüchtlingspolitik). Inzwischen wurde Facebook mit einer Klagewelle von Nutzern überzogen, die die Löschung ihrer Kommentare für unrechtmäßig hielten. Eine gerichtliche Kontrolle der Löschpraxis ist damit verwirklicht; weitere juristische Auseinandersetzungen dürften folgen.

    Die Umsetzung von Recht und Gesetz im Netz muss die Meinungsfreiheit als hohes Gut achten und zugleich Hassrede wirksam bekämpfen. Plattformbetreibern kommt dabei eine wichtige Rolle zu; ihre Nutzungsrichtlinien müssen die wesentlichen Grundzüge der Grundrechte widerspiegeln. Am Ende muss es Aufgabe der Gerichte bleiben, zu beurteilen, was rechtens ist und was nicht. Hass und Menschenfeindlichkeit sind keine Probleme, die allein technisch gelöst werden könnten. Eine Entfernung von Hasskommentaren aus dem Netz entfernt den Hass nicht aus der Gesellschaft. Wir müssen menschenfeindliche Ideologien gesellschaftlich bekämpfen, Zivilcourage stärken, den Opfern helfen und strafrechtlich relevante Äußerungen konsequent verfolgen

  • "Sie sind entlassen!“, titelte der Spiegel im Jahr 2016 und sagte voraus, intelligente Maschinen würden bereits in naher Zukunft einen Großteil der Arbeitsplätze verdrängen und die Mittelschicht zerstören. Unterfüttert wurde diese Warnung durch eine Studie der Oxford University, der zufolge 47% der Beschäftigten in den USA in Berufen arbeiten, die in den nächsten 20 Jahren mit hoher Wahrscheinlichkeit automatisiert würden. Übertragen auf Deutschland würde dies 42% der Beschäftigten betreffen.

    Angesichts der jüngsten Erfolge bei KI mag diese Zahl durchaus plausibel erscheinen. Neue Technologien bedrohen dabei nicht mehr nur einfache, routinierte Tätigkeiten, sondern auch mittel- und hochqualifizierte Berufe: Taxi- und Lkw-Fahrer, Dolmetscher, Übersetzer, Werbetexter, Journalisten, Juristen. 45% der Beschäftigten – darunter 37% der Hochqualifizierten – haben schon heute das Gefühl, der digitalen Technik ausgeliefert zu sein. Wenn tatsächlich die Hälfte der Arbeit überflüssig wird – was bleibt dann noch für den Menschen?

    In der Vergangenheit hat technologischer Fortschritt immer wieder zu einem Strukturwandel der Arbeitswelt geführt, an dessen Ende unterm Strich allerdings regelmäßig mehr statt weniger Beschäftigung stand. Vor der „Automation in Deutschland“ warnte der Spiegel bereits 1964, und „Die Computer-Revolution – Fortschritt macht arbeitslos“ titelte dasselbe Blatt im Jahr 1978. Und auch heute ist von einem nahenden „Ende der Arbeit“ (Jeremy Rifkin) zumindest bislang nichts zu spüren.

    Ob dies in Zukunft so bleibt, ist kaum vorherzusagen; die genannte Oxford-Studie jedenfalls überzeichnet das Automatisierungspotenzial deutlich: Sie berücksichtigt nicht, ob es sich auch wirtschaftlich lohnen würde, technisch automatisierbare Berufe tatsächlich zu automatisieren, und sie nimmt an, dass alle Arbeitsplätze eines bedrohten Berufszweigs wegfallen – was schwerlich der Fall sein dürfte. Zudem war der Mensch bisher immer unschlagbar in seiner Kreativität, neue Bedürfnisse und neue Berufe zu erfinden. Daher wundert es nicht, wenn andere Studien – etwa des IW Köln, von Capgemini, Prognos oder BCG –eine insgesamt höhere Nachfrage nach Arbeitskräften infolge von KI-Anwendungen vermuten. Eine Auswertung von 225 Studien durch die Internationale Arbeitsorganisation (ILO) ergibt demnach auch ein sehr differenziertes Bild von der Zukunft der Arbeit.

    Gerade die deutsche Industrie kann dank vernetzter Fertigung (Industrie 4.0) und 3D-Druck auch solche Wertschöpfung wieder ins Land zurückholen, die bislang aufgrund des Kostendrucks ins Ausland verlagert wurde, so etwa erst jüngst bei Adidas. Zudem herrscht bei sozialen Berufen, die ohnehin schwer automatisierbar sind – wie in Kindergärten, in Schulen, in der Kranken- und Altenpflege –, bereits jetzt akuter Personalmangel, der nicht zuletzt auf geringe Bezahlung und Reputation zurückgeht. Gesellschaftliches Umdenken ist gefragt.

    Unabhängig davon, ob uns am Ende wirklich die Arbeit ausgeht oder nicht: Zweifellos stellt die digitale Transformation die Arbeitsgesellschaft vor eine fundamentale Herausforderung dar und kann die soziale Polarisierung befördern. Laut Weltwirtschaftsforum sind zwei Drittel der Jobs, die unsere Kinder später ausüben werden, noch nicht erfunden. Und: Neu entstehende Jobs sind tendenziell anspruchsvoller und setzen eine höhere Qualifizierung voraus. Schon daher ist eine grundlegende Neuausrichtung des Bildungssystems dringend angezeigt. 

    Die Frage nach dem Wert des Menschen in der Arbeitswelt kann selbst dann mit einer positiven Vision beantwortet, wenn schlaue Computerprogramme und kluge Roboter tatsächlich dem Menschen die Arbeit abnehmen sollten. Könnte dann nicht endlich wahr werden, was schon Karl Marx als Utopie formulierte: „morgens zu jagen, nachmittags zu fischen, abends Viehzucht zu treiben, nach dem Essen zu kritisieren, wie ich gerade Lust habe, ohne je Jäger, Fischer, Hirt oder Kritiker zu werden“? Das alte Bild der menschlichen Lohnarbeit als prägendes Merkmal individueller Selbstentfaltung und als Garantin des Sozialstaats bismarckscher Konzeption hätte in einer solchen neuen Welt ausgedient – und das wäre trotzdem kein Übel. Es lohnt sich, darüber nachzudenken, warum und wofür wir eigentlich Lohnarbeit wollen oder brauchen, und was passieren müsste, wenn das Szenario vom Ende der Arbeit vielleicht doch eintritt. Visionäre Konzepte wie das Bedingungslose Grundeinkommen (BGE) oder andere Entwürfe einer neuen Arbeitsgesellschaft verdienen daher intensive Diskussion.

    Erstklassige Bildung sowie Aus- und Weiterbildung für alle Alters- und Berufsgruppen gehören zur obersten Priorität für Wirtschaft und Politik. Ein breit angelegtes Weiterbildungsprogramm muss Anreize setzen, schnell und flexibel neue Kompetenzen zu erwerben. Informatik, Medienkompetenz, kollaboratives Arbeiten, vernetztes Denken und Kreativität stehen dabei im Mittelpunkt. Informatik muss Pflichtfach werden, spätestens ab Sekundarstufe I. Alle Bildungseinrichtungen – Schulen, Berufsschulen, Volksschulen und Hochschulen – brauchen ausreichende personelle, technische und finanzielle Ausstattung. Wo die digitale Transformation zu Strukturwandel führt, muss ein funktionierender Sozialstaat die Brüche und Übergänge abfedern.