Die digitale Ethik ist ein junges Teilgebiet der angewandten Ethik. Sie fragt nach den moralischen Implikationen digitaler Technologien: Welche Verantwortung tragen Programmierer, Plattformen, Nutzer? Wer haftet, wenn ein selbstfahrendes Auto einen Unfäll verursacht? Darf eine künstliche Intelligenz über Bewerbungen, Kreditwürdigkeit oder Bewährung entscheiden? Was bedeutet Privatsphäre in einer Welt, in der jeder Klick, jede Suchanfrage, jede Bewegung gespeichert wird?
Der Begriff „Computerethik“ geht zurück auf Norbert Wiener (Kybernetik, 1950er Jahre) und wurde in den 1980ern von James Moor systematisch entwickelt. Mit dem Aufstieg von Internet, Smartphones und KI ist das Feld explodiert und berührt heute fast alle anderen ethischen Debatten: Demokratie, Arbeit, Bildung, Gesundheit, Krieg.
Künstliche Intelligenz wirft zentrale ethische Fragen auf. Klassisches Beispiel ist das autonome Fahren: Ein selbstfahrendes Auto muss in einer Gefahrensituation entscheiden – wen schützt es? Den Insassen oder den Fußgänger? Diese Variante des klassischen Trolley-Problems (Philippa Foot, 1967) ist heute keine Theorie mehr, sondern Programmieraufgabe. Die deutsche Ethik-Kommission Automatisiertes Fahren (2017) formulierte 20 Leitsätze, darunter: Sachschaden geht vor Personenschaden, Diskriminierung nach Alter oder Geschlecht ist unzulässig.
Eng verbunden ist das Problem der Verantwortungslücke (Andreas Matthias, 2004). Wenn ein selbstlernendes System eine fehlerhafte Entscheidung trifft, ist unklar, wer verantwortlich ist: der Entwickler, der Betreiber, der Nutzer – oder das System selbst? Klassische Verantwortungszuschreibung setzt voraus, dass jemand wissen konnte, was passiert. Bei lernenden Systemen ist das oft nicht mehr der Fall.
KI-Systeme werden mit historischen Daten trainiert – und reproduzieren damit oft die Vorurteile dieser Daten. Das nennt man algorithmischen Bias. Berühmtes Beispiel: Ein Bewerbungssystem von Amazon (2018) lernte aus alten Bewerbungen, dass Männer häufiger eingestellt wurden – und benachteiligte daraufhin Frauen systematisch. Auch Gesichtserkennungssysteme arbeiten bei weißen Männern weit präziser als bei schwarzen Frauen (Joy Buolamwini, MIT, 2018).
Ein weiteres Problem ist die Black Box: Tiefe neuronale Netze treffen Entscheidungen, deren Begründung selbst die Entwickler nicht mehr nachvollziehen können. Das verletzt das demokratische Prinzip der Erklärbarkeit: Wer abgewiesen wird, hat ein Recht zu wissen warum. Die EU hat 2024 mit dem AI Act Hochrisiko-KI strenger reguliert – ein weltweites Pionierwerk.
Schon 1983 erklärte das deutsche Bundesverfassungsgericht im Volkszählungsurteil das Recht auf informationelle Selbstbestimmung als Teil des Persönlichkeitsrechts. Heute ist diese Idee in der Datenschutz-Grundverordnung (DSGVO, 2018) europäisches Gesetz: Daten dürfen nur mit Einwilligung erhoben werden, der Zweck muss klar sein, es gibt ein Recht auf Löschung. Doch die Praxis ist oft ernüchternd: Wer liest schon Datenschutzerklärungen vor jedem Klick?
Philosophisch geht es um den Wert der Privatsphäre. Hannah Arendt unterschied zwischen Öffentlichkeit, Privatheit und Intimität. Privatsphäre ist der Raum, in dem das Selbst sich ohne äußeren Druck entwickeln kann. Wer ständig beobachtet wird, verhält sich anders – das ist der psychologische Kern des Panoptikums (Bentham/Foucault).
Die amerikanische Sozialwissenschaftlerin Shoshana Zuboff hat in ihrem Buch The Age of Surveillance Capitalism (2019) eine einflussreiche Analyse vorgelegt. Sie schreibt: „Überwachungskapitalismus beansprucht menschliche Erfahrung einseitig als Rohstoff zur Übersetzung in Verhaltensdaten.“ Konzerne wie Google und Facebook sammeln nicht nur Daten, um ihre Dienste zu verbessern – sie verkaufen Verhaltensvorhersagen an die Werbeindustrie. Aus dem „Verhaltensüberschuss“ entsteht eine neue Form der Wirtschaftsmacht.
Zuboff sieht darin nicht weniger als eine neue „Mutation des Kapitalismus“, die die Demokratie bedroht. Wer die Klickmuster kennt, kennt die menschliche Seele. Wer die Seele kennt, kann sie steuern. Filterblasen, Mikrotargeting im Wahlkampf (Cambridge Analytica 2016) und die Macht der Plattformen sind Symptome dieses neuen Systems.
Eli Pariser prägte 2011 den Begriff Filterblase: Algorithmen zeigen jedem Nutzer das, was zu seinen bisherigen Vorlieben passt. Das Resultat ist eine personalisierte Welt, in der widersprüchliche Meinungen unsichtbar werden. Die deutsche Soziologin Cornelia Betsch und andere zeigen empirisch: Filterblasen sind weniger dramatisch als oft behauptet, aber Echokammern, Polarisierung und Hassrede sind reale Probleme. Habermas warnte 2022 in einem viel beachteten Aufsatz, dass die digitale Öffentlichkeit die Voraussetzungen rationaler Diskursbildung bedrohe.
Die Frage ist: Wie viel Verantwortung tragen Plattformen für das, was auf ihnen geschieht? Sind sie bloße Infrastruktur oder Verleger? Der EU Digital Services Act (2024) verpflichtet sie zur Löschung illegaler Inhalte und zu Transparenz bei der Werbung.
Techno-Optimismus: Vertreter wie Ray Kurzweil sehen in der Digitalisierung eine Heilsgeschichte. KI werde Krankheiten heilen, Klima retten, Arbeit beenden. Reformbedürftig sei nur die Regulierung, nicht die Technik selbst.
Techno-Skepsis: Philosophen wie Yuval Noah Harari, Byung-Chul Han und Evgeny Morozov warnen vor einem „digitalen Totalitarismus“. Han spricht in Im Schwarm (2013) von einem Verlust der Ehrfurcht und der Distanz, die das politische Denken ermögliche.
Die deutsche Philosophin Julian Nida-Rümelin und Nathalie Weidenfeld haben in Digitaler Humanismus (2018) eine Mittelposition vorgeschlagen: Der Mensch müsse Subjekt der Technik bleiben, nicht Objekt. Maschinen sollten dienen, nicht herrschen. Verantwortung sei stets menschlich.
Zusammenfassung:
• Digitale Ethik fragt nach moralischen Implikationen der Digitaltechnik
• KI-Ethik: Trolley-Problem, Verantwortungslücke (Matthias 2004)
• Algorithmischer Bias und Black Box gefährden Gerechtigkeit
• Datenschutz: DSGVO 2018, Recht auf informationelle Selbstbestimmung 1983
• Zuboff: Überwachungskapitalismus als neue Wirtschaftsform
• Filterblasen, Echokammern, Habermas-Kritik an digitaler Öffentlichkeit
• Nida-Rümelin: Digitaler Humanismus als Mittelweg
Abitur-Tipp: Verknüpfe digitale Ethik immer mit klassischen Positionen: Kant (Selbstzweckformel) bei Würde-Fragen, Mill bei Meinungsfreiheit, Habermas bei Diskursbedingungen. Lerne mindestens ein Beispiel pro Themenfeld (Amazon-Bewerbungs-KI, Cambridge Analytica, autonomes Fahren). Das Zuboff-Zitat zum „Rohstoff menschlicher Erfahrung“ ist klausurgeeignet. Vermeide pauschale Kulturkritik und unterscheide zwischen technischen, rechtlichen und ethischen Fragen.