„Datenökologische Verantwortung ist die eigentliche Innovation“

von Anette Frisch // Die Stuttgarter Medienwissenschaftlerin Petra Grimm leitet Europas erstes Institut für Digitale Ethik.

Sie leiten das Institut für Digitale Ethik in Stuttgart. Gibt es Social Media Tools, die ethisch in Ordnung sind?
Unsere Privatheit können wir etwas mehr schützen, wenn wir anstelle von WhatsApp beispielsweise Threema oder Signal verwenden, auf Suchmaschinen wie Startpage oder Duck Duck Go zugreifen und den Browser Mozilla oder Cliqz nutzen.

Eine Alternative zu Facebook gibt es nicht…
Das wäre eine europäische Aufgabe, wie ich sie bereits seit Jahren anmahne: eine Plattform, die im Geist eines öffentlich-rechtlichen Systems Meinungsvielfalt ohne Filterblasen garantiert, unsere private Kommunikation schützt und damit unsere Demokratie sichert.

Wo sehen Sie derzeit noch Handlungsbedarf?
Es ist uns ein sehr wichtiges Anliegen, bereits bei der Entwicklung von digitalen Produkten, Dienstleistungen und Infrastrukturen sowie in der Forschung eine wertebasierte Gestaltung zu implementieren. Im Fachjargon heißt das Ethics by Design. Wir sollten begreifen, dass Digitale Ethik als Steuerungsinstrument unabdingbar für eine Technikfolgenabschätzung ist. Das Ziel der Digitalen Ethik ist es, eine ethische Digitalkompetenz zu fördern, die über eine technische Digitalkompetenz hinausgeht.

Programmierer und Entwickler sollten sich also nicht nur mit Codes, sondern auch mit Kant auskennen?
Die philosophischen Schriften von Kant oder Aristoteles zu lesen, schadet sicherlich nicht, aber so meine ich das nicht. Es geht vielmehr darum, sich anwendungsbezogen mit informationsethischen Fragen zu befassen, Wertekonflikte zu reflektieren und sich eine eigene Wertehaltung anzueignen. Dazu bedarf es aber auch professioneller Aus- und Weiterbildung sowie die Bereitschaft, mit Ethikern zu kooperieren.

Haben Sie ein konkretes Beispiel für ein Produkt, das den ethischen Standards von Ethics by Design folgt?
Das lässt sich am Beispiel von Kinderspielzeug sehr gut erklären: Die smarte Puppe ‚Cayla’ wurde von der Bundesnetzagentur verboten, weil sie ein Spionagegerät ist. Sie zeichnet die Gespräche der Kinder auf, überträgt sie via Internet und hat keinen Ausschaltknopf. Die Puppe ‚Hello Barbie’ zeichnet ebenfalls die Gespräche auf, hat aber einen Ausschaltknopf. Ganz anders sind die Holzfiguren von Vai Kai, übrigens ein deutsches Unternehmen: Sie interagieren ebenfalls mit dem Kind, übertragen die Gespräche aber nicht an eine Marketingagentur.

Es geht also um die Frage, welche Standards wir definieren, um die Privatsphäre zu schützen?
Richtig. Die Beispiele zeigen, dass wir im digitalen Leben permanent mit Entscheidungsfragen konfrontiert sind. Algorithmen, Big Data und Künstliche Intelligenz beeinflussen unser Handeln, unser Sein und unser Zusammenleben. Damit stellen sich für Gesellschaft, Unternehmen und Individuum eine Vielzahl von ethischen Fragen, die unser Wertesystem betreffen. Unser Institut hat es sich deshalb zur Aufgabe gemacht, die ethischen Fragen unserer digitalen Zeit zu reflektieren und Entscheidungshilfen zu geben. „Privacy Made in Germany/Europe“ ist jedenfalls ein Thema, mit dem wir uns ausführlich befassen.

Studierende Ihrer Hochschule haben in einem Projekt digital-ethische Leitlinien entwickelt. Eine lautet, den Respekt vor den Daten des anderen zu wahren und achtsam mit ihnen umzugehen. Das würde die Geschäftsmodelle von Facebook & Co. ziemlich durcheinander bringen…
Mit den Leitlinien würden hiesige Unternehmen eine humane Digitalisierung vorantreiben, die im Vergleich zu Facebook & Co. durchaus innovativ wären. Ob in zehn Jahren noch Geschäftsmodelle wie Facebook ohne nachhaltiges Datenwirtschaften den digitalen Kosmos bestimmen können, bezweifle ich. Wir stehen meines Erachtens heute vielmehr an einem Wendepunkt, der dem von vor 40 Jahren gleicht, als der Umweltschutz politisch und ökonomisch Fahrt aufnahm. ‚Datenökologische Verantwortung’ wird in Zukunft die eigentliche Innovation sein.

Brauchen wir dafür mehr staatliche Regulierung?
Naja, die jetzt in Kraft tretende Datenschutz-Grundverordnung fordert ja von den Unternehmen schon einen achtsamen Umgang mit Daten. Regeln allein sind nicht wirksam, es bedarf auch immer einer entsprechenden Wertehaltung. Eine solche Wertehaltung kann man nur entwickeln, wenn man sich mit Wertekonflikten auseinandersetzt, sich ausreichend informiert und die Folgen für sich und andere abschätzt. Beschäftigte eines Unternehmens, die sich an Privacy Corporate Rules halten sollen, werden dies nur tun, wenn sie auch eine entsprechende Wertehaltung für sich entwickelt haben und das Unternehmen sie dabei unterstützt.


Prof. Dr. Petra Grimm ist Medienwissen- schaftlerin an der Hochschule der Medien Stuttgart und Leiterin des europaweit ersten Instituts für Digitale Ethik. Am 4. Juli 2018 ist Petra Grimm als Podiumsteilnehmerin beim „Festival für digitale Bildung“ in Heidelberg zu Gast. Das Thema: „Kennen unsere Coder Kant? – Die Rolle von Ethik und gesellschaftlichen Normen in der digitalen Ausbildung von morgen”. Veranstalter ist das Innenministerium des Landes Baden-Württemberg.