Die rasante technologische Entwicklung und die Digitalisierung durchdringen seit Jahrzehnten unseren Alltag. Wir informieren uns über das Internet und die sozialen Medien. Unser Kommunikationsverhalten hat sich massiv verändert, seit es WhatsApp, Facebook, Twitter und Co. gibt. Keine Frage: Die Digitalisierung ist viel mehr als eine technische Entwicklung. Sie hat weitreichende gesellschaftliche Auswirkungen, verändert unser Zusammenleben und beeinflusst politische Prozesse. Die gesellschaftlichen Dimension wurde von allen Seiten viel zu lange vernachlässigt. Das muss sich ändern. Wir dürfen nicht mit der gleichen Naivität an Künstlicher Intelligenz arbeiten wie wir Social Media begegnet sind. Es wird Zeit für mehr Ethik und Moral in der Technologie.
Informationen: Transparenz vs. Richtigkeit?
Social Media und Messenger Dienste wie WhatsApp sorgen dafür, dass Kommunikation einfacher, billiger und schneller wird. Quasi in Echtzeit verbreiten sich Informationen in rasender Geschwindigkeit. Informationen zentral zu kontrollieren, zu entscheiden, was über wen verbreitet wird – das wird durch die neuen Kommunikationstechnologien zunehmend erschwert, wenn nicht gar unmöglich. Die Folge ist einerseits eine Demokratisierung der Information und die Aushebelung von Machtstrukturen. Das Prinzip „Wissen ist Macht“ hat zugunsten von Transparenz seine Gültigkeit verloren.
Andererseits fehlt jedoch in vielen Fällen eine Qualitätskontrolle, die Überprüfung der Informationsquellen und die Abgleichung der Informationen mit der Realität. Kurz: Ob die Informationen überhaupt richtig sind, lässt sich durch die Geschwindigkeit ihrer Verbreitung nur schwer kontrollieren. Und was einmal in der Welt ist, kann man nur schwer wieder einfangen.
Fake News verbreiten sich schneller
Erschreckend in diesem Zusammenhang: Das Massachusetts Institute of Technology (MIT) fand im Frühjahr 2018 heraus, dass Falschmeldungen von Usern im Durchschnitt fast doppelt so oft geteilt werden wie andere und erreichen Nutzer bis zu sechsmal schneller.
Durch die digitalen Kommunikationsmittel und die eingesetzten Algorithmen werden Fake News stark verbreitet und entfalten manipulative Wirkungen. Das Phänomen der „Filter Bubble“ ist bekannt: Durch das eigene User-Verhalten bekommt man nur noch die Inhalte angezeigt, die ins Weltbild passen. Während wir in realen Diskussionen mit Gegenpositionen konfrontiert werden und gezwungen sind, uns mit den Argumenten anderer (und damit auch unseren eigenen) auseinanderzusetzen, verstärken Algorithmen lediglich die eigene Position.
Rassistische Algorithmen
Fakt ist aber auch: Die Technologie an sich ist nicht „böse“. „Böse“ ist, was wir Menschen daraus machen. Dies geschieht oftmals jedoch gar nicht absichtlich, sondern durch Uninformiertheit oder infolge von unzureichender Technologie.
Denn versteckt geht die Manipulation weiter. Wie die Informatikprofessorin Katharina Zweig im Interview mit der Süddeutschen Zeitung schildert, unterlaufen auch Algorithmen Fehlurteile. In den USA beispielsweise werden Gerichtsurteile bereits auf der Basis des Algorithmus „Compas“ gefällt. Dieser Einführung lag der Glaube zugrunde, dass Algorithmen neutral und vorurteilsfrei urteilen würden, statt, wie oftmals Richter, Minderheiten zu benachteiligen. Das Problem an der Sache: Algorithmen werden mit Daten aus der Vergangenheit gefüttert, aus denen sie lernen. Vorurteile und Diskriminierungen werden also auch in den Algorithmen weiter verfestigt. Denn, so Zweig: „Software ist letztlich die Übersetzung von sozialen Interessen, Wünschen und Konventionen in eine formale Sprache.“
Diese Interessen und Konventionen wirken sich nicht nur in Gerichtsurteilen, sondern auch bei der Vergabe von Krediten oder bei Personalentscheidungen aus, wo Algorithmen eingesetzt werden. Dabei wissen die Betroffenen meist gar nicht, wieso sie abgelehnt wurden, weil die Entscheidungskriterien völlig intransparent sind. Sie haben also auch nicht die Möglichkeit, ihre Chancen zu verbessern.
Wie diskriminierend Software sich anfühlt zeigt u.a. das Video am Beispiel eines Seifenspenders. Weiße Menschen werden von den Sensoren erkannt. Schwarze Menschen nicht.
Quelle: YouTube
Wir brauchen eine veränderte Ethik
Ein ethisches Korrektiv in der technologischen Entwicklung ist deshalb unbedingt notwendig. Dieses muss sowohl durch die Konzerne wie Alphabet, Facebook und Amazon eingeführt, als auch durch die Politik als Ziel verfolgt werden. Eine geisteswissenschaftliche Perspektive muss technologische Neuerungen auf ethische Kriterien hin überprüfen und nicht nur Funktionsfähigkeit oder Markterfolg in den Blick nehmen.
Bei Genforschungsprojekten, sozialpsychologischen Experimenten oder medizinischen Studien muss eine Ethik-Kommission zunächst das Projekt beurteilen und genehmigen. Wie sich in den vergangenen Jahren zeigt, haben auch die technologischen Entwicklungen weitreichende Auswirkungen auf die Gesellschaft und den einzelnen Menschen. Auch hier wäre deshalb eine ethische Beurteilung von Forschungsprojekten angemessen.
Wir brauchen mehr Interdisziplinarität
Der Austausch zwischen den Disziplinen muss schon in der Ausbildung an den Universitäten gefördert werden. Informatiker müssen sich viel stärker mit den gesellschaftlichen Auswirkungen von Technologien befassen. Eine geisteswissenschaftlich-philosophische Perspektive kann hier den Blick stärken.
Aber dasselbe gilt auch andersherum: Geisteswissenschaftler – Soziologen, Philosophen und Politologen – müssen sich mit Technik, technologischen Entwicklungen und Innovationen aktiv auseinandersetzen und ihre Perspektive in die Debatte einbringen. Dabei reicht es nicht, über die „gesellschaftlichen Auswirkungen“ zu diskutieren und Technik-Kritik zu verbreiten. Ein tieferes Verständnis für die Funktionsweisen der Technologie ist notwendig, um Ansatzpunkte für Modifikationen zu finden.
Verzahnung von Geisteswissenschaften und Technologie
Es gibt bereits Initiativen, die sich darum bemühen, mehr Ethik in die Technik zu bringen, darunter:
- Die Stanford University, Kaderschmiede des Silicon Valley, startet eine Initiative zu Ethik, Gesellschaft und Technologie. Im Interview mit der Financial Times begründet Universitätspräsident Marc Tessier-Lavigne diesen Schritt so: „We are such important players, we should not be doing it [teaching] and letting society pick up the pieces.”
- Der ehemalige Google-Ingenieur Tristan Harris gründete das „Center for Humane Technology“, in dem er an Lösungen für Technologien arbeitet, die sich an den Interessen der Menschen orientieren. Auch sein Beweggrund waren die gesellschaftlichen Auswirkungen, die neue Technologien entfalten.
- An der TU Kaiserslautern gibt es seit 2013 den Studiengang Sozioinformatik, den Katharina Zweig federführend entwickelte. Dieser Studiengang beschäftigt sich mit den gesellschaftlichen Auswirkungen von Technologie und sozialen Netzwerken.
Es ist noch nicht zu spät
Die technologische Entwicklung und das Web 2.0 haben sich in den vergangenen zehn Jahren rasant weiterentwickelt und ausgebreitet. Bis vor Kurzem war Optimismus die vorherrschende Einstellung, vor allem bei den verantwortlichen Konzernen. Mit dem Datenskandal um Cambridge Analytica, bei dem es um Wählermanipulationen bei der US-Wahl via Facebook ging, ändert sich das Bild in der breiten Öffentlichkeit.
Eigentlich ist das Festival SXSW in Austin von Technikoptimismus geprägt. Ich habe dieses Jahr auf der SXSW das erste Mal erlebt, dass die Gefahren zu Künstlicher Intelligenz und die sichere Handhabung von Daten nicht nur auf Side Events sondern auf den großen Bühnen diskutiert wurden. Auch im Silicon Valley wächst langsam das Bewusstsein dafür, dass ein ethisches Korrektiv die gesellschaftlichen Auswirkungen von Technologien untersuchen muss.
„KI sehe ich als größte Gefahr für die Menschheit. Es erfordert dringende Massnahmen. KI ist viel gefährlicher als Atomwaffen es je waren“ (Elon Musk, SXSW 2018)
Menschen sehen neue Technologien und technischen Fortschritt, gerade wenn er so großen Nutzen hat wie das Web 2.0, oft zunächst ausschließlich positiv. Denken wir an die Atomkraft oder die industrielle Revolution, deren negative externe Effekte erst deutlich später zu Tage traten. Dann setzt ein Umdenken ein und ein Reifungsprozess beginnt. Das gilt auch für digitale Technologien: Sie sind nicht nur positiv, aber sie haben viele Vorteile. Sie zu verteufeln wäre der falsche Schluss aus den beschriebenen Entwicklungen. Aber es gibt zahlreiche Baustellen, die Politik, Unternehmen und User in Angriff nehmen müssen. Dies gilt umso mehr, als künstliche Intelligenz, automatisierte Arbeitsprozesse, intelligente Gesichtserkennung und Spracherkennung noch weitaus tiefer in unseren Alltag eingreifen, als dies die sozialen Medien bisher tun. Ethik muss auch hier eine wichtige Rolle spielen, um die menschliche (Entscheidungs-)Freiheit zu schützen.
Ich habe keinen Zweifel daran, dass es uns gelingt, Ethik in die technologische Entwicklung zu bringen. Wie auch Katharina Zweig im SZ-Interview sagt, haben die Menschen es auch früher schon geschafft, schlechte Entwicklungen einzufangen. Sozialgesetze haben die Arbeitszeit beschränkt, Kinderarbeit wurde abgeschafft, niemand wird heute mehr von Ärzten zur Ader gelassen. Wir werden auch unmoralische Algorithmen stoppen und stattdessen ethisch hochwertige entwickeln. Die genannten Initiativen und viele andere sind, ebenso wie die gesteigerte Aufmerksamkeit und das Problembewusstsein in der Öffentlichkeit, erste wichtige Schritte in die richtige Richtung.
Wir alle tragen die Verantwortung dafür. In der Art und Weise wie wir uns damit beschäftigen. Lasst uns achtsam unsere Zukunft gestalten.
Quelle Titelbild: © duncanandison – Fotolia.com