top of page

Technologien als Werkzeuge für ethisches Verhalten

  • Autorenbild: Leonie Maya Gantenbein
    Leonie Maya Gantenbein
  • vor 3 Tagen
  • 5 Min. Lesezeit

DALL-E 4.0
DALL-E 4.0

Wir befinden uns in einer Phase, in der Technologie unsere Handlungsräume erweitert, aber die moralischen und gesetzlichen Strukturen dafür zu wenig ausgearbeitet und verständigt werden. Ich behaupte, die Jugend von heute hat es diesbezüglich am schwersten: Aufwachsen in einer Zeit, in der Technologie allgegenwärtig, aber kaum reguliert ist. Sie haben Zugang zu Werkzeugen, die kreativer, weitreichender und gefährlicher sind als alles, was Generationen zuvor kannten, und doch fehlen klare moralische und gesetzliche Regulationen. Während unsere Vorstellungskraft durch KI, Simulationen und digitale Räume grenzenlos geworden ist, bleibt die Verantwortung dafür diffus. Es braucht eine Ethik, die nicht nur warnt, sondern begleitet – eine Ethik, die den Umgang mit Technologie als Lernprozess und die Dynamik der Technologien selbst versteht. Eine aktive Ethik über Technologien wird damit zur Infrastruktur der Zukunft:

«Ethik reflektiert über die Entscheidung, etwas als gut zu befinden, und ist damit das Reflexionsinstrument der Moral und aller Problemstellungen, die sich in Zusammenhang mit dem Moralischen ergeben.» Gantenbein: Annetzung, S. 188 f.

Moralische Prinzipien für Menschen haben die gleiche Imperativ-Signatur bzw. den gleichen „Befehlscode“ wie starke Wenn-Dann-Kodierungen eines Algorithmus. Starre moralische Prinzipien sind 1:1-Befehle: Man tötet keinen Menschen; man hilft, wenn man kann; das ertrinkende Kind muss immer gerettet werden usw. Auch der Mensch braucht aus einer entwicklungspsychologischen Perspektive feste Regeln bei der Erlernung von moralischem Verhalten. Das Stufenmodell von Kohlberg führt von externalisierten egoistischen Zielen letztlich zu autonomen Entscheidungen.


Ethik hat neben allen anderen Ebenen der Intuition, Kultur und Gefühlskomponente auch eine logische Struktur, die Maschinen genauso betrifft wie uns. Sie lässt sich algorithmisch, aber auch lernend denken: als Prozess moralischer Entscheidungsfähigkeit. „Entscheiden“ ist vielleicht zu anthropomorphisiert gesprochen – vielleicht trifft es „Schlussfolgern“ besser. Worauf ich hinaus will, ist, dass grundlegende moralische Prinzipien in ihrer logischen Struktur programmierbar und von technischen Akteuren umsetzbar sind.

Eine KI, die moralischen Regeln folgt, erstellt keine Kinderpornografie, hilft nicht beim Stalken oder bei widerrechtlichem Handeln, gibt keine unprofessionellen Ratschläge für wichtige Entscheidungen, wenn sie die Absicht des Prompts erkennt. Grundlegende Normen sind also programmierbar.

Ein technischer Akteur wie eine Künstliche Intelligenz – und sie ist ein «Akteur», da sie durch Voice-Bots und Hardware (Roboter) auch mit immer mehr Handlungsspielraum angereichert wird - kann also moralisches Handeln für sich priorisieren. Und auch für uns. Und dies ist der entscheidende Punkt:

«Bruno Latours soziotechnische Hypothese lautet: 'Die Masse an Moral bleibt konstant, wird jedoch unterschiedlich verteilt.' (Latour, Der Berliner Schlüssel). Er bezieht sich in seinem Beispiel auf einen Sicherheitsgurt im Auto: Aufgrund technischer Programmierung kann man erst dann mit dem Auto losfahren, wenn man angeschnallt ist.Auch Evgeny Mozlovs Beispiel der Parkuhr-Hintergeher in der Stadt Santa Monica verweist auf eine seiner Hypothesen: Nur solange von den Anwendern keine Möglichkeit gefunden wird, das System zu umgehen, wird man sich an die präskriptiven Verhaltensnormen halten. Die Frage ist, ob es sich dabei um eine Gefährdung handelt, wie Albert Hirschmann sie beschreibt, und die technologischen Zwänge uns zu moralisch unmündigen Bürgern machen, 'die so lange nicht das Richtige tun, wie die technische Infrastruktur sie nicht explizit der Möglichkeit beraubt, das Falsche zu tun.' (Morozov: Smarte neue Welt. Digitale Technik und die Freiheit des Menschen). Viele moralische Handlungen im Alltag sind bereits durch präskriptive [vor-schreibende] Zwänge von Technologien automatisiert worden. Die bekannte Aufforderung, ein starkes Passwort zu benutzen, sich online durch Capture als Mensch und nicht als Roboter auszuweisen, diverse Identifikationsprozesse, das Ampelsystem an der nächsten Kreuzung: Alle diese Systeme schützen durch Zwänge und damit Einschränkungen vor der Verletzung von Werten, die ebenfalls einmal gesetzt worden sind. Es erscheint beispielsweise sinnvoll, dass Autofahrer gewisse VR-Brillen während des Fahrens nicht tragen können. Die Nutzung von konkreten Prothesen in spezifischen Situationen könnte insgesamt dadurch reguliert werden, dass es technisch ganz einfach nicht möglich ist, sie in diesen Fällen zu benutzen. Das Annetzen in gefährlichen Situationen oder unter Bedingungen, die mit hohem Risiko die eigenen Grundrechte oder die Rechte anderer verletzen könnten, sollte nicht nur verboten, sondern auch durch präskriptive Zwänge verunmöglicht werden. Der Sicherheitsgurt steht dabei am Anfang einer ganzen Reihe von präskriptiven Zwängen. Bereits heute erkennen gewisse Smartphones, Tablets oder GPS-Geräte den Fahrmodus und verweigern daraufhin, das Gerät anderweitig zu nutzen, und zwar unter Einbezug einer umfassenden Beschneidung der Freiheit und Benutzerfreundlichkeit. Mögliche Aufmerksamkeitstests durch Eyetracking oder durch die Messung der Reaktionszeit könnten das Führen eines Fahrzeugs zukünftig zudem überwachen. In Anbetracht der weltweit steigenden Zahl von PKWs pro Kopf und der zahlreichen Unfälle, die durch Konsum oder Ablenkungen durch technische Geräte am Steuer passieren, ist die Hürde gross, maximale Handlungsfreiheit für Fahrzeugführer zu fordern. [Die aktuellen Unfallvermeidungen durch selbstfahrende Autos unterstreicht dieses Argument.] Wir haben uns bereits auf Orte und Räume, die überwacht werden, eingestellt und unsere Gesellschaft hat begonnen, sich an präskriptive moralische Zwänge zu gewöhnen. Diese moralischen Zwänge müssen jedoch zu jeder Zeit hinterfragt werden und eine gute Rechtfertigung aufweisen können.» Gantenbein: Annetzung, S. 314–316.

Es geht mir nicht darum, dass Technologien für uns entscheiden können, was richtig oder falsch ist. Es geht darum, dass sie uns bei der Entscheidungsfindung unterstützen und dies auch in der Form, dass sie uns unter Zwänge stellen, oder durch ihr Einwirken auf uns persuasiv sind, richtig zu handeln, wenn dies zuvor als ethisch richtig, unter Vereinbarung von Menschen bestimmt worden ist.

«Menschen neigen dazu, moralischen Handlungsaufforderungen eher zu folgen, wenn diese von einem Computer als von einem Menschen stammen. Für gelebte und durchgesetzte moralische Prinzipien eröffnet sich damit ein völlig neues Feld. Vielleicht müssen wir deshalb unsere Perspektive auf das Verhältnis von Technologie und Ethik grundlegend überdenken. Es geht nicht mehr nur um die einseitige Regulierung von Technologien. Künstliche Intelligenz und Konvergenten (Roboter, Voice-Bots, NPCs usw.) können einen erheblichen, womöglich sogar den entscheidenden Beitrag zur Durchsetzung moralischer Werte leisten. Ethik wird damit zugleich über, mit und durch Technologien umgesetzt und eingefordert. Wir sprechen also von einer Ethik, die Technologien nicht nur reguliert, sondern sie auch als eigenständige Akteure moralischer Kommunikation begreift.» Gantenbein: Annetzung, S. 348 f.

Technologien können also nicht als Bedrohung, sondern als moralische Verstärker verstanden werden – als Kommunikationspartner, die uns an das erinnern, was wir in einer bestimmten Situation sein und tun könnten.

«Dabei bedeutet dies keineswegs, dass wir uns blind von einer KI vorschreiben lassen, was wir tun sollen. Allerdings kann die Vermittlung, Erinnerung und Verstetigung gemeinsamer Werte auf automatisierte Weise erfolgen. Technologien werden so zu Werkzeugen einer kooperativen, von Menschen definierten Ethik, die sie zugleich effizient kommunizieren und im Alltag verankern. [...] Unsere Annetzung mit den technologischen Räumen ist noch jung, und wir haben die Gelegenheit, aus ihr einen angstfreien Raum zu machen. Die Technologien, mit welchen wir durch sie interagieren, sind in ihrem Nutzen und ihrer Anwendung so gut, wie wir es zulassen. [...] Damit möglichst alle Akteure von dem neuen Weltmodus profitieren können, kann dies nur über einen interdisziplinären Diskurs und eine Einigung auf Grundlagen und ethische Prinzipien passieren.» Gantenbein: Annetzung, S. 349.

Eine Ethik der Technologie ist keine Abwehrethik in eine Richtung, die möglichst auf die Regulierung von Technologien abzielt. Sie ist eine kooperative Ethik – ein Dialog zwischen Mensch, Maschine und Gesellschaft. Sie fragt nicht, ob Technologie moralisch sein kann, sondern wie sie uns trotz vieler technologischer Prothesen unterstützen kann, moralisch zu bleiben. Eine funktionierende Ethik über Technologien sieht Technologien nicht nur als Akteure sondern auch als Werkzeuge und Vermittler von Moral.


Wir haben vielleicht keinen neuen Gott, der uns sagt was wir tun sollen; was wir aber haben, ist ein verlängerter Arm. Und wenn Ethik nicht nur über Technologie spricht, sondern mit und durch sie agiert, entsteht ein neues Kapitel menschlicher Verantwortung.


Mehr dazu in meinem Buch: Annetzung. Handeln durch Technologie und Imagination (2025)

 

 
 
 

Kommentare


© 2025 LMM

bottom of page