17 Sep

Bedenken first!

Von Hauke Behrendt (Stuttgart)

„Flieg immer auf der mittleren Straße, Ikarus”, riet er, „damit nicht, wenn du zu tief gerätst, die Fittiche das Meerwasser streifen und, feucht und schwer, dich in die Wogen hinabziehen. Ebenso gefährlich aber ist es, wenn du zu hoch in die Luft steigst und dein Gefieder den Sonnenstrahlen zu nahe kommt. Es könnte Feuer fangen. Zwischen Wasser und Sonne halte dich, immer meinem Pfade folgend!”
Dädalus und Ikarus

Für den Slogan „Digital first. Bedenken second“, mit dem er 2017 für die FDP in den Bundestagswahlkampf zog, erntete Christian Lindner völlig zu Recht viel Spott und Häme. Dass die Entwicklung intelligenter Maschinen eine frühzeitige Antizipation und gründliche moralische Bewertung ihrer Auswirkungen voraussetzt, ist einfach zu offensichtlich. Die Veröffentlichungen von Edward Snowden enthüllten der ganzen Welt, in welchem Ausmaß Regierungen nicht nur in autokratischen Regimes den Datenverkehr ihrer Bürger überwachen. Doch auch jenseits staatlicher Institutionen kennt der Datenhunger keine Grenzen, wie die ehemalige EU-Kommissarin für Verbraucherschutz, Meglena Kuneva, mit Blick auf Netzbetreiber und Großunternehmen feststellt: „Personal data is the new oil of the Internet and the new currency of the digital world.“ Wir haben es mittlerweile mit einer solchen Menge an verwertbaren Daten zu tun, dass die vorhandenen Informationen für den Menschen allein nicht mehr handhabbar sind. Um ihrer Herr zu werden, bedarf es leistungsstarker Algorithmen, die die Datenberge automatisch verarbeiten und in eine für uns sinnvolle Form bringen. Die Ubiquität des Digitalen vereinfacht so auf der einen Seite den Zugang zu Informationen, Kommunikationen sowie zu Waren und Dienstleistungen. Doch ist sie gleichzeitig schwer zu kontrollieren und tendenziell manipulativ. Sprich: Technologische Innovationen haben das Potential, unsere Lebensumstände fundamental zu verändern – sowohl zum Guten wie auch zum Schlechten. Nicht alles, was technisch möglich ist, ist damit auch gut; weder für unmittelbar Betroffene noch die Gesellschaft als Ganzes. Die von Lindner propagierte naive Gedankenlosigkeit ist hier mit Sicherheit keine vielversprechende Strategie, um dem weitverbreiteten Ohnmachtsgefühl gegenüber technikgetriebenem Wandel zu begegnen. Im Gegenteil: Nur auf einer von einsichtigen Argumenten gestützten rationalen Grundlage lässt sich die Entwicklung auf eine für alle Betroffenen sinnvolle Art und Weise gestalten und damit gleichzeitig eine möglichst breite Akzeptanzbasis schaffen. Die Abschätzung und moralische Beurteilung unerwünschter Folgen ist dabei nicht alles, was für einen reflektierten Umgang mit neuen Technologien erforderlich ist. Auch ihr positives Potential gilt es sorgfältig zu bedenken.

Der Ikarus-Mythos liefert hier hilfreiche Anknüpfungspunkte, um das technikphilosophische Grundproblem hinter diesen Überlegungen zu illustrieren: Die von Ikarus’ Vater Dädalus aus Wachs und Federn gefertigten Flügel ermöglichen Vater und Sohn zum einen die ersehnte Flucht von Kreta. Technische Hilfsmittel – so lässt sich aus dem Mythos lernen – erweitern in der Regel die vorhandenen Fähigkeiten ihrer Nutzer und eröffnen ihnen damit einen Lösungsweg für ein erkanntes Problem. Allerdings schränkt Technik umgekehrt auch den Horizont der mit ihr gegebenen Handlungsmöglichkeiten, den verfügbaren „Möglichkeitsraum”, ein. Im Ikarus-Mythos sind es wieder die künstlichen Flügel, die nur eine ganz bestimmte Flughöhe erlauben, an denen sich dieser Aspekt veranschaulichen lässt. Allerdings reicht der Effekt weit über den unmittelbaren Anwendungskontext hinaus. Auch andere Vermögen und Fertigkeiten, die nicht direkt mit dem eigentlichen Technikgebrauch zusammenfallen, können betroffen sein. Psychologen und Neurowissenschaftler weisen darauf hin, dass Menschen diejenigen Fähigkeiten sogar gänzlich verlieren könnten, die durch ein technisches Substitut ersetzt werden.Sie beschreiben die Entwicklung des menschlichen Gehirns entsprechend eines sogenannten „use-it-or-lose-it“-Prinzips, wonach sich Synapsen ihrer Benutzung entsprechend (zurück-)bilden. Technische Innovationen haben offensichtlich ihren Preis. Je nach Blickwinkel wirken sie ermöglichend oder restriktiv. Und, mehr noch, viele technische Artefakte sind mit handfesten Gefahren für ihre Nutzer verbunden. So auch die Wachsflügel des Ikarus: Das Wachs könnte schmelzen, die Federn nass und schwer werden, kurz, die Flügel könnten ihre Funktionalität einbüßen, die Benutzer ihre technikbasierten Kompetenzen plötzlich wieder verlieren. Dass es ausgerechnet Ikarus ist, der übermütig hochsteigt und sich damit ins Unglück stürzt – und nicht etwa dessen Vater – kann als Ausdruck jugendlichen Leichtsinns gedeutet werden. Man liegt aber gewiss nicht ganz falsch damit, sich hier ebenfalls daran erinnert zu fühlen, dass die unvermeidbaren Risiken der Technik insbesondere eine Gefahr für die jeweiligen Endverbraucher darstellen, die unter modernen Bedingungen einer arbeitsteiligen Gesellschaft mit der Konstruktion der Geräte im Normalfall nicht selbst befasst sind. Und dieses Risiko verschwindet auch nicht dadurch, dass die Benutzer von den Herstellern aufgeklärt werden, wie ja auch Dädalus seinen Sohn über den sachgerechten Gebrauch der Flügel unterrichtete, ohne damit das Unglück abwenden zu können. Doch einmal ganz abgesehen davon, dass Technikgebrauch jenseits kalkulierbarer Fehlbedienung und gezielten Missbrauchs immer unvorhergesehenen Störungen mit teils katastrophalen Folgen unterliegen kann, die sogar weit über den Kreis der unmittelbar Betroffenen hinausreichen: Auch die möglichen Auswirkungen, die ein reibungsloserEinsatz neuer Technologien unweigerlich für den Menschen und seine Umwelt haben wird, müssen im Vorfeld gründlich erwogen und sorgfältig beurteilt werden. Denn nur so kann man sich die geforderte Rechenschaft über die Gründe ablegen, die einen Einsatz im Einzelfall verbieten, erlauben oder gar fordern. Damit ist die offenkundige Tatsache benannt, dass Entwicklung und Einsatz neuer Technologien ein Thema von gesamtgesellschaftlicher Relevanz ist: Als politisch verfasste Gemeinschaft tragen wir eine geteilte Verantwortung für unser kollektives Handeln und die gemeinsame Gestaltung unseres Gemeinwesens. Wer unter gesellschaftlichen Verhältnissen lebt, hat einen moralischen Anspruch darauf, dass der Aufbau dieser Verhältnisse ihm gegenüber begründet werden kann. Zustände, die sich als ungerecht darstellen, müssen verändert, gerechte Zustände hergestellt und erhalten werden. So stellt es auch ein stichhaltiges Gebot unserer geteilten gesellschaftlichen Verantwortung dar, die Entwicklung neuer technischer Artefakte kritisch zu begleiten. Dabei müssen die Vor- und Nachteile einander gegenübergestellt und gründlich abgewogen werden, um auf dieser Grundlage ein begründetes Urteil hinsichtlich ihres ethischen Gebrauchswerts zu fällen.

Ausgangspunkt einer gründlichen Reflexion ist die analytische Unterscheidung von zwei ethischen Analyseebenen. Wie ich mit Rekurs auf die Ikarus-Analogie unterstrichen habe, können Misstrauen und Unbehagen gegenüber technischen Neuerungen bis zu einem gewissen Maß Ausdruck legitimer Sorgen der Allgemeinheit sein. Damit sie aus ethischer Sicht überhaupt unbedenklich eingesetzt werden dürfen, muss deshalb zunächst jeder moralische Vorbehalt entkräftet werden, der sich im Zweifelsfall dagegen geltend machen lässt. Der Schwerpunkt der ersten ethischen Analyseebene liegt somit darauf festzustellen, unter welchen Bedingungen ein Einsatz moralisch erlaubt ist. Vom Standpunkt der zweiten ethischen Analyseebene aus richtet sich das Augenmerk auf die weitergehende Fragestellung, ob ein Einsatz über die moralische Erlaubnis hinaus auch ethisch befürwortet werden kann. Hier steht die Frage im Mittelpunkt, ob das, was technisch möglich sowie ethisch zulässig ist, auch umgesetzt werden soll. Die schlichte Abwesenheit eines moralischen Verbots ist für sich genommen unzureichend, um sich begründet für oder gegen einen Einsatz auszusprechen. Im Gegenteil: Eine eindeutige Handlungsempfehlung ist nur dann rational gerechtfertigt, wenn sich jenseits bloßer moralischer Erlaubnis wenigstens ein hinreichend guter Grund ausweisen lässt, der eindeutig in eine Richtung weist. Welche Haltung vom ethischen Standpunkt aus einzunehmen ist, hängt demnach letztlich von den ausschlaggebenden Gründen ab. Die ethisch einschlägigen Gesichtspunkte lassen sich in positive und negative Aspekte unterteilen. Negative Aspekte stellen Gründe dar, die gegen einen Einsatz sprechen; positive Aspekte entsprechend Gründe für einen solchen. Die ermittelten Gründe gelten pro tanto. Das heißt, sie müssen gegeneinander abgewogen werden, um zu bestimmen, unter welchen Bedingungen ein Einsatz aus ethischer Sicht alles in allem befürwortet werden kann. Im Fall von Konflikten muss erwogen werden, wie die ethisch positiven Aspekte unter Vermeidung möglicher negativer Konsequenzen realisierbar sind. Und wo dies nicht möglich ist, gilt es, das Für und Wider vernünftig zu gewichten. Um eine möglichst ausgewogene Einschätzung abgeben zu können, ist es hilfreich, zwei Fragen mit unterschiedlicher Stoßrichtung zu unterscheiden:

  • Wie sollte man eine neue Technologie aus ethischer Sicht einsetzen?
  • Warum sollte man eine neue Technologie einsetzen?

Jede Frage greift aus dem skizzierten Problembereich einen etwas anderen Schwerpunkt heraus, dem jeweils (1) ein stärker mittelbezogenes und (2) ein stärker zweckorientiertes Forschungsfeld entsprechen. Zusammengenommen können sie die ethische Reflexion über einen möglichen Einsatz neuer Technologien systematisch anleiten. Die erste Frage thematisiert, wie etwas gegebenenfalls eingesetzt werden muss, um Grundsätzen moralisch guter oder zumindest zulässiger Technik zu entsprechen. Aus diesem Grund kann man sie auch kurz als „ethische Mittel-Frage” bezeichnen. So wie Ingenieure nach den technisch besten Mitteln und Wegen suchen, ihre Entwicklungen möglichst funktionstüchtig zu fertigen, muss analog dazu auch aus ethischer Perspektive ergründet werden, unter welchen Voraussetzungen sie überhaupt moralisch zulässige Hilfsmittel darstellen, das heißt, welche ethisch motivierten Einschränkungen bei der technischen Umsetzung möglicherweise zu berücksichtigen sind. Sicherzustellen, dass technische Artefakte auf moralisch akzeptable Art und Weise genutzt werden können, ist der erste notwendige Schritt auf dem Weg zu einer positiven Gesamtevaluation. Die zweite Frage adressiert im Gegensatz dazu, warum etwas aus ethischer Sicht überhaupt eingesetzt werden soll. Sie fragt also nach den möglichen Zwecken, die mit einem Einsatz verfolgt werden. Daher möchte ich sie kurz die „ethische Zweck-Frage” nennen. Dass der Mensch dazu in der Lage ist, bestimmte technische Geräte einzusetzen, erklärt noch nicht, warum er das auch tun sollte. Vielmehr muss untersucht werden, durch welche positiven Gründe ein Einsatz gegebenenfalls befürwortet werden kann. Sollen im Rahmen der ersten Schwerpunktsetzung Antworten auf die Frage entwickelt werden, wie moralisch zulässige Technik auszusehen hat, nimmt die zweite Problemstellung in den Blick, wie die Ziele, die durch ihren Einsatz erreicht werden sollen, ethisch zu beurteilen sind. Zum einen gilt es also die Zwecke zu evaluieren; zum anderen die dafür benötigten Mittel. Zusammen ergibt sich daraus eine ethische Gesamteinschätzung, wie mit technischen Geräten umzugehen ist. Das Problem der moralischen Erlaubnis der ersten Analyseebene stellt sich in diesem Bezugsrahmen gleich doppelt. So gibt es zwei mögliche Quellen für Einwände gegen einen Einsatz. Zum einen dürfen keine moralisch problematischen Zwecke verfolgt werden. Zum anderen müssen die Zwecke, sofern sie erlaubt sind, auch auf moralisch akzeptable Art und Weise umsetzbar sein. Nehmen wir an, dass etwas diesen Erlaubnistest besteht. Damit ist die ethische Evaluation noch nicht abgeschlossen: Nach weiteren positiven Gründen zu suchen, die einen Einsatz gutheißen oder vielleicht sogar gebieten, ist Sache der zweiten Analyseebene. Wenn sich ein Einsatz nicht im Lichte geeigneter Zwecke hinreichend begründen ließe, dann könnte ihm aus diesem Grund letztendlich keine ethische Billigung zuteilwerden.

Ein entscheidender (wenn auch nicht der einzige) Maßstab für die Durchführung der beschriebenen Prozedur ist der zentrale Wert derpersonalen Autonomie. Trotz der offenkundig vielfältigen deskriptivenUnterschiede zwischen Menschen sind diese grundsätzlich als gleichwertige und selbstbestimmte Personen anzuerkennen und deshalb auch immer mit gleicher Achtung und Rücksicht zu behandeln. Zwang und andere Einschränkungen ihrer Autonomie sind verboten. Ein Wesensmerkmal autonomieverletzender Handlungen ist es, dass sie die Entscheidungshoheit über einen Lebensbereich verletzen, die der betroffenen Person obliegt. Für die Beantwortung der ethischen Mittel-Frage folgt daraus, dass der Gebrauch technischer Artefakte die autonome Lebensführung der Betroffenen nicht einschränken darf. So müssen sich alle Betroffenen als frei und gleich begreifen können, nicht als unterdrückt oder beherrscht. Auch die ethische Zweck-Frage lässt sich mit Blick auf den zentralen Wert der Autonomie beantworten: Wenn uns Technik dem Ideal selbstbestimmter Lebensführung näherbringt, wäre dies ein hinreichender Grund, ihren Einsatz zu befürworten. Einen zweiten Bewertungsmaßstab, der mitunter mit dem ersten in Konflikt geraten kann, stellt das individuelle Wohlergehen dar. So dürfen technische Geräte dem Menschen keinen Schaden zufügen. Sie sind vielmehr so zu gestalten, dass sie sich als Beitrag verstehen lassen, eigenverantwortlich ein gutes und gelungenes Leben zu führen.

Ein konkretes Beispiel kann dies veranschaulichen: Aufgrund eines sich gegenwärtig ereignenden Strukturwandels innerhalb der industriellen Produktionslandschaft – der sogenannten „vierten industriellen Revolution” oder „Industrie 4.0” – sehen sich neben Menschen, die schon längere Zeit als „voll erwerbsgemindert” eingestuft werden und daher vom allgemeinen (ersten) Arbeitsmarkt faktisch ausgeschlossen sind, auch immer größere Kreise bisher normal Beschäftigter von beruflichem Ausschluss bedroht. Die manuellen Arbeitsabläufe neuester Produktionsprozesse ändern sich ständig, und verschärfen dabei die betrieblichen Ansprüche an die Anpassungsbereitschaft, Ausdauer und Konzentration ihrer Mitarbeiter erheblich. Aber nicht nur Erwartungen an die individuellen Fähigkeiten der Arbeitnehmer nehmen zu. Aufgrund der Vielfalt der in immer kleinerer Stückzahl herzustellenden Produkte, werden den Beschäftigten auch immer anspruchsvollere Montagefertigkeiten abverlangt. Allerdings bringen nicht alle Menschen geeignete Voraussetzungen für dieses kompetitive Umfeld mit, um eigenständig auf die sich verändernden Bedingungen auf dem internen wie externen Arbeitsmarkt angemessen reagieren zu können. Ihnen droht daher der Ausschluss aus der Arbeitswelt. Aus diesem Grund ist es für Betriebe wie für Betroffene auf den ersten Blick attraktiv, die nötigen Bedingungen für (Weiter-)Beschäftigung im industriellen Umfeld mithilfe moderner Assistenztechnologie mit Augmented Reality-Elementen (wieder-)herzustellen und zu erhalten. Diese Assistenzsysteme treten mit dem Anspruch auf, fortschrittliche Lösungen für aktuelle gesellschaftliche Herausforderungen anzubieten, wie sie sich gegenwärtig im Zusammenhang mit dem besagten Strukturwandel innerhalb der industriellen Produktionslandschaft verstärkt stellen. Diesen Anspruch sowie die mit einem Einsatz möglicherweise verbundenen Konsequenzen für den Einzelnen und die Gesellschaft im Ganzen gilt es im Vorfeld dezidiert auf ihre ethischen Implikationen hin zu prüfen und zu bewerten.

Die allgemeinen ethischen Standards, an denen heute ein guter Arbeitsplatz gemessen wird, lassen sich dabei ihrer Struktur nach auf den speziellen Fall von Arbeitsplätzen mit Assistenzsystemen übertragen. An die Stelle von gesundheitlichen Belastungen, restriktiven Arbeitsbedingungen, monotonen Arbeitsinhalten und autoritärer Führung setzen diese Standards Vorstellungen von guter Arbeit, in denen ein Bedürfnis nach Selbstbestimmung, Anerkennung und Sinnstiftung ausschlaggebend ist. Ein universelles moralisches Prinzip, dem diese Standards entsprechen müssen, lässt sich in Anlehnung an Kants Selbstzweckformel des Kategorischen Imperativs als Instrumentalisierungsverbot bezeichnen. Danach ist es moralisch falsch, andere Personen nur als Mittel und nicht zugleich immer auch als Zweck zu behandeln. Als bloßes Mittel aber gebraucht man den anderen, so Kant, wenn er „unmöglich in meine Art, gegen ihn zu verfahren, einstimmen” kann. Das heißt: Damit der Einsatz technischer Assistenz moralisch zulässig ist, müssen Arbeiter*innen, die mit einem Assistenzsystem arbeiten, im Rahmen ihrer Tätigkeit als selbstbestimmt und eigenverantwortlich verstanden werden können. Andernfalls wäre die wichtige moralische Forderung der Nichtinstrumentalisierung verletzt. Hier gilt es zu beachten, dass die technische Assistenz in einer Weise konstruiert werden muss, die bedarfsgerechte Unterstützung für jeden Einzelfall erlaubt. Unterstützungsmaßnahmen sind nur in dem Maße zu erwägen und umzusetzen, in dem der Nutzer nicht mehr von selbst dazu in der Lage ist. Gefordert ist somit eine Form der Assistenz, die es dem Nutzer soweit wie möglich erlaubt, selbstständig zu agieren.

Eine umfassende philosophische Untersuchung von Assistenzsystemen kann sich jedoch – wie erwähnt – nicht mit dem Nachweis zufriedengeben, dass ihr Einsatz am Arbeitsplatz unter bestimmten Bedingungen moralisch erlaubt ist. Vielmehr muss sie sich mindestens ebenso eindringlich mit der zweiten Analyseebene beschäftigen, warum Assistenzsysteme denn überhaupt eingesetzt werden sollen – das heißt mit der Frage nach den positiven Gründen, die aus ethischer Sicht für ihren Einsatz am Arbeitsplatz sprechen. Ohne eine gründliche Erörterung dieser zweckorientierten Dimension, bleibt die ethische Beurteilung dieser Technologie unbefriedigend unvollständig. Die Grundidee lautet hier, dass der ethisch ausschlaggebende Wert von besagten Assistenzsystemen darin besteht, berufliche Teilhabe zu ermöglichen. Danach stellt ihre Eigenschaft, Menschen in die Arbeitswelt zu inkludieren, das ethisch positiv hervorstechende Merkmal von Assistenzsystemen dar. Indem man Menschen mit besonderem Unterstützungsbedarf durch den Einsatz von Assistenzsystemen zielgerichtet unterstützt, werden sie in die Lage versetzt, anspruchsvolle Arbeitsschritte auszuführen, ohne dass dabei ständige Überforderung mit typischen Symptomen wie psychischer Ermüdung, Stress und Unzufriedenheit die Folge wären oder eine andauernde Betreuung durch Dritte in Anspruch genommen werden müsste. So kann durch den Einsatz von technischer Assistenz am Arbeitsplatz berufliche Teilhabe sinnvoll ermöglicht sowie ihre Qualität sichergestellt werden. Teilhabe an der Arbeitswelt ist wichtig, um als vollwertiges, selbstbestimmtes Gesellschaftsmitglied zu gelten. So stellt es eine moralische Forderung dar, dass niemand dauerhaft vom Erwerbsleben ausgeschlossen bleibt. Dieser moralische Anspruch verpflichtet den Staat auf eine konsequente Inklusionspolitik. Im Rahmen einer solchen Politik können technische Assistenzsysteme eine wichtige Rolle spielen. Was aus ethischer Sicht für ihren Einsatz spricht, ist somit ihr Beitrag zur Verwirklichung einer inklusiven Arbeitswelt.[1]

Wo es einiges zu bedenken gilt, wie gegenwärtig im Zuge des Digitalen Wandels, ist die Philosophie gut geeignet, Antworten zu geben, um die Entwicklung nutzbringend voranzubringen. Sie kann allerdings keine höhere Autorität für sich beanspruchen. Was unsere Gesellschaft braucht, ist eine breite öffentliche Debatte über die Ziele und Risiken der Digitalisierung, um gemeinsam auf eine positive Entwicklung hinzuwirken.

Dr. Hauke Behrendt ist wissenschaftlicher Mitarbeiter am Institut für Philosophie der Universität Stuttgart.


     [1] Ausführlich dazu siehe Hauke Behrendt: Das Ideal einer inklusiven Lebenswelt. Teilhabegerechtigkeit im Zeitalter der Digitalisierung, Frankfurt a.M./New York 2018.

Print Friendly, PDF & Email