Artikel versenden

Ambient Assisted Living, Teil 3: Ethische Leitlinien




 

// / /

Es ist schwierig, angemessene ethische und rechtliche Standards in einem Bereich zu definieren, in dem die Auswirkungen und Wechselwirkungsverhältnisse so wenig bekannt und verstanden sind, wie dies beim Thema altersgerechter Assistenzsysteme der Fall ist. Das darf nicht davon abhalten, sich den drängenden Fragen und unbequemen Aufgaben zu stellen – im Gegenteil: die konsequente und systematische Erarbeitung ethischer Leitlinien muss forciert und beschleunigt werden. Ansonsten besteht die Gefahr, dass ethische Aspekte bei der Erschaffung und dem Einsatz intelligenter Assistenzsysteme zu kurz kommen und die notwendigen Debatten den technischen Entwicklungen bloß müde hinterher hecheln.

 Ethische Evaluation altersgerechter Assistenzsysteme

Bereits 2012 entstand an der Universität München (LMU) im Rahmen einer vom BMBF (Bundesministerium für Bildung und Forschung) geförderten Studie ein Instrument zur ethischen Evaluierung altersgerechter Assistenzsysteme, das „Modell zur ethischen Evaluation sozio-technischer Arrangements“, kurz MEESTAR.

Dieses Modell sollte, so der Vorschlag der Forschungsgruppe, in interdisziplinären Workshops der Projektpartner, die ein AAL-System entwickeln, eingesetzt werden. Das Ziel dabei ist aber nicht, zu eindeutigen ethischen Bewertungen zu gelangen, sondern vielmehr, Hinweise zu finden, an welchen Punkten es zu ethischen Konflikten kommen könnte – damit diese von den Herstellern und technischen Forschungseinrichtungen konstruktiv bearbeitet werden können.

Leitende Fragen hierbei sind:

  • Welche spezifischen ethischen Herausforderungen ergeben sich beim Einsatz eines bestimmten Systems?
  • Ist der Einsatz eines bestimmten Systems ethisch bedenklich oder unbedenklich?
  • Wie gravierend sind die Bedenken? Sind sie so gravierend, dass nur eine Nicht-Nutzung des Systems in Frage kommt?
  • Wie können spezifische ethische Probleme abgemildert oder gelöst werden?
  • Haben sich bei der Nutzung neue, unerwartete ethische Probleme ergeben?
  • Auf welche Aspekte und Funktionalitäten eines bestimmten Systems muss aus ethischer Sicht besonders geachtet werden?

Quelle: Manzeschke, A. (2015), S. 6

7 Dimensionen der ethischen Bewertung

MEESTAR umfasst sieben Dimensionen der ethischen Bewertung:

  1. Fürsorge

Fürsorge bedeutet, für jemanden Sorge tragen, der dazu nicht mehr oder nur noch teilweise in der Lage ist. Fürsorge als Handlung oder Haltung kann technische Elemente enthalten, unterstützt jedoch immer die Selbstbestimmung der bedürftigen Person, deren Wünsche und Ziele oberster Maßstab bleiben.

  1. Selbstbestimmung/ Autonomie

Selbstbestimmung bezeichnet die Entscheidungs- und Handlungsfreiheit jedes einzelnen Menschen und die Möglichkeit das eigene Leben nach den eigenen Wünschen zu gestalten. Die Unterstützung bei der Umsetzung von Lebenszielen kann auch durch technische Hilfsmittel erfolgen, jedoch darf die Autonomie technischer Systeme nie der Autonomie des Menschen entgegenstehen.

  1. Sicherheit

Sicherheit umfasst im Kontext von AAL sowohl technische als auch soziale Aspekte. In technischer Hinsicht muss die Sicherheit der eingesetzten Systeme gewährleistet sein, um Schäden (und damit wiederum ethische Probleme) zu verhindern. In sozialer Hinsicht spielt die „gefühlte Sicherheit“ eine wichtige Rolle, die viel mit Vertrauen und Vertrautsein zu tun hat. Die subjektive Risikobewertung (die nicht immer der objektiven Risikorealität entspricht) und das subjektive Sicherheitsbedürfnis der unterstützungsbedürftigen Menschen müssen ernstgenommen werden.

  1. Privatheit

Jeder Mensch hat das Recht, sich der öffentlichen Beobachtung und Kontrolle zu entziehen. Die persönliche Lebenssphäre, die von der öffentlichen Beobachtung abgeschottet ist, wird gemeinhin als Privatheit bezeichnet. Viele der ethischen Fragen, die im Zusammenhang mit AAL, aber auch ganz allgemein mit der Digitalisierung auftreten, kreisen um diesen Punkt. Wieviel Verlust an Privatheit wollen wir z.B. zugunsten von Sicherheit individuell und gesellschaftlich akzeptieren? Und ist Privatheit in Zeiten einer durch- digitalisierten Welt überhaupt noch möglich?

  1. Gerechtigkeit

Wenn es um Gerechtigkeit geht, steht hauptsächlich die Verteilungsproblematik im Vordergrund. Welche Maßstäbe sollen als Entscheidungsgrundlage dafür gelten, welcher Person welche intelligenten Hilfesysteme zur Verfügung stehen (sollen). Geht es nach Bedürftigkeit und Notwendigkeit? Entscheiden Leistung und Verdienst? Und wer beurteilt das nach welchen Kriterien? Diese Problematik ist in der Gesellschaft auch in vielen anderen Bereichen allgegenwärtig. Gerechtigkeit ist ein zentrales menschliches Bedürfnis – und ein ewiges Politikum.

  1. Teilhabe

Im deutschen Sozialrecht ist Teilhabe als Rechtsanspruch abgebildet. Teilhabe bedeutet, einem Menschen Zugänge, Rechte und Güter zu gewähren, die es ihm ermöglichen, als Mensch in einer Gemeinschaft mit anderen Menschen zu leben. Als solche ist sie essentiell, da ein Ausschluss von Zugängen, Rechten und Gütern einem Ausschluss aus der Gesellschaft gleich kommt und damit das „Menschsein“ selbst in Frage gestellt wird („Mensch zweiter Klasse“). Zugleich ist Teilhabe als ethische Dimension aber auch wandelbar, d.h., dass sie im Lauf des Lebens und des Alterns ihre Gestalt verändert.

Mit Blick auf die ethische Bewertung von AAL muss geschaut werden, wie der (Rechts-)Anspruch auf Teilhabe unter den Bedingungen technischer Assistenzsysteme eingelöst werden kann, insbesondere wenn die betreffende Person nur noch eingeschränkt urteilsfähig ist.

  1. Selbstverständnis

Menschen sind in der Lage, über sich selbst und ihr Handeln nachzudenken. Sie können sich reflexiv zu sich selbst verhalten, woraus sich (philosophisch und praktisch) die Aufgabe ableiten lässt, das eigene Leben zu gestalten. Anknüpfungspunkt für ethische Überlegungen  sind Fragen nach den Bedingungen, die erfüllt sein müssen, damit ein Mensch sein Leben aus dem eigenen Selbstverständnis heraus leben kann. Diese Bedingungen sind nicht absolut oder statisch, sondern variieren unter dem Einfluss dynamischer und konstitutioneller Faktoren wie z.B. Alter, Krankheit oder Behinderung. Bei der Entwicklung und dem Einsatz technischer Assistenzsysteme stellt sich die Frage, in welcher Weise (produktiv/kontraproduktiv) diese auf das Selbstverständnis und die Lebensgestaltung der betreffenden Person einwirken.

4 Stufen und 3 Ebenen der ethischen Bewertung

Um den Grad ethischer Bedenklichkeit herauszuarbeiten, verwendet das Modell MEESTAR neben den sieben Dimensionen auch vier Stufen und drei (Beobachtungs-)Ebenen der Bewertung. Die vier Stufen bilden den Grad ab, in dem ein technisches Assistenzsystem bzw. Teile davon als ethisch bedenklich gelten. Bedenklichkeit wird hier gleichgesetzt mit der Aufforderung, zu bedenken, ob und inwieweit ethische Themen berührt werden.

  • Stufe 1 – unbedenklich: Technik übernimmt eine bisher schon ausgeführte Funktion, ohne dass bislang ethische Bedenken auftraten, welche auch künftig nicht zu erwarten sind.
  • Stufe 2 – erhöhte Sensibilität: leichte ethische Bedenken, die mit einigen Maßnahmen wie z.B. Datenschutzmaßnahmen, Aus-Schalter) berücksichtigt werden können.
  • Stufe 3 – hohe Sensibilität: ethische Bedenken sind so stark, dass aufwändigere Maßnahmen eingesetzt werden müssen, bei denen u.U. die Frage auftaucht, ob sie (noch) in einem vernünftigen Verhältnis zum Nutzen des technischen Systems stehen. Kommen Maßnahmen nicht in Frage, sollte aufgrund des schwer einschätzbaren Risikos auf die Einführung der betreffenden Technik ganz oder zumindest bis zu dem Zeitpunkt verzichtet werden, zu dem größere Sicherheit hergestellt werden kann.
  • Stufe 4 – höchste Sensibilität: ethische Themen sind in einer Weise berührt, die die Einführung des Systems aus ethischer Sicht ausschließt.

Oft erfolgt die ethische Bewertung aus einer den einzelnen Menschen betreffenden Perspektive heraus. Neben der individuellen müssen aber auch die organisationale und die gesellschaftliche Perspektive Berücksichtigung finden. Unternehmen und (öffentliche) Einrichtungen sind ebenso in die Einführung altersgerechter Assistenzsysteme involviert wie die einzelnen Nutzerinnen und Nutzer. Nicht zuletzt muss der Blick auch auf die gesellschaftlichen Aushandlungsprozesse gerichtet werden, in denen es etwa um Fragen der Gerechtigkeit geht oder darum, was ein „gutes Leben“ im Alter bedeutet, wie wir als Menschen in der technisierten und digitalisierten Gesellschaft leben wollen, welche Rechte und Pflichten es im Umgang mit technischen Assistenzsystemen geben soll usw. MEESTAR versucht, die Sichtweisen möglichst vieler Beteiligter zu erfragen und so die verschiedenen Beobachtungsebenen zu integrieren.

Ethische Leitlinien für den Einsatz von AAL

Aus den verschiedenen Dimensionen und Ebenen leitet das Forschungsteam, das MEESTAR entwickelt hat, folgende ethische Leitlinien ab:

  1. Selbstbestimmung

Altersgerechte Assistenzsysteme sollen den Nutzern helfen, ein selbstbestimmtes Leben zu führen.

  1. Eingeschränkte Selbstbestimmung/ Autonomie

Der Einsatz von altersgerechten Assistenzsystemen bei kognitiv beeinträchtigten Personen soll nur nach gesonderter Prüfung und unter Berücksichtigung des mutmaßlichen Willens der Personen erfolgen.

  1. Teilhabe

Altersgerechte Assistenzsysteme sollen die Teilnahme am gesellschaftlichen Leben und die Integration in gesellschaftliche und soziale Verbindungen unterstützen.

  1. Gerechtigkeit

Der Zugang zu altersgerechten Assistenzsystemen soll diskriminierungsfrei gestaltet werden.

  1. Sicherheit

Der Umgang mit altersgerechten Assistenzsystemen muss für alle Nutzergruppen sicher sein, sowohl bei der normalen Anwendung als auch bei potenziellen Fehlern und Ausfällen der gesamten Technik oder einzelner Prozessketten.

  1. Privatheit

Altersgerechte Assistenzsysteme sollen die persönliche Lebensgestaltung nicht negativ beeinträchtigen.

  1. Datenschutz

Personenbezogene und sonstige vertraulich zu behandelnde Daten, die im Kontext von altersgerechten Assistenzsystemen erhoben, dokumentiert, ausgewertet oder gespeichert werden, sollen vor dem Zugriff unbefugter Dritter sowie vor Missbrauch bestmöglich geschützt werden.

  1. Aufklärung und informationelle Selbstbestimmung

Nutzer von altersgerechten technischen Assistenzsystemen sollen vollständig über die Funktion und Erhebung der sie betreffenden Daten und die Funktion des Systems informiert werden und erst auf dieser Basis eine informierte Einwilligung geben.

  1. Haftung

Verantwortungsübernahme und Haftung im Fall einer fehlerhaften Funktion von altersgerechten Assistenzsystemen müssen transparent und verbindlich geregelt werden.

  1. Altersbilder

Altersgerechte Assistenzsysteme sollen möglichst vielfältige Bilder vom Alter zulassen.

  1. Vermeiden von Diskriminierung und Normierung

Stigmatisierungen oder Diskriminierungen im Kontext der Nutzung von altersgerechten Assistenzsystemen sind unerwünscht. Genauso unerwünscht ist es, wenn von den Systemen (direkte oder indirekte) Normierungen ausgehen.

  1. Anwendungsfreundlichkeit

Altersgerechte Assistenzsysteme sollen so gestaltet sein, dass der Umgang für die Anwender einfach, intuitiv und gut nachvollziehbar ist.

  1. Vertragsbestimmungen

Nutzer von altersgerechten Assistenzsystemen soll die Möglichkeit gegeben sein, aus dem Vertragsverhältnis auszutreten.

  1. Qualifizierung und Weiterbildung

Alle Akteure im Bereich altersgerechter Assistenzsysteme sollen an regelmäßigen Fort- und Weiterbildungsmaßnahmen teilnehmen.

  1. Verantwortung und bestmögliche Unterstützung durch Technik

Anbieter altersgerechter Assistenzsysteme sollen verantwortlich agieren; assistive Technologien sollten stets zum Nutzen und Wohl der Nutzer eingesetzt werden.

Quelle: Manzeschke (2015), S. 10-11

In die gleiche Kerbe – verantwortungsvoller Umgang mit technischen Assistenzsystemen – schlägt auch der Deutsche Ethikrat mit seiner Stellungnahme zum Einsatz von Robotik in der Pflege vom 10. März 2020 (s.u.), deren Lektüre ich an dieser Stelle ausdrücklich empfehlen möchte. Viele wichtige Aspekte konnten in diesem Blogartikel nur angerissen oder verkürzt wiedergegeben werden oder fehlen – notgedrungen – ganz. Es ist eben nur ein Blogartikel. Ein tieferer Einstieg lohnt sich aber auf alle Fälle.

Abschließend sei noch angemerkt, dass auch ethische Fragen nicht in Stein gemeißelt sind, sondern gesellschaftlichen Wandlungsprozessen unterliegen. Das, was wir heute als moralisch abstoßend und ethisch bedenklich ansehen, kann in Zukunft ein akzeptiertes und gewünschtes Verfahren oder Produkt sein. (Und umgekehrt!) Mit allen Leitlinien und ethischen Referenzsystemen bewerten wir die Technik von morgen immer mit der Moral von heute. Es ist denkbar (und sogar wahrscheinlich), dass sich mit einer zunehmenden Gewöhnung an technologische Assistenzsysteme auch die ethischen Maßstäbe zu ihrer Bewertung verändern. Ebenso denkbar ist aber auch, dass sich manches technisches Heilsversprechen als moralischer Irrweg erweist.

Anregungen, Ergänzungen und Kommentare sind wie immer sehr willkommen!

Auch interessant:

Quellen und weiterführende Lektüre:

Quelle Foto: @ cottonbro – pexels.com

| Keine Kommentare

 
Top | Impressum | Datenschutz