Künstliche Intelligenz (KI) bezeichnet Systeme
mit einem „intelligenten“ Verhalten, die ihre Umgebung
analysieren und mit einem gewissen Grad
an Autonomie handeln, um bestimmte Ziele zu erreichen.
KI-basierte Systeme können rein softwaregestützt
in einer virtuellen Umgebung arbeiten (z. B. Sprachassistenten,
Bildanalysesoftware, Suchmaschinen, Sprach- und
Gesichtserkennungssysteme),
aber auch in Hardware-Systeme eingebettet sein
(z. B. moderne Roboter, autonome Pkw, Drohnen
oder Anwendungen des ‚Internet der Dinge‘).
Eine Definition der KI. Wichtigste Fähigkeiten und Wissenschaftsgebiete.
Für die Zwecke der Gruppe entwickelte Definition.
Online: https://elektro.at/wp-content/uploads/2019/10/EU_Definition-KI.pdf
Dass Datafizierung und Digitalisierung die Arbeitswelt ebenso wie unser persönliches Leben revolutionieren – dies bezweifelt kaum noch jemand. Die Expertengruppe Charta digitale Vernetzung (https://charta-digitale-vernetzung.de/) kommt in ihrem „Kompass: Künstliche Intelligenz“ zu der Prognose, „wer über die leistungsfähigste künstliche Intelligenz verfügt, gewinnt die Märkte der Zukunft und bestimmt deren makrosoziale Dynamik“.
Expertenbericht für die Europäische Kommission
Die Europäische Kommission berief im Juni 2018 eine Gruppe von 52 unabhängigen Experten. Sie sollten die ethische Dimension der Künstlichen Intelligenz beraten und die wesentlichen Grundsätze zu Papier bringen. Sie benannte
»Sieben Voraussetzungen für eine vertrauenswürdige künstliche Intelligenz
Eine vertrauenswürdige künstliche Intelligenz muss alle geltenden Gesetze und Vorschriften einhalten und eine Reihe von Anforderungen erfüllen. Spezifische Bewertungslisten sollen dazu beitragen, die Erfüllung der einzelnen Kernanforderungen zu überprüfen:
Vorrang menschlichen Handelns und menschlicher Aufsicht: Systeme künstlicher Intelligenz sollten gerechten Gesellschaften dienen, indem sie das menschliche Handeln und die Wahrung der Grundrechte unterstützen‚ keinesfalls aber sollten sie die Autonomie der Menschen verringern, beschränken oder fehlleiten.
Robustheit und Sicherheit: Eine vertrauenswürdige künstliche Intelligenz setzt Algorithmen voraus, die sicher, verlässlich und robust genug sind, um Fehler oder Unstimmigkeiten in allen Phasen des Lebenszyklus des Systems künstlicher Intelligenz zu bewältigen.
Privatsphäre und Datenqualitätsmanagement: Die Bürgerinnen und Bürger sollten die volle Kontrolle über ihre eigenen Daten behalten, und die sie betreffenden Daten sollten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren.
Transparenz: Die Rückverfolgbarkeit von Systemen künstlicher Intelligenz muss sichergestellt werden.
Vielfalt, Nichtdiskriminierung und Fairness: Systeme künstlicher Intelligenz sollten dem gesamten Spektrum menschlicher Fähigkeiten, Fertigkeiten und Anforderungen Rechnung tragen und die Barrierefreiheit gewährleisten.
Gesellschaftliches und ökologisches Wohlergehen: Systeme künstlicher Intelligenz sollten eingesetzt werden, um einen positiven sozialen Wandel sowie die Nachhaltigkeit und ökologische Verantwortlichkeit zu fördern.
Rechenschaftspflicht: Es sollten Mechanismen geschaffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für Systeme künstlicher Intelligenz und deren Ergebnisse gewährleisten.«
Grußwort von Papst Franziskus
Die Päpstliche Akademie für das Leben lud für den Februar 2020 zu einer Arbeitstagung hunderte Fachleute und Unternehmer aus aller Welt ein. Ziel war ein gemeinsamer Aufruf, der die KI-Industrie für eine ethische Selbstverpflichtung gewinnen will. „Man könnte sogar sagen“, so Franziskus in seinem Grußwort, „dass die digitale Galaxie und insbesondere die künstliche Intelligenz im Zentrum des epochalen Wandels stehen, den wir erleben. Die digitale Innovation berührt jeden Aspekt unseres Lebens, sowohl persönlich als auch gesellschaftlich“, bis hin zur „Verwischung“ bislang selbstverständlicher Grenzen zwischen anorganischer und organischer Materie. Im folgenden widmete sich der Papst jedoch nicht der Robotisierung, sondern v.a. der Frage nach der Anwendung von Algorithmen, die Entscheidungen etwa auf medizinischem, wirtschaftlichen und sozialem Gebiet beeinflussen: „Auf der sozioökonomischen Ebene werden die Benutzer oft auf ,Verbraucher' reduziert, Beute privater Interessen, die in den Händen einiger weniger konzentriert sind. Aus digitalen Spuren, die im Internet verstreut sind, extrahieren Algorithmen heute Daten, die es ermöglichen, mentale und relationale Gewohnheiten zu kontrollieren, für kommerzielle und politische Zwecke, oft ohne unser Wissen. Diese Asymetrie, durch die einige wenige alles über uns wissen, während wir nichts über sie wissen, trübt das kritische Denken und die bewusste Ausübung der Freiheit. Die Ungleichheiten weiten sich enorm aus; Wissen und Reichtum konzentrieren sich in einigen wenigen Händen, mit gravierenden Folgen für demokratische Gesellschaften“. Dennoch sei das Potenzial der neuen Techniken riesig: „Wir stehen vor einem Geschenk Gottes, einer Ressource, die gute Früchte tragen kann“. Es bedürfe jedenfalls einer Algorithmen-Ethik mit dem Ziel, „eine kompetene und gemeinsame Überprüfung der Prozesse zu gewährleisten, durch die wir die Beziehungen zwischen Menschen und der heutigen Technologie integrieren“. Dabei könnten die Grundsätze der katholischen Soziallehre einen wichtigen Beitrag leisten: Würde der Person, Gerechtigkeit, Subsidiarität und Solidarität. Hinzu kommen die Menschenrechte. Denn die Komplexität der technologischen Welt verlange „von uns einen immer klareren ethischen Raum, damit diese Verpflichtung wirklich wirksam wird“ (vgl. http://w2.vatican.va/content/francesco/en/speeches/2020/february/documents/papa-francesco_20200228_accademia-perlavita.html).
„Algor-Ethik“ der Päpstlichen Akademie
Die Versammlung aus Fachleuten und Unternehmern stellt in einer achtseitigen Charta fest:
K.I. solle kein Selbstzweck sein, sondern Mensch und Umwelt dienen.
Ausgehend von der Erklärung der Menschenrechte, seien Freiheit und Würde die entscheidenden Werte, die bei der Herstellung und Nutzung von KI-Systemen geschützt und garantiert werden müssten. Das heißt, die Anwendung von Algorithmen dürfe den Menschen nicht bezüglich seiner Rasse, Hautfarbe, seines Geschlechts, seiner Sprache, seiner Religion, seiner politischen oder sonstigen Überzeugung, seiner nationalen oder sozialen Herkunft, seines Vermögens, seiner Geburt oder seines sonstigen Status diskriminieren.
KI-basierte Technologie dürfe nie dazu benutzt werden, Menschen auszubeuten. Stattdessen müssen sie eingesetzt werden, um die Menschen bei der Entwicklung ihrer Fähigkeiten (Empowerment/Ermöglichung) zu helfen und den Planeten zu unterstützen.
Disziplin-übergreifende spezifische Lehrpläne für und mit der jüngeren Generation seien zu entwickeln. Der universelle Zugang zur Bildung müsse durch Solidarität und Fairness erreicht werden.
Der Zugang zu lebenslangem Lernen müsse auch für ältere Menschen gewährleistet werden. Diese Technologien könnten sich als enorm nützlich erweisen, um Menschen mit Behinderungen beim Lernen und bei der Erlangung von mehr Unabhängigkeit zu unterstützen: Inklusive Bildung bedeute daher, dass KI zur Unterstützung und Integration jeder einzelnen Person eingesetzt wird, indem sie Hilfe und Möglichkeiten zur sozialen Teilhabe bietet (z.B. Fernarbeit für Menschen mit eingeschränkter Mobilität, technologische Unterstützung für Menschen mit kognitiven Behinderungen usw.).
Die Folgen der KI in Gesellschaft, Arbeit und Bildung haben es notwendig gemacht, die Lehrpläne der Schulen mit Blick auf das pädagogische Motto "niemand bleibt zurück" zu überarbeiten. Im Bildungssektor seien hohe und objektive Standards zu schaffen. Diese Standards sollten darauf abzielen, dass jede Person ihre Fähigkeiten voll und ganz zum Ausdruck bringen kann und dass sie sich für das Wohl der Gemeinschaft einsetzt, auch wenn daraus kein persönlicher Nutzen gezogen werden kann.
Der Einsatz von KI solle sozial orientiert, kreativ, verbindend, produktiv, verantwortungsvoll und in der Lage sein, das persönliche und soziale Leben der jüngeren Generationen positiv zu beeinflussen.
Die Entwicklung der künstlichen Intelligenz müsse sich in Vorschriften und Prinzipien widerspiegeln, die die Menschen - insbesondere die Schwachen und Unterprivilegierten - und die natürliche Umwelt schützen. Das ethische Engagement aller beteiligten Akteure ist ein entscheidender Ausgangspunkt; Werte, Prinzipien und in einigen Fällen auch gesetzliche Regelungen seien unerlässlich, um diesen Prozess zu unterstützen, zu strukturieren und zu lenken.
Die KI-Entwicklung müsse mit robusten digitalen Sicherheitsmaßnahmen einhergehen:
Erfordern neue Formen der Automatisierung und algorithmische Aktivitäten die Entwicklung stärkerer Verantwortlichkeiten? Insbesondere erscheint es wichtig, eine Form der „Erklärungspflicht" in Betracht zu ziehen: Wir müssten darüber nachdenken, nicht nur die Entscheidungskriterien der KI-basierten Algorithmen verständlich zu machen, sondern auch ihren Zweck und ihre Ziele: Dem Einzelnen seien demnach Informationen über die Logik hinter den zur Entscheidungsfindung verwendeten Algorithmen zu liefern. Dies werde die Transparenz, Nachvollziehbarkeit und Verantwortung erhöhen und den computergestützten Entscheidungsprozess valider machen.
Neue Formen der Regulierung seien erforderlich, um die Transparenz und die Einhaltung ethischer Grundsätze zu fördern, v.a wenn Menschenrechte beeinträchtigt werden können, wie z.B. durch Gesichtserkennung.
Um diese Ziele zu erreichen, müssten wir von Anfang an bei der Entwicklung jedes Algorithmus eine "algorethische" Vision verfolgen. Das Entwerfen und Planen von vertrauenswürdigen KI-Systemen beinhalte die Suche nach einem Konsens zwischen den politischen Entscheidungsträgern, den Organisationen des UN-Systems und anderen zwischenstaatlichen Organisationen, Forschern, der Welt der Wissenschaft und Vertretern von Nichtregierungsorganisationen bezüglich der ethischen Prinzipien für die KI. Daher wünschen die Sponsoren des Aufrufs, auf nationaler und internationaler Ebene zusammenzuarbeiten, um die "Algor-Ethik" zu fördern, und zwar mit Hilfe folgender Prinzipien:
1. Transparenz: KI-Systeme müssen grundsätzlich erklärbar sein;
2. Inklusion: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit jeder einzelne davon profitieren kann und allen Individuen die bestmöglichen Bedingungen geboten werden, um sich auszudrücken und sich zu entwickeln;
3. Verantwortung: Diejenigen, die den Einsatz von KI konzipieren und einsetzen, müssen mit Verantwortung und Transparenz vorgehen;
4. Unvoreingenommenheit: keine Vorurteile schaffen oder nach ihnen handeln, um so Fairness und Menschenwürde zu wahren;
5. Verlässlichkeit: KI-Systeme müssen zuverlässig arbeiten können;
6. Sicherheit und Privatsphäre: KI-Systeme müssen sicher arbeiten und die Privatsphäre der Benutzer respektieren.
Diese Prinzipien sind grundlegende Elemente einer guten Innovation.
Rom, 28. Februar 2020« (vgl. https://romecall.org/)
Die Charta wurde von der Päpstlichen Akademie für das Leben und den IT-Unternehmen IBM und Microsoft sowie der UN-Ernährungsorganisation FAO am 28.2.2020 herausgegeben. Zu den Erstunterzeichnern des „Rome Call for AI Ethics“ gehören u.a. Microsoft-Präsident Brad Smith und IBM-Vizepräsident John Kelly
Risiken
Welche Beinträchtigung kann bestimmten Personen drohen? Die gemeinnützige Vereinigung algorithm.watch kann sich folgende Szenarien vorstellen:
Algorithmische Systeme werden bald darüber entscheiden, welche Therapien für welche Patienten bezahlt werden. Bei Diagnosen mit schlechter Überlebensprognose können Therapien von vornherein verweigert werden, bzw. Krankenkassen werden sie nicht mehr bezahlen. Oder aber, Krankenkassen bewilligen nur Therapien, bei denen sich eine Heilungschance über einem bestimmten Prozentsatz gezeigt hat.
Manche Ärzte werden eventuell von Algorithmen vorgeschlagene Therapien vorziehen, die ihnen finanzielle Vorteile verschaffen. Sie werden auch Anreize bekommen, unnötige Untersuchungen und Behandlungen an ihre Patienten zu verkaufen.
Nähere Ausführungen dazu: https://algorithmwatch.org/story/algorithmen-bald-ueber-die-bewilligung-von-therapien/
Diese Befürchtungen konkretisieren die Papstworte von den möglichen Schäden für den einzelnen, schwächeren Menschen.
Anmerkung:
Uns fällt die modische Leerformel „to support the planet“ („den Planeten zu unterstützen“) auf, die nicht konkretisiert wird.
Die Verwendung der ehrenwerten Begriffe „Solidarität“ und „Fairness“ ist nicht zu bemängeln,. Aber wäre nicht der christlichen Ausdruck „Nächstenliebe“ im Rahmen einer Tagung in der Pontificia Academia pro Vita etwas treffender?
Insgesamt ist die Algor-Ethik ein fester, unbedingt zu beachtender Bestandteil der Debatte um die KI-Ethik. Wir können gespannt sein, inwieweit die Inhalte in die Aussagen des Papstes zum relevanten Thema der KI-Ethik einfließen werden.
© Stefan Winckler