Die Künstliche Intelligenz in Brüssel
10. Januar 2019 von H. Wittmann
Unsere treuen Blogleser/innen werden sich an diesen Artikel erinnern:
> Künstliche Intelligenz. Nachgefragt: Etienne Oudot de Dainville répond à nos questions – 6. Oktober 2018
Erstaunlich, wie intensiv hier ein Ministerium in Paris mit einem anderen in Berlin zusammenarbeitet. Und das gilt auch für alle anderen Ministerien. Dazu: > Deutsch-französisches Abkommen Berlin und Paris stellen Zusammenarbeit auf neue Basis – Stuttgarter Nachrichten, 9.1.2019 Von Bärbel Krauß und Christopher Ziedler
Schaut man aber nach Brüssel, dann scheinen die europäischen Institutionen mit ihren einsamen Entscheidungen sehr weit weg zu sein. Zwischen dem 18. Dezember 2018 und dem 18. Januar können die Bürger/innen mitdebattieren:
Ranga Yogeshwar berichtet heute (10.1.2019) in der FAZ unter der Überschrift Maschinen herrschen über die „Ethikrichtlinien für eine vertrauenswürdige Künstliche Intelligenz“, in denen die Expertengruppe Leitlinien einer zukünftigen Ethik für KI der EU, die von der Europäischen Kommission eingesetzt wurde, zur Debatte aufruft. Zeit bleibt nicht viel: die Frist zur Teilnahme läuft am 18. Januar ab. Die entsprechende Seite ist leicht zu finden > https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai und hier steht der Entwurf > AI HLEG Draft Ethics Guidelines (.pdf)
Außerdem findet man hier den Hinweis auf die Konsultation: „Feedback on the draft ethics guidelines for trustworthy AI can be given through on the AI stakeholder consultation form, available from the European AI Alliance platform.“
Wir würden jetzt ja gerne jeden einzelnen Satz dieses Berichts (S. 37) hier diskutieren. S. 4 „Artificial Intelligence (AI) is one of the most transformative forces of our time, and is bound to alter the fabric of society.“ (S. I) Jeder sieht sich gerne als die treibende Kraft zur Veränderung, unsere Redaktion meint, dass es aber immer noch die Kultur, die Literatur und die Künste sind, die die Veränderung in Gesellschaften maßgeblich bestimmen. So wie dem Missbrauch der KI Tür und Tor geöffnet sind, dann gibt es tatsächlich neue Gefahren. Das gilt heute schon für die sozialen Netzwerke, die schon es sich schon längst herausnehmen, unser Kommunikationsverhalten steuern zu wollen: > Stadtplanung und soziale Netzwerke im Web 2.0 (I) – auf stuttgart-fotos.de: 25. November 2007 (!). Lesen wir in dem hier zitierten Bericht auf S. I den nächsten Satz „It presents a great opportunity to increase prosperity and growth, which Europe must strive to achieve.“ Das wird einfach gesetzt, KI scheint der Wachstumsmotor ohnegleichen zu sein. „Over the last decade, major advances were realised due to the availability of vast amounts of digital data, powerful computing architectures, and advances in AI techniques such as machine learning.“ ib. Maschinen lernen dazu, das wird ja hier ein Lobgesang auf alles, was uns fremdbestimmen wird: „… we must ensure to follow the road that maximises the benefits of AI while minimising its risks.“ ib. S. 5: „Ensure that AI is human-centric: AI…“ Die Ansprüche sind hoch, S. II: „Incorporate the requirements for Trustworthy AI from the earliest design phase: Accountability, Data Governance, Design for all, Governance of AI Autonomy (Human oversight), Non-Discrimination, Respect for Human Autonomy, Respect for Privacy, Robustness, Safety, Transparency.“
Die Kritik hält sich in Grenzen S. 27: „The AI HLEG recognises the enormous positive impact that AI already has globally, both commercially and societally.“
Man bekommt bei der Lektüre des Berichts den Eindruck, dass vieles im Zuge der rasanten Entwicklung der Anwendungsmöglichkeiten der KI künftig erlaubt werden soll, aber man hier vorher schnell noch alle Gefahren aufzählt und wenn es keine Einsprüche gibt, dann kann man ja schnell weitermachen. KI fängt bei uns schon mit der Suche in Google, wo uns Suchergebnisse vorgelegt werden, obwohl es woanders viel bessere Ergebnisse gibt. Diese Art von Bevormundung ist uns irgendwie bewusst und wir akzeptieren sie mit jedem Klick auf einer Seite der Dienst von Google. Wir haben uns längst den unbekannten Algorithmen von Google ausgeliefert. Google kommt als Name auch nur einmal in dem Dokument vor, auf der Liste der Autoren: Jakob Uszkoreit, Google.
Allein der Titel des Berichts „Ethikrichtlinien für eine vertrauenswürdige Künstliche Intelligenz“ scheint schon auszuschließen, dass eine KI ohne Vertrauen nicht eingesetzt oder angewandt werden soll. Wird KI jemals so offen funktionieren, das wir volles Vertrauen in die Art, wie wir fremdbestimmt werden bewahren können?
Das Glossar mit schmalen fünf Einträgen auf S. IV ist nicht gerade opulent ausgefallen.
S. 2: Das Verständnis der Expertengruppe zum Thema Ethik ist es wert hier ganz zitiert zu werden:
„The Role of AI Ethics
The achievement of Trustworthy AI draws heavily on the field of ethics. Ethics as a field of study is centuries old and centres on questions like ‘what is a good’ action, ‘what is right’, and in some instances ‘what is the good life’. AI Ethics is a sub-field of applied ethics and technology, and focuses on the ethical issues raised by the design, development, implementation and use of AI. The goal of AI ethics is to identify how AI can advance or raise concerns to the good life of individuals, whether this be in terms of quality of life, mental autonomy or freedom to live in a democratic society. It concerns itself with issues of diversity and inclusion (with regards to training data and the ends to which AI serves) as well as issues of distributive justice (who will benefit from AI and who will not).
A domain-specific ethics code – however consistent, developed, and fine grained future versions of it may be – can never function as a substitute for ethical reasoning itself, which must always remain sensitive to contextual and implementational details that cannot be captured in general Guidelines. This document should thus not be seen as an end point, but rather as the beginning of a new and open-ended process of discussion. We therefore assert that our European AI Ethics Guidelines should be read as a starting point for the debate on Trustworthy AI. The discussion begins here but by no means ends here.“
S. 7: hier wird u.a. auf die Menschenrechte hingewiesen: „3.1 Respect for human dignity. Human dignity encompasses the idea that every human being possesses an “intrinsic worth”, which can never be diminished, compromised or repressed by others – nor by new technologies like AI systems.4 In the context of AI, respect for human dignity entails that all people are treated with respect due to them as individuals, rather than merely as data subjects. To specify the development or application of AI in line with human dignity, one can further articulate that AI systems are developed in a manner which serves and protects humans’ physical and moral integrity, personal and cultural sense of identity as well as the satisfaction of their essential needs.“
S. 11: „5. Critical concerns raised by AI This section has sparked lively discussions between the AI HLEG members, and we did not reach agreement on the extent to which the areas as formulated here below raise concerns. We are therefore asking specific input on this point from those partaking in the stakeholder consultation.“
Immerhin. Die offenen Fragen werden huer gesammelt:
„An Assessment List that addresses the requirements for Trustworthy AI could look as follows:“ S. 24-28.
„This Document was prepared by the members of the High-Level Expert Group on Artificial Intelligence listed here below in alphabetical order“: S. 30
Auf unserem Blog:
> 9. Deutsch-französisches Wirtschaftsgespräch: Die Künstliche Intelligenz – ein deutsch-französisches Zukunftsprojekt – 25. Oktober 2018
> Frankreich hat eine Strategie für die künstliche Intelligenz vorgestellt. – 2. April 2018
> L’intelligence collective. Kollektive Intelligenz – 8. Oktober 2007 (!)
Paris und Berlin gemeinsam gegen das #SiliconValley: Klappt das?
Ein deutsch-französisches Zentrum für Künstliche Intelligenz und Zukunftstechnologien https://t.co/riNlcLklso via @faznet— Christian Schubert (@Ch_Schubert) January 11, 2018