Ich frage mich, ob die Vereinigten Staaten, jetzt da sie von den Technologieriesen regiert werden, so grundlegende und fundamentale Prinzipien einer Demokratie wie das Recht auf Gleichheit, die menschliche Würde, Nichtdiskriminierung, Datenschutz, Transparenz und das Recht auf informierte Zustimmung bei der Nutzung von Systemen der Künstlichen Intelligenz und Robotik berücksichtigen werden.
Meine Zweifel entstehen, weil einige glauben, dass eine Regulierung, die diese Rechte garantiert, Innovation und technologischen Fortschritt behindert, obwohl sie uns in Wirklichkeit eine verlässliche Künstliche Intelligenz gewährleistet, die Sicherheit und Vertrauen für die Bürger bietet. Tatsächlich priorisieren, wenn wir dieselben Robotergesetze von Asimov anwenden, diese die Sicherheit der Menschen, indem sie das oberste Gebot festlegen:
“Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass der Menschheit Schaden zugefügt wird.“
Schäden, die natürlich auch entstehen, wenn unsere Grundrechte und unsere humanistischen Werte direkt angegriffen oder verletzt werden – Werte, die zwar intrinsisch europäisch sind, aber universell gelten. Werte, die Europas Beitrag zur Gesellschaft auszeichnen.
Die Anwendung dieser Normen oder Prinzipien sollte, wie gesagt, den Forschungs-, Innovations- oder Entwicklungsprozess im Bereich der KI und Robotik keinesfalls beeinträchtigen, sondern vielmehr dazu beitragen, dass Innovation qualitativ hochwertiger, fortschrittlicher und auf breiterer Ebene verteilt wird, um Risiken und Unsicherheiten zu vermeiden – ohne dabei zu vergessen, dass KI im Dienste der Menschheit stehen muss.
Eine der Verpflichtungen, die tatsächlich in der europäischen Künstliche-Intelligenz-Verordnung (RIA) vorgesehen ist, um zu verhindern, dass die technologische Ermächtigung unsere Sicherheit gefährdet, ist das Prinzip der Transparenz. Dieses erlaubt es, jede Entscheidung, die mit Hilfe der KI getroffen wurde und erhebliche Auswirkungen auf das menschliche Leben hat, stets zu rechtfertigen, um so spezifische Manipulationsrisiken zu vermeiden. Tatsächlich müssen Nutzer eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die Personen, Objekten, Orten oder Ereignissen ähneln und die eine falsche Authentizität suggerieren könnten, öffentlich kenntlich machen, dass diese künstlich generiert oder manipuliert wurden.
Es muss jedoch klargestellt werden, dass nicht alle KI-Systeme denselben Verpflichtungen und Kontrollen unterliegen. Die strengsten Anforderungen gelten insbesondere für Hochrisikosysteme, wie sie in Artikel 6 der KI-Verordnung beschrieben sind, z. B. beim Zugang zu Beschäftigung, Bildung oder öffentlichen Dienstleistungen. Daher müssen diese Systeme eine menschliche Aufsicht gemäß Artikel 14 der RIA haben, um Risiken für Gesundheit, Sicherheit oder Grundrechte zu minimieren. Zudem wird eine Marktüberwachung gefordert, durch die Anbieter nach der Markteinführung Daten von Nutzern sammeln und analysieren oder aus anderen Quellen beziehen müssen. Jeder schwerwiegende Vorfall oder jede Fehlfunktion muss der Marktüberwachungsbehörde gemeldet werden, bei der sich der Vorfall ereignet hat.
Bezüglich der KI-Systeme, die das Verhalten gezielt manipulieren oder täuschen und darauf abzielen oder den Effekt haben, das Verhalten von Personen oder Gruppen erheblich zu verzerren – etwa durch Massenüberwachung oder Social Scoring –, werden diese direkt als verbotene und damit unzulässige Praktiken eingestuft, wie es in Artikel 5 der RIA vorgesehen ist.