Aktuelle News sind auf der englischen Seite zu finden.
 

Internationaler KI-Wettbewerb mit Luzerner Beteiligung

Wissenschaftliche Teams aus aller Welt haben das geplante EU-Rahmengesetz für künstliche Intelligenz einem Stresstest unterworfen. Zu den Gewinnern des Wettbewerbs gehört ein Team mit Luzerner Beteiligung.

Selbst patrouillierender Sicherheitsroboter der Firma Ascenta (Quelle: Switzerland Global Enterprise)

Das Europäische Parlament hat im Juni 2023 eine Verordnung auf den Weg geschickt, die weltweit erstmals einen gesetzlichen Rahmen für Künstliche Intelligenz (KI) schaffen soll. Das fertige KI-Gesetz soll nach Gesprächen mit den EU-Mitgliedstaaten bis Ende Jahr vorliegen.

Stresstest: Erster Platz mit Luzerner Beteiligung

Doch inwieweit erfüllen aktuell verfügbare oder in Entwicklung stehende KI-Anwendungen die künftigen EU-Regeln? Müssten einzelne technische Umsetzungen vielleicht verbessert werden? Dieser Frage widmete sich der internationale "Grand Challenge: The EU AI Act", der im Juli von der Universität St. Gallen ausgerichtet wurde. Insgesamt zwölf Teams aus der ganzen Welt traten im Finale des Wettbewerbs gegeneinander an, um eine Reihe von KI-Anwendungen aus der Industrie auf ihre Konformität mit den EU-Gesetzesregeln zu prüfen und den Entwicklern Empfehlungen zur Verbesserung zu geben. Auf dem Prüfstand befanden sich etwa autonom agierende Baumaschinen, ein Sicherheitsroboter, der eigenständig auf Patrouille geht, sowie eine KI-Anwendung der Deutschen Telekom, die betrügerische Anrufe erkennen und blockieren soll.

Die Teams bekamen jeweils eine Vorstellung des Produkts und ein Briefing des Herstellers und hatten danach einen Tag lang Zeit, eine Stellungnahme aus Sicht des EU AI Acts zu verfassen. Eine Jury bestehend aus Rechtsexpertinnen und -experten verschiedener Universitäten und aus der Industrie wählte das spanische Team "Conformity Mavericks" sowie das Team "LegalAIzers" zu den beiden besten Teams. Zum letzten gehörte auch Kholofelo Kugler, wissenschaftliche Mitarbeiterin bei Prof. Mira Burri, spezialisiert auf technische Vorschriften betreffend KI und Anwältin für internationales Handelsrecht. Zusammen mit Ihren Teamkollegen von den Universitäten Stellenbosch (Südafrika), Bologna (Italien), Toronto (Kanada) und Luxemburg (Belgien) hatten die "LegalAIzers" im Finale eine KI-Anwendung von Mercedes-Benz zu bewerten, die auf ChatGPT beruht. Da beide Finalisten die Jury gleichermassen überzeugt haben, wurde das Preisgeld von insgesamt CHF 100‘000 CHF zu gleichen Teilen auf beide Teams aufgeteilt. Es soll für Forschungsprojekte zur KI eingesetzt werden. Wir gratulieren zum Erfolg!

KI-Gesetz der EU unterscheidet verschiedene Risikostufen

Das geplante Regelwerk, der "EU AI Act", legt Verpflichtungen auf Seite der Anbieter genauso wie der Nutzerinnen und Nutzer von KI-Systemen fest. Sie richten sich nach dem erwarteten Risiko, das eine KI-Anwendung mit sich bringt. Unterschieden werden drei Risiko-Stufen.

KI-Systeme mit einen "unannehmbaren Risiko" stellen eine Bedrohung für die Menschen dar – sie sind dem geplanten Gesetz zufolge verboten. Dazu gehören etwa die Klassifizierung von Menschen aufgrund ihres Verhaltens oder persönlicher Merkmale (Social Scoring) und die biometrische Fern-Identifizierung in Echtzeit durch Gesichtserkennung.

Als "Hochrisiko-Anwendungen" werden KI-Systeme eingestuft, von denen für die Gesundheit, Sicherheit oder die Grundrechte von Menschen ein hohes Risiko ausgeht. Unterschieden werden zwei Unterkategorien: Entweder handelt es sich um KI-Systeme als Teil von Produkten, die bereits unter die EU-Produktionsvorschriften fallen (z.B. Fahrzeuge, medizinische Geräte, Aufzüge), oder die Anwendungen müssen in einer EU-Datenbank registriert werden (z.B. im Bereich des Betriebs und der Verwaltung kritischer Infrastrukturen oder der allgemeinen und beruflichen Bildung). Hochrisiko-Anwendungen müssen vor ihrem Inverkehrbringen und während ihres ganzen Lebenszyklus bewertet werden. Für generative KI-Modelle wie ChatGPT, die auf der Grundlage grosser Datenmengen trainiert werden – deshalb auch "Foundation Models" genannt – und ebenfalls unter diese Kategorie fallen, gelten weitere Vorschriften: Sie müssen offenlegen, dass sie Inhalte mithilfe von KI generieren, so programmiert sein, dass sie keine illegalen Inhalte hervorbringen, und sie müssen urheberrechtlich geschützte Trainingsdaten in zusammengefasster Form veröffentlichen.

KI-System mit "begrenztem Risiko" schliesslich haben Transparenzvorschriften zu erfüllen, die es den Nutzenden jederzeit erlauben, informierte Entscheide zu treffen – etwa, ob sie die Anwendung weiterverwenden möchten oder nicht. Zudem müssen sie in Kenntnis gesetzt werden, wenn sie ein KI-System verwenden.

Quellen:

  • Newsmeldung der Unviersität St. Gallen vom 20.07.2023 (Link).
  • KI-Gesetz: Erste Regulierung der künstlichen Intelligenz. Medienmitteilung des Europäischen Parlaments vom 14.06.2023 (Link).
  • What Are Foundation Models? Blogpost des IBM-Research Labs vom 09.05.2022 (Link).