EU KI-Gesetz – Die Bedeutung der politischen Einigung vom 8. Dezember für Generative KI-Modelle

EU AI Act

Share This Post

Am 8. Dezember 2023 erzielten das Europäische Parlament, die Europäische Kommission und der Rat der EU eine wichtige politische Einigung über die Regulierung von KI. Eine Analyse des inoffiziellen endgültigen Entwurfs folgt in Kürze, doch in der Zwischenzeit ist es hilfreich, die wichtigsten Entwicklungen festzuhalten.

In erster Linie ging es um die Frage, ob die Technologie hinter KI-Systemen wie ChatGPT oder nur ihre Anwendungen reguliert werden sollten. Der Widerstand Deutschlands, Frankreichs und Italiens gegen die Regulierung von KI-Modellen für allgemeine Zwecke (KIAZ) setzte sich nicht durch, und der Vorschlag des Parlaments wurde, wie bereits erwähnt, weitgehend akzeptiert, wenn auch in weniger strenger Form.

Die Notwendigkeit einer Regulierung auf der Ebene der Technologie

Das Parlament hat erkannt, wie wichtig die Regulierung der KI-Technologie ist, insbesondere angesichts des wachsenden Einflusses der generativen KI. Es ist von entscheidender Bedeutung, die der KI innewohnenden Risiken in den Griff zu bekommen. In diesem Zusammenhang ist es notwendig, ein Gleichgewicht zwischen der Förderung der Innovation und der Gewährleistung einer verantwortungsvollen Nutzung zu finden.

Eine Sorge ist, dass große Sprachmodelle (LLMs) Fähigkeiten entwickelt haben, die von ihren Entwicklern nicht vorhergesehen wurden. Die Regulierung von KI-Anwendungen allein kann das gesamte Ausmaß des potenziellen Schadens nicht abdecken. Das EU KI-Gesetz konzentriert sich zu Recht auf KIAZ-Modelle mit systemischem Risiko und legt den Schwerpunkt auf Transparenz und Risikominderung.

Das Risiko der Selbstregulierung 

Einige argumentieren, dass KI-Unternehmen bereits ähnliche Maßnahmen ergreifen, wie sie im KI-Gesetz vorgeschlagen werden. Siehe z. B. die umfangreichen Forschungspapiere, die die Veröffentlichung von Llama 2 oder GPT-4 begleitet haben. Sich allein auf die Selbstregulierung zu verlassen, ist jedoch nicht ausreichend. Unternehmen können wichtige Informationen zurückhalten, wie das Beispiel von Meta und OpenAI zeigt, die ihre Trainingsdaten nicht offenlegen. Gewinnorientierte Anreize führen oft dazu, dass Unternehmen ihren Interessen Vorrang vor dem gesellschaftlichen Wohlbefinden einräumen.

Sanktionen mit spürbaren Auswirkungen auf den Gewinn eines Unternehmens sind notwendig, um die Einhaltung von Vorschriften zu gewährleisten. Selbst die strengsten Vorschriften verlieren an Wirksamkeit, wenn es den Unternehmen freisteht, ihre Modelle nach Belieben als Open Source zu veröffentlichen.

Das verbleibende Problem des Open Sourcing

Selbst eine strenge Regulierung kann unterlaufen werden, wenn sich Unternehmen dafür entscheiden, ihre Modelle ohne angemessene Sicherheitsvorkehrungen zu veröffentlichen. Eine staatliche Aufsicht über die Freigabe von risikoreichen KI-Modellen und deren Quellcode ist unerlässlich, um Missbrauch zu verhindern. Hier ist ein Auszug aus „Llama 2: Open Foundation and Fine-Tuned Chat Models“, dem Forschungspapier, das Meta zusammen mit der Freigabe seiner Modelle veröffentlicht hat:

Schlussfolgerung

Die Bedeutung des Abkommens liegt darin, dass es die Notwendigkeit anerkennt, KIAZ-Modelle zu regulieren und Transparenz in den Bereichen Cybersicherheit, Energieverbrauch und Risikobewertung zu gewährleisten. Die EU strebt ein Gleichgewicht zwischen Innovation und dem Schutz der Gesellschaft vor Schaden an. Hier finden Sie unseren Artikel über den endgültigen Gesetzesentwurfstext.

Subscribe To Our Newsletter

Sign up for Private AI’s mailing list to stay up to date with more fresh content, upcoming events, company news, and more! 

More To Explore

Download the Free Report

Request an API Key

Fill out the form below and we’ll send you a free API key for 500 calls (approx. 50k words). No commitment, no credit card required!

Language Packs

Expand the categories below to see which languages are included within each language pack.
Note: English capabilities are automatically included within the Enterprise pricing tier. 

French
Spanish
Portuguese

Arabic
Hebrew
Persian (Farsi)
Swahili

French
German
Italian
Portuguese
Russian
Spanish
Ukrainian
Belarusian
Bulgarian
Catalan
Croatian
Czech
Danish
Dutch
Estonian
Finnish
Greek
Hungarian
Icelandic
Latvian
Lithuanian
Luxembourgish
Polish
Romanian
Slovak
Slovenian
Swedish
Turkish

Hindi
Korean
Tagalog
Bengali
Burmese
Indonesian
Khmer
Japanese
Malay
Moldovan
Norwegian (Bokmål)
Punjabi
Tamil
Thai
Vietnamese
Mandarin (simplified)

Arabic
Belarusian
Bengali
Bulgarian
Burmese
Catalan
Croatian
Czech
Danish
Dutch
Estonian
Finnish
French
German
Greek
Hebrew
Hindi
Hungarian
Icelandic
Indonesian
Italian
Japanese
Khmer
Korean
Latvian
Lithuanian
Luxembourgish
Malay
Mandarin (simplified)
Moldovan
Norwegian (Bokmål)
Persian (Farsi)
Polish
Portuguese
Punjabi
Romanian
Russian
Slovak
Slovenian
Spanish
Swahili
Swedish
Tagalog
Tamil
Thai
Turkish
Ukrainian
Vietnamese

Rappel

Testé sur un ensemble de données composé de données conversationnelles désordonnées contenant des informations de santé sensibles. Téléchargez notre livre blanc pour plus de détails, ainsi que nos performances en termes d’exactitude et de score F1, ou contactez-nous pour obtenir une copie du code d’évaluation.

99.5%+ Accuracy

Number quoted is the number of PII words missed as a fraction of total number of words. Computed on a 268 thousand word internal test dataset, comprising data from over 50 different sources, including web scrapes, emails and ASR transcripts.

Please contact us for a copy of the code used to compute these metrics, try it yourself here, or download our whitepaper.