Home

Einige Unternehmen, die uns ausgewählt haben

Privacy Officer und Privacy Consultant
CDP-Schema gemäß ISO/IEC 17024:2012
European Privacy Auditor
ISDP©10003 Zertifizierungsschema gemäß ISO/IEC 17065:2012
Auditor
Gemäß UNI 11697:2017
Lead Auditor ISO/IEC 27001:2022
Gemäß ISO/IEC 17024:2012
Dateschutzbeauftragter
Gemäß ISO/IEC 17024:2012
Anti-Bribery Lead Auditor Expert
Gemäß ISO/IEC 17024:2012
ICT Security Manager
Gemäß UNI 11506:2017
IT Service Management (ITSM)
Gemäß der ITIL Foundation
Ethical Hacker (CEH)
Gemäß EC-Council
Network Defender (CND)
Gemäß EC-Council
Computer Hacking Forensics Investigator (CHFI)
Gemäß EC-Council
Penetration Testing Professional (CPENT)
Gemäß EC-Council

Berufsqualifikationen

Bleiben Sie mit den Weltnachrichten auf dem Laufenden!

Markieren Sie Themen, die Sie interessieren:

News

Home / News
/
FRANZÖSISCHE AUFSICHTSBEHÖRDE: So setzen Sie generative KI ein: CNIL gibt erste Klarstellungen

FRANZÖSISCHE AUFSICHTSBEHÖRDE: So setzen Sie generative KI ein: CNIL gibt erste Klarstellungen

Sie möchten in Ihrer Organisation ein System generativer künstlicher Intelligenz einsetzen, sind sich aber über die geltenden Rahmenbedingungen nicht sicher? Die CNIL bietet erste Hinweise für einen verantwortungsvollen und datenschutzkonformen Einsatz.

Was ist generative KI?

„Generative“ künstliche Intelligenz bezieht sich auf Systeme, die Inhalte erstellen können (wie Text, Computercode, Bilder, Musik, Audio, Videos usw.). Wenn solche Systeme eine breite Palette von Aufgaben ausführen können, können sie als allgemeine KI-Systeme klassifiziert werden. Ein Beispiel hierfür sind Systeme, die große Sprachmodelle (LLMs) enthalten.

Ihre Verwendung zielt im Allgemeinen darauf ab, die Kreativität und Produktivität der Menschen zu steigern, die sie verwenden, indem sie ihnen ermöglichen, neue Inhalte zu generieren, aber auch, indem sie vorhandene Inhalte analysieren oder ändern (z. B. Zusammenfassungen, Korrekturen oder maschinelle Übersetzungen anbieten).

Aufgrund ihrer probabilistischen Natur produzieren solche Systeme jedoch wahrscheinlich ungenaue Ergebnisse, die dennoch plausibel erscheinen können.

Darüber hinaus erfordert die Entwicklung dieser Systeme Training anhand großer Datenmengen, die oft Informationen über Einzelpersonen oder personenbezogene Daten enthalten. Dies gilt auch für die Daten, die bei der Verwendung dieser Systeme bereitgestellt werden.

Daher sollten mehrere Vorsichtsmaßnahmen getroffen werden, um die Rechte des Einzelnen an seinen Daten zu respektieren.

Wie können solche Systeme eingesetzt werden?

Viele Interessenvertreter fragen die CNIL, wie generative KI-Systeme eingesetzt werden können, insbesondere in Bezug auf die Maßnahmen und die Governance, die zur Einhaltung der geltenden Vorschriften erforderlich sind, insbesondere im Hinblick auf den Schutz personenbezogener Daten.

Die Veröffentlichung dieser Fragen und Antworten soll Organisationen, die den Einsatz dieser Systeme planen, durch einen verantwortungsvollen und sicheren Ansatz anleiten.

Zusammenfassend empfiehlt die CNIL:

  • Ausgehend von einem konkreten Bedarf: Vermeiden Sie den Einsatz eines generativen KI-Systems ohne einen bestimmten Zweck; stellen Sie stattdessen sicher, dass es bereits identifizierte Verwendungszwecke erfüllt.
  • Verwendungszwecke festlegen: Definieren Sie eine Liste der zulässigen und verbotenen Verwendungszwecke basierend auf den damit verbundenen Risiken (z. B. dem System keine personenbezogenen Daten bereitzustellen oder es nicht mit der Entscheidungsfindung zu betrauen).
  • Einschränkungen dieser Systeme anerkennen: Seien Sie sich der Einschränkungen des Systems bewusst, insbesondere im Hinblick auf die Risiken, die es für die Interessen und Rechte des Einzelnen mit sich bringen oder darstellen kann.
  • Auswahl eines robusten Systems und eines sicheren Bereitstellungsmodus: Bevorzugen Sie beispielsweise die Verwendung lokaler, sicherer und spezialisierter (fein abgestimmter) Systeme. Andernfalls sollten Sie, wenn Sie einen Drittanbieter verwenden, feststellen, in welchem ​​Umfang dieser die dem KI-System bereitgestellten Daten wiederverwenden darf, und die Nutzung entsprechend anpassen.
  • Schulung und Sensibilisierung: Informieren Sie die Endbenutzer sowohl über verbotene Verwendungen als auch über die mit offiziellen Verwendungen verbundenen Risiken.
  • Implementierung einer angemessenen Governance: Stellen Sie die Einhaltung der DSGVO und dieser Empfehlungen sicher, insbesondere indem Sie alle Beteiligten von Anfang an einbeziehen (Datenschutzbeauftragter, Informationssystembeauftragter, CISO, Geschäftsleiter usw.).
    Link zu FAQ

Wie kann die Konformität eines bestimmten generativen KI-Systems sichergestellt werden?

Diese ersten Antworten beziehen sich nur auf die Bereitstellung oder Verwendung generativer KI-Systeme.

Das Entwerfen, Feinabstimmen oder Verbessern dieser Modelle oder Systeme stellt komplexe Konformitätsherausforderungen dar, da sie in der Regel große Mengen an Daten aus verschiedenen Quellen erfordern (z. B. das Internet, lizenzierte Drittanbieterquellen, Benutzerinteraktionen usw.).

In diesem Zusammenhang hat die CNIL ihre ersten Empfehlungen zur Entwicklung von KI-Systemen veröffentlicht. Kürzlich hat sie auch neue Empfehlungen zur öffentlichen Konsultation vorgelegt.

Im Einklang mit seinem KI-Aktionsplan plant die CNIL, in naher Zukunft weitere Empfehlungen zu generativen KI-Systemen herauszugeben.

https://www.cnil.fr/en/how-deploy-generative-ai-cnil-provides-initial-clarifications

Vorgeschlagen für Sie

Erweiterte Suche