Home

Alcune aziende che ci hanno scelto

Privacy Officer e consulente privacy
Schema CDP secondo la norma ISO/IEC 17024:2012
European Privacy Auditor
Schema di Certificazione ISDP©10003 secondo la norma ISO/IEC 17065:2012
Valutatore Privacy
Secondo la norma UNI 11697:2017
Lead Auditor ISO/IEC 27001:2022
Secondo la norma ISO/IEC 17024:2012
Data Protection Officer
Secondo la norma ISO/IEC 17024:2012
Anti-Bribery Lead Auditor Expert
Secondo la norma ISO/IEC 17024:2012
ICT Security Manager
Secondo la norma UNI 11506:2017
IT Service Management (ITSM)
Secondo l’Ente ITIL Foundation
Ethical Hacker (CEH)
Secondo l’Ente EC-Council
Network Defender (CND)
Secondo l’Ente EC-Council
Computer Hacking Forensics Investigator (CHFI)
Secondo l’Ente EC-Council
Penetration Testing Professional (CPENT)
Secondo l’Ente EC-Council

Qualifiche professionali

Rimani aggiornato sulle notizie dal mondo!

Seleziona gli argomenti di tuo interesse:

Notizie

Home / Notizie
/
AUTORITÀ DI CONTROLLO DEI PAESI BASSI: I regolatori della privacy chiedono il divieto di riconoscimento facciale

AUTORITÀ DI CONTROLLO DEI PAESI BASSI: I regolatori della privacy chiedono il divieto di riconoscimento facciale

Il riconoscimento facciale e altri dati biometrici in tempo reale negli spazi pubblici dovrebbero essere vietati. Lo afferma il Comitato europeo per la protezione dei dati (EDPB) in risposta a una proposta legislativa della Commissione europea sull’intelligenza artificiale (AI). L’EDPB vuole anche vietare i sistemi di intelligenza artificiale che classificano le persone in base, ad esempio, all’etnia, al genere o alle preferenze sessuali.

L’EDPB è composto dalle autorità di regolamentazione della privacy di tutti i paesi dell’UE. Insieme al regolatore europeo, il Garante europeo della protezione dei dati (GEPD), hanno risposto al disegno di legge.

Il riconoscimento facciale rischia troppo

L’EDPB e il GEPD ritengono che i rischi del riconoscimento facciale siano troppo grandi per consentire questa tecnica negli spazi pubblici. Questo vale anche per tecniche comparabili, come il riconoscimento vocale e il riconoscimento del movimento. 

L’attuale testo del disegno di legge consente ai governi di utilizzare questo tipo di tecniche per prevenire e combattere la criminalità, ad esempio. 

società di sorveglianza

‘Una fotocamera con riconoscimento facciale non solo vede quello che stai facendo, ma ti identifica anche immediatamente. Vede subito chi sei.

Ogni telecamera per il riconoscimento facciale che mettiamo per strada, al parco, in treno o in autobus è un passo più vicino a una società di sorveglianza. Una società in cui non camminerai mai per strada casualmente. In cui non puoi sfuggire agli occhi indiscreti di sistemi che ti osservano e ti riconoscono, per poterti seguire tutto il giorno. Esci dalla porta e sai di esser costantemente osservato. Questo è opprimente, fa sentire le persone meno libere di essere se stesse.

L’amministratore di quei sistemi può seguire automaticamente: può vedere esattamente quando si esce di casa, dove si fa la spesa, quando si ha un appuntamento con il medico, quali amici vediamo e dove si va a mangiare fuori. Lo vogliamo? Il potenziale aiuto che questi sistemi possono fornire nella prevenzione e nella lotta alla criminalità vale la pena rinunciare alla libertà di tutti? Viviamo in una società libera e aperta. Questa è una grande risorsa, dobbiamo proteggerla.

Prevenzione della discriminazione tramite porta AI 

Inoltre, l’EDPB e il GEPD sostengono il divieto dei sistemi di IA che dividono le persone in gruppi in base a etnia, genere, sessualità o preferenza politica. Perché questo incoraggia la discriminazione. 

Riconoscimento delle emozioni

L’EDPB e il GEPD fanno un terzo appello: chiedono anche il divieto dell’IA che riconosce le emozioni. Il riconoscimento delle emozioni può comportare gravi rischi per la libertà dei cittadini. Pensa ai datori di lavoro che danno una valutazione negativa ai dipendenti se sembrano “arrabbiati” troppo spesso seduti davanti ai loro computer, ai dipendenti che devono sorridere per accedere al posto di lavoro o alla polizia che ferma persone che, secondo il sistema, sono “arrabbiati” per precauzione “o “insoddisfatti” mentre camminano per strada.

I regolatori stanno facendo queste chiamate in risposta al disegno di legge sull’IA della Commissione europea. Questa proposta riguarda molti sistemi diversi, ma impone principalmente regole aggiuntive per i sistemi ad alto rischio per i cittadini. Come gli algoritmi che si occupano di benefici o benefici del governo per i cittadini. 

Secondo la proposta, questi tipi di sistemi devono essere registrati. E devono essere certificati in futuro, per dimostrare che sono conformi alla nuova legge. Inoltre, le aziende hanno l’obbligo di indicare come funzionano i sistemi. 

Ma oltre agli appelli di cui sopra, l’EDPB e il GEPD ritengono che la Commissione europea debba migliorare ulteriormente la proposta.

Regole poco chiare

Il GEPD e il GEPD rilevano che molte norme non sono ancora sufficientemente chiare. Quale parte dovrebbe far rispettare la legge e come esattamente? E quali sono esattamente le regole quando i dati vengono trasferiti con sistemi verso paesi extra UE? 

Inoltre, la legge deve essere in linea con il regolamento generale sulla protezione dei dati (GDPR), secondo l’EDPB e il GEPD. L’attuale proposta contiene definizioni diverse di alcuni termini rispetto al GDPR. Inoltre, le procedure che le aziende devono seguire sono diverse rispetto al GDPR. Questo crea confusione e rende molto complicato per le aziende e altre organizzazioni rispettare la legge.

L’EDPB e il GEPD hanno redatto questo parere su richiesta della Commissione europea. Anche gli Stati membri dell’UE esamineranno la proposta in seguito, seguiti dal Parlamento europeo.

 

FONTE: AUTORITA’ PER LA PROTEZIONE DEI DATI DEI PAESI BASSI – AP

Suggeriti per te

Ricerca Avanzata