No Result
View All Result
  • Login
  • NIS2 / ISO 27001
    • Atti & Documenti
    • News & Eventi
  • Security / PCI DSS
    • F.A.Q. Security / PCI DSS
    • News & Eventi
    • Atti & Documenti
    • Leggi & Sentenze
    • Tutorial & Case Study
    • Webcast
  • Data Protection & Privacy
    • F.A.Q. Data Protection & Privacy
    • News & Eventi
    • Garante Privacy
    • Atti & Documenti
    • Leggi & Sentenze
    • Tutorial & Case Study
  • Digital Forensics
    • F.A.Q. Digital Forensics
    • News & Eventi
    • Leggi & Sentenze
    • Atti & Documenti
    • Tutorial & Case Study
  • Bandi
    • Fondi UE
    • Fondi Nazionali e Regionali
    • Articoli e documenti utili
PREZZI
ABBONATI
  • NIS2 / ISO 27001
    • Atti & Documenti
    • News & Eventi
  • Security / PCI DSS
    • F.A.Q. Security / PCI DSS
    • News & Eventi
    • Atti & Documenti
    • Leggi & Sentenze
    • Tutorial & Case Study
    • Webcast
  • Data Protection & Privacy
    • F.A.Q. Data Protection & Privacy
    • News & Eventi
    • Garante Privacy
    • Atti & Documenti
    • Leggi & Sentenze
    • Tutorial & Case Study
  • Digital Forensics
    • F.A.Q. Digital Forensics
    • News & Eventi
    • Leggi & Sentenze
    • Atti & Documenti
    • Tutorial & Case Study
  • Bandi
    • Fondi UE
    • Fondi Nazionali e Regionali
    • Articoli e documenti utili
No Result
View All Result
No Result
View All Result
Home Digital Forensics

Cognitive cybersecurity, diritti della personalità ed evoluzione normativa, il regolamento Europeo in materia di Intelligenza Artificiale. (Parte II).

Individuiamo i tratti caratterizzanti ed i rischi per alcuni diritti e libertà fondamentali degli individui.

Avv. Giuseppe Serafini scritto da Avv. Giuseppe Serafini
17 Aprile 2023
in Data Protection & Privacy, Garante Privacy, Leggi & Sentenze
Tempo di lettura: 4 minuti
0
Cognitive cybersecurity, diritti della personalità ed evoluzione normativa, il regolamento Europeo in materia di Intelligenza Artificiale. (Parte II).

Come accennato nello scorso numero, muovendo dalla definizione di intelligenza artificiale contenuta nella proposta di regolamento europeo del 21 aprile 2020, che stabilisce regole armonizzate sull’intelligenza artificiale, si procederà ora ad individuarne, in modo sintetico,  i tratti caratterizzanti ed i rischi per alcuni diritti e libertà fondamentali degli individui.

Nello specifico, l’art. 3 nr. 1 della proposta ricordata definisce un “sistema di intelligenza artificiale” (sistema di IA) come “un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”

Da un punto di vista giuridico, gli elementi caratterizzanti della definizione appena ricordata, e quindi quelli che devono essere presenti affinché possano trovare applicazione le norme contenute nella proposta di regolamento citata, devono essere individuati in un software – che deve essere stato sviluppato, ad esempio, con tecniche di apprendimento profondo (deep learning), supervisionato e non, ovvero con approcci basati sulla logica e approcci basati sulla conoscenza, ​compresi la rappresentazione della conoscenza, la programmazione induttiva (logica), le basi di conoscenze, i motori inferenziali e deduttivi, il ragionamento (b) ed i sistemi esperti –  in grado di generare specifici output, quali previsioni, raccomandazioni o decisioni tali da influenzare l’ambiente circostante.

La scelta terminologica operata dalla Commissione europea rispecchia in parte, in applicazione di quanto previsto dalle vigenti disposizioni in materia di produzione normativa delle istituzioni comunitarie, che impongono al legislatore di tenere nella debita considerazione i risultati della standardizzazione, il contenuto di alcuni standard pubblicati dall’organizzazione internazionale per la standardizzazione (ISO) ed in particolare, ISO/IEC 2382-1:1993(en) Information technology, Vocabulary Part 1: Fundamental terms, che, già nel 1993, definiva l’intelligenza artificiale come la branca dell’informatica dedicata allo sviluppo di sistemi di elaborazione dei dati che svolgono funzioni normalmente associate all’intelligenza umana, come il ragionamento, l’apprendimento e l’auto-miglioramento e, più recentemente, nel 2021, lo standard ISO/IEC DIS 22989(en) Information technology, Artificial intelligence, Artificial intelligence concepts and terminology, che ha definito al punto 3.1.2. un sistema ingegnerizzato di intelligenza artificiale, come un insieme di metodi o entità automatizzate che insieme costruiscono, ottimizzano e applicano un modello in modo che il sistema possa, per un dato insieme di compiti predefiniti, calcolare previsioni, raccomandazioni o decisioni.

Mentre i tratti comuni tra le definizioni considerate, possono essere individuati nella capacità del sistema di intelligenza artificiale, di svolgere operazioni intelligenti, come tali intendendosi quelle che dimostrano la capacità di applicare conoscenze ed abilità, la loro differenza fondamentale risiede nel fatto che la proposta di regolamento, considera rilevanti solo quei sistemi in grado di influenzare l’ambiente circostante.

Dal punto di vista delle decisioni giurisprudenziali, in materia di Intelligenza artificiale e nello specifico degli algoritmi per il calcolo reputazionale è recentemente intervenuta anche la Corte di Cassazione con l’Ordinanza 14381 del 25/05/2021 nella quale si è espressamente stabilito che in tema di trattamento di dati personali, il consenso è validamente prestato solo se espresso liberamente e specificamente in riferimento a un trattamento chiaramente individuato; ne segue che nel caso di una piattaforma web (con annesso archivio informatico) preordinata all’elaborazione di profili reputazionali di singole persone fisiche o giuridiche, incentrata su un sistema di calcolo con alla base un algoritmo finalizzato a stabilire i punteggi di affidabilità, il requisito di consapevolezza non può considerarsi soddisfatto ove lo schema esecutivo dell’algoritmo e gli elementi di cui si compone restino ignoti o non conoscibili da parte degli interessati.

Considerazioni di segno analogo, sono state espresse nella Sentenza del Consiglio di Stato in data 13 dicembre 2019 nr. 8472, nella quale,  a proposito di criteri di selezione del personale, si può leggere che, un importante principio di applicazione globale, utilizzato, nella nota decisione Loomis vs. Wisconsin, della Corte Suprema del Wisconsin del 13 luglio 2016, di cui diremo di seguito, è il principio di non esclusività della decisione algoritmica, in forza del quale, nel caso in cui una decisione automatizzata produca effetti giuridici che riguardano o che incidano significativamente su una persona, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato. Deve quindi comunque esistere, nel processo decisionale,  un contributo umano capace di controllare, validare ovvero smentire la decisione automatica; in ambito matematico ed informativo il modello viene definito come b (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano.

Le due decisioni sopra riportate, pur nella diversità delle singole fattispecie hanno in comune, da un lato, l’applicazione delle norme in materia di protezione dei dati personali e, dall’altro l’applicazione del principio sancito, non solo dall’art. 22 del GDPR, ma anche dall’art.  11 della Direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali. In questa prospettiva anche oltreoceano la Corte suprema del Wisconsin, nel citato caso State c. Loomis, aveva ritenuto, da una parte, che l’impiego di sistemi algoritmici non pregiudichi il diritto del convenuto ad un giusto processo poiché, nonostante il fatto che le logiche impiegate dall’algoritmo siano segretate dal produttore, l’imputato potrebbe, alla luce del manuale d’uso dello strumento, confutarne l’attendibilità e, dall’altra, che la valutazione del rischio di recidiva, nel caso specifico, non può dipendere esclusivamente dal risultato offerto dall’algoritmo (COMPAS in questo caso), che deve rimanere soltanto uno degli elementi presi in considerazione dal giudice per fondare la propria conclusione.

 

Affermati il diritto all’intervento umano, ed il principio della sussidiarietà della valutazione algoritmica con riferimento ai diritti fondamentali sopra ricordati, vale a dire il diritto alla protezione dei dati personali, il diritto ad opportunità lavorative ed il diritto alla libertà personale, sembra ora il caso di svolgere, in considerazione della severità dell’impatto che potrebbe derivare per i singoli e per la collettività, alcune osservazioni relativamente all’impiego di sistemi di IA per la protezione da minacce cibernetiche ed alle metodologie di attacco cui questi sono soggetti.

Hai una domanda per l'autore?

Al codice del consumo (n.206/2005) vengono aggiunti nuovi articoli 

CondividiTweetCondividi
Avv. Giuseppe Serafini

Avv. Giuseppe Serafini

Giuseppe Serafini è Avvocato Cassazionista del Foro di Perugia. Lead Auditor ISO/IEC 27001:2013, ISO/IEC 27701:2019; DPO UNI 11697:2017. Master di II° livello in Cybersecurity. Master di II° livello in Data Protection. Perfezionato in Digital Forensicis, Cloud & Data Protection. Già docente di Informatica Giuridica presso la Scuola di Specializzazione in Professioni Legali di Perugia, e collaboratore della cattedra di Informatica Giuridica della Facoltà di Giurisprudenza di Perugia; Docente in Master di II° livello. Relatore ed autore di numerose pubblicazioni in materia di Sicurezza delle Informazioni e Diritto delle nuove Tecnologie. Associato CLUSIT e Digital Forensics Alumni.

Next Post

SECURITY REMOTE MANAGEMENT - CONDIZIONI GENERALI DI SERVIZIO

Green pass scaricabili sul web: il Garante Privacy fa partire un’inchiesta

Green pass scaricabili sul web: il Garante Privacy fa partire un'inchiesta

No Result
View All Result

Articoli recenti

  • Le 10 Regole d’Oro per la Cybersicurezza: Tutela Digitale e Responsabilità Giuridica
  • NIS2: Al via la Seconda Fase della Direttiva sulla Sicurezza Informatica Impatti e Obblighi per le Organizzazioni
  • AI Forensics: intelligenza artificiale ed investigazione digitale, scenari applicativi e tutela dei diritti fondamentali (II/II).
  • AI Forensics: intelligenza artificiale ed investigazione digitale, scenari applicativi e tutela dei diritti fondamentali – parte 1 di 2
  • Il Ruolo delle Tecnologie di Data Loss Prevention nella Protezione delle Informazioni: Evoluzione, Normative e Intelligenza Artificiale

Commenti recenti

    Archivi

    • Aprile 2025
    • Febbraio 2025
    • Dicembre 2024
    • Novembre 2024
    • Ottobre 2024
    • Settembre 2024

    Categorie

    • Bandi e Fondi UE / Nazionali
      • Articoli e documenti utili
      • Fondi Nazionali e Regionali
      • Fondi UE
    • Data Protection & Privacy
      • Atti & Documenti
      • Garante Privacy
      • Leggi & Sentenze
      • News & Eventi
      • Tutorial & Case Study
    • Digital Forensics
      • Atti & Documenti
      • Leggi & Sentenze
      • News & Eventi
      • Tutorial & Case Study
    • Moduli e Documenti
    • NIS2
      • Atti & Documenti
      • News & Eventi
    • Security / ISO 27001 / PCI DSS
      • Atti & Documenti
      • Leggi & Sentenze
      • News & Eventi
      • Tutorial & Case Study

    Meta

    • Accedi
    • Feed dei contenuti
    • Feed dei commenti
    • WordPress.org

    Articoli recenti

    • Le 10 Regole d’Oro per la Cybersicurezza: Tutela Digitale e Responsabilità Giuridica
    • NIS2: Al via la Seconda Fase della Direttiva sulla Sicurezza Informatica Impatti e Obblighi per le Organizzazioni
    • AI Forensics: intelligenza artificiale ed investigazione digitale, scenari applicativi e tutela dei diritti fondamentali (II/II).

    Link Utili

    Home
    Security / ISO 27001 / PCI DSS
    Data Protection & Privacy
    Digital Forensics

    Contatti

    Via G. Marconi, 18 – Città di Castello (PG)
    +39 (0)75 8521413
    info@cips.it
    P.I. 02083700548
    Privacy Policy
    Cookie Policy

    © 2024 Cips Legal

    • Home
    • NIS2 / ISO 27001
    • Security / PCI DSS
    • Data Protection & Privacy
    • Digital Forensics
    • Bandi e Fondi UE / Nazionali
    • Abbonati

    © 2024 Cips Legal

    Welcome Back!

    Login to your account below

    Forgotten Password?

    Retrieve your password

    Please enter your username or email address to reset your password.

    Log In