No Result
View All Result
  • Login
  • NIS2 / ISO 27001
    • Atti & Documenti
    • News & Eventi
  • Security / PCI DSS
    • F.A.Q. Security / PCI DSS
    • News & Eventi
    • Atti & Documenti
    • Leggi & Sentenze
    • Tutorial & Case Study
    • Webcast
  • Data Protection & Privacy
    • F.A.Q. Data Protection & Privacy
    • News & Eventi
    • Garante Privacy
    • Atti & Documenti
    • Leggi & Sentenze
    • Tutorial & Case Study
  • Digital Forensics
    • F.A.Q. Digital Forensics
    • News & Eventi
    • Leggi & Sentenze
    • Atti & Documenti
    • Tutorial & Case Study
  • Bandi
    • Fondi UE
    • Fondi Nazionali e Regionali
    • Articoli e documenti utili
PREZZI
ABBONATI
  • NIS2 / ISO 27001
    • Atti & Documenti
    • News & Eventi
  • Security / PCI DSS
    • F.A.Q. Security / PCI DSS
    • News & Eventi
    • Atti & Documenti
    • Leggi & Sentenze
    • Tutorial & Case Study
    • Webcast
  • Data Protection & Privacy
    • F.A.Q. Data Protection & Privacy
    • News & Eventi
    • Garante Privacy
    • Atti & Documenti
    • Leggi & Sentenze
    • Tutorial & Case Study
  • Digital Forensics
    • F.A.Q. Digital Forensics
    • News & Eventi
    • Leggi & Sentenze
    • Atti & Documenti
    • Tutorial & Case Study
  • Bandi
    • Fondi UE
    • Fondi Nazionali e Regionali
    • Articoli e documenti utili
No Result
View All Result
No Result
View All Result
Home Digital Forensics

Cognitive cybersecurity, diritti della personalità ed evoluzione normativa, il regolamento Europeo in materia di Intelligenza Artificiale. (Parte I).

Il cyberspazio costituisce un dominio autonomo all'interno del quale è necessario riequilibrare il rapporto tra stato e individuo

Avv. Giuseppe Serafini scritto da Avv. Giuseppe Serafini
17 Aprile 2023
in Data Protection & Privacy, Garante Privacy, Leggi & Sentenze
Tempo di lettura: 5 minuti
0
Cognitive cybersecurity, diritti della personalità ed evoluzione normativa, il regolamento Europeo in materia di Intelligenza Artificiale. (Parte I).

Ad una prima approssimazione, per le finalità proprie di questo approfondimento, possiamo definire il concetto di Cognitive Cybersecurity riferendoci all’applicazione delle tecnologie e dei metodi delle scienze cognitive, tra le quali il cognitive computing, alla protezione dello spazio cibernetico, inteso come l’insieme delle infrastrutture informatiche interconnesse, comprensivo di hardware, software, dati ed utenti, e delle loro relazioni logiche.

Il cyberspazio dunque, che comprende internet, le reti di comunicazione, i sistemi su cui poggiano i processi informatici di elaborazione dati e le apparecchiature mobili dotate di connessioni di rete, costituisce un dominio autonomo, il quinto dominio militare dopo acqua, terra, aria, spazio, di importanza strategica per lo sviluppo economico, sociale e culturale delle nazioni; all’interno del quale è indispensabile riequilibrare il rapporto tra Stato ed individuo, tra esigenze di sicurezza nazionale e di ordine pubblico da un lato, e libertà individuali, dall’altro.

Si pensi, ad esempio, come un ininterrotto monitoraggio tecnico delle funzionalità delle reti e la protezione dei dati che vi transitano siano essenziale presupposto per il pieno godimento del diritto alla privacy e all’integrità dei sistemi, oppure, sempre per fare un esempio, come possa essere complesso ricercare il giusto equilibrio tra il diritto alla privacy e la necessaria azione di contrasto a crimini, come l’uso della rete per lo scambio di materiale pedopornografico, lo spaccio di stupefacenti, l’incitamento all’odio o la pianificazione di atti di terrorismo e il furto di proprietà intellettuale.

In questo contesto, che intuitivamente si caratterizza per la sua straordinaria complessità, ove le minacce possono originare da qualsiasi punto della rete globale e spesso colpiscono gli anelli più deboli della catena, sono state sviluppate, come accennato, nell’ambito del c.d. cognitive computing, logiche algoritmiche, riferibili all’area della c.d. intelligenza artificiale, in grado di applicare modelli computazionali basati sull’apprendimento automatico per prevenire il verificarsi di minacce cibernetiche.

In effetti, l’intelligenza artificiale che consiste in una famiglia di tecnologie in rapida evoluzione può contribuire al conseguimento di un’ampia gamma di benefici a livello economico e sociale nell’intero spettro delle attività industriali e sociali. In particolare, l’uso dell’intelligenza artificiale, garantendo un miglioramento delle previsioni, l’ottimizzazione delle operazioni e dell’assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni, può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale ed ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, istruzione e formazione, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, mitigazione dei cambiamenti climatici e adattamento ad essi.

Da un punto di vista normativo, proprio per definire gli ambiti di utilizzo di tecnologie di IA è stata recentemente presentata dalla Commissione Europea, una significativa proposta di Regolamento che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale).

  • Regole armonizzate per l'immissione sul mercato, la messa in servizio e l’uso dei sistemi di intelligenza artificiale (“sistemi di IA”) nell'Unione;
  • Il divieto di determinate pratiche di intelligenza artificiale;
  • Requisiti specifici per i sistemi di IA ad alto rischio e obblighi per gli operatori di tali sistemi;
  • Regole di trasparenza armonizzate per i sistemi di IA destinati a interagire con le persone fisiche, i sistemi di riconoscimento delle emozioni, i sistemi di categorizzazione biometrica e i sistemi di IA utilizzati per generare o manipolare immagini o contenuti audio o video;
  • Regole di trasparenza armonizzate per i sistemi di IA destinati a interagire con le persone fisiche, i sistemi di riconoscimento delle emozioni, i sistemi di categorizzazione biometrica e i sistemi di IA utilizzati per generare o manipolare immagini o contenuti audio o video;

Per quanto qui ci occupa, sembra però importante osservare come già nel considerato n.15 della proposta di regolamento, si specifichi come l’intelligenza artificiale presenta, accanto a molti utilizzi benefici, la possibilità di essere utilizzata impropriamente e di fornire strumenti nuovi e potenti per pratiche di manipolazione, sfruttamento e controllo sociale che dovranno essere vietate, poiché contraddicono i valori dell’Unione Europea relativi al rispetto della dignità umana, della libertà, dell’uguaglianza, della democrazia e dello Stato di diritto e dei diritti fondamentali dell’Unione, compresi il diritto alla non discriminazione, alla protezione dei dati e della vita privata e i diritti dei minori.

Più specificamente, si è ritenuto opportuno vietare l’immissione sul mercato, la messa in servizio o l’uso di determinati sistemi di IA intesi a distorcere il comportamento umano e che possono provocare danni fisici o psicologici, basati su componenti subliminali che i singoli individui non sono in grado di percepire, o che sfruttano le vulnerabilità di bambini e persone, dovute all’età o a incapacità fisiche o mentali; parimenti vietati sono i sistemi di IA che forniscono un punteggio sociale delle persone fisiche per finalità generali delle autorità pubbliche o di loro rappresentanti, poiché possono portare a risultati discriminatori e all’esclusione di determinati gruppi, ledendo inoltre il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia.

Considerazioni specifiche devono essere svolte anche in relazione all’uso di sistemi di IA di identificazione biometrica remota “in tempo reale” delle persone fisiche in spazi accessibili al pubblico a fini di attività di contrasto (che risulta molto invasivo) dei diritti e delle libertà delle persone interessate, nella misura in cui potrebbe avere ripercussioni sulla vita privata di un’ampia fetta della popolazione, facendola sentire costantemente sotto sorveglianza e scoraggiandola, e in maniera indiretta l’esercizio della libertà di riunione e di altri diritti fondamentali. In particolare, l’uso di tali sistemi a fini di attività di contrasto dovrebbe pertanto essere vietato, eccezion fatta per tre situazioni elencate in modo esaustivo e definite rigorosamente, nelle quali l’uso è strettamente necessario per perseguire un interesse pubblico rilevante, la cui importanza prevale sui rischi. Tali situazioni comprendono la ricerca di potenziali vittime di reato, compresi i minori scomparsi, determinate minacce per la vita o l’incolumità fisica delle persone fisiche o un attacco terroristico, nonché il rilevamento, la localizzazione e l’identificazione degli autori o dei sospettati di reati di cui nella decisione quadro 2002/584/GAI del Consiglio. Chiarito ciò che precede, appare evidente come la cybersicurezza svolga un ruolo cruciale nel garantire che i sistemi di IA siano resilienti ai tentativi compiuti da terzi con intenzioni malevole che, sfruttando le vulnerabilità del sistema, vadano ad alterarne l’uso, il comportamento, le prestazioni o a comprometterne le proprietà di sicurezza.

In effetti, gli attacchi informatici contro i sistemi di IA possono far leva sulle sue risorse specifiche, quali i set di dati di addestramento (ad esempio avvelenamento dei dati o data poisoning) o i modelli addestrati (ad esempio attacchi antagonisti o adversarial attacks), oppure possono sfruttare le vulnerabilità delle risorse digitali del sistema di IA o dell’infrastruttura TIC sottostante.

Al fine di garantire un livello di cybersicurezza adeguato ai rischi, sarà quindi opportuno che i fornitori di sistemi di IA ad alto rischio adottino misure adeguate, anche tenendo debitamente conto dell’infrastruttura TIC sottostante.
(SEGUE SECONDA PARTE ARTICOLO)

Hai una domanda per l'autore?

Al codice del consumo (n.206/2005) vengono aggiunti nuovi articoli 

CondividiTweetCondividi
Avv. Giuseppe Serafini

Avv. Giuseppe Serafini

Giuseppe Serafini è Avvocato Cassazionista del Foro di Perugia. Lead Auditor ISO/IEC 27001:2013, ISO/IEC 27701:2019; DPO UNI 11697:2017. Master di II° livello in Cybersecurity. Master di II° livello in Data Protection. Perfezionato in Digital Forensicis, Cloud & Data Protection. Già docente di Informatica Giuridica presso la Scuola di Specializzazione in Professioni Legali di Perugia, e collaboratore della cattedra di Informatica Giuridica della Facoltà di Giurisprudenza di Perugia; Docente in Master di II° livello. Relatore ed autore di numerose pubblicazioni in materia di Sicurezza delle Informazioni e Diritto delle nuove Tecnologie. Associato CLUSIT e Digital Forensics Alumni.

Next Post
Cognitive cybersecurity, diritti della personalità ed evoluzione normativa, il regolamento Europeo in materia di Intelligenza Artificiale. (Parte II).

Cognitive cybersecurity, diritti della personalità ed evoluzione normativa, il regolamento Europeo in materia di Intelligenza Artificiale. (Parte II).

SECURITY REMOTE MANAGEMENT - CONDIZIONI GENERALI DI SERVIZIO

No Result
View All Result

Articoli recenti

  • Le 10 Regole d’Oro per la Cybersicurezza: Tutela Digitale e Responsabilità Giuridica
  • NIS2: Al via la Seconda Fase della Direttiva sulla Sicurezza Informatica Impatti e Obblighi per le Organizzazioni
  • AI Forensics: intelligenza artificiale ed investigazione digitale, scenari applicativi e tutela dei diritti fondamentali (II/II).
  • AI Forensics: intelligenza artificiale ed investigazione digitale, scenari applicativi e tutela dei diritti fondamentali – parte 1 di 2
  • Il Ruolo delle Tecnologie di Data Loss Prevention nella Protezione delle Informazioni: Evoluzione, Normative e Intelligenza Artificiale

Commenti recenti

    Archivi

    • Aprile 2025
    • Febbraio 2025
    • Dicembre 2024
    • Novembre 2024
    • Ottobre 2024
    • Settembre 2024

    Categorie

    • Bandi e Fondi UE / Nazionali
      • Articoli e documenti utili
      • Fondi Nazionali e Regionali
      • Fondi UE
    • Data Protection & Privacy
      • Atti & Documenti
      • Garante Privacy
      • Leggi & Sentenze
      • News & Eventi
      • Tutorial & Case Study
    • Digital Forensics
      • Atti & Documenti
      • Leggi & Sentenze
      • News & Eventi
      • Tutorial & Case Study
    • Moduli e Documenti
    • NIS2
      • Atti & Documenti
      • News & Eventi
    • Security / ISO 27001 / PCI DSS
      • Atti & Documenti
      • Leggi & Sentenze
      • News & Eventi
      • Tutorial & Case Study

    Meta

    • Accedi
    • Feed dei contenuti
    • Feed dei commenti
    • WordPress.org

    Articoli recenti

    • Le 10 Regole d’Oro per la Cybersicurezza: Tutela Digitale e Responsabilità Giuridica
    • NIS2: Al via la Seconda Fase della Direttiva sulla Sicurezza Informatica Impatti e Obblighi per le Organizzazioni
    • AI Forensics: intelligenza artificiale ed investigazione digitale, scenari applicativi e tutela dei diritti fondamentali (II/II).

    Link Utili

    Home
    Security / ISO 27001 / PCI DSS
    Data Protection & Privacy
    Digital Forensics

    Contatti

    Via G. Marconi, 18 – Città di Castello (PG)
    +39 (0)75 8521413
    info@cips.it
    P.I. 02083700548
    Privacy Policy
    Cookie Policy

    © 2024 Cips Legal

    • Home
    • NIS2 / ISO 27001
    • Security / PCI DSS
    • Data Protection & Privacy
    • Digital Forensics
    • Bandi e Fondi UE / Nazionali
    • Abbonati

    © 2024 Cips Legal

    Welcome Back!

    Login to your account below

    Forgotten Password?

    Retrieve your password

    Please enter your username or email address to reset your password.

    Log In