La primavera del 2019 verrà ricordata come la stagione nella quale sono state definite dall’Unione Europea le linee guida per l’uso dell’intelligenza artificiale da parte delle imprese e delle istituzioni. È un tassello importante che aiuterà a definire le norme giuridiche che presto arriveranno per disciplinare questa importante materia.
Le linee guida, introdotte dopo un lavoro durato oltre un anno e condotto da una commissione di esperti nominata dalla Commissione Europea, si basano sul principio fondamentale per cui le applicazioni dell’intelligenza artificiale devono rispettare i diritti fondamentali, incluso quello alla protezione dei dati. Sviluppatori, produttori e fornitori di servizi devono valutare preventivamente i possibili rischi, adottando un approccio di tipo precauzionale. Si sottolinea, innanzi tutto, che ogni progetto basato sull’intelligenza artificiale dovrebbe rispettare la dignità umana e le libertà fondamentali, nonché i principi base di liceità, correttezza, specificazione della finalità, proporzionalità del trattamento, protezione dei dati fin dalla progettazione (privacy by design) e protezione per impostazione predefinita (privacy by default), responsabilità e dimostrazione della conformità (accountability), trasparenza, sicurezza dei dati e gestione dei rischi.
Tra i punti cardine del documento si segnala la necessità di adottare un approccio fondato sulla preventiva valutazione dell’impatto che sistemi, software e dispositivi basati sull’intelligenza artificiale possono avere su diritti fondamentali, nonché sulla minimizzazione dei relativi rischi per le persone evitando, tra l’altro, potenziali pregiudizi e altri effetti discriminatori, come quelli basati sulla differenza di genere o sulle minoranze etniche. I principi essenziali intorno ai quali ruotano le linee guida dell’Unione Europea sono sette: ci deve essere sempre un controllo umano; gli algoritmi devono essere affidabili, sicuri e resistenti di fronte alle incoerenze; i cittadini devono essere sempre informati sull’uso dei loro dati personali, oltre ad averne il pieno controllo; deve essere garantita la tracciabilità dei sistemi di ia; dev’essere garantita la diversità e la non discriminazione; l’ia deve lavorare a favore del benessere sociale e ambientale e, infine, deve essere attribuibile una responsabilità a chi gestisce questi sistemi. In sintesi una persona deve sempre sapere quando si trova di fronte a una macchina e non a un essere umano. I sistemi di ia devono essere riconoscibili. L’intelligenza artificiale deve quindi potenziare quella umana, ma non imitarla al punto da non differenziarsi da essa e sovrapporsi alle scelte delle persone.
Tutto questo avrà implicazioni rilevanti nelle applicazioni dell’intelligenza artificiale alle azioni di marketing che spesso tendono a sostituire le decisioni umane con quelle automatizzate senza darne notizia adeguata ai consumatori. Già oggi fare così non è lecito, oltre che non essere, come spiegano le linee guida, etico e corretto.
Marco Maglio
Avvocato in Milano, nel 2001 ha fondato lo Studio Legale Maglio & Partnes che fin dalla sua costituzione fornisce assistenza legale specialistica a primarie aziende nazionali e a Gruppi multinazionali, ad Enti pubblici e ad Organizzazioni non profit nell’ambito della data protection, dell’adozione di modelli organizzativi e di codici etici, del diritto del marketing, della prevenzione delle pratiche commerciali scorrette nella comunicazione commerciale interattiva, nel commercio elettronico, nel telemarketing e nelle vendite dirette. Nel 2002 ha fondato Lucerna Iuris, network giuridico formato da legali di tutti i paesi dell’Unione Europea esperti di questioni di privacy, marketing e di comunicazione.