L’Ai Act richiede più etica e competenze

A maggio l’Unione Europea ha varato l’Ai Act, la prima norma al mondo sul tema dell’intelligenza artificiale, promulgata per assicurare il rispetto dei diritti fondamentali, la sicurezza e i principi etici. A tal proposito, il regolamento classifica 4 livelli di rischio. Fanno parte del Rischio Inaccettabile tutti i sistemi considerati una chiara minaccia alla sicurezza, ai livelli di sussistenza e lesivi dei diritti. Del segmento delle applicazioni ad “alto rischio” fanno parte i sistemi tecnologici utilizzati in infrastrutture critiche come trasporti, energia o tlc, che potrebbero mettere a rischio la vita e la salute dei cittadini o quelli legati alla formazione scolastica o professionale, che possono determinare l’accesso all’istruzione e al percorso professionale.

Il tema della capacità di selezione è altrettanto delicato quando ci si riferisce a modelli utilizzati per le procedure di reclutamento del personale, per la gestione dei lavoratori, per l’accesso ai servizi essenziali o al credito, per la gestione dei flussi di immigrazione o per il controllo delle frontiere. I sistemi ad alto rischio saranno soggetti a obblighi rigorosi prima di poter essere immessi sul mercato. Il “rischio limitato” si riferisce invece ai rischi associati alla mancanza di trasparenza delle informazioni nell’utilizzo dell’Ai. Per esempio, quando si utilizzano sistemi di intelligenza artificiale come i chatbot, le persone dovrebbero essere consapevoli che stanno interagendo con una macchina. I fornitori dovranno garantire che i contenuti generati dall’intelligenza artificiale siano identificabili. Inoltre, il testo generato dall’intelligenza artificiale con lo scopo di informare su questioni di interesse pubblico deve essere etichettato come artificiale. Ciò vale anche per i contenuti audio e video che costituiscono deep fake. Quando invece ci si trova in condizioni di “rischio minimo o nullo” a legge consente l’uso libero dell’Ai (è il caso, per esempio, dei videogiochi abilitati all’intelligenza artificiale o dei filtri antispam).

Ma quali sono le implicazioni per i sistemi di marketing? Apparentemente la normativa sembra lasciare spazio ad applicazioni flessibili in caso di impatti minimi, ma tra le righe introduce elementi che possono rappresentare fattori di grande rilevanza per i tool di marketing automation e profilazione, utilizzati per esempio all’interno dei sistemi di  crm o di customer care e loyalty delle imprese. Quindi le implicazioni relative alle profilazioni, che già erano rigorosamente disciplinate dal regolamento sulla privacy del 2016, si arricchiscono di ulteriori procedure di salvaguardia per i consumatori. Il regolamento afferma infatti che: “Al fine di garantire la tracciabilità e la trasparenza, un fornitore che ritiene che un sistema di Ai non sia ad alto rischio sulla base di tali condizioni dovrebbe redigere la documentazione relativa alla valutazione prima che tale sistema sia immesso sul mercato o messo in servizio e dovrebbe fornire tale documentazione alle autorità nazionali competenti su richiesta”. Si prevede quindi una Banca dati Ue, in cui ogni provider dovrebbe registrare il suo sistema per una valutazione di compliance. Quindi le domande da farsi sono se aziende e provider attiveranno per le piattaforme la valutazione e l’assessment delle condizioni previste e come verranno valutate le piattaforme extra Ue che alimentano processi di analisi e profilazione. Basti considerare i sistemi di clustering o di engagement costruiti con algoritmi predittivi basati sui processi comportamentali (behavioural), di gamification o comportamenti di prossimità basati sulla georeferenziazione.

Parallelamente bisogna tenere in considerazione anche l’impatto sui processi di costruzione di contenuto dei piani editoriali digitali, di gamification o di email marketing automatizzata in cui il contenuto viene generato attraverso l’utilizzo di piattaforme, il cui addestramento è stato effettuato attingendo a contenuti editoriali coperti da copyright. Il legislatore ha comunque chiarito che tutto ciò che viene generato attraverso tools AiGen venga chiaramente presentato all’utente a cui è destinato per chiarire la natura artificiale del messaggio. A questo proposito si segnala anche la recente delibera del Garante della privacy italiano del maggio scorso in materia di web scraping per finalità di addestramento di intelligenza artificiale generativa e di possibili azioni di contrasto a tutela dei dati personali (Provvedimento 329 – Gazzetta Ufficiale Serie Generale 132 del 7 giugno 2024). L’intersezione tra le norme disegna dunque meccanismi di grande impatto per i marketer e i comunicatori, alzando l’asticella delle competenze necessarie, delle tecnologie utilizzate e dell’approccio etico nella gestione della relazione con il cliente. Ai Act è un atto giuridico vincolante che sarà essere applicato in tutti i suoi elementi nell’Unione Europea. Una volta pubblicato sulla Gazzetta Ufficiale Europea dovranno comunque passare 2 anni per la piena entrata in vigore. In questo periodo il mercato avrà modo di adeguare le procedure e i processi organizzativi per evitare di incorrere in sanzioni economiche calcolate in percentuale sul fatturato annuo globale dell’azienda nell’anno finanziario precedente o in un importo predeterminato, a seconda di quale sia il più elevato.

“LA CONFORMITÀ ALL’AI ACT È ANCHE FATTORE ATTRATTIVO”
di Brando Benifei (Pd), co-relatore per il Parlamento Europeo sull’Atto Ue sull’intelligenza artificiale

Il Regolamento europeo sull’intelligenza artificiale (Ai Act) può rappresentare una grande opportunità per molte aziende del settore o anche solo utilizzatrici di sistemi di Ai. Di per sé, il marketing non è considerato una pratica ad alto rischio, anche perché già regolato da altri atti legislativi (dal Dsa alla Direttiva sulle pratiche commerciali scorrette ecc.). Certamente, quando vengono utilizzati strumenti di Ai generativa, sempre più usati nel settore, per generare testi o contenuti audiovisivi, questo andrà indicato tramite watermarking, ma si tratta di un mero requisito di trasparenza, l’unico da rispettare in quel caso per l’Ai “a basso rischio”. Per le imprese fornitrici o utilizzatrici di sistemi di Ai ad alto rischio, invece, il fatto di poter garantire la conformità del proprio sistema al nuovo regolamento può essere un vantaggio competitivo sulla concorrenza, perché fornisce all’azienda un marchio di fiducia per il consumatore che sicuramente ne favorisce la buona reputazione e, quindi, le opportunità di crescita. Una tendenza che stiamo notando sempre più tra le aziende che non rientrano tra le aree ad alto rischio, inoltre, è la volontà di conformarsi ai requisiti del regolamento anche se non richiesto, proprio per motivi reputazionali: segno che la conformità all’Ai Act è percepita sempre più come fattore attrattivo, invece che come ostacolo alla messa sul mercato di sistemi di Ai in Europa. Per questo nel regolamento è prevista la possibilità di aderire volontariamente a uno o più requisiti anche da parte dei fornitori di Ai a basso rischio, tramite codici di condotta elaborati dal basso, per diffondere buone pratiche anche al di là dei settori interessati dalla legge. Insomma, adottare pratiche di Ai conformi all’AI Act può diventare un vantaggio competitivo. Le aziende che dimostrano un impegno per la trasparenza, la protezione dei dati e l’etica possono differenziarsi positivamente nel mercato, attirando consumatori sempre più attenti a questi valori. In conclusione, l’Ai Act offre un quadro normativo che, sebbene rigoroso, fornisce alle aziende di marketing una guida chiara per l’uso responsabile dell’Ai. Adottando queste normative, le aziende non solo contribuiranno a costruire un ecosistema digitale più sicuro ed equo, ma potranno anche innovare in modo sostenibile e guadagnare la fiducia dei loro consumatori.

Giuseppe Maria Ardizzone