Viviamo in tempi incerti, o forse solo un po’ più incerti del passato che ho avuto il privilegio di vivere. Pertanto, l’incertezza sembra incidere sulle tendenze verso comportamenti apparentemente irrazionali.
Per esempio, di fronte all’incertezza del cambiamento climatico c’è chi versa tintura nella Fontana di Trevi. Per molti appare una decisione irrazionale. Gli agitprop che lo fanno credono, invece, che, come il paparuda rumeno o lo yeibi chai navajo, smuoverà i decision maker che salveranno il pianeta.
La Federal Reserve deve decidere se ritoccare ancora i tassi d’interesse o confidare in un’inflazione che si spenga spontaneamente. Cosa conseguirà da una delle due scelte, sappiamo solo di non sapere. Superfluo è menzionare il cumulo d’incertezze riguardo al futuro dell’Ucraina.
La difficoltà, in tutti questi casi, è che, a differenza di un esperimento di laboratorio, manca una corrispondenza one to one tra decisione ed esito. Due risoluzioni differenti potrebbero portare allo stesso risultato, anche se con probabilità diverse. O, viceversa, nessuna delle due potrebbe cogliere l’obiettivo.
Stimando una probabilità del 65% e una del 72%, dovremmo scegliere sempre quella del 72%? E ciò, nella convinzione che se si verifica un risultato negativo contenuto nel 28% restante, la decisione presa resta comunque migliore dell’altra che non è stata attuata?
Questa premessa serve a una piccola riflessione sul tema della artificial intelligence, su cui, dopo Covid, Ucraina, climatologia si stanno cimentando gli “allbrain” (da non confondere con i cereali da colazione), sempre adusi a ogni dibattito, su ogni argomento, in qualunque sede.
La mente possiede solo una capacità limitata di comprendere relazioni complesse e di gestire grandi masse di dati. Quindi, non si potrebbero prendere decisioni sulla base di un calcolo razionale, se richiede capacità mentali oltre quel limite. Eppure, decidere si deve, sempre e comunque.
Ora, sembrerebbe che, predisponendo strumenti di calcolo di potenza illimitata, potremmo liberarci dall’oppressione della “libertà di”, il concetto magistralmente discusso dal filosofo Isaiah Ber lin. La “libertà di” è la grande conquista di una società democratica con un libero mercato, ma comporta, tuttavia, il peso quotidiano di dover scegliere continuamente il ristorante, il provider telefonico, l’assicurazione, la configurazione del pc, l’università del figlio, l’ospedale, il film serale… in un universo di opportunità in espansione.
Scegliere per poi pentirsi in mezzo alla sovrabbondanza delle alternative è parte del nostro stile esistenziale. Ciò detto, dobbiamo constatare che, purtroppo, le informazioni per decidere sono imperfette e sempre scarse.
Se non decidiamo razionalmente, come decidiamo? Se dovessimo registrare ciò che dice ex post l’“umarell” che, poco o tanto, si agita dentro di noi, diremmo che c’è una tendenza psicologica alla critica, successiva alle stime troppo ottimistiche dei risultati attesi come ricompensa dei nostri investimenti di tempo e di danaro. E in più c’è il marketing che lavora sodo per renderci presto insoddisfatti di ciò che abbiamo scelto recentemente, oltre all’amico che ha sempre un’alternativa migliore, con la fatidica frase “Ah! se me lo dicevi prima!”.
Ecco la prima conclusione: esiste una nostra evidente incapacità di mappare le decisioni odierne in previsioni affidabili dei risultati di domani. Tuttavia, un numero crescente di aziende, incumbent o startup ci propone le più recenti applicazioni, potenziate dall’ai, per aiutarci a decidere sempre meglio e più veloce mente.
Così, siamo di fronte all’effetto stupefacente del “prompt engineering”, ovvero la tecnica di prendere istruzioni con i termini più chiari del linguaggio comune, facendoli comprendere al sistema, per poi restituirci dei risultati che si avvicinano alle nostre aspettative e spesso le superano. Ed effettivamente il modo di interagire dei sistemi intelligenti che comprendono il linguaggio umano con i loro interfaccia strutturati, come i chatbot che imitano la con versazione umana (vedi ChatGpt), è impressionante.
Se adeguatamente sollecitato un tale sistema risolve problemi matematici, imita la scrittura umana, stende un discorso per un matrimonio (ma forse per un funerale è più difficile!), stila contratti e slogan pubblicitari ecc. Lo snodo cruciale è però di nuovo la scelta. “Voglio cenare fuori. Cosa mi consigli?” è l’inizio di una conversazione che termina con “Ti consiglio il Noc chiero in via Verdi”. È banale osservare, però, che se mi venisse chiesto “Lo conosci?”, l’apporto mio e quello dell’applicazione si fonderebbero. Il consiglio di un’altra alternativa mai provata comporterebbe un rischio, e il rischio lo può quantificare solo l’essere umano che se lo assume.
E citerò il caso della spesa in un supermercato piuttosto che in un altro. Dato che le referenze per soddisfare un identico bisogno sono diverse, la scelta ottimale diventa impossibile da parte della macchina. La stessa cosa accade nella decisione di assumere o non assumere una persona, perché potrei non sapere mai se colui che ho scartato era un talento o un incapace.
Detto questo, ciò che viene proposto decade a semplice, per quanto utile, decision-support-system. In quanto tali, le applicazioni che si prefigurano eviterebbero il problema della responsabilità.
Un’applicazione intelligente che decidesse più razionalmente di un essere umano si farebbe carico del la frustrazione o del dolore derivante dall’obbedienza sfortunata ai suoi consigli? Certamente no, ma l’inclinazione a seguire “chi sa davvero spiegare” le cose misteriose che non si capiscono guerre, pandemie, miseria, alluvioni… dimostra che, purtroppo, nella moltitudine c’è già la diffusa predisposizione a delegare, oggi più di ieri, pensiero e decisioni ad altri.
L’intelligenza artificiale malintesa aiuterebbe a sfuggire, grazie al comportamento di gregge sempre più diffuso, dalla responsabilità della scelta, che viene dopo il ragionamento, con tutte le sue conseguenze. Ed è questo quel che accade già in politica, nell’estetica, così come negli stili di vita e di consumo.