Da qualche anno si discute di intelligenza artificiale e delle sue applicazioni in ogni ambito della vita umana. L’argomento è diventato mainstream da quando è nata ChatGPT, lo strumento di OpenAI che ha letteralmente stupito il mondo. In poco tempo l’intelligenza artificiale si è evoluta moltissimo, arrivando anche a produrre le cosiddette “immagini iperrealistiche”. Ma come funziona esattamente? Cosa può fare e cosa no? Quali sono le implicazioni ed i pericoli? E soprattutto come impatterà sul mondo del lavoro? Rimarremo tutti disoccupati? Il panorama non è ancora molto chiaro, perché le interpretazioni sono molto differenti, ma qualcosa già si può dire.
Prima di tutto bisogna capire di cosa stiamo parlando. L’intelligenza artificiale è davvero un’intelligenza? Detto in soldoni, è qualcosa in grado di pensare o è molto più semplicemente un inimmaginabilmente grande contenitore di informazioni in grado di metterle insieme il più delle volte in maniera piuttosto affidabile? Attualmente una IA non pensa. Certo è in grado di generare contenuti, anche (non sempre) molto affidabili e complessi, spesso pure artistici, ma non lo può fare da sola. Funziona infatti tramite “prompt”, ovvero richieste fatte da esseri umani. Vi è addirittura un lavoro, il prompt expert, che è sostanzialmente “quello bravo” a fare richieste alla IA.
A parte questo, non tutti, ad adesso, concordano sulle prestazioni della cosiddetta intelligenza artificiale. C’è chi la esalta, ma anche chi ne vede i limiti, spiegando che non c’è paragone con il lavoro umano. E’ sì un aiuto, a volte un grosso aiuto, ma niente di più. Ed in effetti essendo una tecnologia, di più non dovrebbe nemmeno essere. E’ pur vero che in questi pochi anni di conoscenza di massa (in realtà gli addetti al settore ci lavorano da molto tempo) la IA è stata usata ad esempio per scrivere articoli giornalistici, fare video o produrre finte foto, queste ultime in grado di confondere le masse. Sono di questi giorni ad esempio i casi delle immagini del mai avvenuto arresto (al momento della produzione delle immagini) dell’ex presidente Usa Donald Trump e di Papa Francesco vestito come una sorta di rapper. Immagini queste prodotte da Midjourney, in grado di generarne di molto verosimili dietro richieste precise.
Tutto questo, ed è solo la punta dell’iceberg, pone però grossi interrogativi. Quali sono esattamente le potenzialità di un’intelligenza artificiale? Ovvero, ora è così, ma tra dieci anni come sarà? Potrà sostituire il lavoro umano? E nel caso, glielo lasceranno fare o no? Secondo uno studio di Goldman Sachs nei prossimi 10 anni potrebbero essere a rischio addirittura 300 milioni di posti di lavoro. I settori più colpiti sarebbero quello legale, quello finanziario e quello amministrativo, ma anche i lavori che prevedono una routine, quelli più ripetitivi. Nonostante questo lo stesso studio spiega come il Pil mondiale potrebbe aumentare del 7%, riducendo anche in alcuni casi l’orario di lavoro a persone che il posto comunque non lo perderebbero.
E’ però difficile capire se le cose stiano esattamente così o lo scenario sia più o meno preoccupante. Secondo altri studi, svoltisi negli anni in cui di intelligenza artificiale si parlava ancora poco, praticamente ogni ambito lavorativo potrebbe essere conquistato da una IA avanzata. Per quanto riguarda i lavori creativi, ovviamente la questione è più complicata. Anche se qualche settimana fa il Ceo di una grossa azienda editoriale tedesca ha licenziato diversi giornalisti sostenendo di poterli sostituire con una IA, è pur vero che il lavoro giornalistico, per restare in tema, è qualcosa che riguarda l’intelletto e che ad esempio la scelta delle informazioni da mettere insieme per creare un articolo fatta da un buon giornalista non può essere paragonata alla aggregazione acritica che può fare una IA. Insomma, un conto è avere le informazioni disponibili, un altro è saperle usare. Generare contenuti è certamente alla portata anche di una IA, ma ovviamente dipende sempre dal tipo di contenuti richiesti.
In ogni caso, alcuni sono più preoccupati di altri. Recentemente, attraverso, una lettera, mille esperti (tra cui Elon Musk, il patron di Tesla e tra i fondatori anche di OpenAI) hanno segnalato l’esigenza di sospendere per almeno sei mesi lo sviluppo dell’intelligenza artificiale in quanto sarebbe “un grosso rischio per l’umanità” e “potrebbe portare sconvolgimenti nella società”. Questo potrebbe effettivamente accadere, ma il problema è sempre l’utilizzo che se ne fa, cosa che vale per qualsiasi strumento. Sull’intelligenza artificiale c’è un però un dubbio in più, che è quello più preoccupante. Non sono poche le persone che pensano che da strumento potrebbe trasformarsi in una sorta di essere senziente. Ovvero in qualcosa che non andrebbe più, per così dire, “imboccato”, ma in grado di scegliere da solo, sostituendo così di fatto il discernimento umano. Il dibattito si divide tra chi pensa che sia una visione catastrofista, e chi invece crede sia piuttosto plausibile, anche se non vi è nessuna certezza, e nemmeno una prova, che quello che è, a tutti gli effetti, uno strumento informatico, possa effettivamente prima o poi letteralmente trasformarsi in qualcosa d’altro. Per molti si tratta infatti di un molto più banale “machine learning” (ovvero processo di apprendimento di una macchina, semplificando), avanzatissimo, ma niente di più.
I rischi
I rischi della cosiddetta intelligenza artificiale, ammesso che si possa chiamare così, sono essenzialmente tre: che impatti troppo sul mercato del lavoro, impoverendo le masse, che qualcuno la usi male e che diventi sostanzialmente autonoma. Tutte e tre portano problemi pratici uniti ad altri etici. Nel primo caso, come già detto, il rischio è quello che una sua applicazione troppo diffusa finisca per togliere posti di lavoro invece di crearne. E’ chiaro che meno la gente lavora, meno spende. E meno spende meno l’economia gira. Bisogna anche pensare che non tutti i lavoratori sono “convertibili” ad altra mansione, alcune infatti sono troppo specifiche e se dovessero sparire sarebbe veramente arduo insegnare un altro mestiere a persone che magari fanno lo stesso da 30 anni.
Nel secondo caso, le possibilità sono essenzialmente infinite. Una buona azienda informatica esperta in IA potrebbe non essere del tutto onesta ed offrire servizi oltre la linea rossa. Utilizzare l’intelligenza artificiale per hackeraggi di massa. Pensiamo ad esempio al problema della guida autonoma, dove le auto potrebbero essere “eterodirette” da lontano. E per auto possiamo tranquillamente intendere migliaia di auto (ad esempio quelle di un’intera casa automobilistica), nello stesso momento. Lo scenario è ad oggi impossibile e c’è anche chi dice che la guida autonoma non si realizzerà mai ,ma è chiaro che questa è una questione etica importantissima e anche molto pratica perché i danni potrebbero essere incalcolabili. Si tratterebbe, generalizzando, di vere e proprie guerre informatiche su larga scala, che potrebbero accadere potenzialmente in qualsiasi ambito, in ogni luogo e sempre.
Il terzo caso è quello più catastrofista, ma anche quello più fantascientifico. Alcuni esperti di IA, come già accennato, sostengono che entro qualche anno si arriverà ad una vera e propria intelligenza autonoma, qualcosa in grado di pensare per gli affari suoi insomma. Se ciò accadesse si porrebbe il mai nemmeno pensato prima problema del ruolo dell’essere umano di fronte ad un qualcosa più grande di lui, ma creato da lui. Del quale potrebbe ad un certo punto non avere nemmeno più il controllo ed esserne quindi sopraffatto. Per ora siamo appunto nel campo della fantascienza, non c’è infatti la minima prova del fatto che un evento simile possa accadere, ma data la velocità di sviluppo dell’IA sarebbe forse bene iniziare a pensare se sia o meno il caso di limitarne permanentemente alcune funzioni.
Le applicazioni etiche
Fatto il discorso sui rischi, va detto che come ogni strumento, l’intelligenza artificiale non è il male in se stesso. Le sue applicazioni buone possono essere molte e decisamente proficue. Pensiamo ad esempio a dei robot governati da IA in grado di sostituire gli essere umani nelle miniere in cui quotidianamente si ammalano o rischiano di morire sepolti da qualche frana. Oppure a operazioni automatizzate che possano sviluppare un sistema economico sostenibile in zone del mondo climaticamente troppo ardue per permettere all’uomo di lavorare, per poi distribuire i frutti di quel lavoro alle popolazioni più povere che abitano lì. Una terza applicazione riguarda il miglioramento, in una maniera forse ora nemmeno ancora immaginabile, delle protesi ed in generale degli aiuti alle persone diversamente abili. Integrazioni robotiche gestite da IA potrebbero rivelarsi di fatto miracolose.
Insomma, se la tecnologia deve essere un aiuto, allora va usata in quel modo e non come sostituzione dell’essere umano, a parte nei casi in cui esso rischia costantemente la vita per via delle condizioni di lavoro troppo dure. Una cosa che accade anch’essa solitamente nelle zone più povere del mondo. Vi sono molti modi per “aiutare” senza per forza scalzare l’attività umana, che deve rimanere il più possibile diffusa per poter garantire condizioni di vita dignitose a tutti.
La regolamentazione
Pe ridurre al minimo i rischi e sviluppare le applicazioni etiche ovviamente c’è bisogno di una seria regolamentazione, possibilmente a livello mondiale, dell’utilizzo dell’IA. Il punto di partenza è forse utile sia filosofico, ovvero: anche se una tal cosa può essere fatta, dobbiamo farla davvero? Spieghiamoci meglio: dal punto di vista lavorativo ad esempio, un “computer” in grado di sostituire un essere umano nel suo lavoro può tranquillamente esistere. Ma davvero vogliamo questo? Gestire le possibilità della IA in modo troppo liberista sarebbe probabilmente controproducente per milioni di lavoratori.
Allora forse la regolamentazione deve partire proprio dalla protezione dei posti di lavoro, ovvero il motore pulsante di ogni società. Aiutare nelle mansioni, sveltire i processi, facilitare le soluzioni sono tutte cose fantastiche, ma se un algoritmo arriva letteralmente a sostituire un essere umano si pone un problema pratico molto grave. Il rischio è infatti anche quello che il livello del servizio si abbassi a fronte di un minore esborso economico (cioè ti offro un servizio minore, perché mi costa meno ed è pure socialmente accettato). Questo va scongiurato in ogni modo. Un altro pilastro della regolamentazione dell’IA dovrebbe poi essere, come già spiegato, il concetto di “aiuto” alle fasce più deboli della popolazione. Poveri, disabili e minoranze in genere possono ben essere sostenute da applicazioni concrete dell’intelligenza artificiale. Ci vuole però una legge che lo dica espressamente, perché lasciare tutto al caso o alla “bontà” dei gestori potrebbe non portare a molto.
E’ forse tempo che si capisca che il mondo potrebbe riuscire ad andare più avanti di quel che vogliamo e che per non farcelo sfuggire di mano sia necessaria una regolamentazione generale basata sul fatto che non tutto quello che evolve è per forza migliore di ciò che è ad esso precedente (ovvero magari sì, ma magari no). In ogni caso, è comunque una riflessione da fare, in modo da non trovarci a dover per forza seguire un cambiamento che magari nemmeno vogliamo. D’altra parte, la questione che riguarda se un progresso lo sia veramente, o non sia semplicemente un avanzamento strutturale che però porta più svantaggi che vantaggi, si pone sostanzialmente da sempre. Non è detto insomma, che superare i limiti di una determinata epoca sia necessariamente una cosa buona. Oppure, molto più probabilmente è sì una cosa buona, ma solo se viene gestita in modo sapiente.
Cerchi un nuovo lavoro?
Per avere sempre offerte di lavoro reali e verificate nella tua casella email in linea con le tue esigenze: Registrati su Euspert Bianco Lavoro