Per alcuni decenni, parlare di valori umani, di cultura umanistica, è stato un tabù.
Pensiamo che ancora oggi il modo di dire “fare filosofia” ha in sé una connotazione negativa: significa infatti affermare che concretamente non si sta arrivando a nulla.
In questi anni però la direzione del vento è un’altra. Le aziende stanno sempre più prendendo consapevolezza del loro ruolo sociale e che i clienti, da un lato, non sono più passivi consumatori di prodotti e le risorse umane, dall’altro, hanno motivazioni intrinseche oltre allo stipendio.
A pensarci bene, la riabilitazione del “pensiero umanistico e filosofico” e il bisogno di una visione più alta e più profonda è stato innescato da una ragione profonda.
La complessità del presente sta ripotando in auge la necessità di comprensione degli scenari e conseguentemente di un approccio non solo tattico ma più strategico che abbia alla base un pensiero strutturato.
I brand hanno iniziato a mettere al primo posto la definizione di uno scopo per il quale si sta sul mercato (oltre a generare profitto) e conseguentemente a manifestare la propria identità basandola sui propri valori fondanti.
Anche il pubblico, tutti noi, nel frattempo abbiamo compreso di avere un ruolo sociale, e che le nostre scelte sono e saranno il fondamento per compiere davvero quella che è un’inversione di tendenza rispetto al passato: tutti assieme i protagonisti per un equilibrio di sostenibilità ambientale, economica e sociale.
Una nuova sensibilità, propedeutica per uno sviluppo e una diffusione dell’intelligenza sociale: comprendere se stessi, costruire buone relazioni perché siamo interconnessi con altri individui, con l’ambiente, con il territorio e altri esseri con cui dobbiamo relazionarci e con cui condividiamo il pianeta.
Oggi però qualcosa sta di nuovo spostando l’attenzione su nuovi contenuti e la scena se l’è presa tutta l’intelligenza artificiale.
E qui inizia una mia personale preoccupazione. Se da un lato la pandemia e la crisi energetica hanno ritardato i programmi per una vera conversione ad un agire sostenibile e alla transizione energetica, ora percepisco che il nuovo tema dell’intelligenza artificiale sta mettendo di nuovo in secondo piano la centralità di un equilibrio tra noi e il pianeta.
Una nuova tecnologia è sempre divisiva, è chiaro, ed è presto per schierarsi, gli scenari non sono tutti definiti. Non ne abbiamo chiari i pericoli (regolamentazione, diritti d’autore, valore dei contenuti, impatto sul lavoro ecc.) non sono chiari i reali benefici (aiuterà lo sviluppo della ricerca in settori strategici, aiuterà a liberare l’uomo da lavori squalificanti ecc).
Quello che vedo è che si sta ragionando su semplici aspetti tecnici senza porci la domanda centrale: dove sta l’utilità sociale di questa innovazione?
Siamo una specie che si sta sempre meno allenando a visioni di medio e lungo periodo, trascuriamo il futuro e non scegliamo in funzione di un beneficio più ampio, sociale e di sostenibilità.
Ancora una volta non abituati al pensiero filosofico andiamo alle semplici applicazioni senza averne compreso un significato più ampio.
Il risultato è che invece di porre al centro, come si diceva, la persona, i valori, il senso e lo scopo di un’innovazione, si mette al centro il mero aspetto tecnico (l’AI è in grado di comporre un testo migliore rispetto ad un essere umano? Crea immagini perfette senza la sensibilità di un essere umano?) con tutti i pericoli che ne derivano.
Il cui primo è favorire una già diffusa incertezza, e l’ansia di pensare che avremo, invece di un potenziale alleato per il futuro dell’umanità, come potrebbe essere l’AI, un vero nemico per il lavoro, per la creatività e l’originalità, per la qualità dell’informazione, probabilmente sempre meno attendibile.
Forse è arrivato il momento di porci una domanda ogni volta che c’è o ci sarà una potenziale rivoluzione tecnologica: dove e come poterla rendere socialmente utile e non anti umana, avendo il coraggio anche di comprendere come regolamentarla.
Gianluca Adami, amministratore unico Clab Comunicazione.