C'è un termine sempre più abusato e addirittura mitizzato, che affascina un crescente numero di persone: è il termine "digitale". In realtà è un semplice aggettivo che si riferisce a tutto ciò che viene rappresentato e calcolato con numeri. Ma lo si usa anche come metafora dell'innovazione informatica e tecnologica, che include i clamorosi sviluppi nel campo delle relazioni tra individui e imprese dopo il big bang del web, e anche le meraviglie dell'intelligenza artificiale.
Nella storia dell'uomo, le grandi scoperte e le grandi innovazioni hanno provocato rivoluzioni con enormi effetti positivi e non pochi effetti negativi: la nascita della stampa ha reso inutili gli amanuensi, la fotocomposizione ha reso inutili le linotype, il pc ha mandato in soffitta la macchina da scrivere, e così via fino ai giorni nostri, in cui si pensa che l'intelligenza artificiale applicata alla robotica metterà addirittura sul lastrico milioni di persone. Si sa che ogni progresso ha il suo prezzo, e sarebbe addirittura risibile pensare di fermarlo o rallentarlo solo perchè non si è capaci di correggerne gli effetti negativi.
Le intuizioni di Bezos (Amazon), Page (Google), Zuckerberg (Facebook), solo per citarne alcune, sono state semplicemente straordinarie, ma rivoluzionarie più negli effetti che nei principi. Basti pensare che ricevere un like, un commento positivo o una condivisione su Facebook corrisponde totalmente ai bisogni immateriali (autorealizzazione, stima, appartenenza) già codificati nella famosa "piramide" dello
psicologo americano Maslow, creata a fine anni Cinquanta! Segno che aveva ragione Einstein quando affermava che "ogni nuova idea non è che la ricombinazione di elementi esistenti, e che la storia del progresso costituisce comunque un flusso, con grandi e piccole discontinuità".
Di questa grande verità non sembrano rendersi conto gli entusiasti delle magnifiche sorti e progressive della tecnologia, del digitale e dell'intelligenza artificiale, pronti ad abbandonare tutto quanto sa di analogico e a sposare acriticamente tutto quanto profuma di digitale.
A costoro sfugge che la mente umana è analogica, e che sono invece le applicazioni ad essere digitali. La decantata intelligenza artificiale di cui tanto si parla, è in grandissima parte un'intelligenza di tipo computazionale: si tratta di calcoli sviluppati a velocità crescenti e persino inimmaginabili, ma sempre secondo il lineare linguaggio binario dell'informatica: 0 e 1, acceso e spento. La mente umana vive invece di un intreccio di molti linguaggi ben più che tridimensionali, costituiti da stimoli del tutto diversi (odori, sensazioni, ricordi, emozioni, intuizioni, suoni) connessi tra loro in modalità analogica.
Non dimentichiamo che il cervello che coordina tutto ciò in tale modalità, si è formato così in oltre 250.000 anni, ed è quindi risibile ritenere che negli ultimi vent'anni si stia modificando cercando di diventare digitale: non c'è plasticità neuronale che tenga. Semmai sta cominciando a soffrire delle patologie da multitasking (uso contemporaneo di diversi device) rischiando di far perdere agli esseri umani "la capacità dell'elaborazione profonda, che è alla base dell'acquisizione attenta di conoscenze, dell'analisi induttiva, del pensiero critico, dell'immaginazione e della riflessione"
come afferma Patricia Greenfield, insigne psicologa dell'età evolutiva docente all'Ucla. Per questo suscita molto clamore tra i docenti e gli insegnanti più avveduti la decisione del Miur di favorirel'uso del
cellulare in classe, anche nella scuola primaria.
Ovvio che nelle classi superiori ci debbano essere lezioni di informatica e insegnamenti al corretto uso delle tecnologie dell'informazione, ma non c'è proprio alcun bisogno di allargare anche alla scuola l'uso di un mezzo di distrazione di massa che sta dilagando con effetti perversi nella vita di tutti noi, come ci segnala l'assai amaro cartoon di Steve Cutts.