Molti dessert per il cervello
Qualche ragione per riflettere
Gli schermi hanno invaso il nostro panorama, visivo e non solo. Schermi di computer, schermi televisivi, console per giochi elettronici, telefoni più o meno intelligenti, tavolette interattive, lavagne interattive, lettori di libri elettronici rappresentano altrettante interfacce per altrettanti modi di interagire con immagini e suoni. Ognuno di essi ha un suo modo di sollecitare il nostro cervello, di scontrarsi coi suoi limiti e sfruttarne le possibilità. Comunicare e giocare grazie a piattaforme sociali in rete, frequentare cosiddetti “mondi virtuali” o sale di cinema, equivale a innescare le capacità di analizzare informazioni impacchettate in diversi formati, distinguere tra realtà e fantasia, reagire emozionalmente ma non fisicamente. Benché ancora giovani, le scienze che studiano la cognizione, l’apprendimento, le emozioni, come dei fenomeni d’ordine naturale, possono venire in nostro aiuto per capire se e come queste attività stanno “modificando” il nostro cervello in maniera radicale, riconnettendo i nostri circuiti in configurazioni inedite e trasformando la nuova generazione in una generazione di mutanti.
Tuttavia lo studio del funzionamento della mente e del cervello non è sufficiente a rispondere a domande come: le immagini violente ci rendono più violenti? Si può diventare dipendenti da videogiochi? O più intelligenti con un programma di allenamento per il cervello? Le risposte a queste domande ci interessano perché ci possono aiutare a prendere buone decisioni e a valutare correttamente se gli appelli al panico e all’entusiasmo nei confronti delle tecnologie e degli schermi sono giustificati. La maggior parte di queste risposte riguarda del resto fette importanti della popolazione, se non la sua quasi totalità. Almeno una volta a settimana, per esempio, il 97,4% della popolazione italiana guarda la televisione (che si tratti di tv analogica, digitale terrestre, via web o mobile); il 79,5% usa un telefono cellulare; il 53,1% si connette in rete. Nel 2009, il 28,3% della popolazione utilizzava YouTube e il 22,9% Facebook. Tra gli altri mezzi di comunicazione, la radio continua a interessare otto italiani su dieci, mentre la carta stampata continua a calare e poco più della metà degli italiani ha letto almeno un libro nell’ultimo anno (8° e 9° Rapporto Censis/Ucsi sulla comunicazione).
Recentemente il Censis ha lanciato un allarme sulla dipendenza da internet/computer, inserito in un più generale contesto di nuove dipendenze e di “sregolamento delle pulsioni”, che interesserebbe il 6-11% della popolazione. Per il momento la dipendenza da internet/computer non fa parte dei disturbi psichiatrici riconosciuti dai manuali internazionali; la sua eventuale inserzione nella prossima versione del manuale di psichiatria più utilizzato (DSM-V, attesa per il 2013) ha suscitato dibattito nel corpo medico internazionale, a significare allo stesso tempo l’importanza della questione e la mancanza attuale di consenso. Di fatto, contrariamente al gioco d’azzardo patologico, internet e i videogiochi non saranno inseriti nel prossimo manuale perché non esistono ancora criteri di diagnosi che permettano di descrivere un eventuale disturbo; saranno però presenti in appendice per stimolare future ricerche. Nonostante l’incertezza che circonda ancora la questione, e la prudenza che se ne dovrebbe accompagnare, i media si sono largamente impossessati della terminologia della dipendenza da tecnologie. Panico ed entusiasmo accompagnano notizie come quella che gli autori della strage di Columbine erano dediti a videogiochi violenti, l’annuncio della morte di giovani giocatori coreani deceduti per inedia dopo ore passate davanti allo schermo di un internet point; ma anche l’uscita di videogiochi educativi e programmi digitali per allenare la mente. Lasciarci guidare da intuizioni, paure e speranze, da allarmi o appelli all’entusiasmo non è la scelta migliore. Abbiamo bisogno di ricerche rigorose dirette a misurare obiettivamente gli effetti delle nuove tecnologie e degli schermi sulla mente e sul cervello. Gli studi di buona qualità sono ancora scarsamente numerosi, e questo anche per comprensibili limiti etici e difficoltà pratiche di realizzazione. Possiamo però cercare di interrogarci, alla luce della conoscenza – sempre più avanzata – dei meccanismi che regolano il funzionamento del cervello e della cognizione umana, sul perché gli schermi possono esercitare su di noi una seduzione quasi irresistibile e per quali vie naturali possa passare il loro potere sulla nostra mente, per quali no.
Il potere degli schermi sulla mente: smontare i pregiudizi
Pregiudizi
Cominciamo col far uscire di scena due pregiudizi che riguardano il funzionamento del cervello. Il primo consiste nell’immaginare il cervello come una massa infinitamente malleabile e plastica, che le esperienze, e in particolare quelle con gli schermi, modificherebbero a piacere. Il secondo consiste nel pensare che il cervello sarebbe come un muscolo, un’idea che si accompagna alla terminologia dell’esercizio cerebrale, della ginnastica per i neuroni (in inglese: il brain training). Videogiochi, esercizi elettronici di “allenamento mentale”, scacchi e sudoku sarebbero allora come delle palestre per il cervello, capaci di mantenerlo in forma. A forza di esercitarsi, delle capacità come attenzione e memoria, o la capacità di eseguire compiti molteplici simultaneamente, migliorerebbero e andrebbero a migliorare anche la vita di tutti i giorni. Viceversa, le funzioni non adeguatamente esercitate si atrofizzerebbero e ci renderebbero più stupidi.
Il mito della plasticità infinita si sposa bene con l’immagine con la quale viene dipinta oramai regolarmente la generazione nata dopo gli anni 1990: quella di una nuova specie con un cervello differente da quello dei propri genitori e insegnanti, tecnologicamente avanzata ma anche superficiale, “connessa” ma violenta. Questa immagine ha implicazioni pratiche non trascurabili: come possiamo capire i “bambini digitali” se sono così diversi da noi? Non dovremmo fare in modo che anche le scuole siano coerenti con i nuovi cervelli e procurino il genere di stimoli di cui si nutrono i “nativi digitali”? Prima di affrettare il passo, è utile passare un momento a riflettere sul funzionamento della cognizione umana e considerare la lunga storia evolutiva della nostra specie, e in particolare del nostro cervello.
Il mito della malleabilità infinita del cervello
Bisogna innanzitutto dire che i due pregiudizi sono falsi, ma solo se interpretati troppo alla lettera: il cervello è realmente plastico e la pratica deliberata di una nuova abilità è davvero la chiave per il suo miglioramento. I recenti progressi nello studio del cervello sono stati in grado di mettere in luce l’esistenza di meccanismi responsabili della modificazione duratura dell’architettura del cervello in risposta alle esperienze. L’idea di plasticità data, in realtà, dall’inizio del secolo, ma la ricerca ha vissuto una forte accelerazione negli ultimi decenni.
Ora sappiamo che il cervello è dotato di una plasticità funzionale, che consente alle connessioni che collegano i suoi mattoni da costruzione, i neuroni, di cambiare di forma e di variare la loro forza in seguito a nuovi apprendimenti; sappiamo anche che, in maniera limitata, l’architettura strutturale – le connessioni stabilite tra neuroni, il numero di neuroni in una certa area – può subire modifiche anche nel cervello adulto. È stato scoperto che alcune aree del cervello hanno la capacità di “riconfigurarsi”, invadendo regioni limitrofe che hanno perso la loro connessione con il mondo – a causa di danni a queste regioni, per esempio, o alla perdita degli arti. Questa capacità, che si manifesta anche in risposta a esercizi intensi di alcune parti del corpo, non è necessariamente positiva: alcuni musicisti soffrono di paralisi delle dita perché le zone cerebrali che rappresentano un certo dito si sono estese fino a occupare parti della mappa cervello contigua alla loro.
L’osservazione del cervello di alcuni animali come uccelli, ratti, pesci, ma anche i primati e gli esseri umani, ha dimostrato che, in alcune aree del cervello legate alla memoria spaziale, nuovi neuroni possono continuare a crescere anche nell’adulto – violando alcune assunzioni tradizionali delle neuroscienze. Nuove connessioni tra neuroni si fanno e si disfano nell’adolescenza, in particolare al livello delle regioni filogeneticamente più recenti del cervello umano: la corteccia prefrontale, che regola inibizione e controllo sui comportamenti, riflessione, e altre funzioni esecutive e di “alto livello” tipiche della cognizione umana. Si poteva facilmente immaginare, naturalmente, che il cervello dovesse, in qualche maniera, registrare fisiologicamente quello che l’osservazione del comportamento mette quotidianamente sotto i nostri occhi: che ogni giorno impariamo, e per tutta la vita. Ma questi risultati delle neuroscienze hanno cambiato l’immagine che abbiamo del nostro cervello e sono certamente in grado di distruggere il mito che tutto avviene, per quel che riguarda l’apprendimento, prima di una fatidica età della vita, limite spesso arbitrariamente stabilito a tre anni.
Contemporaneamente, questi risultati rischiano di essere interpretati nel senso che il cervello modificherebbe senza posa la sua struttura e la sua anatomia, in risposta a nuovi apprendimenti. In realtà, non si conoscono ancora le cause precise e gli effetti delle riconfigurazioni delle mappe cerebrali, né quale sia il ruolo della nascita di nuovi neuroni nel cervello adulto, se non che questo genere di trasformazioni ha una portata incomparabilmente inferiore rispetto alla formazione di neuroni prima della nascita e alla modificazione della forza delle connessioni tra neuroni che continua massicciamente tutta la vita.
Se il cervello fosse stato davvero una massa “molle”, in cui l’esperienza è in grado di trasformare costantemente e radicalmente la nostra natura – le modalità di apprendimento, quelle di pensiero –, le differenze tra gli esseri umani di culture diverse sarebbero molto più importanti di quello che sono in realtà. Anche se si può imparare per tutta la vita, la natura umana getta le basi per il nostro modo di apprendere e per i meccanismi biologici che ci permettono di pensare, e questi meccanismi non cambiano con l’esperienza o l’uso della tecnologia.
Il cervello non è un muscolo
Lo stesso genere di realismo si applica alla considerazione del mito del cervello-muscolo. L’osservazione degli esperti e del “divenire esperti” ha mostrato che una forma speciale di pratica fa la differenza tra professionisti e dilettanti – che si tratti di violinisti, maestri di scacchi o giocatori di golf. Questa pratica, intenzionale e non subita o semplicemente ripetuta, si appoggia in particolare su una grande motivazione a imparare e permette al futuro esperto di dedicare tempo e concentrazione al compito, prendere in considerazione le osservazioni di un maestro al fine di attaccare i punti deboli con perseveranza, utilizzare delle strategie per memorizzare e dominare le conoscenze necessarie, organizzarle e utilizzarle. Dieci anni e 10 mila ore sono normalmente necessari per formare un esperto, e anche in queste condizioni, l’esperienza guadagnata in una certa area tende a rimanere “incollata” al proprio contenuto. Quando la memoria del maestro di scacchi è messa di fronte a compiti che non riguardano il gioco degli scacchi, le prestazioni mnemoniche – estremamente sviluppate a contatto con configurazioni di pezzi su una scacchiera – ricadono ai livelli di un qualsiasi giocatore apprendista. L’apprendimento è difficilmente generalizzabile e trasferibile, contrariamente all’idea che sottende il mito del cervello-muscolo. Il cervello è tanto plastico quanto è “resistente” alla radicale trasformazione delle sue capacità: s’impara per tutta la vita, non si cambia di natura.
Il mito dei nativi digitali
Questo ci porta ad un terzo pregiudizio o mito, questa volta di ordine tecnologico: quello che ci fa immaginare che l’immersione digitale in cui bagna la nuova generazione sia di per sé una garanzia di “alfabetizzazione digitale”, o di superiorità digitale rispetto alle generazioni precedenti. Eppure non sembra essere questo il caso. I nativi digitali non sono necessariamente migliori della generazione dei propri genitori nel condurre una ricerca su Internet, o nella gestione efficace di più compiti contemporaneamente (il “multi-tasking”). Sebbene qualsiasi utente di tecnologie faccia entrambe le cose, fare e saper fare non sono sinonimi. L’apparente facilità d’uso delle tecnologie recenti, inoltre, potrebbe scoraggiare un approccio più in profondità al loro buon uso: l’utilizzatore ha tendenza a sentirsi immediatamente competente e quindi a non intraprendere i passi necessari a divenire realmente tale. Accade la stessa cosa con l’apprendimento di una lingua straniera, in cui il primo sforzo di guadagnare intelligibilità e capacità di comunicazione, una volta coronato da successo, è spesso seguito da un lungo plateau senza miglioramenti; arrivati a questo livello, sufficiente ma non eccelso, ci si accontenta e si smette di fare lo sforzo di diventare realmente competenti. Accade anche a chi impara a usare una tastiera di computer: una volta che siamo in grado di utilizzare più dita e staccare gli occhi dalla tastiera, chi fa lo sforzo per scrivere con le dieci dita e senza mai guardare la tastiera?
Anche se sembra essere vero che i giocatori di videogiochi hanno migliori prestazioni in compiti di attenzione spaziale e visiva – ed è possibile che queste capacità vengano in parte addestrate dalla pratica di videogiochi d’azione – non è dimostrato che la medesima pratica cambi il modo di imparare, capire e mettere in atto strategie utili per fare altro che giocare ai videogiochi. Per il momento, il fattore più sicuro per predire la capacità di qualcuno di capire (un testo scritto, per esempio), ancor più che la capacità di leggere fluidamente, è il fatto di possedere conoscenze specialistiche che gli permettono di mettere in relazione ogni nuova parola e frase con le sue conoscenze precedenti. Non c’è miglior “allenamento cerebrale” che imparare: arricchire conoscenze e competenze.
Il potere degli schermi sulla mente: seduzioni (quasi) irresistibili
Fin dalla nascita, l’essere umano manifesta competenze e preferenze. La passione per i colori, l’interesse per il movimento, la sensibilità al cambiamento specie se improvviso e brutale, la curiosità per quello che accade nel nostro ambiente, fisico e sociale ci sono propri – anche se non sono limitati alla nostra specie. Erano propri, probabilmente, anche ai nostri antenati che 100mila anni fa vivevano in piccoli gruppi, dipendendo dalla caccia e dalla raccolta per la loro sopravvivenza.
Apparentemente, il nostro cervello non differisce significativamente dal loro: nella nostra scatola cranica di esseri umani moderni è alloggiato il cervello di un cacciatore-raccoglitore, coi suoi istinti naturali, le sue capacità e limiti, modellati da milioni di anni di selezione naturale sotto la pressione di una nicchia ecologica che il nostro stesso cervello ci ha permesso di trasformare e adattare. Il mondo è cambiato – e siamo noi stessi ad averlo trasformato – ma il cervello necessario a interagire con questo stesso mondo è rimasto sostanzialmente lo stesso per almeno 100mila anni.
Se adottiamo il punto di vista dei nostri antenati cacciatori-raccoglitori alcuni gusti e preferenze appaiono di colpo abbastanza naturali e giustificate – anche quelle che riguardano le tecnologie più recenti.
Scopi pratici e ricompense
Ad esempio, il nostro cervello ha un interesse particolare per la realizzazione di compiti pratici, per il perseguimento di un obiettivo. Nel presentare al giocatore uno o più compiti concreti e un obiettivo altrettanto concreto da raggiungere e su cui concentrare gli sforzi, i videogiochi offrono al cervello un genere di stimolo al quale è difficile resistere: una specie di dolcetto per il cervello. Naturalmente, l’obiettivo deve essere realizzabile; una volta raggiunto, il cervello lo registra come premio e produce dopamina – una sostanza chimica emessa negli scambi tra neuroni di un circuito particolare, addetto all’apprendimento, alla focalizzazione dell’attenzione e alla motivazione a ricercare nuovamente il medesimo tipo di stimolo, detto anche in maniera molto semplificativa “circuito del piacere” o della ricompensa. Il sistema della ricompensa sembra in effetti permettere all’animale non solo di provare piacere, e quindi di migliorare il proprio apprendimento, ma anche motivare ulteriori ricerche, come la ricerca del cibo. Quando la ricompensa è certa, ma la sua assegnazione casuale – “so che troverò da mangiare se continuo a cercare in quella direzione, ma non so quando” – l’animale tende a dimostrare un comportamento di ricerca particolarmente robusto: continuo e sostenuto. In un certo senso, il cervello riceve in questo caso un doppio dolcetto alla dopamina: il primo quando si aspetta di ricevere una ricompensa e il secondo quando la riceve per davvero. Il caso presenta una certa analogia con quello delle slot-machine e di altri videogiochi capaci di mantenere alto il livello di attenzione.
Ma il cervello è anche fatto per sapersi distrarre dal suo compito, per essere attratto da suoni e giochi di luce. I videogiochi ne sono prodighi. Al dolcetto si aggiunge uno strato di zucchero a velo.
Narrazioni e cause
Se adesso prendiamo in considerazione giochi di simulazione di situazioni complesse, basati su una narrazione, entriamo in un altro campo della cognizione per scoprire una nuova tentazione per il cervello. Fin dalla più tenera età, il bambino osserva il mondo come un piccolo scienziato in erba, e cerca di spiegarsi le ragioni di uno o dell’altro fenomeno. È sensibile alle regolarità con cui i fenomeni si manifestano e a quelle delle loro caratteristiche; sviluppa in questo modo intuizioni e idee che gli permettono di spiegare gli eventi che si producono intorno a lui e di collegarli l’uno all’altro in maniera causale. La capacità di percepire le relazioni causali tra diversi oggetti e fenomeni è particolarmente sviluppata negli esseri umani, troppo, si potrebbe dire: tendiamo a vedere cause e connessioni anche dove non ve ne sono – come quando la persona cui stiamo pensando ci chiama per telefono, o quando un povero gatto nero ci taglia la strada, rendendosi (falsamente) colpevole di catastrofi e incidenti. Questa ipertrofia della causalità spiega molti errori del nostro ragionamento e spesso ci impedisce di differenziare la correlazione – in cui due fenomeni si danno insieme – dalla causalità – in cui l’uno causa l’altro. L’ipertrofia della causalità aiuta anche ad alimentare la nostra passione per i misteri e i problemi: dai gialli in cui si tratta di scoprire chi è stato (l’agente causale) alle missioni – di cui i videogiochi sono ricchi.
Non fatti per pensare
Anche la scienza naturalmente permette di nutrire il nostro bisogno di ricerca di cause e spiegazioni. Perché preferire allora – si tratta di un’affermazione descrittiva, non certo prescrittiva o normativa – i videogiochi alla scienza? È necessario fare riferimento a una caratteristica del nostro cervello tanto robusta quanto sorprendente: il cervello non è fatto per pensare. Quando impariamo ad andare in bicicletta, è importante automatizzare i gesti che permettono di far girare le ruote in modo da potersi concentrare efficacemente sul fatto di guidare in città. La stessa cosa accade quando impariamo a leggere. Una volta diventata automatica la trasformazione dei segni scritti in suoni, possiamo finalmente concentrarci sul significato delle parole e capire di cosa ci si sta parlando. L’automatizzazione della decodifica da grafema a fonema è talmente potente che ci riesce difficile trattare una parola come un semplice oggetto percettivo e non leggerla. Fate l’esperimento seguente: scrivete i nomi dei colori più comuni (verde, rosso, giallo, blu, arancio) con un pennarello del colore “sbagliato”; la parola “verde” sarà scritta per esempio una volta in blu, una in arancio o rosso o giallo e via di seguito; riempite una pagina; adesso provate velocemente a leggere le parole scritte in questo modo: nessun problema; cercate allora di non leggerle e di nominare il colore in cui sono scritte: osserverete che la “lettura automatica” rende difficile il compito, vi rallenta e vi fa commettere errori.
Automatizzare consente di non pensare e quindi libera l’attenzione per altri compiti, spesso più interessanti. Anche in assenza di automatizzazione, il nostro cervello tende a riposare su ciò che conosciamo già, sulle riserve stoccate nella memoria a lungo termine, eventualmente ad usarle per agganciare le nuove informazioni, organizzarle, stoccarle in memoria. Il lavoro dello scienziato è difficile perché lo obbliga spesso a mettere da parte ciò che viene facilmente in mente – automatismi e conoscenze precedenti –, a pensare e a mettere da parte il proprio punto di vista per piegarsi ai fatti; richiede quindi auto-disciplina e spesso è cognitivamente pesante.
Simulazioni
La finzione e l’immaginazione, al contrario, permettono di piegare i fatti alle nostre esigenze e ai nostri interessi: i romanzi contengono pagine di simulazioni di altri stili di vita, situazioni che non possiamo permetterci di vivere senza correre rischi. Durante la lettura sperimentiamo emozioni, empatia per i personaggi, siamo spettatori partecipanti dei loro conflitti, del loro modo di risolverli con la violenza o di ricomporli nell’interesse comune. È come se fosse vero, ma non lo è. Il vantaggio è duplice. Da un lato, possiamo sfruttare le simulazioni della realtà, e imparare leggendo – o guardando un film o giocando – l’effetto che fa: la finzione è in questo senso un’arena in cui sono rappresentate a nostro vantaggio azioni e le loro conseguenze, le strategie da mettere in campo per reagire e così via. Dall’altro lato sappiamo che nulla di quello che stiamo leggendo o osservando sta realmente accadendo e possiamo permetterci di lasciarci trasportare dall’emozione, di non fuggire l’apparente situazione di pericolo, e prendere un rischio.
All’interesse suscitato da situazioni naturalmente suscettibili di attirare la nostra attenzione si aggiunge il valore adattativo della simulazione in quanto allenamento con la rete. Una parte del nostro cervello reagisce come lo farebbe di fronte alla medesima situazione se fosse vera: in pratica, non fa la differenza tra finzione e realtà e ci fa piangere sul tragico destino di Anna Karenina. Un’altra parte del nostro cervello apprezza la natura fittizia della storia e blocca le reazioni che normalmente vi si dovrebbero accompagnare – nessuno di noi ha mai avuto l’idea di chiamare la polizia o l’ambulanza dopo aver assistito al suo suicidio.
In questo contesto, la presenza di violenza nei media risponderebbe a un interesse naturale per la gestione dei conflitti; interesse che risale molto indietro nella nostra storia evolutiva, se pensiamo che anche altri primati hanno sviluppato dei sistemi per la loro risoluzione. Saper fare la pace è tanto più importante nel caso di animali che dipendono fortemente per la propria sopravvivenza dalla collaborazione con altri membri della propria specie. È dunque naturale interessarsi agli atti di violenza e alle loro conseguenze, ma anche cercare di simularli o assistere a delle simulazioni più che sperimentarli direttamente. Almeno in parte, l’interesse naturale che portiamo ai conflitti e ai loro diversi e opposti modi di affrontarli spiega la presenza di violenza nei media, e l’attrazione che la violenza mediatica suscita in noi.
Fatti per agire e percepire
Anche in questo caso, perché si sente tanto parlare dipendenza da videogiochi, ma mai di “librolismo” o dipendenza da libri? Il fatto è che il libro si basa su una acquisizione relativamente recente della cultura umana: la scrittura. Anche se la scrittura e la lettura hanno il loro sostrato neurale in precise aree del cervello – tradizionalmente deputate alla visione dei volti o all’interpretazione del linguaggio e in seguito riciclate per servire il compito di leggere – la lettura non è una funzione del tutto naturale: di fatti, si deve andare a scuola per imparare a leggere, mentre non c’è bisogno d’istruzione per imparare a vedere, camminare, giocare, parlare. La lettura rimane un compito lontano da quelli per i quali il cervello si è sviluppato nel regno animale: agire e percepire.
I videogiochi narrativi, i film, rispondono all’interesse che il nostro cervello porta alla finzione in generale, in quanto simulazione con la rete, ma lo fanno in un contesto percettivo, eventualmente addirittura di azione. Una volta che la passione per la finzione è rivestita di uno strato di percezione e azione, la torta per il cervello è quasi completa.
Il cervello sociale
Tra i videogiochi più interessanti, ci sono quelli che si giocano on-line e in gruppo, in cui è possibile eventualmente scambiare oggetti virtuali. A questi giochi corrisponde ciò che ci distingue dalla maggior parte dei nostri cugini primati, una distinzione che non passa tanto per le capacità cognitive dette “superiori” ma per quelle che ci predispongono a intrattenere relazioni sociali. La capacità di imparare dagli altri, la volontà d’insegnare, di concentrare gli sforzi su un medesimo compito condiviso, di cooperare, interpretare i pensieri altrui grazie alle espressioni del volto, alle azioni, l’empatia, l’altruismo e la condivisione, il senso di giustizia, ma anche di fedeltà al gruppo e il conformismo, l’esclusione di altri gruppi, sono altrettanti tratti propri alla nostra natura, resi possibili dall’evoluzione del nostro cervello. Prima di compiere due anni, il bambino sa cooperare con l’adulto a un compito comune, prestare attenzione alle sue intenzioni comunicative, imitare il senso e non solo l’aspetto esterno dei suoi gesti. Preferisce collaborare con qualcuno che è stato gentile, anche verso altri, che con qualcuno che si sarebbe mostrato ingiusto. Poco tempo dopo, il bambino preferirà condividere i suoi dolcetti con uno sconosciuto che tenerli tutti per sé. Ma il gruppo ha le sue regole, presso i bambini come presso gli adulti. Esperimenti hanno mostrato che, una volta indossata una maglietta blu, diventa molto più naturale considerare più intelligenti altri individui che portano la medesima maglietta blu che quelli del gruppo vestito in rosso, e condividere con loro i nostri beni. Il nostro cervello ha una tendenza al conformismo, perché è costituito in modo da far parte di un gruppo di cervelli. Tutto questo lo ritroviamo nei giochi on-line, da Farmville a World of Warcraft. È la ciliegina sulla torta.
Una torta per il cervello
La nostra scatola cranica contiene il cervello di un cacciatore-raccoglitore. Questa è l’immagine che ci rinvia la psicologia evolutiva, che studia la cognizione umana grazie agli strumenti intellettuali della teoria dell’evoluzione. In un certo senso i videogiochi ci stanno aiutando a far uscire il cacciatore-raccoglitore dalla sua scatola e facendo luce sui suoi gusti ed esigenze. Dall’altra parte, la medesima immagine ci aiuta a supporre quali tra le funzioni sviluppate dai nostri antenati sotto la pressione del loro ambiente ecologico sono sollecitate dai moderni schermi, e ci fornisce dunque una chiave per capire le reazioni e gli atteggiamenti che abbiamo di fronte ad essi. Iscritto nel nostro cervello si trova il gusto per gli zuccheri, le proteine, i lipidi; per i nostri antenati è stato vitale saper riconoscere la presenza di queste sostanze sotto forma di cibo e nutrirsene, anche se la loro conquista poteva essere ardua e faticosa. Oggi abbiamo il supermercato all’angolo, sulle cui mensole si allineano torte e dolci d’ogni specie. Il mondo è cambiato, ma il cervello rimane lo stesso. Alla fine, questo la dice lunga sulla nostra tendenza ai dolci abusi…
Un approccio cognitivista aiuta in parte a capire l’attrazione che esercitano su di noi videogiochi e altri schermi: un insieme di stimoli basati sul circolo della percezione e dell’azione, che attirano naturalmente l’attenzione, degli scopi concreti e dei problemi da risolvere che conducono a ricompense, delle simulazioni della realtà materiale e sociale, coi suoi rischi, la possibilità di scambiare informazioni, di collaborare, comunicare, di creare un sentimento di conformità e appartenenza al gruppo. L’interesse di questo genere di approccio è quello di permettere di andare al di là dell’opposizione “fa bene/fa male”, dei facili entusiasmi e del panico irrazionale. Un videogioco, come molte altre moderne tecnologie che sollecitano le nostre facoltà cognitive, è il risultato di una ricetta fatta d’ingredienti molteplici, ognuno capace di scatenare una reazione diversa nel nostro cervello. Conoscere gli ingredienti e capire i loro effetti è indispensabile per immaginare come trarne partito.