lunedì 29 agosto 2011

UN INTERVENTO NEL DIBATTITO SULLE "COMPETENZE"


Le ragioni principali che vengono addotte per sostenere l’esigenza di una  formazione scolastica “per competenze” sono due: (a) la necessità di mettere in relazione le conoscenze con il loro uso pratico già nel processo di apprendimento e poi nella vita sociale e professionale e di non isolarle a un livello teorico scisso da quello sperimentale; (b) la possibilità di misurare mediante le competenze il “valore aggiunto” ottenuto a scuola, in quanto esse sarebbero misurabili a differenza delle conoscenze.
In realtà, la prima motivazione è banale, perché l’esigenza di non scindere la teoria della pratica non è una scoperta della pedagogia moderna ma semplicemente la caratteristica di qualsiasi buon insegnamento, da Socrate in poi. Soltanto chi non conosca la storia della cultura scientifica e del suo insegnamento può credere che qualcuno possa mai aver seriamente pensato che si possa apprendere la matematica senza fare esercizi e applicazioni o che la fisica possa ridursi all’apprendimento astratto di leggi teoriche.
Mi è occorso più volte, in dibattiti e conferenze, di leggere alcuni brani per descrivere la didattica per competenze, suscitando un entusiastico consenso da parte dei sostenitori di tale didattica, seguito dall’imbarazzo nell’apprendere che quei brani erano tratti dal Regio Decreto del 1913 istitutivo dei Ginnasi-Licei Moderni. È un peccato veniale introdurre una nuova terminologia per richiamare l’esigenza di insegnare bene. Tuttavia, l’introduzione di definizioni superflue e violare il principio del rasoio di Occam non è mai un fatto positivo.
In realtà, anche l’esigenza (b) è inconsistente, in quanto – come vedremo – la pretesa di misurare le competenze è destituita di qualsiasi serio fondamento.
Ciò non vuol dire che la tematica della didattica per competenze sia priva di motivazioni, che però sono di altra natura. Da un lato, essa mira a conformarsi alle raccomandazioni del Parlamento Europeo circa le competenze chiave per l’apprendimento permanente, che hanno come obbiettivo la standardizzazione dei sistemi scolastici europei. D’altro lato, è espressione di un’ideologia costruttivista che da tempo si è fatta largo nel campo dell’istruzione e delle teorie pedagogiche.
Si ammette generalmente che esista un collegamento tra la teoria delle competenze in ambito aziendale e quella che è entrata nei sistemi educativi, ma si tende a minimizzare tale collegamento. Al contrario, la teoria delle competenze si è sviluppata nel primo ambito quando nessuno aveva mai pensato di implementarla nel secondo. Una ricostruzione storica accurata di questi processi – che non è qui possibile – potrebbe mostrarlo in modo rigoroso.
Mi limiterò a ricordare che, dopo alcune prove nel settore militare durante la Seconda guerra mondiale, il concetto di competenza fu introdotto nell’ambito aziendale dallo psicologo statunitense David McClelland. Dopo una prima elaborazione teorica, McClelland implementò il modello delle competenze nelle organizzazioni aziendali attraverso la ditta McBer&co da lui fondata nel 1963. I “McClelland-McBer competency models” miravano a replicare i discreti risultati ottenuti in ambito militare. Tuttavia, mentre una qualche “misurazione” delle capacità di un pilota di aviazione poteva essere fatta in modo accettabile, con parametri come il numero di bersagli colpiti rispetto agli obbiettivi prefissati, la misurazione della “motivazione” del dipendente d’azienda e la sua propensione al successo, attraverso il TAT (Thematic Apperception Test) si rivelò subito molto problematica e ancor più la gestione del colloquio di valutazione. Furono così fatti numerosi tentativi di correzione – in particolare quando la McBer venne acquistata dalla Hay – attraverso lo sviluppo della “Theory of Needs”.
Tutti i tentativi sviluppati fino ad oggi per rendere “oggettivi” gli avanzamenti di carriere e i bonus relativi alle prestazioni dei dipendenti, nell’ambito del connubio tra la teoria delle competenze di McClelland e il Performance Management System, si sono rilevati insoddisfacenti. La definizione della tipologia delle competenze si è rivelata estremamente problematica: anche nel caso di importanti grandi aziende si constata che la tipologia di competenze di un dirigente è quasi uguale a quella di un dipendente del più basso livello. La speranza di introdurre criteri oggettivi, e quindi di misurare le competenze, si è scontrata con il fatto che le interpretazioni del modello hanno spesso caratteristiche locali, se non personali, e quindi altamente arbitrarie. Inoltre, la necessità di semplificare entro una tipologia schematica situazioni di alta complessità conduce a formulazioni fatte a tavolino e aventi esili relazioni con la realtà.
Nonostante queste difficoltà – che fanno dire a molti specialisti del settore che la teoria delle competenze in ambito aziendale fa acqua da tutte le parti – essa è stata brutalmente importata in ambito scolastico. Il caso più plateale è quello del modello di insegnamento “efficace” introdotto in Inghilterra nel 2000 e commissionato direttamente alla Hay-McBer. Il modello è strutturato in 16 caratteristiche organizzate in cinque gruppi, riflette in pieno le tecniche e l’ideologia della HayMcBer ed è evidente quanto si basi su definizioni vaghe, generiche e arbitrarie:

Professionalismo: Rispetto degli altri -  Capacità di proporre sfide e sostenerle -  Fiducia in sé - Capacità di ispirare fiducia
Capacità intellettuali: Pensiero analitico - Pensiero concettuale
Capacità di programmare e creare aspettative: Capacità di guidare il miglioramento - Spirito d’iniziativa - Capacità di ricercare le informazioni necessarie
Capacità di guida: Capacità di gestire gli alunni - Passione nel predisporre l’apprendimento - Flessibilità - Capacità di responsabilizzare gli altri
Capacità di entrare in relazione con gli altri: Comprensione degli altri -  Capacità di persuadere e influenzare - Capacità di lavorare in squadra.

Chiunque abbia una nozione anche vaga del concetto di misurazione si rende conto che nessuna di queste “competenze è misurabile. Una grandezza per essere misurabile deve ammettere un’unità di misura definibile in termini oggettivi e indipendente dall’introduzione di variabili ausiliarie. Ciò non esclude che una “qualità” possa essere suscettibile di valutazioni quantitative, le quali tuttavia non sono misure ma semplici stime. Ciò è possibile a condizione di essere consapevoli che una siffatta trattazione quantitativa non soltanto non è una misurazione esatta ma è intrisa di fattori soggettivi. Nella fattispecie essi sono rappresentati dai test che sono lo strumento principe di queste valutazioni quantitative. I test sono preparati da persone che hanno opinioni soggettive – spesso assai opinabili e divergenti tra loro – sui criteri di valutazione delle competenze. Pertanto, credere che il test rappresenti una forma di valutazione oggettiva è un modo inelegante di nascondere la “spazzatura” della soggettività sotto il tappeto. Come hanno osservato in un recente documento congiunto (“Citation Statistics”, reperibile in rete) la International Mathematical Union, l’International Council of Industrial and Applied Mathematics e l’Institute of Mathematical Statistics, se si sostituiscono le qualità con i numeri si ottiene banalmente qualcosa di misurabile, ma la sostituzione è del tutto arbitraria. L’uso dei test può dare risultati migliori delle valutazioni individuali dirette solo se i test riguardano capacità semplici e definibili in termini molto elementari e se si utilizza un unico sistema. Pertanto il ricorso ai test è utile al livello della valutazione di “competenze” minime pur restando intriso di elementi soggettivi.
È quel che ammettono gli studiosi liberi da pregiudizi ideologici. Essi ricordano che non esiste un’unica definizione accettata di competenza: e già questo dice molto sulla fragilità della costruzione. Sono state costituite commissioni mondiali per studiare la definizione di competenza, senza successo: sono state proposte definizioni diverse a centinaia. La conclusione cui si è giunti è che, se si adottano definizioni deboli, ovvero relative a capacità elementari, qualcosa può essere stimato (si pensi ai test d’ingresso nelle università o ai test scolastici in cui si valutano capacità di base di ortografia, grammatica e calcolo). Se invece si considerano fattori affettivi e motivazionali (come nel modello precedente) nessuna stima quantitativa è possibile. Questa ammissione, condivisa da chi si è occupato in modo serio della questione, non impedisce che vi sia chi si ostina a parlare di misurabilità delle competenze, addirittura di “competenze della vita”.
Il vero punto di forza della didattica delle competenze sta nell’esigenza di determinare modalità di valutazione delle capacità lavorative delle persone che valgano per tutta l’area europea. Allo scopo le culture nazionali rappresentano un intralcio. Le competenze chiave enunciate dal Parlamento Europeo corrispondono a quella esigenza e inevitabilmente indirizzano verso un approccio anticulturale in cui non c’è posto per la letteratura, la storia o la filosofia e neppure per una scienza concettuale, mentre tutto lo spazio è riservato a capacità meramente tecnico-operative. Questo andazzo, oltretutto gestito da una burocrazia priva di basi culturali, dovrebbe preoccupare in quanto può provocare un grave declino dei sistemi dell’istruzione.
Chi ha a cuore il futuro di questi sistemi dovrebbe battersi per ricomporre rapidamente l’artificiosa dicotomia tra conoscenze e competenze e difendere una visione della formazione che non si pieghi a esigenze esclusivamente tecnocratiche e di mercato del lavoro, senza nulla togliere a queste esigenze.
Spesso ci si chiede se la didattica delle competenze sia “di destra” o “di sinistra”. È indubbio che fino a tempi recenti le visioni ispirate a un approccio tecnocratico erano duramente avversate dalla cultura progressista. Questo veniva fatto in nome di una tradizione che aveva come massimo rappresentante Antonio Gramsci e la sua nota visione della scuola, dello studio come sacrificio e acquisizione di capacità di lavoro e di concentrazione, del ruolo del latino nella formazione mentale e culturale, e così via. A un certo momento, questo riferimento è stato abbandonato di colpo a favore di un costruttivismo pedagogico di origine anglossassone, nonché di altre teorie, come quelle di Piaget o, più di recente, di Edgar Morin. Appaiono ormai estranei alla sinistra i riferimenti di un pedagogista comunista, pur così aperto all’innovazione come Lucio Lombardo Radice: egli difendeva polemicamente l’esigenza del rigore nello studio contro ogni visione ludica della scuola e l’esigenza della concentrazione personale contro le sperimentazioni empiriche di “di gruppo”. Oggi, il crollo di capacità di lettura e concentrazione dei nostri ragazzi dà clamorosamente ragione a tali ammonimenti. Per quanto il costruttivismo postmoderno e una antica tradizione di costruttivismo sociale possano trovare punti di contatto e consonanze, è singolare la leggerezza con cui quelle posizioni sono state gettate alle ortiche in favore dell’adesione acritica a visioni aziendaliste ispirate alla totale subordinazione della formazione culturale a esigenze di carattere produttivo; in parole povere, che concepiscono la scuola come un luogo di formazione di addetti per le aziende, e non di cittadini che sulla cultura fondano la loro libertà.
Un altro fenomeno che viene troppo spesso accettato con acritica leggerezza è la formazione di un ceto di “esperti scolastici”, singolari figure di persone la cui unica “competenza” è l’organizzazione scolastica, indipendentemente dalla loro competenza specifica in una qualsiasi tematica dell’insegnamento e persino dall’assenza di qualsiasi esperienza di insegnamento. La tematica che abbiamo riassunto sotto la voce “organizzazione scolastica” comprende temi che hanno a che fare con le modalità dell’insegnamento (strutturazione in classi o in “open space”, introduzione delle tecnologie nelle scuole, orari, tematiche della disabilità e dei disturbi di apprendimento, ecc.) e, in particolare, con quelle della valutazione, sia degli alunni che degli insegnanti e degli istituti scolastici. Va notato, al riguardo, che l’idea che si possa intervenire sulle questioni dell’istruzione in modo completamente astratto e avulso dalle questioni di contenuto dell’insegnamento, è semplicemente aberrante e costituisce una delle cause principali del degrado dell’istruzione, sempre più consegnata allo strapotere di personaggi che impongono metodologie derivanti da presupposti ideologici e che si traducono in una miriade di adempimenti burocratici o di verifiche puramente formali. Senza contare che gli “esperti scolastici” sono considerati, non si sa perché, come al di sopra di qualsiasi valutazione, come se fossero depositari di una metascienza sottratta a qualsiasi verifica.
Tra i molti assiomi ideologici che questo ceto diffonde, e che impone come una verità di fede, sta quello di cui abbiamo già parlato in tema di competenze e che si può riassumere nello slogan generale della misurabilità delle qualità. Trattasi di un esempio caratteristico, in quanto chiunque abbia una sufficiente preparazione scientifica sa perfettamente che un conto è una stima e altro conto una misurazione e che la possibilità di misurare implica una serie di presupposti che soli permettono di parlare di “oggettività”. Quando, invece, ci si trova di fronte a entità da misurare la cui definizione precisa è impossibile, neppure in termini operativi, e che si sfaccettano in una serie di aspetti ognuno dei quali è difficilmente afferrabile, e oltretutto sono soggetti a variabilità sociale e storica, parlare di misurazione è una sciocchezza così plateale che può permettersela soltanto chi goda di totale impunità sul terreno della valutazione.
È davvero sorprendente la schizofrenia con cui molti soggetti che si occupano di scuola da un lato lamentano una progressiva distruzione della cultura – che indubbiamente si sta verificando – e, dall’altro, non si oppongono o addirittura alimentano uno dei fattori principali di tale distruzione: la dittatura degli “esperti”.
(intervento pubblicato nella rivista "Scuola democratica")

lunedì 22 agosto 2011

Liberalismo e mercato


La crisi del 2008 suscitò pungenti critiche alla capacità di previsione della teoria economica, che oggi si ripropongono. Né quello che accadrà tra un mese, né quello che accadrà domani è alla portata delle capacità predittive della teoria economica. Eppure la politica è sempre più dominata dalla tecnocrazia, che si tratti di agenzie di rating o di “esperti” che, pur incapaci di previsione, dispensano ricette per superare la crisi.
Non occorre essere marxista né keynesiano per ammettere che la teoria economica del cosiddetto “mainstream” è un galeone affondato, perché sono in crisi i suoi capisaldi teorici. Il primo è che il mercato lasciato a sé stesso va spontaneamente in equilibrio. Lo si presenta come un asserto “normativo”: lasciate libero il mercato e tutto va a posto. Peccato che non esista un solo risultato teorico che lo convalidi: al contrario, ogni risultato va in senso opposto. Quanto alle pratiche concrete, basti pensare al fallimento dei modelli matematici che da un trentennio sono stati costruiti sulla convinzione che i mercati finanziari siano controllabili e sul secondo capisaldo del “mainstream”: è “razionale” il soggetto economico che conosce perfettamente il funzionamento del sistema e agisce in modo assolutamente egoista, massimizzando il proprio profitto. La versione moderna di questa concezione è la teoria delle “aspettative razionali”, ovvero delle attese dei soggetti economici di fronte a eventi che influiscono sulle loro decisioni. Se i soggetti si comportano “razionalmente” l’economia s’indirizzerà verso gli eventi che essi “razionalmente” si aspettano. In definitiva, da un’idea di razionalità quanto mai discutibile si ricava il precetto che farebbe evolvere l’economia in modo determinato e prevedibile: comportatevi “razionalmente” e la realtà sarà “razionale”. Negli anni settanta gli economisti matematici Fisher Black e Myron Scholes e l’ingegnere Robert Merton formularono un modello matematico che traduceva tale visione ispirandosi ad analogie con la meccanica statistica. Esso mirava a descrivere l’andamento nel tempo di prodotti finanziari (come un portafoglio di azioni o obbligazioni) e di opzioni definite su di essi.  Le ipotesi irrealistiche del modello – per esempio, che le attività finanziarie si spalmano nel tempo per frazioni arbitrariamente piccole di prodotti finanziari – sono state accettate come prescrizioni adeguate a prevedere e controllare il mercato finanziario. Si è fatto credere che bastasse implementare nei computer il modello di Black-Scholes-Merton per realizzare il sogno di un’economia “razionale” e mezzo mondo finanziario ha operato in tal modo.
Ricordate il crack della finanziaria Long Term Capital Management nel 1998? Era l’occasione per concludere che il mondo è fatto da uomini che non hanno conoscenze perfette e non si comportano come robot, che non esiste una legge meccanica di equilibrazione del mercato, che il primato nel governo della società e dell’economia è della politica e non della tecnocrazia e della sua pseudoscienza. Nessuno se n’è dato per inteso.
Eppure qualcuno l’aveva detto, proprio un protagonista di oggi, che sul declassamento dell’economia statunitense da parte dei “tecnici” della Standard & Poors avrebbe fatto una fortuna. Nel corso di una audizione al Congresso USA (15 settembre 1998), il finanziere George Soros dichiarò quanto segue:
«Il riorientamento dovrà iniziare riconoscendo che i mercati finanziari sono intrinsecamente instabili. Il sistema capitalista globale è fondato sulla convinzione che i mercati finanziari lasciati a sé stessi, con i loro strumenti, tendono verso l’equilibrio. Questa convinzione è falsa. I mercati finanziari sono portati verso gli eccessi e se una successione di rialzi e di ribassi si verifica al di là di un certo limite, non si tornerà mai al punto di partenza. Invece di agire come un pendolo, i mercati finanziari hanno agito, soprattutto di recente, come una palla di demolizione, colpendo un’economia dopo l’altra. Si parla molto dell’eventualità di imporre una disciplina di mercato, ma imporre la disciplina del mercato significa imporre l’instabilità e quanta instabilità può essere tollerata dalla società? La disciplina del mercato deve essere integrata con un’altra disciplina: mantenere la stabilità dei mercati deve essere il fine delle politiche pubbliche».
Sono parole che fotografano in modo impressionante gli eventi attuali e dicono che in tanti anni non si è appreso nulla. Si paventa il ritorno a ricette socialiste o keynesiane. Ma un equivoco – evidente nel dibattito seguito all’articolo di Marcello Veneziani – sta nel fatto che essere liberali non significa – al contrario! – credere che non esista un ruolo della soggettività, o che essa debba essere ridotta alla parodia della razionalità come infinita preveggenza e illimitato egoismo. Tantomeno è intrinseco al liberalismo concepire l’economia come un sistema fisico governato da leggi cieche che garantirebbero l’equilibrio. Questo gretto scientismo è estraneo a una concezione liberale in cui la centralità del soggetto fonda il primato della politica. Al contrario, scientismo e tecnocrazia uccidono il ruolo della politica e sono consoni a visioni totalitarie.
In questi giorni si levano voci da ogni parte circa i rischi che corre l’economia reale schiacciata da un’economia finanziaria che vale (oltretutto virtualmente) molto di più e detta legge alla politica economica pretendendo di rappresentare il giudizio “oggettivo” del mercato. Si parla di rischio per una democrazia e una politica sempre più deboli di fronte a tecnocrazie sempre più prepotenti e prive di legittimazione. È il momento di capire che la posta in gioco è la fine del primato delle ideologie tecnocratiche, a tutti i livelli, soprattutto a quello culturale. La politica deve avvalersi delle (autentiche) competenze, non subordinarsi passivamente ad esse. Altrimenti, la palla di demolizione continuerà nella sua opera implacabile e autodistruttiva, tra una predica e l’altra degli “esperti”. Il compito primario della politica deve essere quello di difendere a tutti i costi l’economia reale e puntare sulle forze produttive e non parassitarie, perché una società che avvilisce i soggetti effettivamente produttivi e li abbandona a processi “spontanei” (che di fatto non lo sono affatto) non riesce a suscitare le forze morali e la spinta etica che sole possono rivitalizzare la società e garantirle un futuro.

(pubblicato in versione leggermente ridotta per motivi di spazio sul Giornale, 22 agosto 2011)


Vignetta aggiunta il 29 agosto, ringraziando Alberto per la segnalazione:



sabato 13 agosto 2011

PANGLOSS RELOADED


Poco dopo la fine della Seconda Guerra Mondiale un marziano cretino atterra negli Stati Uniti e penetra nottetempo, quando non c’è nessuno, in un laboratorio dove si trova uno dei primi grandi calcolatori digitali. «Che macchina primitiva!», esclama tra sé e sé il marziano cretino. «Cosa mai potrà fare?», si chiede. Una trentina di anni dopo atterra di nuovo per curiosare e scopre che ora sono spuntati dei calcolatori molto più veloci e meno ingombranti. «Un’evoluzione interessante», commenta prendendo appunti su un avanzatissimo taccuino elettronico e riparte sul suo disco volante. Torna dopo un altro trentennio e scopre che ora macchine piccolissime, poco più grandi di un libro, fanno in pochi secondi milioni di operazioni ciascuna delle quali richiedeva giorni di lavoro ai vecchi calcolatori. «Ma queste sono macchine di grande intelligenza!» - esclama - «persino capaci di operazioni autonome e quindi di creare qualcosa… Magari di creare le prime macchine di sessant’anni fa… Ma io ho visto come sono spuntate fuori: attraverso un processo di evoluzione. Ne deduco quindi la seguente legge: “Qualsiasi intelligenza creativa abbastanza complessa da progettare qualcosa è solo il prodotto finale di un lungo processo di evoluzione graduale”».
Bene, in realtà la legge non l’ha enunciata il marziano cretino bensì il noto biologo Richard Dawkins nel suo libro “L’illusione di Dio”. Solo che mentre il povero marziano cretino aveva dedotto la legge basandosi pur sempre su osservazioni di fatti reali, Dawkins procede in altro modo. Prima enuncia la legge e poi la “dimostra” così: «Siccome si sono evolute, le intelligenze creative arrivano giocoforza tardi nell’universo e non possono quindi averlo progettato». Insomma, prima egli dà per scontato che le intelligenze si sono evolute (“siccome”), e quindi ne deduce che si sono evolute… «Forse tu non pensavi ch’ïo loico fossi!», ci par di sentire esclamare Dawkins alla maniera del diavolo di Dante, magari accompagnando la frase con qualche suono osceno, perché, come vedremo, il nostro loico scienziato ha una certa tendenza coprofila. Il diavolo Dawkins ghigna, perché con la sua legge ritiene di aver dimostrato che Dio non esiste. Difatti, Dio, in quanto intelligenza creativa complessa non può che essere il risultato di un processo di evoluzione, e quindi non può essere all’origine di alcunché, non può aver creato un fico secco. «Tu non pensavi ch’ïo loico fossi».
Forse basterebbe questo per spiegare perché un personaggio come Richard Dawkins è il mio nemico per eccellenza. Non tanto perché è ateo – legittimi fatti suoi – ma per la suprema insipienza con cui propaganda le sue tesi e per l’arroganza con cui pretende che chi non condivide i suoi “ragionamenti” (con rispetto parlando per i ragionamenti, s’intende) sia un perfetto imbecille. E soprattutto perché facendo la sua campagna in nome della razionalità scientifica  fa fare alla scienza una figura barbina.
Ma no, non basta, c’è molto altro e se qualcosa risparmieremo al nostro “nemico” è soltanto per colpa dello spazio. Intanto, presentiamo un’altra sua mirabile affermazione: «Non si può tecnicamente [sic] dimostrare che Dio non esiste, ma Dio è molto ma molto improbabile». Bella forza! Che Dio, l’Ente supremo, il Creatore di tutto, l’Unico assoluto sia un evento molto ma molto improbabile è un’affermazione degna di un incrocio tra M. de La Palice e Pangloss. Il credente non può che essere d’accordo con Dawkins: Dio è l’evento improbabile per eccellenza. Ci mancherebbe soltanto che la sua probabilità fosse piccola ma apprezzabile: rischieremmo di trovarci in pieno politeismo… Ci si chiederà perché diamine Dawkins si sia dato una simile zappa sui piedi invece di dire tout court che Dio non esiste. Ebbene, il fatto è che lui ha ripercorso la solita via crucis dell’ateo ignorante: dimostrare, una ad una, che tutte le dimostrazioni dell’esistenza di Dio hanno un baco (non sapendo che a questo aveva già provveduto Kant) per poi ammettere che non è possibile dimostrare neppure il contrario (anche a questo aveva provveduto Kant). Per cui, non riuscendo a risolvere la cosa per via “tecnica” (che è il modo con cui lui dice “metafisica”), cerca la dimostrazione per via “scientifica”, con il calcolo delle probabilità. Ma attenti, perché Dawkins è un gran furbo e prova a parare il colpo del credente, e cioè l’argomento secondo cui il sorgere della vita è un evento talmente improbabile che può essere spiegato soltanto come effetto dell’atto creativo divino. Niente affatto, osserva il nostro furbacchione: anche ammettendo che il sorgere della vita abbia la probabilità di formarsi soltanto in un pianeta su un miliardo, siccome i probabili pianeti dell’universo sono un miliardo di miliardi, «la vita sarebbe sorta su un miliardo di pianeti»… Vi stupite? – proclama Dawkins – e allora ribadisco: «se le probabilità che la vita si originasse spontaneamente su un pianeta fossero una su un miliardo, questo evento molto, molto improbabile si verificherebbe in ogni caso su un miliardo di pianeti». Avete letto bene: “in ogni caso”… L’illustre scienziato ricava da una probabilità una certezza: un miliardo di pianeti con la vita. Tanto per capirsi, lui è uno di quelli che crede che giocando al lotto lo stesso numero novanta volte, uscirà certamente. E, come non bastasse, si assesta un altro micidiale colpo di zappa sui piedi: «Dio è molto improbabile nello stesso senso statistico in cui sono improbabili le entità che egli dovrebbe in teoria spiegare». E quindi Dio esiste certamente… magari un miliardo di volte…
Il fatto è che Dawkins, da buon incrocio tra M. de La Palice e Pangloss – quel precettore di Candide, secondo cui tutto ciò che esiste ha ragione di esistere, e così i nasi servono ad appoggiare gli occhiali e infatti possediamo gli occhiali – fonda tutte le sue spiegazioni sul “principio antropico”. Questo principio può essere enunciato dicendo che la realtà fisica è proprio quella che osserviamo, fra tutti gli universi possibili, perché non può che essere così; difatti, se non fosse così, noi esseri viventi non saremmo nati e non saremmo qui a osservarla. Dawkins si stupisce che il principio antropico piaccia a certi credenti. Nossignori, egli sentenzia. Progetto divino e principio antropico sono antitetici perché il secondo «fornisce una spiegazione razionale e non teleologica del fatto che ci troviamo in situazione propizia alla nostra esistenza». Bella spiegazione razionale dire che le cose stanno così, se no sarebbero diverse e non saremmo qui a osservarle. E quanto sia una spiegazione razionale, scientifica, lo ha spiegato lui stesso poche pagine prima. Ma se n’è subito dimenticato… Elencava quelle da lui considerate come le più esilaranti e sciocche prove dell’esistenza di Dio, e tra queste la seguente: «Se le cose fossero state diverse, le cose sarebbero diverse. E sarebbe un male. Dunque Dio esiste». “Male” a parte, questo è nient’altro che il nucleo del principio antropico. E non è scienza, oltre a essere una vuotaggine incapace di dimostrare alcunché.
Un altro capolavoro di Dawkins è l’affermazione che «la religione è sprecona e dissipatrice» (perché mai lo sarebbe non si degna di spiegarlo), mentre la natura è economa, «una ragioniera taccagna che lesina sui centesimi, conta i minuti, punisce il minimo dispendio superfluo». Il poveretto non sa che già nel Settecento si tentò di reintrodurre il finalismo in fisica dimostrando che le leggi della fisica derivano da un principio di economia della natura. Ironia della sorte: lo scopo dichiarato era quello di svelare l’esistenza di un principio divino regolatore. Non funzionava, perché si constatava che spesso la natura è una dissipatrice sprecona che obbedisce piuttosto a principi di “massima spesa”. Tanto che già Leibniz – che aveva un po’ più di sale in zucca di Dawkins – disse che era meglio parlare di un principio di “semplicità” piuttosto che di economia. Ma Dawkins ignora questo lontano dibattito, e ripropone una trovata, quella della natura economa, archiviata da almeno due secoli.
E qui, ponendo fine agli esempi di baggianate, vengono due dei motivi per cui trovo Dawkins un personaggio deplorevole, la quintessenza di tutto ciò che è necessario avversare. Il primo motivo è che Dawkins è di un’ignoranza pari soltanto alla supponenza. Le sue bibliografie sono lo specchio fedele di questa ignoranza: egli straparla della scienza e della sua storia, ma tutto è per sentito dire, per lo più raccattato entro libri da bancarella. Il secondo motivo è che il suo fanatico empirismo è tipico di chi non sa dove stia di casa la scienza. Come spiegava Alexandre Koyré, gli empiristi non hanno mai capito un acca di cosa sia la scienza e Henri Poincaré ammoniva che la scienza non è una collezione di fatti più di quanto una casa non sia un ammasso di pietre. Proprio per questo gli empiristi sono i peggiori metafisici, i più dogmatici di tutti. L’aggravante è che esiste una metafisica empirista dignitosa. Quella di Dawkins è roba da tabloid.
Sentite come Dawkins fronteggia l’ingombrante circostanza che i regimi più criminali della storia, i totalitarismi del ventesimo secolo, nazismo e comunismo, erano dichiaratamente atei. Lui se la cava brillantemente così. Quanto a Hitler, cita la suprema autorità di un libro di John Toland il cui titolo basterebbe a qualsiasi persona sensata per evitarlo: “Adolf Hitler: The Definitive Biography”. Secondo l’autore della biografia “definitiva” – non ridete – «Hitler rimase sempre un rispettato membro della Chiesa di Roma»… e quindi «poteva perpetrare lo sterminio senza rimorsi di coscienza poiché agiva come mano vendicatrice di Dio, purché avvenisse in maniera impersonale, e senza crudeltà». Come del resto avvenne a Auschwitz, in maniera impersonale e senza crudeltà… E così la questione nazismo è archiviata nella casella della religione. Quanto a Stalin, beh, in effetti era indiscutibilmente ateo, tocca ammetterlo, ma «niente fa pensare che l’ateismo fosse all’origine della sua brutalità». Niente, neppure le sue campagne ateistiche e le sue persecuzioni antireligiose. La conclusione è apodittica, da buon empirista: «Gli atei non commettono mai i loro delitti in nome dell’ateismo». E zitti tutti. Non provatevi a chiedere se l’ateismo sia all’origine della straordinaria violenza verbale di Dawkins, del suo disprezzo virulento per la religione e per i religiosi, del suo additare i credenti come il male da cancellare dalla faccia della terra. Questa obbiezione gliela hanno fatta e lui ha risposto. Dicendo che la sua violenza è soltanto verbale e quindi non fa male a una mosca: tutti sanno che le parole sono sempre innocue. Quantomeno quelle degli atei, e soprattutto quelle di Dawkins. Tanto è vero che egli ci garantisce che mai e poi mai decapiterebbe o lapiderebbe un religioso… “Quanto è buono lei!” – avrebbe commentato Fantozzi. Le parole dei religiosi, invece no. Quelle sono pericolose, pericolosissime. Sono all’origine di tutti i mali del mondo, di tutte le peggiori violenze. E, si badi bene, anche i religiosi moderati non si salvano, sono altrettanto pericolosi dei religiosi estremisti. Ne volete una prova? Basta pensare, osserva il nostro, agli attentati di Londra del 2005, compiuti da «cittadini britannici beneducati e amanti del cricket». Quelli erano dei religiosi “moderati”, affetti da islamismo moderato, islamismo al cricket…
Dicevo che Dawkins è anche molto volgare. Prendete ad esempio la sua confutazione del classico argomento secondo cui, essendovi gradi di perfezione, deve esistere un essere perfettissimo, ovvero Dio. “Che argomento è?”, protesta Dawkins. Con lo stesso criterio potremmo dedurre che, siccome le persone puzzano più o meno, si può «far riferimento a un grado perfettissimo di possibile fetore. Quindi deve esistere un puzzone impareggiabile e superlativo, e questo puzzone noi lo chiamiamo Dio». In verità, ho trovato questo brano illuminante perché permette di inviduare l’origine della teoria cosmopetologica di Margherita Hack, secondo cui il Big Bang è stato niente altro che un’immensa scorreggia, teoria che ho già analizzato su queste pagine (7 aprile 2011). Tuttavia, soltanto la sua coprofilia può far apparire questa volgarità più volgare di tutte le denigrazioni della Bibbia, delle palate di letame rovesciate su tanti episodi – come quello del sacrificio di Abramo – che rivelano soltanto un’abissale insensibilità e ignoranza. Come è volgare il tentativo di dimostrare che non vi sono mai stati scienziati e pensatori di rilievo che fossero religiosi. Per qualificare come atei un buon numero di scienziati il trucco è il solito: affermare che il panteismo è ateismo. È ben vero che gli accusatori di Spinoza lo proclamarono ateo: ma, per l’appunto, erano fanatici integralisti… Anche Descartes fu accusato di ateismo e ci vorrebbe una bella faccia di bronzo per presentarlo come un ateo. Ma anche di fronte a Newton, Dawkins non si arrende: lui era religioso, e credeva in un Dio personale, ma soltanto per non incorrere in conseguenze giudiziarie. Insomma, le cose stanno così: uno scienziato se non è ateo è cretino, oppure è in malafede, o ancora è terrorizzato o ricattato da qualcuno.
Come ultima pennellata al ritratto andrebbe menzionato l’antisemitismo di Dawkins. Si badi bene, non è ostilità per Israele o antisionismo, ma esplicito antisemitismo. Quale altro sentimento ispira una frase come la seguente? «Pensate a quanto sia stata di successo la lobby ebraica, sebbene di fatto gli ebrei siano meno numerosi, mi dicono, degli atei, e ciononostante essi monopolizzano la politica estera americana, come chiunque può constatare. Per cui, se gli atei riusciranno ad acquisire una piccola frazione di questa influenza il mondo sarà un posto migliore».
Si potrebbe chiedere se vale la pena avere un nemico simile invece di riservargli un dantesco «non ti curar di lui ma guarda e passa». La risposta sarebbe affermativa se il “rottweiler di Darwin” non fosse sventolato da tanti come la bandiera della scienza e della razionalità scientifica, del progresso, della tolleranza e della libertà di pensiero, mentre è la quintessenza del contrario di tutte queste cose. Dawkins è l’emblema lodato ed esaltato della scienza-ideologia, della scienza-ateismo, della scienza-ignoranza, della scienza come lanciafiamme per fare terra bruciata di qualsiasi forma di cultura e di pensiero “diverso” dal più rozzo empirismo, della scienza come negazione della scienza come l’abbiamo conosciuta da qualche secolo a questa parte. Rispondere alla crociata di Dawkins con una guerra simmetrica contro i suoi seguaci, assolutamente no. Smascherare la miseria di questo pericoloso falso profeta, è utile e necessario.
(Il Foglio, 12 agosto 2011)

venerdì 12 agosto 2011

Senti chi parla...


«Molti nemici, molto onore». Memore di questa massima Piergiorgio Odifreddi, nel suo libro "Perché Dio non esiste", rovescia epiteti su mezzo mondo. Anch'io sono gratificato di questa definizione.
«E’ un virulento, un intellettuale di nicchia, una testa calda. In più esercita il vittimismo dell’ebreo» (pag. 79).
Ha parlato la testa dell'odio freddo… E, sempre in coerenza con «molti nemici, molto onore», ha recitato la lezioncina appresa nel testo che tiene sul comodino: "La Difesa della Razza". Sia detto col tipico vittimismo dell'ebreo.

domenica 7 agosto 2011

UNA CULTURA ILLIBERALE CHE L'ITALIA HA DECISO DI IMPORTARE

C’era una volta l’America innamorata della cultura umanistica, l’America delle università in cui il centro della cultura erano i classici – Omero, Platone, Aristotele, Virgilio, Dante, Shakespeare, Cervantes, Tolstoi, Dostoevskij – la scienza e la filosofia europee. Era un innamoramento tanto più devoto in quanto, con questa cultura e imitando i grandi modelli europei, le università americane, da centri didattici di modesto livello, erano divenute istituzioni di prestigio. Di fatto, fu una vera e propria colonizzazione europea che raggiunse il culmine quando il nazifascismo provocò il trasferimento negli USA di decine di migliaia di intellettuali e scienziati. Questa passione per la cultura umanistica aveva però anche qualcosa di artificioso, anche perché l’impianto avveniva su un terreno non vergine, segnato da una tendenza al pragmatismo, all’empirismo, alla fiducia nella gestione tecnocratica della società estranee alla tradizione europea.
La supremazia dell’insegnamento umanistico durò ottant’anni ma, a partire dalla fine degli anni sessanta, iniziò a crollare. Una delle cause fu una seconda colonizzazione europea. I nuovi riferimenti erano Theodor Adorno, Michel Foucault, Jacques Derrida (tanto per citarne alcuni) e l’idea secondo cui, ispirandosi a Marx, Freud e Nietzsche, occorreva trasferire l’attenzione dai soggetti umani ai sistemi di pensiero e di azione che ne trascendono i poteri. Questo pensiero “postmoderno” era tendenzialmente antiumanista, perché identificava come matrice del razzismo, del colonialismo e dei totalitarismi l’“essenzialismo” del pensiero europeo, la tendenza a porre al centro la “sovranità del soggetto”, l’idea cartesiana che centro di tutto è il pensiero soggettivo, la quale era stata eretta a programma di conoscenza e di costruzione sociale dall’Illuminismo. L’entusiasmo con cui la cultura americana si fece colonizzare dal pensiero postmoderno europeo fu tanto forte da spazzare via rapidamente la cultura umanistica nell’istruzione. Decisivo fu l’influsso politico della contestazione di sinistra. «From Plato to Nato» (“da Platone alla Nato”), si gridava nei campus americani, imputando alla cultura classica addirittura la colpa di aver generato l’imperialismo. L’esplosione avvenne anche in Europa ma rimase per lo più al livello accademico influenzando poco la struttura dell’istruzione. Invece, negli USA la tradizione tecnocratica impose il passaggio al postmodernismo con metodicità esasperante. La parabola della Columbia University è un paradigma di questo passaggio: da centro mondiale degli studi umanistici a madrassa del multiculturalismo e terzomondismo più sfrenato, degli studi di “genere”, della cultura ripartita per quote etniche, fino all’odio di sé (dell’occidente). È una cultura che non ha più nulla in comune con l’umanesimo, e neppure con il liberalismo, come appare dalla metodicità asfissiante con cui predica la pulizia politicamente corretta del linguaggio (alla maniera del fascismo degli anni trenta) e impone la salute in modo coercitivo (contro l’idea di Stuart Mill del soggetto come unico custode della propria salute fisica e mentale).
Può sembrare strano che questa cultura si sia alleata con la tecnocrazia e la tecnoscienza. Invece quest’alleanza è decisiva. Si pensi all’estrema coerenza con cui Donna Haraway predica che per ottenere l’assoluta parità uomo-donna occorre distruggere la procreazione naturale e costruire una società cyborg. Trionfo della tecnocrazia e della metodologia, che consegna l’istruzione ai “tecnici”: pedagogisti, psicologi, manager, valutatori.
L’Europa esausta per il mai riparato salasso culturale provocato dai totalitarismi e impoverita dal nichilismo, ha assorbito passivamente la restituzione con gli interessi di ciò che aveva dato all’America. Ma qui in Europa il postmodernismo tecnocratico viene imposto con i metodi tristemente burocratici di un’eurocrazia che mette al primo posto l’economia e all’ultimo la cultura. L’Italia arriva come al solito per ultima, frettolosa di adeguarsi a processi che sarebbero la “modernità”. Pochi si curano di guardare in modo critico e attento oltreoceano e di constatare che non c’è più un modello da seguire, ma solo una grave crisi tanto più drammatica perché coinvolge un paese che è il principale baluardo contro la barbarie integralista. In questa crisi si contrappongono (in modo politicamente trasversale) i fautori del ritorno alla cultura e all’istruzione umanistica, gli economicisti estremi per cui l’istruzione è un orpello improduttivo, e i “progressisti” decisi a procedere sulla via antiumanistica. In Italia questa crisi e queste contraddizioni sono ignorate e la politica si orienta in modo trasversale verso l’ultimo approccio, quello che consegna l’istruzione ai tecnocrati, ai teorici della distruzione della cultura umanistica e della scienza come cultura, ai metodologi puri, alla dittatura degli “esperti”: è una tendenza intimamente totalitaria e che rappresenta l’ulteriore prova dell’assenza di un’autentica cultura liberale nel nostro paese. 
(Il Giornale, 3 agosto 2011)

sabato 6 agosto 2011

La "test-mania" anche in medicina


«Che tipo di dottore può essere uno che non sa ascoltare gli ammalati e non gli sa parlare? Il tempo in cui i medici si tenevano la diagnosi per sé (“lei faccia l’ammalato, il medico lo faccio io”) è passato». Così scrive Giuseppe Remuzzi sul Corriere della Sera. Alla domanda non si può che rispondere: un pessimo medico. Ma che il tempo in cui i medici non sapevano dialogare col malato sia passato è forse un’illusione. Non è certo un’idea nuova che la medicina è più di una scienza oggettiva del corpo umano, è un’arte che, avvalendosi di conoscenze scientifiche, si confronta con le persone: «è innanzitutto perché gli uomini si sentono malati che esiste una medicina», osservava Georges Canguilhem. Nel mio libro Per una medicina umanistica, ho tentato di spiegare – dal punto di vista della storia della scienza – le origini dello smarrimento di questa dimensione della medicina, che va di pari passo con il declino della clinica. Esse risiedono nella nascita della medicina “scientifica”, che valuta lo stato del corpo umano mediante parametri quantitativi. È un enorme progresso che porta con sé il rischio che il medico osservi il dossier dei risultati analitici senza alzare lo sguardo sul malato. Nelle presentazioni del libro ho constatato come negli ambienti medici si stia sviluppando una crescente preoccupazione per questo andazzo che considera il malato come un “corpo” e non come una persona. Ma il fatto è che questa nuova sensibilità contrasta una tendenza che rafforza la spersonalizzazione della medicina, con l’intervento di metodi analitici sempre più sofisticati, microscopici e spesso anche a distanza. All’anamnesi che non mira soltanto a ricostruire il passato del paziente ma a stabilire un dialogo con lui, a “conoscerlo” e “conoscersi” come persone, si sostituisce lo screening genetico e alla “visita” il complesso dei test analitici. Quindi la situazione è molto difficile.
Sempre Remuzzi informa che negli Stati Uniti hanno deciso di bloccare quegli studenti di medicina che fanno bene gli esami ma non sanno comunicare con i pazienti. Benissimo. Ci si immagina allora che i giovani vengano educati di più alla pratica clinica, a tutte quelle procedure caratteristiche della medicina intesa come “arte”, poiché l’idea di una medicina umanistica non è certamente una scoperta, casomai è la scoperta dell’ombrello. Niente di tutto questo. L’idea è di selezionare i futuri buoni medici mediante test attitudinali… Il che è quanto curare la malattia con la malattia stessa. Quel che non va è che i medici non sanno più avere un rapporto umano, che valutano il malato in modo meccanico, con test analitici e basta, che la clinica deperisce. E allora che facciamo? Rafforziamo le capacità cliniche con un addestramento sul campo sotto la guida di medici esperti e capaci che trasmettano l’arte del rapporto medico-paziente? Figurarsi. Selezioniamo i capaci con dei test, magari a cura di specialisti di questi test, psicologi o sociologi. È evidente che ormai l’idea che tutto debba essere reso scientifico, oggettivo è talmente pervasiva che si arriva persino al supremo paradosso che per ripristinare una capacità di rapporto interpersonale lo si debba fare con metodi impersonali e (che si pretende) scientifici. Sarebbe da ridere se non fosse da piangere. Sappiamo anche che il mito dell’oggettività, della misurazione di tutto, della gestione manageriale “scientifica” è un’ossessione tipica della cultura americana. Tutto il rispetto dovuto a tale cultura non è un buon motivo per prendere a esempio e modello un’idea tanto balzana.
(Tempi, 3 agosto 2011)