La politica della ricerca: le prospettive per l’area giuridica

Sommario:

  1. Confronti internazionali
  2. Dati e interpretazioni
  3. La valutazione della ricerca: requisiti fondamentali
  4. Il contributo del CEPR alla determinazione degli indicatori di produttività scientifica
  5. Una scelta di fondo: la valorizzazione del merito
  6. L’area giuridica: progressi, problemi
  7. L’equilibrio tra i criteri generali e le peculiarità dell’area giuridica
  8. Le prospettive. Il ruolo delle associazioni di studiosi

Relazione all’incontro di studio organizzato dalla SPISA sulla “Valutazione della ricerca nelle scienze giuridiche”, Bologna, 22 ottobre 2010. Le osservazioni espresse sono strettamente personali e non impegnano in alcun modo il CEPR – Comitato di esperti per le politiche della ricerca

1. Confronti internazionali
Le valutazioni critiche circa lo stato della ricerca in Italia si sono dispiegate con frequenza, soprattutto dal Duemila. Oggi più che in passato, quelle valutazioni prendono spunto dai confronti internazionali [1]. Da quei confronti emerge che, se il nostro sistema è stato esposto più o meno alle medesime sollecitazioni che si riscontrano altrove, ha reagito con modi che hanno accentuato i non pochi punti di debolezza, senza dare maggior nerbo ai punti di forza, che pure esistono, per esempio nel campo della fisica e dell’archeologia. Da diversi anni, le statistiche indicano con chiarezza che poche università italiane occupano posizioni di prestigio tra le research universities [2].
I dati sui quali quei confronti si basano possono essere, ovviamente, valutati in modo diverso. Chi confida nelle risultanze di tipo statistico sosterrà che l’unico modo per “salvare la scienza italiana” [3] consista nel rettificare gli indirizzi seguiti nelle politiche di bilancio dell’ultimo decennio. Chi, invece, è convinto dell’intrinseca fondatezza dell’adagio inglese “lies, damn lies, and then statistics“, affermerà che quelle risultanze statistiche sono tutte da interpretare.
Tra queste posizioni estreme, vi è spazio per una varietà di posizioni intermedie. Si può sostenere, segnatamente, che le statistiche disponibili in ambito internazionale colgano quanto meno variazioni relative, sotto il profilo diacronico, nella posizione di ciascun Paese; che la diversità degli atenei e degli enti di ricerca costituisca non semplicemente un dato di fatto, ma un asset, da preservare, senza che ciò sia d’impedimento alla realizzazione di confronti, sulla base di adeguati benchmarks. Proverò a sviluppare questa linea di ragionamento, distinguendo i dati dalle interpretazioni, per poi dare conto degli orientamenti ai quali si è attenuto il CEPR nel presentare al Ministro dell’università e della ricerca scientifica un parere sulla valutazione della produttività scientifica, e infine di alcune implicazioni che ne derivano per gli studiosi e le associazioni delle quali essi fanno parte.

2. Dati e interpretazioni
I dati da cui muovere sono noti. Quanto al rapporto tra la spesa pubblica per l’istruzione e la formazione e il prodotto interno lordo l’Italia si colloca al trentesimo posto tra i trentatré presi in considerazione dall’OCSE [4]. Considerando, invece, la spesa per la ricerca e sviluppo in rapporto al prodotto interno lordo, raggiungiamo una posizione migliore (la ventitreesima), mentre è ben peggiore quella all’interno del Global Competitivenees Index redatto annualmente dal World Economic Forum [5].
Ne trae spunto la prima ipotesi, tanto banale quanto doverosa, cioè che, se non tutto funziona a meraviglia nel complesso mondo della ricerca (che nello specifico contesto italiano è contrassegnato da un rilievo delle università maggiore rispetto ai maggiori Paesi dell’Europa unita), ciò dipende anzitutto dall’inadeguatezza delle risorse. La linea di condotta che discende da questa analisi è semplice: affinché il nostro Paese possa mettersi al passo dei partners europei, per poi cercare di recuperare il tempo perduto, deve investire di più nella ricerca [6].
Si tratta d’una ipotesi suggestiva. Essa sconta, però, un duplice difetto: la sopravvalutazione del dato finanziario, che ha un indubbio rilievo ma certamente non è l’unico ad averne, e la sottovalutazione della performance. Nel vagliare la spesa pubblica per l’istruzione superiore e la ricerca, infatti, la Commissione tecnica per la finanza pubblica ha riscontrato la “sostanziale assenza di qualsiasi meccanismo che premi gli atenei meglio in grado di rispondere alle domande delle famiglie e delle imprese” [7].

L’ipotesi alternativa che queste critiche suggeriscono è la seguente: si può, si deve, investire di più nella ricerca; tuttavia, senza una profonda revisione dei metodi di gestione, con controlli né occhiuti né soltanto formali, è impossibile, che i maggiori investimenti richiesti diano i risultati attesi. Questa ipotesi è forse suscettibile di essere accolta dagli economisti e dagli studiosi di altre scienze sociali. Essa presenta, ad ogni modo, maggiore interesse dell’altra nella prospettiva più propriamente giuridica. Mette in primo piano la necessità di adeguare le forme di azione dei poteri pubblici in vista della cura di un interesse costituzionalmente rilevante, quale è la ricerca scientifica (articolo 9, primo comma, della Costituzione), anche dall’angolo visuale della giustificazione delle somme di denaro sottratte coattivamente – mediante il prelievo – ai consumi e agli investimenti privati. Configura nella prospettiva scientificamente più convincente i controlli sui risultati, come richiesto dall’articolo 100 della Costituzione.

3. La valutazione della ricerca: requisiti fondamentali
Tra quanti – nelle sedi istituzionali e in quelle scientifiche – si occupano della valutazione della ricerca, riscuote crescenti consensi la tesi che essa debba ispirarsi a due fondamentali requisiti. Il primo è l’indipendenza di quanti sono – a vario titolo – impegnati nella ricerca e nella sua valutazione, in ragione dei compiti a cui essi sono chiamati: per questo motivo, in virtù dell’articolo 33 della Costituzione, “l’arte e la scienza sono libere”. Occorre altresì – ecco il secondo requisito – che la valutazione accerti e valorizzi il merito [8].
Vi è almeno un’altra considerazione da cui muovere: la necessità di una proiezione internazionale. Il variegato mondo della scienza non ha mai interrotto i suoi legami internazionali. Essi sono continuati finanche nelle fasi più cupe dell’autarchia. Si sono ulteriormente sviluppati nella seconda metà del Novecento, in buona parte corrispondendo all’ancoraggio del Paese all’area delle democrazie liberali dell’Occidente. Ovviamente, la direzione, la tipologia e l’intensità delle relazioni internazionali variano a seconda delle comunità scientifiche e al loro interno, in rapporto a una serie di fattori, tra i quali vi sono il grado di apertura nei confronti dell’uso delle principali lingue del mondo e, soprattutto, il grado di adesione ai criteri e alle procedure consolidati in ambito internazionale.
Sulla rilevanza di quei criteri e di quelle procedure, peraltro, nel nostro Paese non vi è pieno consenso. Vi è dissenso, in particolare, per quanto concerne la loro applicabilità alle varie aree scientifiche. Mostrano consapevolezza del problema sia i documenti prodotti dal Consiglio nazionale delle ricerche e da altre istituzioni, ai quali la SPISA ha opportunamente assicurato un’ulteriore pubblicità, sia il parere formulato dal CEPR sugli indicatori di produttività scientifica, le cui linee essenziali sono illustrate di seguito.

4. Il contributo del CEPR alla determinazione degli indicatori di produttività scientifica
Ai fini che qui interessano, tre aspetti del parere presentano maggiormente rilievo: l’attenzione per il reclutamento degli studiosi; il modo di concepire il merito e di valorizzarlo; l’equilibrio tra la generalità dei criteri direttivi e la specificità di ciascuna area scientifica, segnatamente di quella giuridica.
Giova chiarire subito, per fugare possibili equivoci, che il documento del CEPR si disinteressa delle procedure di reclutamento nelle università, la cui riforma è in discussione nelle aule parlamentari. Ma ciò non impedisce che l’elaborazione di criteri e metodologie per la valutazione della produttività scientifica produca precise conseguenze ai fini del reclutamento nelle università e negli altri enti di ricerca. Quei criteri, quelle metodologie possono utilmente integrare le norme oggi vigenti e quelle in corso di discussione in sede parlamentare. Potrebbero, segnatamente, costituire un correttivo nel caso in cui il Parlamento si risolvesse a sostituire – come da più parti e per molte buone ragioni viene auspicato – le procedure di valutazione comparativa in sede locale con l’esame di abilitazione a livello nazionale, specialmente nel caso in cui questo ultime abbia come esito una “lista aperta”.
Un’evenienza di questo tipo è probabile, pur se tutt’altro che auspicabile. Negli ambienti accademici di altri Paesi, vi sono forse sufficienti anticorpi per resistere alla tentazione di cogliere l’opportunità per attribuire l’idoneità anche a quanti non sarebbero in grado di superare un’equa valutazione comparativa. Nel nostro, le vicende recenti inducono a temere che manchi una sufficiente propensione a resistere alle spinte degli insiders [9], con il rischio tutt’altro che teorico che si diradino ulteriormente le chances per gli studiosi più giovani e meritevoli.

5. Una scelta di fondo: la valorizzazione del merito
Quanto al rilievo da attribuire al merito, vi è varietà di opinioni. Chi ritiene che il progresso della ricerca si configuri come amalgama tra le diverse “scuole” o cerchie di studiosi, può ritenere che il candidato a una determinata utilità riservata (idoneità, chiamata) debba essere valutato – per usare le parole di un giurista con ampia esperienza di commissioni di concorso – non solo “iure proprio”, ma anche “iure magistri”. Chi ritiene che, nell’impostare un raffronto tra curricula per l’attribuzione d’una idoneità o la decisione su un trasferimento, non si possa prescindere dall’anzianità accademica, chiederà a gran voce che questa sia rispettata, anche a scapito del merito. Queste opinioni riscuotono tuttora significative adesioni. Ma sono, quanto meno, discutibili: l’una perché ispirata a una sorta di concezione feudale dell’accademia, da ancien régime; l’altra perché attribuisce soverchio rilievo a un fattore poco rilevante in sé, e oltre tutto tale da incentivare il conformismo, ossia la fedeltà a Platone, anziché alla ricerca della verità; entrambe perché vanno a detrimento del contributo che il talento e la sua efficace, metodica applicazione sono in grado di dare all’evoluzione della scienza [10].

Detto ciò, bisogna subito aggiungere che le modalità con le quali il merito si manifesta ed è valutato variano in relazione a una serie di fattori. Nel novero di quei fattori, non vi è soltanto il diverso rilievo che le ricerche individuali e collettive assumono nelle varie branche del sapere: vi è anche il diverso peso da attribuire agli aspetti quantitativi e qualitativi. Un sociologo della cultura potrebbe forse osservare che, oltre una certa soglia, anche gli elementi di tipo quantitativo assurgono al rango di elementi di tipo qualitativo. Così formulata, l’osservazione sarebbe corretta, ma non coglierebbe il punto essenziale: l’importanza che un singolo contributo è in grado di assumere ai fini dell’evoluzione dello stato delle conoscenze e delle metodologie disponibili in un dato momento storico. Ciò non vale soltanto per i lavori pubblicati su “Science” o “Nature”: nella scienza economica, gli scritti di Piero Sraffa sono forse esigui nel numero, ma sono stati e restano una fonte di ispirazione; in quella giuridica, molti, tra gli “scritti minori” di Santi Romano, hanno aperto nuove prospettive e offrono tuttora spunti di riflessione. Se la valutazione della produttività scientifica annettesse soverchio rilievo al numero delle pubblicazioni o dei brevetti, anziché al loro intrinseco valore e alle potenziali ricadute, finirebbe non soltanto per privilegiare l’anzianità, ma anche per favorire di fatto una concezione “burocratica” della ricerca, per cui soltanto al raggiungimento di un certo output (per esempio, una monografia e/o dieci articoli) si avrebbe titolo ad aspirare a un determinato posto, a prescindere dall’apporto che può derivarne per il progresso della scienza.
Per queste ragioni, l’impostazione prospettata dal CEPR si ispira a una diversa concezione della produttività scientifica. Essa non prescinde, beninteso, dagli aspetti di tipo quantitativo. Tiene conto, infatti, del numero delle pubblicazioni o dei brevetti. Tuttavia, inserisce questi dati di tipo quantitativo in una cornice di criteri che attribuiscono preminente rilievo ai dati di tipo qualitativo. Nel novero di quei criteri, vi sono, per le pubblicazioni, l’originalità dei lavori e il prestigio della sede nella quale sono pubblicati; per i brevetti, la rilevanza delle ricadute; per entrambi, il carattere innovativo rispetto allo stato attuale delle conoscenze e delle applicazioni. L’idea di fondo è che un giovane fisico o economista che abbia dimostrato di essere in grado di far conseguire progressi decisivi e rapidi alla ricerca e alle applicazioni pratiche che ne scaturiscono debba poter essere preferito a quanti abbiano titoli inferiori sotto il profilo qualitativo. Se, poi, a quel giovane debba essere corrisposto un salario più elevato rispetto a più anziani, e meno produttivi, colleghi, è questione diversa, pur se di notevole interesse, che va oltre i limiti di queste note. Va dato conto, piuttosto, di un’ulteriore scelta suggerita dal CEPR. Essa concerne la ricerca di un punto di equilibrio tra la generalità dei criteri direttivi e le specificità delle varie aree alle quali fa riferimento il documento sottoposto al Ministro.

6. L’area giuridica: progressi, problemi
Giova osservare – a mo’ di premessa – che l’area giuridica è una di quelle per le quali l’applicazione degli indicatori di produttività scientifica richiede maggiormente un accorto dosaggio tra i criteri generali riguardanti tutti i campi del sapere scientifico e quegli aspetti tradizionali, tuttora prevalenti, che meglio di altri sono suscettibili di essere conciliati con i nuovi, di essere rinnovati in modo graduale e nel rispetto delle specificità proprie di quest’area.
I giuristi italiani sono consapevoli di appartenere a una tradizione scientifica ultramillenaria, di alto livello, la quale affonda le sue radici nel diritto romano, nella rielaborazione che ne è stata data nell’epoca medievale. È insita in quelle radici, nella consapevole rielaborazione che ne è stata effettuata nei secoli più vicini a noi, sia la tendenza a ricomprendere gli oggetti di studio in categorie ampie, sia la propensione a confrontarsi con gli apporti che, relativamente a quelle categorie, sono effettuati in altri Paesi, soprattutto in quelli dell’Europa continentale.
Quella giuridica è quindi, comprensibilmente, una cultura che stenta a prendere atto dell’importanza che in altre tradizioni, in altre esperienze giuridiche, segnatamente in quelle anglosassoni, hanno già acquisito gli indicatori di produttività scientifica. Esse hanno già da gran tempo preso atto che la scienza giuridica, mentre non può privarsi di strumenti insostituibili per l’accumulazione del sapere (come le monografie, tutt’altro che sconosciute anche in quelle tradizioni giuridiche) e per il mantenimento d’uno stretto raccordo con la pratica (si pensi alle note a sentenza, che, d’altronde, non mancano neppure nelle principali riviste in lingua inglese), deve acquisire dimestichezza nell’uso – non acritico – di una serie di strumenti: la peer-review (pur se non mancano eccezioni, in alcune riviste nordamericane), il ranking delle riviste e delle collane editoriali. Anche nella cultura giuridica italiana, del resto, non mancano segnali incoraggianti in tal senso: in alcune riviste si fa stabilmente ricorso a referees esterni, mentre molto resta da fare per le collane di monografie, specialmente per quelle pubblicate con finanziamenti pubblici.
Non è forse inopportuno sottolineare la natura “esterna” della valutazione rispetto ai prodotti presi in considerazione. Ciò spiega il rilievo attribuito, per quanto concerne le riviste e le collane editoriali, a elementi quali l’esistenza di un collegio di studiosi che assuma la responsabilità d’una determinata scelta; l’adozione di procedure eque e trasparenti ai fini dell’esame dei lavori ricevuti; l’intervento di referees esterni. Non costituisce un indebito détour, rispetto alla linea di ragionamento fin qui seguita, l’indugiare rapidamente su un altro aspetto in cui si manifesta la natura “esterna” della valutazione. In presenza d’una varietà di metodi o paradigmi aventi dignità scientifica, una varietà di questioni si pongono e si risolvono in modo significativamente diverso a seconda che l’analisi si inscriva nell’uno o nell’altro paradigma. Con una duplice conseguenza: che il singolo ricercatore deve essere consapevole di riferirsi all’uno, piuttosto che all’altro, e deve enunciarlo con chiarezza (secondo l’insegnamento di Riccardo Orestano, <<qualunque punto di vista si voglia adottare, occorre avere piena cognizione delle sue implicazioni>>)[11]; che quanti sono chiamati a valutarne l’apporto debbano accettare la pluralità dei punti di vista analitici e di metodo, sia pure con una certa dose di cautela verso l’eclettismo, e quindi verifichino ragionevolmente la chiarezza delle scelte e la congruità delle metodologie applicate, non l’adesione agli indirizzi che riscuotono maggiori consensi e il numero delle citazioni.

7. L’equilibrio tra i criteri generali e le peculiarità dell’area giuridica
Le linee di sviluppo prospettate dal CEPR tengono conto della specificità delle scienze sociali, in particolare del diritto. Non avallano una indiscriminata applicazione degli indicatori di produttività, ma neppure prefigurano una netta scansione, al limite una separazione, tra le varie aree. Attribuiscono minor rilievo agli standard che fanno riferimento al trasferimento tecnologico, pur se non lo si deve escludere del tutto (si pensi all’applicazione di nuove tecniche di azione alle istituzioni private o pubbliche) e alla capacità di attrarre ricercatori dall’estero (per via degli ostacoli linguistici). Sconsigliano l’applicazione indiscriminata di indicatori bibliometrici, come il fattore di impatto [12]. Pongono in risalto, piuttosto, la necessità di adottare procedure eque e trasparenti in rapporto sia alle riviste, sia alle collane editoriali.
Le conseguenze che deriverebbero dall’approvazione di queste linee di sviluppo sono numerose e tutte rilevanti. Si perfezionerebbe la valutazione dei singoli studiosi (da tenere distinta dalla valutazione delle istituzioni nelle quali essi prestano la propria opera). Si salvaguarderebbero i “generi letterari” tipici del diritto, ma si imprimerebbe un salutare impulso alla definizione di standard che permettano di distinguere, all’interno di quei generi, i lavori meramente compilativi da quelli di ricerca; le riviste che selezionano i contributi sulla base di criteri e procedure trasparenti da quelle che seguono altre logiche; le collane editoriali che puntano sulla qualità dalle altre. L’impiego della locuzione “impulso” assume un preciso valore, perché tutte le attività appena contemplate spettano alle varie comunità di studiosi e presumibilmente si svolgeranno attraverso processi di trial and error.
Queste brevi notazioni, se per un verso inducono a pensare che l’esigenza di un adeguamento degli standard e delle procedure di valutazione della ricerca sia ineludibile, in questa come nelle altre aree, per un altro verso spiegano perché i tempi non potranno esser brevi. Occorrerà trovare progressivamente un equilibrio migliore tra le monografie e gli articoli, specie se questi sono innovativi nelle metodologie e nelle analisi, se sono pubblicati sulle principali riviste giuridiche. Potrà contribuire il ritorno a una più equa considerazione dei contributi pubblicati nelle riviste in lingua inglese o in una delle altre principali lingue del mondo. Potrà giovare una maggiore apertura verso le intersezioni che i dati rilevanti per il diritto hanno con quelli rilevanti per altre scienze sociali. Ma, giova ripeterlo, si tratta di un percorso per cui sono altrettanto importanti la sicura progressione verso gli obiettivi e l’ottenimento di una sempre più ampia adesione a quegli obiettivi.

8. Le prospettive. Il ruolo delle associazioni di studiosi
Ci si può chiedere, in conclusione, quali siano le prospettive che si dischiudono per gli studiosi e per le associazioni alle quali essi aderiscono.
Riformare le procedure di selezione, valorizzare il merito, ancorare la valutazione a criteri e metodologie, che consentono di formulare giudizi più obiettivi (pur se l’aspirazione all’obiettività è di quelle destinate a restare sempre solo parzialmente appagate): tutto ciò non va considerato come un’imposizione, bensì come un’opportunità [13]. Sarebbe altrettanto sbagliato intravedere in quei parametri, in quelle metodologie il trionfo dello scientismo. Lo scientismo e la sottovalutazione delle diversità degli approcci e dei metodi hanno contraddistinto, semmai, un’altra stagione della nostra cultura, quella del positivismo. Detto ciò, se in Italia le scienze sociali cercassero di sottrarsi alla valutazione, non vedrebbero soltanto aumentare il divario accumulato rispetto alle altre aree della scienza: accumulerebbero anche un ulteriore distacco rispetto agli studiosi degli altri Paesi europei, nei quali la cultura della valutazione si è da più tempo consolidata, sia pure con varietà di impostazioni e risultati, che non è da sottovalutare. Proprio sui diversi approcci alla valutazione e sui rispettivi risultati, anzi, è bene che vi sia un proficuo dibattito, nella consapevolezza dell’urgenza del decidere e dell’agire.
Il discorso si sposta, così, sul ruolo delle associazioni di studiosi. Dagli sviluppi prima sintetizzati derivano un’opportunità e un rischio. L’opportunità consiste nel responsabilizzare le associazioni di studiosi, chiamate non più soltanto a discutere sull’oggetto e sulle metodologie del proprio lavoro, ma anche a esprimere scelte, suscettibili di essere riviste nel corso del tempo, in ordine alla qualificazione dei prodotti della ricerca (a cominciare da cosa debba intendersi per “monografia”) e alla rilevanza delle sedi nelle quali essi sono pubblicati. Il rischio è che la comprensibile preoccupazione per l’acquis degeneri, provocando ristagno, risultando d’impedimento a ogni tentativo di fissare standard che non si limitino a fotografare l’esistente. Come accade per ogni attività svolta un’organizzazione avente effetti sui suoi componenti e su altre figure giuridiche soggettive, sono indispensabili forme di discussione e garanzie acconce, unitamente al senso della misura, per evitare eccessi di segno opposto. Può senz’altro giovare il confronto con l’esperienza di altri Paesi europei, con le diverse scuole di pensiero emerse ed emergenti. Si tratterebbe di un passo importante nella direzione della realizzazione dello spazio europeo della ricerca, che di certo non è compito esclusivo dei governanti.

Note

1.  Da ultimo, Scimago Institutions Ranking, World Report 2010. Research Institution Ranking, 2010.

2.  Le cause sono ben illustrate da Andrea Graziosi, L’università per tutti, Bologna, Il Mulino, 2010.

3.  Alison Abbott, Saving Italian science, Nature, Volume 440, Issue 7082, pp. 264-265 (2006).

4.  OECD, Education at a Glance 2010: OECD Indicators, 2010.

5.  Per un’analisi critica delle norme che hanno comportato una riduzione degli investimenti nella ricerca, Francesco Sylos Labini, Stefano Zapperi, I ricercatori non crescono sugli alberi, Laterza, 2010.

6.  Questa corrente di pensiero non segue necessariamente la logica del tax & spend: vi è anche chi propugna la revisione della distribuzione delle risorse all’interno della spesa sociale.

7.  Commissione tecnica per la finanza pubblica, Libro verde sulla spesa pubblica, 2007, enfasi nell’originale.

8.  League of European Research Universities, Harvesting Talent: Strenghtening Research Careers in Europe, 2010.

9.  Ne analizza le conseguenze Roberto Perotti, L’università truccata, Torino, Einaudi, 2008.

10.  Vari punti di vista, quanto alle modalità per valorizzare il merito, sono esposti nel volume Concorrenza e merito nelle università, a cura di Giacinto della Cananea e Claudio Franchini, Torino, Giappichelli, 2009.

11.  Riccardo Orestano, Introduzione allo studio del diritto romano, Bologna, Il Mulino, 1987, p. 346

12.  V. Giacinto della Cananea, Sulla valutazione dell’attività scientifica e didattica nel diritto amministrativo, in Associazione italiana dei professori di diritto amministrativo, Annuario 2007, Napoli, Editoriale scientifica, 2008, p. 281. Critiche all’applicazione del fattore di impatto sono state espresse anche dal giudice amministrativo: TAR Veneto, 31 agosto 2007, n. 287.

13.  V. Aldo Sandulli, Per l’università della concorrenza e del merito, in Giornale di diritto amministrativo, 2008, n. 2, p. 227.