La razionalità limitata, l’uso di euristiche e gli errori nell’applicazione di leggi statistiche e probabilistiche: il caso dell’euristica della “rappresentatività”

Gli psicologi israeliani Daniel Kahneman e Amor Tversky misero in evidenza, fin dall’inizio degli anni Settanta del secolo scorso, come gli individui, nell’elaborare le informazioni e nel prendere decisioni, facessero uso di “euristiche”, le quali sono rappresentate da meccanismi cognitivi semplificati che non esigono procedimenti mentali complessi e che permettono, in molti casi, di compiere scelte razionali.. Attraverso il ricorso ad esperimenti essi dimostrarono in modo empirico proprio come l’individuo fosse generalmente dotato soltanto di una bounded rationality (una razionalità “limitata”) e quindi non di razionalità perfetta. Sulla base di tali esperimenti si confermava che decisioni vengono quindi prese in condizioni di razionalità “limitata”. In particolare l’interesse dei due studiosi riguardò l’applicazione delle euristiche nella elaborazioni di decisioni che richiedevano l’applicazione dei principi statistici e delle regole del calcolo delle probabilità.
Essi notarono il fatto che, in forza dell’applicazione di queste euristiche, gli individui incorressero – in talune ipotesi – nei “bias”, cioè in deviazioni dalla razionalità non casuali ma “sistematiche”. In quanto sistematiche tali deviazioni risultavano essere anche prevedibili e, quindi, esse potevano condurre lo scienziato sociale ad anticipare i comportamenti non razionali degli esseri umani.
La scienza che i due studiosi fondarono e che prese il nome di “behavioral economics”(anche se essa seguiva il percorso già delineato dalla “psicologia cognitiva”) è stata utilizzata negli corso degli anni successivi alla pubblicazione dei loro lavori pioneristici per modificare il modello tradizionale dell’uomo che compie scelte e per tentare di sviluppare previsioni più precise dei comportamenti umani nelle situazioni di scelta. La capacità decisionale dell’uomo reale non venne più a coincidere con la perfetta razionalità di quell’homo oeconomicus che popolava i manuali di economia (Baffi 2015).
In questo contesto, le euristiche sono appunto tipicamente considerate delle regole semplici con cui possano essere prese decisioni.
Quando una decisione deve essere presa in contesti di incertezza, un decisore razionale deve fare affidamento sull’applicazione dei principi statistici e del regole del calcolo delle probabilità. Il problema che si pone in questi casi è quello di verificare il modo in cui tali principi e regole vengono applicati dagli individui, considerando il fatto che essi utilizzano le euristiche e che tale uso può portate ai bias.
I due studiosi delle behavioral economics hanno individuato tre euristiche principali (l’euristica della rappresentatività, l’euristica della disponibilità e l’euristica dell’ancoraggio) alle quali deve essere affiancata una quarta euristica (l’euristica degli affetti) elaborata da Slovic e dai suoi colleghi (Slovic & Lichtenstein 1968).
Un gran numero di bias che consegue ad un’errata applicazione dei principi statistici e delle regole del calcolo delle probabilità si ha in forza dell’uso di quella euristica che è stata definita come “euristica della rappresentatività”. L’esame di essa permette, in particolar modo, di evidenziare come gli individui incontrino limiti cognitivi nell’applicazione dei principi statistici e delle regole delle probabilità.
Tale euristica viene utilizzata dalle persone nel caso in cui in cui si deve collocare qualcuno, qualcosa o qualche evento in apposite categorie.
I giudizi che vengono fatti nel processo di categorizzazione delle persone, delle cose o degli eventi a volte possono non tener conto delle probabilità, e ciò in quanto l’euristica della rappresentatività conduce gli individui a categorizzate persone o cose o eventi in base alla loro “somiglianza” o al loro grado di “rappresentatività” di una certa categoria.
Kanheman e Tversky definiscono l’euristica della rappresentatività come “the degree to which [an event] (i) is similar in essential characteristics to its parent population, and (ii) reflects the salient features of the process by which it is generated” (Kahneman & Tversky 1972)
I giudizi vengono quindi fatti in base a quanto simile è un oggetto, un evento o una persona rispetto ad una categoria di riferimento. Nel compiere questa operazione gli individui commettono errori nell’applicazione dei principi statistici e delle regole del calcolo delle probabilità che sono sistematici.
Più precisamente, quando gli individui utilizzano, nella elaborazione dei propri giudizi e delle proprie decisioni, l’euristica della rappresentatività, essi possono incorrere in errori perché il fatto che qualcosa o qualcuno o qualche evento sia “rappresentativo” (cioè “simile”) rispetto ad un certo gruppo non significa necessariamente che sia “più probabile” che quell’individuo o quell’evento appartenga a quel gruppo.
Nell’applicare l’euristica della rappresentatività la persona individua, in primo luogo, una popolazione di riferimento ed un certo evento. La rappresentatività sta ad indicare il livello di somiglianza dei due concetti. Tanto più l’evento presenta le caratteristiche della popolazione di riferimento tanto più la rappresentatività è elevata (Tversky & Kahneman 1973).
In particolare, le persone sembrano in questi contesti riferirsi esplicitamente a delle situazioni similari È, allora, possibile incorrere in errore proprio considerando fenomeni falsamente similari da un punto di vista statistico.
Sono state identificate diverse situazioni in cui l’applicazione dell’euristica della rappresentatività conduce ad errori sistematici di giudizio e di scelta.
È questa, in primo luogo, la situazione in cui un determinato agente si trovi di fronte ad un determinato evento che possa ricondurre a livello mentale ad un altro fenomeno passato. In tale situazione i meccanismi cognitivi tendono ad ingannare l’agente economico proponendo una possibile causa comune dei due fenomeni diversi. L’individuo, cioè, in forza della similarità fra due eventi, è condotto a ravvisare un identico processo causale degli stessi. In questo caso, quindi, l’errore consiste nell’individuare cause comuni a gruppi di eventi che hanno invece origini in realtà diverse seppure tali eventi siano – appunto- “similari”. Per mezzo di tale euristica l’individuo può essere spinto a compiere errori poiché non è sempre corretto definire inferenze sulle relazioni di causa ed effetto in presenza della sola similarità. Grazie alla similarità l’individuo viene portato a ricostruire relazioni false di cause ed effetto.
Un secondo fenomeno riconducibile all’euristica della rappresentatività è quello rappresentato dalla “fallacia della congiunzione”. Essa rappresenta una errore logico e probabilistico e consiste nel ritenere come maggiormente probabile il verificarsi della congiunzione di due eventi rispetto alla probabilità del verificarsi di uno dei due costituenti.
L’esperimento più noto in cui si è evidenziato questo errore di ragionamento è stato ideato da Tversky e Kahneman (1983) ed è il famoso caso di Linda, proposto agli intervistati nella seguente formulazione: “Linda ha 31 anni, è single, intraprendente e molto intelligente. Si è laureata in Lettere. Come studentessa era molto interessata ai temi della discriminazione e della giustizia sociale, ed ha anche partecipato in una dimostrazione contro l’energia nucleare.”
Dopo aver letto la descrizione della biografia di Linda, agli intervistati veniva chiesto di valutare una serie possibili occupazioni di Linda, disponendole in un ordine di probabilità che andasse dalla maggiormente probabile alla meno probabile. La lista delle alternative presentava, fra l’altro: “Linda è una cassiera di banca”; “Linda è una cassiera di banca ed è attiva nel movimento femminista”. Circa l’85% degli intervistati ha individuato la seconda soluzione come maggiormente probabile della prima, incorrendo così nella “fallacia della congiunzione”. L’insieme “cassiera di banca e femminista” è, infatti, un sottoinsieme della più ampia classe “cassiera di banca”. Ogni cassiera di banca femminista” è “cassiera di banca” mentre vi saranno anche “cassiere di banca non femministe”. L’errore che il soggetto compie dipende dal fatto che la descrizione delle caratteristiche di Linda è più rappresentativa della categoria individuata come “Linda è una cassiera e femminista” piuttosto che della più ampia categoria “Linda è una cassiera”.
Una terza fonte di distorsione cognitiva è quella che proviene dalla falsa ricorrenza di fenomeni a livello statistico. In questo caso il problema sta nel fatto che la mancanza di una reale analisi statistica può portare a importanti problemi di identificazione di fenomeni. In questo senso sequenze di un numero piccolo di osservazioni può condurre alla falsa idea di una non casualità laddove si intraveda una certa “struttura” nella ricorrenza di una serie di osservazioni (Kahneman & Tversky 1972). Nella “fallacia dello scommettitore”, ad esempio, si commette l’errore di ritenere che, se nel gioco della roulette il colore rosso è uscito per un certo numero di volte consecutive, allora vi saranno più probabilità che esca il colore nero.
Un quarta distorsione cognitiva consiste nel ritenere che i campioni di piccole dimensioni possano essere in qualche modo comparabili con campioni di grandi dimensioni. Facendo affidamento su piccoli campioni, l’individuo è portato a commettere errori cognitivi. L’individuo è, cioè, spinto ad applicare una “legge dei piccoli numeri” (Tversky & Kahneman 1971) per cui ricava caratteristiche di una popolazione di riferimento partendo da un campione che è troppo piccolo per essere statisticamente rappresentativo. Così, in forza della “legge dei piccoli numeri”, un individuo può essere portato a ricavare caratteristiche generali dei membri appartenenti, per esempio, a certe etnie, gruppi religiosi o gruppi politici partendo da un campione, generalmente costituito dalle proprie esperienze personali, che è troppo piccolo per essere considerato statisticamente rappresentativo. La “legge dei piccoli numeri” che gli individui applicano porta mette in discussione la capacità degli individui di compiere scelte razionali. Da questo punto di vista deve essere riconsiderata, fra i vari fenomeni, la capacità degli individui di applicare esattamente la cosiddetta “discriminazione statistica” individuata per primo da Edmund Phelps (Phelps 1972). Secondo l’economista americano le persone compierebbero delle discriminazioni sulla base di esatti calcoli statistici facendo in tal modo scelte privatamente efficienti. Se, ad esempio, un individuo sa che, statisticamente, fra la popolazione di uomini vi è una percentuale di persone aggressive più alta rispetto a quella presente nella popolazione delle donne, allora nel caso egli scelga di camminare sul marciapiede su cui vi è una donna e non su quello in cui vi è un uomo avrà maggiori possibilità di non essere aggredito. Egli è perfettamente consapevole che una donna può porre in essere un’aggressione, ma sa che, da un punto di vista statistico, è meno probabile che ciò accada. Applicando la discriminazione statistica, egli compie scelte privatamente efficienti. Allo stesso modo un datore di lavoro che – essendo a conoscenza del fatto che, da un punto di vista statistico, vi sono più lavoratori produttivi nell’etnia A piuttosto che nell’etnia B – individua i propri collaboratori solo fra gli individui della etnia A, compie una scelta che massimizza i suoi profitti Ma la tendenza degli individui a far ricorso alla “legge dei piccoli numeri” può portare a calcoli statistici errati che conducono sia gli individui a scelte non ottimali (per cui, ad esempio, una maggiore informazione prodotta dall’autorità pubblica al fine di determinare il debiasing potrebbe essere desiderabile), sia a determinare la produzione di conseguenze che sono, secondo diversi criteri, socialmente indesiderabili. È stato evidenziato da Kenneth Arrow (Arrow 1972) come una falsa profezia circa le caratteristiche di un gruppo possa anche autorealizzarsi. Arrow ha posto il problema il caso dei possibili datori di lavoro i quali discriminano in base all’appartenenza ad un gruppo del potenziale lavoratore, partendo dal presupposto erroneo che è statisticamente più probabile che gli appartenenti ad una certo gruppo siano meno preparati culturalmente e quindi meno produttivi nei ruoli dirigenziali. Una tale errata previsione può in realtà autorealizzarsi in quanto i membri del gruppo negativamente discriminato, anticipando che non saranno chiamati in ruoli dirigenziali, non si impegneranno nell’accrescimento del proprio capitale umano. Un’errata previsione finisce, nel modello di Arrow, per autorealizzarsi.
Si può allora affermare che l’euristica della rappresentatività, da cui discende il bias della “legge dei piccoli numeri” offre un supporto importante alla teoria di Kenneth Arrow. Così, se gli imprenditori elaborano una valutazione sulle caratteristiche di un certa popolazione di riferimento sulla base delle poche informazioni che hanno – e fra tali informazioni selezionano quelle più salienti, perché, ad esempio, sono comparse fra le notizie della stampa o sono rimaste più impresse nella memoria, il false belief che si autorealizza e che conduce a risultati socialmente non desiderabili diviene assai più probabile (si pensi alle informazioni negative che possono essere diffuse attraverso i mezzi di comunicazione e che possono riguardare alcuni membri di una minoranza).
Il quarto tipo di errore viene solitamente indicato con l’espressione “base rate fallacy” e consiste in una non corretta applicazione del teorema di Bayes.
Questo bias può essere rappresentato con alcuni esempi.
Si ipotizzi che nella città di New York vi siano 150 taxi blu e 850 taxi gialli. Si immagini che per mezzo dei taxi vengano commessi atti criminali. Si ipotizzi, altresì, che i testimoni, nell’identificare il colore del taxi con cui è stato commesso un crimine nella notte, rispondano esattamente otto volte su dieci. Vi è cioè l’80 per cento delle possibilità che un testimone indichi correttamente il colore del taxi con cui è stato compiuto un atto criminale.
Si ipotizzi, per semplicità, che ogni anno vengano compiuti cento atti criminali per mezzo dei taxi e la proporzione di atti compiuti con i taxi di un certo colore è identica alla proporzione del numero di taxi (cioè 15 atti criminali con i taxi blu e 85 con i taxi gialli)
In presenza di un crimine compiuto per mezzo di un taxi, un testimone viene ascoltato e dichiara che l’atto criminale è stato attuato con un taxi di colore blu. In tale situazione si sarebbe portati a ritenere che vi siano otto probabilità su dieci che il taxi sia effettivamente blu. Si sarebbe cioè spinti a ritenere che la testimonianza sia molto affidabile. In realtà, si commette un errore nella valutazione delle probabilità che il taxi sia effettivamente blu in quanto, attraverso l’uso dell’euristica della rappresentatività, si giunge a non applicare il cosiddetto “teorema di Bayes”.
Se la probabilità, infatti, che il taxi venga identificato in modo corretto è dell’80% allora il numero di taxi blu con i quali è stato commesso un atto criminale che vengono identificati correttamente è 15 x 0.8 = 12.
I taxi gialli con cui sono stati commessi crimini che invece sono erroneamente identificati come blu saranno, invece, 85 x 0, 2= 17.
In totale i taxi identificati dai testimoni come blu risulteranno essere 29 ma, come si evidenziato, i taxi correttamente identificati come blu sono solo 12. Vi sono 17 casi in cui il taxi con il quale è stato commesso l’atto criminale è di colore giallo ma viene erroneamente identificato come blu.
Quindi solo 12 volte su 29 il taxi identificato come blu è effettivamente di questo colore. La probabilità che il taxi con il quale è stato commesso il delitto sia correttamente identificato come blu è uguale a 12/29 = 41,3%. Si può dire che, circa sei volte su dieci, la testimonianza è inesatta.
Vi sono, in altre parole, più probabilità che la testimonianza sia errata di quante siano le probabilità che la testimonianza sia esatta.
L’errore nell’applicazione della teorema di Bayes può portare le corti (in particolare quelle penali) a valutare in maniera totalmente sbagliata l’attendibilità di una testimonianza.
Ma l’errore nell’applicazione della regola di Bayes può avere conseguenze anche sul piano del diritto civile, in particolar modo su quello dei rimedi civili nel caso di una volontà contrattuale viziata per dolo o per errore. Gli errori nell’applicazione del teorema di Bayes possono dar luogo a situazioni in cui una parte induce la controparte in tali errori o comunque ne trae beneficio anche se non li ha essa stessa determinati.
Si immagini, a titolo di esempio, che Tizio debba acquistare un oggetto per fare un dono ad uno sposo di cui non conosce la professione ma che sa che indossa, nei week end, vestiti di colore verde. Si immagini che nella comunità vi siano 100 avvocati e 10 veterinari. Solo il 20 per cento degli avvocati indossa nelle giornate del week end abiti di colore verde, mentre il 90 per cento dei veterinari sceglie questo colore per i vestiti. Il potenziale compratore descrive al potenziale venditore la caratteristica dello sposo consistente nel fatto che egli indossa abiti di colore verde durante il week end. Sebbene il 90% dei veterinari indossi abiti di questo colore durante il week end, in totale essi sono in numero di nove contro i venti (il 20% ) degli avvocati. Vi sono quindi molte più probabilità che il futuro sposo sia un avvocato piuttosto che un veterinario. Ma il potenziale venditore, pur essendo, in forza della sua esperienza, a conoscenza delle probabilità che il futuro sposo possa essere un avvocato, può sfruttare l’errore nell’applicazione della regola di Bayes del potenziale compratore e vendere un bene assai più costoso che risulta consono ad un soggetto di professione veterinario.
Queste ipotesi, che non risulta siano mai state considerate dalla giurisprudenza, potrebbero integrare la fattispecie del dolo come vizio della volontà nei contratti.
Nel caso in cui non si dovesse ravvisare un comportamento doloso del venditore, è possibile che si configuri il diverso vizio della volontà rappresentato dall’errore.
Ma l’errata applicazione della regola di Bayes può portare addirittura a decisioni drammatiche per gli individui.
Si ipotizzi che in una comunità di 1 milione e mille persone vi siano mille individui portatori del virus HIV. Si immagini che il test per il controllo della presenza del virus dia un risultato inesatto una volta su mille. Ciò significa che il test individua, fra il milione di individui che non sono portatori del virus, mille falsi positivi. Individua esattamente 999 soggetti infetti sui mille. Il risultato finale è che, su 1999 persone che risultano positive al test, solo 999 sono effettivamente portatrici del virus.
Il soggetto il cui test è positivo ha una probabilità di circa il 50% che non sia portatore del virus. Un’errata valutazione del risultato del test, se accompagnata da una non chiara informazione da parte delle strutture sanitarie, può condurre l’individuo stesso a scelte tragiche.

Conclusioni
Gli individui nella elaborazione dei loro giudizi e nel compimento delle loro scelte, incontrano insormontabili difficoltà cognitive nell’applicazione dei principi statistici e probabilistici. Nel caso dell’applicazione dell’euristica della “rappresentatività” tali errori appaiono essere assai frequenti.
Nel considerare questa particolare euristica si è voluto evidenziare come proprio nell’applicazione dei principi statistici e probabilistici l’individuo rischia di incorrere in errori.
Non si deve, peraltro, ritenere che le altre euristiche individuate da Kaheman e Tversky non conducano anch’esse ad importanti errori nell’applicazione dei principi statistici e delle regole del calcolo delle probabilità.
Gli studi dei due psicologi israeliani si sono infatti focalizzati sulle scelte in condizioni di mancanza di certezza e la teoria che essi hanno sviluppato per descrivere il comportamento umano – la “prospect theory” – è una teoria descrittiva delle scelte in condizioni di incertezza (il termine “prospect” si traduce prevalentemente, infatti, con quello di “lotteria”).

Riferimenti bibliografici
Arrow, Kenneth J. (1972) “Models of Job Discrimination.” In A.H. Pascal, ed. Racial Discrimination in Economic Life. Lexington, MA: D.C. Heath, 1972: 83-102.
Baffi, E, (2015). “Le imperfezioni della razionalità dell’uomo reale (conosci te stesso) e l’ adeguamento ad esse del diritto”, Rivista critica del diritto privato, Vol. 33, 297-315.
Bhatia, S. (2016) The Power of the Representativeness Heuristic.
Frosini, B. V. (2002).Le prove statistiche nel processo civile e nel processo penale. Giuffrè.
Kahneman, D., & Tversky, A. (1972). “Subjective probability: A judgment of representativeness”, Cognitive psychology,3(3), 430-454.
Kahneman, D., & Tversky, A. (1973). “On the psychology of prediction”, Psychological review,80(4), 237.
Kahneman, D., & Tversky, A. (1979). “Prospect theory: An analysis of decision under risk”, Econometrica 263-291.
Levis A. (2012) The Cambridge Handbook of Psychology. The Cambridge Handbook of Psychology and Economics, A Lewis (a cura di), Cambridge (Mass.).
Phelps, Edmund S. (1972). “The statistical theory of racism and sexism.” American Economic Review, Sept., vol. 62, 659-61.
Slovic, P. and Lichtenstein, S. (1968), “Relative Importance of Probabilities and Payoffs in Risk Taking”,78,Journal of Experimental Psychology, 1-18.
Tversky, A., & Kahneman, D. (1971). “Belief in the law of small numbers”. Psychological bulletin, 76(2), 105.
Tversky, A., & Kahneman, D. (1974). “Judgment under uncertainty: Heuristics and biases”. Science,185(4157), 1124-1131.
Tversky A. & D. Kahneman (1982).“Evidential impact of base rates”, in Judgement under uncertainty: Heuristics and biases, D. Kahneman, P. Slovic, A. Tversky (a cura di ), Cambridge University Press, 1982
Tversky, A., & Kahneman, D. (1983). “Extensional versus intuitive reasoning: The conjunction fallacy in probability judgment”. Psychological Review, 90, 293-31.
Tversky, A., & Kahneman, D. (1993). “Probabilistic reasoning”, in Readings in Philosophy and Cognitive Science, A. Goldman (a cura di) Cambridge (Mass.), 43-68.