Imposta come home page     Aggiungi ai preferiti

 

La razionalità limitata, l’uso di euristiche e gli errori nell’applicazione di leggi statistiche e probabilistiche: il caso dell’euristica della “rappresentatività”

di e - 27 Giugno 2016
      Stampa Stampa      

Dopo aver letto la descrizione della biografia di Linda, agli intervistati veniva chiesto di valutare una serie possibili occupazioni di Linda, disponendole in un ordine di probabilità che andasse dalla maggiormente probabile alla meno probabile. La lista delle alternative presentava, fra l’altro: “Linda è una cassiera di banca”; “Linda è una cassiera di banca ed è attiva nel movimento femminista”. Circa l’85% degli intervistati ha individuato la seconda soluzione come maggiormente probabile della prima, incorrendo così nella “fallacia della congiunzione”. L’insieme “cassiera di banca e femminista” è, infatti, un sottoinsieme della più ampia classe “cassiera di banca”. Ogni cassiera di banca femminista” è “cassiera di banca” mentre vi saranno anche “cassiere di banca non femministe”. L’errore che il soggetto compie dipende dal fatto che la descrizione delle caratteristiche di Linda è più rappresentativa della categoria individuata come “Linda è una cassiera e femminista” piuttosto che della più ampia categoria “Linda è una cassiera”.
Una terza fonte di distorsione cognitiva è quella che proviene dalla falsa ricorrenza di fenomeni a livello statistico. In questo caso il problema sta nel fatto che la mancanza di una reale analisi statistica può portare a importanti problemi di identificazione di fenomeni. In questo senso sequenze di un numero piccolo di osservazioni può condurre alla falsa idea di una non casualità laddove si intraveda una certa “struttura” nella ricorrenza di una serie di osservazioni (Kahneman & Tversky 1972). Nella “fallacia dello scommettitore”, ad esempio, si commette l’errore di ritenere che, se nel gioco della roulette il colore rosso è uscito per un certo numero di volte consecutive, allora vi saranno più probabilità che esca il colore nero.
Un quarta distorsione cognitiva consiste nel ritenere che i campioni di piccole dimensioni possano essere in qualche modo comparabili con campioni di grandi dimensioni. Facendo affidamento su piccoli campioni, l’individuo è portato a commettere errori cognitivi. L’individuo è, cioè, spinto ad applicare una “legge dei piccoli numeri” (Tversky & Kahneman 1971) per cui ricava caratteristiche di una popolazione di riferimento partendo da un campione che è troppo piccolo per essere statisticamente rappresentativo. Così, in forza della “legge dei piccoli numeri”, un individuo può essere portato a ricavare caratteristiche generali dei membri appartenenti, per esempio, a certe etnie, gruppi religiosi o gruppi politici partendo da un campione, generalmente costituito dalle proprie esperienze personali, che è troppo piccolo per essere considerato statisticamente rappresentativo. La “legge dei piccoli numeri” che gli individui applicano porta mette in discussione la capacità degli individui di compiere scelte razionali. Da questo punto di vista deve essere riconsiderata, fra i vari fenomeni, la capacità degli individui di applicare esattamente la cosiddetta “discriminazione statistica” individuata per primo da Edmund Phelps (Phelps 1972). Secondo l’economista americano le persone compierebbero delle discriminazioni sulla base di esatti calcoli statistici facendo in tal modo scelte privatamente efficienti. Se, ad esempio, un individuo sa che, statisticamente, fra la popolazione di uomini vi è una percentuale di persone aggressive più alta rispetto a quella presente nella popolazione delle donne, allora nel caso egli scelga di camminare sul marciapiede su cui vi è una donna e non su quello in cui vi è un uomo avrà maggiori possibilità di non essere aggredito. Egli è perfettamente consapevole che una donna può porre in essere un’aggressione, ma sa che, da un punto di vista statistico, è meno probabile che ciò accada. Applicando la discriminazione statistica, egli compie scelte privatamente efficienti. Allo stesso modo un datore di lavoro che – essendo a conoscenza del fatto che, da un punto di vista statistico, vi sono più lavoratori produttivi nell’etnia A piuttosto che nell’etnia B – individua i propri collaboratori solo fra gli individui della etnia A, compie una scelta che massimizza i suoi profitti Ma la tendenza degli individui a far ricorso alla “legge dei piccoli numeri” può portare a calcoli statistici errati che conducono sia gli individui a scelte non ottimali (per cui, ad esempio, una maggiore informazione prodotta dall’autorità pubblica al fine di determinare il debiasing potrebbe essere desiderabile), sia a determinare la produzione di conseguenze che sono, secondo diversi criteri, socialmente indesiderabili. È stato evidenziato da Kenneth Arrow (Arrow 1972) come una falsa profezia circa le caratteristiche di un gruppo possa anche autorealizzarsi. Arrow ha posto il problema il caso dei possibili datori di lavoro i quali discriminano in base all’appartenenza ad un gruppo del potenziale lavoratore, partendo dal presupposto erroneo che è statisticamente più probabile che gli appartenenti ad una certo gruppo siano meno preparati culturalmente e quindi meno produttivi nei ruoli dirigenziali. Una tale errata previsione può in realtà autorealizzarsi in quanto i membri del gruppo negativamente discriminato, anticipando che non saranno chiamati in ruoli dirigenziali, non si impegneranno nell’accrescimento del proprio capitale umano. Un’errata previsione finisce, nel modello di Arrow, per autorealizzarsi.
Si può allora affermare che l’euristica della rappresentatività, da cui discende il bias della “legge dei piccoli numeri” offre un supporto importante alla teoria di Kenneth Arrow. Così, se gli imprenditori elaborano una valutazione sulle caratteristiche di un certa popolazione di riferimento sulla base delle poche informazioni che hanno – e fra tali informazioni selezionano quelle più salienti, perché, ad esempio, sono comparse fra le notizie della stampa o sono rimaste più impresse nella memoria, il false belief che si autorealizza e che conduce a risultati socialmente non desiderabili diviene assai più probabile (si pensi alle informazioni negative che possono essere diffuse attraverso i mezzi di comunicazione e che possono riguardare alcuni membri di una minoranza).
Il quarto tipo di errore viene solitamente indicato con l’espressione “base rate fallacy” e consiste in una non corretta applicazione del teorema di Bayes.
Questo bias può essere rappresentato con alcuni esempi.
Si ipotizzi che nella città di New York vi siano 150 taxi blu e 850 taxi gialli. Si immagini che per mezzo dei taxi vengano commessi atti criminali. Si ipotizzi, altresì, che i testimoni, nell’identificare il colore del taxi con cui è stato commesso un crimine nella notte, rispondano esattamente otto volte su dieci. Vi è cioè l’80 per cento delle possibilità che un testimone indichi correttamente il colore del taxi con cui è stato compiuto un atto criminale.
Si ipotizzi, per semplicità, che ogni anno vengano compiuti cento atti criminali per mezzo dei taxi e la proporzione di atti compiuti con i taxi di un certo colore è identica alla proporzione del numero di taxi (cioè 15 atti criminali con i taxi blu e 85 con i taxi gialli)
In presenza di un crimine compiuto per mezzo di un taxi, un testimone viene ascoltato e dichiara che l’atto criminale è stato attuato con un taxi di colore blu. In tale situazione si sarebbe portati a ritenere che vi siano otto probabilità su dieci che il taxi sia effettivamente blu. Si sarebbe cioè spinti a ritenere che la testimonianza sia molto affidabile. In realtà, si commette un errore nella valutazione delle probabilità che il taxi sia effettivamente blu in quanto, attraverso l’uso dell’euristica della rappresentatività, si giunge a non applicare il cosiddetto “teorema di Bayes”.

Pagine: 1 2 3


RICERCA

RICERCA AVANZATA


ApertaContrada.it Via Arenula, 29 – 00186 Roma – Tel: + 39 06 6990561 - Fax: +39 06 699191011 – Direttore Responsabile Filippo Satta - informativa privacy