pronostici elettorali


L’articolo Is Obama Toast? Handicapping the 2012 Election apparso sul New York Times descrive in maniera dettagliata e interessante un metodo per calcolare delle probabilità dell’attuale presidente americano vincere le prossime elezioni presidenziali ed essere quindi riconfermato il prossimo mandato. Nate Silver, il suo autore, spiega come negli Stati Uniti le elezioni presidenziali vengano studiate secondo due diversi paradigmi interpretativi: a) il modello del referendum, secondo il quale gli elettori giudicano con il loro voto l’operato del presidente in carica e del suo partito a prescindere dall’avversario, e b) il modello dell’elettore medi(an)o, secondo il quale gli elettori giudicano unicamente il carattere moderato o estremista dell’avversario, mentre l’operatore del presidente in carica non conterebbe nulla.

Alla luce di questa impostazione, Silver costruisce un modello predittivo per calcolare le probabilità di vittoria di Obama alle elezioni del prossimo anno sulla base di tre indicatori:

  1. la percentuale di consensi raccolta dal presidente in carica nel penultimo anno di mandato;
  2. la variazione percentuale del PIL (GDP) nell’ultimo anno di mandato;
  3. un punteggio numerico che traduce la posizione ideologica del candidato sfidante.


di cui i primi due interpretano il modello del referendum e il terzo il modello dell’elettore medio. Tutta la discussione dell’autore è piuttosto istruttiva e per questo suggerisco a chi vuole conoscerne i dettagli di leggere integralmente l’articolo originale. Qui mi fa piacere osservare che diverse delle questioni affrontate nell’articolo sembrano riprendere problemi che ho trattato non molto tempo fa nei miei interventi precedenti. In particolare:

  • Non esiste il pronostico infallibile. L’autore lo ricorda più volte, citando le passate elezioni il cui risultato ha contraddetto la previsione degli indicatori considerati. Per esempio, Silver sostiene che è più facile sconfiggere un avversario radicale che uno moderato. Tuttavia, la regola non è perfetta, ovviamente.

    When the incumbent party faced an opposition candidate with an extremism rating of 50 or higher, it won re-election in six out of eight cases. When it faced one with a rating of 50 or lower, meaning a more moderate nominee, it won just three times out of nine.

    In altre parole, la possibilità di sbagliare è ineliminabile, come ho spiegato in Decidere non è mai facile.

  • Variando l’altezza dell’asticella cambia la probabilità di sbagliare. Per esempio, a proposito della percentuale di sonsensi, Silver scrive:

    The more robust way to analyze these data is not just to consider the winners and losers, but also their margins of victory or defeat. […] The correct conclusion, then, is that other factors being equal, an approval rating in the low 40s a year before the election makes a president a slight but not overwhelming underdog.. If Obama’s approval ratings were in the low 30s or worse instead of the 40s, that would be another story. The three presidents to fit this description [..] saw their partries take big defeats the next year. If would also be another matter if Obama’s approval rating were closer to 50 percent. Of the six presiodents to have approval ratings in that range a year ahead of the election […] all six won. As you go farther up the approval-ratings chart, you begin to see exceptions to the rule: George H.W. Bush’s approval ratings were still high in late 1991, but he lost. So were Bill Clinton’s in 1999 and Dwight Eisenhower’s in 1959 […].

    Nei termini del mio precedente intervento, esaminare i dati corrispondenti ai diversi livelli della percentuale di consensi serve a calibrare il processo decisionale, cioè il meccanismo per pronosticare il vincitore delle prossime elezioni tenendo conto dei falsi positivi (consensi alti ma elezioni perse) e dei falsi negativi (consensi bassi ma elezioni vinte comunque).

  • Se tutti i precedenti eventi sono concordi, allora è probabile lo sia anche il prossimo evento. E’ la conseguenza implicita nella seguente affermazione:

    … since 1944 […] there have been five cases in which the incumbent party’s president had an approval rating below 49 percent a year ahead of the election – as Obama almost certainly will, unless he finds the cure for cancer after our issue goes to print – and each time the incumbent party lost.

    Cioè: l’interpretazione (impropria) della legge dei grandi numeri, secondo cui dopo tante vittore è più facile perdere, è sbagliata, come ho cercato di spiegare in leggi di comodo.

  • Non fidarsi delle conferme quando è troppo facile trovarne. Silver lo chiarisce molto bene quando spiega che con decine di migliaia di serie storiche disponibili alternative a quella del PIL si fa presto a trovarne qualcuna che si accorda con i risultati delle passate elezioni presidenziali, ma per il puro effetto del caso.

    Some political scientists have tried to explain these exceptions by resorting to an alphabet soup of economic indicators, conjuring obscure variables like R.D.P.I.P.C. (real disposable-personal-income per capita), which they claim can predict elections with remarkable accuracy. From the standpoint of responsible forecasting, this is a mistake. The government tracks literally 39 000 economic indicators each year. Although many (say, privately owned housing starts in Alabama) are obscure or redundant, perhaps two or three dozen of them are locked at regularly by economists. When you have this much data to sort through but only 17 elections since 1944 to test them upon, some indicatos will perform superficially better based on chance alone, the statistical equivalent of the lucky monkey from a group of millions who banged out a few Shakespearean phrases on his typewriter. Conversely, indicators like the unemployment rate have historically had allmost no correlation with election results despite their self-evident importance. The advantage of looking at G.D.P. is that it represents the broadest overall evaluation of economic activity in the United States.

    Si tratta dello stesso errore, discusso in e-nucleare disinformazione, che gli analisti di CounterPunch hanno commesso quando hanno cercato a tutti i costi una suddivisione delle statistiche di mortalità infantile che confermasse la loro ipotesi di rilevanza intercontinentale dell’incidente di Fukushima

Combinando tutti i dati storici dei tre fattori considerati, Silver arriva a presentare quattro diversi scenari (contemplando due scenari economici si stagnazione e di forte ripresa, e due possibili avversari repubblicani, Perry e Romney) dove la probabilità di vittoria di Obama varia dal 17% all’83%. Mediando tra tutte queste quattro alternative, conclude salomonicamente che Obama se la giocherà alla pari (fifty-fifty) con il suo sfidante.

Forse con questa conclusione l’articolo appare un po’ sovrabbondante. Mi pare che non occorra dedicarsi ad analisi tanto approfondite per arrivare a stimare grossolanamente tra il 20% e l’80% la probabilità di Obama di riconfermarsi presidente. Inoltre, se da un lato è interessante capire come sia possibile fare previsioni basandosi unicamente su modelli, indici e numeri, dall’altro il tutto può apparire un po’ sterile in quanto semplice procedura meccanica di assemblare i dati in un contesto dove i veri giochi si svolgono su altri livelli. Eppure anche l’autore ne è cosciente. Basti citare il passo in cui, nello stesso articolo, scrive:

Obama will have a marketing budget of hundreds of millions of dollars to get the message right

1 pensiero su “pronostici elettorali

  1. Pingback: sei-uno-zero-nove » Blog » una questione di percentuali

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.