Forse la parte più importante del processo di indagine è la creazione di domande che misurano con precisione le opinioni, esperienze e comportamenti del pubblico. Il campionamento casuale accurato sarà sprecato se le informazioni raccolte sono costruite su una base traballante di domande ambigue o di parte. La creazione di buone misure comporta sia la scrittura di buone domande che l’organizzazione per formare il questionario.

La progettazione di questionari è un processo multistadio che richiede attenzione a molti dettagli contemporaneamente. Progettare il questionario è complicato perché i sondaggi possono chiedere argomenti in vari gradi di dettaglio, le domande possono essere poste in modi diversi e le domande poste in precedenza in un sondaggio possono influenzare il modo in cui le persone rispondono alle domande successive. I ricercatori sono anche spesso interessati a misurare il cambiamento nel tempo e quindi devono essere attenti a come opinioni o comportamenti sono stati misurati in precedenti indagini.

I geometri possono condurre test pilota o focus group nelle prime fasi dello sviluppo del questionario per capire meglio come le persone pensano a un problema o comprendono una domanda. Pretestare un sondaggio è un passo essenziale nel processo di progettazione del questionario per valutare come le persone rispondono al questionario generale e alle domande specifiche, specialmente quando le domande vengono introdotte per la prima volta.

Per molti anni, i geometri si sono avvicinati al design del questionario come arte, ma una ricerca sostanziale negli ultimi quarant’anni ha dimostrato che c’è molta scienza coinvolta nella creazione di un buon questionario di indagine. Qui, discutiamo le insidie e le migliori pratiche di progettazione di questionari.

Sviluppo di domande

Ci sono diverse fasi coinvolte nello sviluppo di un questionario di indagine. Il primo è identificare quali argomenti saranno trattati nel sondaggio. Per le indagini del Pew Research Center, questo implica pensare a ciò che sta accadendo nella nostra nazione e nel mondo e ciò che sarà rilevante per il pubblico, i responsabili politici e i media. Monitoriamo anche l’opinione su una varietà di questioni nel tempo, quindi spesso ci assicuriamo di aggiornare regolarmente queste tendenze per capire meglio se le opinioni delle persone stanno cambiando.

Al Pew Research Center, lo sviluppo del questionario è un processo collaborativo e iterativo in cui il personale si incontra per discutere più volte le bozze del questionario nel corso del suo sviluppo. Testiamo spesso nuove domande di indagine in anticipo attraverso metodi di ricerca qualitativi come focus group, interviste cognitive, pretesting (spesso utilizzando un campione online, opt-in) o una combinazione di questi approcci. I ricercatori utilizzano intuizioni da questo test per affinare le domande prima che vengano poste in un sondaggio di produzione, ad esempio sull’ATP.

Misurazione del cambiamento nel tempo

Molti geometri vogliono monitorare i cambiamenti nel tempo negli atteggiamenti, nelle opinioni e nei comportamenti delle persone. Per misurare il cambiamento, le domande vengono poste in due o più punti nel tempo. Un disegno trasversale esamina diverse persone nella stessa popolazione in più punti nel tempo. Un pannello, come l’ATP, esamina le stesse persone nel tempo. Tuttavia, è comune che l’insieme di persone nei pannelli di indagine cambi nel tempo man mano che vengono aggiunti nuovi panelisti e alcuni panelisti precedenti abbandonano. Molte delle domande nei sondaggi del Pew Research Center sono state poste in precedenti sondaggi. Porre le stesse domande in diversi punti nel tempo ci consente di riferire sui cambiamenti nelle opinioni generali del pubblico in generale (o di un sottoinsieme del pubblico, come elettori registrati, uomini o neri americani), o ciò che chiamiamo “trending the data”.

Quando si misura il cambiamento nel tempo, è importante utilizzare la stessa formulazione della domanda e essere sensibili a dove la domanda viene posta nel questionario per mantenere un contesto simile a quando la domanda è stata posta in precedenza (vedere la formulazione della domanda e l’ordine delle domande per ulteriori informazioni). Tutti i nostri rapporti di indagine includono un questionario topline che fornisce l’esatta formulazione della domanda e la sequenza, insieme ai risultati dell’indagine corrente e precedenti indagini in cui abbiamo posto la domanda.

La transizione del Centro dalla conduzione di sondaggi statunitensi tramite interviste telefoniche in diretta a un pannello online (intorno al 2014-2020) ha complicato alcune tendenze di opinione, ma non altre. Tendenze di opinione che chiedono argomenti sensibili (ad esempio, finanze personali o partecipare a servizi religiosi) o che hanno suscitato risposte volontarie (ad esempio, “nessuno “o” non sanno”) sopra il telefono tendeva a mostrare differenze più grandi che altre tendenze quando spostandosi da sondaggi di telefono all’ATP in linea. Il Centro ha adottato diverse strategie per far fronte alle modifiche alle tendenze dei dati che potrebbero essere correlate a questo cambiamento nella metodologia. Se ci sono prove che suggeriscono che un cambiamento in una tendenza deriva dal passaggio dal telefono alla misurazione online, i rapporti del Centro segnalano la possibilità per i lettori di cercare di evitare confusione o conclusioni errate.

Domande aperte e chiuse

Una delle decisioni più significative che possono influenzare il modo in cui le persone rispondono alle domande è se la domanda viene posta come una domanda aperta, in cui gli intervistati forniscono una risposta con parole proprie, o una domanda chiusa, in cui viene chiesto loro di scegliere da un elenco di scelte di risposta.

Ad esempio, in un sondaggio condotto dopo le elezioni presidenziali del 2008, la gente ha risposto in modo molto diverso a due versioni della domanda: “Quale questione importava di più per te nel decidere come hai votato per il presidente?”Uno era chiuso e l’altro aperto. Nella versione chiusa, ai rispondenti sono state fornite cinque opzioni e potevano offrire volontariamente un’opzione non presente nell’elenco.

Quando ha offerto esplicitamente l’economia come risposta, più della metà degli intervistati (58%) ha scelto questa risposta; solo il 35% di coloro che hanno risposto alla versione aperta ha offerto volontariamente l’economia. Inoltre, tra coloro che hanno chiesto la versione chiusa, meno di uno su dieci (8%) ha fornito una risposta diversa dalle cinque che sono state lette. Al contrario, il 43% di coloro che hanno chiesto la versione aperta ha fornito una risposta non elencata nella versione chiusa della domanda. Tutti gli altri problemi sono stati scelti almeno un po ‘ più spesso quando esplicitamente offerto nella versione chiusa che nella versione aperta. (Vedi anche “Voti alti per la campagna, una barra alta per Obama” per ulteriori informazioni.)

I ricercatori a volte condurranno uno studio pilota utilizzando domande aperte per scoprire quali risposte sono più comuni. Svilupperanno quindi domande chiuse basate su quello studio pilota che includono le risposte più comuni come scelte di risposta. In questo modo, le domande possono riflettere meglio ciò che il pubblico sta pensando, come vedono un particolare problema, o portare alcuni problemi alla luce che i ricercatori potrebbero non essere stati a conoscenza.

Quando si fanno domande a risposta chiusa, la scelta delle opzioni fornite, il modo in cui ciascuna opzione viene descritta, il numero di opzioni di risposta offerte e l’ordine in cui le opzioni vengono lette possono influenzare il modo in cui le persone rispondono. Un esempio dell’impatto di come vengono definite le categorie può essere trovato in un sondaggio del Pew Research Center condotto nel gennaio 2002. Quando alla metà del campione è stato chiesto se fosse “più importante per il presidente Bush concentrarsi sulla politica interna o sulla politica estera”, il 52% ha scelto la politica interna mentre solo il 34% ha detto politica estera. Quando la categoria “politica estera” è stata ristretta a un aspetto specifico – “la guerra al terrorismo” – molte più persone l’hanno scelta; solo il 33% ha scelto la politica interna mentre il 52% ha scelto la guerra al terrorismo.

Nella maggior parte dei casi, il numero di scelte di risposta dovrebbe essere ridotto a un numero relativamente piccolo – solo quattro o forse cinque al massimo – specialmente nelle indagini telefoniche. La ricerca psicologica indica che le persone hanno difficoltà a tenere in mente più di questo numero di scelte contemporaneamente. Quando la domanda sta chiedendo un fatto oggettivo e / o dati demografici, come l’affiliazione religiosa del rispondente, possono essere utilizzate più categorie. In realtà, sono incoraggiati a garantire l’inclusività. Ad esempio, le domande di religione standard del Pew Research Center includono più di 12 diverse categorie, a cominciare dalle affiliazioni più comuni (protestanti e cattoliche). La maggior parte degli intervistati non ha problemi con questa domanda perché può aspettarsi di vedere il proprio gruppo religioso all’interno di tale elenco in un sondaggio auto-amministrato.

Oltre al numero e alla scelta delle opzioni di risposta offerte, l’ordine delle categorie di risposta può influenzare il modo in cui le persone rispondono alle domande a risposta chiusa. La ricerca suggerisce che nelle indagini telefoniche gli intervistati scelgono più frequentemente gli elementi ascoltati più tardi in una lista (un “effetto di recency”) e nelle indagini auto-amministrate, tendono a scegliere gli elementi in cima alla lista (un effetto “primato”).

A causa delle preoccupazioni sugli effetti dell’ordine di categoria sulle risposte a domande chiuse, molte serie di opzioni di risposta nelle indagini del Pew Research Center sono programmate per essere randomizzate per garantire che le opzioni non vengano richieste nello stesso ordine per ciascun rispondente. Rotazione o randomizzazione significa che le domande o gli elementi in un elenco non vengono poste nello stesso ordine a ciascun rispondente. Le risposte alle domande sono talvolta influenzate da domande che le precedono. Presentando domande in un ordine diverso per ogni intervistato, ci assicuriamo che ogni domanda venga posta nello stesso contesto di ogni altra domanda lo stesso numero di volte (ad esempio, prima, ultima o qualsiasi posizione intermedia). Ciò non elimina il potenziale impatto delle domande precedenti sulla domanda corrente, ma garantisce che questo pregiudizio sia distribuito in modo casuale su tutte le domande o gli elementi dell’elenco. Ad esempio, nell’esempio discusso sopra su quale problema contava di più nel voto delle persone, l’ordine dei cinque problemi nella versione chiusa della domanda è stato randomizzato in modo che nessun problema apparisse presto o tardi nella lista per tutti gli intervistati. La randomizzazione degli elementi di risposta non elimina gli effetti dell’ordine, ma garantisce che questo tipo di bias sia diffuso in modo casuale.

Le domande con categorie di risposta ordinale – quelle con un ordine sottostante (ad esempio, eccellente, buono, giusto, povero O molto favorevole, per lo più favorevole, per lo più sfavorevole, molto sfavorevole) – non sono generalmente randomizzate perché l’ordine delle categorie trasmette informazioni importanti per aiutare gli intervistati a rispondere alla domanda. Generalmente, questi tipi di scale dovrebbero essere presentati in ordine in modo che i rispondenti possano facilmente posizionare le loro risposte lungo il continuum, ma l’ordine può essere invertito per alcuni rispondenti. Ad esempio, in una delle domande del Pew Research Center sull’aborto, a metà del campione viene chiesto se l’aborto dovrebbe essere “legale in tutti i casi, legale nella maggior parte dei casi, illegale nella maggior parte dei casi, illegale in tutti i casi”, mentre all’altra metà del campione viene posta la stessa domanda con le categorie di risposta lette in ordine inverso,”Ancora una volta, invertire l’ordine non elimina l’effetto di recency ma lo distribuisce casualmente in tutta la popolazione.

Formulazione della domanda

La scelta di parole e frasi in una domanda è fondamentale per esprimere il significato e l’intento della domanda al rispondente e garantire che tutti gli intervistati interpretino la domanda allo stesso modo. Anche piccole differenze di formulazione possono influenzare sostanzialmente le risposte che le persone forniscono.

Un esempio di una differenza di formulazione che ha avuto un impatto significativo sulle risposte proviene da un sondaggio del Pew Research Center di gennaio 2003. Quando alle persone è stato chiesto se avrebbero” favorito o opposto l’azione militare in Iraq per porre fine al dominio di Saddam Hussein”, il 68% ha dichiarato di preferire l’azione militare mentre il 25% si è opposto all’azione militare. Tuttavia, alla domanda se “favorirebbero o si opporrebbero all’azione militare in Iraq per porre fine al dominio di Saddam Hussein anche se ciò significasse che le forze statunitensi potrebbero subire migliaia di vittime”, le risposte sono state drammaticamente diverse; solo il 43% ha dichiarato di preferire l’azione militare, mentre il 48% si è opposto. L’introduzione di U. S. le vittime hanno modificato il contesto della questione e influenzato il fatto che le persone favorissero o si opponessero all’azione militare in Iraq.

C’è stata una notevole quantità di ricerca per valutare l’impatto dei diversi modi di porre domande e come minimizzare le differenze nel modo in cui gli intervistati interpretano ciò che viene chiesto. Le questioni relative alla formulazione delle domande sono più numerose di quelle che possono essere trattate adeguatamente in questo breve spazio, ma qui di seguito sono alcune delle cose importanti da considerare:

In primo luogo, è importante porre domande che siano chiare e specifiche e che ogni intervistato sarà in grado di rispondere. Se una domanda è aperta, dovrebbe essere evidente agli intervistati che possono rispondere con parole proprie e che tipo di risposta dovrebbero fornire (un problema o un problema, un mese, numero di giorni, ecc.). Le domande a risposta chiusa dovrebbero includere tutte le risposte ragionevoli (ad esempio, l’elenco delle opzioni è esaustivo) e le categorie di risposta non dovrebbero sovrapporsi (ad esempio, le opzioni di risposta dovrebbero escludersi a vicenda). Inoltre, è importante discernere quando è meglio usare domande chiuse a scelta forzata (spesso indicate con un pulsante di opzione nei sondaggi online) rispetto agli elenchi “seleziona tutto ciò che applica” (o seleziona tutte le caselle). Uno studio del Centro 2019 ha rilevato che le domande a scelta forzata tendono a produrre risposte più accurate, specialmente per le domande sensibili. Sulla base di tale ricerca, il Centro generalmente evita di utilizzare domande select-all-that-apply.

È anche importante porre una sola domanda alla volta. Domande che chiedono agli intervistati di valutare più di un concetto (noto come domande a doppia canna)-come “Quanta fiducia hai nel presidente Obama per gestire la politica interna ed estera?”- sono difficili per gli intervistati a rispondere e spesso portano a risposte difficili da interpretare. In questo esempio, sarebbe più efficace porre due domande separate, una sulla politica interna e un’altra sulla politica estera.

In generale, le domande che utilizzano un linguaggio semplice e concreto sono più facilmente comprensibili dagli intervistati. È particolarmente importante considerare il livello di istruzione della popolazione dell’indagine quando si pensa a quanto sarà facile per gli intervistati interpretare e rispondere a una domanda. Doppi negativi (ad esempio, favorisci o ti opponi a non permettere a gay e lesbiche di sposarsi legalmente) o abbreviazioni o gergo non familiari (ad esempio, ANWR invece di Arctic National Wildlife Refuge) possono causare confusione tra gli intervistati e dovrebbero essere evitati.

Allo stesso modo, è importante considerare se alcune parole possono essere considerate di parte o potenzialmente offensive per alcuni intervistati, così come la reazione emotiva che alcune parole possono provocare. Ad esempio, in un sondaggio del Pew Research Center del 2005, il 51% degli intervistati ha dichiarato di preferire “rendere legale per i medici dare ai malati terminali i mezzi per porre fine alla loro vita”, ma solo il 44% ha dichiarato di preferire “rendere legale per i medici assistere i pazienti malati terminali nel commettere suicidio.”Sebbene entrambe le versioni della domanda si stiano chiedendo la stessa cosa, la reazione degli intervistati è stata diversa. In un altro esempio, gli intervistati hanno reagito in modo diverso alle domande utilizzando la parola ” benessere “in contrapposizione alla più generica” assistenza ai poveri.”Diversi esperimenti hanno dimostrato che c’è molto più sostegno pubblico per l’espansione “assistenza ai poveri” che per l’espansione “benessere.”

Spesso scriviamo due versioni di una domanda e chiediamo a metà del campione del sondaggio una versione della domanda e l’altra metà della seconda versione. Quindi, diciamo che abbiamo due forme del questionario. Gli intervistati vengono assegnati in modo casuale per ricevere entrambi i moduli, quindi possiamo supporre che i due gruppi di intervistati siano essenzialmente identici. Sulle domande in cui vengono utilizzate due versioni, differenze significative nelle risposte tra le due forme ci dicono che la differenza è il risultato del modo in cui abbiamo formulato le due versioni.

Uno dei formati più comuni utilizzati nelle domande del sondaggio è il formato” accetto-non accetto”. In questo tipo di domanda, agli intervistati viene chiesto se sono d’accordo o in disaccordo con una particolare affermazione. La ricerca ha dimostrato che, rispetto ai più istruiti e meglio informati, gli intervistati meno istruiti e meno informati hanno una maggiore tendenza a concordare con tali affermazioni. Questo è talvolta chiamato un “bias di acquiescenza” (dal momento che alcuni tipi di intervistati hanno maggiori probabilità di acconsentire all’affermazione rispetto ad altri). Questo comportamento è ancora più pronunciato quando c’è un intervistatore presente, piuttosto che quando il sondaggio è auto-somministrato. Una pratica migliore consiste nell’offrire agli intervistati una scelta tra dichiarazioni alternative. Un esperimento del Pew Research Center con una delle sue domande sui valori regolarmente poste illustra la differenza che il formato delle domande può fare. Non solo il formato a scelta forzata produce un risultato complessivo molto diverso dal formato d’accordo-disaccordo, ma anche il modello di risposte tra gli intervistati con un’istruzione più o meno formale tende ad essere molto diverso.

Un’altra sfida nello sviluppo di questionari è quello che viene chiamato “bias di desiderabilità sociale.”Le persone hanno una naturale tendenza a voler essere accettate e apprezzate, e questo può portare le persone a fornire risposte imprecise a domande che trattano argomenti sensibili. La ricerca ha dimostrato che gli intervistati sottovalutano l’uso di alcol e droghe, l’evasione fiscale e il pregiudizio razziale. Possono anche sopravvalutare la presenza in chiesa, i contributi caritatevoli e la probabilità che votino in un’elezione. I ricercatori tentano di spiegare questo potenziale pregiudizio nella creazione di domande su questi argomenti. Ad esempio, quando le indagini del Pew Research Center chiedono informazioni sul comportamento di voto passato, è importante notare che le circostanze potrebbero aver impedito al rispondente di votare: “Nelle elezioni presidenziali del 2012 tra Barack Obama e Mitt Romney, sono sorte cose che ti hanno impedito di votare, o ti è capitato di votare?”La scelta delle opzioni di risposta può anche rendere più facile per le persone essere oneste. Ad esempio, una domanda sulla frequenza in chiesa potrebbe includere tre delle sei opzioni di risposta che indicano una frequenza non frequente. La ricerca ha anche dimostrato che il bias di desiderabilità sociale può essere maggiore quando è presente un intervistatore (ad esempio, sondaggi telefonici e faccia a faccia) rispetto a quando gli intervistati completano il sondaggio stessi (ad esempio, sondaggi cartacei e web).

Infine, poiché lievi modifiche nella formulazione delle domande possono influenzare le risposte, si dovrebbe utilizzare una formulazione identica delle domande quando si intende confrontare i risultati con quelli delle indagini precedenti. Allo stesso modo, poiché la formulazione delle domande e le risposte possono variare in base alla modalità utilizzata per esaminare gli intervistati, i ricercatori dovrebbero valutare attentamente i probabili effetti sulle misurazioni delle tendenze se verrà utilizzata una modalità di indagine diversa per valutare il cambiamento di opinione nel tempo.

Ordine delle domande

Una volta sviluppate le domande del sondaggio, si dovrebbe prestare particolare attenzione a come vengono ordinate nel questionario. I geometri devono essere attenti a come le domande all’inizio di un questionario possono avere effetti indesiderati su come gli intervistati rispondono alle domande successive. I ricercatori hanno dimostrato che l’ordine in cui vengono poste le domande può influenzare il modo in cui le persone rispondono; le domande precedenti possono involontariamente fornire un contesto per le domande che seguono (questi effetti sono chiamati “effetti dell’ordine”).

Un tipo di effetto ordine può essere visto nelle risposte a domande aperte. Le indagini del Pew Research Center generalmente pongono domande aperte su problemi nazionali, opinioni sui leader e argomenti simili vicino all’inizio del questionario. Se le domande a risposta chiusa che si riferiscono all’argomento vengono poste prima della domanda a risposta aperta, è molto più probabile che gli intervistati menzionino concetti o considerazioni sollevate in quelle domande precedenti quando rispondono alla domanda a risposta aperta.

Per le domande a risposta chiusa, esistono due tipi principali di effetti sugli ordini: effetti di contrasto ( in cui l’ordine determina maggiori differenze nelle risposte) e effetti di assimilazione (in cui le risposte sono più simili a causa del loro ordine).

Un esempio di effetto di contrasto può essere visto in un sondaggio del Pew Research Center condotto nell’ottobre 2003, una dozzina di anni prima che il matrimonio omosessuale fosse legalizzato negli Stati Uniti. Che sondaggio ha scoperto che le persone sono più propensi a favore permettendo a gay e lesbiche di stipulare accordi legali che forniscono loro gli stessi diritti delle coppie sposate, quando è stata fatta questa domanda dopo che uno se avessero favorito o di opposizione, consentendo gay e lesbiche di sposarsi (il 45% favorito accordi legali quando è stato chiesto dopo il matrimonio questione, ma il 37% favorito accordi legali senza l’immediato precedente contesto di una domanda di persone dello stesso sesso). Le risposte alla domanda sul matrimonio omosessuale, nel frattempo, non sono state significativamente influenzate dal suo posizionamento prima o dopo la questione degli accordi legali.

Un altro esperimento incorporato in un sondaggio del Pew Research Center del dicembre 2008 ha anche prodotto un effetto di contrasto. Quando alla gente è stato chiesto ” Tutto sommato, sei soddisfatto o insoddisfatto del modo in cui stanno andando le cose in questo paese oggi?”subito dopo essere stato chiesto” Approvi o disapprova il modo in cui George W. Bush sta gestendo il suo lavoro come presidente?”; l ‘ 88% ha dichiarato di essere insoddisfatto, rispetto al solo 78% senza il contesto della domanda precedente.

Le risposte all’approvazione presidenziale sono rimaste relativamente invariate se la soddisfazione nazionale è stata chiesta prima o dopo di essa. Un risultato simile si è verificato nel dicembre 2004 quando sia la soddisfazione che l’approvazione presidenziale erano molto più alte (il 57% era insoddisfatto quando l’approvazione di Bush era stata chiesta per prima contro il 51% quando la soddisfazione generale era stata chiesta per prima).

Diversi studi hanno anche dimostrato che porre una domanda più specifica prima di una domanda più generale (ad es., chiedendo la felicità con il suo matrimonio prima di chiedere la sua felicità complessiva) può provocare un effetto di contrasto. Sebbene siano state trovate alcune eccezioni, le persone tendono ad evitare la ridondanza escludendo la domanda più specifica dalla valutazione generale.

Gli effetti di assimilazione si verificano quando le risposte a due domande sono più coerenti o più vicine a causa della loro collocazione nel questionario. Abbiamo trovato un esempio di un effetto di assimilazione in un sondaggio del Pew Research Center condotto nel novembre 2008 quando abbiamo chiesto se i leader repubblicani dovrebbero lavorare con Obama o resistere a lui su questioni importanti e se i leader democratici dovrebbero lavorare con i leader repubblicani o resistere a loro su questioni importanti. La gente era più propensa a dire che i leader repubblicani dovrebbero lavorare con Obama quando la domanda è stata preceduta da quella che chiede cosa dovrebbero fare i leader democratici nel lavorare con i leader repubblicani (81% vs. 66%). Tuttavia, quando alla gente è stato chiesto per la prima volta dei leader repubblicani che lavorano con Obama, meno hanno detto che i leader democratici dovrebbero lavorare con i leader repubblicani (71% vs. 82%).

Le domande di ordine sono poste è di particolare importanza quando si tiene traccia delle tendenze nel tempo. Di conseguenza, occorre prestare attenzione per garantire che il contesto sia simile ogni volta che viene posta una domanda. La modifica del contesto della domanda potrebbe mettere in discussione qualsiasi cambiamento osservato nel tempo (vedere misurare il cambiamento nel tempo per ulteriori informazioni).

Un questionario, come una conversazione, dovrebbe essere raggruppato per argomento e svolgersi in un ordine logico. Spesso è utile iniziare il sondaggio con semplici domande che gli intervistati troveranno interessanti e coinvolgenti. Nel corso del sondaggio, si dovrebbe fare uno sforzo per mantenere il sondaggio interessante e non sovraccaricare gli intervistati con diverse domande difficili uno dopo l’altro. Domande demografiche come il reddito, l’istruzione o l’età non dovrebbero essere poste vicino all’inizio di un sondaggio, a meno che non siano necessarie per determinare l’ammissibilità all’indagine o per instradare gli intervistati attraverso particolari sezioni del questionario. Anche allora, è meglio precedere tali elementi con domande più interessanti e coinvolgenti. Una virtù dei pannelli di indagine come l’ATP è che le domande demografiche di solito devono essere poste solo una volta all’anno, non in ogni sondaggio.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.