La partie la plus importante du processus d’enquête est peut-être la création de questions qui mesurent avec précision les opinions, les expériences et les comportements du public. Un échantillonnage aléatoire précis sera gaspillé si l’information recueillie repose sur une base fragile de questions ambiguës ou biaisées. Créer de bonnes mesures implique à la fois de rédiger de bonnes questions et de les organiser pour former le questionnaire.
La conception du questionnaire est un processus en plusieurs étapes qui nécessite une attention à de nombreux détails à la fois. La conception du questionnaire est compliquée car les enquêtes peuvent poser des questions sur des sujets plus ou moins détaillés, les questions peuvent être posées de différentes manières et les questions posées plus tôt dans une enquête peuvent influencer la façon dont les gens répondent aux questions ultérieures. Les chercheurs sont également souvent intéressés à mesurer les changements au fil du temps et doivent donc être attentifs à la façon dont les opinions ou les comportements ont été mesurés dans des enquêtes antérieures.
Les géomètres peuvent mener des tests pilotes ou des groupes de discussion au début de l’élaboration du questionnaire afin de mieux comprendre comment les gens pensent à un problème ou comprennent une question. Le test préalable d’une enquête est une étape essentielle du processus de conception du questionnaire pour évaluer la façon dont les personnes répondent au questionnaire global et à des questions spécifiques, en particulier lorsque des questions sont introduites pour la première fois.
Pendant de nombreuses années, les géomètres ont abordé la conception du questionnaire comme un art, mais des recherches substantielles au cours des quarante dernières années ont démontré qu’il y avait beaucoup de science impliquée dans l’élaboration d’un bon questionnaire d’enquête. Ici, nous discutons des pièges et des meilleures pratiques de conception de questionnaires.
Élaboration des questions
L’élaboration d’un questionnaire d’enquête comporte plusieurs étapes. La première consiste à identifier les sujets qui seront abordés dans l’enquête. Pour les enquêtes du Pew Research Center, cela implique de réfléchir à ce qui se passe dans notre pays et dans le monde et à ce qui sera pertinent pour le public, les décideurs et les médias. Nous suivons également l’opinion sur une variété de questions au fil du temps, de sorte que nous veillons souvent à mettre à jour régulièrement ces tendances pour mieux comprendre si les opinions des gens changent.
Au Pew Research Center, l’élaboration du questionnaire est un processus collaboratif et itératif au cours duquel le personnel se réunit plusieurs fois pour discuter des ébauches du questionnaire au cours de son élaboration. Nous testons fréquemment de nouvelles questions d’enquête à l’avance grâce à des méthodes de recherche qualitative telles que des groupes de discussion, des entretiens cognitifs, des pré-tests (souvent en utilisant un échantillon en ligne, opt-in) ou une combinaison de ces approches. Les chercheurs utilisent les connaissances de ces tests pour affiner les questions avant qu’elles ne soient posées dans une enquête de production, comme sur l’ATP.
Mesurer le changement au fil du temps
De nombreux géomètres souhaitent suivre les changements au fil du temps dans les attitudes, les opinions et les comportements des gens. Pour mesurer le changement, des questions sont posées à deux ou plusieurs moments dans le temps. Une conception transversale étudie différentes personnes d’une même population à plusieurs moments dans le temps. Un panel, tel que l’ATP, enquête sur les mêmes personnes au fil du temps. Cependant, il est courant que l’ensemble des membres des panels d’enquête change au fil du temps à mesure que de nouveaux panélistes sont ajoutés et que certains panélistes antérieurs abandonnent. De nombreuses questions des enquêtes du Pew Research Center ont été posées lors de sondages antérieurs. Poser les mêmes questions à différents moments nous permet de rendre compte des changements dans les opinions générales du grand public (ou d’un sous-ensemble du public, comme les électeurs inscrits, les hommes ou les Noirs américains), ou ce que nous appelons « tendances des données ».
Pour mesurer les changements au fil du temps, il est important d’utiliser le même libellé de la question et d’être sensible à l’endroit où la question est posée dans le questionnaire afin de conserver un contexte similaire à celui où la question a été posée précédemment (voir le libellé de la question et l’ordre des questions pour plus d’informations). Tous nos rapports d’enquête comprennent un questionnaire topline qui fournit le libellé exact de la question et son ordre, ainsi que les résultats de l’enquête en cours et des enquêtes précédentes dans lesquelles nous avons posé la question.
La transition du Centre de la conduite d’enquêtes américaines par entretien téléphonique en direct à un panel en ligne (autour de 2014 à 2020) a compliqué certaines tendances d’opinion, mais pas d’autres. Tendances d’opinion qui posent des questions sur des sujets sensibles (p. ex., les finances personnelles ou la participation à des services religieux) ou qui ont suscité des réponses volontaires (p. ex., « ni l’un ni l’autre » ou « je ne sais pas ») au téléphone avaient tendance à montrer des différences plus importantes que les autres tendances lors du passage des sondages téléphoniques à l’ATP en ligne. Le Centre a adopté plusieurs stratégies pour faire face aux changements des tendances des données qui peuvent être liés à ce changement de méthodologie. S’il existe des preuves suggérant qu’un changement de tendance découle du passage de la mesure par téléphone à la mesure en ligne, les rapports du Centre signalent cette possibilité pour les lecteurs d’essayer d’éviter la confusion ou les conclusions erronées.
Questions ouvertes et fermées
L’une des décisions les plus importantes qui peuvent influer sur la façon dont les gens répondent aux questions est de savoir si la question est posée comme une question ouverte, où les répondants fournissent une réponse dans leurs propres mots, ou une question fermée, où on leur demande de choisir parmi une liste de choix de réponses.
Par exemple, dans un sondage mené après l’élection présidentielle de 2008, les gens ont répondu très différemment à deux versions de la question: » Quelle question vous importait le plus pour décider comment vous avez voté pour le président? »L’un était fermé et l’autre ouvert. Dans la version fermée, les répondants ont reçu cinq options et pouvaient se porter volontaires pour une option qui ne figurait pas sur la liste.
Lorsqu’ils ont explicitement proposé l’économie comme réponse, plus de la moitié des répondants (58%) ont choisi cette réponse; seulement 35% de ceux qui ont répondu à la version ouverte se sont portés volontaires pour l’économie. De plus, parmi ceux qui ont demandé la version fermée, moins d’un sur dix (8 %) a fourni une réponse autre que les cinq qu’ils ont lus. En revanche, 43 % des personnes interrogées dans la version ouverte ont fourni une réponse qui ne figurait pas dans la version fermée de la question. Tous les autres numéros ont été choisis au moins un peu plus souvent lorsqu’ils étaient explicitement proposés dans la version fermée que dans la version ouverte. (Voir également « Notes élevées pour la campagne, une barre haute pour Obama » pour plus d’informations.)
Les chercheurs mènent parfois une étude pilote à l’aide de questions ouvertes pour découvrir quelles réponses sont les plus courantes. Ils élaboreront ensuite des questions fermées basées sur cette étude pilote qui incluent les réponses les plus courantes comme choix de réponses. De cette façon, les questions peuvent mieux refléter ce que le public pense, comment il perçoit un problème particulier ou mettre en lumière certains problèmes que les chercheurs n’ont peut-être pas connus.
Lorsque vous posez des questions fermées, le choix des options fournies, la façon dont chaque option est décrite, le nombre d’options de réponse offertes et l’ordre de lecture des options peuvent tous influencer la façon dont les gens répondent. Un exemple de l’impact de la façon dont les catégories sont définies peut être trouvé dans un sondage du Pew Research Center réalisé en janvier 2002. Lorsqu’on a demandé à la moitié de l’échantillon s’il était « plus important que le président Bush se concentre sur la politique intérieure ou la politique étrangère », 52% ont choisi la politique intérieure, tandis que seulement 34% ont déclaré la politique étrangère. Lorsque la catégorie « politique étrangère » a été réduite à un aspect spécifique – « la guerre contre le terrorisme » – beaucoup plus de gens l’ont choisie: seuls 33% ont choisi la politique intérieure tandis que 52% ont choisi la guerre contre le terrorisme.
Dans la plupart des cas, le nombre de choix de réponses devrait être limité à un nombre relativement faible – seulement quatre ou peut–être cinq au plus -, en particulier dans les enquêtes téléphoniques. La recherche psychologique indique que les gens ont du mal à garder à l’esprit plus que ce nombre de choix en même temps. Lorsque la question porte sur un fait objectif et/ ou des données démographiques, telles que l’appartenance religieuse du répondant, davantage de catégories peuvent être utilisées. En fait, ils sont encouragés à assurer l’inclusivité. Par exemple, les questions de religion standard du Pew Research Center comprennent plus de 12 catégories différentes, en commençant par les affiliations les plus courantes (protestantes et catholiques). La plupart des répondants n’ont aucun problème avec cette question parce qu’ils peuvent s’attendre à voir leur groupe religieux dans cette liste dans une enquête auto-administrée.
En plus du nombre et du choix des options de réponse offertes, l’ordre des catégories de réponses peut influencer la façon dont les gens répondent aux questions fermées. La recherche suggère que dans les enquêtes téléphoniques, les répondants choisissent plus souvent des éléments entendus plus tard dans une liste (un « effet de récence »), et dans les enquêtes auto-administrées, ils ont tendance à choisir des éléments en haut de la liste (un effet de « primauté »).
En raison des préoccupations concernant les effets de l’ordre des catégories sur les réponses aux questions fermées, de nombreux ensembles d’options de réponse dans les enquêtes du Pew Research Center sont programmés pour être randomisés afin de s’assurer que les options ne sont pas posées dans le même ordre pour chaque répondant. La rotation ou la randomisation signifie que les questions ou les éléments d’une liste ne sont pas posés dans le même ordre à chaque répondant. Les réponses aux questions sont parfois affectées par les questions qui les précèdent. En présentant les questions dans un ordre différent pour chaque répondant, nous nous assurons que chaque question est posée dans le même contexte que toutes les autres questions le même nombre de fois (par exemple, la première, la dernière ou n’importe quelle position entre les deux). Cela n’élimine pas l’impact potentiel des questions précédentes sur la question actuelle, mais cela garantit que ce biais est réparti de manière aléatoire sur toutes les questions ou tous les éléments de la liste. Par exemple, dans l’exemple mentionné ci-dessus sur la question qui importait le plus dans le vote des gens, l’ordre des cinq questions de la version fermée de la question a été randomisé de sorte qu’aucune question n’apparaisse tôt ou tard dans la liste pour tous les répondants. La randomisation des éléments de réponse n’élimine pas les effets d’ordre, mais elle garantit que ce type de biais est réparti de manière aléatoire.
Les questions avec des catégories de réponses ordinales – celles avec un ordre sous–jacent (par exemple, excellent, bon, seulement passable, médiocre OU très favorable, principalement favorable, principalement défavorable, très défavorable) – ne sont généralement pas randomisées car l’ordre des catégories transmet des informations importantes pour aider les répondants à répondre à la question. En général, ces types d’échelles devraient être présentés dans l’ordre afin que les répondants puissent facilement placer leurs réponses le long du continuum, mais l’ordre peut être inversé pour certains répondants. Par exemple, dans l’une des questions du Pew Research Center sur l’avortement, on demande à la moitié de l’échantillon si l’avortement doit être « légal dans tous les cas, légal dans la plupart des cas, illégal dans la plupart des cas, illégal dans tous les cas », tandis que l’autre moitié de l’échantillon se voit poser la même question avec les catégories de réponses lues dans l’ordre inverse, en commençant par « illégal dans tous les cas. »Encore une fois, inverser l’ordre n’élimine pas l’effet de récence mais le répartit de manière aléatoire dans la population.
Formulation de la question
Le choix des mots et des phrases dans une question est essentiel pour exprimer le sens et l’intention de la question au répondant et s’assurer que tous les répondants interprètent la question de la même manière. Même de petites différences de formulation peuvent affecter considérablement les réponses fournies par les gens.
Un exemple de différence de formulation qui a eu un impact significatif sur les réponses provient d’une enquête du Pew Research Center de janvier 2003. Lorsqu’on a demandé aux gens s’ils seraient « favorables ou opposés à une action militaire en Irak pour mettre fin au règne de Saddam Hussein », 68% ont déclaré qu’ils étaient favorables à une action militaire tandis que 25% se sont dits opposés à une action militaire. Cependant, lorsqu’on leur a demandé s’ils seraient « favorables ou opposés à une action militaire en Irak pour mettre fin au règne de Saddam Hussein, même si cela signifiait que les forces américaines pourraient faire des milliers de victimes », les réponses étaient radicalement différentes: seuls 43% ont déclaré qu’ils étaient favorables à une action militaire, tandis que 48% s’y opposaient. L’introduction des États-Unis les victimes ont modifié le contexte de la question et influencé la question de savoir si les gens étaient favorables ou opposés à une action militaire en Irak.
Il y a eu une quantité importante de recherches pour évaluer l’impact des différentes façons de poser des questions et comment minimiser les différences dans la façon dont les répondants interprètent ce qui est demandé. Les questions liées au libellé des questions sont plus nombreuses que ce qui peut être traité de manière adéquate dans ce court espace, mais voici quelques-unes des choses importantes à considérer:
Tout d’abord, il est important de poser des questions claires et précises auxquelles chaque répondant pourra répondre. Si une question est ouverte, il devrait être évident pour les répondants qu’ils peuvent répondre dans leurs propres mots et quel type de réponse ils devraient fournir (un problème ou un problème, un mois, un nombre de jours, etc.). Les questions fermées devraient inclure toutes les réponses raisonnables (c.-à-d. que la liste des options est exhaustive) et les catégories de réponses ne devraient pas se chevaucher (c.-à-d. que les options de réponse devraient s’exclure mutuellement). De plus, il est important de discerner quand il est préférable d’utiliser des questions fermées à choix forcé (souvent désignées par un bouton radio dans les sondages en ligne) par rapport aux listes « sélectionner tout ce qui s’applique » (ou cocher toutes les cases). Une étude du Centre 2019 a révélé que les questions à choix forcé ont tendance à donner des réponses plus précises, en particulier pour les questions sensibles. Sur la base de cette recherche, le Centre évite généralement d’utiliser des questions à tout ce qui s’applique.
Il est également important de ne poser qu’une seule question à la fois. Des questions qui demandent aux répondants d’évaluer plus d’un concept (connu sous le nom de questions à double canon) – telles que « Quelle confiance avez–vous dans le président Obama pour gérer la politique intérieure et étrangère? » – sont difficiles à répondre pour les répondants et conduisent souvent à des réponses difficiles à interpréter. Dans cet exemple, il serait plus efficace de poser deux questions distinctes, l’une sur la politique intérieure et l’autre sur la politique étrangère.
En général, les questions qui utilisent un langage simple et concret sont plus facilement comprises par les répondants. Il est particulièrement important de tenir compte du niveau d’éducation de la population interrogée lorsqu’elle réfléchit à la facilité avec laquelle les répondants pourront interpréter et répondre à une question. Les doubles négatifs (p. ex., êtes-vous favorable ou opposé à ce que les gais et les lesbiennes ne puissent pas se marier légalement) ou les abréviations ou le jargon inconnus (p. ex., ANWR au lieu de Arctic National Wildlife Refuge) peuvent entraîner une confusion chez les répondants et devraient être évités.
De même, il est important de déterminer si certains mots peuvent être considérés comme biaisés ou potentiellement offensants pour certains répondants, ainsi que la réaction émotionnelle que certains mots peuvent provoquer. Par exemple, dans une enquête du Pew Research Center de 2005, 51% des répondants ont déclaré qu’ils étaient favorables à « rendre légal pour les médecins de donner aux patients en phase terminale les moyens de mettre fin à leurs jours », mais seulement 44% ont déclaré qu’ils étaient favorables à « rendre légal pour les médecins d’aider les patients en phase terminale à se suicider. »Bien que les deux versions de la question posent la même chose, la réaction des répondants était différente. Dans un autre exemple, les répondants ont réagi différemment aux questions en utilisant le mot « bien-être » par opposition au mot plus générique « aide aux pauvres ». »Plusieurs expériences ont montré qu’il existe un soutien public beaucoup plus important pour l’expansion de « l’aide aux pauvres » que pour l’expansion du « bien-être ». »
Nous rédigeons souvent deux versions d’une question et posons à la moitié de l’échantillon de l’enquête une version de la question et l’autre moitié la deuxième version. Ainsi, nous disons que nous avons deux formes de questionnaire. Les répondants sont assignés au hasard pour recevoir l’un ou l’autre formulaire, de sorte que nous pouvons supposer que les deux groupes de répondants sont essentiellement identiques. Pour les questions où deux versions sont utilisées, des différences significatives dans les réponses entre les deux formulaires nous indiquent que la différence est le résultat de la façon dont nous avons formulé les deux versions.
L’un des formats les plus couramment utilisés dans les questions d’enquête est le format « d’accord-pas d’accord ». Dans ce type de question, on demande aux répondants s’ils sont d’accord ou non avec une déclaration particulière. La recherche a montré que, par rapport aux répondants mieux éduqués et mieux informés, les répondants moins instruits et moins informés ont une plus grande tendance à être d’accord avec de telles déclarations. Cela est parfois appelé un « biais d’acquiescement » (puisque certains types de répondants sont plus susceptibles d’acquiescer à l’affirmation que d’autres). Ce comportement est encore plus prononcé lorsqu’un intervieweur est présent, plutôt que lorsque l’enquête est auto-administrée. Une meilleure pratique consiste à offrir aux répondants le choix entre d’autres déclarations. Une expérience du Pew Research Center avec l’une de ses questions de valeurs posées régulièrement illustre la différence que le format de question peut faire. Non seulement le format de choix forcé donne un résultat très différent dans l’ensemble du format d’accord-désaccord, mais le modèle de réponses entre les répondants ayant une éducation plus ou moins formelle a également tendance à être très différent.
Un autre défi dans l’élaboration des questionnaires est ce qu’on appelle le « biais de désirabilité sociale. »Les gens ont une tendance naturelle à vouloir être acceptés et aimés, ce qui peut amener les gens à fournir des réponses inexactes aux questions qui traitent de sujets sensibles. Des recherches ont montré que les répondants sous-estiment la consommation d’alcool et de drogues, l’évasion fiscale et les préjugés raciaux. Ils peuvent également surestimer la fréquentation de l’église, les contributions caritatives et la probabilité qu’ils votent à une élection. Les chercheurs tentent de rendre compte de ce biais potentiel en élaborant des questions sur ces sujets. Par exemple, lorsque les enquêtes du Pew Research Center posent des questions sur le comportement de vote passé, il est important de noter que les circonstances ont peut-être empêché le répondant de voter: « Lors de l’élection présidentielle de 2012 entre Barack Obama et Mitt Romney, des choses sont-elles apparues qui vous ont empêché de voter ou avez-vous voté? » Le choix des options de réponse peut également faciliter l’honnêteté des gens. Par exemple, une question sur la fréquentation de l’église peut inclure trois des six options de réponse indiquant une présence peu fréquente. La recherche a également montré que le biais de désirabilité sociale peut être plus important lorsqu’un intervieweur est présent (p. ex., sondages téléphoniques et en personne) que lorsque les répondants répondent eux-mêmes au sondage (p. ex., sondages papier et Web).
Enfin, étant donné que de légères modifications du libellé des questions peuvent affecter les réponses, il convient d’utiliser un libellé identique lorsque l’intention est de comparer les résultats à ceux des enquêtes antérieures. De même, étant donné que le libellé des questions et les réponses peuvent varier en fonction du mode utilisé pour sonder les répondants, les chercheurs devraient évaluer soigneusement les effets probables sur les mesures des tendances si un mode d’enquête différent est utilisé pour évaluer l’évolution de l’opinion au fil du temps.
Ordre des questions
Une fois les questions de l’enquête élaborées, une attention particulière devrait être accordée à la façon dont elles sont classées dans le questionnaire. Les géomètres doivent être attentifs à la façon dont les questions au début d’un questionnaire peuvent avoir des effets involontaires sur la façon dont les répondants répondent aux questions suivantes. Les chercheurs ont démontré que l’ordre dans lequel les questions sont posées peut influencer la façon dont les gens répondent; les questions antérieures peuvent involontairement fournir un contexte aux questions qui suivent (ces effets sont appelés « effets d’ordre »).
Un type d’effet d’ordre peut être observé dans les réponses aux questions ouvertes. Les enquêtes du Pew Research Center posent généralement des questions ouvertes sur les problèmes nationaux, les opinions sur les dirigeants et des sujets similaires vers le début du questionnaire. Si les questions fermées qui se rapportent au sujet sont placées avant la question ouverte, les répondants sont beaucoup plus susceptibles de mentionner les concepts ou les considérations soulevés dans ces questions antérieures lorsqu’ils répondent à la question ouverte.
Pour les questions d’opinion fermées, il existe deux principaux types d’effets d’ordre: les effets de contraste (où l’ordre entraîne de plus grandes différences dans les réponses) et les effets d’assimilation (où les réponses sont plus similaires en raison de leur ordre).
Un exemple d’effet de contraste peut être vu dans un sondage du Pew Research Center réalisé en octobre 2003, une douzaine d’années avant la légalisation du mariage homosexuel aux États-Unis. Ce sondage a révélé que les gens étaient plus enclins à autoriser les gays et les lesbiennes à conclure des accords juridiques qui leur confèrent les mêmes droits que les couples mariés lorsque cette question a été posée après celle de savoir s’ils étaient favorables ou opposés à l’autorisation des gays et des lesbiennes de se marier (45% étaient favorables aux accords juridiques après la question sur le mariage, mais 37% étaient favorables aux accords juridiques sans le contexte précédent immédiat d’une question sur le mariage homosexuel). Les réponses à la question sur le mariage homosexuel, quant à elles, n’ont pas été significativement affectées par son placement avant ou après la question des accords juridiques.
Une autre expérience intégrée dans un sondage du Pew Research Center de décembre 2008 a également abouti à un effet de contraste. Quand on a demandé aux gens: « Dans l’ensemble, êtes-vous satisfait ou insatisfait de la façon dont les choses se passent dans ce pays aujourd’hui? »immédiatement après avoir été interrogé »Approuvez-vous ou désapprouvez-vous la façon dont George W. Bush gère son travail de président? »; 88 % se disent insatisfaits, contre seulement 78 % sans le contexte de la question précédente.
Les réponses à l’approbation présidentielle sont restées relativement inchangées, que la satisfaction nationale ait été demandée avant ou après. Une constatation similaire s’est produite en décembre 2004, lorsque la satisfaction et l’approbation présidentielle étaient beaucoup plus élevées (57% étaient insatisfaits lorsque l’approbation Bush a été demandée en premier contre 51% lorsque la satisfaction générale a été demandée en premier).
Plusieurs études ont également montré que poser une question plus spécifique avant une question plus générale (p. ex., poser des questions sur le bonheur avec son mariage avant de poser des questions sur son bonheur global) peut entraîner un effet de contraste. Bien que certaines exceptions aient été trouvées, les gens ont tendance à éviter la redondance en excluant la question plus spécifique de la note générale.
Les effets d’assimilation se produisent lorsque les réponses à deux questions sont plus cohérentes ou plus rapprochées en raison de leur emplacement dans le questionnaire. Nous avons trouvé un exemple d’effet d’assimilation dans un sondage du Pew Research Center réalisé en novembre 2008 lorsque nous avons demandé si les dirigeants républicains devaient travailler avec Obama ou lui tenir tête sur des questions importantes et si les dirigeants démocrates devaient travailler avec les dirigeants républicains ou leur tenir tête sur des questions importantes. Les gens étaient plus susceptibles de dire que les dirigeants républicains devraient travailler avec Obama lorsque la question était précédée de celle demandant ce que les dirigeants démocrates devraient faire en travaillant avec les dirigeants républicains (81% contre 66%). Cependant, lorsque les gens ont été interrogés pour la première fois sur les dirigeants républicains travaillant avec Obama, ils étaient moins nombreux à dire que les dirigeants démocrates devraient travailler avec les dirigeants républicains (71% contre 82%).
Les questions de commande sont posées revêtent une importance particulière lors du suivi des tendances au fil du temps. Par conséquent, il faut veiller à ce que le contexte soit similaire chaque fois qu’une question est posée. La modification du contexte de la question pourrait remettre en question tout changement observé au fil du temps (voir Mesurer le changement au fil du temps pour plus d’informations).
Un questionnaire, comme une conversation, doit être regroupé par sujet et se dérouler dans un ordre logique. Il est souvent utile de commencer l’enquête avec des questions simples que les répondants trouveront intéressantes et engageantes. Tout au long de l’enquête, un effort devrait être fait pour que l’enquête reste intéressante et ne surcharge pas les répondants avec plusieurs questions difficiles les unes après les autres. Les questions démographiques telles que le revenu, le niveau de scolarité ou l’âge ne doivent pas être posées vers le début d’une enquête, sauf si elles sont nécessaires pour déterminer l’admissibilité à l’enquête ou pour acheminer les répondants à travers des sections particulières du questionnaire. Même dans ce cas, il est préférable de précéder ces éléments de questions plus intéressantes et plus engageantes. L’une des vertus des panels d’enquête comme l’ATP est que les questions démographiques ne doivent généralement être posées qu’une fois par an, et non dans chaque enquête.