LES SCEPTIQUES DU QUÉBEC

Dictionnaire

Effet de ressac

(ou effet boomerang, effet de retour de flamme)

Terme inventé par Brendan Nyhan et Jason Reifler pour décrire la réaction d'une personne qui, mise au courant de faits contredisant ses croyances, campe encore plus solidement sur ses positions.

Par exemple, au cours d'une expérience de suivi de processus dynamique, Redlawsk (2002) a découvert que des sujets non exposés à des stimuli de traitement faisant appel à la mémoire en venaient à voir leur candidat préféré dans une élection simulée de façon plus favorable après qu'on les eut exposés à de l'information négative à son propos. De même,  des républicains des É.-U. à qui on expliquait que la prévalence du diabète de type 2 était en relation avec l'environnement social devenaient moins susceptibles d'appuyer des mesures de santé publique ciblant les déterminants sociaux de la santé que leurs homologues d'un groupe de contrôle (Gollust, Lantz et Ubel 2009).

John Bullock, spécialiste en science politique de Yale, donne un autre exemple: un groupe de bénévoles pour le Parti démocrate des É.-U. qui désapprouvaient la nomination de John G. Roberts Jr à la Cour suprême du pays sont devenus encore plus négatifs à son sujet quand on leur a dit qu'un groupe pro-choix l'avait accusé, dans une publicité, de «soutenir des groupes extrémistes violents, de même qu'un individu condamné pour un attentat à la bombe contre une clinique d'avortement». Que la désapprobation des bénévoles soit alors passée de 56 % à 80 % peut se comprendre. Nous savons que la désinformation politique fonctionne dans la mesure où les données transmises correspondent aux croyances du public cible. Nous sommes tous susceptibles de croire d'emblée les informations - vraies ou fausses - qui cadrent bien avec ce que nous croyons déjà savoir. Ce qui est moins compréhensible, c'est la raison pour laquelle le taux de désapprobation des bénévoles n'a baissé qu'à 72 %, même après qu'on leur eut montré une réfutation de la publicité par des partisans de l'avortement et qu'on a expliqué que le groupe pro-choix en question avait retiré son message des ondes. Pour beaucoup d'entre eux, apparemment, les faits n'ont eu que peu d'effet sur les croyances. Malgré de fortes preuves contredisant ce qu'ils pensaient, ils ont campé davantage sur leurs positions.

Nyhan et Reifler ont également mis en évidence un effet de ressac dans une étude sur des conservateurs. L'administration Bush avait prétendu qu'une baisse des impôts aurait pour effet d'accroître les recettes du gouvernement fédéral américain (ce qui ne s'est jamais concrétisé). On a présenté à un groupe une réfutation de cette idée venant d'économistes de renom, parmi lesquels se trouvaient de hauts fonctionnaires qui avaient travaillé pour le gouvernement ou qui y travaillaient encore. Environ 35 % des conservateurs croyaient l'affirmation de Bush, mais ce chiffre est passé à 67 % quand on a présenté la réfutation.

Dernier exemple:

Une étude de 2006 effectuée par Charles Taber et Milton Lodge à l'Université Stony Brook a montré que les gens avertis en matière de politique étaient moins ouverts à de nouvelles informations que des personnes moins au courant. Ces gens ont peut-être raison 90 % du temps, mais leur assurance les empêche pratiquement de corriger le tir lorsqu'ils ont tort.*

Certains attribuent l'effet de ressac à un déficit cognitif: chacun aurait tendance à voir dans les informations défavorables une confirmation de ses opinions (Lebo et Cassino 2007). Nyhan et Reifler, toutefois, pensent plutôt à «un résultat possible du processus par lequel on rejette l'information non congruente tout en renforçant ses opinions préexistantes». C'est une façon compliquée de dire que les gens se cramponnent encore davantage à ce qu'ils croient quand on leur présente des preuves contraires, mais ça n'explique pas pourquoi ils agissent ainsi. Une explication différente fait intervenir le renforcement collectif et la croyance qu'il pourrait exister davantage de preuves favorables encore inconnues. Si l'on sait qu'il existe toute une communauté de personnes qui partagent vos croyances, et qu'on est convaincu qu'il se trouve, quelque part, des preuves qu'on ignore encore mais qui vont dans le sens de ce que l'on croit, rationaliser devient beaucoup plus facile. D'ailleurs le processus de rationalisation pourrait pousser à accorder beaucoup plus de poids au renforcement collectif. Le temps qu'accordent les médias à votre thèse par rapport à celui qu'on attribue à l'idée contraire pourrait également jouer dans l'effet de ressac. Si les messages appuyant vos croyances sont présentés plus souvent, ou s'ils le sont par des personnes que vous admirez, vous leur accorderez peut-être encore plus d'importance qu'auparavant.

Peu importe quelle en est la cause, l'effet de ressac constitue une véritable énigme. Plus une croyance revêt un caractère idéologique et plus elle est fondée sur l'émotion, plus il est probable que des preuves la contredisant resteront sans effet. Il semble qu'il y ait corrélation entre l'effet de ressac et le manque de confiance en soi et l'insécurité. Davantage de recherche sera nécessaire pour trouver les facteurs additionnels poussant certaines personnes à réagir à des preuves contraires à leurs croyances comme s'il s'agissait d'un soutien supplémentaire par rapport à ce qu'ils pensent. Il faudrait aussi savoir si certains groupes sont plus susceptibles d'être touchés par l'effet de ressac (les libéraux ou les conservateurs, les théistes ou les athées, les sceptiques ou les croyants), et si oui, pourquoi.

Il faut distinguer l'effet de ressac de l'effet d'influence continue, selon lequel des informations qui s'avèrent inexactes continuent d'exercer une influence sur le raisonnement du sujet et sa compréhension des choses. Dans les deux cas, il s'agit de phénomènes décourageants pour ceux qui croient qu'en cas de divergence d'opinions avec une victime de désinformation, la première chose à faire consiste à rétablir les faits véritables. Agir ainsi pourrait très bien s'avérer inutile auprès de certaines personnes. Les gens à l'esprit critique auront toujours tendance à rechercher les faits authentiques - du moins, c'est ce qu'on peut penser. De la sorte, on peut éviter d'en arriver à des conclusions erronées ou d'adopter des comportements pouvant se révéler nuisibles. Par exemple, obtenir l'heure juste au sujet de l'alcool et du tabac constitue une première étape obligée dans l'adoption d'une saine ligne de conduite à propos de ces substances. Johnson et Seifert affirment qu'offrir une solution de rechange plausible en matière de causalité, au lieu de simplement nier l'information erronée, peut atténuer l'effet d'influence continue. Peut-être est-ce vrai pour certaines croyances, mais offrir une solution de rechange causale à des astrologues, des acuponcteurs, des homéopathes, des parapsychologues ou de tenants de la kinésiologie appliquée, par exemple, n'aura pas grand effet sur les vrais croyants. Les croyances politiques, religieuses ou carrément absurdes semblent à l'abri des faits. Tout changement relatif à ces systèmes de croyances est plus susceptible de se produire hors de tout affrontement direct avec les croyants.

 

Voir également: Effet de l'influence continue, Effet incivilité et Raisonnement motivé.

 

Dernière mise à jour le 24 août 2019.

Source: Skeptic's Dictionary