Почему так сложно переубедить людей, которые верят в альтернативную медицину и выступают против прививок?

В научной коммуникации есть термин «модель недостатка информации». Это идея, что люди верят в мифы просто потому, что им не рассказали, как всё на самом деле. Но модель эта неверна.

Почему так сложно переубедить людей, которые верят в альтернативную медицину и выступают против прививок?


У ответа на этот вопрос есть три аспекта:

— почему люди изначально поверили в эффективность альтернативной медицины и то, что прививки вызывают аутизм;

— проблемы мифоборчества в целом;

— почему дискуссия как формат общения не очень способствует изменению мнения.

Первый пункт вкратце.
Во-первых, почему бы и не поверить: мозг так устроен, что любая входящая информация сначала принимается как верная, если не противоречит имеющимся знаниям. Пересматривается она, когда есть повод. Так что если представители альтернативной медицины добрались до мозга первыми, у них преимущество.

Во-вторых, то, какие свидетельства достойны доверия, а какие нет, не особо-то просто и очевидно человеку, который специально не интересовался темой. Чтобы понять, почему двойному слепому эксперименту можно доверять больше, чем личному опыту, нужно знать, чем объясняется надёжность первого и ненадёжность второго. А интуитивно личный опыт кажется гораздо реальнее и весомее, чем болтовня каких-то там оторванных от реальности академиков.

Про причины иррациональных убеждений можно почитать прекрасные книги:

Майкл Шермер, "Тайны мозга. Почему мы во все верим" /"The Believing Brain. From Ghosts and Gods to Politics and Conspiracies – How We Construct Beliefs"

Джонатан Смит, "Псевдонаука и паранормальные явления. Критический взгляд"

Теперь я подробно остановлюсь на втором аспекте и дам несколько советов. Третий затрону мельком — скажу, что сократовский диалог лучше обычной дискуссии, в которой люди по очереди приводят аргументы в пользу своей точки зрения.

В научной коммуникации есть термин «модель недостатка информации». Это идея, что люди верят в мифы просто потому, что им не рассказали, как всё на самом деле. Но модель эта неверна.

Прямолинейной попыткой просвещения можно нечаянно сделать хуже - укрепить неверную картину мира собеседника. Чтобы этого не происходило, нужно учитывать несколько психологических эффектов.

Они описаны в специальном руководстве для разрушителей мифов (John Cook, Stephan Lewandowsky, “The Debunking Handbook”).

The Familiarity Backfire Effect
(Эффект обратного результата из-за узнаваемости мифа)

Чем чаще мы встречаем какое-то утверждение, тем охотнее мы в него верим. Это происходит автоматически. Даже если информация помечена как неверная: «Акупунктуру не применяют для обезболивания при операциях». Когда воспоминания тускнеют, остаётся что-то там про акупунктуру и обезболивание при операциях. Получается, мы сыграли на стороне мифа.

Чтобы проверить это соображение, в одном эксперименте людям дали буклет с опровержением распространённых мифов о вакцине против гриппа. Непосредственно после чтения люди успешно отличали заблуждения от фактов, но через каких-то полчаса некоторые (к счастью, не все) участники теста показали результаты хуже, чем до чтения. Скорее всего, через месяц результат окажется ещё более ярким.

Что делать?

Не упоминать миф. Серьёзно. Если это невозможно, делать акцент на фактах. Упоминать их в начале, выделять, ставить в центр, чтобы эффект узнаваемости работал на правдивые утверждения. Например, «Только медикаментозное обезболивание эффективно при хирургических операциях».

Особенно это важно для той информации, которую человек увидит мельком, не особо фокусируясь, – заголовков, плакатов и буклетов. В середине книги, когда вы уже завладели вниманием читателя, не так страшно подробнее остановиться на мифе.

The Overkill Backfire Effect
(Эффект обратного результата из-за переизбытка информации)

Часто люди считают, что чем больше аргументов, тем убедительнее позиция. И закидывают собеседника фактами и ссылками. Проблема в том, что если информация кажется слишком сложной, мозг предпочитает не разбираться вовсе и вернуться к простому (а значит, когнитивно привлекательному) мифу.

Что делать?

Быть проще. Не перечисляйте десять аргументов, оставьте три. Используйте простые фразы, картинки для наглядности. Если пишете статью, хорошо делать несколько уровней сложности материала, чтобы аудитория сама могла выбрать, насколько сильно хочет погружаться.

The Worldview Backfire Effect
(Эффект обратного результата из-за угрозы мировоззрению)

Люди ищут, замечают и интерпретируют информацию предвзято – так, чтобы она подтверждала их убеждения. Особенно это касается убеждений эмоционально значимых и связанных с идентичностью. Принципиально тут ничего не поменяешь, это побочный эффект устройства нашего мышления.

Вот и получается, что если дать двум убеждённым представителям противоположных лагерей сбалансированный набор свидетельств, разногласия могут стать сильнее («polarization effect»). Естественные двойные стандарты: аргументы в пользу своей точки зрения мозг принимает свободно, доводы противоположной стороны ковыряет пинцетом и капризничает («мотивированный скептицизм», «disconfirmation bias»).  

А если дать фанатикам набор фактов, противоречащих их картине мира, они станут защищаться – активно искать в памяти подтверждения своей позиции. Это может привести к тому, что убеждённость только окрепнет.

Что делать?

Если мы хотим повлиять на общество в целом, то нужно понимать, что у любой идеи безусловных приверженцев не так уж много, и можно оставить их в покое. Гораздо эффективнее будет направить усилия на работу с нейтральными и сомневающимися.

Если вам важно переубедить конкретного человека, попробуйте использовать сократовский диалог - открытые вопросы вместо утверждений. Почему ты так думаешь? Какое свидетельство могло бы повлиять на твоё мнение? Если бы этот твой аргумент оказался неправдой, ты бы изменил позицию или есть более серьёзные причины верить? Какая главная причина придерживаться этого убеждения? Ничего не утверждайте, не давайте пищи искажению подтверждения и мотивированному скептицизму. Узнайте, насколько собеседник в принципе готов менять мнение (если прямым текстом скажет, что не готов, порадуйтесь, что не стали терять время на спор). Подталкивайте его к обдумыванию и переоцениванию своей позиции, ищите противоречия в рассуждениях. Фокусируйтесь на том, что он считает самым важным: это редко бывают первые высказанные аргументы, нужно уточнять. Говорите о фактах только после того, как выслушали человека и убедились, что он примет свидетельства. Существует методика такого сократовского диалога об убеждениях и движение людей, которые его применяют – уличная эпистемология (Street Epistemology).

Ещё важный момент: эксперименты показывают, что когда участника просят вспомнить повод для гордости (ситуацию, в которой он повёл себя согласно своим ценностям), сразу после этого человек более объективно оценивает информацию, угрожающую картине мира.  

Можно осторожно вывести из этого, что если человек чувствует себя хорошим и сильным, дискуссия с ним будет более продуктивной. То есть (вот это поворот) вежливость и уважение помогают.

Необходимость заполнения пробела

Допустим, вы развенчали миф. И теперь в картине мира лакуна. Вакуум там, где раньше была связная история. Когда сознанию понадобится эту дырку залатать, штопать оно будет ближайшим доступным объяснением – тем самым мифом, который вроде как уже отбросили.

В одном эксперименте участники прочитали описание пожара на складе. В тексте были упомянуты масляная краска и канистры с бензином. Затем следовало уточнение, что при пожаре их не было. Даже когда люди помнили о поправке и понимали её, они сбивались. Например, на вопрос «Как вы думаете, почему было так много дыма?» обычно отвечали, что дело в масляной краске.

К счастью, когда им предложили альтернативное объяснение причины пожара, – жидкость для розжига, – ответов про краску стало меньше.

Что делать?

Предложить понятное альтернативное объяснение. Почему миф неверен, зачем люди могут распространять его (если ясны мотивы) и что происходит на самом деле.

Удачи в вашей борьбе!



Источник: https://vrachirf.ru/

menu
menu