Daniel Kahneman

Pułapki myślenia


Скачать книгу

opisem sposobu działania Systemu 1. Na przeskakiwanie do pochopnych wniosków można sobie pozwolić, kiedy wnioski prawdopodobnie okażą się trafne, koszt ewentualnego błędu jest do przyjęcia, a odpowiedź intuicyjna zapewni dużą oszczędność czasu i wysiłku. Przeskoczenie od razu do odpowiedzi intuicyjnej jest ryzykowne, kiedy znajdujemy się w nieznanej sytuacji, kiedy stawka jest wysoka i kiedy nie ma czasu na zebranie bliższych informacji. W takich okolicznościach prawdopodobne stają się błędy intuicji, którym mogła zapobiec przemyślana interwencja Systemu 2.

Lekceważone dwuznaczności, tłumione wątpliwości

      Rysunek 6

      Co łączy wszystkie trzy przykłady z rysunku 6? Odpowiedź brzmi: są wieloznaczne. Przykład z lewej strony prawie na pewno odczytałeś jako „A B C”, a z prawej jako „12 13 14”, mimo że w obu przypadkach środkowy symbol jest taki sam. Równie dobrze można te przykłady odczytać jako „A 13 C” i „12 B 14”, a jednak nie zrobiłeś tak. Dlaczego nie? Ten sam kształt otoczony literami zostaje odczytany jako litera, a otoczony liczbami jako liczba. Całość kontekstu pomaga interpretować elementy składowe. Kształt jest wieloznaczny, jednak nawet tego nie zauważasz: wyciągasz pewien wniosek na temat jego znaczenia, nie zdając sobie w ogóle sprawy, że rozstrzygnąłeś jakąś wieloznaczność.

      Co do Anny – pewnie wyobraziłeś sobie kobietę myślącą o rycerzach i turniejach, patrzącą na stare zamczysko. Taka interpretacja jest wiarygodna, ale nie jedyna: zdanie jest wieloznaczne. Gdyby wcześniejsze zdanie brzmiało „Przekręcany klucz nieprzyjemnie zazgrzytał”, wyobraziłbyś sobie zupełnie inną scenę. Kiedy myślisz o kluczach, słowo „zamek” nie kojarzy się z budowlą. Kiedy nie ma jasnego kontekstu, System 1 samodzielnie generuje kontekst prawdopodobny. Wiemy, że robi to System 1, bo nawet sobie nie uświadomiłeś, że masz jakiś wybór i możesz się zdecydować na inną interpretację. Jeżeli nie jesteś ślusarzem, pewnie częściej mówisz o zamkach w sensie budowli niż zabezpieczeń w drzwiach, dlatego wieloznaczność rozstrzygnąłeś w taki sposób. Kiedy System 1 ma do czynienia z niejednoznacznością, obstawia konkretną odpowiedź na podstawie doświadczenia. Wyborem kierują inteligentne zasady: podczas interpretowania najwyższa waga zostaje przypisana aktualnemu kontekstowi i niedawnym zdarzeniom. Kiedy do głowy nie przychodzi nam żadne aktualne zdarzenie, decydują wspomnienia bardziej odległe. Jednym z najwcześniejszych i najbardziej pamiętnych wspomnień w twoim życiu jest nauka alfabetu. Nigdy nie uczyłeś się frazy „A13C”.

      W obydwu przykładach najważniejsze jest to, że dokonał się w nich konkretny wybór, jednak nawet sobie tego nie uświadomiłeś. Do głowy przyszła ci tylko jedna interpretacja i nie zdałeś sobie sprawy z wieloznaczności. System 1 nie pamięta odrzuconych alternatyw – a nawet nie pamięta, że w ogóle istniały. System 1 nie jest zdolny do świadomych wątpliwości – wymaga to równoczesnego przechowywania w pamięci sprzecznych interpretacji, a to z kolei wymaga wysiłku umysłowego. Niepewność i wątpliwości to domena Systemu 2.

Tendencyjna skłonność do wierzenia i potwierdzania

      Psycholog Daniel Gilbert, dobrze znany jako autor książki Stumbling to Happiness [Przypadkowe szczęście] napisał esej pt. How Mental Systems Believe [Jak wierzą systemy umysłowe], w którym rozwinął teorię wiary i niewiary sięgającą korzeniami myśli siedemnastowiecznego filozofa Barucha Spinozy. Gilbert wysuwa tezę, że rozumienie zdania zaczyna się od próby uwierzenia w nie: żeby zrozumieć jakąś ideę, musisz najpierw wiedzieć, co oznaczałaby jej prawdziwość. Dopiero wtedy decydujesz, czy wierzyć w nią nadal, czy przestać wierzyć. Ta wyjściowa próba uwierzenia jest automatycznym działaniem Systemu 1 polegającym na skonstruowaniu jak najlepszej interpretacji danej sytuacji. Jak twierdzi Gilbert, nawet zdanie bezsensowne w pierwszej chwili budzi wiarę. Weź takie zdanie: „Karasie jedzą cukierki”. Zapewne miałeś świadomość, że w twoim umyśle pojawiają się mgliste idee ryb i cukierków, ponieważ automatyczne procesy pamięci skojarzeniowej zaczęły poszukiwać między oboma ideami związków, które pozwoliłyby odnaleźć sens w bezsensownym stwierdzeniu.

      Tak jak to widzi Gilbert, utrata wiary w prawdziwość zdania jest wynikiem działania Systemu 2. Na potwierdzenie tej tezy przedstawił elegancki eksperyment104. Uczestnicy jego badania oglądali bezsensowne stwierdzenia w stylu „dinka to płomień”, a po kilku sekundach pojawiało się jedno słowo: „prawda” albo „fałsz”. Później sprawdzano, czy uczestnicy pamiętają, po których zdaniach pojawiło się słowo „prawda”. W jednej wersji eksperymentu uczestnicy patrzący na pojawiające się stwierdzenia mieli równocześnie przechowywać w pamięci ciągi cyfr. Wywołane tym zakłócenie Systemu 2 działało selektywnie: utrudniało tylko „utratę wiary” w prawdziwość zdań fałszywych. Test wykazał, że uczestnicy, którzy wykonywali zadanie, mając wyczerpane ego, uznawali wiele zdań „fałszywych” za „prawdziwe”. Morał jest znaczący: gdy System 2 jest zajęty, jesteśmy skłonni wierzyć prawie we wszystko. System 1 jest łatwowierny – ma skłonność do przyjmowania rzeczy na wiarę. Wątpieniem i traceniem wiary w prawdziwość zdań zajmuje się System 2, jednak czasami bywa on zajęty, a często leniwy. Istnieją nawet dane sugerujące, że ludzie łatwiej ulegają pustej perswazji – np. w reklamach – kiedy są zmęczeni i mają wyczerpane ego.

      Działanie pamięci skojarzeniowej przyczynia się do zjawiska zwanego „efektem potwierdzania” lub „efektem konfirmacji” (confirmation bias). Słysząc pytanie „Czy Sam jest miły?” przypomnisz sobie inne przykłady zachowania Sama, niż gdyby pytanie brzmiało „Czy Sam jest niemiły?”. Także System 2 bada hipotezy tak, że poszukuje takich danych, które pozwoliłyby założoną tezę potwierdzić (nazywamy to „strategią pozytywnego testu”, positive test strategy). Wbrew wskazaniom filozofii nauki, która zaleca, żeby hipotezy sprawdzać, próbując je obalić, ludzie (dość często także naukowcy) poszukują danych, które będą im pasowały do przekonań. Skłonność Systemu 1 do preferowania potwierdzeń sprawia, że łatwiej jest nam bezkrytycznie przyjmować sugestie i za bardzo spodziewamy się zdarzeń ekstremalnych i nieprawdopodobnych. Gdyby cię zapytano, jakie jest prawdopodobieństwo, że w ciągu najbliższych trzydziestu lat Kalifornię nawiedzi tsunami, obrazy, które pojawią się w twoim umyśle, będą zapewne obrazami tsunami, tak jak to widzieliśmy w bezsensownym zdaniu Gilberta „Karasie jedzą cukierki”. Będziesz skłonny przecenić prawdopodobieństwo katastrofy.

Nadmierna spójność emocjonalna (efekt halo)

      Jeśli odpowiadają ci poglądy polityczne premiera, zapewne podoba ci się też jego głos i wygląd. Skłonność do lubienia (lub nielubienia) wszystkich aspektów danej osoby – łącznie z tymi, których nawet nie zauważamy – nazywamy „efektem halo” (halo effect), czyli efektem poświaty105. W psychologii ten termin funkcjonuje od stulecia, jednak w mowie potocznej nie wszedł do powszechnego użytku. To wielka szkoda, bo termin „efekt halo” trafnie nazywa często spotykany błąd poznawczy, który w dużym stopniu wpływa na nasze myślenie o ludziach i sytuacjach. Między innymi ten właśnie efekt sprawia, że System 1 generuje model świata znacznie prostszy i spójniejszy od rzeczywistego.

      Poznałeś na przyjęciu kobietę imieniem Joanna, która okazała się miłą osobą i ciekawie się wam rozmawiało. Po przyjęciu ktoś wspomina o niej podczas rozmowy o tym, do kogo można się zwrócić o wsparcie organizacji charytatywnej. Co wiesz na temat hojności Joanny? Poprawna odpowiedź brzmi: „w zasadzie nic”, bo nie ma powodu sądzić, że ludzie mili w towarzystwie zarazem hojnie wspierają dobroczynne przedsięwzięcia. Polubiłeś Joannę, więc myśl o niej przyniesie uczucie sympatii. Lubisz też hojność i hojnych ludzi. Za sprawą tego skojarzenia będziesz teraz skłonny sądzić, że Joanna jest