Information

Neigen Menschen dazu, an einer Meinung festzuhalten, nachdem sie sie gebildet haben?

Neigen Menschen dazu, an einer Meinung festzuhalten, nachdem sie sie gebildet haben?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Scytales Einschätzung aus dem Science-Fiction-Roman "Dune Messiah" (1969)

Wenn sich eine Kreatur zu einer Sache entwickelt hat, wird sie lieber den Tod wählen, als sich in ihr Gegenteil zu verwandeln.

Beim Lesen einiger Diskussionen über Meta Stack Overflow wurde mir klar, dass dies möglicherweise nicht das beste Format ist, um konstruktive Diskussionen zu beginnen. Wenn Menschen sich in einer Diskussion einmal für eine Seite entscheiden, neigen sie sehr dazu, die Diskussion nicht mehr aus dem anderen Blickwinkel zu betrachten. Die Leute mögen bestimmte Teile eines Vorschlags nicht und werden dann vehement gegen das Ganze, anstatt zu versuchen, an der Lösung der von ihnen aufgeworfenen Probleme mitzuwirken.

Ist das ein etabliertes psychologisches Phänomen?


Jawohl. Aber warum sollte es so sein? Man kann sich der Frage aus mehreren Richtungen nähern. Cass Sunstein spricht zum Beispiel darüber, wie Informationskaskaden die von Ihnen beschriebenen pfadabhängigen Effekte erzeugen können: Person A sagt etwas, was Person B auf die gleiche Meinung lenkt, mit dem Ergebnis, dass die Entscheidungsfindung in der Gruppe die Eingaben der frühen Antwortenden stark überbewertet. (James Surowiecki hat auch eine ausgezeichnete populärwissenschaftliche Behandlung dieses Themas gemacht.)

So viel zum Hobgoblin der kleinen Geister für Gruppen. Innerhalb des Individuums wurde das Thema durch die Dissonanzliteratur angesprochen, in der das Denken entgegen einer etablierten Position unangenehme Folgen hat, sowohl hedonisch als auch adaptiv. Insbesondere die Aufrechterhaltung eines konsistenten Satzes mentaler Überzeugungen scheint für eine effiziente Handlungsauswahl wichtig zu sein, möglicherweise als Folge der Art und Weise, wie semantische Informationen (einschließlich motorischer Steuerungsprogramme) im Gehirn dargestellt werden.

Das Ergebnis all dessen ist, dass die Leute, wie Sie vorschlagen, eine Position aufbauen und dann motiviert sind, sie zu behalten, was keine Neuigkeit ist. Überraschend ist, dass dieses nervige Verhalten wahrscheinlich sehr anpassungsfähig ist und eine Folge unserer neuronalen Architektur zur Wissensrepräsentation und Entscheidungsfindung ist. Mit anderen Worten, ein Feature und kein Bug.


Was Shanusmagnus sagte: Was Sie meinen, ist in der Tat ein etabliertes psychologisches Phänomen namens Bestätigungsverzerrung. Die Vorspannung besteht aus

das Suchen oder Interpretieren von Beweisen auf eine Weise, die teilweise zu bestehenden Überzeugungen, Erwartungen oder einer vorliegenden Hypothese passt (Nickerson, 1998).

Bestätigungsverzerrungen gehören anscheinend zu den am besten untersuchten Verzerrungen in der Psychologie (Mercier & Sperber, 2011), und es gibt viele Beweise für ihre Existenz (für eine Übersicht siehe Nickerson, 1998). Mercier und Sperber (2011) stellen auch fest, dass

Obwohl es einige individuelle Unterschiede gibt, scheint es, dass jeder in gewissem Maße betroffen ist, unabhängig von Faktoren wie allgemeiner Intelligenz oder Aufgeschlossenheit (Stanovich & West, 2007; 2008a; 2008b).

Ich erinnere mich auch, ein Interview mit Hugo Mercier gelesen zu haben, in dem er sagte, dass alle Versuche, Menschen zu trainieren, ihre Bestätigungsverzerrung loszuwerden, erfolglos waren, aber ich habe keine Zitate, die dies untermauern.

Mercier und Sperber (2011) formulierten kürzlich eine Theorie namens Argumentative Theory, die mit dem übereinstimmt, was Shanusmagnus sagte, nämlich dass Confirmation Bias eher ein Merkmal als ein Fehler sein kann. In ihrer Argumentativen Theorie argumentieren Mercier und Sperber, dass sich die Argumentation möglicherweise nicht entwickelt hat, um Probleme zu lösen, sondern um andere im Diskurs zu überzeugen. Sie argumentieren aus evolutionärer Sicht, dass die Fähigkeit dazu einen evolutionären Vorteil bietet.

Mercier, Hugo und Dan Sperber. Warum denken Menschen? Argumente für eine argumentative Theorie. Verhaltens- und Neurowissenschaften 34, Nr. 2 (April 2011): 57-74.
Nickerson, R. S. Bestätigungsfehler: Ein allgegenwärtiges Phänomen in vielen Formen. Überprüfung der Allgemeinen Psychologie; Übersicht Allgemeine Psychologie 2, Nr. 1 2 (1998): 175.
Stanovich, K. E. und R. F. West. Der natürliche Myside-Bias ist unabhängig von der kognitiven Fähigkeit. Denken & Argumentieren 13, nr. 3 (2007): 225-247.
Stanovich, K. E. und R. F. West. Über das Versagen der kognitiven Fähigkeit, myside und einseitige Denkverzerrungen vorherzusagen. Denken & Argumentieren 14, nr. 2 (2008): 129-167.
Stanovich, K. E. und R. F. West. Über die relative Unabhängigkeit von Denkverzerrungen und kognitiven Fähigkeiten. Zeitschrift für Persönlichkeits- und Sozialpsychologie 94, Nr. 4 (2008): 672.


Einen möglicherweise relevanten Ansatz zu dieser Frage liefert ein in [1] beschriebenes Rechenmodell. Obwohl die Hauptaussage des Papiers ist, dass egoistische Agenten durch ihre Gewohnheit (bei ihren Entscheidungen bleiben) zum Gemeinwohl beitragen (sozusagen gegen sich selbst), wird auch argumentiert, dass Gewöhnung die individuelle Fitness erhöht.

Verweise:

[1] Davies, A. P., Watson, R. A., Mills, R., Buckley, C. L. & Noble, J. (2011). „Wenn Sie nicht mit dem zusammen sein können, den Sie lieben, lieben Sie den, mit dem Sie zusammen sind“: Wie die individuelle Gewöhnung an Agenteninteraktionen den globalen Nutzen verbessert. Künstliches Leben, 17(3), 167-181. Verknüpfung


Relevante Einträge aus der Wikipedia-Liste der kognitiven Verzerrungen:

  • Backfire-Effekt – wenn Menschen auf widersprüchliche Beweise reagieren, indem sie ihre Überzeugungen stärken.
  • Bestätigungsverzerrung - die Tendenz, nach Informationen zu suchen oder diese so zu interpretieren, dass die eigenen Vorurteile bestätigt werden.
  • Irrationale Eskalation [oder Eskalation des Engagements] – das Phänomen, bei dem Menschen erhöhte Investitionen in eine Entscheidung auf der Grundlage der kumulierten vorherigen Investitionen rechtfertigen, obwohl neue Beweise dafür sprechen, dass die Entscheidung wahrscheinlich falsch war.