4 claves para entender nuestra moral extraña e inconsistente

La investigación ayuda a explicar cómo pensamos sobre lo correcto y lo incorrecto.

Wason/Flickr

Fuente: Wason / Flickr

¿A qué factores prestamos atención cuando hacemos juicios morales? Para la mayoría de nosotros, depende.

Primero, los resultados definitivamente importan. La investigación muestra que incluso los bebés prefieren aquellos que son amables con los demás en comparación con aquellos que son neutrales o malos.

Además, los bebés prefieren aquellos que se comportan positivamente con otros que son agradables. Y los bebés evitan aquellos que se comportan positivamente con otros que son malos. En pocas palabras, los bebés prefieren a los que son agradables a las personas agradables, y quieren decir individuos.

Desde una edad temprana, entonces, juzgamos el comportamiento moral de los demás y usamos esta información para decidir a quién queremos.

Pero para los adultos, no son solo los resultados los que importan. Cuando hacemos veredictos morales, prestamos mucha atención a las intenciones, también.

¿El presidente quería dañar el medio ambiente?

La investigación transcultural sugiere que es un principio general de moralidad, un “universal cognitivo“, que las personas consideren las intenciones y los resultados.

Pero las personas piensan sobre las intenciones y los resultados de manera diferente dependiendo de la situación.

Por ejemplo, está el efecto Knobe. Aquí está el famoso escenario del documento original:

“El vicepresidente de una compañía fue al presidente del consejo y dijo: ‘Estamos pensando en comenzar un nuevo programa. Nos ayudará a aumentar las ganancias, pero también dañará el medio ambiente.

El presidente de la junta respondió: “No me importa para nada dañar el medio ambiente. Solo quiero obtener la mayor cantidad de ganancias posible. Comencemos el nuevo programa. ‘ Comenzaron el nuevo programa.

Efectivamente, el medioambiente fue dañado “.

Cuando se le preguntó si el presidente tenía la intención de dañar el medio ambiente, el 82% de los encuestados respondió que sí.

Pero algo extraño sucedió cuando se cambió una sola palabra.

En una versión diferente de la historia, los investigadores reemplazaron la palabra “daño” por “ayuda”. Todas las demás partes de la historia eran iguales excepto esa palabra. Luego, los investigadores preguntaron a los participantes si el presidente tenía la intención de ayudar al medio ambiente.

El 77% dijo que el presidente no tenía la intención de ayudar.

¿Qué significa esto? El resultado de una acción (perjudicial o útil) nos lleva a cambiar retroactivamente nuestra percepción de los hechos (en este caso, si una persona tiene la intención de hacer algo o no).

Si algo malo sucede como un efecto secundario, creemos que la persona lo hizo intencionalmente. Pero si algo bueno sucede como un efecto secundario, no creemos que la persona lo hizo intencionalmente. Por qué no?

Una explicación proviene del filósofo Richard Holton. Holton afirma que la mejor manera de explicar el efecto Knobe es identificar si una persona viola o se ajusta a una norma. Por ejemplo, si una persona hace algo sabiendo que un efecto secundario de la acción violará una norma, lo vemos como intencional. Pero si una norma se mantiene como un efecto secundario, no se considera intencional.

Tendemos a ver a los demás como normas que respetan irreflexivamente, y utilizamos la intención consciente de violarlas.

Libre albedrío y el problema de la enfermedad asiática

Además, no es solo intención. No somos consistentes sobre nuestra atribución de libre albedrío, también.

En una serie de experimentos, los investigadores presentaron a los participantes una versión adaptada del Asian Disease Problem. En el escenario, 600,000 personas están a punto de morir a causa de una enfermedad inminente.

Luego, los participantes leen acerca de una persona que debe decidir entre dos opciones: la opción “arriesgada” y la opción “segura”.

La opción arriesgada ofrecía una tercera posibilidad de salvar a todos y una probabilidad de dos tercios de que todos murieran. La opción segura salvaría a un tercio de la gente con seguridad, pero los otros dos tercios definitivamente morirían.

Los investigadores les dijeron a los participantes que imaginen que ellos o la persona en el escenario seleccionaron la opción arriesgada.

A la mitad de los participantes se les dijo que el responsable de la toma de decisiones en el escenario logró salvar a todos. A la otra mitad se le dijo que el responsable de la toma de decisiones falló y las 600,000 personas murieron.

Luego se les preguntó cuánta libertad libre tendría cada persona cuando tomaron una decisión.

En general, los participantes asignaron más libre albedrío a la persona cuya decisión llevó a la muerte de las 600,000 personas.

La idea de violación de normas de Holton también tiene sentido aquí. Si una persona tiene éxito en ayudar a otros, han mantenido una norma. Pero si una persona no ayuda a los demás, han violado una norma.

En resumen, las personas asignan selectivamente el libre albedrío a otros dependiendo de los resultados de sus acciones. Las personas asignan mayor intención y libre albedrío cuando suceden cosas malas.

Culpa y castigo

Investigaciones recientes sugieren que tenemos dos procesos cognitivos que chocan cuando hacemos veredictos morales. Un proceso es para el resultado. Otro proceso es para la intención.

La fricción entre estos procesos nos lleva a asignar culpas y castigos de manera diferente.

Un proceso mental evalúa las intenciones. ¿Querían hacerlo? ¿O fue un accidente?

El segundo proceso mental se preocupa por los resultados. ¿Lo que realmente pasó? ¿Quién causó que sucediera?

Supongamos que un conductor involuntariamente enciende una luz roja. El conductor choca con otra persona, que muere como resultado.

Bajo el modelo de dos procesos, sufrimos un conflicto entre la contabilidad de la intención del conductor y el resultado de la acción del conductor.

Sabemos que el conductor no tuvo la intención de dañar a nadie. La gente no asignaría mucha culpa. Pero muchas personas todavía querrían que el conductor sea castigado de alguna manera.

Sin embargo, las intuiciones de las personas difieren en los casos en que la persona intenta causar daño, pero no tiene éxito.

Imagina que un conductor quiere golpear a otra persona, pero falla. Nada malo realmente sucedió.

Aquí, la gente está más dispuesta a culpar. La persona quería hacer algo malo, después de todo. Pero la gente estaría menos dispuesta a castigar al segundo conductor, que no causó daños, en comparación con el primer conductor, que sí lo hizo.

En otras palabras, las personas piensan que aquellos que cometen daños accidentales deben ser castigados pero no culpables. Y la gente piensa que aquellos que intentan dañar pero no tienen éxito deben ser culpados, aunque no castigados tan severamente. Nuestra compulsión de castigar depende principalmente de si realmente ocurrió algo malo. Y nuestra compulsión de culpabilidad se basa principalmente en la intención de la persona.

Creemos que el castigo debe basarse en los resultados, no en las intenciones. Y creemos que la culpa debe basarse en intenciones, no en resultados.

Pensadores y Vulnerable Feelers

Sin embargo, el juicio moral no es tan sencillo como mirar los resultados y las intenciones. Otro factor es la percepción de la mente.

De acuerdo con la teoría de las diadas morales, para que un acto sea percibido como moral o inmoral debe contener dos individuos. Necesitamos un agente moral (un “actor pensante”) y un paciente moral (un “sensor vulnerable”).

Pero no es tan simple como identificar a un agente y un paciente y desde allí concluir que se ha producido una violación moral. El proceso puede ejecutarse en la dirección opuesta.

En pocas palabras, cuando pensamos que algo malo ha sucedido, nos vemos obligados a identificar tanto a un agente moral como a un paciente moral. Por ejemplo, cuando vemos daño y sufrimiento, vemos pacientes morales. Para completar la díada moral, nos vemos obligados a encontrar un agente moral. “¿Quién es responsable de este sufrimiento?”

En otras palabras, cuando las personas ven que alguien está sufriendo, la teoría de la díada moral dice que intentarán encontrar un agente, un “actor pensante”.

Además, las personas tratarán de encontrar pacientes morales cuando se enfrenten a agentes que parecen intuitivamente inmorales. Incluso si las víctimas específicas no son inmediatamente obvias. Los ejemplos incluyen un empresario ambicioso, un ingeniero negligente o un político falso. “Esta persona obviamente es mala, debe haber víctimas en algún lado”.

Los delitos consensuales y moralizados como el uso de marihuana o la prostitución también pueden provocar un intento de identificar a un paciente moral. “¡Tal vez no les hace daño, pero la sociedad está siendo lastimada!”

Dicho de manera simple, entonces, cuando las personas perciben el daño, buscan completar la díada moral identificando a una víctima y un perpetrador.

¿Qué es la moralidad?

Los investigadores detrás de la teoría de la diada moral afirman que la moralidad no consiste en “fuerzas místicas que existen aparte de la humanidad, sino simplemente lo que emerge a través de las interacciones de los agentes y los pacientes”. Para crear el mal, simplemente causar intencionalmente que otra mente sufra (por ejemplo, patear a un perro), y para crear algo bueno, solo prevenga intencionalmente que otra mente sufra (por ejemplo, evite que un perro sea pateado) “.

Una mayor disposición para culpar en lugar de alabanza en situaciones en las que los estados mentales de los agentes y pacientes difieren según el neurocientífico Joshua Greene, que dice: “Incorporados en nuestros cerebros morales son programas psicológicos automatizados que permiten y facilitan la cooperación“. Esta maquinaria moral opera implícitamente, permitiendo que los humanos lleguen a veredictos morales con poco pensamiento reflexivo.

Además, el psicólogo social Jonathan Haidt describió los sistemas morales como “conjuntos interconectados de valores, virtudes, normas, prácticas, identidades, instituciones, tecnologías y mecanismos psicológicos evolucionados que trabajan juntos para suprimir o regular el interés propio y posibilitar sociedades cooperativas. “Tanto Greene como Haidt enfatizan las raíces tribales de la moralidad humana. La cooperación permitió a nuestros antepasados ​​sobrevivir.

Cómo tomar decisiones morales

De hecho, Greene ofrece una solución para cuando confiar en nuestra maquinaria moral automatizada y cuando deberíamos ser más reflexivos acerca de los juicios morales. Claramente, cuando tratamos con miembros de nuestra tribu, nuestro grupo interno, confiando en la intuición está bien. Las probabilidades son que nos llevará a hacer lo correcto. Pero cuando se trata de extraños, o del grupo externo, nuestra maquinaria automatizada no es confiable. Aquí, debemos anular nuestros procesos automatizados y usar el pensamiento reflexivo para hacer lo correcto.

Dentro del grupo = Usar emociones morales. Out-group = Usar deliberación moral.

El papel de la cooperación podría ser una de las razones por las cuales los individuos están más dispuestos a culpar que alabar. La disposición a condenar puede estar guiada por el objetivo de cambiar el mal comportamiento de una persona. Y podría servir como una señal de advertencia para que otros se arreglen. El deseo de desalentar el mal comportamiento es más poderoso que la necesidad de alentar un comportamiento positivo.

Una implicación es que las personas analizan minuciosamente los casos en que algo bueno ha ocurrido antes de dar el elogio moral. Y las personas son más rápidas para apresurarse al juicio moral y asignar la culpa moral cuando algo malo ha sucedido.

A los ojos de los demás, es fácil ser malo y difícil ser bueno.

Puedes seguir a Rob en Twitter aquí: @robkhenderson.

Referencias

Cushman, F., Sheketoff, R., Wharton, S., y Carey, S. (2013). El desarrollo del juicio moral basado en la intención. Cognición, 127 (1), 6-21.

Feldman, G., Wong, KFE, y Baumeister, RF (2016). Lo malo es más libre que lo bueno: asimetría positiva negativa en las atribuciones de libre voluntad. Conciencia y cognición, 42, 26-40.

Gray, K., Waytz, A., y Young, L. (2012). La díada moral: una plantilla fundamental que unifica el juicio moral. Psychological Inquiry, 23 (2), 206-215.

Gray, K., y Wegner, DM (2010). Culpar a Dios por nuestro dolor: sufrimiento humano y la mente divina. Personality and Social Psychology Review, 14 (1), 7-16.

Greene, J. (2014). Tribus morales: emoción, razón y la brecha entre nosotros y ellos. Pingüino.

Haidt, J. (2012). La mente recta: ¿Por qué las buenas personas están divididas por la política y la religión? Vendimia.

Hamlin, JK, Wynn, K., y Bloom, P. (2007). Evaluación social por infantes preverbales. Nature, 450 (7169), 557 – 559.

Hamlin, JK, Wynn, K., Bloom, P., y Mahajan, N. (2011). Cómo reaccionan los bebés y niños pequeños ante otros antisociales. Actas de la academia nacional de ciencias, 108 (50), 19931-19936.

Holton, R. (2010). Las normas y el efecto Knobe. Analysis, 70 (3), 417-424.

Saxe, R. (2016). Estado moral de los accidentes. Procedimientos de la Academia Nacional de Ciencias, 113 (17), 4555-4557.

Tversky, A., y Kahneman, D. (1981). El encuadre de las decisiones y la psicología de elección. Science, 211 (4481), 453-458.

Wegner, DM, y Gray, K. (2017). The Mind Club: ¿Quién piensa, qué siente y por qué es importante? Pingüino.

Related of "4 claves para entender nuestra moral extraña e inconsistente"