¿Debería un coche autónomo matar al bebé oa la abuela? Depende


El infame “problema del tranvía” se planteó a millones de personas en un estudio global, revelando cuántas éticas divergen entre culturas.

En 2014, investigadores del MIT Media Lab diseñaron un experimento llamado Moral Machine. La idea era crear una plataforma similar a un juego que reuniera las decisiones de las personas sobre cómo los autos autónomos deberían priorizar las vidas en diferentes variaciones del “problema del tranvía”. En el proceso, los datos generados proporcionarían información sobre las prioridades éticas colectivas de diferentes culturas.

Los investigadores nunca predijeron la recepción viral del experimento. Cuatro años después de que la plataforma se puso en marcha, millones de personas en 233 países y territorios han registrado 40 millones de decisiones, lo que lo convierte en uno de los estudios más grandes jamás realizados sobre preferencias morales globales.

Un nuevo artículo publicado en Nature presenta el análisis de esos datos y revela cuántas éticas transculturales divergen sobre la base de la cultura, la economía y la ubicación geográfica.

El problema clásico del tranvía es el siguiente: ves un carrito fuera de control corriendo por las vías, a punto de golpear y matar a cinco personas. Tiene acceso a una palanca que podría cambiar el carro a una pista diferente, donde una persona diferente se encontraría con una desaparición prematura. ¿Deberías tirar de la palanca y acabar con una vida para ahorrar cinco?

The Moral Machine tomó esa idea para probar nueve comparaciones diferentes que han demostrado polarizar a las personas: si un automóvil autónomo prioriza a los humanos sobre las mascotas, los pasajeros sobre los peatones, más vidas sobre menos, mujeres sobre hombres, jóvenes sobre viejos, encajar sobre enfermizos, social superior ¿Estado sobre los más bajos, los cumplidores de la ley sobre los transgresores? Y finalmente, ¿debería el automóvil virar bruscamente (actuar) o mantenerse en curso (inacción)?

Sin embargo, en lugar de plantear comparaciones uno a uno, el experimento presentó a los participantes varias combinaciones, como si un automóvil autónomo debería continuar en línea recta para matar a tres peatones ancianos o desviarse hacia una barricada para matar a tres pasajeros jóvenes.

Los investigadores encontraron que las preferencias de los países difieren ampliamente, pero también tienen una alta correlación con la cultura y la economía. Por ejemplo, los participantes de culturas colectivistas como China y Japón tienen menos probabilidades de perdonar a los jóvenes que a los viejos, tal vez, según la hipótesis de los investigadores, debido a un mayor énfasis en el respeto a los ancianos.

De manera similar, los participantes de países más pobres con instituciones más débiles son más tolerantes con los peatones imprudentes que con los peatones que cruzan legalmente. Y los participantes de países con un alto nivel de desigualdad económica muestran mayores brechas entre el trato de las personas con un estatus social alto y bajo.

Y, en lo que se reduce a la cuestión esencial del problema de los carritos, los investigadores encontraron que la gran cantidad de personas en peligro no siempre fue el factor dominante para elegir qué grupo debería salvarse. Los resultados mostraron que los participantes de culturas individualistas, como el Reino Unido y los EE. UU., Pusieron un mayor énfasis en salvar más vidas dadas todas las demás opciones, tal vez, en opinión de los autores, debido al mayor énfasis en el valor de cada individuo.

Los países muy próximos entre sí también mostraron preferencias morales más cercanas, con tres grupos dominantes en Occidente, Este y Sur.

Los investigadores reconocieron que los resultados podrían estar sesgados, dado que los participantes en el estudio fueron autoseleccionados y, por lo tanto, es más probable que estén conectados a Internet, tengan una alta posición social y sean expertos en tecnología. Pero es probable que aquellos interesados ​​en conducir automóviles autónomos también tengan esas características.

El estudio tiene implicaciones interesantes para los países que actualmente están probando vehículos autónomos, ya que estas preferencias podrían influir en la configuración del diseño y la regulación de dichos vehículos. Los fabricantes de automóviles pueden encontrar, por ejemplo, que los consumidores chinos entrarían más fácilmente en un automóvil que se protegiera de los peatones.

Pero los autores del estudio enfatizaron que los resultados no pretenden dictar cómo deben actuar los diferentes países. De hecho, en algunos casos, los autores sintieron que los tecnólogos y los legisladores deberían anular la opinión pública colectiva. Edmond Awad, autor del artículo, mencionó la comparación de estatus social como ejemplo. “Parece preocupante que a la gente le parezca bien en un grado significativo perdonar un estatus más alto en lugar de un estatus más bajo”, dijo. “Es importante decir, ‘Oye, podríamos cuantificar eso’ en lugar de decir, ‘Oh, tal vez deberíamos usar eso’”. Los resultados, dijo, deben ser utilizados por la industria y el gobierno como base para comprender cómo el público reaccionaría a la ética de diferentes decisiones de diseño y políticas.

Awad espera que los resultados también ayuden a los tecnólogos a pensar más profundamente sobre la ética de la IA más allá de los autos autónomos. “Usamos el problema del carro porque es una muy buena manera de recolectar estos datos, pero esperamos que la discusión sobre ética no se quede dentro de ese tema”, dijo. “La discusión debería pasar al análisis de riesgos, sobre quién tiene más o menos riesgo, en lugar de decir quién va a morir o no, y también sobre cómo se está produciendo el sesgo”. Cómo estos resultados podrían traducirse en un diseño y una regulación más éticos de la IA es algo que espera estudiar más en el futuro.

“En los últimos dos, tres años más personas han comenzado a hablar sobre la ética de la IA”, dijo Awad. “Más personas han comenzado a tomar conciencia de que la IA podría tener diferentes consecuencias éticas en diferentes grupos de personas. El hecho de que veamos gente comprometida con esto, creo que es algo prometedor “.

.



Source link