El MIT ha realizado una encuesta en la que le preguntó a los conductores qué actitud debe tomar un vehículo autónomo ante un posible accidente en el que tenga que elegir entre una maniobra que ponga en peligro al pasajero, u otra que lo haga con un transeúnte.
La mayoría de los conductores no estarían dispuestos a subir a un vehículo autónomo que no pusiera la seguridad de los pasajeros por delante de la de los peatones, algo que podría complicar a reguladores y programadores la creación de algoritmos de carácter "moral".
Un estudio del Instituto Tecnológico de Massachusetts (MIT) publicado en la revista Science muestra que el público tiene opiniones encontradas a la hora de determinar cómo debería actuar un vehículo autónomo en situaciones en que tenga que decidir entre atropellar a peatones o salirse de la carretera y poner en riesgo a los pasajeros que lleva.
"La mayoría de las personas quieren vivir en un mundo en el que los vehículos minimizan el número de víctimas. Pero todos quieren que su automóvil los proteja a ellos primero a toda costa", aseguró en una nota de prensa Iyad Rahwan, profesor del prestigioso MIT Media Lab y coautor de la investigación.
El informe, titulado El dilema social de los vehículos autónomos y publicado por Science, se basó en un conjunto de seis encuestas realizadas entre junio y noviembre del año pasado.
El 76 por ciento de los sondeados consideró que es más "moral" para un vehículo autónomo decidir "sacrificar" a un pasajero antes que atropellar a diez peatones. No obstante, solo uno de cada tres dijo que se subiría un vehículo autónomo cuyo algoritmo estuviese programado para arriesgar la vida de los pasajeros a cambio de salvar a diez peatones.
Asimismo, la mayoría se opuso a que el gobierno regule estos automóviles robóticos, cuya tecnología avanza a pasos agigantados, para que tengan una moral "utilitaria", en la que se ponga en la balanza el número de vidas a salvar y el número que se arriesga a morir.