Desde vehículos autónomos en las calles hasta cohetes reutilizables no tripulados que aterrizan en buques autónomos, las máquinas inteligentes están apoyando, o totalmente asumiendo, actividades humanas cada vez más complejas a un ritmo creciente.
La mayor autonomía dada a las máquinas inteligentes en estos roles, puede llevar a situaciones en las que éstas tengan que tomar de manera autónoma decisiones que afectan a la integridad física de humanos. Esto hace necesaria, no sólo una comprensión más clara de cómo los seres humanos toman tales decisiones, sino también de cómo los seres humanos perciben la inteligencia de la máquina tomando tales decisiones.
Desde hace un tiempo y cada vez mas, vemos que este asunto gana espacio en los medios y en las comunidades específicas. Este sitio web creado por el MIT pretende profundizar y aportar elementos a la discusión proporcionando esta plataforma para:
1) Construir una imagen multitudinaria (usando "crowdsourcing") de la opinión de los humanos sobre cómo las máquinas deben tomar decisiones cuando se enfrentan a dilemas morales; y
2) Permitir la construcción y discusión por una multitud de individuos de posibles escenarios con implicaciones morales.
Participando en este lugar como observadores externos, podemos opinar sobre cuál sería el resultado que consideramos más aceptable ante el planteo de un dilema moral. Por ejemplo cuando un coche sin conductor debe elegir el menor de dos males y decidir entre matar a 2 pasajeros o a 5 peatones.
Y si decidimos completar el ejercicio, podremos comparar nuestras respuestas con las de otras personas y además podremos crear nuestros propios escenarios para explorar, compartir y discutir con otros usuarios.
Fuente: The moral machine