domingo, 22 de janeiro de 2017

Ética automóvel

A programação de carros autónomos coloca problemas morais similares ao célebre problema do trolley. Como se pode ler no jornal Observador: “Os carros autónomos vão ser programados para escolher quem atropelar em caso de acidente inevitável. Uma grávida ou um idoso? Um rico ou um pobre? Um peão ou dez?”

Na sua opinião como deve um carro desses ser programado? O Instituto de Tecnologia de Massachusetts, mais conhecido por MIT, criou um site chamado Moral Machine em que são apresentadas situações em que assumimos a posição de um automobilista prestes a ter um acidente e em que temos de decidir o que fazer: atropelar um adulto ou uma criança, uma pessoa ou duas, etc.

Segundo o Observador, “o MIT já tem em seu poder milhões de respostas, oriundas de 160 países”, podendo-se concluir que a maioria dos indivíduos se inclina em favor do mal menor. Parece que a maneira como as pessoas responderem aos dilemas éticos apresentados em Moral Machine serão tidas em conta pelos programdores dos automóveis. 

Quem disse que as teorias e discussões filosóficas não têm consequências práticas?

Sem comentários: