Els desenvolupadors de màquines amb intel·ligència artificial, entre ells els dissenyadors de cotxes autònoms, tracten de respondre a aquesta mena de preguntes. La resposta, no obstant això, no depèn d'ells, ja que tota la societat ha d'acceptar les normes ètiques imposades a les màquines perquè siguin acceptades per la pròpia màquina.Així, per a conèixer l'opinió moral o ètica de la gent, s'ha realitzat el major experiment realitzat fins al momento.la Màquina de la Moral (Moral Machine), liderada per l'Institut de Tecnologia del MIT Massachusets, ha rebut 40 milions de respostes de milions de persones de 233 països.Les situacions que es donen en l'experiment són: salvar a les persones (en lloc d'animals domèstics), seguir la mateixa marxa (en lloc de desplaçar-se entre cotxes), salvar al que va amb cotxe (en lloc del vianant), salvar a molts éssers vius (en lloc de pocs), salvar als homes (en lloc de les dones), joves (en lloc dels ancians), vianants que circulen en línia recta (en lloc dels quals es creuen entre cotxes), en forma baixa, i en forma social.Analitzant aquests 40 milions de respostes, s'observa que hi ha qüestions en les quals la gent prefereix salvar a persones i a joves, i si són moltes, millor. En aquests tres casos, per tant, seria clar quin ordre donar a les màquines.En altres ocasions, per contra, hi ha diferències en les prioritats de qui dóna resposta. Per exemple, la prioritat de salvament de les dones era un 0,06% menor entre els homes en general, però als països de l'hemisferi sud, tant d'un com d'un altre gènere, es feia per la vida de la dona.Els investigadors han reconegut que l'estudi no és més que una aproximació a la resolució de la qüestió, però consideren que les conclusions obtingudes han de ser preses en consideració pel nombre de respostes rebudes. No obstant això, després de tantes preguntes malicioses plantejades pels investigadors, potser no estaria mal afegir que has respost el que realment penses (o has buscat el vistiplau de l'enquestador)?