Sur la base de la similitude qu'ils ont certaines caractéristiques des cétacés avec les nôtres, certains chercheurs ont l'intention de faire un traducteur d'intelligence artificielle. - Ed. Ann
La seule espèce qui a la capacité de parler de savoir si l'être humain est une question ancestrale. La question elle-même a un caractère anthropocentrique marqué, mais, sans entrer dans ce débat, il est indéniable que de nombreux êtres vivants ont des systèmes de communication complexes, et de nombreux scientifiques essaient de les étudier et de les comprendre.
Les cétacés, par exemple, suscitent un grand intérêt, car leur forme de communication, sous certains aspects, est comparable à la nôtre. Or, certains chercheurs, s'appuyant sur ces similitudes, créent des systèmes de retour du langage des cétacés et d'autres animaux à travers l'intelligence artificielle.
L'objectif est que, comme le traducteur automatique Elia de Elhuyar traduit entre six langues (basque, espagnol, français, anglais, catalan et galicien), la communication vocale de ces animaux devienne langue humaine. Parmi les animaux étudiés se trouvent les dauphins et autres cétacés, éléphants et grands primates.
Un de ces projets, appelé CETI, vise à rendre la communication des cachalots. Et c'est que, selon CETI, les cachalots et les humains ont des ressemblances incroyables. Tout d'abord, comme nous, ils vivent dans des sociétés matriarcales et multiculturelles, ils maintiennent les liens familiaux de génération en génération et les groupes ont des dialectes différenciés. Les observations ont montré qu'ils ont une pensée consciente et qu'ils sont capables de planifier l'avenir. Ils disent aussi qu'ils ressentent de la compassion, de l'amour et de l'intuition, et que leurs vocalisations ont une structure de code, similaire à la morse.
En fait, la première étape du projet CETI consiste à enregistrer le plus grand nombre de vocalisations possibles, car les traducteurs automatiques sont basés sur l'abondance des données : plus ils ont de données, meilleur résultat.
Mais, selon d'autres scientifiques, le problème n'est pas tant le nombre de données que le système utilisera, mais l'interprétation erronée dérivée de la vision anthropocentrique que nous avons intériorisée. Il est courant que les animaux soient anthropomorphiques, c'est-à-dire qu'ils deviennent humains et qu'ils comprennent mal les gestes et les sons semblables aux nôtres. Et l'intelligence artificielle ne résout pas ce problème, car elle est causée par les êtres humains.
Par exemple, en voyant une serviette agitant la nageoire pectorale, il nous semble saluer, parce que nous utilisons ce geste pour dire adieu. Cependant, c'est un geste agressif. Quant aux sons, les dauphins communiquent avec des sons très variés : vocalisations, txistus, calamars, vibrations... ainsi que coups et sauts dans l'eau avec nageoires et corps. Mais tous les sons qu'ils émettent n'ont pas pour but d'exprimer quoi que ce soit aux autres : par l'écologisation ils sont capables de voir la taille, la forme et la densité des structures du milieu. Ils peuvent même recevoir des signaux d'autres individus et, par conséquent, voir ce que les autres voient par des signaux acoustiques.
Il est clair que, bien que dans certaines caractéristiques les cétacés et les êtres humains soient similaires (ou assimilés), leurs formes de communication, de perception du milieu et de comportement sont très différentes de celles humaines. Et les différences sont encore plus notables par rapport à d'autres groupes d'animaux, même avec ceux qui sont évolutivement plus proches. Par conséquent, à un moment donné, il sera difficile de développer un traducteur automatique de ces caractéristiques, peut-être impossible.