Annonce ToutSurTout

Bienvenue sur toutsurtout.biz

Déjà 15 ans !

Radio TST

Si vous souhaitez participer vous aussi aux discussions sur le forum, il faut vous inscrire ou vous identifier.

Le Thème TST Automne est maintenant en place.

Les inscriptions sont actuellement OUVERTES.

Message 1 Discussion postée le 02-12-2015 à 06:07:19

Philippe
Avatar de Philippe


Titre: Banni
Avancement: Niveau 3
Date d'inscription: 26-09-2009
Messages: 3 660

Quand les robots apprennent à désobéir...

https://www.world-lolo.com/images/uploads/image.num1449032696.of.world-lolo.com.jpg



La robotique s'emploie à apprendre à obéir à nos commandes. Pourtant, si l'on veut aller plus loin et doter le robot d'une forme d'intelligence, celui-ci doit pouvoir être en mesure de désobéir. C'est précisément ce que commencent à inculquer aux machines certains chercheurs... pour leur propre sécurité uniquement.

Shafer et Dempster sont deux robots humanoïdes comme il en existe déjà tant. Les chercheurs Gordon Briggs et le Dr Matthais Scheutz de la Tufts University dans le Massachusetts, États-Unis, leur ont pourtant inculqué quelques nouvelles règles, les rendant ainsi très semblables à Sonny, dans I, Robot - avec Will Smith -.

« À mesure que les capacités des agents autonomes se développent, il y a une communauté grandissante qui s'intéresse à l'éthique de la machine, à doter les agents autonomes de la possibilité de raisonner de manière éthique envers leurs propres actions.«



Ces deux robots comprennent parfaitement les instructions comme « debout » ou « assis » de la part d'un humain. Mais lorsqu'on leur demande de marcher dans un obstacle, ou vers le bord d'une table, par exemple, ils refusent poliment : « Désolé, je ne peux pas faire cela, il n'y a plus de sol devant. » Si on tente de le forcer, « Mais, c'est dangereux. » Et si l'humain le rassure en lui disant qu'il le rattrapera s'il venait à tomber, le robot fait confiance et avance. Pour parvenir à ce genre de « conscience », les chercheurs ont doté Shafer et Dempster de mécanismes de raisonnement.

Cependant, ces travaux ne respectent pas les célèbres lois de la robotique établies par l'auteur de science-fiction Isaac Asimov, lesquelles indiquent qu'un robot doit obéir aux ordre donnés par un humain - et qu'ils ne doivent pas blesser un humain et qu'ils ne peuvent protéger leur existence que si cela n'entre pas en conflit avec les deux premières lois -.

https://www.youtube.com/watch?v=SkAAl7ERZPo

De nombreux experts de l'intelligence artificielle s'accordent à dire que les robots doivent respecter ces lois, la capacité de désobéir pourrait en effet avoir de fâcheuses conséquences.

Dans le film I, Robot, Sonny outrepasse ses prérogatives et désobéit. Pourtant, selon les deux chercheurs, « il y a encore beaucoup à faire pour rendre ces mécanismes de raisonnement et de dialogue plus performants et généralisés« .

https://www.youtube.com/watch?v=7YxmdpS5M_s


https://www.world-lolo.com/images/uploads/image.num1445754529.of.world-lolo.com.jpg
Des stades aux entrées payantes sont pleins de gens qui pensent que ceux qu'ils applaudissent sont trop payés, et les bibliothèques à l'entrée gratuite sont vides des gens qui pensent que les livres sont trop chers ...