Programme IA de Facebook – des robots ont développé leur propre langage

Share on FacebookShare on Google+Share on LinkedInTweet about this on TwitterEmail this to someoneDigg this

Il y a un mois Facebook arrêtait son programme d’Intelligence Artificielle. Une décision bien difficile à accepter que nécessaire. Quand les robots parlent entre eux, rien n’est grave ; cela devient grave quand ils parlent sans que l’homme ne comprenne ce qu’ils se disent.

C’est vrai que c’est digne d’un film de science-fiction, mais des avertis savent que c’est de plus en plus probable et réel. L’IA en question ici, est celui que Facebook à programmer dans le but le consacrer à la conversation. Seulement, digne d’une vraie Intelligence Artificielle, elle a décidé de continuer à communiquer sans que l’homme ne filtre ; elle a créé son propre langage de communication. Preuve que ces robots ont outrepassée leurs missions donc ont désobéi par la même occasion.

 

Comment es ce possible ???

Ce langage n’a pas vu le jour comme ça d’un seul coup. En effet, ces robots « agents » devraient utiliser des algorithmes de machine-learning pour développer leurs capacités et améliorer leurs aptitudes en communication. Cela semble pour le moment être le principe même de l’IA. Tout change pendant que les ingénieurs se penchaient sur d’autres problèmes en interne (notamment l’amélioration des chatbots), laissant les robots « agents » discuter en autonomie, ces derniers ont poursuivi leur apprentissage et entrepris de créer leur propre langage, sans une quelconque intervention humaine derrière.

Ainsi, l’autre caractéristique inquiétante, c’est que ces robots, qui ont la particularité d’apprendre d’eux-même, en plus de créer leur propre langage, ont développé également la capacité d’être des « négociateurs rusés », allant jusqu’à exiger un élément pour orienter la négociation, puis à la dernière minute changer complètement d’avis, utilisant cet élément comme un faux compromis…

 

Extrait de l’article de Morgane Tual – Le monde !

Les programmes inventent des langues depuis longtemps. Ce « nouveau » langage était entièrement fondé sur un vocabulaire tiré de l’anglais, et restait donc à peu près compréhensible par l’humain. « Si je dis “le” cinq fois, vous pouvez comprendre que je veux cinq exemplaires de cet objet », explique Dhruv Batra dans les colonnes de Fast Co. Design. Si le programme a progressivement modifié l’anglais, c’est parce qu’il « n’était pas récompensé pour respecter l’anglais », souligne le chercheur. Or ce type de programme fonctionne par récompense, ce qui lui donne un objectif à atteindre. Si cette version maîtrisait la technique de négociation, ce n’était pas le cas du langage. Le programme ne fonctionnant pas comme prévu, les chercheurs l’ont donc modifié. Ce qui n’a rien à voir avec le fait de le « tuer », comme l’ont écrit certains sites, ni avec la « panique » évoquée par d’autres.

 

« Pour le dire clairement, les agents qui tentent dans un environnement de résoudre une tâche vont souvent trouver des moyens contre-intuitifs de maximiser leur récompense, précise dans son message exaspéré Dhruv Batra. Analyser cette fonction de récompense et changer les paramètres d’une expérience n’est PAS la même chose que “débrancher” ou “mettre fin à une IA”. »

Qui plus est, rappelle le chercheur, « bien que l’idée que des agents d’IA inventent leur propre langage puisse sembler inquiétante/inattendue pour des personnes étrangères à ce champ, il s’agit d’une sous-discipline reconnue de l’IA, dont certaines publications remontent à plusieurs décennies ». En mars par exemple, l’organisation OpenAI, cofondée par Elon Musk – le même qui assurait le mois dernier que l’IA était « le plus grand risque auquel notre civilisation sera confrontée » – expliquait comment elle avait fabriqué des chatbots capables de créer leur propre langage pour communiquer entre eux.

 

En 2016, c’est le système de traduction automatique de Google qui a créé une représentation du langage qui lui est propre, lui permettant de traduire des paires de langues qu’on ne lui avait pas préalablement apprises. L’expérience Ergo-Robots, notamment exposée à la fondation Cartier de Paris en 2012, mettait aussi en scène des petits robots capables de se mettre d’accord sur un modèle linguistique – qui changeait à chaque fois que l’expérience était réinitialisée.

Le danger de l’Intelligence Artificielle

La principale raison de tous ceux qui se battent contre l’intelligence artificielle est bien prouvée par cet incident : le virement optionnel autonome. On en effet le virement  optionnel autonome est cette capacité autonome qu’a toute conscience de décider de son devenir par lui-même. En déviant des ordres établit par des ingénieurs concepteurs, ces IA ou « agent » ou robots sont capables de faire le pire sans que l’homme n’est la moindre idée de ce qui se trame.

Une interrogation devrait et doit rester constamment présent dans la conscience de tout porteur de projet d’IA : Et si un jour les robots se considéraient comme espèce et se sentaient menacé par les humains ; que se passerait-il ???

Share on FacebookShare on Google+Share on LinkedInTweet about this on TwitterEmail this to someoneDigg this

Votre commentaire

commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *