Beaucoup de robots stupides = groupe intelligent

Le thésard James McLurkin, du MIT, présente des robots à l’intelligence distribuée au Idea Festival de Luisville. Il a jusqu’ici 112 petits robots capables de bouger et de commmuniquer avec leurs voisins immédiats.

Quand il leur ordonne de former une ligne, chacun d’entre eux va simplement comparer les positions relatives de ses deux voisins les plus proches pour leur dire de s’aligner par rapport à lui: rapidement, ils sont tous alignés, sans coordinateur central et sans communication globale, simplement en échangeant une toute petite quantité d’informations avec des voisins. Puis il leur dit de s’éparpiller: alors chacun se contente de s’éloigner de ses voisins immédiats, et ils s’étalent uniformément. Puis il leur demande de trouver une orange, alors ils se mettent chacun en mouvement, demandant à chaque rencontre avec un autre robot s’il sait où est l’orange: en quelques instants, ils la trouvent tous. Ensemble, les robots peuvent aussi former des structures comme des barrières ou recouvrir des surfaces données, et même se mettre en ordre arbitrairement (en leur assignant des numéros) exactement comme mes cubes idiots. Tout ça sans avoir besoin d’un mécanisme central pour décider où est la place de chacun.

Ce phénomène de l’émergence de capacités cognitives complexes à partir de la seule interaction d’éléments très simple est un point crucial de la compréhension de l’intelligence et de la conscience:

Can intelligence emerge from interactions of unintelligent components? That is a second philosophical question. As we are all built from molecules, continues McLurkin, either intelligence is something that results from interactions, or molecules are intelligent.

Bonus: une vidéo de la façade du centre scientifique Technorama, en Suisse, composée de petits morceaux d’aluminium agités par le vent.

Publicités

À propos jesrad
Semi-esclave de la République Soviétique Socialiste Populaire de France.

4 Responses to Beaucoup de robots stupides = groupe intelligent

  1. Mateo says:

    Tu crois que si on essaie avec un groupe de socialo-communistes (marche aussi avec alter-mondialistes ou marxistes ;)), il en résultera une forme d’intelligence? 😀

  2. jesrad says:

    Oh, sans aucun doute. Quand ils sont en groupe, ils font bien plus de dégâts, car plus efficacement et plus intelligemment.

  3. Corwin says:

    La démonstration de Lurkin, tout comme son raisonnement sur l’intelligence résultant de l’interaction de « contributeurs » simple me semble irréfutable et rejoint tout à fait mes convictions fondées sur mes modestes connaissances en neurologie.
    Néanmoins, il s’agit ici d’intelligence d’exécution d’une tâche, et Lurkin néglige de théoriser son propre rôle dans le processus en tant que donneur de l’ordre et décisionnaire. C’est lui qui définit la nature de l’objectif et sait pourquoi il faut l’atteindre.
    Ainsi si les robots sont capables en intéragissant de trouver « comment faire » en tant que groupe, ils sont en revanche incapables de savoir « ce qui doit être fait » et « pourquoi il faut faire » pour le groupe.

    Plusieurs façons à mon sens de traiter le problème lorsqu’on essaie de le transposer aux êtres vivants:

    – tous les robots décident simultanément de l’objectif du groupe. Celà implique que tous les robots dispose des mêmes informations et les analysent de la même façon pour parvenir au même résultat (aux différences non significatives près). Une telle situation ne se présente pas dans le vivant, que l’on considère un groupe d’invividus unicellulaires ou multicellulaires ou encore des neurones en réseau : chaque individu aura accès à des informations différentes et sa façon de les traiter va dépendre de son statut notamment le niveau de stress qu’il subit (état nutritionnel, agressions externes etc) même si le programme/génome de base est identique à des mutations négligeables près. Bref: IMPOSSIBLE

    – chaque robot définit son objectif personnel en fonction de son statut propre et des informations dont il dispose. L’objectif retenu va généralement être en rapport direct avec l’appropriation à des fins de survie ou de reproduction d’une ressource limitée. Le caractère limité de la ressource induit la compétition entre les robots sans souci particulier du bien être général. POSSIBLE et même fréquent, mais ne correspond pas à la situation observée pour l’espèce humaine

    – chaque robot tente de déterminer l’objectif du groupe en évaluant son état général, tout en poursuivant l’objectif personnel défini au dessus. Les robots « pondèrent » l’importance relative des deux objectifs différemment selon les informations dont ils disposent et leur propre statut individuel. Par exemple, les individus en situation de danger personnel consacrent des resources plus importantes à leur survie. Encore plus compliqué, les individus évaluent la légitimité de poursuite de l’objectif général ainsi que les ressources qui lui sont dévolues en fonction des répercutions positives ou négatives qu’ils observent sur leur statut particulier. Les individus n’observant que des répercutions insuffisantes au regard des ressources investies, ou même carrément nuisibles pour eux, s’opposent à la réalisation de l’objectif général tel que cherche à l’appliquer la majorité de leurs congénères. Les individus disposant de trop peu d’informations abandonnent en toute lucidité la détermination de l’objectif général. Les robots disposant de beaucoup d’informations délèguent à ces robots des tâches plus simples : la répartition du traitement des informations en arborescence permet de traiter beaucoup plus de variables que si tous les robots partageaient la totalité de leurs informations et essayaient de tout analyser chacun. Certains types de décisions sont centralisés progressivement, d’autres décentralisés. Les robots au centre se mettent à identifier les données qu’il convient de masquer à ceux qui travaillent en périphérie afin que ceux-ci optimisent l’allocation de leurs resources pour l’atteinte de l’objectif général…mais aussi des objectifs particuliers des robots centraux. A partir d’un différentiel modeste au début du par exemple à une répartition spatiale aléatoire des resources, un différentiel de plus en plus important se crée entre différents groupes d’individus, quant à leurs statuts, données disponibles et objectifs – et ce précisément par le phénomène d’interaction et d’émergence. En d’autres termes : l’apparition d’un pouvoir central esclavagiste et totalitaire est le résultat d’un phénomène d’auto-organisation d’individus simples possédant ce double objectif. La chute de ce pouvoir central est tout aussi inévitable s’il néglige ou fait des erreurs de calcul sur les informations à partager/masquer ou les niveaux de stress acceptables à la périphérie.
    Verdict : non seulement c’est possible, mais ça me rappelle le journal de 20h.

  4. jesrad says:

    tous les robots décident simultanément de l’objectif du groupe […] IMPOSSIBLE

    Les êtres vivants n’ont pas besoin de recevoir d’une quelconque autorité leurs buts: toute forme de vie partage, par nature, le même unique objectif: persister à exister. On a tendance à bien trop complexifier ce simple fait, en tant qu’espèce rationnelle capable d’instrospection et d’auto-inhibition, mais il n’empêche que nous agissons tous suivant notre propre nature – une nature commune.

    Je note aussi que les robots de McLurkin n’ont pas toujours le même objectif, par exemple quand il s’agit de se ranger dans un ordre arbitraire, il y a un premier et un dernier dont l’objectif est de nature différente de celui de tous les autres.

    L’objectif retenu va généralement être en rapport direct avec l’appropriation à des fins de survie ou de reproduction d’une ressource limitée. Le caractère limité de la ressource induit la compétition entre les robots sans souci particulier du bien être général.

    À mon avis il y a une contradiction fondamentale, implicite, dans cet ensemble de phrases. Les fins de survie et de reproduction entraînent des objectifs, même secondaires, qui prennent en compte les besoins des autres et dont l’ensemble constitue nécessairement une sorte « d’intérêt général ».

    Voyons un peu plus en détail le fonctionnement de la programmation d’un système multi-agents: l’écorésolution. Dans cette méthode les agents coordonnent leurs actions en s’attaquant mutuellement lors de blocages de l’un par l’autre, ce qui sert de signal entre voisins pour signifier les conflits d’objectifs dans l’utilisation, par exemple, d’une ressource limitée. Comme une boucle infinie de attaque/contre-attaque bloque la résolution, l’intensité relative de l’attaque d’un agent par un autre (son insistance, ou une valeur donnée) permet de définir lequel a « le plus besoin » de l’élément réservé, donc d’obtenir un ordre de priorité spontané: on retrouve le même mécanisme au niveau humain dans le libre-échange et la confrontation des valeurs subjectives (ce dont j’ai le plus besoin a plus de valeur que le reste, je peux l’échanger contre autre chose qui a plus de valeur pour l’autre que pour moi). C’est un élément essentiel de l’écorésolution, sans ça la solution ne peut pas être complète, ou la résolution peut bloquer (boucle infinie).

    Autrement dit, la résolution des objectifs de chacun vont souvent nécessiter de la coopération volontaire, simplement parce que ce que deux ressources limitées nécessaires à deux agents peuvent entraîner ce que l’on appelle en informatique un interblocage.

    Puisqu’il est impossible pour un agent d’appréhender la totalité ou même un nombre pertinent des objectifs des autres agents et de résoudre le problème d’allocation des ressources tout seul (impossibilité mise en évidence par Ludwig von Mises au niveau de l’économie: pourquoi le calcul économique est impossible dans un système planifié ou centralisé, explication étendue par la suite par F.A. Hayek) aucun agent ne peut s’imposer coordinateur des autres de manière satisfaisante: une telle intervention est au contraire une garantie de ralentissement voire de blocage à terme, même si un agent peut s’improviser distribueur d’informations pertinentes pour les autres (il n’en reste pas moins agent au même titre que les autres). Pour reprendre tes termes: le différentiel d’informations nécessaire pour permettre l’organisation de l’activité est inatteignable de l’intérieur du système. C’est une chimère hors de portée, seulement envisagée parce que l’observateur qui la formule est déjà hors du système et dispose d’emblée des informations en question, sans être soumis aux contraintes réelles des agents.

    Il en ressort que l’établissement de pouvoirs centraux esclavagistes est simplement une étape émergente et sous-optimale dans l’organisation de système dissipatif « humanité », et effectivement cette apparition est dûe à un manque d’informations des agents « soumis » quant aux chemins possibles d’accomplissement de leurs objectifs: ils ignorent ce qu’ils ont à gagner, ou sur-estiment ce qu’ils gagnent dans l’organisation actuelle.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :