Saturday 11 January 2014

2b. Harnad, S. (2008) The Annotation Game: On Turing (1950) on Computing, Machinery and Intelligence

Harnad, S. (2008) The Annotation Game: On Turing (1950) on Computing,Machinery and Intelligence. In: Epstein, Robert & Peters, Grace (Eds.) Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer. Springer 

This is Turing's classical paper with every passage quote/commented to highlight what Turing said, might have meant, or should have meant. The paper was equivocal about whether the full robotic test was intended, or only the email/penpal test, whether all candidates are eligible, or only computers, and whether the criterion for passing is really total, liefelong equavalence and indistinguishability or merely fooling enough people enough of the time. Once these uncertainties are resolved, Turing's Test remains cognitive science's rightful (and sole) empirical criterion today.







Vidéo langue anglaise http://www.youtube.com/watch?v=cDxCBqSm1ys

14 comments:

  1. Je crois que la précision que vous faites concernant le fait que le TT ne doit pas être vu comme un simple sondage où le taux de réussite est dramatiquement bas, mais bien comme une épreuve que les programmes/robots doivent franchir sans conteste est judicieuse. Parce que dans le cas contraire, il peut être facile de gagner à ce jeu par la tromperie (exemple : http://www.newyorker.com/tech/elements/what-comes-after-the-turing-test ). Je crois que le TT reste alors quand même un instrument intéressant, mais je ne crois pas qu'il faille voir une réussite de ce dernier (même de façon unanime) comme une certification de la capacité d'une machine à penser : cela pourrait quand même rester de la simulation ultra-sophistiquée, il me semble. Il sera peut-être toujours possible de construire une machine qui pourra nous tromper et nous faire croire qu'elle pense, ne croyez-vous pas? Nous en revenons au ''other minds problem'', car il est vrai que nous pourrons sûrement jamais avoir accès directement au cogito de cette machine (ou des humains en général, par ailleurs).

    ReplyDelete
  2. Qu'en est-il de l'étonnement ?

    Schopenhauer, dans le monde comme volonté et comme représentation pose la thèse suivante : « L’homme est un animal métaphysique » parce qu’il a la faculté d’appréhender le monde comme une énigme. Il isole l’homme des autres êtres vivants, car l’homme est le seul à qui il viendrait l’idée de chercher la cause de son existence. L’homme est donc radicalement différent. Selon Schopenhauer, il possède la faculté de voir le monde en tant que spectateur et de s’étonner de celui-ci.

    Selon moi, la conscience et l’étonnement sont particulièrement liés; l’homme seul a accédé à la conscience et il est le seul à posséder cette capacité de s’étonner de tout. L’étonnement apparaît alors comme le moteur de la pensée. Toujours selon moi, il est strictement impossible qu'un robot usant de la computation seule, puisse un jour être en mesure de ''s'étonner" de son existence et du monde physique qui l'entoure. Bien que le robot a la capacité de passer le T3 voir-même le T4 et de duper le sujet humain, jamais il ne se posera des questions intrinsèques et inhérentes telles que : Pourquoi est-ce que j’existe? Ou pourquoi le monde est tel qu’il est ? Bien qu'il nous en donne l’illusion.

    ReplyDelete
  3. Question Anonyme (qu'un des étudiants m'a envoyée par courriel):

    Si j'ai bien compris, le test de Turing est:

    A= humain (testeur)
    B= machine
    C= humain

    Ma question est: Comment on pourrait savoir que A et C sont humains? Si A=B est possible.


    Réponse:

    Faut pas compliquer gratuitement: On savait ce que c'était qu'un humain, avant Turing ainsi que depuis.

    Le testeur sais de soi-même qu'il est humain (sensible), grâce au Cogito. Il le sait aussi de tous les humains qu'il connait -- malgré le fait que grâce au problème des autres esprits, on ne peut jamais être certain que les autres humains sont sensibles (humains) comme on peut l'être pour soi-même (Descartes).

    Turing n'ajoute que l'observation que lorsqu'on ne peut plus distinguer une machine des humains selon ce qu'ils font et ce qu'ils sont capables de faire, on n'a aucune base pour nier (la machine) de l'un ce qu'il affirme de l'autre (l'humain).

    Le reste est juste la question de T2 vs. T3.

    ReplyDelete
    Replies
    1. Bonjour,
      Merci de votre réponse!
      Je devine que c'était dans l'espoir de trouver des machines qui = humains que Turing a créé ce test.
      C'est un peu pourquoi je me pose et pose la question si B=A...
      Bonne journée et à plus tard.
      Li

      Delete
  4. J'ai bien aimé ce texte. Le lire m'a aider à bien saisir les différents tests de Turing. Un système d'interaction homme-machine via un ANP réussirait T2. Un bon robot bien conçu réussirait certainement T3. Toutefois, je pense qu'il devrait y avoir une distinction dans le test T5. Si par exemple un robot voudrait passer inaperçu en société, je ne pense pas qu'il serait nécessaire qu'il soit à la fois à l,extérieur comme à l'intérieur identique à un être humain. D'un point de vue externe, il n'y a que l'extérieur qui compte.

    Il faut tout de fois faire attention à une trop grande capacité de calcul d'une machine de Turing. Par exemple si je prend striquement un ordinateur qui sait jouer aux échecs en passant T2. Si l'ordinateur a une trop grande puissance de calcul mathématique ou le logiciel surpasse trop fortement une capacité normale d'un être humain, elle risque de battre systématiquement tout le monde aux échets et elle pourrait ainsi échouer T2. Il faut donc que l'ordinateur/logiciel est une puissance de calcul comparable.

    Il faut faire attention toutefois au point qui dit que avec tout état à un certain moment, on peur prédire un état futur. Il faut faire attention toutefois à cela et surtout dans le cas de la conception d'un logiciel informatique. Une toute petite modification dans les conditions intiales peuvent influencer grandement le résultat final d'un long calcul. C'est la théorie du chaos en informatique/modélisation.

    J'aime bien le théorème d'incomplétude de Gödel qui statue qu'une théorie ne peut pas toujours être prouvé. La computation n'est pas démontrable scientifiquement, mais sa négation ne l'est pas non plus. Il y a tout pleins de théorie comme ça que nous utilisons à tous les jours et que nous acceptons pour la simple raison que ça marche.

    ReplyDelete
  5. Je me demandais à partir de quel moment les fonctions d’apprentissage sont présentes. Est-ce que c’est justement ce qui différencie le T0 du T2 ou bien c’est plus loin ?

    ReplyDelete
  6. Avant de répondre à la question « Can machines think? « Il faut définir ces 2 mots.

    Il y a deux types de machines : les vrais systèmes physiques ayant un effet physique dans le monde réel et les autres systèmes physiques simulants des effets physiques dans le monde réal. Dans ce sens, la simulation n’est pas de la duplication car elle n’a pas d’équivalence dans le monde réel : nous pouvons simuler l’alignement futur des planètes mais cela ne les alignera pas dans le monde physique réel. La définition de machine à retenir serait : tout système causal dynamique; le matériaux n’importe pas mais la propriété mécanique est essentielle pour s’inscrire dans les lois de cause-à-effet de la physique.
    Il faut définir comment le système de la pensée fonctionne et jusqu’à maintenant, la seule chose que nous puissions affirmer c’est que penser est une forme de conscience et que l’introspection n’est d’aucune utilité pour comprendre fonctionnement du système de la pensée.

    Dans la tentative de trouver une réponse à cette question, Turing, avec sa machine nous a légué une méthodologie empirique redoutable « methodology for reverse-engineering human cognitive performance capacity ». C’est à cette méthodologie que le jeu de l’imitation fait appel. Il cherche a comparer un humain qui pense (conscient) avec une machine qui ne pense pas (insconsciente) en ce qui a trait à leur capacité de performance dans le test de Turing. Cela amène à définir ce qui divise les capacités physiques des capacités intellectuelles de l’humain, ainsi qu’entre les structures et les fonctions. C’est dans cette volonté d’y répondre que Turing a introduit une hiérarchie dans son test (t0 à T5). En définitive, il cherche à trouver quel type de machine nous sommes d’un point de vue « causal/fonctional » en voulant créer une machine qui pourrait générer nos capacités de performances. La machine de Turing va devenir le standand de définition des « computers as rule-base symbol-manipulating devices ». C’est au niveau de T3 qu’une variante de l’ordinateur devient intéressante : « random element; free will as human ». On se questionnera au final si la machine peut ressentir ce qu’on ressent quand on pense; mais à cette question il n’y a pas de réponse. Il y aura plusieurs objections à la théorie de Turing, et dans la plupart, on s’éloignera de la question purement formelle.

    Ce que l’on retiendra c’est que Turing avait anticipé la « learning machine » et de plus, l’argument des perceptions extrasensorielles nous poussent à réfléchir davantage au fonctionnement du système de la pensée qui ne se résumerait pas seulement en de la computation.

    ReplyDelete
    Replies
    1. N.B. Je ne suis qu’un nano-nain qui essai de traduire en français, ce que des géants et des nains ont écrit en anglais. Mon texte est un résumé de ce que je crois avoir bien traduit et compris.

      Delete
  7. This comment has been removed by the author.

    ReplyDelete
  8. Pourquoi ne serait-il pas possible que le contenant ne puisse jamais se comprendre ? Est-il vraiment possible, pour le cerveau humain, de comprendre complètement son fonctionnement ?

    J’imagine que le cerveau, ayant ses propres limites, ne puisse jamais vraiment se regarder lui-même. De la même façon que nous percevons avoir un état de conscience plus sophistiqué que celui du singe, sous prétexte qu’il lui manque un langage organisé par exemple, il serait peut-être possible qu’un état plus sophistiqué que l’être humain nous regarde ainsi.

    Il me semble que malgré les objections et les réponses à la question de la compréhension, rien n’est définitivement satisfaisant. Le plus souvent, nous assumons que les dauphins n’ont pas de conscience autonome, tout comme pour ce qui est des ordinateurs. Mais il se pourrait que nous n’ayons simplement pas les outils permettant de déterminer que les dauphins ont une conscience ; que nous n’ayons pas de grille d’évaluation possible pour comprendre les dauphins. Au même titre, nous pourrions ne pas comprendre les ordinateurs.

    Si nous admettons qu’un programme informatique ne pourra jamais se comprendre lui-même, nous devrions pouvoir douter du fait que le cerveau humain puisse se comprendre lui-même aussi.

    ReplyDelete
  9. C'est pas un peu selfish de dire qu'il faut que le T3, T4... ressemble à un être humain ? Pourquoi il pourrait pas être capable de penser et d'interagir avec le monde si il n'est pas un jumeaux version robot de l'humain ? Je crois qu'on est capable d'accepter bien des différences dans la société, pourquoi serions nous incapable d'accepter une nouvelle espèce 'Robot' qui ne serait pas bipède ou qui aurait besoin d'aller chez le coiffeur ... Ok je comprend que Turing ne devait pas avoir trop foi en l'humanité à son époque et que ça a mal fini pour lui avec la société, mais le jeu de l'imitation est-il un jeu de tromperie visuel ou cognitif ?

    ReplyDelete
    Replies
    1. Pour faire suite au texte un peu plus adéquatement ici, je suis d'avis que quelque chose ou plutôt quelqu'un puisse penser sans qu'on ne puisse réellement le croire. Cette image du T3 me fait terriblement penser au Borgs de Star Trek, et où je veux en venir est que le sujet principale du thème des Borgs est qu'on se demande si un drone est capable de penser de lui-même ou alors c'est impossible car les Borgs sont une collectivité et ils n'ont qu'une seule pensée. Alors la question du T3 repose un peu sur l'individualité de l'être plutôt que sur son existence même. En repensant au texte, je crois que c'est un peu un cette optique de la cognition 'ethique' qu'on se demande, est-ce que le robot qui réussi T3 (jumeau) ou non est un individu à part entière, prenant des décisions par lui-même, responsable de ses actes. Pouvons nous le traiter en justice ?

      Delete
  10. Ce qui cloche avec le T2 : le fait qu’une machine soit potentiellement en mesure de reproduire les capacités humaines de la conversation, par exemple, n’indiquera jamais si la machine pense vraiment. Ça pourrait bien être le cas, mais si ça se trouve, ce ne serait qu’uniquement de la simulation. Comment savoir? Je crois qu’à moins d’être la machine en question, c’est impossible. Le T3, lui, suggère des capacités sensorimotrices, la computation n’étant pas suffisante pour générer toutes les actions que nous pouvons faire. Pour moi, T3 est pertinent puisqu’il intègre l’analogue. La machine devient robot. On se rapproche mais encore une fois…est-ce que ce robot aurait une conscience et serait en mesure de penser? Voilà le problème difficile des sciences cognitives.

    ReplyDelete
  11. Bien que le test de T2 et le test de T3 sont très bien développé et qu'il montre un potentiel à interagir comme un humain, je suis très septique à l'idée qu'un jour un robot puisse pensé et agir comme tel par lui-même. Je suis peut-être trop fermé à l'idée, mais pour moi il est impossible qu'un jour un robot puisse pensé et agir comme nous sans l'intermédiaire d'un humain. Et comme le dit Antoine Fortin, comment pourrions nous vraiment savoir qu'il pense vraiment ? Si on est pas la machine en question, rien ne nous indique qu'il n'est pas programmer pour dire se qu'il dit et réagir comme il le fait, c'est pourquoi je ne crois pas que cela puisse arrivée un jour, même avec les meilleurs technologie.

    ReplyDelete