Saturday 11 January 2014

5. Harnad, S. (2003) The Symbol Grounding Problem

Harnad, S. (1993). L'ancrage des symboles dans le monde analogique à l'aide de réseaux neuronaux: un modèle hybrideLekton4(2), 12-18.


Cours 1-ière partie (audio seule)


Cours 2ième partie (vidéo)




ou 

Harnad, S. (2003) The Symbol Grounding ProblemEncylopedia of Cognitive Science. Nature Publishing Group. Macmillan.   

ou
Harnad, S. (1990). The symbol grounding problemPhysica D: Nonlinear Phenomena, 42(1), 335-346.

ou

https://en.wikipedia.org/wiki/Symbol_grounding

The Symbol Grounding Problem is related to the problem of how words get their meanings, and of what meanings are. The problem of meaning is in turn related to the problem of consciousness, or how it is that mental states are meaningful.






résumé langue anglaise:




48 comments:

  1. Voici le lien pour "Funes el memorioso" en anglais (Funes, the memorious). Je ne l'ai pas trouvé en francais, mais je continuerai a chercher et, si je le trouve, je vous le partage:
    http://www4.ncsu.edu/~jjsakon/FunestheMemorious.pdf

    ReplyDelete
  2. (À M. Harnad)

    Dans la page de discussion de l’article « Symbol-Grounding Problem », quelques Wikipédiens ont discuté du fait que l’article semblait n’avoir été écrit que par vous, et que par conséquent l’article manquait probablement d’objectivité. Je comprends que le problème d’ancrage des symboles ne soit pas celui qui ait fait couler le plus d’encre depuis la presse écrite, tout comme je comprends qu’il devient difficile d’avoir une vue d’ensemble objective lorsque nous nous spécialisons et travaillons depuis longtemps sur des problématiques précises. À la limite, il est possible que tout le monde dans le domaine pense comme vous du problème d’ancrage des symboles.

    Toutefois, cette question d’objectivité est une question que je me pose moi-même, car bien que vous citiez quelques auteurs que vous abordez dans votre cours, vous avez mis en références beaucoup de vos propres ouvrages. J’aimerais savoir si des penseurs sont en désaccord avec ce que vous décrivez du problème d’ancrage des symboles et si de la littérature est disponible à ce sujet. Je pense que si je savais ce que d’autres reprochent ou secondent de votre façon de voir les choses, il me serait plus facile de peser le pour et le contre des arguments abordés.

    ReplyDelete
    Replies
    1. 1. Le texte de l'article Wikipedia est presque verbatim identique avec l'article que j'avais été invité à rédiger pour Encylopedia of Cognitive Science en 2003 -- article que j'avais été invité à l'écrire par Encylopedia of Cognitive Science parce que c'était moi qui avais formulé le problème (en 1990).

      Harnad, S. (2003) Symbol-Grounding Problem. Encylopedia of Cognitive Science. Nature Publishing Group. Macmillan.

      Wikipedia préfère que ces articles ne soient pas écrits par les experts dans le domaine. Tout le monde peut corriger les articles Wikipedia, à tout moment. Il semble que depuis 2005, lorsque j'ai mis le même texte dans Wikipedia, il y a eu peu de corrections.

      Mais si tu as des idées concernant des erreurs ou d'autres points de vue sur l'ancrage, tu pourrais d'abord en faire état ici, dans ta ciélographie pour ce cours? (Puis ensuite tu pourras aller corriger l'article Wikipedia, si tu veux.)

      2. Pour voir ce qu'on écrit sur l'ancrage, cherche dans Google Scholar avec "symbol grounding."

      Delete
  3. Je comprends la nécessité de catégoriser le chaos sensoriel. En tant qu'être vivant, notre survie en dépend. Je pense que notre capacité à catégoriser est dépendante de notre structure biologique. Considérez l'effet des hallucinogènes sur notre perception. Des molécules perturbent le fonctionnement de nos neurones et par voie de conséquence, nos sens. Les différences de structures biologiques expliquent les différences de catégorisation entre vécus sensoriels d'espèces différentes.
    Sans une interface sensorimotrice, notre robot, ou plutôt notre logiciel, serait incapable de comprendre les symboles qu'il manipule. Il ne serait qu'un outil, qu'une simple machine à calculer. L'Homme serait toujours celui qui attribue la signification au symbole que la machine calcule. Si on ajoute une interface sensorimotrice à notre robot, il serait capable de fournir des référents aux symboles qu'il manipule.

    Après avoir résolu le problème de l'ancrage des symboles, je m'aventure à interroger le soi en tant que catégorie. La conscience est liée au concept de soi. J'ai conscience d'un flux sensoriel par l'intermédiaire de mon système sensorimoteur. Ce flux me procure un sentiment de continuité et un point d'ancrage qui me permet de faire la différence entre le moi et le non-moi. Cette idée de flux dynamique me fait penser à l’œuvre de Virginia Woolf et en particulier à son roman The waves où elle décrit les pensées de ses personnages telles qu'elles leur viennent à l'esprit. La conscience est représentée comme un courant.

    Est-ce que à l'état présent (au moment de finir votre article), notre robot hybride, à la fois dynamique et computationnel, qui a maintenant conscience des référents autour de lui, pourra construire une catégorie représenté par le soi comme référent?

    ReplyDelete
    Replies
    1. T2 et T3 peuvent déjà faire tout ce que nous pouvons faire. Donc tout concernant le soi. S'ils ressentent quoi que ça soit est une autre question (le problème « difficile » de la conscience plutôt que le problème facile de l"ancrage des symboles). Par contre, un ver, s'il est sensible, est déjà conscient, même s'il n'a pas l'idée d'un soi.

      Delete
  4. Synthèse :
    « Le problème de l’ancrage des symboles c’est que certains types de performance ne peuvent être réalisées avec des systèmes symboliques non ancrés. Si les symboles dans un système symbolique peuvent être systématiquement interprétés comme signifiant ce que les pensées signifient, ces significations ne sont pas pour autant plus intrinsèques au système symbolique lui-même qu’elles ne le sont, par exemple, à un livre. Ces significations ne sont projetés que sur les symboles par des systèmes pensants, tels que nous-même, lorsque nous les interprétons; d’où, sous peine de régression à l’infini, un système symbolique ne constitue pas un modèle pertinent pour ce qui se passe dans nos têtes.

    M. Harnad propose modèle hybride, où il y a une collaboration des symboles et des réseaux dans la modélisation des processus cognitifs. Le problème de l’ancrage des symboles se soucie de la façon dont peuvent être ancrées les significations des symboles dans un système (autrement qu’à d’autres symboles ancrés) pour qu’ainsi ils puissent avoir une signification indépendamment de tout interprète externe.

    À l’aide du TTT et du contre-argument du transducteur.
    Notre capacité robotique : l’ensemble de notre capacité sensorimotrice qui permet de discriminer, de reconnaître, d’identifier, de manipuler et de décrire les objets, les événement et les circonstances du monde dans lequel nous vivons. La réussite du TTT nécessite à la fois cette capacité robotique et symbolique. Dans ce cas, la transduction est essentielle à la réussite du TTT. Elle jouerait également un rôle central dans l’ancrage des symboles : un système symbolique ancré est un système qui possède à la fois la capacité robotique et la capacité symbolique pour réussir le TTT. Sa capacité symbolique, son caractère interprétable de ses symboles, sont tous deux ancrés dans sa capacité robotique et ne dépendent pas de la médiation d’une interprétation extérieure transposée sur ces symboles. De plus, l’ancrage se fait mieux de bas en haut, l’ancrage signifie : ancrage sensori-moteur : les symboles doivent être ancrés à même la capacité à discriminer et a identifier les objets, les événements et les circonstances qu’ils représentent, à partir de leur projections sensorimotrices. L’identification requiert un mécanisme de reconnaissance des CATÉGORIES d’objets. C’est ici que les réseaux neuronaux peuvent jouer un rôle dans l’apprentissage des invariants de la projection sensorielle analogique qui permettra d’identifier de manière fiable les objets et leur associer un nom (un symbole de premier niveau). Les symboles ainsi ancrés dans notre capacité à discriminer et à identifier (et à manipuler) leurs référents (p.ex. zebre = cheval et rayures) peuvent alors être combinés pour décrire de nouveaux symboles qui héritent de leur ancrage (p.ex. zèbre = cheval et rayures) sans nécessiter un apprentissage sensorimoteur direct.

    L’existence d’invariants sensoriels est encore plus improbable. De plus, les apparences sensorielles sont trompeuses rarement décisives : un cheval couvert de rayures peintes n’est pas pour autant un zèbre. Les invariants disjonctifs, négatifs, conditionnels, relationnels, polyadiques et même constructifs sont tout aussi viables et s’appuient tout autant sur des fondements sensoriels, que les invariants simples.
    (suite en dessous)

    ReplyDelete
  5. Synthèse (suite) : Les débuts de preuves de l’ancrage des symboles de bas en haut : Le réseaux neuronaux peuvent effectivement trouver les invariants dans les tâches simples unidimensionnelles de façon à permettre la division de la dimension en catégories. Ces réseaux ont déjà démontrés qu’ils partagent avec la catégorisation humaine une caractéristique intéressante dite perception catégorielle (PC), par laquelle, les similitudes à l’intérieur des catégories sont comprimées et les différences entre les catégories sont accrues au service de la catégorisation.

    Le point faible du modèle d’ancrage de M. Harnad : Les réseaux pourraient êtres dépourvus du pouvoir inductif permettant d’accomplir la catégorisation à l’échelle où le fait l’être humain, alors que des algorithmes d’apprentissage non connexionnistes pourraient y arriver. Dans ce cas, les réseaux neuronaux ne joueraient aucun rôle essentiel dans ce modèle spécifique d’ancrage. De plus, ce modèle pourrait échouer si l’ancrage de bas en haut de catégories abstraites en catégories sensorielles s’avérerait impossible à apprendre. Il est également envisageable que les réseaux neuronaux parviennent à tout faire , sans devoir recouvrir à un système symbolique de niveau plus élevé, à réussir TTT sans symbole (donc, sans qu’il soit nécessaire de les ancrer).

    Au final, M. Harnad fait l’hypothèse qu’aucune proposition n’est vraisemblablement la bonne et que des formes de fonctions analogiques encores ignorées joueront un rôle primordial dans la création d’un robot configuré avec des symboles ancrés capable de réussir le TTT. »

    Suite à cette synthèse, je crois qu’en effet, la proposition du modèle hybride se rapproche davantage de ma vision : pour comprendre la cognition il faudra développer des modèles hybrides et même davantage en collaboration avec d’autres approches. De plus, il me parait clair que nous restons ignorants de d’autres formes de fonction analogiques propre à l’être humain.

    ReplyDelete
  6. OK donc j'essaie encore de démêler tout ça après avoir relue le texte. Je comprends l'idée du problème de l'ancrage des symboles dans un sens large:

    Searle a prouvé que la machine purement computationelle ne serait pas capable d'attribuer un sens au langage en partant d'une base symbolique. La machine est seulement capable de reconnaître la forme des symboles. La machine doit posséder des référents dans le monde physique pour pouvoir attribuer un sens réelle à ces symboles. Pour être capable d'obtenir ces référents la machine doit être doué d'un système sensorimoteur et posséder un système de discrimination et d'identification d'input sensoriel. Enfin le système doit ensuite pouvoir catégoriser ces "input" à l'aide des réseaux neuronaux ou l'équivalent synthétique.

    Bon c'est très mal expliqué et probablement pas entièrement factuel mais je crois que je comprends le concept en général. Ce que je comprends pas trop c'est la définition même d'ancrer un symbole. Quand est-ce qu'on peut dire qu'un objet à été ancré? Aussi, on parlait en classe des "1500 mots" qui devaient être connu pour ensuite pouvoir apprendre un langage dans un dictionnaire unilingue. Dans le cas de l'ancrage des symboles, combien et quelles symboles doivent être ancré pour ensuite pouvoir interpréter tout le reste? Et comment est-ce qu'on passe de formes physiques à concepts abstraits? Je veux dire comment est-ce qu'une machine qui fait seulement catégoriser les objets et phénomènes physiques arrive à pouvoir formuler des concepts abstraits dans sa tête? Est-ce qu'il s'agit d'un autre mécanisme cognitif entièrement? Dernièrement, je me demandais si les sens sont vraiment nécessaire à la cognition. Est-ce qu'une personne ne possédant aucun des cinq sens ne pourrait pas, de façon très rudimentaire, penser? Si au moins un sens était requis pour la cognition, est-ce que n'importe quel sens, par exemple, l'odorat, serait adéquat pour pouvoir ancré des symboles et créer un être cognisant?

    Désolé c'est beaucoup de questions.

    ReplyDelete
    Replies
    1. Bonnes questions.

      1. Ce qu'il faut pour ancrer ses symboles (mots), c'est que le robot T3 puisse catégoriser leurs référents (savoir faire ce qu'il faut avec).

      2. Il n'est pas nécessaire d'ancrer tous les mots en directe. Beaucoup de mots peuvent s'ancrer indirectement, à travers les définitions/descriptions/explications verbales. C'est le pouvoir du langage.

      3. Je ne sais pas combien de mots (et lesquels) doivent entre ancrés en directe. Pour les dictionnaires, il semble que 1500 suffisent. (Mais ça ne veut pas dire que tous les autres mots ne sont ancrés que verbalement.)

      4. Toutes les catégories sont abstraites: D'abstraire c'est de selectionner certains attributs et négliger le reste. (Lire Funes el memorioso, et aussi à propos de la licorne cache-cache qui disparaît sans trace lorsqu'on cherche à l'observer avec les sens ou avec list instruments.)

      5. Sans les capacités sensorimotrices, pas d'ancrage. Je ne sais pas combien de sens il faut, et lesquels, tout comme je ne sais pas combien de catégories doivent être ancrées en directe, et lesquelles.

      Delete
  7. Je pense que Searle a raison de dire que la machine ne peut pas attribuer de sens au langage, mais seulement reconnaitre la forme des symboles ; c’est d’ailleurs la définition de la computation. Après tout, comment une machine pourrait faire au-delà de ce qui est enregistré dans son système ? Il ne cognise pas au sens «penser» comme l’esprit humain, donc ne peut décrypter le sens d’un mot sans en connaître préalablement la définition. Il reconnaît la forme d’un mot oui, c’est d’ailleurs de cette façon que l’ordinateur peut composer des phrases. Le sens réel de ces symboles n’est pas élaboré instantanément par l’ordinateur, il lui a été donné dans son système pour parvenir à catégoriser ces symboles.

    ReplyDelete
    Replies
    1. Attention, l'ordinateur, faisant de la computation, n'est pas la seule sorte de machine. Les organismes comme nous en sommes une autre. (Une machine n'est qu'un systéme causal...)

      Delete
  8. Après avoir lu votre article « Minds, Machines and Searle 2: What's Right and Wrong About the Chinese Room Argument », je me suis rendue compte que je suis plutôt pour la computationalisme. Dans votre texte ,vous avez dit “ proponents of Strong AI are those who believe three propositions:(1*) The mind is a computer program. (2*) The brain is irrelevant. (3*) The Turing Test is decisive.” Franchement, c’était vraiment ce que j’ai voulu dire dans mon premier commentaire ici. Mais malheureusement je n’ai pas trouvé de bons mots pour m’exprimer correctement.

    Or, dans le fond, je ne crois ni la computationalisme ni l’autre. Il faut simplement dire que je préfère la computationalisme, car ça rend notre existence moins horrible, plus raisonnable.
    Puis, il me semble que la computationalisme est devenue déjà aujourd’hui une sorte de croyance, une religion.

    ReplyDelete
    Replies
    1. D'ailleurs, quant à la Chambre de Monsieur Searle. Premièrement, étant quelqu'un dont la langue maternelle est chinois, je suis toujours mal à l'aise avec cette Chambre chinoise. Je trouve cela drôle et irresponsable de prendre la langue chinoise comme un point essentiel, mais on ne comprend rien quant à notre exemple - ou on ne veut rien comprendre quant à cette langue ?! Mais bon, il est certain que Monsieur Searle a son droit de faire ce genre de blague. À cet égard, Monsieur Searle aurait pu prendre n'importe quoi comment un exemple, un truc essentiel, juste pour arriver enfin à dire que le test de Turing est faux.

      Si je me permets de croire que Monsieur Searle est sérieux, je voudrais simplement dire que si l'on ne peut pas savoir que les êtres humains autres que moi ont leur conscience de soi, comment on pourrait arriver à distinguer une machine ayant ou pas cette conscience. D'ailleurs, je ne comprends pas pour quelle raison que Monsieur Searle a mélangée volontairement et farouchement un cerveau humain à un papier justement pour enfin arriver à dire que le test de Turing est faux! Dans le fond, en réalité, si un humain est capable de communiquer en chinois, il comprend déjà simplement cette langue. Il n'existe nullement qu'une personne soit capable de communiquer en chinois et il ne comprend rien en chinois. Bref, je suis d'accord avec Pat Hayes: "the ongoing research program of showing Searle's Chinese Room Argument to be false" -- "and silly,"

      Delete
    2. Searle a pris l'exemple de la Chambre Chinoise, car la langue chinoise utilise des symboles qui sont totalement inconnus pour quelqu'un qui ne parle/écrit/comprend que notre langue. Si Searle aurait lui même été chinois, il aurait pu prendre l'alphabet grec ou l'écriture arabe. Ce n'est donc pas une blague de sa part.

      Il est tout à fait possible de communiquer une langue sans la comprendre. Si j'observe un groupe de personnes parlant en chinois et que la plupart du temps lorsqu'un mot précis (ou plutôt un son pour moi qui ne parle pas chinois) est dit, quelqu'un passe le sucre à un autre. Par la suite si je veux moi même du sucre, je vais aller répêter le mot (ou plutôt son) à mon tour. Je viens de communiquer alors que je ne comprend pas ce que j'ai dit. En réalité, ce même mot chinois (ou son pour moi) veut peut être dire graisse.

      Delete
    3. Li, Je ne vois pas comment le computationnlisme rend notre existence moins horrible que le dynamisme! (Et d'après moi, c'est l'existence de ceux auxquels on fait le plus de mal qui est le plus horrible -- et vous savez tous ce qui ce sont -- pas l'existence de la plupart d'entre nous. Notre existence est pas mal confortable par rapport à la leur.)

      Comme l'explique François, Searle a utilisé le chinois comme exemple parce que ce sont des symboles qu'on ne comprend pas. Avec une langue alphabétique on pourrait supposer qu'il en comprendrait en partie. (Mais Li as raison que ça aurait pu être n'importe quelle langue que Searle ne comprenait pas.)

      Delete
  9. « when accelerated to the right speed, the computational may make a phase transition into the mental (Churchland 1990) »
    - c'est ce que je crois, ou je préfère à croire.

    ReplyDelete
    Replies
    1. Li, tu préfères le mystère. Mais ceux qui cherchent à faire la rétroingénierie de notre capacité cognitive n'ont pas choix que de chercher les mécanismes causaux...

      Delete
  10. Étant physicien, j'aime bien l'approche du connexionnisme. Je crois que cela commence à ressembler à l'organe que l'on appelle le cerveau. Le connexionnisme propose la thèse tel que la cognition est une structure dynamique de connexions et d'activations à l'œuvre dans un réseau neuronal. Un système connexionniste est donc l’interaction entre diverses unités élémentaires. Nous savons très bien que le cerveau est composé de diverses sections. Chaque section du cerveau a un utilité bien spécifique. C’est donc là les unités élémentaires. Le tout interagît ensemble. C’est donc pour cela que cette approche m’allume moi qui est en sciences pures et appliquées.

    Peut-on séparer connexionnisme et computationnalisme? Non, car bien que la cognition peut s’expliquer par le connexionnisme, elle ne l’exclue pas. Le meilleur exemple est le calcul mathématique. Lorsque j’ai une équation mathématique à résoudre, je peux tout d’abord me rappeler si j’ai déjà résolu une équation semblable. Cela utilisera donc mon cortex visuel en premier et ensuite ma mémoire à long terme. Tout en manipulation des symboles, j’ai fait appel à de l’interaction entre unités élémentaires.

    Le Test de Turing Total est à mon avis extrêment pertinent afin de savoir si un robot pourrait être indissociable d’un être humain. Il permettrait de vérifier si un robot possède toutes les capacités sensorimotrices d’un humain. Cela serait selon moi l’idéal, car l’être humain ne fait pas que pensée, mais il interagit avec d’autres par des odeurs, des microexpressions faciales, et tout pleins d’autres capacités physiologiques. Ces moyens non-cognitifs de communiquer seront interprêter par un autre être cognitif sans qu’il ne s’en rendre toujours compte. Ce test me ramène donc au point où l’étude des sciences cognitives ne doit pas être séparé totalement des neurosciences, car l’un complémente l’autres.

    J’aime bien aussi le problème d’ancrage des symboles qui dit entre autres qu’il ne peut y avoir purement de la computation, car le sens n’est pas une propriété intrinsèque des symboles. Si le logiciel de traitement de texte que j’utilise en ce moment est capable de traduire les symboles qui représentes les lettres en binaire, c’est que quelqu’un a donné un sens à ces symboles lors de la conception de l’ordinateur. Si je dessine une forme quelconque et que je demande à l’ordinateur de l’interpréter, elle n’arrivera probablement qu’à décrire le dessin, car je n’ai donné aucun sens à mon dessin. L’exemple du dictionnaire chinois/chinois est très pertinent. Les caractères chinois ont tous un sens qui leur a été attribué par quelqu’un. Cependant, le sens n’est pas une propriété intrinsèque à chaque caractère. C’est pour cela que quelqu’un qui regarde un dictionnaire chinois/chinois n’aura aucune idée de ce que les caractères veulent dire (leur sens). Ce serait la même chose pour quelqu’un qui parle/comprend/écrit uniquement le chinois traditionnel comme langue et qui tenterait de lire un dictionnaire français/français. Le symbole représentant la lettre «a» ne veut rien dire en lui-même.

    Il est vrai aussi que la cognition et la langue reviennent à faire de la catégorisation. Il n’y a pas un seul mot qui veut dire spécifiquement une seule chose. Si je dis par exemple épithélium, bien qu’étant précis, cela ne signifie pas qu’un seul tissu précis sur un sujet précis, mais plutôt tous les épithéliums en général. Si je vois une pomme rouge et que je dis que c’est une pomme, en fait, je ne fais que placer le fruit que je vois devant moi dans la catégorie pomme. Un autre bel exemple est les insectes qui est une catégories englobant les fourmis qui est une catégorie englobant plusieurs espèces/famille/sous-famille.

    ReplyDelete
    Replies
    1. La grande question concernant le connexionisme c'est s'il est a la hauteur de nos capacités T3. Ce n'est pas encore evident.

      Une autre question a se poser c'est: est-ce qu'il y quoi que ça soit qu'un réseau connexioniste (avec des unités distribuées, et actives en parallèle) est capable de faire que sa simulation computationnelle (symbolique et sérielle) n'est pas capable de faire. (Le thèse forte de Church-Turing indiquerait que peut-être pas).

      Par le T3, ce n'est pas evident si l'influence des odeurs non aperçus serait des fonctions cognitives ou végétatives.

      L'important pour le T3 c'est d'avoir un nombre suffisant de catégories ancrées au préalable.

      Oui, les catégories ont beaucoup de membres, et il faut pouvoir les reconnaître tous comme étant membres de la même catégories. Mais derrière ça il faut avoir détecté le propriétés qui sont communes à tous les membres...

      Delete
  11. Le problème de l’encrage des symboles est une approche qui est plutôt convaincante pour prouver que la cognition ne peut pas être uniquement computationnelle. L’encrage des symboles par un système dynamique sensorimoteur montre aussi que, contrairement à ce que prétendent les computationalistes, le hardware (dans ce cas le cerveau) est important étant donné que l’intégration de l’information sensorimotrice y sera traitée par ce dernier, d’autant plus que cette information sera traitée différemment selon l’endroit où l’information sera traitée (les aires associatives par exemple qui combinent de l’information de plusieurs modalités sensorielles), mais aussi selon la taille relative des régions cérébrales (par exemple, bulbe olfactif plus grand chez le chien que chez l’humain). En d’autres termes, la résolution du problème de l’encrage des symboles résolu par un système hybride computationnel et sensorimoteur donne de la crédibilité à la recherche de la localisation des fonctions cérébrales.

    ReplyDelete
    Replies
    1. J'aime bien ton approche. Je suis d'avis qu'il faut voir notre cognition comme un système connexionniste et computationnel. Le connexionniste permet de s'approcher du cerveau réel, car il est de mon avis compatible avec les différentes zones de spécialisation du cerveau humain. Les différentes zones du cerveaux peuvent être vu comme des unités élémentaires fonctionnant en parallèle. Bien que je n'aime pas le computationnalisme, il permet d'expliquer le fait que nous manipulons des symboles et utilisons des algorithmes.

      Je suis bien content que tu soulèves le point de la recherche. Dans un système hybride, les recherches sur la localisation des fonctions cérébrales en sciences cognitives ne peut qu'être bénéfique d'un point de vue physiologique pour la recherche en médecine.

      Delete
    2. Parlant d’aires associatives… Ce que je comprends du texte est que selon celui-ci, le symbol grounding serait possible conditionnellement à l’existence d’inputs multimodaux. On aurait besoin d’un système sensori-moteur soit : perception visuelle, tactile et auditive, ainsi qu’un système moteur. Serait-il possible pour une personne tétraplégique de naissance et ayant comme seule modalité sensorielle la vision de développer un ancrage de symbole?

      Delete
    3. Émile, c'est une bonne question, vue que le chaton passif reste aveugle. La connaissance est en grande partie la connaissance des « affordance » sensorimotrices.

      Delete
  12. Mon 2e commentaire de la semaine :
    Dire que la seule contrainte dont les combinaisons de symboles sont soumises est la syntaxe prouve que la machine ne peut fonctionner que par la reconnaissance des formes et non par le sens puisqu’il ne pourra jamais créer un mot par son simple sens, mais parce qu’il connaît le symbole qui va à tel endroit pour former tel mot. Je ne comprends pas cependant pourquoi lorsque les symboles sont ancrés, il ne s’agit plus de la computation. Si lorsqu’on écris sur une feuille une série de mot, c’est de la manipulation selon le sens, cette fois-ci, est-ce parce qu’étant humain, on connait déjà le sens de ce mot et sa définition ? Alors qu’une machine tel qu’un ordinateur ne peut en comprendre sa définition même s’il peut nous la fournir puisqu’il ne peut que former les mots et non en comprendre tout son sens.

    ReplyDelete
    Replies
    1. Ça fait partie de la définition des symboles que leur forme est arbitraire vis-àvis la forme de leur référent. Les symboles ancrés sont liés causalement avec la forme de leur référents. C'est une contrainte non-arbitraire, donc il n'est pas evident qu'un système de symboles ancrés ferait toujours de la computation.

      Delete
  13. Si je comprends bien, un réseau virtuel, une simulation du réseau neuronal est générée par un système symbolique, c’est-à-dire que l’organisation du réseau neuronal s’appuie sur les règles computationnelles. Dans le cas de réseau neuronal, qui n’est une simulation, le réseau soi-même est capable de générer un système symbolique, computationnel. Mais dans ce cas-là, je me demande comment le réseau est organisé. Il reflète complètement le réseau neuronal humain avec toutes ses propriétés physiques ou bien seulement partiellement? Quelles sont les règles de bases? L’activation et la désactivation des neurones? Et pourquoi les symboles sont mieux dans le cas du langage que les réseaux (Section 3.1.2)?

    ReplyDelete
    Replies
    1. C'est une question intéressante: On peu simuler les réseaux neuronaux (parallèles, distribués) avec la computation (symbolique sériel).

      Et on peut implémenter une machine de Turing (donc un ordinateur) avec des réseaux neuronaux comme matériel.

      Et on peut entraîné un réseau neuronal à faire des computations, donc à devenir an ordinateur.

      Harnad, S. (1990). Symbols and Nets: Cooperation vs. Competition. Connection Science, 2, 455-456.

      Delete
  14. Dans mon cours de psycholinguistique, l’approche connexionniste appliquée à l’acquisition du langage a été abordée. Si je comprends bien, selon les connexionnistes pures, toutes nos connaissances langagières sont organisées en réseau de connexions et notre cerveau ressort ces éléments selon le degré de leur activation. Dans l’approche hybride, la formation du passé régulier (ex., walk + ed) suit la règle computationnelle et les cas du passé irrégulier sont appris comme les mots lexicaux. C’est cet aspect que Pinker et Prince (1988) abordent dans leur article?

    ReplyDelete
    Replies
    1. Je me rappelle avoir vu la même chose dans le cours de processus cognitif l'an passé. Les catégories seraient connectées comme un arbres, de façon de plus en plus ramifier, de plus en plus précis. Ce qui laisserait donc l'infini à expliquer. Une image vaut donc mille mots, une image fixe dans le temps expliquant seulement ce quelle contient, de son point de vu. Ce qui changerais totalement un arbre sur une deuxième photo.

      Delete
    2. P & P soutiennent que les règles, c'est la computation, et les réseaux ne sont bon que pour mémoriser les exceptions. C'est faux. Les réseaux peuvent apprendre les règles aussi.

      Delete
  15. Je trouve que les souches du connexionnisme sont présentes dans l'architecture même du cerveau; organe constitué d'environ 100 milliards de neurones interconnectés les uns aux autres. Je ne suis pourtant pas d'avis que le fait d'établir que la cognition = différents réseaux neuronales interagissant ensemble. C'est une bonne approximation, mais quinconce s'adonne à l'analyse de la cognition ne peut ignorer l'ancrage des symboles. Rendu à ce stade-ci, je suis d'avis que la computation est un mécanisme essentiel à la cognition ( et non de la cognition en tant que telle ), et je pense que ce mécanisme agit de concert avec différentes fonctions cérébrales simultanément; fort probablement un système sensoriel dynamique (je suis d'accord avec cet énoncé).

    ReplyDelete
    Replies
    1. Il est vrai que le cerveau est un élément biologique complexe. Il n'y a pas que les liens électriques entre les neurones qui gèrent les intéractions entre les différentes zones. Il y a aussi les neurotransmetteurs chimiques qui sont essentiels. Il est donc certain d'après que l'explication différents réseaux neuronales interagissant ensemble n'est qu'une approximation. La computation est aussi un procédé essentiel à la cognition. Il y a certes le problème d'ancrage des symboles, mais nous manipulons des symboles constamment dans notre vie de tous les jours comme en lisant ou en faisans un calcul. Nous acceptons la computation et les réseaux neuronaux comme théorie, car ça fonctionne. Toutefois, il est pratiquement impossible de démontrer scientifiquement que c'est réellement ce qui se passe.

      Delete
    2. Effectivement le cerveau est complexe, mais il ne faut pas en mélanger les concepts. Les neurotransmetteurs sont ni plus ni moins les liens électriques entre les neurones puisqu'ils sont chargés électriquement. Ce sont des ions positif ou négatif qui influences la propagation de l'influx nerveux. Ceci dit étant une simple note à cette notion.

      Delete
    3. C'est les TT qui vont décider quels moyens (symboliques, dynamiques, connexionnistes) seront en mesure de générer quelles capacités. Pas d'apriori là-dedans.

      Delete
  16. Je suis tout à fait d’accord avec l’affirmation que le Turing Test robotique n’est pas nécessairement garant du symbol grounding et encore moins de la conscience. Je ne comprends cependant pas pourquoi le système sensorimoteur doit nécessairement faire partie du système effectuant la cognition. La caméra web, l’écran et les haut-parleurs sont des pièces périphériques qui ne sont pas considérées comme faisant partie de l’ordinateur. Pourquoi la rétine, la cochlée et le système musculo-squelettique devraient-ils faire pencher la balance contre le computationnalisme? Étant donné que je ne suis pas encore convaincu de la nécessité de processus dynamiques dans la cognition, je ne crois pas que le grounding nécessite d’interaction avec le monde. Il nécessite, selon moi, seulement une quantité minimale d’information nécessaire à la catégorisation et la discrimination.

    ReplyDelete
    Replies
    1. Comment proposes tu d'apprendre à catégoriser sans interaction avec le monde?

      Delete
  17. Le point de 1.4 selon moins manque un point important, la signification d’un symbole n’est pas l’unique aspect sémantique. Le symbole possède une sémantique symbolique due à une interprétation consensuelle de l’étiquetage culturel du symbole. Pourtant, dans l’appliqué, le symbole vient à posséder un sens sémantique qui inclut les points vus expérientiels du symbole. En exemple, le symbole justice possède une signification consensuelle de ce qu’il est constitué. Pourtant, chez deux individus ayant une expérience commune d’apprentissage par description n’auront pas la même signification de ce mot dépendamment de ce qu’ils ont vécu avec ce mot. Cette singularité individuelle du sens du symbole se trouve à être le sens idiotisme de ce symbole.

    ReplyDelete
    Replies
    1. Les conventions consensuelles concernant le référent d'un mot agissent exactement comme les conséquences de manger un champignon mangeable ou vénéneux. C'est des conséquences qui indiquent si on a fait comme il faut avec les membres et les non membres de la catégorie.

      Delete
  18. This comment has been removed by the author.

    ReplyDelete
    Replies
    1. Le but des commentaires est de m'informer sur ta maîtrise des contenus de la lecture. (Et pour te rendre chaton actif plutôt que passif pour les « affordances » des lectures.)

      Delete
  19. Le connexionisme, parce qu'il soutient que les processus cognitifs sont entièrement dynamiques, donc physiques, est-il nécessairement innéiste par rapport à toutes nos capacités cognitives? Il me semble qu'il devrait l'être, à moins d'admettre que le cerveau puisse se modifier physiquement par l'apprentissage

    ReplyDelete
    Replies
    1. Non, les réseaux neuronaux sont des excellents mécanismes d'apprentissage.

      Delete
  20. Il me semble facile de dire qu'il va de soi que la modélisation des processus cognitifs comporte la complicité des symboles et des réseaux neuronaux. À prime abord, ce modèle hybride m'apparaît prendre en compte suffisamment d'éléments clés pour se donner une certaine crédibilité, tout en restant dans le domaine du plausible, bien entendu. Je suis d’accord avec M. Harnad quand il dit que nous pouvons présumer qu’un réseau neuronal puisse réussir le TT, comme certains présument qu’un système symbolique puisse le réussir. Par ailleurs, je me demandais s’il était question d’équivalence forte quant à la réussite du TTT (recours aux capacités symbolique et robotique). J’ai trouvé ce texte particulièrement intéressant, entre autres, pour les pistes variées qu’il explore, ainsi que pour son caractère humble.

    ReplyDelete
    Replies
    1. Pour le T2 ainsi que le T3 il suffit l'équivalence faible.

      Delete
  21. Je vois difficilement comment la thèse de l'ancrage des symboles peut répondre au problème de l'intentionnalité ?

    ReplyDelete
  22. J’ai pris beaucoup de temps à essayer de le compléter ! Ça semble impossible ! (Le jeu du dictionnaire)

    ReplyDelete