Le Knowledge Graph de Google n’est pas sémantique, il est « sémantique »

Cette note fait suite à un article du JDN « La recherche sémantique, le défi SEO de 2013 ? » (signé par Virgile Juhan), présentant l’opinion de « l’expert » SEO David Degrelle. Impossible de laisser un commentaire, le texte s’affiche comme définitif et interdit tout débat. Comme si nous en savions assez sur la question pour que l’opinion prétende au marbre de la vérité.

C’est parce que je n’en suis pas convaincu que le débat, aussi modeste soit-il, est poursuivi ici. Sur certains aspects de l’article et des jugements qu’il présente, je disconviens respectueusement. Le titre tendrait à faire penser que ça y est, la « recherche sémantique » est une réalité (malgré la prudente interrogation).

Grâce au Knowledge Graph (KG) de Google, nous serions de plain-pied dans le « web sémantique ». Citons David : « une évolution bien plus importante du moteur, qu’il faut déjà intégrer dans sa stratégie SEO : la recherche sémantique ».

Le but derrière KG serait de  « mieux comprendre le sens des mots, leur subtilité et leur intention, pour toujours mieux répondre aux questions de l’internaute et donc à ses requêtes ».

Une question majeure qui mérite d’être traitée dans une large perspective, les réponses trop hâtives pouvant être trompeuses. Et comme je n’oblige personne à lire mon petit machin, je vais prendre le temps de développer. Pour ceux qui seraient pressés voici un cours résumé : « Le Knowledge Graph n’est pas sémantique, pas plus que la recherche, il y a une confusion entre le signifié et la structuration de données».

L’encodage de l’alphabet

A partir d’inférences et d’itérations, les machines permettent aussi d’écrire. Ce n’est pas pour autant qu’elles lisent. Ainsi à partir de 8 bits, on peut former un octet qui contiendra un caractère. Rappelons au passage que le bit permet de traiter deux informations, 0 et 1.

L’encodage ASCII (1963) et ses 7 bits intègre 128 caractères en binaire (il faudra attendre 1991 pour Unicode). Toujours est-il qu’en ASCII la lettre minuscule « a » s’encode par exemple ainsi : 0110 0001.

Voici donc une manière simple de « transcrire » l’alphabet en chiffre, car la machine ne lit pas, elle calcule. Or, détail à ne pas oublier, Google est un (vaste) réseau de boîtes à boulons.

Sémantique, vous avez dit sémantique ?

A toutes fins utiles, rappelons que la sémantique est la partie de la linguistique qui étudie ce qu’on a coutume d’appeler depuis Ferdinand de Saussure le « signifié », opposé au « signifiant » qui concerne la syntaxe. On la distinguera également de la grammaire qui s’occupe de la couche « normative ».

Comme on l’a vu, la machine analyse une « chaîne de caractères », dans le cas qui nous concerne l’encodage de l’alphabet. A un degré supérieur, on peut aussi dresser des instructions sur l’organisation du langage.

Non seulement à un niveau lexical, identification des mots dans les chaînes de caractères, mais aussi leur organisation, la morphologie du langage. Historiquement appelée syntaxe, on préfère le terme de morphosyntaxe apparu en 1960, décrivant les relations entre les éléments qui composent le lexique.

On peut ainsi utiliser plusieurs approches mathématiques pour analyser les mots et les groupes qu’ils forment ensemble selon les cas. Généralement, les méthodes peuvent être soit stochastiques, soit statistiques. Les deux ensembles regroupent tout autant par exemple Latent Semantic Indexing, TF-IDF, N-Gramme, etc. et la plupart des algorithmes dédiés au Traitement Automatique du Langage en général.

Pour autant la machine, aussi puissante fut-elle, ne « comprend » toujours pas. Elle ne « lit » pas plus le texte que la bonne vieille Casio que vous aviez eu avant d’entrer en Terminale S (références de dinosaure s’il en est).

Et pour cause. Le signifié est complexe. La signification d’un mot, le signifié d’un signifiant, peut varier d’un contexte à l’autre, selon les phrases, les groupes d’individus, etc. Le même mot peut ainsi recouvrir des significations différentes malgré un consensus large reproduit par le dictionnaire.

De plus, l’évolution constante du langage naturel et la diversité des langues viennent profondément bouleverser l’illusion d’une sémantique rigide dans le temps. Aussi ramener la manipulation du signifié à une logique binaire (booléenne) représente le grand défi des années à venir. Et ce n’est pas pour 2013…

Sémantique, logique, philosophie et informatique

En Grèce Ancienne au 4ème siècle avant JC, le développement de la logique aristotélicienne, (syllogisme), avait pour but de trouver des énoncés « vrais », « valides », par une réduction du langage naturel à sa forme la plus binaire (tiers-exclus, principe d’identité, etc.).

Au 19ème siècle, l’aboutissement de cette trajectoire était la formalisation mathématique de la logique qui conduirait à la possibilité informatique (logique des prédicats, propositionnelle, etc.). Au point même qu’un courant philosophique comme l’Ecole de Vienne et Ludwig Wittgenstein tenteraient de se passer du langage naturel pour faire de la philosophie au profit de propositions logico-mathématiques (Cf. Tractatus Logico Philosophicus).

Aujourd’hui, après ce long chemin, il s’agit de boucler la boucle en modélisant le langage naturel par des opérations booléennes. Après l’alphabet, le lexique, la syntaxe et la grammaire, le dernier bastion reste la sémantique, le signifié. Ce chemin est loin d’être achevé. Et ce n’est pas pour 2013…

Le web sémantique, une erreur de sémantique…

C’est tentant de le croire ou encore de le faire croire, mais « web sémantique » ne signifie pas que les machines comprennent le langage naturel. Le Knowledge Graph par exemple, ne permet pas de comprendre les mots comme il est dit dans l’article.

Un peu d’histoire. En 1994, à la conférence WWW, Tim Berners-Lee évoquait (déjà) le besoin de structurer le web et parlait à ce titre de « web sémantique ». Cette structuration serait permise par des métadonnées comme le format XML (voir par exemple les recommandations de 1998 sur les RDF Schéma, année de naissance de Google).

Il en résulte une structuration par annotation des pages html via des « ontologies » (métadonnées). Ontologie du grec onto l’Etant et logos le discours rationnel, désignant la science de l’être. Cette référence philosophique sert à marquer la différence avec les caractères et les mots, mettant en avant la notion d’entité ou d’objet, d’où le terme : « entité nommée ».

C’est assez naturellement que Tim Berners-Lee proposa de corriger sa première appellation « web sémantique » en la remplaçant par « web de données », plus précis et portant moins à confusion. De son propre aveu, maintenant : « C’est trop tard ! ».

D’où la confusion que la sémantique vienne au secours de Google et de cette fameuse « recherche sémantique » qui n’existe pas (encore).

Le Knowledge Graph, « graphe de connaissance » et non « graphe sémantique »

Le KG s’appuie essentiellement sur les métadonnées standardisées par le W3C. Il pioche sa matière première dans quelques gros index comme (Freebase 1)Freebase: développé par la société Metaweb, rachetée par Google en 2010 et fondée en 2005 sur des capitaux de Goldman Sachs et Benchmark Capital, Wikipédia et le World Factbook de la CIA) et structure les données par annotations (« étiquetage »). Et c’est bien dans cette optique que Google, Yahoo ! et Microsoft ont participé à l’élaboration d’une standardisation des librairies d’annotation en 2011 qui a vu naître schema.org avec le W3C.

Ainsi les formats de marquage tels que microdata ou RDFa sont au cœur du fonctionnement du KG. C’est important pour le SEO. Car ce qui compte (dans le KG) n’est plus tant la donnée elle-même que la métadonnée qui caractérise la donnée. Pour autant il ne s’agit pas de ranking factor classiques, d’où le silence perplexe des SEO’s sur le sujet.

En réalité, Google ne fait pas plus que mettre en œuvre ce que le WWW préconisait il y a maintenant 18 ans. Ce qui est déjà louable avec, d’après Google, 500 millions d’entités (nœuds) reliées par 3,5 milliards de liens (arcs). Mais le reste, c’est du marketing.

En somme, le web sémantique sert à structurer les données, les classer, les échanger, mais pas à les comprendre de la part des machines. Il ne faut pas prendre l’interopérabilité des bases de données pour des lanternes ; ni le KG pour plus qu’il n’est.

Seule l’Intelligence Artificielle permettra un web (réellement) sémantique

La compréhension d’un langage naturel par une machine est encore une utopie, en sursis, mais une utopie. Il n’y a pas plus de « recherche sémantique » que de Google sémantique. L’annoncer comme tel aujourd’hui relève de la prophétie.

Depuis les débuts de Google, Larry Page et Sergei Brin n’ont jamais caché leur objectif : créer une intelligence artificielle à grande échelle. Un Léviathan algorithmique, qui comprendrait à la fois notre langage et nos désirs, stade ultime du réseau (et du commerce).

Problème, faire d’une machine informatique une machine à comprendre est plus que complexe. Comment comprendre sans penser ? Aucune puissance de calcul aujourd’hui ne s’approche d’un tel état. La question sémantique et la compréhension mécanisée du langage naturel est réputée être un problème NP-Complet. A savoir grosso modo un problème qui nécessite un niveau d’intelligence équivalent à celui de l’Homme pour le résoudre.

La question de l’intelligence artificielle est à l’origine même de l’invention de l’informatique en 1936 par Alan Turing, puisque c’est à lui qu’on doit également le fameux test de Turing pour vérifier si l’on fait face ou non à une intelligence artificielle. On notera d’ailleurs avec intérêt que pour identifier une intelligence artificielle, il faut se mettre en relation, en situation de dialogue (Cf. ELIZA).

L’intelligence artificielle est aussi l’objectif du courant de la Transhumanité. Ce n’est pas un hasard si Google participe financièrement à l’université de la Singularité. Et encore moins si son fondateur Ray Kurzweil vient en 2012 d’être nommé « Director of Engineering » chez Google, pour travailler sur la sémantique et l’IA. Commentaire de Ray Kurzweil :I’m thrilled to be teaming up with Google to work on some of the hardest problems in computer science so we can turn the next decade’s ‘unrealistic’ visions into reality. Clair non ?

Le KG n’est pas sémantique, il est une étape vers la sémantique; de même que Google Now est une étape vers l’assistant intelligent.

Epilogue

Le KG est un graphe de métadonnées qui permet de structurer les données. Il est important puisqu’il s’attaque à la désambiguïsation du langage naturel, un des enjeux du TAL. En classant les informations par « objets » ou « entités », il offre d’avantage de précision, autant pour les classer que les relier entre elles.

On évolue de l’encodage de caractère (alphabet) à l’identification d’un mot (signifiant), jusqu’à l’objet (catégorie). Encore faut-il que cette idée reste primaire et factuelle.

Et pourquoi ? Parce que justement nous ne sommes pas au stade de la compréhension et de la sémantique. Le signifié reste inconnu et inatteignable pour une machine. Et pourquoi ? Parce que la machine ne pense pas, elle calcule.

Le signifié est une alchimie qu’une seule espèce vivante peut réaliser sur Terre. Ce n’est pas pour rien si aujourd’hui d’éminents chercheurs en IA rappellent que Google n’en est pas encore au stade du rat, loin s’en faut. Et ce même s’il y a peu, le Lab de Google a réussi une expérimentation d’IA assez motivante.

Ainsi, parler de sémantique pour parler du Knowledge Graph est fort peu approprié. Dans la foulée, il n’y a pas encore de recherche sémantique, pas plus que Google ne « comprend » les mots.

Pour finir sur l’article qui nous a conduit là, n’était-ce vite dit que pour être vite lu ? C’est dommage, car le sujet est passionnant.

PS: le sujet de cette note est particulièrement vaste et complexe. On n’y trouve ce que je pense, non ce qui est. Toute correction d’erreur serait remerciée d’un poil de moustache. 

Notes   [ + ]

1. Freebase: développé par la société Metaweb, rachetée par Google en 2010 et fondée en 2005 sur des capitaux de Goldman Sachs et Benchmark Capital

31 réflexions au sujet de « Le Knowledge Graph de Google n’est pas sémantique, il est « sémantique » »

    • Ah oui tu fais bien de le citer ! Sylvain Peyronnet est un dab en la matière et c’était un excellent podcast. Je recommande son blog au passage http://www.spoonylife.org/ car c’est sans flatterie une des meilleures sources fr pour le SEO.

  1. Oulala, je suis flatté de ce que j’ai vu dans le com sur le com 😉

    Mais ce n’est pas pour ça que je fais un commentaire. Je suis globalement d’accord avec l’article, mais sur le point « La question sémantique et la compréhension mécanisée du langage naturel est réputée être un problème NP-Complet », je pense qu’on est bien au-delà de ce niveau de complexité. Par exemple, pas mal d’opérations sur les langages oméga-reguliers sont dans PSPACE, qui est une classe au dessus de NP. Les langages oméga-réguliers sont ceux qui expriment, par exemple, le passage des évènements dans le temps. NP c’est la classe des problèmes qui peuvent être résolus en temps polynomiale avec une machine de Turing non deterministe, PSPACE rajoute une barrière en plus : la mémoire nécessaire est aussi polynomiale dans la taille de l’entrée. Et en pratique, on peut même se demander si le modèle de calcul de la machine de Turing est suffisant pour exprimer les solutions aux problèmes de NLP.

    ps: j’avoue que j’ai dû regarder le dico pour le mot « dab » 😉

    • C’est donc encore pire que ce que je pensais. Alors ça devient juste fou en l’état actuel. Solution quantique ?

      • « Et en pratique, on peut même se demander si le modèle de calcul de la machine de Turing est suffisant pour exprimer les solutions aux problèmes de NLP. »

        Je me suis un peu emballé en écrivant ça (surtout mal exprimé). le modèle est peut-être suffisant d’un point de vue expressivité, mais on peut en douter d’un point de vue efficacité. Et on peut se poser la question de trouver des modèles plus efficaces.

        • C’est dire si la question est délicate dans ce cas là ! Au fait pour le mot « dab » il est utilisé à son comble dans un film exceptionnel d’Audiard: « Le cave se rebiffe ».

          • Alors moi j’avais bien compris « Dab » et je fais +1 sur Audiard
            Par contre, le com de Sylvain (P), je vais devoir le relire plusieurs fois 🙂
            Je le préfère en podcast Sylvain, au moins je comprends ce qu’il dit 🙂

  2. Il est tellement tentant de raconter plein de choses sur un sujet comme celui-ci…

    Quand je pense aux délires de certains sur un billet récent du blog de Sylvain où ma conclusion est que certains pensent qu’une machine à distribuer du coca-cola est le summum de l’IA (je caricature)…
    Mais bon, libre à chacun de tout mélanger.

    Quoi qu’il en soit, selon mes informations les plus récentes, il manque encore des sommets aux systèmes de connaissances… et on est aussi encore très loin de savoir lire dans l’esprit d’un questionnant… le problème est double et n’est pas soluble à ce jour.
    Sans doute qu’un jour on pourra avoir un système qui puisse reproduire les mêmes réactions que celles des bêtes à deux pattes, par mimétisme, mais de là à comprendre pourquoi, fondamentalement, ils font ceci ou cela…

    Le mimétisme n’est pas de l’intelligence.

    Et même si on reproduisait un jour un début de structure de pensée, il manquerait de toute façon la conscience et les émotions… et là, les chercheurs sèchent complètement (tu m’étonnes !).

    On n’est pas encore au stade de pouvoir modéliser la pensée, l’intelligence, l’imagination, la créativité, la subjectivité, etc., et encore moins comprendre ce que veut vraiment un internaute  dans le cas présent !

    Question à deux balles : pourquoi on pense ? Pense-t-on vraiment ou est-on seulement conscient que quelque chose d’autre, en nous, « fait quelque chose » ? Que celui qui a la réponse fasse un billet à la con dans le JDN et se proclame « expert » !

    • Effectivement cela devient très vite une question philosophique. C’est normal puisque la notion d’intelligence artificielle vient heurter le système de coordonnées occidental établi depuis la Grèce Ancienne. Si elle se réalise, on a un gros problème sur les dualismes et dichotomies en vigueur. Cela bouleverserait autant les concepts d’intelligence que de matière et finirait sur ceux de conscience et même d’âme et d’humanité. Ce serait un grand moment dans l’évolution des civilisations. C’est pour ça aussi que ça ne ferait pas uniquement la une du Journal du Net 😉

  3. Merci Papy pour cette excellente synthèse de ce qui est et ce qui est fantasmé.

    Le tour de passe-passe est d’autant plus pernicieux qu’il est véhiculé par une masse d’internautes consommateurs qui considèrent internet comme un dû : ça fonctionne, c’est comme la voiture pour beaucoup, c’est tout ce qu’ils demandent.

    Que les médias prônent ce que la science-fiction a fixé dans le domaine du possible du grand’public depuis des génies comme Philipp K Dick est une évidence. Internet c’est magique, alors pourquoi Google n’arriverait pas à comprendre ce que contient son index, finalement ?

    Il en va de notre devoir de rétablir la vérité, en tous cas de ceux qui comme toi Papy savent le faire avec intelligence et pédagogie.

  4. Et ben merde alors, çà c’est un « putain » d’article. Un peu violent le Lundi matin pour mon cerveau de noob Seo mais très instructif. çà met un peu de clarté dans le non débat de la sémantique web dans laquelle on met tout et n’importe quoi.

    Merci Papy

  5. Ca fait plaisir à lire !
    On peut reconnaître que le repérage des données structurées par Google est un premier pas intéressant. Il permettra sans doute de faire avancer dans un avenir proche la compréhension du langage en mettant en évidence de nouvelles modélisations.

  6. Après les commentaires de Sylvain, on s’aperçoit qu’il y a pas mal de complexité. Je préviens, j’ai un bac G 🙂

    La semaine dernière, je faisais un parallèle entre le KG et un chatbot simpliste http://www.love-moi.fr/2013/01/web-semantique-intelligence.html

    J’ai l’impression que clairement facebook se rapproche plus que google dans son approche car il a donné dès le départ à l’utilisateur les « cases » où mettre ses données.
    Alors que google reçoit du contenu non balisé à traiter, et qu’il nous demande de pré selectionner les données avec schema.org pour nous les présenter en rich-snippet, facebook a fait l’inverse, il a commencé à mettre des actions et indiqué quels sont les objets avec lesquels interagir.

    Dans mon exemple sur la programmation d’un chatbot, on fait un balisage, puis on fait des prédicats. En fait ce n’est pas l’intelligence de la machine qui est mis en avant, mais une prédication d’un stimulis/reponse pour lequel on va déterminer un arbre de connaissance générique (qu’est-ce que, pourquoi, etc ), et pour certaines réponses, on va mettre en avant ces « cases de données ».

    Le développeur va pré-construire des requêtes, le bot va analyser une phrase et matcher le résultat en partant de son arbre de connaissance dans ce qu’il a de plus complet, je l’assimilerais à de l' »exact match d’expression », à un réduction syntaxique. En gros, si je ne trouve pas la phrase, ou que l’on me la présente autrement en langage naturel, il faut que je donne une réponse standardisée.
    On aura : « est-ce que le ciel est bleu », « de quel couleur est le ciel » pour lequel le noeud qui correspond est « couleur ciel » et le bot répondra : le ciel est bleu, ou le ciel est bleu s’il n’y a pas de nuage.

    Quand à l’émotion, lorsque un utilisateur se trouve devant un chatbot, dans 90% des cas il va lui parler de sexe ou l’insulter. Et pour ça on peut le rerouter dans une catégorie « insulte » avec un avatar qui fait la tête et qui ne reprends pas la conversation tant que l’utilisateur ne s’est pas excusé.

    Exemple bien plus intéressant et application concrète, c’est le cas de SIRI, alors que tout le monde se focalise sur facebook ou google. Je pense qu’il a été mis au point sur ce système balisage de données, couplé avec un chatbot et un accès aux données plus large car ils ont pu le connecter à plus d’arbre de connaissance.

    • J’ai du mal à comprendre pour répondre en réalité 🙂 Google s’est attaqué au web, une chose étrangère à lui-même. Dans le cas de FB on ne parle ni plus ni moins que d’un moteur de recherche interne.

  7. Merci Papy pour cet article fort reposant que j’approuve totalement.

    A force de lire tout et n’importe quoi sur les super pouvoirs supposés de Google, il est bon de remettre les choses à leur place, dans la bonne perspective.

    Le moteur est doué en marketing, communication, manipulation et poudre de perlimpinpin : à nous de faire la juste part des choses, merci !

  8. Keep up the superb piece of work, I read few posts on this internet site and I conceive that your site is really interesting and has lots of superb information.
    Vu que tout le monde semble ne rien comprendre, je me suis dit que ça pouvait passer 😉

    De temps en temps ça fait plaisir ! ^^

  9. Passionnant. J’avoue que je me suis envoyé le lien pour relecture plus attentive ce we avec accès au podcast parce que c’est du lourd là quand même ! 🙂

    Merci à Tweeter de m’avoir proposé ton profil vantant le « Content spinning ». Impossible de passer dessus sans faire une petite visite ! 🙂

  10. Merci Papy pour cet article qui remet les tenants et les aboutissants en perspective.

    Pour tous ceux qui comme moi ne sont pas des experts en évolution de l’AI, je recommande vivement une excellente série télévisée, qui raconte les tribulations d’un scientifique qui cherche à créer le premier robot doté d’intelligence artificielle : Caprica (diffusée sur Sy-Fy). Bien que cela soit une fiction, le développement des tests d’IA, y sont très bien expliqués.

  11. Merci, je découvre ce blog, qui est un plaisir à lire.
    L’article remet bien Google à sa place. Leurs ingés ont beau être les plus malins du monde, un algo reste incapable de comprendre le language humain. Pour vraiment faire un saut dans la compréhension sémantique des textes, il va bien falloir attendre la prochaine génération d’AIs… Et étant donné qu’aucun progrès significatif n’a été fait dans ce domaine depuis les années 80, Google risque de rester un tas de boulons encore un paquet d’années ! ; )
    Au plaisir de lire vos prochains articles

    • Olala avec beaucoup de retard désolé. J’ai beaucoup apprécié votre article et ce côté synchrone est peut-être révélateur. En tout cas je l’espère.

  12. Hello « Papy », je viens de découvrir ton blog via cet article (et hop te voilà désormais inscrit dans mon Google Reader après bien sûr un rapide tour dessus pour juger de la qualité de tes articles autres que celui-ci ;-))…

    Effectivement quand on voit les sites plus « mainstream » parlant de google, on aurait presque l’impression que Google a désormais résolu tout les problèmes d’IA et du futur dialogue homme machine… Que nenni !

    Le KG n’est qu’une exploitation d’un balisage intelligent et structuré de l’info présente sur le Web… Quant à la sémantique, je n’ai jamais vu le rapport entre les graphes RDF et les règles du W3C… Je ne vais pas m’étendre sur ce la sémantique et notamment sur ce que tu mets très bien en valeur « le signifié », mais déjà quand un algorithme sera capable de détecter le mot ou la chaîne de caractère la plus importante d’une requête exprimée en langage naturel, on aura fait un grand pas vers l’IA !!!

    Bref, ça tombe bien c’est justement ce sur quoi je bosse : vivement que google me rachète donc;-)

    Merci encore pour cet article et bravo encore pour ton blog !

  13. Excellent article qui donne à réfléchir, au bas mot, 5 minutes… 6 mois et 3 ans.
    Alors pour faire vite, la sauce sémantique de GG c’est en gros mettre en équation tout type de contenu. Sauf qu’un roman, un essai ou une toile ne se résumera jamais à un big data, façon hamburger bien gras.
    Autrement dit, les affects, percepts et concepts propres à cette culture qui nous rend humain et les projets qui émanent de notre conscience agissante n’ont pas un octet à voir avec le KG de Google, ressemblant plus à un diaporama culturel light, façon collection de « Que Sais-Je » compactés pour training du Grand Concours des animateurs de… TF1 (au hasard).
    Happy merci papy!!!

  14. Merci pour ce très bon article, qui remet les pendules à l’heure. Il n’en reste pas moins qu’à propos de la « sémantique », et de l’IA en général, (et aux limites dont parle le post) on peut se demander si on en reste pas à une vision abstraite de l’intelligence et du sens, comme si l ‘ »individu » machine (ou calcul) s’opposait à l' »individu » cerveau (ou sens) dans on ne sait quel ciel platonicien abstrait… Vision abstraite héritée de Turing, etc. Mais depuis les années 90, avec le Net, la « substance » à partir de la quelle tout est à repenser, c’est l’imbrication machine/pensée (c’est bien pour ça qu’on parle de réseau…et de réseaux sociaux), et je défie quiconque de pouvoir isoler ce qui relève des « réseaux de cerveaux » ( les « utilisateurs »-sic) des réseaux de machines (codées par les cerveaux…) etc. ? Autrement dit, (pour en revenir au post), la question de la « sémantique » ne peut être cantonnée aux limites ou performances de la machine qui calcule des catégories, à partir du moment où celles-ci sont indissociables du milieu humain et logique qui leur donne sens.. Pas très clair ? En tous cas j’aimerais savoir si des recherches se font en ce sens ?

Les commentaires sont fermés.