Grand-mère, le problème c’est pas Google, c’est toi

[Sylvain, c’est à toi (et merci pour ce long et trépident développement) ]

Dans ma précédente réponse, pour appuyer la conclusion de Papy à laquelle j’adhère, j’avais un peu joué l’avocat du diable pour appuyer sur ce qui me semblait un point faible de l’argumentation.

Précisions et suite de la réflexion, à bâtons rompus et en ne faisant qu’effleurer des problématiques que je serais heureux de développer plus avant.

La vie « in silico » ?

J »ai pu donner l’impression d’être apôtre de la trans-humanité, de la modélisation possible du cerveau, de la pensée, de la vie « in silico ». Ce n’est pas le fond de mon propos. Plus on comprend des choses, plus on croit avancer… mais la nature de la conscience, le miracle du vivant se dérobe toujours.

Malgré les nombreuses analogies que l’on peut relever entre machine, programmation et nature, il reste des différences fondamentales entre le vivant et nos machines.

1. Le vivant est le résultat d’une longue évolution, et d’une sélection naturelle (qui était) rigoureuse.

Le résultat ? Des techniques à l’efficacité redoutable, car nées de l’expérience, du hasard, de l’essai et du temps… où le plus efficace, le plus économe en moyens survit à priori mieux que son concurrent.

Pour preuve, le nombre d’inventions issues d’observations du vivant. L’essentiel de notre pharmacopée, la fermeture éclair, le velcro… les guêpes ont inventé le papier, le ciment ; le Gerris a exploité la tension superficielle de l’eau avant qu’on la découvre… la liste serait longue !

La machine, elle, évolue peu. Un seul modèle de calcul qui anime quasiment tous les calculateurs. Une course en priorité à la puissance brute plutôt qu’à la conception fondamentale. Une histoire des plus courtes par rapport à celle du vivant.

2. Le vivant est mou et imparfait.

Le monde réel n’est pas un monde mathématique parfait. Les mécaniciens le savent bien, qui doivent jongler avec jeu, frottements, tolérances. Le vivant est à la fois dur, souple, mou, élastique. Il amortit, s’adapte. C’est vrai à la fois pour le physique et le mental.

La machine ne fonctionne pas dans le même monde que nous. Elle ne fait que dialoguer via des entrées/sorties limitées.

Là où la machine calcule avec exactitude (même si ses données sont imparfaites ou fausses), avec des égalités strictes, le vivant fait des erreurs, estime, approche, essaye de différentes façons.

[a]

 

3. Le vivant est malléable

Plus important, le vivant, même et surtout en tant qu’individu isolé, est malléable et sait s’adapter à des situations nouvelles, non prévues, pour lesquelles il n’a pas été « conçu ».

Cette faculté d’adaptation étonne toujours, surtout quand on constate à quelle vitesse certaines espèces peuvent s’adapter à de nouvelles conditions.

Nos muscles se développent avec l’exercice, nos capacités mentales se renforcent avec l’usage, notre expertise s’accroît avec le nombre de nos expériences.

La machine vivante est capable de traiter en un instant des données complexes (signaux photoélectriques, ondes sonores) et en déduire une foule d’informations (visage d’une personne connue, voix, position dans l’espace de la source sonore, signe de danger…)

Là où la différence entre machine et vivant est flagrante, même pour des taches de ce type, qui ne sont « que » du calcul, c’est dans l’implémentation de ces processus de calcul.

Le logiciel d’une machine peut simuler, émuler des processus cognitifs simples (systèmes experts, reconnaissance vocale, reconnaissance faciale…) grâce à un matériel ad-hoc et à une base de données de référence.

Le vivant, lui, ne différencie pas le hardware du software. Les deux sont intimement liés et travaillent de concert, mais qui plus est, évoluent en fonction des besoins… Le cerveau se « reroute » sans cesse, dans un processus qui est bien plus complexe et lourd de conséquences qu’un simple câblage réseau. Le cerveau n’a pas besoin de modélisation mathématique, d’algorithme sous-jacent pour fonctionner. Ça marche, tout simplement… et force est de constater que c’est viable, malgré toutes les mutations, évolutions, hybridations, anomalies, greffes d’adn… auxquelles le règne du vivant est confronté depuis ses débuts. Quel type de garde-fou est donc ici à l’oeuvre ?

En conclusion, aussi puissante soit-elle, une machine « classique », comme nous en avons sur le bureau ou dans la main, comme en utilise Google, a un hardware figé, un logiciel pré-contraint par son modèle de calcul et par son concepteur ; ne se reproduit pas, n’est pas soumis à une sélection (naturelle ou pas), et n’a donc aucune chance d’évoluer, de s’améliorer, d’apprendre par elle même en dehors du strict cadre de ce pour quoi elle est conçue.

Avantage, le vivant.

« Infiniment » complexe, « infiniment » petit, « infiniment » flou : même combat.

Ce qui m’interpelle, ce n’est pas tant les avancées sur les mécanismes en jeu dans la compréhension de notre fonctionnement, du monde vivant, mais plutôt le fait qu’en dépit de ces avancées, des notions fondamentales comme la nature de la vie, de la conscience, nous échappent toujours.

 Complexité comparative

On pourrait penser que cela est du uniquement à la complexité du système étudié, à des effets papillon, avalanche, au chaos issu d’explosions combinatoires.

Et non, la complexité ne fait pas tout…

Par exemple, un cerveau d’abeille compte environ 900000 neurones. Moins d’un million…

Si l’on compare (c’est osé, mais l’ordre de grandeur est là) un neurone à un transistor, une abeille a donc une puissance de calcul… juste inférieure à un 486 (1989), ou à une carte graphique voodoo1, de 1997. Et c’est sans compter la RAM de la machine… Si on imagine qu’un neurone joue le rôle à la fois d’un transistor et d’un bit de mémoire, la RAM d’une abeille est de 878Ko, moins d’un Mo…

Vous faites tourner quel OS sur un 486 avec un Mo de RAM ?

Et pourtant, l’abeille ne cesse de nous étonner. Elle apprend à reconnaître les fleurs à pollen (en 3 visites maxi), à voler, à naviguer ; elle prouve qu’elle dispose d’une représentation mentale de son environnement spatial. Elle danse pour indiquer où elle a trouvé à manger, où il y a du danger. Elle a un comportement social. Elle communique, elle exhibe des aptitudes cognitives que l’on pensait « supérieures », que l’on croyait réservées à l’Homme et aux grands primates (par exemple des capacités d’abstraction).

Quid des processeurs modernes ? Un core i5 ou i7 Ivy Bridge, c’est 1.4 milliards de transistors.

La puissance de calcul de 1400 abeilles. Un petit essaim.

Une carte graphique GeForce GTX Titan ? 7.10 milliards de transistors. La puissance de calcul d’une grosse grosse ruche… Et dans la pratique, que sait-elle faire, cette fameuse carte graphique ?

Des petits calculs d’angle, du mapping… Si on la hacke, on va lui faire cracker des mots de passe, miner des bitcoins… Pourrait-on lui faire ne serait-ce que simuler une seule abeille, un seul petit cerveau d’abeille ? Non, c’est au delà de ses forces.

Les simulations de cerveau de rat ou de chat existantes, discutables quant à leur précision et exactitude (cf les expériences d’IBM) requièrent des supercalculateurs comportant des centaines de milliers de processeurs, des centaines de To de mémoire… Pour une « simulation » 100 fois plus lente que le réel.

En repensant au commentaire de Sylvain Peyronnet, est-ce juste une question d’échelle, de puissance de calcul, ou serait-il nettement plus efficace d’utiliser un autre modèle de calcul, un autre type d’ordinateur pour ce type d’application ?

Le chemin est encore long avant d’approcher l’efficacité de la nature. Que consomme un cerveau de chat ? Que consomme le supercalculateur Blue Gene d’IBM qui le simule ?

La complexité du vivant nous pose donc des problèmes. Des problèmes d’organisation, de modèle, de calcul et de stockage, d’efficacité. Mais une fois cette complexité résolue, toutes les barrières seront-elles abolies ?

Rien n’est moins sur.

 Le mystère de l’élémentaire.

Le vivant fonctionne en étroite liaison avec la matière, avec le monde de l’« infiniment » petit, à des échelles où tout ce que nous croyons savoir n’a plus de sens.

Sans la complexité du tout, en découpant le vivant, la matière elle même jusqu’à ses constituants les plus petits auxquels nous avons accès, avons-nous des certitudes ? Sommes nous mieux lotis ?

Assez ironiquement, du coté de l’ « infiniment » petit, nous nous heurtons aussi à un mur.

Nous n’avons pas de théorie unifiée qui rende compte à la fois de ce qui se passe dans notre monde, à notre échelle, et de ce qui se passe au niveau ne serait-ce que de l’atome.

Les particules dites élémentaires ont un comportement aberrant et incompatibles avec les règles qui régissent notre échelle.

La confirmation récente du Boson de Higgs, qui confirme le modèle physique standard, a été pour beaucoup une grosse déception : une anomalie aurait ouvert la porte à d’autres modèles, aurait confirmé ou informé des hypothèses sur la structure sous-jacente de notre monde.

Il n’en n’est rien. L’infiniment petit nous reste incompréhensible et distinct de ce que nous expérimentons. La véritable structure sous-jacente à notre univers, la nature primaire de ce qui nous compose nous échappe, et pourrait bien nous échapper à tout jamais.

Le monde de l’atome est probabiliste. Notre monde est à priori déterministe.

Si je joue à pile ou face, le résultat ne sera pas vraiment aléatoire. La position initiale de la pièce, la répartition de sa masse, sa vitesse de rotation, le temps entre lancer et rattrapage sont des éléments très variables, mais qui sont seuls responsables de la valeur pile ou face finale.

Dans le monde des particules, la hasard a un tout autre sens.

 Et si ???

Et si… et si une fois la complexité résolue ou approchée, on se retrouvait à la case départ….

Et si la logique floue dont le vivant fait preuve n’est pas issue de la complexité, mais au contraire du monde quantique ? Si la performance du vivant tenait non pas à son organisation, mais à sa constitution même, à ses racines physiques fondamentales, à une interaction dérivée du monde probabiliste ?

 Co-évolution et évolution différentielle

Le vivant évolue, s’adapte à son environnement.

Il évolue avec son environnement, avec les autres espèces dont il partage le biotope, avec lesquelles il était en compétition pour sa survie…

La machine a du mal, mais elle en prend doucement le chemin.

  • Les robots auto-réplicants ne sont plus une illusion.
  • Des simulations d’évolution existent, et donnent des résultats « viables ».
  • Les systèmes « experts » régissent de plus en plus d’aspects de notre vie
  • Les réseaux de neurones, les systèmes bayésiens sont partout
  • On commence à fabriquer des puces basées sur un modèle plus proche du cerveau, plus organique, plus souple, plus efficient d’un point de vue énergétique.
  • Demain, des puces organiques qui évolueront, se reproduiront sans intervention ?

Si la machine en arrive à se reproduire ; si elle est suffisamment souple pour évoluer en tant qu’individu et qu’espèce ; si une sélection quelconque entre en jeu, que restera-t-il comme différence avec le vivant ? Est-ce un danger ?

 La machine, prédateur en puissance ?

Malheureusement, ce n’est pas cette éventualité qui me fait souci.

Si notre société consumériste ne s’écroule pas sous son propre poids, notre force est aussi notre faiblesse : L’homme, vivant, évolue et s’adapte.

Ce qui est un atout quand la sélection (naturelle je l’espère) opère, peut devenir une faille.

Nous nous éloignons de la nature. Nous ne co-évoluons plus. Nous mutons, sans plus de garde fous ni de critères de viabilité en tant qu’espèce. Nous ne respectons plus la Terre, ce biotope fini, qui nous a façonné et nous fait vivre.

Nous évoluons toujours. Nous ne cessons de nous adapter. Pour quoi ? Dans quel but ? Qui est le plus apte à se reproduire, quel est le critère qui va récompenser les mutations les plus performantes ?

Aujourd’hui, ce n’est plus l’environnement naturel qui nous limite et nous façonne, mais notre environnement virtuel.

Envoyer des sms, liker une page, +1 un profil, RT un lien, FW un ppt, envoyer une dromacarte, commenter le match de foot sur msn, télécharger l’appli « prout », uploader la vidéo de son chat avec un bonnet… voilà nos actions, voilà nos récompenses, nos notes dans le jeu de l’évolution moderne.

Qui gagne ? Celui qui a la plus grosse page FB, le plus de contacts sur son phone, le plus de followers twitter, celui qu’on follow back ? Exit également, l’unité d’espace : nous sommes plus proche d’un inconnu que l’on follow que du voisin.

Nous cédons à la facilité, à la gloire éphémère et illusoire, à l’appât de la reconnaissance virtuelle de nos pairs. Peut-on encore appeler cela évolution ???

 Pour en revenir à Google…

Oui, l’homme s’adapte à la machine (voir d’ailleurs la fin du skeuomorphisme avec windows 8 et les futurs iOS… c’est un signe !).

Cela, en soit, n’est pas forcément critique. L’homme s’adapte à ses outils. Tant que l’outil est outil, tout va bien. Il sert la volonté de l’individu.

Quand l’outil sort de son rôle d’outil, et devient conseiller, vendeur, juge, exécuteur, patron, dépositaire des correspondances privées, témoins de nos fantasmes, de nos indiscrétions, de toutes nos actions… : est-ce encore un outil ?

Cessez donc de considérer la galaxie Google comme des « outils ». Google est l’œil de Sauron, tout puissant, qui voit tout, qui absorbe et stocke tout, tout le temps, peut être pour toujours.

C’est Google, Wikipédia et consort, et non pas la machine elle même, qui pilote notre existence, nous impose ce qui est vrai, ce qui est important ou pas, ce qui est populaire, ce qu’est la réalité.

Et pourtant, la machine, elle, reste encore un outil. De vulgaires centres de calculs matriciel qui mâchonnent des nombres. Si nous nous faisons esclaves alors, ce n’est pas de la machine, mais plutôt de ceux qui l’ont conçu, voulu, construite, programmée, utilisée. Un esclavagisme de masse, où la vérité, la vie, les récompenses seraient twittés tel un pardon papal ? Si esclavagisme il y a, il est volontaire. Nous abdiquons, non pas face à l’illusion de la toute puissance d’une machine, non pas face à la société commerciale qui en a conçu l’algorithme, mais uniquement par paresse, par faiblesse, pour faire « comme tout le monde » : +1 selon Google, Et moi et moi et moi… disait Dutronc.

 

Le vrai problème, ce n’est pas Google. Ce ne sont pas les concepteurs de Google.

Le vrai problème, ce n’est pas internet.

Le vrai problème, ce n’est pas l’outil, ce n’est pas la machine.

Le vrai problème, c’est notre choix de société. C’est nous. C’est chacun de nous.

Quel poids, quelle influence aurait Google si personne ne l’utilisait ?

Quelle influence aurait Wikipédia si personne ne visitait le site, si personne ne recopiait son contenu aux 4 vents ?

 

Le vrai problème, c’est nous. C’est moi, c’est toi.

Et si nous n’en avons pas conscience, si nous n’y changeons rien, nous ne méritons pas mieux que d’utiliser Google.

Allez mamie, tu peux reposer tes google glass, j’ai fini pour aujourd’hui 😉

 

___________________

[a] On peut noter d’excellents travaux sur ce sujet, de Krishna Palem de l’université de Rice, qui conçoit des processeurs volontairement imparfaits.

Un processeur, par nature, n’est pas parfait et fait des erreurs de calcul. Une grosse partie du cablage des processeurs classiques est destinée à empêcher, détecter et corriger ces erreurs. Un processeur allégé de tout ce cablage additionnel fonctionne plus vite et est nettement moins gourmand en énergie…

Pour calculer la résistance d’un pont ferroviaire, on va y réfléchir à deux fois. Pour décoder un mp3 ou un divx, c’est tout à fait jouable…

Une réflexion au sujet de « Grand-mère, le problème c’est pas Google, c’est toi »

  1. Deux exemples récents pour illustrer une partie de mon propos :

    A/
    http://gigaom.com/2013/08/02/simulating-1-second-of-real-brain-activity-takes-40-minutes-83k-processors

    Pour simuler 1 secondes de fonctionnement d’un centième de « cerveau » humain, soit 1.73 milliards de neurones, il a fallu un super ordinateur de 83000 processeurs, 1Petabyte de mémoire et 40 minutes de calcul.

    Cela ne concerne qu’une simulation neurones/axones.

    B/ Science et Avenir de ce mois: L’importance méconnue des cellules gliales…
    Les neurones ne flottent pas dans le vide dans notre cerveau: ils sont « englués » dans des cellules gliales, longtemps sous-estimées et dont on découvre de plus en plus les propriétés et l’importance, notamment un rôle important dans la connexion axone/dentrite et sur les performances cognitives. Les neurones ne représentent que 10% des cellules du cerveau, mais ce sont les seules qu’on simule…

    Encore une fois, la complexité (qu’on a déjà du mal à traiter, mais qu’on pense soluble dans la course à la puissance brute) n’est pas seule en jeu…

Les commentaires sont fermés.