A l’origine de l’Intelligence artificielle, la Cybernétique. Compilation

Deep Blue est un superordinateur spécialisé dans le jeu d’échecs par adjonction de circuits spécifiques, développé par IBM au début des années 1990. (Wikipédia)

Qu’est ce que la cybernétique ? – Nathanaël Leroy

Les bases de la Cybernétique qui est la science des communications dans un système ! Norbert Wiener

Vidéo très didactique pour pénétrer le monde de la cybernétique, dans le but de mieux appréhender les mutations complexes liées à la globalisation et au transhumanisme.

Aux origines de l’intelligence artificielle. France Culture

31/03/2018 Par Lise Verbeke

« L’intelligence artificielle se définit comme le contraire de la bêtise naturelle », selon Woody Allen. La recherche dans ce domaine s’amplifie, une course mondiale à l’innovation est lancée depuis les années 2000. Mais d’où vient l’intelligence artificielle et que recoupe ce terme ?

Emmanuel Macron ne veut pas que la France « rate le train de l’intelligence artificielle« , conduit par la Chine et les Etats-Unis. Le président de la République a présenté ce jeudi 29 mars un plan ambitieux pour développer les recherches dans ce domaine, en passe de révolutionner l’économie et la société. Mais le train de l’intelligence artificielle compte de nombreux wagons. Retour aux origines de l’expression, et éclairage sur les domaines qu’elle regroupe, alors que France Culture vous propose un forum à ce sujet ce samedi.

Une idée née au milieu du XXe siècle

« L’apparition des ordinateurs, dans les années 1940-1950, semble rendre possible le rêve de l’intelligence artificielle« , écrit Frédéric Fürst, maître de conférence, du laboratoire MIS, Modélisation, Information et Système de l’université de Picardie. 

A l’origine, le mathématicien Norbert Wiener lance la cybernétique dans les années 1940, qu’il définit comme la science du fonctionnement de l’esprit humain. Il veut, selon Frédéric Fürst, « modéliser l’esprit comme une boîte noire, mais cela n’aboutit pas« . Les chercheurs se détournent alors de l’esprit pour se concentrer sur les neurones. Et c’est là que démarre un bouillonnement d’idées.      

Deux approches de l’IA, l’intelligence artificielle, émergent dans les années 1940 : le connexionnisme et le cognitivisme.      

Le connexionnisme est porté par deux neurologues, Warren McCulloch et Walter Pitts, qui proposent de reproduire dans une machine le fonctionnement interne du cerveau humain. Ils inventent le neurone formel, le premier modèle mathématique du neurone.     

Le neuropsychologue Donald Hebb crée de son côté, en 1949, une règle qui permet de doter les neurones formels de capacité d’apprentissage. Le cognitivisme, écrit Frédéric Fürst, « considère que la pensée peut être décrite à un niveau abstrait comme manipulation de symboles, indépendamment du support matériel de cette manipulation. Une approche qui établit un lien entre la pensée et le langage, comme système de symboles ». Il souhaite donc développer la traduction automatique sur ordinateur. En pleine période de guerre froide, la traduction automatique du russe vers l’anglais, ou l’inverse, est un gros enjeu.  

Le test de Turing

En octobre 1950, le mathématicien britannique Alan Turing signe l’un de ses articles les plus célèbres, sous le titre « Machines de calcul et intelligence ». Ce texte fondateur et visionnaire débute par ces mots :

Je propose de réfléchir à la question : les machines peuvent-elles penser ?

Celui qui avait réussi, grâce à une machine justement, à décrypter les codes secrets des nazis y présente cette fois un jeu dit de l’imitation. A l’époque des tout premiers ordinateurs que la presse baptise « cerveaux électroniques », un test est né. Il entrera dans l’histoire, portant son nom. https://www.youtube.com/embed/k0vmuYQAkW4?feature=oembed À ÉCOUTER AUSSI 59 min La Méthode scientifiqueAlan Turing : l’homme derrière la machine

https://www.franceculture.fr/emissions/la-methode-scientifique/alan-turing-lhomme-derriere-la-machine

En 1951, le mathématicien américain Marvin Minsky crée lui une machine, le SNARC (Stochastic Neural Analog Reinforcement Calculator), le premier simulateur de réseau neuronal, qui simule le comportement d’un rat apprenant à se déplacer dans un labyrinthe.

L’apparition du terme « intelligence artificielle »  

L’expression Intelligence artificielle en tant que telle apparaît en 1956. « Plusieurs chercheurs américains, dont John McCarthy et Marvin Minsky, très en pointe dans des recherches qui utilisent des ordinateurs pour autre chose que des calculs scientifiques, se sont réunis à l’université de Dartmouth, dans le New-Hampshire, aux Etats-Unis, détaille Pierre Mounier-Kuhn, chercheur au CNRS et à l’université Paris-Sorbonne. _Leur projet est alors de développer l’intelligence artificielle. Le terme filait bien la métaphore des « cerveaux électroniques » et reprenait le projet cybernéticien de marier l’étude du cerveau avec celle des machines.« _

De cet atelier de travail sur les machines pensantes, une expression émerge, celle de l’un de ces chercheurs, John McCarthy, qui parle pour la première fois d’intelligence artificielle.

Ce terme s’est imposé tout de suite, raconte Pierre Mounier-Kuhn. Il était suffisamment frappant, paradoxal et ambigu pour plaire à beaucoup de gens. Il décrivait bien les projets de ces experts, cela parlait au public, et cela permettait de formuler tout un tas de promesses et ainsi d’attirer des crédits.    

Trois ans après le séminaire de Dartmouth, les deux pères de l’intelligence artificielle, McCarthy et Minsky, fondent le laboratoire d’intelligence artificielle du Massachusetts Institute of Technology (MIT). 

Le mouvement gagne peu à peu la Grande-Bretagne et la France, et les autres pays où l’on commence à utiliser les ordinateurs. « En France, détaille le chercheur, en 1959, un laboratoire, « le centre d’étude de la traduction automatique » est créé et cofinancé par le CNRS, l’armée et l’université de Grenoble « .      

Les hivers de l’IA

Mais l’histoire de l’intelligence artificielle n’est pas linéaire. Son développement dépend en majorité des crédits qui lui sont alloués, des effets de mode et des fluctuations financières. « Avec des phases de grand enthousiasme, où affluent les chercheurs et les crédits appâtés par les promesses, explique Pierre Mounier-Kuhn, et puis au bout de quelques années, on déchante, ils alternent avec des phases de désillusion d’autant plus aiguë que les illusions étaient exagérées. Et les organismes qui financent la recherche coupent le robinet pour l’intelligence artificielle. » Cela ne concerne pas uniquement des financements publics mais aussi de grosses entreprises. L’historien et d’autres spécialistes qualifient cela d' »hiver de l’intelligence artificielle ».      

Au milieu des années 1960, l’IA connaît son premier hiver. Les promesses de traductions automatiques en masse ne se concrétisent pas. « Des linguistes ont produit des rapports sanglants, ajoute le chercheur, en expliquant que traduire des langues n’est pas qu’un problème d’algorithmes bien conçus, mais qu’il fallait comprendre ce qu’est une langue, donc faire des recherches en amont sur la linguistique théorique. Cela a donc porté un coup arrêt à la traduction automatique, les crédits se sont taris. Mais indirectement cela a rapproché la linguistique et la science alors en plein bouillonnement qui cherchait des modèles dans l’algèbre, avec les informaticiens qui voulaient théoriser les langages de programmation. Ce rapprochement a donné naissance à l’informatique théorique.«  

Autre promesse non tenue : en 1958, deux chercheurs avaient promis un ordinateur capable de battre le champion du monde d’échecs, en moins de dix ans. Cet ordinateur d’IBM a été capable de le faire, mais ça n’est arrivé qu’au milieu des années 1990 : en 1997, avec Gary Kasparov contre le programme Deep blue.    

https://www.youtube.com/embed/ZIcZymAzifM?feature=oembed https://www.youtube.com/watch?v=ZIcZymAzifM&feature=emb_logo

En 1969, McCarthy et Minsky écrivent un livre commun : Perceptrons, « où ils montrent les limites de l’apprentissage machine (machine learning), ce qui va mettre un coup d’arrêt temporaire aux recherches dans ce domaine », explique Jean-Gabriel Ganascia, chercheur en intelligence artificielle au Laboratoire Informatique de Paris 6 Lip6, président du comité d’éthique du CNRS.

Un nouvel hiver a lieu au milieu des années 1970. « Cela coïncide en plus avec la fin de la guerre au Vietnam, précise Pierre Mounier-Kuhn, où les crédits, qui ont un aspect militaire s’arrêtent ». Dans les années 1980, les Américains réinvestissent dans l’IA, en pleine guerre Russie – Afghanistan. C’est aussi à cette époque qu’est développée l’idée de remplacer l’homme par la machine dans certains métiers.      

Le tournant des années 2000

Après l’éclatement de la bulle Internet, au début des années 2000, l’IA est portée par une nouvelle vague, qui dure jusqu’à aujourd’hui. Dans une récente note pour la Fondapol, Serge Soudoplatoff met notamment en avant « les grandes ruptures de 2011 ». Trois ruptures « quasi concomitantes (qui) ont permis à l’intelligence artificielle de franchir une grande étape » : 

  1. l’introduction d’une catégorie d’algorithmes bien plus sophistiqués : les réseaux de neurones convolutifs 
  2. l’arrivée sur le marché de processeurs graphiques à bas coût capables d’effectuer d’énormes quantités de calculs  
  3. la disponibilité de très grandes bases de données correctement annotées permettant un apprentissage plus fin

Les « GAFAM », Google, Apple, Facebook, Amazon, Microsoft, s’imposent au fil des années. Google notamment, car un moteur de recherches est de l’intelligence artificielle par définition, « puisque ses algorithmes doivent comprendre ce que l’utilisateur cherche, aime et pourrait acheter », indique le chercheur du CNRS. 

Après l’éclatement de la bulle, le Web 2.0 naît. « Les personnes à l’origine de ce Web 2.0 ne sont pas des techniciens mais des éditeurs, explique Jean-Gabriel Ganascia. Ils ont réuni des industriels et se sont rendus compte que pour que les entreprises puissent survivre, il fallait être capable de recueillir en permanence toutes les informations, les rumeurs, les bruits, pour y faire face mais aussi améliorer les produits. En connaissant les désirs, on peut savoir exactement quoi proposer. Pour exploiter ces grandes quantités d’informations, il fallait des outils informatiques et on s’est tourné vers les outils d’apprentissage d’intelligence artificielle. » À ÉCOUTER AUSSI 2h Les MatinsGoogle, l’Intelligence Artificielle et nous

Avec ce tournant, la recherche sur l’intelligence artificielle se concentre sur trois domaines : la perception automatique de l’environnement, la résolution de problèmes combinatoires et l’apprentissage. Ce dernier constitue la colonne vertébrale de la recherche. L’une des sous-catégories de l’IA s’appelle le Machine learning, un procédé qui permet aux ordinateurs de s’améliorer grâce à l’apprentissage. Dans cette sous-catégorie, se trouve le deep learning, l’apprentissage profond, qui est une « technologie d’apprentissage », basée sur des réseaux de neurones artificiels. Cette technique permet à un programme de reconnaître, entre autre, le contenu d’une image ou de comprendre le langage parlé. Facebook, par exemple, utilise cette technique pour reconnaître et taguer les visages reconnus sur des photos publiées sur le réseau social.  « Le deep learning, développe Pierre Mounier-Kuhn, c’est ce qui fait qu’une machine constate ses erreurs, apprend de ses erreurs et en tire des leçons pour améliorer ses performances. Cela demande un très haut niveau de précision.« 

La dernière démonstration d’un deep learning abouti date de début 2016, quand le programme de Google, Deep Mind a permis à un ordinateur de battre pour la première fois un joueur professionnel de go (jeu inventé en Chine il y a plus de 3000 ans). Les chercheurs planchaient sur l’algorithme depuis des décennies. L’exploit a été réalisé quasiment 20 ans jour pour jour après la défaite de Kasparov face à Deep blue. 

4 types d’intelligence artificielle

Arend Hintze, professeur en biologie intégrative et ingénierie informatique à l’université du Michigan, distingue quatre types d’intelligence artificielle.

  • La réactivité, qui est le premier stade de l’intelligence artificielle et le plus développé aujourd’hui. La machine est capable de percevoir le monde autour d’elle et d’agir en fonction de ces perceptions. 
  • La mémoire limitée, qui permet aux machines de s’appuyer sur des représentations du monde pour prendre des décisions. C’est le cas par exemple des voitures autonomes. 
  • Le troisième type, selon le professeur, regroupe la théorie de l’esprit. Dans le futur, les robots pourraient appréhender et classifier le monde mais aussi comprendre et hiérarchiser les émotions pour influer sur le comportement humain.
  • Enfin, l’auto-conscience, le dernier pallier de l’intelligence artificielle. 

L’intelligence artificielle et la conscience  

Aujourd’hui, l’investissement dans l’intelligence artificielle est énorme. Emmanuel Macron vient de présenter un plan ambitieux pour lequel l’Etat consacrera 1,5 milliard d’euros d’ici la fin du quinquennat, avec la volonté d’attirer et de retenir les meilleurs chercheurs. La Chine a annoncé cette année un plan d’investissement public de 22 milliards de dollars d’ici 2020. La marge de manœuvre concernant le progrès dans l’IA est grande. Pour Pierre Mounier-Kuhn, « l’intelligence artificielle est un horizon qui recule sans arrêt au fur et à mesure que l’on progresse. » La reconnaissance de visage, de la voix est désormais considérée comme acquis, et est intégrée dans tous les téléphones intelligents. 

Reste-t-il des promesses et des horizons à atteindre ? Il y a d’un côté les personnes qui développent des applications ayant un débouché commercial. D’autres sont des « poissons pilotes de l’IA, en se fixant des buts impossible à atteindre, détaille le chercheur, comme la conscience ». L’ordinateur ou le robot peut-il penser ? Peut-il être conscient qu’il pense ? 

Ces réflexions durent en fait depuis le début de l’intelligence artificielle. Mais on ne peut pas doter la machine d’une conscience, concept qu’on ne sait pas définir. Or l’IA couvre les processus de pensée, y compris d’apprentissage, que l’on peut définir assez précisément pour les décrire en programmes et les faire simuler par une machine. On peut simuler le raisonnement humain, par exemple dans les années 1960, l’une des premières pistes (en France comme aux Etats-Unis) a été de développer un système d’intelligence artificielle pour démontrer des théorèmes mathématiques, l’une des formes les plus élevées de l’intelligence humaine.

https://www.franceculture.fr/numerique/aux-origines-de-lintelligence-artificielle

8 réflexions sur “A l’origine de l’Intelligence artificielle, la Cybernétique. Compilation

  1. Très bonne introduction sur l’IA. Bien sûr les rêves de la théorie de l’esprit et l’auto-conscience me semble complétement irréalisable. Malgré tout le deux première partie de l’IA sont plus ou moins possible pour plusieurs domaines et à mon avis va réduire davantage les emplois (ce n’est ni un bien ou un mal en soit, c’est juste que je connais l’homme et sa capacité à forcer les autres à vivre dans l’indigence).

    Bien sûr il faut pour l’instant pour chaque application développer l’IA sur un domaine donnée et donc tout ne sera pas directement « intelligent ». De plus, il faut penser que la meilleures combinaison et le mélange un ordi de faible puissance et un humain qui battait DeepBlue et c’est probablement encore vrai pour l’IA.

    Mais j’ajouterais que l’IA a beaucoup été développé par les agences de surveillances (dont la Chine, pentagone, GAFAM qui est le capitalisme de surveillance…) pour reconnaître les gens, ce qui explique l’avance importantes sur la reconnaissance d’image et du language que sur les autres domaines…

  2. on peut se demander si ce n’est pas une fake-intelligence (pour toutes les vessies qu’on nous fait gober) ou mieux l’ersatz-intelligence (en abrégé EI, ersatz [pourquoi pas?] ) qui serait le terme le plus approprié et de loin.. J’ai toujours été gêné par la traduction française du mot smart
    nb en allemand ersatz étymologiquement c’est en remplacement de.

  3. J’en viens presque à envisager que la machine devienne plus sage que l’homme, du moins dans le domaine de la rationalité, car elle est a accès à la somme des informations disponibles en permanence et sur n’importe quel sujet. En logique pure, elle est infaillible et risque bien de devenir le guide universel dont nous rêvons tous.
    Mais pour atteindre ce niveau la machine devrait s’affranchir de l’humain car la conception des algorithmes suit toujours une logique intentionnelle qui tient compte d’intérêts divergents selon les concepteurs et vise des objectifs qui ne sont pas forcément les meilleures pour le plus grand nombre.
    Ce jour là, nous aurons atteint la « singularité », le seuil critique dont personne ne peut imaginer aujourd’hui les conséquences.
    Personnellement, je me réjouis de ce coup de pied au cul, car je désespère de la lenteur de l’évolution visible en une vie, tant en m’observant moi-même que le monde.
    Heureusement, la vie est bien faite et je prends moins à coeur ce théâtre. Le samsara des boudhistes. Sommes-nous condamnés à tourner en rond dans notre ignorance telle une condition humaine dont on échappe que par la transcendance ?
    J’envie ceux qui savent encore s’enivrer de ces disputes. Je ne les vois plus que comme des distractions, des passe-temps, qui nous permettent d’oublier à quel point tout va trop vite.

  4. La prétention humaine est sans limite et l’IA en est déjà l’illustration. Certains esprits ignorant ce qu’est la sagesse, pensent déjà à remplacer la conscience humaine, par une conscience artificielle, taillée sur mesure pour leur donneur d’ordre, afin de cloner des humains répondant à leurs ambitions maléfiques…c’est du transhumanisme décadent ! Bientôt, ils prétendront avoir cloné les âmes…la folie n’a aujourd’hui pas de limites ! Mais comme tous les esprits maléfiques, ils se brûleront les ailes et périront de leurs élucubrations maladives…

  5. Pingback: Le blog de Liliane Held-Khawam:A l’origine de l’Intelligence artificielle, la Cybernétique. Compilation-cette idéologie est vieille comme le monde,le panmathématisme,chère aux philosophes idéalistes à tendance ésotérique,de Platon à Husserl e

  6. Je rejoins zélectron et gmtmistral. Le transhumanisme fait partie des illusions dangereuses.
    Celui qui pratique la méditation – et seulement celui ou celle-là a l’expérience de la conscience. (Ici, la définition de la méditation comprend de nombreuses formes actives ou passives). Car la conscience s’exprime dans le mental, certes, mais aussi dans l’émotion et dans le corps physique. Et elle transcende aussi tous ses modes d’expression. Elle est à la base de toute sensibilité, dans la plante, dans l’animal et chez l’être humain. En évoluant, elle devient intelligence, et l’expérience montre qu’elle peut atteindre dans l’être humain la dimension universelle.
    Elle unit toutes choses dans l’univers visible et invisible, de manière illimitée. La conscience n’a aucune limite de développement. Les transhumanistes ne sont que des paresseux corrompus, incapables de la discipline de la méditation.
    Par contre, l’IA se révèle l’antithèse de la conscience pure et de toute son expression évolutive dans l’univers. Celui qui croit que la copie vaut l’original n’est qu’un idiot. Et cela sera aussi valable pour la génétique tant que la science n’aura pas découvert la Vie.

  7. L’état de méditation – dont l’hyper-conscience est une forme – peut se révéler aussi dans l’action, dans les sports extrêmes, les situations dangereuses ou fortement déstabilisantes. Par contre, le transhumanisme semble se développer sur un terreau de conformité, de superficialité, souvent d’ego surdimensionné et d’intellectualisme exacerbé. La culture de la méditation et le transhumanisme sont deux opposés, probablement irréconciliables.

  8. « La culture de la méditation et le transhumanisme sont deux opposés, probablement irréconciliables. »

    Tout dépend de ce qu’on entend par ces mots. Pour moi ils visent des objectifs différents même si ultimement un transhumaniste cherche l’immortalité physique. La méditation dans le sens où je la comprends ici est une pratique qui vise le calme mental et qui permettrait selon certains et avec une pratique intense de ne plus avoir à se réincarner dans un corps de chair. L’immortalité de l’âme est une donne et non un acquis. On est dans le monde des croyances religieuses.
    Nous sommes tous déjà un petit peu transhumanistes en ce sens que nos corps sont augmentés, ou corrigés par la science et les progrès spectaculaires de la chirurgie qui permettent par exemple à un amputé de marcher à nouveau presque normalement avec une prothèse en titane. Certains travaillent sur la possibilité de retrouver la communication entre cette orthèse et le cerveau pour réapprendre en stimulant les neurones dédiés.
    Ce progrès ne s’arrêtera pas et on peut assez facilement imaginer qu’il soit sans fin.
    Si je me vois très bien méditer et profiter de l’évolution technologique pour optimiser ma vie, je ne partage pas le souci d’immortalité. Tout ce qui vit nait un jour, puis croit, décroit et meure. Ce cycle est garant de l’équilibre, il suit une logique inaccessible qui fait bien les choses. Le mieux que je puisse faire c’est me laisser porter par cette intelligence créative sans interférer avec mon savoir forcément limité.
    L’imperfection fait partie de la perfection de la création à laquelle elle donne le mouvement.

Laisser un commentaire