Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
De la conscience humaine(fermaton.overblog.com)

LE FERMATON OU LES LIMITES DE L'INTELLIGENCE ARTIFICIELLE(fermaton.overblog.com)

27 Mars 2016, 17:05pm

Publié par clovis simard

LE FERMATON OU LES LIMITES DE L'INTELLIGENCE ARTIFICIELLE(fermaton.overblog.com)
LE FERMATON OU LES LIMITES DE L'INTELLIGENCE ARTIFICIELLE(fermaton.overblog.com)
LE FERMATON OU LES LIMITES DE L'INTELLIGENCE ARTIFICIELLE(fermaton.overblog.com)
LE FERMATON OU LES LIMITES DE L'INTELLIGENCE ARTIFICIELLE(fermaton.overblog.com)
LE FERMATON OU LES LIMITES DE L'INTELLIGENCE ARTIFICIELLE(fermaton.overblog.com)
LE FERMATON OU LES LIMITES DE L'INTELLIGENCE ARTIFICIELLE(fermaton.overblog.com)
LE FERMATON OU LES LIMITES DE L'INTELLIGENCE ARTIFICIELLE(fermaton.overblog.com)

Intelligence artificielle : évolution, révolution

Aussi loin que peuvent porter mes souvenirs, j’ai toujours été fasciné par les robots. Petit, rien n’avait plus de valeur au monde que ma collection de robots-jouets qui peuplaient les étagères de ma chambre. Asimov, Clarke, K. Dick… Star Wars, Blade Runner, Terminator, Matrix… Astro, Goldorak, Cobra… Mon imaginaire, forgé par la science-fiction, est imprégné de références à l’existence future d’androïdes doués d’une intelligence autonome plus ou moins développée. Comme je suis né en France à l’aube des années 80, il n’y a rien d’étonnant à cela.

Tout d’abord le lieu : j’ai grandi dans une société occidentale qui considère depuis des siècles la quête du bien-être matériel comme un désir naturel de l’être humain et a donc érigé le progrès technologique (et son corollaire, la consommation de masse) en principe fondamental et e
n finalité suprême.

Ensuite l’époque : la fin du 20e siècle ouvre l’ère de la postmodernité, que Lyotard appelle « la fin des grands récits ». Les traditions ancestrales qui insufflaient du sens à l’existence, les grandes utopies révolutionnaires porteuses d’espoir quant à la possibilité d’un monde meilleur, la référence à la sacro-sainte Raison comme totalité transcendante, tous ces repères, toutes ces valeurs ont volé en éclat, laissant les individus démunis face à l’angoisse d’un futur uniquement modelé par la désormais toute-puissante société de marché.

Robot… Vous avez dit robot ?

Depuis l’Antiquité, l’idée de construire un homme automatisé a lentement muri au gré de tentatives toujours plus élaborées. Le terme « robot » est né quant à lui dans les années 20 sous la plume de l’écrivain Capek pour désigner des machines « esclaves » pilotant une chaîne de montage et qui se révoltent contre leur condition servile… Si le recours aux machines est consubstantiel au processus d’industrialisation de notre système économique depuis la révolution industrielle opérée au 19e siècle, ce n’est qu’à partir des années 70 que l’homme a délégué à certaines d’entre elles l’accomplissement de tâches réputées dangereuses, pénibles ou répétitives : le robot se définit ainsi comme un système automatique mécanisé capable, par l’exécution d’un programme, d’effectuer des tâches de manière autonome. En cela, le robot, dispositif mécanique programmable, ne peut être séparé de l’ordinateur, unité centrale exécutant des algorithmes(processus systématique de résolution de problèmes par le calcul), qui le pilote.

L’autonomie de la machine… Cette quête scientifique a orienté à bien des égards l’évolution de la technique humaine, en tant qu’elle induit la possibilité d’affranchir toujours un peu plus l’homme de tâches manuelles ou intellectuelles en les automatisant, et donc de le libérer des contraintes liées à sa propre nature. Il est ainsi révélateur que l’un des pères fondateurs de l’informatique, Alan Turing, fut, dès 1950, le premier à théoriser sur la capacité des machines à penser…

Calculer l’incalculable

Or, quel plus haut degré d’autonomie que celui de la conscience ? Définie généralement comme la faculté de percevoir, de se représenter le monde extérieur ainsi que sa propre existence, la conscience implique notamment la capacité d’opérer des choix stratégiques sans calculer à l’avance leurs conséquences. La possibilité, ou l’impossibilité, de doter une machine de cette capacité est au centre des débats houleux sur l’intelligence artificielle depuis l’émergence du concept. Elle implique en effet l’idée que le cerveau de l’homme, siège de la conscience, est doué de la faculté d’évoluer, de se réorganiser de plusieurs façons possibles en fonction des apprentissages et des expériences de l’individu (théorie de l’épigénétique). L’esprit humain (en tant que constitué de l’ensemble des facultés intellectuelles) se distingue ainsi par sa capacité à dépasser sans cesse ses propres limites. Pour qu’une machine émule une conscience, il lui faudrait donc savoir auto-évoluer, créer ou inventer autre chose que ce que contiennent les données initiales de son programme. Apprendre tout simplement… S’il pouvait acquérir et retenir de nouvelles connaissances, exploiter son vécu, le robot n’aurait plus à envisager systématiquement toutes les possibilités avant de sélectionner la meilleure. A l’instar de l’homme il serait capable, sans nécessairement avoir recours au raisonnement, mais de façon plus « intuitive », de fournir une réponse appropriée et immédiate à toute situation inédite.

Mais qu’est-ce que l’intuition ? Elle est une synthèse des informations que nous mémorisons, y compris les perceptions que nous n’avons pas conscience d’enregistrer. C’est un mode de connaissance immédiat, spontané et indubitable de la réalité dans sa totalité. Intégrant dans un acte unique de nombreuses opérations implicites, elle permet donc à l’homme d’opérer des choix stratégiques dépourvus de toute base logico-déductive, c’est-à-dire, sans calcul préalable… Or un programme informatique est un algorithme codé par des symboles. Il n’est ainsi qu’une suite de calculs implémentés. Il faut donc se demander si cette faculté d’adaptation immédiate du cerveau humain obéit elle aussi à des règles algorithmiques. Autrement dit : est-ce que tous les processus cognitifs, y compris ceux fondés sur une absence de raisonnement et donc de calcul, sont calculables ? Le surgissement d’une authentique conscience au sein des machines dépend considérablement de la réponse à une telle question… Cette réflexion conduit à considérer différentes approches scientifiques du phénomène appelé « conscience ».

L’univers, l’esprit et les quanta

Dans une perspective matérialiste, qui considère que tout ce qui est observé dans l’univers, en tant qu’il est formé de matière, peut s’expliquer sans faire appel à une intervention divine ou spirituelle, la conscience est une propriété émergente, qui se manifeste spontanément dans certaines conditions, au-delà d’un certain niveau de complexité organisée de la façon adéquate. De même, pour les tenants de l’intelligence artificielle dite « forte », si l’on considère que tout est calcul, une conscience artificielle émergera quand les machines seront devenues suffisamment complexes. Le modèle scientifique matérialiste incarné par les neurosciences émet donc l’hypothèse que le phénomène de la conscience serait généré, dans une configuration particulière, par certaines propriétés de la matière. Problème : ces propriétés n’ont pas encore été découvertes… Diverses théories proposent néanmoins des modèles explicatifs de plus en plus pertinents :

  • Le cognitivisme et le connexionnisme, deux approches complémentaires qui opèrent aujourd’hui leur progressive fusion : la première considère que le vivant, tel un ordinateur, manipule des symboles élémentaires, et que la pensée est un processus de traitement de l’information ; la seconde envisage les phénomènes mentaux comme des processus émergents de réseaux d’unités simples interconnectées. En d’autres termes, l’intelligence résulte d’une interaction des parties élémentaires du cerveau – perçu comme un système monté en réseau – et non d’une série d’opérations algébriques. Trois concepts prometteurs pour la réalisation d’une IA, en tant qu’ils décrivent le mécanisme d’un système cognitif biologique ou artificiel, émergent de la synthèse de ces deux approches : la redondance (des pannes ponctuelles n’affectent pas le système), la ré-entrance (les composants s’informent en permanence entre eux), et la sélection (les comportements efficaces sont dégagés et renforcés au fil du temps).
  • L’informatique quantique : elle traite des ordinateurs utilisant des phénomènes de la mécanique quantique par opposition aux ordinateurs (classiques) utilisant exclusivement les phénomènes de l’électricité.

Mais qu’est-ce que la physique quantique ? Très sommairement, cette théorie qui a révolutionné au cours du 20e siècle l’approche classique de la structure et de l’évolution dans le temps des phénomènes physiques microscopiques, postule qu’à l’échelle atomique des états superposés de la matière sont possibles, alors qu’à notre niveau macroscopique il ne peut exister qu’un seul de ces multiples états. La mécanique quantique met ainsi en évidence une dualité onde-particulefondamentale : tous les objets de l’univers microscopique présentent simultanément des propriétés d’ondes et de particules. Si cette théorie nous parait si paradoxale c’est parce qu’il est impossible d’observer simultanément ces deux propriétés corpusculaire et ondulatoire de la matière à l’état quantique. Ce dernier peut alors être composé de n’importe quelle combinaison linéaire des états possibles, formant un ensemble d’évènements observables. A l’échelle atomique, certains états physiques (comme la position ou la vitesse d’une particule) ne peuvent donc être déterminés. C’est leur probabilité de présence qui est représentée, à l’aide de la fameuse « équation de Schrödinger », par une fonction d’onde. Mais alors, comment opérer la transition entre la physique quantique de l’univers microscopique où des états superposés de la matière sont possibles, avec la physique classique de l’univers macroscopique où de tels états n’ont jamais été observés ? Cette transition implique nécessairement que lorsque nous faisons une observation à notre niveau familier, les niveaux superposés «s’effondrent» en une seule et unique possibilité. Cet effet est connu sous le nom de « réduction du paquet d’onde ». Or il existe actuellement une théorie susceptible de l’expliquer : il s’agit de la décohérence quantique. Elle indique que chaque éventualité d’un état superposé interagit avec son environnement; mais la complexité des interactions est telle que les différentes possibilités deviennent rapidement incohérentes; seuls restent ainsi observables macroscopiquement les états dits « purs ».

Il devient alors très intéressant de noter que plusieurs propositions scientifiques placent des effets quantiques de la matière à l’origine même de la conscience humaine… L’aspect non encore totalement élucidé de la décohérence quantique permet en effet d’imaginer que celle-ci serait possiblement influencée par des paramètres cachés, qui pourraient être source de conscience…

Or parallèlement à cette approche quantique des neurosciences, les principes de la mécanique quantique permettent également d’envisager l’évolution de la science informatique vers un nouveau paradigme. Les phénomènes quantiques rendraient en effet possible l’implémentation d’algorithmes non implémentables (tels que le fameux « algorithme de Shor ») sur les ordinateurs « classiques » qui possèdent les limitations de calculabilité décrites plus haut.

Si la mécanique quantique constitue donc la description la plus fondamentale connue à ce jour du fonctionnement de l’univers… si elle préside à l’émergence de la conscience, au-delà d’une certaine complexité organisationnelle du vivant… si elle permet enfin aux futurs ordinateurs de mettre en œuvre des algorithmes qui exploitent certaines propriétés des particules élémentaires de la matière telles que la superposition et l’intrication à des fins de représentation, de traitement et de communication de l’information… alors, parmi les immenses perspectives scientifiques et technologiques nées de ce véritable foisonnement interdisciplinaire, Il semble parfaitement plausible que l’homme puisse un jour déterminer, modéliser et reproduire artificiellement des processus neuronaux (architecture) et cognitifs (fonction) dont la racine serait elle aussi quantique (phénomènes cachés liés au principe de décohérence). C’est l’un des défis de la nanotechnologie par exemple.

…Et créer ainsi une machine qui pense…

Retentissements

Mais la mécanisation de la pensée, ou l’implantation de fonctions mentales importantes dans de la matière étrangère au corps humain aura nécessairement à terme un impact civilisationnelextrêmement profond. Elle réfutera en premier lieu la spécificité de la pensée humaine. Ce qui constituerait une révolution philosophique, métaphysique, voire spirituelle. Il semble en ce sens prépondérant de décider en amont si la machine doit vraiment avoir vocation à se substituer à l’humain dans ce qu’il a encore de spécifique ou si elle doit rester ce qu’elle a toujours été jusqu’à présent, à savoir un support de ses activités. Or c’est certainement ce discernement des limites de l’association homme – machine qui orientera l’évolution (ou non) de la machine vers l’autonomie. Ainsi parlait le professeur Irving John Good d’une évolution possible de l’IA : « Supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. La conception de telles machines faisant partie des activités intellectuelles, cette machine pourrait à son tour créer des machines meilleures qu’elle-même; cela aurait sans nul doute pour effet une réaction en chaîne de développement de l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que la machine ultra intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir. »

A condition que ladite machine soit assez docile pour constamment lui obéir…

Visions

La machine instrument de l’homme… La machine qui se révolte… L’homme instrument de la machine… L’homme en guerre contre la machine… La machine plus humaine que son créateur… Le créateur plus artificiel et mécanique que sa créature…

Autant de thèmes explorés par de nombreuses œuvres de science-fiction, littéraires ou cinématographiques. Me voilà ainsi revenu au point de départ de cette humble réflexion sur l’intelligence artificielle. Je terminerai par la mise en exergue du rôle que joue selon moi la science-fiction en tant que genre narratif spéculatif sur l’appréhension de ce que pourrait être notre futur à l’aune des découvertes scientifiques et techniques à venir. Fondée sur un « que se passe-t-il si… ? », elle a ainsi l’immense vertu d’anticiper, de prévenir, et donc de limiter, par la médiation de l’imaginaire, les risques inclus dans certains choix que l’homme, cet homo à la fois sapiens et faber, sera amené à prendre sur son interaction avec le monde qui l’entoure. En guise de conclusion, je laisse donc à l’appréciation de tous ceux qui considèrent la science-fiction comme un genre narratif mineur, sous prétexte qu’il laisse libre cours aux produits les plus insensés, les plus déraisonnables, les moins « sérieux » de l’imagination humaine, les propos de Niels Bohr, père de la physique quantique, à l’adresse d’un jeune physicien : « Nous reconnaissons tous que votre théorie est folle. La question qui nous divise est de savoir si elle est assez folle pour avoir une chance d’être vraie. »

Si le sujet a éveillé vos appétits intellectuels…

…quelques liens concernant l’intelligence artificielle, qui pourront les rassasier…

Etiqueté le:Philosophie,Psychologie,Robotique,Science,Science Fiction

Commenter cet article