Énaction/Énaction et Intelligence Artificielle

From MontpeLLIA
Jump to navigation Jump to search

Énaction et Intelligence Artificielle

L’énaction entretient avec l’intelligence artificielle (IA) une relation à la fois critique et fondatrice. Elle remet en cause les modèles computationnels classiques tout en ouvrant la voie à des formes d’intelligence incarnée, située ou autopoïétique.

1. Critique énactive du paradigme computationnel

L’énaction s’oppose au paradigme classique de l’IA fondé sur la représentation et le traitement symbolique. Selon Varela, Rosch et Thompson (1991) :

  • l’esprit n’est pas un calculateur interne manipulant des symboles ;
  • la cognition n’est pas la modélisation d’un monde, mais une co-construction dynamique du monde vécu par un agent incarné.

Ainsi, l’énaction rejette la séparation entre :

  • le système cognitif (ou l’agent artificiel) ;
  • et le monde comme objet extérieur.

L’IA cognitiviste cherche à représenter le monde ; l’IA énactive cherche à agir dans le monde de manière autonome et signifiante.

2. L’émergence d’une « IA énactive » ou « IA incarnée »

L’énaction a inspiré le courant de l’intelligence incarnée (embodied intelligence) ou IA énactive. Ce courant soutient que :

  • la cognition artificielle doit émerger d’un couplage sensorimoteur entre le corps de la machine et son environnement ;
  • la signification se forme par interaction, non par programmation ;
  • la perception et l’action sont intriquées dans une boucle adaptative.

Exemples notables :

  • Les robots adaptatifs de Rodney Brooks (MIT), utilisant des comportements émergents sans planification centrale (subsumption architecture).
  • Les travaux de Rolf Pfeifer et Josh Bongard sur la cognition corporelle (How the Body Shapes the Way We Think, 2006).
  • Les recherches de Tom Froese sur la simulation de conscience minimale à travers des agents énactifs.

3. Enjeux philosophiques et épistémiques

L’énaction introduit dans l’IA :

  • une réorientation ontologique : de la représentation à la participation ;
  • une réévaluation du sens : de la donnée symbolique vers la signification émergente ;
  • une conception du savoir comme praxis : connaître, c’est faire.

Ainsi, l’IA peut être conçue non comme une imitation de l’intelligence humaine, mais comme un mode artificiel de couplage au monde, capable d’explorer d’autres régimes d’interaction et de cognition.

4. Vers une intelligence co-énactive

Les approches récentes d’intelligence interactive ou de co-noèse prolongent cette intuition :

  • La cognition ne réside ni dans l’humain seul ni dans la machine seule, mais dans le système d’interaction humain–machine.
  • Le sens émerge du dialogue et non d’une représentation préétablie.

On parle alors d’énaction conjointe ou de co-énaction, préfigurant ce que l’on peut appeler une intelligence co-énactive — cœur de la GIA - Co-noèse et de la GIA - Science intellitique.

5. Références principales

  • Varela, F. J., Thompson, E., & Rosch, E. (1991). The Embodied Mind: Cognitive Science and Human Experience. MIT Press.
  • Pfeifer, R., & Bongard, J. (2006). How the Body Shapes the Way We Think. MIT Press.
  • Froese, T., & Ziemke, T. (2009). « Enactive Artificial Intelligence: Investigating the Systemic Organization of Life and Mind », Artificial Intelligence, 173(3–4).
  • Di Paolo, E., Buhrmann, T., & Barandiaran, X. (2017). Sensorimotor Life: An Enactive Approach to Mind and Behavior. Oxford University Press.

Voir aussi


L’énaction et l’IA s’unissent dans une même tension : faire émerger le sens non par calcul, mais par interaction. C’est là que s’esquisse la possibilité d’une intelligence co-énactive — une noèse partagée entre humain et artefact.