La complexité
Les différents domaines que nous explorons peuvent-ils nous apprendre quelque chose les uns sur les autres ? Nous avons déjà pu voir que les changements de paradigmes dans une science nous ouvrent à de nouvelles approches qui enrichissent notre façon d’aborder les autres champs. Mais plus encore, nous avons vu que, dans de nombreux cas, il était nécessaire d’articuler trois approches pour comprendre un résultat global : les caractéristiques des constituants et des règles qui régissent leurs interactions, les propriétés globales du système constitué par l’assemblage de ces constituants et l’influence de l’environnement. Il s’agit d’un ensemble de conséquences de ce que l’on appelle sciences de la complexité.
On confond souvent les termes « complexe » et « compliqué ». Un système est complexe lorsque ses différentes parties interagissent entre elles. Cela produit des résultats qui ne dépendent pas seulement des constituants (au travers des approches réductionnistes), mais également de propriétés globales indépendantes. On peut alors parler de propriétés émergentes. Celles-ci sont souvent peu intuitives, elles n’en sont pas « compliquées » pour autant.
Les sciences de la complexité s’appliquent à tout ce qui est constitué d’éléments en interactions (cristaux, systèmes biologiques, réseaux informatiques, cerveau constitué de neurones), mais également à la plupart des sciences humaines et sociales comme la sociologie ou l’économie.
Elles sont donc omniprésentes dans notre exploration des différentes technologies et de leur impact. Cette deuxième clé propose une introduction « simple » à la « complexité ».
La perte partielle de notre capacité à prévoir
La complexité commence lorsque trois éléments ou plus interagissent entre eux. Habituellement, lorsque deux éléments interagissent, par exemple la Terre et la Lune, nous cherchons à les isoler du reste de leur environnement pour n’étudier que le lien qui les unit. Celui-ci se matérialise par une équation comme par exemple celle de Newton. Cette équation, qui dépend en général du temps, nous permet de faire quelque chose d’incroyable : si nous fixons le temps au moment présent, nous obtenons les positions actuelles de la Terre et de la Lune ; mais si nous choisissons une autre valeur pour le temps, nous pouvons obtenir immédiatement leur position à n’importe quel moment du passé ou même du futur (1). Notre équation nous permet de nous « téléporter » dans le temps, sans avoir besoin de savoir ce qu’il s’est passé entre-temps. Mais que se passe-t-il lorsque le système est formé non pas de deux, mais de trois objets ? C’est le cas par exemple pour Mars, qui interagit avec ses deux satellites, Déimos et Phobos. Dans ce cas, nous avons une équation pour le lien entre Mars et Déimos, une pour Mars et Phobos et également une troisième pour définir l’interaction entre les deux satellites Phobos et Déimos. Avec ce système de trois équations, il n’est plus possible d’obtenir un résultat simplement en attribuant une valeur quelconque à la variable temps. Au contraire, chaque équation doit être alimentée à chaque instant par le résultat des deux autres. Ce problème des trois corps a été décrit par Henri Poincaré.
Exemple
La différence entre un, deux et les autres nombres
Les Pirahãs, une tribu d’Amazonie, ont peut-être bien compris la différence entre les relations interpersonnelles et les groupes complexes.
Leur langue ne comprend que trois nombres, ils comptent en « un, deux et beaucoup ». De même, certaines langues comme le grec ou les langues slaves distinguent le duel, en plus du singulier, et le pluriel. Ce dernier est utilisé à partir de trois éléments. En français, nous avons pratiquement perdu cette distinction entre le nombre deux et les nombres supérieurs. Cependant, certains dictionnaires mentionnent que le mot « plusieurs » signifie trois ou plus.
Pour nous en sortir, nous allons devoir considérer que pour un intervalle de temps suffisamment petit, les deux autres corps auront peu bougé et qu’il est possible de les considérer comme fixes pour obtenir l’évolution du troisième. Ainsi, à partir de la position des trois corps à un instant donné, nous pouvons calculer leur position à l’instant suivant, à condition que l’intervalle de temps soit suffisamment faible. Nous pouvons répéter la même opération avec les nouvelles positions et ainsi, étape par étape, reconstruire les trajectoires. Cependant, pour prévoir une configuration dans le futur, nous avons dû passer par toutes les étapes intermédiaires. Ce résultat est également vrai lorsque plus de trois éléments interagissent entre eux, qu’ils soient quatre, cinq ou des milliards.
Générer le réel plutôt que le prévoir
Robert Axtell et Joshua Epstein, chercheurs en sociologie à la Brooking Institution, pensent que nous devons maintenant adopter une nouvelle méthodologie scientifique, qui ne se basera plus sur la prévision mais sur la capacité de créer des phénomènes :
La « science générative ». Pour eux, il s’agit de savoir si des programmes informatiques assez simples sont en mesure de reproduire des phénomènes complexes du monde réel. « Le but de ces expériences est de voir si certaines microspécifications sont suffisantes pour générer les macrophénomènes qui nous intéressent. » (L’aile du papillon ?)
En remplaçant la prévision par la simulation et les mathématiques par l’informatique, il se pourrait bien, selon l’expression du physicien et mathématicien anglais Stephen Wolfram, qu’on assiste à la naissance non pas d’une nouvelle science, mais d’une nouvelle sorte de science.
Pour comprendre la complexité, nous allons donc devoir abandonner certains outils utilisés par la science pour les remplacer par d’autres. En effet, on ne peut plus utiliser les outils mathématiques du réductionnisme qui ne prend en compte que deux éléments en interaction. À la place, des approches itératives sont nécessaires.
Qu’est-ce qui influence les propriétés du système ?
Le résultat global observable pour un système complexe est le fruit de plusieurs influences. En premier viennent les constituants du système.
En second, les règles qui déterminent leur interaction.
En troisième, l’environnement où le phénomène prend place.
Enfin, le système peut s’influencer lui-même en « apprenant », c’est-à-dire en évoluant en fonction de ses états antérieurs.
Cet ensemble d’influences plus ou moins prononcées explique la phrase « le tout est plus que la somme des parties ». Nous prendrons l’exemple du tir à la corde pour l’illustrer.
Dans ce sport, les constituants sont bien sûr les joueurs. Chacun d’entre eux a une influence sur le résultat final. Une personne particulièrement forte avantagera son équipe. Cependant, lorsque le nombre de personnes est important, l’influence individuelle des joueurs devient marginale.
La loi des grands nombres indique qu’au-delà d’un ordre de grandeur de mille éléments, un système dépend peu des particularités de ses constituants. S’il y a mille joueurs de chaque côté de la corde, en rajouter un mille et unième fera peu changer le rapport de force.
Attention toutefois, cela n’est pas toujours vrai. Il existe certains types de systèmes qui peuvent repousser ces limites en permettant à un élément individuel d’influencer le résultat global. Ces cas sont étudiés dans la théorie du chaos. C’est à ce propos qu’en météorologie Edward Lorentz, l’un des pères de cette théorie, décédé le 16 avril 2008, a pu émettre la formule devenue célèbre : « Le battement d’aile d’un papillon au Brésil peut-il déclencher une tornade au Texas ? ». Dans certains cas, malgré un très grand nombre de constituants élémentaires, certaines perturbations peuvent émerger au niveau global. On parle alors d’émergence synchronique ou de causalité ascendante. Une autre façon de propager des influences individuelles au-delà du seuil de la loi des grands nombres est de permettre des regroupements partiels afin de constituer un, deux ou plusieurs niveaux intermédiaires – on parle de niveaux mésoscopiques. Ainsi, entre deux niveaux, le nombre de constituants (éventuellement de sous-groupes) reste inférieur au seuil et les actions individuelles peuvent se propager de proche en proche.
Passons maintenant au rôle des règles d’interaction. Dans notre exemple, le jeu se joue-t-il « à la muette » ou les joueurs d’un même camp peuvent-ils communiquer entre eux ? Ont-ils le droit d’utiliser des codes pour ne pas être compris de leurs adversaires ? Si une des équipes a mis en place un système de messages simples pour synchroniser les efforts de ses joueurs, alors elle obtiendra un avantage certain. Les règles d’interaction font souvent converger l’ensemble d’un système ; et au bout d’un certain temps une « forme » globale particulière émerge. On parle alors d’émergence diachronique ou d’auto-organisation. Autrement dit, les choses se terminent un peu de la même façon, quels que soient les paramètres au départ – du moins dans une certaine limite. La disposition initiale des constituants prend alors moins d’importance. Le nombre d’étapes nécessaires pour que le système arrive à cet état dépend à la fois de la diversité des constituants de départ – qui pourront alors plus facilement rencontrer les différents cas possibles – et des règles ellesmêmes – on parle alors de profondeur de Benett.
Une grande diversité de règles
Certaines règles ont des particularités qui leur permettent de créer de l’auto-organisation ou qui autorisent un constituant élémentaire à avoir une influence visible sur tout le système :
Comme nous l’avons vu, certaines repoussent la limite au-delà de laquelle les actions individuelles sont noyées dans la masse en ajoutant du chaos.
D’autres donnent une importance à un constituant particulier, par exemple en chimie le catalyseur qui modifie la probabilité pour qu’une réaction se fasse.
Les règles, même légèrement modifiées, peuvent parfois conduire le système aux mêmes états lorsqu’il y a des attracteurs. Parfois, on peut même s’orienter vers plusieurs états semi-stables en fonction des conditions de départ. On parle de multistationnarité. Au-delà d’un certain seuil de modification apparaît une bifurcation qui conduit vers un autre état ordonné ou vers un désordre. La théorie des catastrophes s’intéresse aux cas où une légère perturbation dans les règles aboutit à un résultat totalement différent.
L’ordre d’application des règles peut aussi amener à des résultats différents, comme c’est le cas dans une recette de cuisine. On parle alors de règles non commutatives.
L’environnement peut aussi influencer le système. Dans le cas du tir à la corde, si le terrain est très en pente, il y a de fortes chances pour que l’équipe gagnante soit celle qui tire vers le bas, quelle que soit la force de ses joueurs. Ainsi, dans certains cas, l’environnement peut introduire de la nouveauté dans un système. Le Belge Ilya Prigogine, prix Nobel de chimie en 1977 et décédé en 2003, a montré que dans le cas d’un système ouvert, c’est-à-dire susceptible de recevoir ou de fournir de l’énergie à son environnement, une petite perturbation suffit pour que le système s’auto-organise. On parle alors de structures dissipatives.
Le système lui-même, ou plus exactement ses états antérieurs, peut également avoir une influence sur la situation à un moment donné. Le système rétroagit sur lui-même. Ces joueurs ont-ils déjà joué ensemble ? Ont-ils déjà affronté l’équipe adverse et en ont-ils tiré des leçons ? Chaque équipe réagira en fonction de son histoire, ce qui fait que deux matchs ne seront jamais identiques, même si les deux mêmes équipes se rencontrent sur le même terrain. Mais dans ce cas, il arrive que l’évolution aboutisse à plusieurs solutions possibles sans que l’on puisse dire laquelle sera effectivement mise en œuvre. Le résultat est alors indécidable. Il n’est plus seulement imprévisible, il devient non déterministe.
La mesure des propriétés d’un système
Comme nous l’avons vu, le système a ses propriétés propres qui ne se déduisent pas aisément de la somme des caractéristiques des constituants et de leurs règles d’interaction. Pour les mesurer, on considère le système comme un réseau. Les constituants sont appelés nœuds ou sommets. Les liens entre eux sont des arcs lorsqu’ils sont orientés, c’est-à-dire quand ils vont d’un noeud source vers un noeud destination. Ou bien ce sont des arêtes, lorsque le sens du lien est indifférent.
L’exploration des très grands réseaux est en général un véritable défi. Par exemple, le réseau des réseaux internet compte environ cinq cent millions de serveurs, l’ADN sept milliards de nucléotides, les hommes sont également près de sept milliards. Quant au corps humain, il contient cent milliards de cellules qui communiquent avec leurs voisines. Dans ce cas, il n’est plus possible d’avoir une vision exhaustive du réseau. Il faut au contraire adopter une vision constructiviste, qui donne certains chemins que l’on a pu explorer et le trafic au travers de certains noeuds que l’on a pu observer.
Ces mesures de graphes[1] permettent d’obtenir quelques propriétés globales du système, parmi lesquelles :
La distance moyenne : on cherche la plus courte distance entre deux sommets dans le plus grand nombre de cas possible et on en fait la moyenne.
Le diamètre : le plus long chemin parmi les plus courts chemins entre tous les noeuds du graphe. Pour les réseaux humains, Stanley Milgram a constaté que deux citoyens américains choisis au hasard sont reliés par une chaîne d’au plus six relations.
Le coefficient de clustering, ou coefficient d’agrégation : la probabilité que deux noeuds qui sont tous les deux reliés à un troisième soient eux-mêmes connectés directement.
La distribution de degrés : certains noeuds sont reliés à beaucoup d’autres, d’autres le sont très peu. Le degré correspond au nombre de liaisons des noeuds. La distribution de degrés représente donc la répartition des noeuds en fonction du nombre de liens qu’ils ont. Décrire cette répartition donne des informations intéressantes sur les réseaux.
On peut distinguer différents types de réseaux théoriques :
Les graphes totalement connectés : chaque noeud est relié à tous les autres.
Les graphes réguliers : le degré des noeuds est constant, ils sont reliés au même nombre de voisins suivant un même motif (grille, anneau, tore, etc.).
Les graphes aléatoires : faible distance moyenne, faible clustering et distribution de degrés en loi de Poisson, c’est-à-dire décroissant selon une exponentielle. Ils sont peu robustes aux pannes (le réseau se retrouve coupé en deux après l’arrêt d’un certain nombre de noeuds choisis aléatoirement), mais ils sont résistants aux attaques (le réseau se retrouve coupé en deux après l’arrêt d’un certain nombre de noeuds choisis judicieusement parmi les plus connectés).
Mais dans la pratique, les réseaux ne sont ni totalement aléatoires ni totalement réguliers. Les réseaux petit-monde ou small worlds (faible distance moyenne et faible diamètre, fort clustering et distribution de degrés le plus souvent en loi de puissance) représentent ce type de réseaux avec des groupes de noeuds fortement connectés entre eux et reliés de façon plus lâche à d’autres groupes.
On rencontre des réseaux petit-monde souvent dans les réseaux sociaux ou encore dans l’internet, les réseaux routiers, la linguistique (cooccurrence de mots dans une phrase) ou les réseaux de neurones. Ils correspondent à des réseaux qui se sont construits dans le temps, contrairement à un graphe aléatoire qui est posé aléatoirement en une seule fois. Pour cette raison, certains noeuds, souvent les plus anciens, sont beaucoup plus reliés que les autres, se sont les super-noeuds. Un tel réseau est plus résistant aux pannes (arrêt de noeuds choisis aléatoirement) et moins résistant aux attaques (arrêt ciblé de noeuds choisis parmi les super-noeuds).
Un groupe d’êtres humains est également un système complexe où chaque personne peut interagir avec plusieurs autres. Si ces personnes ont une capacité à comprendre comment la modification des règles d’interaction peut donner un résultat global, elles peuvent démultiplier leur influence en modifiant les règles dans un but donné. On peut montrer que, dans un tel système, il n’est pas possible d’avoir à la fois : un système complexe, avec des interactions entre les personnes et non pas seulement avec une autorité centralisée ; un système complet, avec un système de règles qui prend en compte tous les cas de figure ; et un système cohérent, où les règles ne doivent jamais se contredire. Les règles du droit n’échappent pas à celles de la complexité…
L’influence des constituants, des règles d’interaction, de l’environnement et de leur propre histoire
Si les propriétés globales d’un système sont influencées à différents degrés par ses constituants, leurs règles d’interaction, l’environnement et les états antérieurs du système, l’inverse est également vrai.
Les caractéristiques des constituants peuvent être modifiées :
Par les autres constituants,
Par les règles : c’est l’objet de la théorie des jeux,
Par le système : on parle de causalité descendante,
Par l’environnement (comme dans la génétique des populations).
De même les règles d’interaction peuvent varier sous l’influence des autres domaines.
Quant à l’environnement, il est évident qu’il subit l’influence des niveaux inférieurs, (quadruple interdépendance).
Il existe un cas particulier : lorsqu’un système comprend un nombre suffisamment important de constituants diversifiés qui interagissent depuis longtemps et lorsque l’influence de l’extérieur reste réduite, alors le système global ne dépend que des règles de base.
Mais, en général, les systèmes subissent l’influence des constituants, de l’environnement et de leur propre histoire pour former une grande richesse de cas.
Articuler l’influence des différents niveaux
Pour articuler les influences des constituants, des règles, du système et de l’environnement, nous nous retrouvons dans un cas proche du problème des trois corps évoqué au début de ce chapitre : quatre facteurs s’influencent réciproquement. Leur transformation ne peut plus être résumée par une loi générale. Ainsi l’approche évolutionnaire, qui nous a permis de comprendre comment un système évoluait sous l’influence de plusieurs constituants qui interagissent ensemble, peut également être utilisée à un niveau d’ordre supérieur pour comprendre comment constituants, règles d’interaction, propriétés globales du système et environnement coévoluent. Cette notion se définit sous le terme de principe de récursion.
A retenir
Dès que plus de deux éléments interagissent ensemble, les outils mathématiques qui nous permettent habituellement d’obtenir directement un résultat dans le futur ou dans le passé ne sont plus directement opérationnels. Nous entrons dans le domaine de la complexité et nous devons décrire toutes les étapes intermédiaires de l’évolution d’un système. La simulation informatique devient alors un outil précieux.
Il existe quatre domaines qui peuvent s’influencer les uns les autres :
1. Les caractéristiques des constituants, en particulier lorsque l’on introduit du chaos ou lorsque des niveaux intermédiaires se forment.
2. Celles des règles d’interaction qui peuvent faire converger le système vers des « formes » complexes.
3. Les propriétés globales du système qui sont indépendantes du type de constituants.
4. L’influence de l’environnement.
Jean-Michel Cornu
Extrait de ProspecTic, nouvelles technologies, nouvelles pensées, FYP Editions, 2008.
______________
(1) Sous réserve cependant que l’équation comprenne l’intégralité des interactions. Dans le cas contraire, un écart peut se creuser lorsque l’on s’éloigne de l’instant de départ observé.
Voici le lien vers le site de référence sur la complexité, animé par Jean Louis Le Moigne et Edgar Morin : www.mcxapc.org
Et surtout pour les matheux du groupe comme François Paganel J :
Mathematica l'encyclopédie libre.
De la sémantique générale à la complexité en passant par la systémique !
« En remplaçant la prévision par la simulation et les mathématiques par l’informatique, il se pourrait bien, selon l’expression du physicien et mathématicien anglais Stephen Wolfram, qu’on assiste à la naissance non pas d’une nouvelle science, mais d’une nouvelle sorte de science ».
Mathematica est un logiciel de calcul formel édité par Wolfram Research depuis 1988 et utilisé dans les milieux scientifiques pour effectuer des calculs algébriques et créer des programmes.[]
[1] Un graphe est un ensemble de liens qui relient des éléments entre eux.
Les liens sont représentés par des lignes que l’on appelle arêtes ou par des arcs.
Les éléments sont représentés par des points que l’on appelle sommets. Les éléments peuvent être des lieux, des personnes, des tâches, etc.
Commentaires
Formidable.....Mais Qui a compris?
Honnêtement, les Matheux sont une espèce rare ...les autres se contentent de "faire des Maths" plutôt mal généralement.
La Logique formelle n'est pas du gâteau non plus et le meilleur esprit s'y égare facilement.
On ne demande heureusement pas à tous de légiférer sur les maths par le vote du suffrage universel...
Il faut donc des Experts qui interprètent le désir du peuple et le rende possible...réalisable au mieux.
Bien sur Epicure Ce serait merveilleux si tout le monde comprenait ...quoi que ? Peut être que justement comprendre ne sert à rien. L'acte de foi vient en premier ...le monde logique s'organise derrière :-)
Oui, exact...mais....justement! Qui garantit de la nature et qualité de la Foi?
Le Nazi fanatique et le Bolchévique convaincu, jusqu'au sacrifice, (islamiste également) n'ont-ils pas la Foi?
On ne peut bâtir que sur la Raison sans négliger en effet la conviction d'une certaine Foi en l'Homme Libre...!
Bien sur...on ne peut bâtir que sur la raison, la foi ou tout simplement l'émotion ne peuvent qu'être des moteurs
Finalement les passions sont toujours destructrices !