Site icon Un peu de Physique pour comprendre le monde

Comprendre le monde … autrement – le cours

« C’est une chose étrange que les hommes aient voulu comprendre les principes des choses, et de là arriver à connaître tout, par une présomption aussi infinie que leur objet »

Pascal, Pensées 72-299

Le cours se propose d’exposer les grandes lignes des sciences de la complexité, dont les principes sont présentés dans la page  » comprendre le monde et sa complexité  » de ce blog.

Il s’adresse à un large public intéressé par l’histoire des Sciences et désireux de comprendre la démarche qui, partant du travail des pionniers comme Galilée ou Newton au XVIIème siècle, a abouti à notre connaissance actuelle de l’Univers à toutes ses échelles. Nous verrons comment l’ordinateur a pris une place de plus en plus importante dans cette démarche, avec ses derniers avatars que constituent les réseaux neuronaux et l’intelligence artificielle.

Une série de 3 podcasts sur Spotify « La Science de Bernie » permet d’en écouter des résumés en promenant son chien ou toute autre activité qui laisse libre l’esprit de vagabonder : dans l’ordre La quête de l’unité, l’émergence, l’ère des automates.

A la fin de chaque chapitre, les boutons pdf, ppt et vidéo donnent accès aux différentes ressources :
pdf : présentation sans animation
ppt : présentation lisible avec Powerpoint, avec animations et effets dynamiques
vidéo : vidéo accessible sur YouTube : la Science de Bernie.

Les ressources sont mises à jour tous les ans, sauf les vidéos dont la production est plus lourde.

Chapitre 0 – Introduction

La quête de l’unité a été l’axe dominant de la physique depuis 3 siècles ; depuis le milieu du XXème siècle, la science de la complexité est apparue, notamment grâce à l’arrivée des ordinateurs. Cette introduction présente les objectifs et l’organisation de ce cycle.

Chapitre 1 – La quête de l’unité

En ce début de XXIème siècle, la Physique a fortement progressé vers une vision unifiée des forces, composants et lois qui constituent notre Univers, à toutes les échelles. Ce chapitre expose la démarche -théorique et expérimentale- qui a construit au fil des siècles cette vision unifiée.

Une première partie expose les origines et les principes de la démarche scientifique « moderne » née à la Renaissance. Elle est basée sur les 3 piliers : instrumentation, expérimentation et abstraction mathématique, dont Galilée fut l’un des pionniers. Descartes, comme philosophe, en a exposé les principes (Discours de la Méthode) : rationalisme et réductionnisme.

Une deuxième partie expose les résultats de la démarche réductionniste : recherche des éléments de base communs à tout l’Univers. Cette quête de l’unité -non encore aboutie- fournit une base solide pour tenter la reconstruction des objets de l’Univers à partir de ses « atomes ». Une vidéo synthétise ces 2 parties du chapitre

Dans la ligne de la quête de l’Unité, Une troisième partie – « L’arpentage du monde » – présente la démarche vers la définition unique et cohérente des grandeurs fondamentales universelles, et d’un système d’unités pour les mesurer. Désormais (en 2018), le rêve de la Révolution Française d’établir un système de mesures simple et universel, est devenu réalité.

Nous prenons conscience que la structure actuelle de notre univers dépend d’un réglage extrêmement fin d’un petit nombre de constantes universelles.

Chapitre 2 – Des particules aux systèmes

Les différents champs de la physique sont structurés en une hiérarchie de disciplines emboîtées. Chaque discipline (nucléaire, atomique, moléculaire, …) s’appuyant sur le niveau inférieur en « cachant » sa structure interne.

Cette hiérarchisation de systèmes physiques encapsulés s’applique aussi dans la vie moderne. En effet, on y manipule beaucoup d’objets technologiques, sans connaître leurs structures internes. On applique -sans le savoir- les principes de l’encapsulation.

Au cours du XIXème siècle, avec l’essor des machines à vapeur, la physique statistique a été élaborée pour comprendre l’origine des comportements des gaz, c’est-à-dire relier leur comportement macroscopique (à notre échelle) à leur organisation microscopique. La physique statistique fait apparaître la notion d’émergence, qui dominera la suite du cycle de cours.

Chapitre 3 – La complexité – survol épistémologique

La notion de système est relativement récente (XVIIIème siècle) : « ensemble de constituants reliés par des relations de dépendance et ayant un comportement collectif vis-à-vis de leur environnement ». Les notions de système complexe et de science de la complexité sont apparues au milieu du XXème siècle, notamment en lien avec la puissance croissante des ordinateurs.

Le rêve de Laplace

La science de la complexité apparait comme alternative à la « quête de l’unité » (Chapitres précédents) avec l’objectif de reconstruire l’Univers à toutes ses échelles et dans sa diversité. Que ce soit en Mathématiques ou en Physique, au-delà des obstacles techniques, il y a des limites fondamentales à la réalisation du rêve de Laplace.

La notion de complexité est un concept-valise, qui a envahi tous les champs des sciences exactes, humaines et sociales. Il est cependant possible de classer et de « mesurer » la complexité des systèmes de la nature.

Chapitre 4 – Les systèmes dynamiques – les automates

L’étude de la dynamique des systèmes est un des champs les plus actifs de la physique : par les applications qui en découlent (mécanique classique, mécanique quantique, etc.), et par les développements mathématiques qu’elle a, soit utilisés, soit suscités. La dynamique des systèmes se caractérise par des équations différentielles liant l’évolution au cours du temps à la structure de l’espace (champ de forces, gradients,…).

Le nombre des solutions analytiques de ces équations est très limité ; les méthodes de résolution discrètes ouvrent -avec l’ordinateur- un espace immense de solutions numériques.

La mise en œuvre de ces méthodes numériques fait apparaître la notion d’automate, comme outil de modélisation des phénomènes de la Nature. La première section du chapitre montre les applications de ces automates à l’étude des systèmes dynamiques ; mis en œuvre sur ordinateur, ce sont des outils puissants pour la résolution de nombreux problèmes (par exemple, le « problème à N corps »), avec des limitations fondamentales qui font l’objet de la section suivante

L’utilisation des automates de calcul -par exemple pour la météo- va mettre en lumière le phénomène de chaos déterministe, pressenti par Poincaré au début du XXème siècle.
Le chaos met fin au rêve de Laplace, puisque il dissocie la prédiction de l’explication et de la compréhension : les phénomènes expliqués par des lois parfaitement déterministes peuvent avoir un comportement imprédictible.

Le papillon et le cyclone

La 2ème section du chapitre 4 est dédiée à l’étude du chaos déterministe, ses propriétés et les conditions d’apparition des régimes chaotiques dans la dynamique des systèmes.

Chapitre – 5 – Le hasard

À notre échelle, « le hasard est le principe déclencheur d’événements non liés à une cause connue » (Wikipédia). Pour des savants comme Einstein, tous les évènements de la Nature sont reliés à des causes et si des causes nous paraissent inconnues, c’est que nos théories sont imparfaites; alors que les théoriciens de la Mécanique Quantique – en majorité- pensent qu’il y une part de hasard irréductible dans les phénomènes physiques de l’infiniment petit.

Le hasard et la pandémie COVID – 19

Il y a un paradoxe à vouloir simuler les phénomènes aléatoires (au hasard) sur la machine déterministe qu’est l’ordinateur. Ce problèmes résolu, un large domaine de phénomènes physiques est ouvert à la modélisation et à la simulation sur ordinateur, par les méthodes dites de Monte-Carlo.

Chapitre 6 – Modèles bio-inspirés – réseaux d’automates

Les organismes vivants – pour leur survie ou leur reproduction – résolvent des problèmes complexes sans mathématiques, ni ordinateur. De capacités individuelles limitées, ils agissent collectivement pour s’adapter à l’environnement. On parlera d’intelligence distribuée ou d’intelligence en essaim.

A partir des années 1960, des modèles inspirés par la Nature et la Biologie ont été développés, pour traiter, notamment, les problèmes de parcours optimaux dans les réseaux . Les algorithmes qui en résultent (par exemple, « algorithmes de fourmis » ou « algorithmes génétiques »), permettent de résoudre de manière efficace des problèmes de logistique, de routage, de distribution, etc.

La première section montre l’application de ces modèles d’intelligence distribuée à différents problèmes d’optimisation combinatoire.

Alors que la puissance des processeurs d’ordinateur se développe de manière exponentielle, les modèles bio-inspirés montrent que des réseaux de processeurs (automates) aux capacités limitées ont des propriétés collectives émergentes exceptionnelles.

Modèle du perceptron – Y. Le Cun – « Quand la machine apprend » – Odile Jacob

La section suivante étudie les réseaux d’automates (jeu de la vie, automates cellulaires), avant d’aborder les réseaux neuronaux. Inspirés des neurones animaux (humains), ils ont atteint des performances que l’on croyait réservées au cerveau humain (reconnaissance et synthèse de la parole, reconnaissance d’écriture, traduction dans des dizaines de langues, etc.). Se pose alors la question de l’intelligence artificielle : ses possibilités, limites, voire dangers.

Chapitre 7 – Ordre, chaos, morphogénèse

Les objets qui composent notre univers ont des formes qui nous permettent de les reconnaître et de les classer (avec nos réseaux neuronaux) : montagne, chou-fleur, flocon de neige etc… Nous nous interrogeons rarement sur l’origine de ces formes, de leurs régularités ou absences de régularités.

Ce chou Romanesco a une forme bien particulière – entre ordre et désordre. La morphogénèse se pose la question de l’origine de la forme des objets de la Nature.

La morphogénèse est un vaste domaine scientifique encore balbutiant ; nous traiterons 3 aspects :
– Les objets fractals : objets de la Nature de structure intermédiaire entre le désordre et l’ordre parfait, où se mêlent autosimilarité et aléatoire.
– L’entropie est une mesure du désordre des systèmes et ne peut que croître. Ce principe vérifié à toutes les échelles, implique que le désordre ne peut que croître dans la Nature. Et pourtant nous sommes entourés de structures ordonnées, en particulier par des organismes vivants. Comment cela est-il compatible avec l’entropie ?
– Si l’on admet que les flux d’énergie permettent de lutter contre l’entropie, voire créer des structures ordonnées ; comment ces structures apparaissent-elles ; il y a-t-il un principe (ou plusieurs) à la base de la morphogénèse ?

Plus généralement, se pose la question de la croissance de la complexité depuis le début de l’Univers : marche au hasard ou marche selon une loi.. Puisqu’à terme l’univers parait destiné à mourir quasiment vide et froid, quel objectif pour une croissance de la complexité-condamnée à terme par l’entropie ?

————— Bibliographie – Extraits de ma bibliothèque ——————-

Dans la mesure du possible, les liens vont vers les sites des éditeurs, quand ils existent … Certains livres sont moins récents -mais toujours d’actualité ; on peut les trouver en bibliothèque ou en occasion.

Sources documen/taires générales

Epistémologie, Histoire des Sciences

Ouvrages thématique

Encyclopédie en ligne

Usez et abusez de l’encyclopédie en ligne Wikipédia. Par exemple, les articles :

Quitter la version mobile