Aller au contenu

Le truc dont tout le monde se branle...


ClarkGaybeul

Messages recommandés

j'en déduis que le ticket de métro n'était vraiment de rigueur ?

Je m'en fous j'ai la carte navigo :ninja:

j'ai lu "Bien foutue mais j'ai pas l'impression que la tête juive" :ninja:

C'est quoi le rapport ? :ninja:

Donc plutôt crevette que poulette :ninja:

Oui c'est ça, un gambas.

Lien vers le commentaire

bon ptain ca me soule vraiment ce jeu du killa :grin:

Plus personne ne veut poster... je me retrouve a parler tout seul dans les topics :ninja:

Va dans le topic musique, j'ai besoin d'un "avis au public", "50-50" ou au pire "Coup de fil a un ami". Tu combleras tes moments de solitude.

Lien vers le commentaire

copié/collé raté -_-

Théorie des cordes

La théorie des cordes est une théorie traitant de l'une des questions de la physique théorique : fournir une description de la gravité quantique c’est-à-dire l’unification de la mécanique quantique et de la théorie de la relativité générale. La principale particularité de la théorie des cordes est que son ambition ne s’arrête pas à cette réconciliation, mais qu’elle prétend réussir à unifier les quatre interactions élémentaires connues, on parle de théorie du Tout.

La théorie des cordes a obtenu des premiers résultats théoriques partiels. Dans le cadre de la thermodynamique des trous noirs elle permet de reproduire la formule de Bekenstein et Hawking pour l’entropie des trous noirs. Elle possède également une richesse mathématique notable : en particulier, elle a permis de découvrir la symétrie miroir en géométrie.

Sommaire

[masquer]

Présentation élémentaire du problème[modifier]

Une partie de la physique, notamment la physique théorique, repose aujourd’hui sur deux grandes théories en ce qui concerne la physique des particules. La relativité générale est une théorie de la gravitation qui décrit l'interaction gravitationnelle dans le cadre relativiste (relativité générale) essentiellement prouvée à l’échelle du système solaire (e.g. avancée du périhélie de Mercure) et à l'échelle astronomique (effet de lentilles gravitationnelles, dynamique des étoiles binaires); théorie déterministe classique qui a pour objet la détermination des trajectoires des corps en mouvement et de la lumière, ainsi que la description des changements exacts de coordonnées d'espace et de temps dans un changement de référentiel. À l’opposé, la mécanique quantique décrit le mouvement des particules dites élémentaires qui, par comparaison avec le monde classique, décrit les particules comme des ondes plus ou moins localisées, contrairement aux particules classiques qui sont exactement localisées.

Chacune de ces deux théories a conduit à des succès impressionnants (en terme d'expériences précises et fiables: c.f. Mécanique Classique et Mécanique Quantique) dans son propre domaine mais la différence profonde évoquée ci-dessus est à l’origine d’incohérences. Certains physiciens ont donc adopté une attitude pragmatique : utilisons chaque outil dans son domaine de validité sans nous poser de problèmes peut-être insolubles, c.f. École de Copenhague, contrairement à d'autres qui suggèrent un point de vue plus réaliste conforme aux deux théories, c.f. Théorie de De Broglie-Bohm.

Il reste que certains phénomènes nécessiteraient l'utilisation des deux théories. Ainsi, un trou noir a un champ gravitationnel tel qu’il attire tout ce qui passe à sa portée, y compris la lumière, ce qui implique la relativité générale. Pour tenter de décrire la "nature" de la « matière » dont il est constitué, ce qui implique la formulation d'une théorie des champs consistante d'un point de vue mathématique, il faut faire appel à la mécanique quantique. Les premiers instants du Big Bang poseraient, en considérant la théorie valide, un problème analogue, au moins à première vue. Les théories des cordes tentent de décrire de tels phénomènes. L'Univers élégant de Brian Greene donne à ce sujet un aperçu à l’usage des non-spécialistes.

Outre les controverses fondamentales évoquées ci-après, les théories des cordes présentent un inconvénient pratique, leur complexité extrême qui ne permet pas, à ce jour, d’aboutir à des résultats utilisables sans approximations grossières. C'est à ce jour avant tout une théorie mathématique ayant des visées physiques dont l'expérience reste à montrer le bien fondé.

Hypothèses et prédictions[modifier]

La théorie repose sur deux hypothèses :

  • Les briques fondamentales de l’Univers ne seraient pas des particules ponctuelles mais des sortes de cordelettes vibrantes possédant une tension, à la manière d’un élastique. Ce que nous percevons comme des particules de caractéristiques distinctes (masse, charge électrique, etc.) ne seraient que des cordes vibrant différemment. Les différents types de cordes, vibrant à des fréquences différentes, seraient ainsi à l’origine de toutes les particules élémentaires de notre Univers. Avec cette hypothèse, les théoriciens des cordes admettent une échelle minimale, reliée à la taille de Planck, et permettent ainsi d’éviter facilement l’apparition de certaines quantités infinies (« divergences ») qui sont inévitables dans les théories quantiques de champs habituelles.
  • L’Univers contiendrait plus de trois dimensions spatiales. Certaines d’entre-elles, repliées sur elles-mêmes (voir les théories d’Oskar Klein), passant inaperçues à nos échelles (par une procédure appelée réduction dimensionnelle).

À partir de ces hypothèses la théorie des cordes prédit que :

  • Le graviton, boson (i.e. médiateur) de la gravitation serait une particule de spin 2 et de masse nulle (conformément à la physique quantique). Sa corde a une amplitude d’onde nulle.
  • Il n’y a pas de différences mesurables entre des cordes qui s’enroulent autour d’une dimension et celles qui se déplacent dans les dimensions (i.e., les effets dans une dimension de taille R sont les mêmes que dans une dimension de taille 1/R).

Histoire de la théorie des cordes[modifier]

Article détaillé : Histoire de la théorie des cordes.

Au cours des années 1960, le comportement des hadrons est toujours un mystère pour la communauté scientifique. Les diverses études réalisées au sein des accélérateurs de particules contredisent toutes les hypothèses formulées et c’est en 1968 que le physicien Gabriele Veneziano utilise la fonction bêta d’Euler pour expliquer la relation entre le spin des électrons et leur énergie. Ces travaux sont suivis et améliorés dans les années suivantes mais toujours sans aboutir à une explication probante. En 1973, une nouvelle théorie apparaît, la chromodynamique quantique (abrégée QCD pour Quantum ChromoDynamics), dont les résultats s’avèrent si probants qu’elle se voit intégrée au modèle standard et apporte le prix Nobel à ses auteurs en 2004. Bien qu’elle ne fournisse pas toutes les réponses aux questions des physiciens, la QCD est toujours considérée valide de nos jours, mais elle n’invalide pas la théorie des cordes dont les recherches continuent.

En 1984, par une prouesse technique remarquable, Michael B. Green et John H. Schwarz démontrent l’absence d’anomalies de jauge ou gravitationnelle dans la théorie de cordes de type I qui est une théorie chirale de même que le modèle standard. Ce travail offre pour la première fois la perspective d’obtenir une phénoménologie réaliste à partir de cordes.

Au milieu des années 1990, un grand nombre de « ponts » ou dualités sont découverts entre les différentes théories de cordes. En 1995, le physicien Edward Witten suggère que ces dualités sont la contrepartie de l’existence d’une théorie plus fondamentale, appelée théorie M réunissant de façon continue les différentes théories des cordes qui sont alors obtenues dans certaines limites de son espace des paramètres (appelé espace de modules). Cette période d’intense activité dans le domaine lui a valu le nom de « seconde révolution des cordes ».

Les différentes théories des cordes[modifier]

Théorie des cordes bosoniques[modifier]

Article détaillé : Théorie des cordes bosoniques.

La théorie bosonique des cordes à 26 dimensions est la théorie originale des cordes et la plus simple. La formulation de la théorie sur son feuillet d’univers ne contient que des bosons d’où son nom. Elle contient un tachyon (type de particule hypothétique dont l’énergie est une quantité réelle et la masse (au repos), un imaginaire pur), ce qui est une indication que la théorie est instable, et donc impropre à décrire la réalité.

Elle est toutefois utile pédagogiquement pour se familiariser avec les concepts fondamentaux que l’on retrouve dans des modèles plus réalistes. En particulier au niveau de masse nulle, elle fait apparaître le graviton. Elle admet des cordes ouvertes ou fermées.

Théorie des supercordes[modifier]

Article détaillé : Théorie des supercordes.

Il existe en fait cinq théories des supercordes. Elles ont en commun un univers à 10 dimensions qui ne possède pas de tachyons et supposent l’existence d’une supersymétrie sur la feuille d’univers des cordes, aboutissant à l’existence de supersymétries dans l’espace-cible :

  • I : cordes ouvertes ou fermées, groupe de symétrie SO(32)
  • IIA : cordes fermées uniquement, non-chiralité
  • IIB : cordes fermées uniquement, chiralité
  • HO : cordes fermées uniquement, hétérodicité[1], groupe de symétrie SO(32)
  • HE : cordes fermées uniquement, hétérodicité, groupe de symétrie E8×E8

Les théories des supercordes se distinguent de la première par l’existence d’une symétrie supplémentaire, la supersymétrie, laquelle s’est avérée nécessaire lorsque l’on a souhaité incorporer les fermions (la matière) dans la théorie bosonique des cordes.

Il semblerait que ces cinq théories soient différentes limites d’une théorie encore mal connue, reposant sur un espace à 11 dimensions (10 spatiales et une temporelle), appelée théorie M, laquelle admettrait la supergravité maximale développée dans les années 1970 comme théorie effective de basse énergie. Cette hypothèse a été proposée par Horava et Witten dans les années 1990 et a amené l’introduction d’autres objets étendus en plus des cordes. On parle de p-branes, p étant un entier qui indique le nombre de dimensions spatiales de l’objet en question. Elles sont décrites perturbativement comme les sous-espaces sur lesquels vivent les extrémités de cordes ouvertes. L’étude du spectre montre que des D1, D3, D5, D7 et D9 branes peuvent être incorporées dans un espace-cible décrit par la théorie IIB tandis que dans un espace où vivent des cordes de type IIA on peut introduire des branes de type D0, D2, D4, D6 et D8. Les D1 ont le même nombre de dimensions qu’une corde fondamentale (notée usuellement F1). Bien qu’étant deux objets distincts, une symétrie non-perturbative de la théorie IIB, appelée S-dualité, qui a subi un nombre important de vérifications indirectes, possède la propriété d’échanger D1 brane avec la F1.

Théorie M[modifier]

500px-Constante_de_couplage.svg.png

magnify-clip.pngLorsque la constante de couplage 0bfe08323c8946571ba262b08ae44515.png augmente, les surfaces d’univers contribuant significativement aux interactions sont de plus en plus compliquées. On a illustré ici une surface de genre 4.

Articles détaillés : Théorie M et Couplage en théorie des cordes.

La théorie M, alliée à la supergravité à 11 dimensions, est l’aboutissement des cinq théories des cordes. Elle a été proposée par Edward Witten, en 1995. Lors de la conférence Strings’95, il introduit la notion de couplage qui décrit la probabilité avec laquelle deux cordes peuvent se fondre en une, puis se re-séparer. Il démontre que si on élève la constante de couplage de la corde Hétérotique E, d’un nombre négatif, à un nombre positif, cela met en évidence la supergravité[2]. L’origine du nom de la Théorie M est longtemps restée incertaine, donnant lieu à des plaisanteries. Edward Witten a déclaré à ce sujet : « Le M signifie « magique », « mystère » ou « matrice », selon les goûts. […] Certains cyniques ont insinué que le M signifiait peut-être « merdeuse », car notre degré de compréhension de la théorie est en fait tellement primitif. (Rires) Je n’aurais peut-être pas dû vous la dire, celle-là. »[3]

Concepts communs aux théories[modifier]

Branes[modifier]

Articles détaillés : Brane, Surface d'univers et Cosmologie branaire.

Une brane, ou plus exactement, une p-brane est un objet étendu en théorie des cordes. Le p est le nombre de dimensions spatiales dans laquelle la brane a des extensions. Il faut rajouter à ce nombre une dimension temporelle pour obtenir le nombre total de dimensions. Par exemple, une 1-brane est une brane à une seule dimension spatiale mais deux dimensions au total. Elles correspondent donc à des surfaces d’univers. Une 2-brane est une brane à une dimension temporelle et deux dimensions spatiales.

Plusieurs modèles cosmologiques ont émergé de l’introduction des branes en théorie des cordes. L’idée générale de la cosmologie branaire est que notre univers serait confiné sur une 4-brane. Ceci signifie que les particules de matière (quarks, électrons, etc.) et les interactions fondamentales autres que la gravitation (transportées par les particules telles le photon, le gluon, etc.) ne sont autorisées à se déplacer qu’à l’intérieur de la brane tandis que la gravitation a la possibilité de se déplacer également dans l’espace-temps complet (on dit aussi le bulk en anglais) dont la brane ne représente qu’un sous-espace.

Par ailleurs dans le cadre du modèle du Big Bang une idée a été introduite récemment comme alternative à l’inflation cosmique pour décrire les tout premiers instants de l’histoire de l’Univers, le modèle ekpyrotique. Dans ce modèle, l’expansion initiale est due à la collision d’une brane et d’une anti-brane, ce qui libère l’énergie nécessaire à l’expansion de l’Univers. Ce modèle prédit la possibilité d’autres collisions ce qui entrainerait d’autres Big Bang. Néanmoins, il n’a pas suscité l’unanimité au sein de la communauté des cosmologistes et l’inflation cosmique reste le mécanisme principalement considéré pour décrire les premiers instants.

Dimensions supplémentaires[modifier]

220px-Espace_de_Calabi-Yau.PNG

magnify-clip.pngUn exemple d’espace de Calabi-Yau.

Articles détaillés : Théorie de Kaluza-Klein, Réduction dimensionnelle, Dimensions enroulées et Espace de Calabi-Yau.

Selon la théorie des cordes, notre monde, apparemment tridimensionnel, serait non pas constitué de trois dimensions spatiales, mais de 10, 11, ou même 26 dimensions[4]. Sans ces dimensions supplémentaires, la théorie s’écroule. En effet, la cohérence physique (fonction d’onde donnant des probabilités non-négatives) impose la présence de dimensions supplémentaires. La raison pour laquelle elles restent invisibles, est qu’elles seraient enroulées par le procédé de la réduction dimensionnelle à une échelle microscopique (des milliards de fois plus petit qu’un atome), ce qui ne nous permettrait pas de les détecter.

En effet, si on imagine un câble vu de loin, celui-ci ne représente qu’une droite sans épaisseur, un objet unidimensionnel. Si l’on se rapproche assez près, on s’aperçoit qu’il y a bien une deuxième dimension : celle qui s’entoure autour du câble. D’après la théorie des cordes, le tissu spatial pourrait avoir de très grandes dimensions comme nos trois dimensions habituelles mais également de petites dimensions enroulées sur elles-mêmes.

Les espaces de Calabi-Yau sont des variétés qui jouent le rôle des dimensions enroulées. C’est une forme extrêmement complexe constituée à elle seule de 6 dimensions. Grâce à eux, on se retrouve bien avec dix dimensions : nos quatre dimensions habituelles (trois d’espace et un de temps) + les six des espaces de Calabi-Yau.

Supersymétrie[modifier]

Articles détaillés : Supersymétrie, Superpartenaire et Supergravité.

La supersymétrie est une symétrie en physique des particules. Elle établit un lien très solide entre les particules dotées d’un spin entier, et celles dotées d’un spin demi-entier. Dans ce contexte, les fermions sont associés à un autre type de particule : le superpartenaire. Les superpartenaires sont des grosses particules en tout point identiques à leur associé, sauf au niveau du spin : celui du superpartenaire diffère d’une demi-unité.

La supergravité est une théorie qui allie la supersymétrie à la relativité générale. Son fonctionnement est donc basé sur 11 dimensions.

Limitations et controverses concernant les théories des cordes[modifier]

La théorie des cordes a suscité, et suscite encore, beaucoup d’espoirs. Cependant un certain nombre de points importants semblent poser problème et sont toujours très controversés. Aucune de ces controverses n’invalide définitivement la théorie, mais elles montrent que cette théorie a encore besoin d’évoluer, de se perfectionner et de corriger ses faiblesses.

Description imparfaite du modèle standard[modifier]

Il existe une multitude de solutions aux équations de la théorie des cordes, ce qui pose un problème de sélection de notre Univers et, d’autre part, même si beaucoup de modèles voisins ont pu être obtenus, aucun d’entre eux ne permet de rendre compte précisément du modèle standard de la physique des particules.

Bien que différentes formulations indépendantes (cf. ci-dessous) aient été développées dans les années 1980, les résultats de dualité de cordes obtenus dans les années 1990 ont permis d’envisager que toutes les théories précédemment construites ne sont elles-mêmes que différentes limites d’une théorie unique plus fondamentale, baptisée théorie M, dont la formulation microscopique reste inconnue[5] mais dont la théorie effective de basse énergie est la supergravité maximale à onze dimensions, soit une de plus que la dimension critique des théories de supercordes.

Non prédiction et difficultés d'interprétation de l'énergie noire[modifier]

Un des faits expérimentaux majeurs observés ces dernières années est que l’Univers est en expansion accélérée. Une énergie noire, de nature inconnue, a été postulée pour expliquer cette accélération. Cette énergie noire peut être vue également comme une constante cosmologique positive. La théorie des cordes n’a pas prévu l’accélération de l’expansion de l’Univers car cette théorie mène naturellement vers des univers à constante cosmologique négative ou nulle[6]. Rendre la théorie des cordes compatible avec une constante positive s’est avéré très ardu et n’a été effectué qu’en 2003 par un groupe de l’université Stanford[7]. Mais une des conséquences de ce travail est qu’il existe de l’ordre de fad9a5641e75938d62b43f520f5b4a61.png théories des cordes possibles, donnant un « paysage » (« landscape ») de théories plutôt qu’une théorie unique. L’existence de ce nombre énorme de théories différentes — qui ont toutes la même validité théorique — mène directement à l’hypothèse d’un multivers, voire au principe anthropique, ce qui gêne ou intrigue nombre de physiciens.

Joseph Polchinski observe cependant[8] que Steven Weinberg a prédit dans les années 1980 une constante cosmologique non nulle en faisant l’hypothèse d’un multivers, ce qui est précisément une conséquence possible de la théorie des cordes.

Irréfutabilité et absence de prédictions[modifier]

Selon Peter Woit[9], une théorie des cordes « ne peut même pas être fausse ». En effet, le Landscape de théories permet d’ajuster les constantes libres de la théorie des cordes de manière à s’accommoder de pratiquement n’importe quelle observation, connues ou à venir. Par exemple, si le LHC ne détecte pas les particules superpartenaires, il sera possible de modifier la théorie pour rendre ces particules plus lourdes afin d’expliquer leur non-détection. Cette flexibilité rend également très difficile de faire des prédictions de phénomènes physiques pouvant tester et valider la théorie des cordes. De plus, on ne sait pas s’il sera possible d’effectuer des expérimentations sur les dimensions supplémentaires de l’Univers.

Si la théorie des cordes est difficilement réfutable, elle peut cependant être vérifiable. Récemment, des hypothèses ont été élaborées pour vérifier la théorie des cordes[10].

Indépendance de la géométrie de fond[modifier]

La théorie des cordes est actuellement décrite comme une théorie semi-classique. C’est-à-dire que considérant un environnement (géométrie de fond plus matière éventuelle) fixé, la formulation comme modèle sigma permet de trouver et d’étudier les excitations des cordes seulement au voisinage de cette géométrie. Un analogue en mécanique quantique de cette situation est l’étude de l’atome d’hydrogène baignant dans un champ électrique de fond (ce qui permet par exemple d’étudier l’émission spontanée mais pas stimulée).

Un certain nombre de points sont cependant à noter : - L’invariance par difféomorphismes de l’espace cible fait partie des symétries de la théorie. - Pour la consistance quantique de la théorie, l’environnement doit satisfaire aux équations de la relativité générale. - Parmi les excitations de la corde on trouve une particule, le graviton, qui possède les nombres quantiques nécessaires à la description d’une métrique générale comme état cohérent de gravitons. - Les états de la théorie sont des fonctions d’onde correspondant à un nombre fixé de cordes.

Les deux premiers points montrent que la théorie est parfaitement compatible avec la relativité générale. Le deuxième point est analogue dans le cas de l’atome d’hydrogène avec la nécessité pour le champ de fond de satisfaire aux équations de Maxwell. Afin de se libérer de ces contraintes sur l’environnement, et par analogie avec la seconde quantification dans le cas des particules qui aboutit à la théorie quantique des champs, il est donc désirable de posséder une théorie de champs de cordes qui correspond à la quantification de ces fonctions d’ondes de cordes. Cette formulation existe mais les complications techniques dues à la nature étendue des cordes rendent la recherche de solutions exactes à ses équations extrêmement difficile mathématiquement, et donc son impact sur les développements en théorie des cordes est encore limité par comparaison à l’impact qu’a eu la théorie quantique des champs en physique des particules.

Notons finalement qu’en gravitation quantique à boucles qui est un autre candidat à une description quantique de la gravité (mais qui ne permet pas d’incorporer des champs de matière cependant) la formulation de la théorie est explicitement indépendante de la géométrie de fond mais il n’est pas encore établi qu’elle respecte l’invariance de Lorentz.

Finitude de la théorie non formellement démontrée[modifier]

La théorie des cordes est souvent présentée comme ayant résolu le problème des « quantités infinies », qui apparaissent dans la théorie quantique des champs ou dans la relativité générale. Ceci est un succès majeur de la théorie des cordes, et l’exactitude de sa démonstration est donc un enjeu important. Une preuve a été publiée en 1992 par Stanley Mandelstam que certains types de divergences n’apparaissent pas dans les équations de la théorie des cordes. Toutefois, comme Mandelstam l’accorde lui-même dans une lettre à Carlo Rovelli[11], il n’est pas exclu que d’autres types d’infinis puissent apparaître.

En 2001, Eric d’Hoker et Duong H. Phong ont démontré que toute forme d’infini était impossible jusqu’à l’ordre 2 d’approximation.

En 2004, Nathan Berkovits parvient à démontrer que toute forme d’infini est impossible, et cela à tout ordre d’approximation, mais en reformulant la théorie des cordes, notamment en ajoutant un certain nombre de présupposés supplémentaires.

Malgré l’absence de preuve formelle, peu de théoriciens remettent en doute la finitude de la théorie des cordes. Mais certains, comme Lee Smolin pensent que la difficulté à aboutir à une preuve définitive témoigne d’un problème fondamental à ce niveau.

Lien vers le commentaire

Bon au boulot pioupiou.

La théorie synthétique de l'évolution constitue le cadre conceptuel le plus largement utilisé dans l'étude scientifique des processus d'évolution en biologie. Cette théorie est basée sur l'intégration de la théorie de l'hérédité mendélienne et de la génétique des populations à la théorie darwinienne1. Cette synthèse fut menée au cours des années 1930 et 1940 par R.A. Fisher, J.B.S Haldane, Sewall Wright, Theodosius Dobzhansky, Julian Huxley, Ernst Mayr, Bernhard Rensch, George Gaylord Simpson et George Ledyard Stebbins. Le nom de théorie synthétique lui fut donnée par Julian Huxley en 1942 ; cette théorie est aussi appeléenéodarwinisme ou synthèse néodarwinienne pour souligner le fait qu'elle constitue une extension de la théorie originale de Charles Darwin, laquelle ignorait les mécanismes de l'hérédité génétique.

Sommaire

[masquer]

Histoire de la théorie synthétique de l'évolution[modifier]

Définition[modifier]

Aujourd'hui, l'évolution n'est plus envisagée comme la transformation d'individus isolés mais comme celle de groupements d'individus de même espèce, c'est-à-dire des populations. Mais le principe de base est le même : elle explique l'évolution par l'action de la sélection naturelle sur des populations.

Une population évolue quand la fréquence d'une version d'un gène appelée allèle (ou de plusieurs allèles) s'y modifie. On voit ainsi se répandre dans certainesespèces des caractères ayant acquis, en raison de changements du milieu, une valeur adaptative qu'ils ne possédaient pas auparavant ; les individus porteurs de ces caractères sont particulièrement favorisés dans le nouveau milieu, auquel ils se trouvaient en quelques sortes "préadaptés" ; ils constituent alors rapidement une grande partie de la population ou même toute la population de l'espèce. Les caractères qui se répandent alors correspondent à des allèles existant auparavant "silencieusement" au sein de l'espèce.

Lorsque l'ensemble des individus qui constituent une espèce forme plusieurs populations isolées, chacune de ces populations peut acquérir des caractères particuliers et donner naissance à des variétés différentes au sein de la même espèce. Si ces variations sont, par la suite, dans l'impossibilité de se croiser, elles divergent de plus en plus et finalement sont interstériles : elles constituent alors des espèces distinctes.

La "barrière" qui sépare les variétés d'une même espèce peut être de nature variée.

L'évolution, faits et théorie[modifier]

220px-Arm_skeleton_comparative_NF_0102.5-2.png

magnify-clip.pngLe membre antérieur de tous lesVertébrés présente une structure analogue.

Une observation des êtres vivants révèle l'existence de nombreux points communs dans l'organisation anatomique,physiologique et biochimique des organismes. Depuis l'Antiquité, l'Homme a tenté de trouver un ordre dans la nature2selon les ressemblances et les différences qu'il observait chez les animaux et les végétaux donnant naissance à diversesclassifications des espèces. Si certaines espèces se ressemblent beaucoup et d'autres moins, l'unité du vivant n'a guère été remise en cause ; elle a même été renforcée d'abord au cours du xixe siècle par la découverte de la cellule, unité vivante fondamentale de tous les organismes, puis au xxe siècle par la découverte de l'ADN comme support de l'héréditécommun à tout le vivant.

Le phénomène d'évolution permet d'expliquer ces ressemblances par l'existence de liens généalogiques entre toutes les formes de vie : les organismes se ressemblent parce qu'ils partagent des caractères hérités d'un ancêtre commun3. Des faits observés dans plusieurs disciplines scientifiques corroborent cette théorie.

Tous les êtres vivants fonctionnent sur les mêmes bases moléculaires (ADN, ARN, protéines…) et utilisent le même code génétique. Les différences entre les espèces et les variations entre individus au sein d'une même espèce sont dues essentiellement à des différences dans la séquence des gènes et la structure des chromosomes, différences provoquées par des mutations et des réarrangements chromosomiques occasionnels. Ces évènements aléatoires, qui produisent des individus dont les gènes sont légèrement différents de ceux de leurs parents, sont certes rares et - comme une coquillequi se glisse dans l'impression d'un texte - plus souvent nocifs qu'utiles, mais suffisent pour introduire la variabilité, source de l'évolution4.

Les différentes espèces d'un embranchement, malgré des aspects extérieurs très différents, partagent un plan d'organisation invariable5. L'homologie des organes entre tous les membres d'un groupe biologique se retrouve à n'importe quel niveau de la classification. Par exemple, chez tous les mammifères, les membres sont organisés de la même façon : ceux d'une baleine, d'un lion, d'une chauve-souris ou d'un homme comportent les mêmes os, même si leur forme est très variable et qu'ils sont employés à des fonctions complètement différentes.

Par ailleurs, il existe une certaine variabilité des caractères au sein de chaque espèce, c'est-à-dire qu'il n'existe aucun individu complètement identique à un autre sauf cas exceptionnels. Cette variation peut être de plus ou moins grande ampleur, mais elle montre en tout cas que les êtres vivants ne sont pas fixes. L'éventail de variations que présente une population vivante est le matériau de base avec lequel l'évolution pourrait construire des organismes de plus en plus différents. On assiste directement à des transformations au sein de populations d'êtres vivants pouvant être interprétées comme des spéciations en cours6. L'acquisition de nouveaux caractères chez certains virus et bactéries a également été constatée pour être combattue, dans le cas de la résistance aux antibiotiques, ou au contraire utilisée, pour la capacité à digérer des composés synthétiques.

Les fossiles témoignent de la disparition de certaines espèces d'êtres vivants depuis l'apparition de la vie sur Terre il y a au moins 3,5 milliards d'années7. Certaines espèces sont appelées des formes « intermédiaires » entre différents groupes et permettent de mettre en évidence le phénomène d'évolution8. Par exemple, l'archéoptéryx, qui serait une forme de transition entre certains dinosaures et les oiseaux, ou Rodhocetus (ou Ambulocetus) dont l'anatomie semble se situer entre celle des mammifères terrestres et celle des baleines.

Les détracteurs de l'évolution soulignent qu'elle n'est « qu'une théorie ». En fait il ne s'agit pas d'une théorie au sens commun mais dans le sens scientifique du terme9. Cela signifie qu'il s'agit d'un ensemble de connaissances basé sur quelques suppositions de départ, et développé par des démonstrations rigoureuses à partir de ces principes. Le développement de la théorie est donc toujours susceptible d'être complété, ou même corrigé sur certains points. En revanche il n'est pas correct de considérer l'ensemble de l'édifice comme une simple hypothèse, sauf à disposer d'arguments forts contre les mécanismes de base de la théorie qui ont été observés en conditions expérimentales et naturelles.

Mécanismes de l'évolution[modifier]

220px-Types-of-mutation.png

magnify-clip.pngIllustrations de cinq types de mutations chromosomiques.

L'évolution dépend de divers processus qui tendent à modifier la fréquence des allèles au sein de populations : mutation :dérive génétique, étranglement génétique ; flux de gènes, brassage génétique ; sélection naturelle : sélection stabilisante, directionnelle ou diversifiante ; sélection sexuelle : accouplement non aléatoire, ... ; pédomorphose ; pléiotropie :pléiotropie antagoniste ; ...

L'évolution des espèces est permise par les mutations que subissent les gènes portés par les chromosomes (constitués d'ADN). Tout être vivant possède de l'ADN (cela corrobore l'idée d'une origine commune des espèces) : cette molécule est constituée de deux hélices complémentaires au niveau de leurs bases azotées. Des mutations peuvent affecter cet ADN ; elles sont provoquées par des agents mutagènes tels que rayons X, alpha, UV, ou tout simplement par la défaillance des organites responsables de la réparation de l'ADN mal transcrit ou traduit. La théorie des monstres prometteurs met le stress provoqué par des facteurs externes au premier plan de ces facteurs de mutation. Ces mutations affectent la séquence d'un gène concerné (ordre des bases nucléotides d'un gène : adénine, thymine, guanine et cytosine).

Ces mutations sont à l'origine du polymorphisme des gènes, c'est-à-dire le fait que deux versions d'un même gène (deuxallèles) par exemple, sont présentes chacune dans au moins un pour cent de la population de l'espèce considérée. Ces mutations créent donc de nouveaux allèles. Mais il ne faut pas oublier le phénomène des familles multigéniques, qui a un impact très important dans l'évolution : un gène peut être dupliqué et transposé sur un autre chromosome, ainsi tous les gènes issus de ce gène ancestral font partie d'une famille multigénique.

L'environnement « encadre » ces mutations par le biais d'un phénomène appelé sélection naturelle : un gène présentant un avantage pour une espèce dans un environnement donné, permettant à ses représentants d'atteindre le mieux possible la maturité sexuelle, se répand chez les individus d'une même espèce, a contrario s'il est néfaste, il disparait. Quant aux gènes neutres, ils se répandent de façon aléatoire mais peuvent permettre de suivre l'évolution (mutation de gèneshoméotiques). C'est donc l'environnement qui décide de l'évolution des espèces, celles-ci évoluant pour être toujours plus adaptées à celui-ci. Donc le caractère aléatoire des mutations de l'ADN est compensé par la sélection environnementale.

Il est donc très important de ne pas confondre évolution et innovation, ce qu'il faut retenir, c'est que l'espèce qui survit est l'espèce la mieux adaptée, pendant une certaine durée, à son environnement.

Par ailleurs, il ne faut surtout pas voir l'évolution d'un point de vue généalogique, mais phylogénétique, en effet les espèces ne descendent pas les unes des autres. Des phénomènes comme la dérive génétique font que deux populations d'une même espèce isolées pendant une très longue période de temps divergent et forment deux nouvelles espèces. Par exemple pour la lignée humaine, l'arbre phylogénétique est buissonnant : plusieurs espèces Homo et Australopithèqueont vécu simultanément. Il est aussi à noter que l'homme - contrairement aux idées reçues - ne descend pas "du singe", il a un ancêtre en commun avec lui. Notre patrimoine génétique est très proche de celui des chimpanzés, en effet les différences entre nous et celui-ci ne tiendraient qu'à la différence de quelques gènes déterminants : ils nous permettent de garder des caractères juvéniles toute notre vie, nous permettant de conserver la bipédie (le petit chimpanzé est quasi-bipède) et ils allongent la phase embryonnaire, permettant la mitose de beaucoup plus de neurones.

L'évolution résulte de l'action de plusieurs mécanismes évolutifs susceptibles de modifier la fréquence des génotypes dans une population, et par conséquent de modifier des caractères morphologiques, physiologiques ou comportementaux.

Le processus est dans tous les cas identique, dans le même ordre :

  • Apparition d'un nouveau caractère héréditaire chez un ou quelques individus.
  • Ce nouveau caractère se répand dans les populations, soit parce qu'il est plus adapté à l'environnement, soit à cause d'un effet de hasard.

L'apparition de caractères nouveaux et héréditaires[modifier]

À chaque génération, de nouveaux variants génétiques apparaissent qui peuvent eux-mêmes transmettre leur patrimoine génétique au moment de la reproduction. Ces sources de diversité génétique sont :

On peut ajouter à cette liste une autre source de diversité génétique que sont les migrations par lesquelles le stock génétique dans une population donnée se voit renouvelé par l'arrivée d'autres membres de l'espèce porteurs d'un pool génétique différent.

La mutation[modifier]

Les mutations résultent d'erreurs lors de la réplication des gènes. Ces modifications accidentelles peuvent être transmises à la descendance si elles touchent lescellules germinales, donnant naissance à des individus porteurs de gènes nouveaux, qu'aucun de leurs parents n'exprimaient.

Il existe plusieurs types de mutations (mutations ponctuelles, duplications de gènes, cassures des chromosomes, insertions ou délétions de séquences). Ces différentes modifications suffisent à expliquer la diversité génétique observée dans la nature.

Il peut s'y ajouter des mutations par échange de matériel génétique entre espèces, par différents mécanismes naturels :

  • Les bactéries sont capables d'intégrer et d'utiliser du matériel génétique (des plasmides) échangé entre deux bactéries, voire simplement présent dans le milieu. Le plus souvent cela ne conduit pas immédiatement à la définition d'une nouvelle espèce, mais le phénomène peut y contribuer et il contribue de façon importante à la sélection naturelle (par exemple, de nombreuses résistances aux antibiotiques se diffusent de cette façon).
  • Les virus peuvent servir de vecteurs de transfert de matériel génétique d'une espèce vers une autre, même très différente ; le plus souvent, l'infection virale conduit à la mort de la cellule victime, mais ce n'est pas nécessairement le cas, et la cellule cible peut participer à la reproduction (notamment pour les plantes). Un des exemples les mieux connus (et les plus utilisés par la recherche) est celui du tabac et des mosaïques.
  • Les plantes peuvent s'hybrider, conduisant à de nouvelles espèces (le blé étant un exemple typique).

Finalement, il faut mentionner les symbioses strictes, qui sont des créations de nouvelles espèces à partir d'anciennes, mais sans échange ni fusion du matériel génétique (au moins dans un premier temps). Les lichens et, selon l'hypothèse de l'endosymbiose, les organites dits « autonomes » à l'intérieur des cellules (chloroplastes, mitochondries) relèvent de ce type d'association.

Les mutations augmentent la variabilité génétique au sein d'une population. Cependant, elles sont rarement bénéfiques à l'individu qui les porte car elles peuvent détruire l'activité d'un gène essentiel.

La migration[modifier]

La migration est une force de l'évolution qui augmente la variabilité génétique d'une population. De nouveaux arrivants en provenance d'une population éloignée amènent des allèles nouveaux, augmentant le pool génétique de la population d'accueil.

Le nouveau caractère se répand dans les populations[modifier]

Les mécanismes de l'évolution supposent qu'un ensemble d'individus, regroupés en une espèce sur la base de caractères partagés, évoluent « conjointement. » Se pose donc le problème de la spéciation, c'est-à-dire de l'évolution des espèces au-delà des simples individus.

La dérive aléatoire[modifier]

La dérive génétique concerne une petite population lorsque celle-ci est isolée du reste d'une population-mère (par exemple, par isolement sur une petite île): Certains types d'allèles tendent à disparaître, du fait de faible nombre de copies distribuées dans le pool génétique de la population au départ. Au fil des générations, la population dérive alors, acquérant des caractéristiques qui lui sont propres (ex: petitesse (mammouth nain de Sicile), gigantisme (varan de Komodo) parmi les espèces insulaires). La dérive est une force de l'évolution qui diminue la variabilité génétique au sein de la population. La dérive influe sur la fréquence des allèles. Elle ne crée en aucun cas de nouveaux allèles. Certains allèles vont être surreprésentés et d'autres sous-représentés par rapport à la population d'origine.

La sélection naturelle[modifier]

270px-Mutation_et_selection_.svg.png

La sélection naturelle diminue la variabilité génétique d'une population en enlevant certaines combinaisons génétiques défavorables dans le milieu où elles se produisent. Cependant elle peut aussi maintenir à une fréquence stable, des nouveaux variants génétiques, sans pour autant éliminer les anciennes versions. C'est le cas pour l'allèle de la drépanocytose. La sélection naturelle participe donc à l'augmentation de la diversité génétique.

Une image donnée par Richard Dawkins[modifier]

Pour se trouver mille ancêtres différents, il faut remonter en arrière d'une dizaine de générations, ce qui représente quelques siècles. Or, avant le xixe siècle, la moitié au moins des enfants mouraient en bas âge : on peut donc se demander combien de nos mille derniers ancêtres sont morts en bas âge, et la réponse n'est pas « au moins la moitié », mais bien entendu zéro, par définition. Nous ne sommes donc nullement représentatifs de l'humanité passée, car descendants d'une longue lignée de gens qui ont tous eu la chance d'amener une progéniture à l'âge de la procréation (c'est-à-dire survivre et trouver un partenaire, entre autres). Une génération peut avoir de la chance. Quand une dizaine en a coup sur coup, on peut supposer que cette « chance » correspond en fait à un ensemble de facteurs favorables qui se retrouvent de l'une à l'autre (facteurs qui ne sont pas tous génétiques : ils peuvent être culturels, religieux, économiques, etc.) Cette considération à elle seule montre que même à notre échelle, nous avons participé un tout petit peu, sur les quelques derniers siècles, à l'évolution. D'ailleurs notre simple choix d'un conjoint se révèle, comme le montre le biologiste Geoffrey Miller (The Mating Mind) obéir à des choix pas toujours conscients qu'on peut rapprocher de l'eugénisme.

Richard Dawkins pousse plus avant ses spéculations en considérant l'être vivant comme un conteneur à gènes (ce serait en tout cas le point de vue des gènes, s'ils en avaient un !). Pour lui les produits des gènes - cellules, tissus, organes, organismes, sociétés - servent aux gènes à se répliquer et à survivre. En quelque sorte, à la question : « De l'œuf ou la poule, qui est le premier ? », il répond : « La poule est le moyen trouvé par l'œuf pour faire d'autres œufs. ». Ce renversement de perspective considère l'être vivant comme la marionnette (Dawkins utilise le terme de véhicule-robot) de ses gènes.

Tout en la reconnaissant ingénieuse, Stephen Jay Gould a mis en garde contre une prise trop à la lettre de cette vision. Les gènes ne possèdent ni intention, niprojet au sens que nous donnons à ces termes. Dawkins n'a utilisé le terme qu'en tant que métaphore parlante, mais ses lecteurs n'ont pas toujours saisi la nuance.

En outre, il convient de se rappeler que les facteurs de survie ne sont pas seulement génétiques, ce qui est bien évident chez l'homme, mais ce qui est aussi le cas chez de nombreux animaux (par exemple, le chant des oiseaux, essentiel dans leur reproduction, dépend d'un apprentissage).

Devenir des mutations et caractères hérités[modifier]

  • Les mutations se font toujours au hasard, et sont le plus souvent létales. La plupart du temps, elles perturbent gravement le fonctionnement de l'organisme mutant. Bien sûr, il arrive aussi qu'elles soient neutres (en modifiant un caractère sans pour autant le rendre moins fonctionnel) ou avantageuses; le cas est beaucoup plus rare, mais les mutations portent sur des millions d'individus pendant des dizaines de milliers de générations ou davantage, ce qui assure un facteur multiplicatif de 1010 à chacun de ces évènements aléatoires.
  • C'est la sélection naturelle, mise en évidence par Darwin, qui se charge de « faire le tri » entre les différentes variations. Il s'agit d'un processus purement mécanique : les mutants défavorisés auront tendance soit à mourir plus jeunes que les autres, soit à trouver plus difficilement un compagnon de reproduction. Dans un cas comme dans l'autre, ils laisseront moins (voire pas du tout) de descendants. Les mutants neutres mourront en moyenne au même âge que les autres, auront globalement autant d'enfants et pourront donc répandre leurs nouveaux caractères dans une population sous l'effet du hasard. Quant aux mutants avantagés, ils seront plus compétitifs et auront donc en moyenne plus de descendants. Une mutation qui permet de mieux échapper à un prédateur, de mieux s'orienter, de mieux séduire le sexe opposé, d'avoir plus de descendants, de mieux résister aux maladies, de mieux tirer profit d'une vie en société aura tendance à faire baisser le taux de mortalité chez les mutants ou à améliorer leur succès reproductif.
  • Génération après génération, la sélection naturelle favorise les mutations qui se transmettent le plus, dans les populations (la dérive génétique, qui se fait au hasard, permet également à quelques mutations neutres de se fixer dans le génome de l'espèce). L'adaptation des populations tend donc progressivement à s'améliorer ; l'émergence d'organes aussi complexes et aussi fonctionnels que l'œil humain ou le radar de la chauve-souris s'explique par un tel processus de sélection cumulative. En revanche, l'existence de caractères sans utilité adaptative apparente peut s'expliquer par la fixation au hasard de mutations neutres. L'hypothèse dite de « l'auto-stop », ou « hitch hiking » en anglais, explique la fixation des mutations neutres par la mutation sur le même chromosome de deux gênes, l'une étant neutre et l'autre étant positive qui se transmettront simultanément.

Conséquences de l'évolution[modifier]

Apparition d'espèces nouvelles[modifier]

Article détaillé :

spéciation.

La spéciation désigne l'apparition de nouvelles espèces à partir d'une espèce ancestrale. Une espèce est un ensemble d'individus interféconds (interfertiles), isolés du point de vue reproductif des autres êtres vivants. L'apparition d'une barrière reproductrice (arrêt des échanges génétiques entre elles) au sein de cet ensemble homogène entraine l'apparition de deux groupes isolés (isolement reproductif). Les deux groupes vont ensuite évoluer indépendamment l'un de l'autre, et vont progressivement accumuler des différences génétiques, jusqu'à ce que l'isolement devienne irréversible.

  • La spéciation dite allopatrique concerne deux ou plusieurs populations isolées géographiquement, séparées les unes des autres par des barrières géographiques (océan, montagne…). Un petit isolat peut aussi se former en périphérie de l'aire globale de distribution de l'espèce. Chaque population va alors pouvoir évoluer indépendamment, d'autant plus rapidement qu'elle est petite (les mutations se fixent plus facilement, pour des raisons mathématiques, dans les petites populations) et ainsi accumuler des remaniements chromosomiques pour finir par former une nouvelle espèce.

  • La spéciation sympatrique : il arrive aussi qu'un isolement reproducteur apparaisse au sein d'une population qui ne sera jamais séparée géographiquement. Il suffit pour cela que quelques individus changent de période de reproduction ou de signaux pour la parade nuptiale pour que les autres représentants de l'espècecessent rapidement de s'accoupler avec eux ; il y a alors formation de deux communautés se partageant le même espace, mais s'isolant sur le plan de lareproduction. Les deux populations, en évoluant chacune de leur côté, pourront finir par se transformer en deux espèces complètement différentes.

Comme les spéciations sont des phénomènes relativement courts, qui se produisent dans de petites populations isolées, on observe souvent une certaine discontinuité entre les différentes espèces dans les archives fossiles. Une espèce peut ne pas changer pendant très longtemps, puis être rapidement (à l'échelle géologique) remplacée par une autre.

Les mutations à l'origine des grandes modifications évolutives[modifier]

Certaines mutations minimes permettent à l'évolution d'agir très rapidement. On connait des gènes régulateurs, dits gènes homéotiques, qui déterminent les grandes lignes du développement et du plan d'organisation de chaque partie du corps. Lorsque ces gènes (qui régulent eux-mêmes quelques milliers d'autres gènes) mutent, l'individu obtenu est souvent porteur de caractères nettement différents de ceux de ses parents. Certains « sauts évolutifs » s'expliquent par ce type de « macro-mutations » (que Goldschmidt avait découvert en proposant sa théorie du « monstre prometteur »). Par exemple, l'apparition de doigts et la disparition des rayons au bout de la nageoire des poissons crossoptérygiens (c'est-à-dire la formation des premières ébauches de pattes) s'expliquent par un simple décalage de l'activité de deux gènes homéotiques : Hox-a et Hox-b. Cette étape évolutive-là n'a pas nécessité des milliers, ni même des dizaines de mutations différentes : les gènes homéotiques ont permis l'émergence rapide de caractères radicalement nouveaux. Même si les « macro-mutations » donnent le plus souvent des « monstres » incapables de survivre et même si le processus, lent et sûr, de sélection cumulative de milliers de mutations minuscules a apparemment joué un rôle plus important dans l'évolution, il est de fait que certains « monstres prometteurs » ont permis à l'évolution de faire de grands bonds en avant.

D'autres mutations modifient la chronologie du développement : on parle d'hétérochronies. Elles peuvent être à l'origine de l'apparition d'une espèce plus juvénile (paedomorphique) ou, au contraire, plus adulte (hypermorphique) que son ancêtre. On connait plusieurs exemples d'histoires évolutives qui ont fait intervenir les hétérochronies. L'axolotl, un urodèle mexicain qui passe sa vie entière à l'état larvaire sans jamais se métamorphoser, est paedomorphique par rapport à son ancêtre l'ambystome. Une simple hétérochronie a permis l'apparition d'une espèce complètement différente. De même, il semblerait que l'homme soit paedomorphique par rapport à ses ancêtres simiens, car il garde toute sa vie des caractères juvéniles que le chimpanzé et le gorille perdent. De plus, les phases générales de son développement sont ralenties par rapport à celles des grands singes.

L'apparition de nouveaux gènes s'explique principalement par la duplication de gènes préexistants. On connaît plusieurs « familles de gènes » dont les différents membres sont apparemment issus de plusieurs duplications d'un même gène ancestral. Par la suite, chacun des exemplaires « dupliqués » a pu muter et évoluer indépendamment des autres. Plusieurs familles multigéniques sont de toute évidence apparues grâce à ce processus.

De même, des duplications de l'ensemble du génome (polyploïdisations) ont également pu jouer. Par exemple, on estime que deux épisodes de polyploïdisations se sont produits depuis la séparation des deutérostomiens (soient essentiellement les échinodermes et les chordés dont les vertébrés) et des protostomiens (les invertébrés) sur la branche des vertébrés. On retrouve ainsi que beaucoup de gènes, comme HedgeHog impliqué dans le développement des polarités chez la drosophile, existent en trois ou quatre exemplaires chez les vertébrés (Desert HedgeHog, Indian HedgeHog et Sonic HedgeHog) pour des fonctions similaires.

Approche évo-dévo : évolution et développement[modifier]

Depuis les années 1980, les travaux visant à relier la génétique et l'embryologie apportent un nouvel éclairage sur les mécanismes de l'évolution biologique. Ces nouvelles approches réactualisent certains aspects de théories plus anciennes comme la théorie du monstre prometteur de Goldschmidt.

Ces travaux montrent en effet que les homologies observées au niveau des organismes se retrouvent aussi au niveau du développement. L'existence de gènes "chefs d'orchestre" quasi-identiques chez des espèces aussi diverses que les mouches, les souris et les humains, change la conception du rôle des gènes dans la construction de l'individu (l'ontogenèse) et dans les réorganisations anatomiques qui se produisent au cours de l'histoire évolutive (la phylogenèse). En plus de confirmer l'ascendance commune entre les espèces vivantes, ces découvertes montrent que de petites modifications dans la séquence génétique au niveau de ces gènes voire une simple différence dans la période pendant laquelle de tels gènes sont exprimés au cours de l'embryogenèse, peuvent avoir des effets très importants sur la morphologie de l'organisme. Cela montre que l'évolution ne consiste pas seulement à créer de nouveaux gènes par mutation mais aussi à changer la façon dont les gènes sont exprimés.

Parmi les autres découvertes de la biologie moléculaire, les mécanismes épigénétiques constituent une autre voie par laquelle de l'information peut être transmise "à côté" du seul code génétique. Ce type de transmission peut impliquer l'ADN, l'ARN ou les protéines ou les organites du cytoplasme cellulaire et peut être réversible ou non. L'un des processus épigénétiques les plus étudiés est la méthylation de l'ADN et son lien avec les modifications de la chromatine : ce mécanisme consiste en l'inactivation d'un gène par changement de la conformation de la chromatine du chromosome qui le porte. Ce changement rend le gène silencieux sans en affecter la séquence nucléotidique. Par conséquent, ce gène sera transmis "intact" mais silencieux aux générations suivantes. On pourra donc observer la résurgence d'un caractère ancestral plus tard dans la lignée simplement par réactivation du gène (via une reconformation de la chromatine, déclenchée par un évènement stressant dans l'environnement). L'importance de ces mécanismes épigénétiques est encore difficile à mesurer mais ils peuvent avoir des conséquences importantes dans l'explication de phénomènes qui ne respectent pas les lois de l'hérédité mendélienne.

Controverses actuelles[modifier]

Adaptationnisme et Neutralisme[modifier]

Au sein de la communauté scientifique, le débat concernant les théories modernes de l'évolution se porte donc sur le rôle que joue le "hasard" (la dérive génétique (?!), produisant la diversité des caractères) par rapport à la sélection naturelle. Les théories neutralistes ont ainsi été critiquées par des biologistes tenant d'une vision adaptationniste de l'évolution pour lesquels les pressions de sélection (naturelle et sexuelle) sont les principales forces dans l'évolution des espèces, le "hasard" ne jouant finalement que peu de rôle.

  • Argumentation : Les adaptationnistes s'appuient notamment sur les phénomènes de convergence évolutive par lesquels différentes espèces aboutissent à la même solution évolutive lorsqu'elles sont soumises au même problème adaptatif10.

La forme fuselée de l'ichthyosaure, de la baleine ou du manchot qui ont la forme des poissons témoignent de la force de la pression de la sélection naturelle qui plaide en faveur des adaptationnistes.

Le hareng est un poisson osseux. Les ichthyosauresétaient desreptiles. Les manchots à jugulaire sont

des oiseaux aquatiques. Les cétacés (dauphin) sont

en fait proches des hippopotames. Les siréniens (dugong) sont

en fait proches des éléphants. 200px-Herringadultkils.jpg 200px-Penguinu.jpg 200px-Spotteddolphin1.jpg 200px-Dugong.jpg

Article détaillé :

théorie neutraliste de l'évolution.

La Théorie Synthétique de l'Evolution s'impose dans le monde scientifique comme théorie de référence. Dans les années 1970, elle connait d'importants développements théoriques, parfois iconoclastes. Par exemple, la théorie neutraliste de l'évolution moléculaire proposée par le généticien japonais Motoo Kimura en1970, repose sur l'idée que l'évolution, au niveau des gènes, doit au moins autant sinon plus au hasard (c'est-à-dire à une dérive) qu'à la sélection naturelle.

  • Argumentation : La plupart des mutations ne sont pas adaptatives. Une énorme partie des mutations est neutre ne procurant ni avantage, ni handicap, et une autre partie importante est handicapante. Les mutations procurant un avantage sont quasiment inexistantes. Cela est l'argument fort de la théorie neutraliste qui veut que le hasard ou la dérive génétique soit presque l'unique clé de l'évolution. La sélection naturelle ne jouerait qu'un rôle marginal selon la théorie neutraliste.

  • Il est tout aussi dangereux d'adopter le seul point de vue « adaptationniste », selon lequel chaque caractère d'un être vivant pris isolément aurait été « façonné » par la sélection naturelle. Dans cette optique, tout devrait avoir une utilité adaptative, y compris la couleur des yeux, le chiasme optique et l'appendice.
    L'expérience montre en fait qu'il existe beaucoup de caractères neutres en ce qui concerne la descendance. Certains gènes sont par ailleurs pléiotropes - c'est-à-dire qu'ils commandent plusieurs caractères à la fois. Une mutation avantageuse entraîne donc avec elle d'autres caractères ; quand la mutation se répandra dans la population, ses « effets secondaires » se répandront en même temps, sans avoir d'utilité en eux-mêmes... en tout cas à ce moment-là. Un exemple flagrant est celui de la drépanocytose, une maladie héréditaire, qui perdure parce qu'elle confère une certaine résistance au paludisme. La mutation ayant entrainé son apparition n'est pas neutre, mais la grave maladie qu'elle entraine est en quelque sorte compensée par un avantage sélectif, vis-à-vis d'une autre maladie.

Équilibres ponctués[modifier]

Article détaillé :

équilibre ponctué.

250px-Maggia_lacerta_sicula_fg06.jpg

magnify-clip.pngPodarcis sicula. Des lézards de l'espèce p. Sicula déposés sur l'ile de Prod Mrcaru en 1971 ont évolué en 36 ans de sorte à disposer d'un nouvel organe de digestion absent chez l'espèce d'origine : les valves sécales.

En 1972, S. J. Gould et Niles Eldredge publient leur théorie des équilibres ponctués destinée à combler ce qui est pour eux une faille de la TSE : les paléontologues (comme Simpson) affirmaient en effet que l'on devrait voir les espèces se transformer toujours très graduellement, et que l'on devrait donc trouver des fossiles correspondant à toutes les étapes de la spéciation11.

Cette thèse baptisée gradualisme phylétique peut se résumer sous l'expression répétée à plusieurs reprises par Darwin dans son Origine des espèces : "Natura non facit saltum" (La Nature ne fait pas de saut). À l'inverse, certains biologistes (comme Ernst Mayr) pensaient que les apparitions de nouvelles espèces correspondaient à des évènements rares et ponctuels, que l'on peut représenter sous forme d'un escalier, les paliers étant pour les périodes où une population ne subit aucun changement et les sauts correspondant à une modification rapide des caractéristiques qui aboutissent sur quelques générations à une nouvelle espèce.

Pour Gould et Eldredge, ce sont les biologistes qui ont raison ; les paléontologues auraient en fait mal interprété les fossiles. Le débat sera néanmoins ravivé avec la critique des paléontologues Simon Conway-Morris, Derek Briggs etRichard Fortey qui contredisent les interprétations de Gould sur les schistes de Burgess censés illustrer la thèse des équilibres ponctués. Leur analyse plus précise de ces fossiles montre certes une grande diversité anatomiques mais pas de quoi conclure qu'il y aurait là les traces d'un "saut" au moment de l'explosion cambrienne avec de nombreuses lignées qui auraient brutalement disparu du monde vivant tel que le prétendait Gould.

  • Argumentation : Récemment, un cas d'évolution ultra-rapide a été enregistré12.

Néo-Lamarckisme[modifier]

  • Lamarck et Charles Darwin décrivaient l'hérédité des caractères acquis (bien qu'ils n'emploient pas cette expression, la distinction entre caractères acquis et innés date de la fin du xixe siècle). Darwin mentionne même dans la première édition de L'Origine des espèces les « effets cumulatifs du dressage » de génération en génération chez des chiens d'arrêt (pointers). Darwin est en réalité le premier à proposer une théorie des caractères acquis, sous le nom de "théorie de la pangenèse", dans son ouvrage De la variation des animaux et des plantes sous l'action de la domestication. C'est August Weismann qui fera la démonstration, non de l'impossibilité de la transmission des caractères acquis, mais de l'impossibilité de la transmission des mutilations, soutenue à la fin duxixe siècle par les néo-lamarckiens. La théorie de Weismann exclut la transmission des caractères acquis de manière purement théorique. La théorie synthétique postule aujourd'hui que les gènes ne peuvent être modifiés naturellement que par des mutations aléatoires, mais il s'agit, de l'aveu même de Francis Crick, d'un "dogme" de la biologie moléculaire.[réf. nécessaire]

  • On croyait en conséquence, jusqu'à la fin du xxe siècle, que l'adaptation individuelle ne se transmettait pas. Toutefois, au début du xxie siècle, de nouvelles expériences et observations ont rouvert la porte à l'hypothèse d'une transmission de l'adaptation individuelle dans certains cas (notamment la taille, par rapport aux conditions d'alimentation), non par la modification des gènes, mais par la modification de leurs conditions d'expression, et, par là, de leur niveau d'activité, avec toutes les conséquences. Ces phénomènes sont qualifiés d'épigénétique. En outre, on a découvert que si les mutations sont bien aléatoires, les probabilités qu'elles soient réparées sont dépendantes des conditions extérieures : les mécanismes d'auto-réparation et d'entretien de l'intégrité du génome sont sous contrôle de l'état des cellules, ce qui fait que les cellules laissent passer plus ou moins de mutations selon leur adaptation à leur milieu. Au final, l'adaptation acquise apparait bien comme un élément de l'hérédité.

Une autre approche de l'évolution est le néo-lamarckisme. L’action en faveur de Lamarck se traduit par l’organisation d’un congrès international à Paris en 1947 sous l’égide du CNRS sous le thème de « paléontologie et transformisme » dont les actes paraissent en 1950 chez Albin Michel. Il réunit nombre des plus grandes autorités françaises ; outre Grassé, y participèrent Lucien Cuénot (1866-1951), Pierre Teilhard de Chardin (1881-1955), Maurice Caullery13. Ceux-ci s’étaient alors opposés à des tenants du néo-darwinisme, brillants biologistes également, comme John Burdon Sanderson Haldane (1892-1964) et George Gaylord Simpson (1902-1984)14. Grassé fait l’éloge de Lamarck d’autres façons comme dans un article de l’Encyclopædia Universalis en affirmant que Lamarck a été injustement calomnié et qu’il doit être réhabilité15.

Accroissement de la complexité au cours de l'évolution[modifier]

Article connexe :

Modèle évolutif r/K.

Jean-Baptiste Lamarck est le premier à avoir proposé une théorie de l'évolution où une tendance à la complexification des êtres vivants sous l'effet de leur dynamique interne joue un rôle important. Charles Darwin semble avoir rejeté cette idée parce qu'il ne voulait pas de l'ordre naturel qu'elle impliquait et qu'il assimilait abusivement à une intervention divine17. Cette confusion semble avoir perduré jusque chez les évolutionnistes actuels, comme en témoignent les difficultés autour de cette question.

Il reste difficile de mesurer la complexité dans le monde vivant. Elle est souvent estimée par le nombre de types cellulaires identifiables chez un organisme, mais cette estimation n'est pas, ou peu, corrélée à la taille du génome ou au nombre de gènes (complexité du génome) par exemple et ne saurait en aucun cas être une mesure indiscutable.[réf. nécessaire] Ainsi, le génome humain comprend 3 milliards de bases, le blé 12 milliards. Richard Dawkins signale également que les animaux à sang froid ont un génome plus long que des animaux de taille comparable à sang chaud.

Rapporté à la quantité d'êtres vivants, l'accroissement de la complexité semble être un phénomène marginal dans l'évolution. En effet, la plupart des espèces sont encore au stade unicellulaire (plus de 99 % des êtres vivants sont des bactéries18), seules quelques lignées ont évolué vers une complexification.

La sélection naturelle a tout de même favorisé, dans de nombreux cas, des organismes complexes. Chez les mammifères, on observe une tendance à l'accroissement de la taille du cerveau, et des comportements. On l'explique généralement par une « course aux armements » entre proies et prédateurs, ou à uneco-évolution antagoniste, à cause d'une compétition perpétuelle dans les populations (voir la théorie de la reine rouge). Un système nerveux plus élaboré peut sauver la vie de l'animal. De même, des « fédérations de cellules », ébauches d'organismes pluricellulaires, ont pu dans certaines circonstances être plus efficaces que les bactéries isolées pour leur permettre de survivre. Cependant, il est plausible que l'accroissement de la complexité ait pu, dans certains cas, correspondre à un caractère neutre et être fixé par la dérive génétique[réf. nécessaire].

Si on parcourt l'histoire évolutive de l'ensemble du monde vivant on assiste à un accroissement de la complexité dans de nombreuses lignées: insecte, mammifères. Cette complexité semble liée à une meilleure adaptation des populations à un environnement fluctuant. En effet dans les espèces simples (bactéries) les effectifs des populations varient au gré des variations des conditions, ce qui est moins le cas pour les espèces plus complexes (humains, insectes sociaux). Par exemple, un organisme volumineux résiste mieux aux changements de température. Un comportement élaboré permet d'effectuer des réserves de nourriture, de prévoir lessaisons.

Cependant, comme le rappelle Stephen Jay Gould là encore (op.cit.), le phénomène est biaisé en raison de ce qu'il nomme le mur de complexité minimale en dessous duquel on ne peut plus concevoir d'organisme viable et pouvant se reproduire. Le génome peut donc se complexifier autant que le lui permettent le temps et les ressources de l'environnement, mais n'a pas la latitude de se simplifier en deçà de ce "mur". On est dans le phénomène bien connu en probabilités de marche au hasard avec une barrière absorbante pour les individus, et de ce fait réfléchissante pour l'espèce : ne sera préservé que ce qui ne la franchit pas.

Remises en question de la théorie[modifier]

Les paléoanthropologues mettent en doute certains des aspects de cette théorie. Yves Coppens et Pascal Picq vont, entre autres, tenter de démontrer que l'évolution biologique a précédé l'évolution culturelle, dans le cas de notre espèce, et qu'en ce sens "Le développement technique et culturel dépasse le développement biologique"; c'est-à-dire que les explications biologiques des comportements culturels humains sont moins significatives que les explications sociales. Ils parleront aussi de "sélection culturelle", en opposition à la sélection naturelle supposément s'opérant. Une des thèses les plus importantes sur le sujet de l'explication biologique des comportements sociaux humains provient de E.O. Wilson, fondateur de la sociobiologie.

Lien vers le commentaire

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.