École de Musique Partouche - Produits, offres, nouvelles

Actualités

COMPRENDRE LA GUITARE ACOUSTIQUE

18/03/2016

Comprendre la guitare acoustique
PAR
Antoine Chaigne 
Grégoire Derveaux 
Patrick Joly 
NIVEAU DE LECTURE
Intermédiaire   
PUBLIÉ LE
15/11/2006
 
Pour faire évoluer la guitare, des simulations numériques dévoilent le champ sonore à l'intérieur et autour de l’instrument. Comment fabriquer une bonne guitare ?

Les éléments d'une guitare classique
Source : Pierre-Étienne Nataf / Wikipédia
Une corde vibre selon des harmonies naturelles, mais le son qu’elle émet est à peine audible. Pourquoi ? Car le diamètre de la corde est trop petit pour rayonner dans l’air. Le rôle de la guitare est d’amplifier ce son à l’aide d’un mécanisme acoustique. Les cordes de la guitare sont fixées d’un côté au manche et de l’autre au chevalet, lui-même collé sur la table d’harmonie, fine plaque de bois. Les vibrations de la corde sont transmises à la table d’harmonie, laquelle rayonne efficacement dans l’air grâce à sa large surface. Mais le son émis de part et d’autre de la table s’annule pour les grandes longueurs d’onde, à moins qu’on ne l’enferme dans une cavité. Pour renforcer la puissance dans les graves, on perce dans la table d’harmonie un trou, appelé rose (ou rosace), ce qui crée de nombreuses résonances à l’intérieur de la caisse, dont la plus grave est la fréquence de résonance de Helmholtz. C’est cette fréquence que l’on entend quand on souffle dans une bouteille vide. Ce même principe est utilisé pour construire les enceintes bass reflex. Au XVIe siècle, la vihuela espagnole, ancêtre de la guitare classique, possédait déjà ces caractéristiques.

Lorsqu’on pince une corde de guitare, l’essentiel de l’énergie produite se dissipe au sein de la corde, et seule une faible partie est transmise jusqu’à nos oreilles. Pour obtenir une plus grande puissance sonore, il suffit d'agrandir le corps de la guitare et d'affiner la table d’harmonie, ce qui favorise sa mobilité. La masse des cordes augmente alors, induisant ainsi l'augmentation de leur tension, afin de conserver la même hauteur de note. Ces transformations fragilisant l’instrument, un système de barrage réalisé à l’aide de baguettes de bois dur collées sous la table de l’instrument a permis de garantir sa solidité. C'est au luthier espagnol Antonio de Torres (1817-1892) que l'on doit cette contribution majeure.

Les luthiers cherchent en permanence à faire évoluer la guitare. Pour bien faire, une bonne connaissance du fonctionnement intime de l’instrument est nécessaire. Celle-ci repose principalement sur leur expérience personnelle et la transmission des savoir-faire techniques. La recherche scientifique contribue quant à elle à une meilleure compréhension de la physique de l’instrument.

Un modèle physique de guitare
Les mouvements de la table d'harmonie d'une guitare sont décomposés sur ses modes élémentaires de vibration. Il en existe une infinité. Ci-dessus les cinq premiers modes calculés par notre modèle. La couleur verte indique le niveau de la surface médiane, le rouge une surélévation (bosse) et le bleu un abaissement (creux).


Évolution du champ sonore dans l'air environnant la guitare juste après que le doigt a lâché la corde. On observe ici l'écart à la pression ambiante dans trois des plans de coupe passant par le centre de la guitare. La couleur bleue désigne une dépression de l'ordre de - 6 pascals, tandis que la rouge désigne une surpression de + 6 pascals. En tirant sur le chevalet, la corde crée une dépression locale à l'intérieur de la caisse et une surpression au-dessus de la table. Ces fluctuations de pression rayonnent vers l'extérieur et se déplacent à l'intérieur de la caisse en se réfléchissant sur les éclisses et le fond en faisant vibrer la table et en s'échappant partiellement par la rose.
Images : © INRIA / Projet ONDES et Arghyro Paouri
Nous avons élaboré un modèle pour décrire les phénomènes vibro-acoustiques mis en jeu lorsqu’on pince une corde de guitare. La corde est modélisée par une équation de corde vibrante, excitée par le pincer. Le mouvement de la table d’harmonie est décrit par l’équation de plaque mince dite de Kirchhoff-Love pour un matériau orthotrope - c’est-à-dire qui possède des veines comme le bois - et hétérogène (pour prendre en compte le barrage). Les pertes au sein de la corde et de la table sont prises en compte à l’aide de termes d’amortissement, de sorte que les hautes fréquences s’atténuent plus vite que les basses fréquences. Ce phénomène caractérise entre autres le timbre de l’instrument. Quant au champ sonore à l’intérieur et à l’extérieur de la cavité, il est décrit par les équations classiques de propagation du son en trois dimensions. Il reste à écrire de quelle manière la caisse interagit avec la corde et l’air. On suppose que la corde est en contact permanent avec la table au chevalet et qu’elle exerce sur cette dernière une force proportionnelle à sa tension. En outre, la table subit les efforts de pression de l’air environnant et transmet sa propre vitesse aux particules d’air immédiatement voisines. Le reste du corps de la guitare (fond, bord, manche) est supposé rigide, l’air étant immobile à la surface.

La résolution numérique
Déterminer la solution analytique de ce jeu complexe d’équations à l’aide d’un crayon et d’une feuille de papier, nous ne pouvons l'envisager ! Il nous faut mettre en œuvre une méthode numérique pour en calculer une approximation. Les équations décrivent les vibrations à chaque instant et en chaque point de l’instrument, donc en une infinité de points : le problème est continu. Un ordinateur ne pouvant traiter qu’un nombre fini de données, nous cherchons une approximation de la solution basée sur un nombre fini de valeurs : c’est la discrétisation du système continu. Pour approcher l’équation de corde, nous la découpons en un nombre fini de segments. La solution est alors calculée en chaque segment à des instants successifs séparés par une durée très courte appelée pas de temps (ici 20 microsecondes). De même, l’air est coupé en petits cubes. Comme pour la timbale (voir aussi Le son des timbales par A. Chaigne, P. Joly et L. Rhaouti), on limite le volume de calculs en supposant les parois parfaitement absorbantes. La guitare a en quelque sorte disparu de ce maillage en cubes : on appelle cette méthode les domaines fictifs. Pour calculer l’interaction entre l’air et la guitare, on introduit un maillage de la surface de la caisse, constitué de triangles aux sommets desquels la différence entre les pressions interne et externe est calculée. Les mouvements de la table sont quant à eux décomposés sur ses cinquante premiers modes de vibration (figure du haut). Cela nous ramène à cinquante équations dépendant du temps, solvables « à la main ».

Le calcul le plus limitant est celui qui concerne l’air : il y a cent points sur la corde, 3 000 points pour calculer les modes de table et un million de points dans l’air. Calculer six secondes de son (300 000 pas de temps) nécessite deux heures de calcul sur un bon PC. Les simulations numériques obtenues à l’aide de ce modèle révèlent les vibrations de l’instrument au cours du temps lorsqu’on pince une de ses cordes et la pression dans l’air environnant la guitare (figure du bas). Suffisamment proche de la réalité, le modèle proposé simule un grand nombre de caractéristiques des guitares réelles, comme la puissance de l’instrument dans les différentes directions à une fréquence donnée (sa directivité), une donnée qui intéresse les preneurs de son. Le modèle informe en outre sur des phénomènes difficilement accessibles, tels le transfert d’énergie entre les diverses parties de l’instrument.

Ce modèle procure ainsi une aide à la conception et à l’innovation. Il permet en effet de tester l’influence d’une modification structurelle de l’instrument, par exemple pour l’adapter à la morphologie des enfants, mais aussi des matériaux nouveaux. Cette seconde problématique deviendra d'ailleurs une question cruciale dans les années à venir, en raison de la disparition de certaines essences de bois exotiques traditionnellement utilisées en lutherie, quelques-unes sont déjà interdites d’exploitation.

Si vous avez envie d'en savoir plus sur les simulations de la guitare acoustique.

Une première version de cet article est parue dans le dossier n°52 La modélisation informatique, exploration du réel de la revue Pour la Science, numéro de juillet/septembre 2006.

 

DOCUMENT         inrestices.info          LIEN

DES ROBOTS HUMANOÏDES DANS LES USINES ...

22/02/2016

Paris, 12 février 2016
Des robots humanoïdes dans les usines aéronautiques de demain

Développer des technologies de robotique humanoïde pour effectuer des tâches difficiles dans les usines aéronautiques, c'est le programme de recherche commun, d'une durée de quatre ans, du Joint Robotics Laboratory (CNRS/AIST)1 et d'Airbus Group. Il sera officiellement lancé le 12 février 2016 à l'ambassade de France à Tokyo2. L'introduction d'humanoïdes sur les lignes d'assemblage aéronautiques permettra de décharger les opérateurs humains des tâches les plus laborieuses ou dangereuses. Ils pourront ainsi se concentrer sur des tâches à plus forte valeur ajoutée. La principale difficulté pour ces robots sera de travailler dans un environnement exigu : comment réaliser certains mouvements sans entrer en collision avec les nombreux objets alentours ? C'est la première question à laquelle devront répondre les chercheurs, en développant de nouveaux algorithmes de planification et contrôle des mouvements précis.
Du fait de la taille des appareils aéronautiques (par exemple des avions de ligne) et du très grand nombre de tâches à effectuer sur peu d'unités, l'utilisation de robots spécialisés à base fixe, déjà utilisés dans l'industrie automobile, est impossible dans l'industrie aéronautique. D'autres difficultés s'ajoutent : même si des robots constitués d'une base mobile et d'un bras manipulateur peuvent être utilisés par l'industrie (comme chez Airbus Group par exemple), ceux-ci sont limités dans leurs déplacements. Ils n'ont, en effet, pas la possibilité de monter des escaliers ou des échelles, de passer des obstacles au sol, etc. De son côté, le Joint Robotics Laboratory (JRL, CNRS/AIST) développe, à partir des modèles de robots HRP-2 et HRP-43, des nouvelles technologies de locomotion dites multi-contacts : en s'aidant de tout son corps pour prendre contact avec son environnement, et non seulement avec ses pieds, ce type de robot peut monter des échelles et entrer dans des endroits exigus. La possibilité d'avoir des contacts multiples permet aussi d'accroître la stabilité du robot et la force qu'il peut appliquer lorsqu'il effectue une tâche. De plus, la forme anthropomorphique de ces robots offre une polyvalence utile pour effectuer un grand nombre de tâches différentes dans des environnements variés.

La collaboration entre les chercheurs du JRL et Airbus Group a donc pour but de permettre aux robots humanoïdes d'effectuer des tâches de manipulation dans un environnement contraint et limité, les lignes d'assemblage, où ils devront faire un usage coordonné de leur corps pour mener à bien leur mission. Les espaces exigus requièrent en effet des postures particulières. Le calcul de telles postures s'avérant mathématiquement complexe, les chercheurs devront tout d'abord développer de nouveaux algorithmes, bien plus puissants que ceux existants actuellement, tout en gardant ces calculs suffisamment rapides pour que les mouvements des robots restent efficaces. Les tâches typiques que les robots auront à effectuer seront, par exemple, de serrer un écrou, de nettoyer une zone de ses poussières métalliques ou d'insérer des pièces dans la structure de l'appareil. Ils pourront également vérifier le bon fonctionnement des systèmes une fois la fabrication terminée.

Ces algorithmes seront testés sur un ensemble de scénarios tirés des besoins des différentes branches d'Airbus Group (Aviation Civile, Hélicoptères, et Spatial), et dont le réalisme ira croissant au fil des années. Du côté de la recherche en robotique, en plus de l'apport des nouveaux algorithmes, cette collaboration mettra peut-être en lumière des insuffisances des robots actuels (design, précision ou puissance, par exemple). Elle pourrait également permettre de spécifier le cahier des charges de la première génération de robots humanoïdes dédiés à la manufacture de grandes structures, d'ici 10 à 15 ans.

DOCUMENT cnrs LIEN

ASTROPHYSIQUE

29/01/2016

Paris, 30 octobre 2014
Voyage au coeur d'un système solaire triple en formation

Une équipe internationale d'astronomes, dont des chercheurs du LAB (CNRS/Université de Bordeaux), de l'IPAG (CNRS/Université Joseph Fourier Grenoble 1) et de l'IRAM (CNRS/MPG/IGN), a mené l'étude la plus précise à ce jour du cocon de gaz et de poussières du système GG Tau A. En combinant des observations complémentaires aux longueurs d'onde submillimétriques (ALMA et IRAM) et infrarouges (VLTI/ESO), les chercheurs ont pu mettre en évidence la dynamique complexe au sein de GG Tau. Ils ont ainsi détecté pour la première fois des mouvements de matière démontrant que des exoplanètes peuvent se former non seulement autour d'un des membres de ce trio d'étoiles jeunes, mais aussi à très grande distance dans le disque entourant ces trois soleils. Ce travail observationnel, publié le 30 octobre dans la revue Nature, révèle une histoire plus complexe qu'on ne l'imaginait.
Si les découvertes observationnelles récentes ont démontré l'existence de nombreuses planètes autour des étoiles doubles, leur formation se heurtait au problème des instabilités gravitationnelles engendrées par la nature binaire de ces astres. Les observations d'étoiles jeunes binaires sont encore trop rares pour fournir une image détaillée de ces processus. Jusqu'à très récemment, GG Tau A, située à près de 450 années-lumière de la Terre dans la constellation du Taureau, était connue comme une étoile binaire avec deux composantes Aa et Ab. Mais des mesures infrarouges récentes réalisées avec les instruments du VLT et du VLTI (ESO) ont révélé que GG Tau A est en fait un système stellaire triple1 : GG Tau Ab est elle-même une étoile binaire. L'étoile centrale Aa est suffisamment éloignée du couple Ab pour être entourée d'un disque circumstellaire, observé dès 2011 avec l'interféromètre de l'IRAM.

Autour de ce système stellaire triple, les chercheurs ont déjà mis en évidence un disque de gaz et de poussières en rotation, évidé en son centre par les effets de marée gravitationnels. En tournant les unes autour des autres, les trois étoiles créent en effet une zone gravitationnellement instable appelée cavité, où la matière ne peut que transiter avant de tomber sur les étoiles centrales. Plus loin, là où réside l'anneau externe de matière, le champ gravitationnel n'est plus perturbé et la matière en rotation peut s'organiser en une structure stable. L'existence d'une cavité centrale autour de GG Tau A, connue dès les années 1990 grâce aux observations de l'interféromètre de l'IRAM, confirmait en partie ces prédictions théoriques. Dans les années 2000, on a détecté la présence de gaz dans cette cavité, mais la dynamique précise de ce gaz, pierre essentielle à la compréhension des mécanismes d'accrétion donnant naissance aux planètes, restait largement méconnue.

Dans cette nouvelle étude, des observations du monoxyde de carbone (CO sous forme gazeuse) et de l'émission des grains de poussière autour de GG Tau A ont été obtenues de manière complémentaire avec les interféromètres ALMA (Chili) et IRAM (Alpes françaises). Elles ont permis de lever une partie du voile sur la répartition de la matière et sur la dynamique à l'intérieur de la cavité, avec une précision encore jamais atteinte dans ce domaine. Les images montrent en effet un filament de gaz provenant de l'anneau externe tombant vers les étoiles centrales. La quantité de gaz ainsi transportée se révèle suffisante pour alimenter le disque interne autour de GG Tau Aa. Les mouvements de gaz observés confirment ainsi les prédictions des simulations numériques antérieures. Ils démontrent que la matière provenant de l'anneau externe est capable de nourrir le disque interne autour de GG Tau Aa pendant assez longtemps pour éventuellement permettre la formation des exoplanètes.

Si ce résultat était attendu, le suivant l'était moins : les deux cartes de l'émission du CO révèlent une surbrillance remarquable sur le bord externe de l'anneau autour du système stellaire triple. Son étude détaillée montre qu'elle est deux fois plus chaude que le milieu environnant et qu'il pourrait s'agir de la signature d'une jeune exoplanète géante en cours de formation. Cette planète serait en train de creuser un fin sillon dans le disque externe, mais la détection d'une telle structure reste pour l'heure hors de portée des instruments. La mise en service prochainement des antennes NOEMA2 de l'IRAM sur le plateau de Bure sera, sans nul doute, un atout majeur pour en savoir plus sur GG Tau, un système de soleils jeunes qui n'a pas fini de livrer ses mystères.

  DOCUMENT         cnrs        LIEN   

PIERRE BOULEZ

24/01/2016

 

Boulez Pierre

1925-2016

 

Pierre Boulez

Né à Montbrison, 26 mars 1925, mort à Baden-Baden, 5 janvier 2016.

Il reçoit des cours de piano à l'âge de sept ans. Après des études secondaires dans une institution religieuse, il prépare à Lyon l'École polytechnique. Il s'installe en 1942 à Paris. En 1944 il est admis au Conservatoire, dans la classe d'harmonie de Messiaen. Il obtient un 1er prix d'harmonie en 1945. Il étudie le contrepoint avec Andrée Vaurabourg, André Leibowitz l'initie à la musique sérielle (dodécaphonique).

De 1946 à 1956,  il est directeur de la musique de scène de la Compagnie Renaud-Barrault. C'est dans les activités liées à cette fonction qu'il aborde la direction d'orchestre.

En 1953, il dirige les « Concerts du Petit Marigny » qui deviennent en 1954 « Le Domaine Musical » spécialisé dans la musique contemporaine. Il en assure la direction jusqu'en 1967.

De 1955 à 1967, il enseigne l'analyse musicale et la direction d'orchestre au festival de Darmstadt.

En 1958, il s'installe à se fixe à Baden-Baden à l'invitation du Südwestfunk.

De 1960 à 1966 il enseigne l'analyse musicale et la direction d'orchestre à l'Académie de musique de Bâle

En 1962-1963, il donne des cours à Harvard et rédige Penser la musique aujourd'hui. 

En 1966 il est invité par Wieland Wagner à diriger Parsifal à Bayreuth, puis Tristan et Isolde au Japon.

En 1967, suite à un désaccord avec le ministre de la culture, André Malraux, sur la gestion étatique de l'art et de la culture, il cesse ses activités en France. De 1967 à 1972, il est principal chef invité de l'Orchestre de Cleveland ; de 1971 à 1975 chef permanent de l'Orchestre symphonique de la BBC ; de 1971 à 1977 (après avoir été pour le première fois à son pupitre en 1969), il dirige l'Orchestre philharmonique de New York, en succession à Leonard Bernstein.

En 1972, il reprend ses activités en France quand le gouvernement décide de joindre un centre de recherche musical au projet du Centre d'art contemporain de Beaubourg. Le Président Georges Pompidou le charge du projet et lui confie la direction. l'Institut de recherche et coordination acoustique/musique (Ircam) ouvre ses portes à l'automne 1977. Pierre Boulez assure sa direction jusqu'en 1992.

En 1975, dès sa création sous l'autorité de Michel Guy, secrétaire d'Etat aux Affaires culturelles, il préside l'Ensemble Intercontemporain (EIC).

En 1976, il est nommé professeur au Collège de France et pour le centenaire du « Ring », il dirige la Tétralogie de Wagner, dans une mise en scène de Patrice Chéreau (ce programme est donné 5 années de suite).

En 1979, il dirige la première mondiale de la version intégrale de Lulu d'Alban Berg, à l'Opéra de Paris (avec Patrice Chéreau).

Dans les années 1980, il participe aux projets de l'Opéra de la Bastille et de la Cité de la musique à la Villette à Paris, et marque souvent son désaccord sur les choix techniques imposés par les décideurs politiques.

En 1988, une suite de six émissions télévisées lui est consacrée : Boulez xxe siècle. Il est le compositeur invité du centre Acanthes, à Villeneuve-les-Avignon. Il y donne des cours de direction d'orchestre et dirige Répons à la carrière Boulbon dans le cadre du festival d'Avignon.

A partir de 1992, dégagé de ses obligations à la direction de l'Ircam, il intensifie sa carrière de dirigeant. Il signe un contrat d'exclusivité avec Deutsche Grammophon et le festival de Salzbourg lui consacre une programmation exhaustive.

En 1995, son 70e anniversaire est marqué par un cycle de concerts pour l'inauguration de la Cité de la musique à la Villette, une tournée mondiale avec le London Symphony Orchestra (Londres, Paris, New York, Tokyo), des concerts au Japon avec quatre orchestres différents et la production de Moïse et Aaron à l'Opéra d'Amsterdam, dans une mise en scène signée Peter Stein.

 

DOCUMENT            musicologie.org       LIEN

CRISE CARDIAQUE

24/01/2016

CRISE  CARDIAQUE             LIEN

LES PARTICULES ÉLÉMENTAIRES

23/01/2016

Les particules élémentaires


- dans mensuel n°306 daté février 1998 à la page 92 (3073 mots) |
La quête de l'élémentaire occupe philosophes et hommes de science depuis plus de... vingt-cinq siècles ! Leucippe de Milet est le premier, en Occident, à définir l'atome comme la particule la plus élémentaire. Insécables car très petits, durs et incompressibles, les atomes de Leucippe, puis ceux de Démocrite, diffèrent par leur forme, leur arrangement et sont animés d'un mouvement continu, éternel et désordonné. Ils composent toutes choses, y compris l'âme. Epicure leur rajoutera une autre propriété, une sorte de pesanteur. Leur mouvement est, selon lui, régulier et dirigé vers le bas mais peut se trouver légèrement dévié. Cette théorie atomiste sera vivement combattue au Moyen Age par la tradition aristotélicienne qui préfère une vision du monde en quatre qualités primordiales le chaud, le froid, l'humide et le sec et une substance particulière omniprésente, l' aither . En Occident, la théorie atomiste gagne du terrain au cours des siècles. La publication en 1913 de l'ouvrage Les Atomes par Jean Perrin marquera finalement le triomphe de la théorie atomisteI.

La reconnaissance de la structure intime de l'atome démarre avec la découverte de l'électron, découverte qui fut l'aboutissement de travaux menés entre 1890 et 1900 en Angleterre, en Irlande, en Allemagne, en Hollande et en FranceII. En 1905, l'année où il conçoit la relativité restreinte, Albert Einstein propose de considérer la lumière comme un flux de particules élémentaires, de « quanta d'énergie localisés en des points de l'espace » , qui ont été appelés plus tard photons. L'existence de ces particules sera confirmée en 1923, par l'Américain Arthur Holly Compton*. Dix années plus tôt en 1911, une équipe de l'université de Manchester dirigée par Lord Rutherford démontre, à partir de données expérimentales le bombardement de feuilles d'or avec des atomes d'hélium chargés positivement que le centre des atomes est occupé par un noyau de très petite taille chargé positivement. En 1920, Rutherford baptise la charge positive du noyau proton . L'idée admise, à cette époque, est que le noyau contient les deux particules élémentaires, proton et électron. Mais douze années plus tard, James Chadwick, du laboratoire Cavendish à Cambridge, découvre à l'intérieur du noyau une particule électriquement neutre. Il la nomme neutron, celui-ci accède provisoirement au statut de particule élémentaire. L'idée qu'une sous-structure puisse exister à l'intérieur est venue ensuite naturellement... En 1964, Murray Gell-Mann et Georges Zweig élaboraient, de façon indépendante, le concept de quarks, constituants élémentaires des protons et des neutrons. Leur mise en évidence eut lieu dans les années 1970 aux Etats-Unis.

Une particule élémentaire ne peut se représenter - comme on le trouve encore souvent - par une petite bille. Entendons-nous : cette représentation naïve n'est pas incorrecte lorsqu'on se place dans le cadre de la mécanique classique ; la matière macroscopique n'est-elle pas symbolisée par les physiciens comme un ensemble de points matériels, de lieux où se concentre la masse ? En électromagnétisme, les mouvements de ces points peuvent être décrits grâce au concept de champ introduit par Faraday au milieu du XIXe siècle. Structure infinie étendue à l'ensemble de l'espace et du temps, le champ est devenu au fil des années un concept fondamental pour comprendre la matière. Mais il pose un problème. Comment, en effet, concilier ce concept, fondé sur des équations qui reposent sur la continuité, et la notion de particule, par essence discontinue ? La théorie quantique des champs introduite dans les années 1930 résout l'antagonisme. Alors que la mécanique classique va observer un morceau de matière et se poser les questions : dans quel état est-il ? quelle est sa vitesse, son énergie ? La théorie quantique des champs renverse le point de vue en disant : voici tous les états qui peuvent être occupés ou pas par des particules dans le cadre d'une interaction, comment sont-ils occupés ? Les champs quantiques sont les opérateurs qui remplissent ou vident ces états. Remplir c'est créer une particule, vider c'est l'annihiler. La particule n'est donc plus un point matériel mais un échantillon, un digit de champ quantique défini pour un certain type d'interaction. La comparaison avec l'informatique n'est pas gratuite : la particule élémentaire est en quelque sorte, un 1 ou un 0 dans un programme informatique. Les échantillons de champ peuvent être des constituants de la matière, les fermions*, ou bien être des vecteurs d'interactions, les bosons*. Bosons et fermions ont des propriétés très différentes. D'abord, le moment cinétique* intrinsèque ou spin est nul ou entier pour les bosons et demi-entier pour les fermions. Ensuite les fermions sont impénétrables. Lorsqu'il y en a un quelque part, on ne peut pas en rajouter un autre au même endroit. La matière ne se superpose pas. Les bosons, au contraire, peuvent tous se trouver dans le même état, au même endroit. Le photon est un boson : on superpose des rayons lumineux.Le théoricien et l'expérimentateur ne voient pas et ne représentent pas la particule de la même façon. Une particule étant pour le théoricien un digit de champ, le concept premier est donc, pour lui, le champ et non la particule. La nature des champs quantiques est prédéterminée par les quatre interactions fondamentales et par les symétries qu'elles respectent voir tableau ci-dessous.
Que signifie pour une interaction respecter une symétrie ? Prenons l'exemple de l'électromagnétisme. Pour décrire l'interaction électromagnétique, le physicien utilise la notion de potentiel*. Une dérivation* par rapport aux coordonnées de l'espace lui permet de passer du potentiel au champ. De la même façon qu'une famille infinie de droites parallèles possède la même pente, il existe une infinité de potentiels qui donnent le même champ.
Tous ces potentiels sont identiques à une « origine près » : si l'on transforme un potentiel en un autre, les équations n'en sont pas affectées. En mécanique quantique, les physiciens utilisent le terme d'invariance ou symétrie de jauge* pour décrire ce type de transformation. Or, il se trouve - sans que nous comprenions vraiment pourquoi - que les quatre interactions fondamentales et les équations qui les décrivent respectent des symétries de ce type.
Ceci a, bien sûr, des répercussions sur les champs quantiques associés aux interactions et donc sur les propriétés des particules, les digits de champs. Ainsi, quand un théoricien pense particules, il pense symétries, interactions, champs.
Dans les équations, il symbolise les particules par des potentiels, fonctions de plusieurs paramètres comme le temps t ou la position x, y, z. Mais l'expérimentateur, lui, voit les particules bien différemment.
Une particule est, à ses yeux, une signature dans un certain type de détecteur, autrement dit une trace ou un ensemble de traces. Il la désigne par des lettres u, Z, t, n, e ...et non par des potentiels ou des champs quantiques.Parmi les particules connues, certaines sont présentes dans la nature, comme l'électron, particule constitutive des atomes de matière, ou comme le neutrino, particule neutre présente dans les rayons cosmiques*. D'autres n'auraient existé que dans les tout premiers instants de l'Univers et ne peuvent être détectées qu'auprès des grands accélérateurs ou collisionneurs. Pourquoi ? Imaginons, que nous voulions découvrir dans une structure, comme le proton, une sous-structure plus petite. Une première idée est de sonder cette structure en envoyant une ou des particules sondes sur elle. Ces particules sondes ont, selon la dualité onde-corpuscule* établie par Louis de Broglie en 1923, des longueurs d'onde associées. Or, nous savons qu'un phénomène ondulatoire n'interagit qu'avec des objets de dimension supérieure à sa longueur d'onde un nageur ne perturbe pas la houle, laquelle se trouve en revanche affectée par la marche d'un paquebot.... Pour sonder des objets petits, il faut donc envoyer sur eux des particules sondes de très courte longueur d'onde, ce qui signifie aussi très énergiques. Les accélérateurs cible fixe ou les collisionneurs cible en mouvement sont construits sur ce principe. Détaillons ce qui se passe dans un collisionneur où deux faisceaux de particules de haute énergie circulent en sens opposés. La collision entre deux particules des deux faisceaux produit un choc d'où émergent d'autres particules en vertu du principe d'équivalence entre masse et énergie, le fameux E = mc2, une des conséquences de la théorie de la relativité restreinte élaborée en 1905 par Albert Einstein.
Plus le choc est énergique, plus les particules créées sont massives... ce qui ne veut pas dire qu'elles sont plus grosses, au contraire ! Plus elles sont massives, au sens énergétique du terme, plus leurs dimensions, ou encore leur longueur d'onde associée est petite... La durée de vie des particules est si brève, quelque 10­20 s, qu'aucune caméra, aucun microscope n'est capable d'observer directement le résultat de la collision. Ce que les expérimentateurs détectent ce sont les produits stables de leur désintégration. Pour connaître leur position et leur énergie, ils placent autour du point de collision plusieurs détecteurs qui forment une structure géante en oignon voir schéma.
Ces dispositifs sophistiqués ont une faiblesse : ils ne permettent pas d'arrêter les particules non chargées et n'interragissant que faiblement, comme les neutrinos.Dans la théorie de la relativité restreinte, la masse est reliée à l'énergie et à la quantité de mouvement* pÆ de la particule de la façon suivante : E2 ­ p2=m2 en supposant c = 1, c vitesse de la lumière dans le vide. Dans cette équation m est la masse invariante de la particule, m = E si pÆ = oÆ ; m est donc la masse au repos. Si la masse de la particule est nulle, on a E = p, autrement dit une particule de masse nulle est une particule qui va à la vitesse de la lumière quel que que soit le référen- tiel.
Conclusion : une particule de masse nulle est une particule qui n'est jamais au repos !Elles existent puisqu'on les a observées ! D'abord dans le rayonnement cosmique, puis dans les accéléra- teurs et les collisionneurs. Mais l'existence des antiparticules avait été suppo- sée avant qu'on puisse les observer, à la fin des années 1920 par le physicien britannique Paul Dirac. Pour réconcilier la mécanique quantique et la théorie de la relativité, il imagina une particule d'énergie positive, de masse égale à celle de l'électron, mais de charge électrique opposée. L'anti-électron positon était né. Ce dédoublement purement théorique du monde en « particules-antiparticules », autrement dit en « matière- antimatière » fut expérimentalement confirmé dès 1932. Aujourd'hui, toutes les anti-particules des particules élémentaires connues ont été découvertes.
Une antiparticule possède la même masse, le même spin que la particule du même nom mais des charges opposées - « charges » au pluriel. Toute particule ou antiparticule porte, en effet, un certain nombre de charges charge électrique, charge de couleur, nombre baryonique, charge de saveur.... Ces nombres sont des sortes d'étiquettes qui définissent le comportement de la particule ou de l'antiparticule dans les interactions.
L'une des grandes énigmes de la physique actuelle est le déficit d'antimatière mesuré dans l'Univers. Si la matière et l'antimatière ont des propriétés symétriques, pourquoi la nature aurait-elle préféré la première à la seconde ?
En 1967, le physicien russe Andrei Sakharov a proposé une théorie pour expliquer cette dissymétrie.Deux types de particules existent à l'intérieur du groupe des fermions voir p. 95 : d'un côté les leptons, qui ne participent pas à l'interaction forte, de l'autre les quarks, de différentes saveurs et de différentes couleurs qui participent à toutes les interactions. Les charges de saveur six au total et de couleur trois au total des quarks déterminent leur comportement vis-à-vis respectivement de l'interaction faible et forte. Les bosons, vecteurs des quatre interactions fondamentales, sont le photon pour l'interaction électromagnétique, les gluons pour l'interaction forte qui lient les quarks entre eux, les bosons W+, W­ et Zo, porteurs de l'interaction faible, enfin le graviton, le boson de la gravitation. Fermions et bosons ont été regroupés en trois familles dans le modèle standard, cadre conceptuel permettant de prédire tous les phénomènes mettant en jeu les interactions fondamentales autre que la gravitation*. Curieusement, les deux dernières familles peuvent être vues comme des répliques de la première à un détail près : leur particule ne se distingue des particules de la famille n° 1 que par leur masse ! Un muon est un autre électron sauf qu'il est un peu plus lourd, un tauon est un muon encore plus lourd. C'est un peu comme si la nature avait bégayé trois fois... Les physiciens l'admettent : le modèle standard qu'ils ont construit aurait très bien pu fonctionner avec une seule famille de particules. Pourquoi alors y en a-t-il trois, et pas une ou cinq ? C'est d'ailleurs une des grandes questions de la physique contemporaine. Ce bégaiement de la nature n'est pas sans conséquences. Pour le comprendre, revenons sur les symétries. La théorie des champs quantiques implique l'existence d'une symétrie dite CPT, produit des symétries C on remplace la charge par une charge opposée, P on change le signe des coordonnées spatiales, et T on renverse le sens du temps. L'invariance de la physique par cette symétrie CPT pouvait laisser penser qu'il existait aussi une invariance par C, par P, par CP et par T, pris séparément. Or, l'interaction faible brise ce principe : elle n'est pas invariante par CP. Pratiquement, cela signifie que, dans certains processus de désintégrations radioactives, changer la charge d'une particule en la charge opposée et regarder le résultat dans un miroir inversion des coordonnées, est un processus qui n'a pas la même probabilité que le processus de départ... Cette brisure de la symétrie CP pourrait donc expliquer la prédominance dans l'Univers de la matière sur l'antimatière, laquelle a toujours la charge opposée à la matière. Les physiciens sont parvenus à montrer que, dans le cadre du modèle standard, la brisure n'est possible que s'il existe au moins trois familles de particules. Une ne suffit pas, deux non plus. Autrement dit, le bégaiement de la nature serait une des clefs de la prédominance de la matière sur l'antimatière dans l'Univers...Aucune ne l'est en principe. Elles peuvent en revanche être plus ou moins difficiles à observer, comme les neutrinos, ces leptons de charge électrique nulle. L'existence de ces particules neutres fut prédite par Wolfgang Pauli en 1932. Vingt ans plus tard, on découvrait le premier neutrino. Les neutrinos sont difficiles à observer car ils ne sont pas chargés et ne participent qu'à l'interaction faible : leur probabilité d'interagir avec la matière est par conséquent quasi nulle. Cette propriété complique aussi la mesure de leur masse, laquelle est peut-être nulle. La détection des quarks est, elle aussi, difficile même si ces fermions participent à toutes les interactions. Un quark ne peut s'observer directement pour la bonne raison qu'il se déplace toujours en bande, soit avec deux autres quarks, soit avec un antiquark.
Nous savons de plus qu'il existe trois couleurs possibles pour un quark ; or, ces couleurs sont telles que leur mélange par trois ou par deux produit des objets « blancs » - les seuls visibles d'après la théorie de l'interaction forte. Nous ne pouvons donc observer directement que les assemblages de quarks mais jamais les quarks isolés !Le physicien des particules ne peut répondre à cette question. Il peut certes prédire, grâce au modèle standard , un certain nombre de variables mais pas la valeur exacte des masses des particules. En revanche, la question « Pourquoi les particules élémentaires ont-elles une masse ? » occupe de nombreux théoriciens et expérimentateurs. En effet, d'après le modèle standard actuel, toutes les particules devraient logiquement être de masse nulle ! Pour comprendre cela, revenons quelques instants sur les propriétés d'invariance. Nous avons vu les quatre interactions fondamentales respectaient des invariances de jauge. Or, ces symétries imposent aux particules d'interaction, les bosons, d'être de masse nulle. C'est bien le cas du photon interaction électromagnétique ou des gluons interaction forte mais pas des bosons intermédiaires interaction faible très massifs 90 GeV, soit quatre-vingt dix fois la masse du proton. Pour expliquer ce phénomène, les physiciens ont inventé un nouveau champ quantique, le champ de Higgs, générateur de masse, et une nouvelle interaction associée, le mécanisme de Higgs. Pourquoi le champ de Higgs aurait-il rendu massives toutes les particules, à l'exception du photon et du gluon ? D'après le modèle standard, le phénomène correspond à une brisure spontanée de symétrie du champ de Higgs dans l'état fondamental stable qu'est le vide. C'est un peu comme si vous posiez une bille au fond d'une bouteille : l'état stable est trouvé lorsque la bille est à gauche ou à droite du cul de la bouteille état non symétrique, pas au-dessus état symétrique. Si le mécanisme de Higgs est valide, il faut alors imaginer l'existence d'une particule massive associée, le dénommé boson de Higgs. La course au boson de Higgs a d'ores et déjà commencé. Sa masse importante, quelques centaines de GeV, pourrait expliquer qu'on ne l'a pas encore découvert... Le grand projet de collisionneur à 14 TeV du CERN sera le test grandeur nature du mécanisme de Higgs.

Elémentaires, direz-vous ?
Pour certains physiciens, la structure de la matière en quarks, leptons et bosons pourrait n'être qu'une image encore très simplifiée de la réalité. Au plan théorique, le mécanisme de Higgs possède d'ailleurs de nombreuses inconsistances.
Une amélioration possible est d'envisager l'existence d'une sous-structure au sein des particules du modèle standard. Les énergies correspondantes seraient mille fois plus élevées que les énergies qui ont permis de mettre en évidence les quarks. Si elle existe, cette sous-structure doit impérativement être compatible avec toutes les observations réunies jusque-là. Une contrainte qui limite énormément l'ensemble des solutions mais qui laisse encore de la place à la discussion... Une autre façon d'améliorer le mécanisme de Higgs est l'idée qu'il existe deux autres bosons de Higgs donc deux autres champs quantiques de Higgs et surtout que chaque particule du modèle standard actuel possède un partenaire supersymétrique. Dans cette hypothèse, les bosons auraient des partenaires fermions, et les fermions des partenaires bosons. Tous ces partenaires supersymétriques auraient des masses de quelques centaines de GeV...
Ce nouveau dédoublement du monde après celui de la « matière-antimatière » sera testé sur le futur LHC au CERN. Mais l'imagination des physiciens ne s'est pas arrêtée là... Une approche, radicalement différente, proposée à la fin des années 1970, consiste à imaginer que les champs quantiques actuellement répertoriés ne sont que des approximations de basse énergie d'un phénomène que les physiciens désignent sous le terme de super-cordes.
Dans ce cadre conceptuel, les particules élémentaires actuellement repertoriées seraient des modes, des exci- tations d'une corde, objet fondamental étendu de très petite taille. Pour être étudié, ce modèle, sorte de théorie fondamentale ultime de la physique quantique, nécessiterait des énergies de 1019 GeV, soit l'énergie d'un Boeing 747 à sa vitesse de croisière concentré dans une particule ! La théorie des supercordes sera-t-elle validée aux basses énergies sur le LHC ? Certains en ont fait le pari.

DOCUMENT larecherche.fr LIEN

AUTISME

21/01/2016

Paris, 12 janvier 2016

L'autisme se cache-t-il dans un pli du cerveau ?

Des chercheurs du CNRS, d'Aix-Marseille Université et de l'AP-HM ont identifié un marqueur cérébral spécifique de l'autisme, détectable par IRM et présent dès l'âge de deux ans. L'anomalie repérée consiste en un pli moins profond au niveau de l'aire de Broca, une région du cerveau spécialisée dans le langage et la communication, des fonctions altérées chez les patients atteints d'autisme. Cette découverte pourrait aider au diagnostic et à une prise en charge plus précoces de ces patients. Elle a été rendue possible par les compétences en traitement d'imagerie médicale de l'Institut de neurosciences de la Timone (CNRS/Aix-Marseille Université) et par l'accès à une cohorte de patients homogène, diagnostiqués très jeunes et ayant tous été évalués selon le même protocole au Centre de ressources autisme PACA. Les résultats de leur collaboration sont publiés le 12 janvier 2016 dans la revue Biological Psychiatry: Cognitive Neurosciences and Neuroimaging.

Les troubles du spectre autistique sont un ensemble de troubles neurodéveloppementaux (autisme typique, syndrome d'Asperger ou encore trouble envahissant du développement non spécifié) qui affectent principalement les relations sociales et la communication. Ils sont associés à un développement anormal du cerveau. Les données récentes en neuro-imagerie suggèrent notamment l'existence d'anomalies dans le plissement du cortex cérébral (la formation des circonvolutions à la surface du cerveau). Cependant, les mesures classiques de neuro-anatomie avaient échoué, jusqu'à maintenant, à mettre en évidence des marqueurs spécifiques de chacune de ces troubles, et notamment de l'autisme typique.

Des chercheurs de l'Institut de neurosciences de la Timone se sont intéressés à un nouveau marqueur géométrique, appelé « sulcal pit ». Il s'agit du point le plus profond de chaque sillon du cortex cérébral. C'est à partir de ces points que se développent les plis présents à la surface du cerveau. Ils sont donc mis en place très tôt au cours du développement, probablement sous influence génétique, ce qui en fait des indicateurs adaptés aux comparaisons entre individus.

A partir de résultats d'IRM, les chercheurs ont observé les sulcal pits chez 102 jeunes garçons âgés de 2 à 10 ans, classés en trois groupes (enfants atteints d'autisme typique, enfants atteints de trouble envahissant du développement non spécifié et enfants dépourvus de troubles du spectre autistique). En comparant les trois groupes, ils ont découvert que, dans l'aire de Broca (une région connue pour être impliquée dans le langage et la communication), la profondeur maximale d'un sillon était moindre chez les enfants atteints d'autisme par comparaison aux deux autres groupes. De manière intéressante (bien que contre-intuitive), cette atrophie très localisée est corrélée aux performances de communication chez le groupe d'enfant autistes : plus le sulcal pit est profond, plus les compétences en termes de production de langage sont limitées.

Cette anomalie spécifique aux enfants atteints d'autisme pourrait donc constituer un biomarqueur de la pathologie qui pourrait aider à un diagnostic et à des prises en charge plus précoces, dès l'âge de deux ans. En effet, à l'heure actuelle, l'autisme est diagnostiqué sur la base uniquement de signes cliniques, à partir de l'observation des enfants et d'entretiens avec leurs parents et le diagnostic est posé en moyenne à 4 ans et demi en France.

Cette étude a aussi débouché sur une découverte concernant le développement du cerveau. Alors que l'on pensait que le plissement du cortex était achevé à la naissance, les chercheurs ont observé que certains sillons (les plus superficiels) continuent à se creuser avec l'âge. Et ce, de manière identique chez les enfants atteints d'autisme et chez les autres. La recherche biomédicale peut donc également nous éclairer sur la compréhension des mécanismes du vivant.

DOCUMENT CNRS LIEN

MATHÉMATIQUES

21/01/2016

Paris, 14 octobre 2015

Une avancée sur la compréhension mathématique des équations d'Einstein

Énoncée il y a quinze ans, la conjecture de courbure L2 a enfin été démontrée par un groupe de trois chercheurs du laboratoire Jacques-Louis Lions (CNRS/UPMC/Université Paris Diderot) et de l'université de Princeton. Elle fournit un cadre potentiellement minimal dans lequel il est possible de résoudre les équations d'Einstein. Cela pourrait être une étape cruciale vers la démonstration de conjectures majeures, comme les conjectures de censures cosmiques de Penrose. Ce travail a été publié le 14 octobre 2015 dans la revue Inventiones Mathematicae.

La théorie de la relativité générale d'Albert Einstein a beau fêter ses cent ans cette année, elle recèle encore son lot de mystères. Cette théorie de la gravitation stipule que la matière courbe l'espace-temps avec un effet d'autant plus fort que la masse de l'objet est importante. Ce phénomène se mesure grâce à un outil mathématique appelé tenseur de courbure, sur lequel la conjecture de courbure L2 se concentre afin de trouver des cadres possibles pour construire des solutions aux équations d'Einstein. Énoncée il y a quinze ans par Sergiu Klainerman, cette conjecture a enfin été démontrée grâce aux travaux de Sergiu Klainerman, Igor Rodnianski et Jérémie Szeftel.

La conjecture de courbure L2 stipule que les équations d'Einstein admettent une solution si, à l'instant initial, le tenseur de courbure de l'espace est de carré intégrable, c'est-à-dire que l'intégrale de son carré est un nombre fini. Cette résolution de la conjecture de courbure L2 est importante car elle constitue une étape probable vers la démonstration des célèbres conjectures de censure cosmique de Penrose, qui traitent des singularités gravitationnelles. Il s'agit de régions pathologiques de l'espace-temps où le champ gravitationnel devient infini, comme au centre d'un trou noir. La présence de tels cas dans les solutions aux équations d'Einstein pourrait remettre en cause la validité physique de la relativité générale.

Roger Penrose présume que ces singularités ne sont jamais visibles car elles sont génériquement cachées derrière l'horizon des événements : la zone d'un trou noir à partir de laquelle la lumière ne peut plus s'échapper et donc nous parvenir. Si ces phénomènes restent encore bien loin de notre portée, les équations qui les régissent sont aujourd'hui un peu moins mystérieuses grâce à ces travaux.

DOCUMENT cnrs LIEN

Articles

Un mécanisme d’élimination des protéines localisées par erreur dans le noyau cellulaire

Il y a 3 jours

Un mécanisme d’élimination des protéines localisées par erreur dans le noyau cellulaire


COMMUNIQUÉ | 17 DÉC. 2014 - 19H00 | PAR INSERM (SALLE DE PRESSE) 

BASES MOLÉCULAIRES ET STRUCTURALES DU VIVANT | BIOLOGIE CELLULAIRE, DÉVELOPPEMENT ET ÉVOLUTION

Une collaboration internationale coordonnée par le Centre allemand de recherche contre le cancer (Université d’Heidelberg), associant en France des chercheurs de l’Institut de Génétique et Développement de Rennes (CNRS/Université de Rennes 1) sous la direction de Gwenaël Rabut, chercheur à l’Inserm, ainsi que des équipes suédoise et canadienne vient de mettre en évidence un nouveau mécanisme moléculaire qui permettrait aux cellules de détruire les protéines localisées par erreur dans leur noyau. Ces travaux sont publiés dans la revue Nature.
Les processus biologiques sont loin d’être parfaits. Malgré des millions d’années de perfectionnement, les mécanismes moléculaires qui assurent le fonctionnement des êtres vivants font de nombreuses erreurs qui, si elles ne sont pas détectées et corrigées, peuvent avoir de graves conséquences. Par exemple, de nombreux cancers ont pour origine des erreurs de copie de notre matériel génétique. De même, un mauvais repliement de certaines protéines neuronales entraîne la formation d’agrégats toxiques qui perturbent le fonctionnent du système nerveux et provoquent des maladies neurodégénératives, comme Alzheimer ou Parkinson.
Pour éviter d’en arriver là, les cellules ont mis en place des mécanismes moléculaires complexes qui contrôlent la qualité des protéines et éliminent celles qui sont défectueuses. Ces mécanismes sont localisés et mis en œuvre principalement dans le cytoplasme (compartiment des cellules où les protéines sont synthétisées).
En travaillant sur plusieurs facteurs impliqués dans le contrôle de qualité des protéines, les chercheurs se sont aperçus que certains d’entre eux étaient également localisés dans le noyau des cellules (le compartiment qui renferme le matériel génétique) et qu’ils permettaient de dégrader des protéines anormalement présentes dans ce compartiment.

Lors de cette étude, les chercheurs de l’Institut de génétique et de développement de Rennes (dont Gwenaël Rabut, chercheur Inserm, coordinateur et responsable du projet à Rennes et Ewa Blaszczak, doctorante, co-première auteure de l’article) ont pu observer que ces facteurs impliqués dans le contrôle de qualité des protéines interagissaient entre eux au niveau du noyau et qu’ils entraînaient l’ubiquitylation (l’étape précédant la dégradation) d’une protéine localisée par erreur dans le noyau.

En utilisant une méthode d’observation basée sur un décalage de fluorescence des protéines d’intérêt développée à l’Université d’Heidelberg, les chercheurs ont pu identifier une vingtaine de protéines dont la dégradation dépendait des facteurs de contrôle de la qualité localisés dans le noyau. Comme plusieurs de ces protéines sont normalement localisées dans le cytoplasme, et qu’elles s’accumulent au niveau du noyau lorsqu’elles ne sont plus dégradées, les chercheurs proposent que ce système de contrôle de qualité serve à éliminer non seulement des protéines défectueuses, mais aussi les protéines localisées par erreur dans le noyau.
Ces découvertes ont été réalisées en utilisant un organisme modèle, la levure de boulanger, mais il est vraisemblable que des mécanismes similaires existent également chez l’homme.

 

 DOCUMENT      inserm     LIEN  

Les antibiotiques perturbent l’efficacité de l’immunothérapie

Il y a 9 jours

Les antibiotiques perturbent l’efficacité de l’immunothérapie

COMMUNIQUÉ | 03 NOV. 2017 - 13H33 | PAR INSERM (SALLE DE PRESSE) 
CANCER


 Une étude publiée dans la revue Science par des chercheurs de Gustave Roussy, l’Inserm, l’Inra, l’AP-HP, IHU Méditerranée Infection et l’Université Paris-Sud démontre que la prise d’antibiotiques affecte l’efficacité d’un traitement par immunothérapie chez des patients atteints d’un cancer. Or, environ 20% des malades du cancer sont sous antibiothérapie. En analysant le microbiote intestinal de patients par métagénomique, les chercheurs ont montré que la présence de la bactérie Akkermansia muciniphila est associée à une meilleure réponse des patients à l’immunothérapie par anticorps anti-PD-1. De plus, en administrant cette bactérie à des souris comportant un microbiote défavorable, l’activité anti-tumorale de l’immunothérapie est restaurée.

Véritable révolution thérapeutique, l’immunothérapie a prouvé sa supériorité sur le traitement standard dans la prise en charge du mélanome métastatique, du cancer du poumon, du rein ou encore de la vessie mais son efficacité est limitée à une proportion de malades. «Nos travaux expliquent en partie pourquoi certains patients ne répondent pas. La prise d’antibiotiques a un impact négatif sur la survie des malades sous immunothérapies. La composition du microbiote est un facteur prédictif de réussite » résument le Dr Bertrand Routy, médecin hématologue à l’origine de ces travaux et sa directrice, le Pr Laurence Zitvogel, directrice du laboratoire “Immunologie des tumeurs et immunothérapie” (Inserm/Université Paris-Sud/Gustave Roussy).
Dans une première série, sur 249 patients traités par immunothérapie basée sur l’anti-PD-1/PD-L1 pour un cancer avancé du poumon, du rein ou de la vessie, 28% avaient pris des antibiotiques à cause d’une infection dentaire, urinaire ou pulmonaire mais leur état de santé général n’était pas différent de celui des patients non traités par antibiotiques.

Les résultats de l’étude démontrent qu’en créant un déséquilibre au niveau du microbiote intestinal (ou dysbiose), la prise d’antibiotiques deux mois avant et jusqu’à un mois après le début du traitement a un impact négatif sur la survie sans progression de la maladie  et la survie globale des patients dans ces trois types de cancer.

Un microbiote favorable déterminé par métagénomique
La composition précise du microbiote intestinal a été établie par métagénomique avant puis pendant le traitement sous immunothérapie chez 153 patients atteints d’un cancer du poumon ou du rein. Cette analyse de tous les gènes bactériens présents dans le microbiote intestinal a été menée par l’Inra (MétaGénoPolis, Dr Emmanuelle Le Chatelier). Une composition favorable, enrichie en Akkermansia muciniphila, a été identifiée chez les patients répondant le mieux à l’immunothérapie et chez ceux dont la maladie était stabilisée pendant au moins 3 mois.

Booster un microbiote défavorable
Pour prouver un lien direct de cause à effet entre la composition du microbiote intestinal et l’efficacité de l’immunothérapie, un microbiote favorable (provenant de patients ayant démontré une bonne réponse clinique à l’immunothérapie anti-PD-1) et un microbiote défavorable (provenant de patients en échec) ont été transférés à des souris qui en étaient dépourvues. Les souris transplantées avec le microbiote favorable présentaient une évolution favorable lorsqu’elles étaient traitées par immunothérapie contrairement à celle comportant le microbiote défavorable. Chez ces dernières, l’administration d’Akkermansia muciniphila a permis de restaurer l’efficacité de l’immunothérapie par anti-PD-1. En modifiant le microbiote de la souris, l’efficacité de l’immunothérapie a été rétablie grâce à l’activation de certaines cellules du système immunitaire.
Les résultats d’une équipe américaine (Dr Jennifer Wargo, MD Anderson, Houston, Texas) publiés en même temps dans la même revue viennent appuyer ces données en démontrant que la composition du microbiote de patients atteints d’un mélanome métastatique permet de prédire leur réponse à une immunothérapie anti-PD-1.
Ces travaux se poursuivent dans le cadre du projet Torino-Lumière (programme d’investissement d’Avenir de 9 M€). L’objectif du projet Torino-Lumière est de développer de nouveaux marqueurs prédictifs de la réponse thérapeutique aux immunothérapies des patients porteurs de cancers bronchiques, à partir de l’étude de leur microbiote. Une étude prospective multicentrique a démarré en 2016 avec pour objectif d’établir des signatures bactériennes favorables afin de développer des traitements basés sur une combinaison bactéries/immunothérapies.

À propos de l’immunothérapie
Les immunothérapies ont engendré une révolution thérapeutique en cancérologie. Ces nouvelles immunothérapies, par transfert de lymphocytes T activés ou par anticorps monoclonaux (anti-CTLA4 ou anti-PD1) ou bispécifiques, déclenchent le réveil du système immunitaire du patient.  Elles permettent non seulement de réduire la taille des tumeurs mais aussi, et pour la première fois, de prolonger notablement la survie des malades voire de les guérir de cancers métastatiques ou localement avancés.

À propos du microbiote intestinal
Le microbiote intestinal (anciennement appelé flore intestinale) est un écosystème complexe composé de 100 000 milliards de bactéries, virus, archae, parasites, levures… Ceux-ci colonisent l’intestin dès la naissance et participent à la maturation des défenses immunitaires. Chaque individu est doté d’un microbiote qui lui est propre. Sa composition est dictée par des facteurs génétiques, nutritionnels et environnementaux.

 

 DOCUMENT      inserm     LIEN  

L'astrophysique nucléaire

Il y a 13 jours


L'astrophysique nucléaire


L’astrophysique nucléaire est le mariage de l’astrophysique, science du lointain et de l’infiniment grand et de la physique nucléaire, science de laboratoire et de l’infiniment petit. Elle a pour vocation d’expliquer l’origine, l’évolution et les proportions des éléments chimiques dans l’Univers. Elle est née en 1938 avec les travaux du physicien Hans Bethe sur les réactions nucléaires qui se produisent au cœur des étoiles, à l’origine de la formidable énergie qui permet aux étoiles de briller durablement, des milliards d’années. L’astrophysique nucléaire est une science encore en pleine expansion. Elle apporte des réponses à des questions fondamentales : Comment notre Soleil et les étoiles peuvent-ils briller des milliards d’années ? Quelle est l’origine des éléments indispensables à la vie comme le carbone, l’oxygène, l’azote ou le fer ? Comment les noyaux formés par la nucléosynthèse sont-ils diffusés dans l’espace ? Comment sont formés les éléments chimiques les plus lourds comme l’or, le platine ou le plomb ? 

 

  DOCUMENT      cea       LIEN

PHYSIQUE ET MATHÉMATIQUES

Il y a 14 jours

Transcription* de la 573e conférence de lUniversité de tous les savoirs prononcée le 16 juin 2005

Par Edouard Brezin: « Physique et Mathématiques »


Je remercie tout d'abord l'UTLS d'avoir donné la parole aux physiciens car 2005 est l'année mondiale de la physique. Cette célébration est justifiée par le centième anniversaire de la publication d'articles d'Albert Einstein qui, dans trois domaines différents, ont changé complètement notre vision du monde. C'est aussi l'occasion pour les scientifiques français de présenter la science vivante, et de nous demander ce que ferait peut-être Einstein s'il était parmi nous aujourd'hui.

Physique et mathématiques : des histoires étroitement mêlées

Sans vouloir entièrement la retracer commençons par évoquer quelques étapes de cette route où physique et mathématiques se sont croisées, suivies, ignorées, rejointes, avant d'en arriver à la période contemporaine où se posent des questions qu'il n'y a pas très longtemps, personne ne pouvait formuler.

Longtemps mathématiques et sciences de la Nature ont été si étroitement mêlées que la différence nétait sans doute pas réellement explicitée. Que l'on se souvienne que géométrie veut dire littéralement « mesure de la Terre », et que les mathématiques furent formulées pendant très longtemps pour décrire des objets suggérés par le monde qui nous entoure.

En voici quelques exemples.

Pythagore et la diagonale du carré

Commençons avec Pythagore, astronome mathématicien, qui fut le premier à démontrer le théorème qui porte son nom, le théorème de Pythagore (que les Babyloniens connaissaient). Pythagore considère un carré de côté 1 : il a démontré que la longueur de sa diagonale valait (racine carrée de 2). Mais à cette époque, seuls les rapports de deux nombres entiers, les fractions, sont considérés comme des nombres. Pythagore cherche alors à exprimer (racine carrée de 2) comme un de ces nombres et, comme il est fin mathématicien, il démontre que (racine carrée de 2) ne peut pas s'écrire comme un rapport de deux nombres entiers. Le carré existe, sa diagonale existe, mais ce nombre semble ne pas exister ! C'est un sentiment inconcevable de contradiction entre la Nature et les mathématiques qui apparaît, alors que pour Pythagore elles sont parties d'un même tout.

Archimède et les volumes

Archimède était un génie absolument extraordinaire. Il a fait graver sur sa tombe une sphère et un cylindre. Fin mathématicien, il avait réussi à calculer des volumes, comme celui de la sphère, par exemple, ou encore celui donné par l'intersection de deux cylindres ( Cf. figure 1). La méthode qu'il avait introduite est une méthode intellectuellement très semblable à celle qui mettra vingt siècles à aboutir avec Newton et Leibniz, le calcul intégral. En effet pour calculer ces volumes, Archimède coupait en tranches comme on apprend à la faire lorsque l'on fait du calcul différentiel.


figure 1


Néanmoins, comme vous le savez, son génie de physicien n'était pas moins grand. Lhistoire est fort célèbre : le roi de Syracuse avait commandé une couronne en or massif mais il soupçonnait le bijoutier de l'avoir trompé. Il demanda alors à Archimède de déterminer si la couronne était bien en or massif. Après une réflexion très profonde Archimède comprit la nature de la force exercée par un liquide sur un corps immergé et répondit ainsi à la question du roi.

Galilée, père fondateur de la physique

Avançons de presque deux mille ans. Pourquoi aller si vite et passer ainsi deux mille ans de sciences ? Chacun est libre de son opinion. Je crois tout de même que le dogmatisme des églises y est pour quelque chose. Les ennuis de Galilée avec les églises sont célèbres même si l'issue en est moins dramatique que pour Giordano Bruno.

Nous sommes au XVIème siècle et Galilée écrit cette phrase célébrissime :

« La philosophie est écrite dans ce grand livre qui se tient constamment ouvert devant les yeux, je veux dire l'Univers. Mais elle ne peut se saisir si tout d'abord on ne se saisit point de la langue et si on ignore les caractères dans laquelle elle est écrite. Cette philosophie, elle est écrite en langue mathématique. Ses caractères sont des triangles, des cercles et autres figures géométriques, sans le moyen desquelles il est impossible de saisir humainement quelque parole, et sans lesquelles on ne fait qu'erre vainement dans un labyrinthe obscur. »

C'est un texte remarquable, toujours aussi pertinent de nos jours.

Newton et le calcul différentiel

La méthode de Newton est une des méthodes d'interaction de la physique et des mathématiques. Newton comprend la loi de la dynamique - la célèbre loi de Newton - qui dit que la force est égale à la masse qui multiplie l'accélération. Et à partir de ce moment-là on rentre déjà dans un paysage assez abstrait, assez difficile mathématiquement car l'accélération c'est la variation de la vitesse, la vitesse étant elle-même la variation de la position. La force, elle, est donnée en fonction de la position. On se trouve en présence d'un problème mathématique où la deuxième variation - que les mathématiciens appellent la « dérivée seconde » - de la position est donnée en fonction de la position. Pour arriver à résoudre cela, Newton invente le calcul différentiel et intégral. Et ayant compris que la force d'attraction gravitationnelle est inversement proportionnelle au carré de la distance, Newton retrouve les lois sur le mouvement des planètes que Kepler avait établies par l'observation.

La déduction des lois de Kepler est bien un théorème de mathématiques, et ces mathématiques ne sont ni très simples, ni intuitives. En d'autres termes, il faut distinguer, dans les problèmes, ce qui est mathématique et ce qui est physique. Ce qui est physique, c'est pourquoi la force est la masse multipliée par l'accélération (Descartes croyait que c'était la masse fois la vitesse), c'est comprendre pourquoi la force d'attraction est inversement proportionnelle au carré de la distance entre deux corps massifs, et pas au cube ou à la puissance 2,1. En revanche, admettant ces deux hypothèses, démontrer les lois de Kepler ce sont réellement des mathématiques. Et c'est ce que Newton a fait. C'était un très grand scientifique.

Fourier et la chaleur

Un autre exemple très extraordinaire des croisements entre physique et mathématiques vient avec Joseph Fourier au XIXème siècle. Dans un article sur la théorie analytique de la chaleur dans les Comptes Rendus de l'Académie des Sciences en 1822, Fourier s'interroge : lorsque l'on a deux corps en contact, l'un étant plus chaud que l'autre, comment écrire le flux de chaleur du corps chaud vers le corps froid ? Il construit sa théorie et il aboutit à une équation aux dérivées partielles qu'il faut résoudre. Et dans cet article où il introduit la notion de flux de chaleur, Fourier introduit aussi ce qu'on appelle dans le monde entier la transformation de Fourier. C'est l'un des instruments les plus puissants des mathématiques et de la physique.

Avec Newton et Fourier ce sont donc des problèmes de physique bien posés qui ont conduit à développer des outils mathématiques nouveaux, voire révolutionnaires. Mais, comme on va le voir, cela ne se passe pas toujours ainsi.

Gauss l'universel

Il faut aussi mentionner Gauss, mathématicien éminent, surnommé souvent le « Prince des mathématiques ». La physique lui doit un traité de mécanique céleste, le développement d'un magnétomètre et une des lois de l'électromagnétisme porte son nom. Ainsi, à cette époque, un esprit universel comme Gauss s'intéresse aussi bien aux deux disciplines.

La physique au XXème siècle

Mais si l'on se rapproche de la période contemporaine, il est frappant que la physique du XXème siècle a souvent fait appel à des mathématiques qui avaient été développées antérieurement, pour leur seule beauté et richesse intrinsèques. Cette beauté des mathématiques, leur logique interne, conduit les mathématiciens dans leurs recherches. Deux exemples où les mathématiques nécessaires à la physique lont précédée sont fournis par la relativité générale et la mécanique quantique.

La relativité générale d'Einstein

Le travail de Bernhard Riemann, grand mathématicien mort hélas jeune, précède celui d'Einstein sur la relativité générale, Il a eu l'idée de définir la géométrie de l'espace par une métrique, c'est-à-dire par lexpression de la distance entre deux points voisins. Ceci permet de définir toutes sortes de géométries. Des géométries simples, comme la géométrie euclidienne, mais également bien d'autres. C'est un outil considérable et cest exactement celui dont a besoin Einstein. Il comprend que la présence de matière change la géométrie de l'espace-temps et qu'en retour cette géométrie détermine les trajectoires des objets massifs et de la lumière. Ce sont les masses qui déforment la géométrie, et la géométrie déformée définit les trajectoires de tous les objets célestes. Cette théorie s'appelle la relativité générale. Einstein va passer beaucoup de temps, avec son ami Besso, pour comprendre les travaux de Riemann afin de s'en servir dans sa théorie.

La mécanique quantique

Heisenberg et les matrices

La mécanique quantique a deux sources indépendantes. L'une a été développée par Werner Heisenberg qui comprit que la mesure d'une quantité physique modifiait inéluctablement l'état d'un système. Si on mesure une des ses propriétés, inéluctablement on modifie létat du système. Heisenberg montre que si on mesure d'abord la position puis la vitesse d'un corps en mouvement, ou bien si lon mesure d'abord sa vitesse puis sa position, on ne trouve pas les mêmes résultats. Les résultats des mesures dépendent donc de l'ordre dans lequel on les fait. C'est une structure mathématique compliquée et Heisenberg ne sait pas très bien comment aborder cette question. Mais il était bon mathématicien et il connaissait des travaux du XIXème siècle qui avaient défini ce qu'on appelle des matrices, c'est-à-dire des objets qui décrivent des opérations sur un espace. Si on veut décrire par exemple les rotations d'un dé, selon qu'on le fait tourner d'abord autour de l'axe vertical puis autour d'un axe horizontal ou bien que l'on choisisse l'ordre inverse, le dé n'est pas dans la même position. Tous ceux qui ont un jour joué avec un Rubik's cube savent bien que les rotations ne commutent pas entre elles mais dépendent de l'ordre dans lequel on les fait. Heisenberg utilise là des mathématiques préexistantes, qui avaient été développées abstraitement, mais dont il se rend compte qu'elles sont indispensables à sa description de la mesure.

De Broglie, Schrödinger et les fonctions d'onde

L'autre source de la mécanique quantique est due à de Broglie et à Schrödinger. Ce dernier comprend profondément ce que disait de Broglie, de la dualité onde-particule. Erwin Schrödinger, Autrichien, qui avait fuit le nazisme pour aller à Dublin, (contrairement à Heisenberg qui a travaillé sur la bombe allemande, heureusement sans succès) comprend que si une particule est en même temps une onde, sa propagation doit être décrite par une équation d'onde qui décrit les variations spatiales et temporelles de cette onde. Il comprend quelle est cette équation, mais le formalisme devient extrêmement abstrait : l'état d'un système physique est un vecteur d'un espace abstrait, qu'avait introduit au début du XXème siècle le grand mathématicien David Hilbert, espace infini, avec une structure complexe[1]. On voit que, chacune des deux sources de la mécanique quantique (qui se révèleront in fine équivalentes) on fait appel à des mathématiques abstraites, inventées en suivant la logique propre des mathématiques et qui néanmoins sont indispensables pour décrire la physique.

La déraisonnable efficacité des mathématiques

Ceci conduit un physicien, Eugène Wigner, prix Nobel pour ses travaux de physique nucléaire, qui a beaucoup contribué à la physique théorique du XXème siècle, à écrire un article en 1960 intitulé « de la déraisonnable efficacité des mathématiques dans les sciences de la Nature ». C'est en gros une rationalisation de ce que je viens de dire. Wigner s'émerveille de voir que des structures qui paraissaient complètement éthérées, sans rapport initial avec le monde actuel, bien quelles ne soient pas issues d'une réflexion sur le monde ou la Nature, se trouvent néanmoins avoir leur place, et ô combien, dans la description du monde.

La complexité croissante des mathématiques

Le dernier portrait que je vais évoquer est celui d'un des grands héros de la physique théorique du XXème siècle Richard Feynman. Lors d'une conférence publique il déclara :

« Chacune de nos lois s'énonce sous forme mathématique et en des termes souvent complexes et abstraits. La loi de gravitation telle que Newton l'énonça n'utilise que des mathématiques assez simples mais au fur et à mesure que nous avançons, les énoncés deviennent de plus en plus complexes. Pourquoi ? Je n'en ai pas la moindre idée. Le drame de cette conférence c'est justement que je dois vous faire comprendre qu'on ne peut sérieusement expliquer la beauté des lois de la Nature et surtout de la faire ressentir à des gens qui n'ont aucune connaissance profonde des mathématiques. »

La période contemporaine

La période contemporaine est caractérisée par des interactions constantes entre physique et mathématiques, dans beaucoup de directions différentes dont voici, sans soucis d'exhaustivité, quelques exemples.

Les systèmes dynamiques et le chaos

L'étude des systèmes dynamiques doit beaucoup à Henri Poincaré, mathématicien français né à Nancy à la fin du XIXème siècle et qui a travaillé au début du XXème, grand mathématicien et grand physicien également. Un système dynamique est un système dont on veut suivre l'évolution temporelle régie par des équations d'évolution parfaitement définies et déterministes. Il n'y a aucun hasard dans un système dynamique, tout y est bien connu. Comme le mouvement des planètes dont les équations sont connues, des molécules d'un fluide, de l'atmosphère... La figure 2 montre l'évolution d'un système dynamique en deux dimensions pendant un petit intervalle de temps. Le point de coordonnées (x,y) est transformé par la formule en le point (x',y'). Pour avoir l'évolution temporelle du système, on applique la formule, toujours la même, un grand nombre de fois et on suit la trajectoire du point à chaque étape.

figure 2


C'est un système dynamique des plus simples mais les trajectoires sont déjà très complexes et on voit apparaître ce qu'on appelle des attracteurs étranges. La mécanique des fluides est un exemple de domaine où la complexité des comportements possibles est très grande.

Poincaré fut sans doute le premier à poser la question de la stabilité du système solaire. Le système solaire, même réduit à la Terre, à la Lune et au Soleil, est un système compliqué. Pendant longtemps on a cru que les comportements complexes, comme la turbulence d'un fluide, étaient dus à la complexité du système, à cause du très grand nombre de molécules constituantes. Mais l'étude de petits modèles apparemment simples comme celui qu'avait introduits Édouard Lorenz, un météorologue, ou Hénon un astrophysicien niçois, montra la complexité que l'on pouvait atteindre dans de très petits systèmes. En 1971 les physiciens-mathématiciens Ruelle (qui travaille toujours à Bures-sur-Yvette) et Takens démontraient que de très petits systèmes étaient presque toujours chaotiques sauf si on choisit un système très approprié. Le terme « chaos » désigne la sensibilité extrême aux conditions initiales. Cette sensibilité fait diverger les trajectoires de deux points, initialement très proches. On l'appelle souvent l'effet papillon.

Un astrophysicien de l'Université de Paris VII, Jacques Laskar, spécialiste des mouvements planétaires, a étudié les mouvements du système solaire en utilisant des méthodes nouvelles faisant appel à la puissance des moyens de calcul contemporains. Voici ses commentaires :

« Cette méthode a permis de démontrer que le mouvement des planètes et en particulier les planètes inférieures, Mercure, Vénus, la Terre et Mars avaient un temps caractéristique de l'ordre de cinq millions d'années. Cela signifie que si l'on a deux solutions initialement proches, leurs trajectoires vont s'éloigner non pas linéairement mais de façon exponentielle. Ainsi, si l'on a une incertitude de quinze mètres sur la position actuelle de la Terre, au bout de dix millions d'années nous aurons une erreur de cent cinquante mètres, en soit cette valeur est dérisoire, l'éphéméride ne pourrait prétendre avoir une telle précision. Mais si on prolonge les calculs sur cent millions d'années on aura une incertitude de cent cinquante millions de kilomètres, c'est la dimension du système solaire. Ce qui signifie que nous ne pourrons absolument plus situer au bout de cent millions d'années, la position de la Terre dans le système solaire. Nous sommes dans l'impossibilité de calculer cette position aujourd'hui, mais nous le serons également dans mille ans ou dans un million d'années. Ce n'est pas une question de limitation de nos connaissances ou de nos calculs. Quinze mètres représentent en fait la perturbation engendrée par le passage d'un astéroïde. Si nous désirons garder une telle précision à long terme il faudrait inclure dans notre modèle tous les objets engendrant des perturbations de l'ordre de quinze mètres, autant dire des centaines de milliers de corps qui peuplent le système solaire, astéroïdes, comètes, satellites gardiens et fragments de toutes sortes. Si l'on veut aller encore plus loin passer d'une précision de quinze mètres à quinze microns, au lieu d'avoir une erreur de cinquante millions de kilomètres au bout de cent millions d'années, on aura cent cinquante millions de kilomètres au bout de cent soixante millions d'années. Cela n'aura pas changé grand-chose. Et nous avons donc vraiment une limite pratique aux capacités à prévoir l'avenir des mouvements du système solaire. »

Voilà une chose que l'on ne savait pas au temps de Poincaré et que la mécanique céleste a récemment permis de comprendre.

La physique statistique

Un autre grand domaine de fertilisation, croisé entre mathématiques et physique est la physique statistique. Depuis la fin du XIXème siècle et les travaux de Maxwell, de Boltzmann, inventeurs de cette science, on sait qu'il est illusoire, voire inutile, pour décrire la matière, d'en suivre tous les degrés de liberté. Si on considère un morceau de métal, par exemple, on sintéresse à savoir s'il est conducteur ou isolant, si sa température augmente vite ou lentement lorsqu'on le chauffe, pourquoi il est noir ou rouge... On n'a pas besoin de savoir, contrairement au problème des trajectoires des planètes, quelle est la position des milliards de milliards de molécules qui le constituent. Dailleurs à supposer que l'on puisse le faire - ce qui n'est pas le cas - il serait bien difficile dy lire la réponse aux questions que nous posions.

Une méthode probabiliste

La méthode « ordinaire », celle que lon met en Suvre pour les systèmes planétaires, est donc inopérante pour la description de la matière. La méthode qui a permis, grâce à Maxwell et Boltzmann et bien d'autres à leur suite, de comprendre la matière, est une méthode a priori paradoxale : c'est une méthode statistique qui utilise des concepts probabilistes, cest-à-dire modélisent le hasard. Si lon joue à la roulette une seule fois, le fait de savoir qu'il y a trente-six résultats possibles ne fournit aucune aide pour gagner. Mais le propriétaire du casino, qui enregistre des milliers de paris, peut utiliser des outils statistiques, telle la loi des grands nombres, pour prédire avec une certitude quasi-complète non pas un résultat ponctuel, mais ce que sera l'ensemble des résultats. C'est là le miracle de la physique statistique qui utilise le gigantisme du nombre datomes, pour utiliser le hasard et néanmoins prédire de manière en pratique certaine.

L'énergie et le désordre

La mécanique statistique, c'est donc l'utilisation des probabilités pour relier la matière macroscopique à ses atomes. Il y a des cas singuliers où la matière change complètement d'état, par exemple l'eau qui devient vapeur lorsqu'on la chauffe, ou qui gèle si on la refroidit. Dans ce dernier exemple, le refroidissement ne change rien aux molécules d'eau individuelles, il ne change pas non plus l'interaction entre les molécules d'eau qui est complètement indépendante de la température. La notion de température bien que familière, est en réalité assez subtile : la température pour les physiciens, c'est le paramètre qui arbitre entre deux tendances opposées de la matière : au zéro absolu tout système se range dans létat bien ordonné dont l'énergie est la plus basse possible, mais lorsque la température augmente le désordre (ou entropie) contrarie cette tendance à la régularité et finit par lemporter. Quand de l'eau juste au-dessus de zéro degré Celsius passe juste en dessous de cette température, des milliards de molécules d'eau, complètement désordonnées dans le liquide, s'ordonnent spontanément. Elles forment un réseau cristallin, invisible mais bien réel. Ces comportements singuliers, les transitions de phase, ont longtemps posé problème et il y a eu au cours des dernières années de nombreux échanges entre mathématiques et physique à ce sujet.

Illustration : le modèle d'Ising

Pour illustrer ces phénomènes de transition, il existe un modèle décole, un prototype qui se révèle en fait très universel dans sa portée, appelé le modèle d'Ising. On le représente sous forme d'un damier de carrés pouvant être dans un état blanc ou noir. L'énergie de deux carrés voisins est grande lorsqu'ils sont de couleurs différentes et faible lorsqu'ils sont de même couleur. Diminuer l'énergie revient ainsi à uniformiser la couleur du damier ; le désordre se traduit par un mélange aléatoire des deux couleurs. Selon la température la minimisation de lénergie qui ordonne les carrés, ou lentropie qui les distribue au hasard vont dominer. À haute température le système évolue rapidement, les carrés changent fréquemment de couleur, mais les couleurs restent mélangées : c'est le désordre qui l'emporte. En revanche à basse température, le système évolue plus lentement, de grandes régions de même couleur apparaissent et si on attend assez longtemps, une couleur va dominer très largement l'autre : c'est l'énergie qui l'emporte. La transition de phase a lieu à la température où énergie et désordre s'équilibrent ( Cf. figure 3).

figure 3

Chaque carré peut être rouge ou bleu. Deux carrés voisins de même couleur « sattirent ».

Ce modèle paraît très simple, mais le résoudre a été un tour de force technique d'un grand physicien-mathématicien qui s'appelait Lars Onsager. Cela a été aussi l'ouverture vers une interaction entre physique et mathématiques qui s'appelle la théorie des systèmes intégrables et qui est très active aujourd'hui.

Autres domaines contemporains

Un dernier exemple de systèmes qui appartient à la même nature de question sont les systèmes auto-similaires, qu'on appelle aussi systèmes fractals. Ce système ( Cf. figure 4) est simple, il est auto-similaire c'est-à-dire que l'on retrouve les mêmes structures à toutes les échelles vers l'infiniment petit. Les propriétés de celui qui est ici montré (la diffusion limitée par lagrégation) ne sont pas encore comprises aujourd'hui malgré beaucoup d'années d'efforts de mathématiciens aussi bien que de physiciens. Ceci constitue un exemple de problème, lié à des phénomènes de croissance cristalline et de systèmes en évolution, que l'on se pose aujourd'hui.

figure 4

Les interactions fondamentales

Venons-en maintenant aux quatre interactions fondamentales l'électromagnétisme, les forces nucléaires faibles ou fortes et les forces gravitationnelles. Tous les phénomènes de la Nature sont régis par ces interactions, on n'a encore jamais vu de contre-exemple.

L'électromagnétisme

L'électromagnétisme illustre bien l'état de nos connaissances et les questions qui se posent à l'interaction entre physique et mathématiques. Il faudra pour cela quelques formules dont le sens n'est pas important, mais qui permettent de cerner la problématique. Concentrons-nous sur un problème particulier celui du facteur gyromagnétique de l'électron. L'électron est une petite particule constitutive des atomes, chargée négativement. Un atome est constitué d'électrons et d'un tout petit noyau au centre. On sait grâce à la mécanique quantique, depuis les années 1920, que l'électron possède une caractéristique nommée spin (une sorte de flèche interne). Ce spin donne à un électron, comme à un aimant, un moment magnétique (c'est-à-dire un pôle nord et un pôle sud), et ce moment magnétique µ est proportionnel au spin S :

µ = g (e/2m) S

Ici apparaissent la charge e et la masse m de l'électron. Si l'électron était un objet classique (en omettant relativité et mécanique quantique), le nombre g vaudrait exactement 1. Les expériences donnent g=2,0023193043737. (C'est une des mesures expérimentales les plus précises ayant jamais été faites avec douze chiffres significatifs.) Que dit la théorie pour ce facteur g ? La théorie quantique non relativiste donne g=1, erreur de 100 %. Dirac, physicien anglais des années 1920-1930, a développé une théorie relativiste de l'électron en 1928 et il a trouvé g=2, ce qui est presque exact. Mais les physiciens se demandaient si on peut faire mieux et comprendre la petite différence entre g et 2. La réponse est oui. La technique employée s'appelle la théorie quantique des champs, plus précisément lélectrodynamique quantique. Dans la théorie de Dirac, l'électron obéit à la mécanique quantique, mais le champ électromagnétique dans lequel est plongé l'électron, lui, est classique. Or il possède lui aussi des fluctuations quantiques. La théorie qui a été développée procède par approximations successives en se servant d'un nombre qu'on appelle la constante de structure fine et qui est vaut

alpha=e²/(2 pi h c)

(e est la charge de l'électron, c la vitesse de la lumière h la constante de Planck) soit environ 0,007. Partons de la valeur de Dirac g=2. La première approximation rajoute 0,007 divisé par pi. Un grand physicien, Schwinger, a été récompensé par le prix Nobel pour ce calcul. Il a partagé ce prix avec Feynman et Tomonaga pour avoir montré que ce calcul pouvait se poursuivre de manière systématique, même si les calculs sont longs et difficiles. Quand on inclut cette première correction au résultat de Dirac, on n'est plus très loin de l'expérience ; au fur et à mesure que l'on calcule les autres termes on se rapproche du résultat expérimental. L'accord entre théorie et expérience est confondant. C'est le plus grand accord jamais observé entre une théorie et une expérience.

Les chiffres 0,656 et 2,362 sont les valeurs numériques d'expressions très compliquées où intervient la fonction zeta de Riemann :

C'est pire encore pour le suivant qui a été calculé en 1996. En conclusion, cette théorie est d'une grande complexité mathématique, mais elle marche merveilleusement.

La renormalisation et ses limites

Malgré tout, de nombreuses questions se sont vite posées sur la validité du procédé d'approximations successives que jai décrit. Ce procédé part d'un résultat approché, puis on ajoute une première perturbation puis une perturbation encore plus petite. Mais finalement le résultat est satisfaisant.

Valse des paramètres

Cette méthode par approximations successives a posé des questions, difficiles et abstraites, de deux ordres. La méthode, qui a fait le succès de ce calcul, repose sur un concept qui porte le nom de « renormalisation ». Dans la théorie telle qu'ils l'avaient développée, Feynman, Schwinger et dautres ont rencontré des objets mathématiques dépourvus de toute signification : des intégrales divergentes, des objets totalement infinis ; pour régler ce problème ils ont introduit arbitrairement une toute petite longueur en-deçà de laquelle on sinterdit de pénétrer. Les quantités physiquement mesurables, comme par exemple la charge de l'électron ou sa masse, ne sont alors plus égales à celles introduites dans le modèle initial, mais sont remplacés par les paramètres que l'on mesure physiquement. On montre alors que lon peut saffranchir de lintroduction de la petite longueur initiale. C'est-à-dire qu'a priori l'électromagnétisme est capable de décrire les phénomènes astronomiques jusqu'aux plus courtes distances et on n'a pas besoin de longueur fondamentale. Ce processus magnifique, que certains continuent de regarder comme un tour de passe-passe génial, est à l'origine du prix Nobel de Feynman, Schwinger et Tomonaga.

Les approximations successives

On s'est aussi inquiété du schéma d'approximations successives, en se demandant s'il était bien défini ou en d'autres termes si lorsque l'on poursuit et que lon inclut successivement les termes suivants,, les valeurs obtenues sont toujours plus précises. Les mathématiciens diraient alors qu'un tel processus est convergent. Cette question a longtemps été discutée, mais un physicien anglais (travaillant aux Etats-Unis), Freeman Dyson, a donné des arguments qui montraient que la précision était vraisemblablement limitée et que si on continuait à calculer la série, les termes que l'on allait ajouter n'amélioreraient pas le résultat et finiraient même par le détériorer complètement. Cela n'a aucune influence pratique car quelques termes suffisent amplement, mais cela a posé une question conceptuelle. Le succès de cette méthode repose réalité sur le fait naturel que ce nombre alpha est petit. Pour des raisons, qui pour linstant nont pas reçu dexplication, on constate quil vaut 0,007297... S'il valait 0,1 ou 1 le processus employé ne marcherait pas.

La limite de l'électromagnétisme

Ce caractère a priori non contrôlé a poussé plusieurs mathématiciens à chercher une autre approche pour s'affranchir de ce processus d'approximations successives. Ils ont donc tenté de transformer cette description de l'électromagnétisme quantique en un théorème. C'est-à-dire montrer, avant même de calculer, que cette théorie était apte à décrire tous les phénomènes électromagnétiques depuis les plus grandes distances jusqu'aux plus petites, celles que l'on explore aujourd'hui avec les microscopes les plus puissants : les accélérateurs de particules (comme ceux du CERN) dont la résolution atteint quelques milliardièmes de milliardièmes de mètre (10^(-18) m).

La question posée était celle-ci : est-ce que la renormalisation est une construction ad hoc limitée ou est-elle un théorème[2] - au sens des mathématiques ? La physique a donné une réponse très paradoxale, tout à fait surprenante a priori et qui ne s'est imposée qu'après beaucoup de résistances. Jusqu'à présent les constructions que nous avons connues partaient de la physique à notre échelle pour descendre par approximations successives vers l'élémentaire. On avait ainsi la matière, puis ses molécules, les atomes, les noyaux et enfin les quarks. Mais le succès de cette électrodynamique venait de l'hypothèse que l'on pouvait descendre dans l'infiniment petit sans limite. Or quand bien même on ne sait pas distinguer expérimentalement des distances plus petites que 10^(-18) m, le milliardième de milliardième de mètre, Planck avait compris au début du XXème siècle qu'il existe une limitation à cette description : à des distances inférieures à 10^(-35) m (0,00000000000000000000000000000001 m) c'est-à-dire environ cent milliards de milliards (10^20) fois plus petite que le noyau d'un atome, il y a une longueur en dessous de laquelle la physique reste inconnue à cause de notre incapacité actuelle à réconcilier les deux percées majeures du XXème siècle : la mécanique quantique et la relativité.

Une théorie effective

Cette limitation à très courte distance a conduit à inverser le schéma de pensée et à rejeter l'idée d'aller toujours vers le plus petit. Mais alors peut-on, à partir d'une physique inconnue à très courte distance, comprendre ce qui se passe aux échelles plus grandes ? Et la réponse est venue du groupe de renormalisation, une approche qui a montré deux choses surprenantes l'une comme l'autre.

Quelle que soit la physique à courte distance - qui est inconnue, c'est la théorie de l'électromagnétisme telle que nous la connaissons qui s'applique. Elle est donc valable non pas parce qu'elle n'a pas de limitation vers l'infiniment petit comme on le croyait auparavant, mais précisément parce qu'elle est engendrée aux échelles de nos expériences qui sont grandes au regard des échelles inconnues. On dit alors que la théorie est effective.

On sait aujourd'hui qu'aux distances les plus courtes elle ne serait pas cohérente aussi petite que soit la valeur de alpha. L'électromagnétisme est donc une théorie effective, satisfaisante, mais qui porte sa propre mort. La situation est une peu différente des situations qui se sont présentées auparavant en physique. La théorie de Newton n'est pas fausse, mais elle est limitée : lorsque les vitesses se rapprochent de celle de la lumière ou lorsque les phénomènes en jeu sont des phénomènes de petites distances où il y a des effets quantiques et la théorie de Newton ne s'applique pas. Ce n'est pas pour cela qu'elle est fausse ; elle n'a pas de contradiction interne. La théorie de la relativité, qui signerait la limite fatale pour la théorie de Newton, n'est pas contenue dans cette dernière. La théorie de l'électromagnétisme ne s'applique pas au delà d'une limite connue et ce qu'il y a au-delà est inconnu.

Les forces nucléaires

Face à tout cela, au cours de la période contemporaine on a cherché à reproduire le succès de l'électromagnétisme, et cela a fonctionné pour en physique nucléaire pour les interactions nucléaires faibles et fortes. Avec l'électromagnétisme elles constituent ce qui est appelé le modèle standard, qui donne de très bons résultats mais qui comme l'électromagnétisme est une théorie effective. Il faut donc en venir à la dernière force, la gravitation.

Le cas particulier de la gravitation

À l'échelle classique, non quantique, la gravitation s'applique aux phénomènes astronomiques. Sa version moderne, la théorie de la relativité générale d'Einstein a été très importante. Elle a donné le jour à la cosmologie et à un Univers avec une histoire, car avant Einstein on pensait que l'Univers était immuable, on sait maintenant qu'il évolue.

La gravitation est une force extrêmement ténue. Nous la ressentons lorsquelle met en jeu des masses astronomiques. Cest ainsi quun électron et un proton s'attirent parce qu'ils ont des charges opposées et aussi parce qu'ils ont des masses. Le rapport de la force d'attraction due aux masses, l'attraction gravitationnelle, à la force d'attraction due aux charges est 10^(-40). La gravitation est 10^(40) fois plus petite. Elle est donc extraordinairement faible. Néanmoins nous savons que la gravitation met en jeu, aux très courtes distances, des phénomènes quantiques et leur prise en compte ne semble pas pouvoir résulter dune théorie quantique des champs, comme cest le cas pour les trois autres interactions.

La théorie des cordes

Un autre modèle s'est fait jour, appelé la théorie des cordes. Dans cette théorie l'espace est décrit non plus par des points mais par de petites cordes qui vibrent et dont toutes nos particules ne seraient que des états d'excitation. Elle est apte a priori à décrire toutes les interactions connues, mais il faut avouer quelle n'a pour l'instant permis de prédire aucun phénomène observable. Beaucoup de physiciens dans le monde y travaillent parce que cela leur semble être la seule porte ouverte face à léchec de la théorie des champs.

Imaginons que cette théorie fonctionne, quelles en seraient les conséquences ? Les calculs seraient peut-être difficiles comme ceux déjà évoqués, mais néanmoins toutes les forces de la Nature seraient connues. Est-ce qu'un jour notre description de la nature sera comme un théorème ? Est-ce que la physique sera devenue un théorème ?

Ces questions n'ont rien de scientifique aujourd'hui. Certains pensent queffectivement, cette théorie, baptisée « théorie du tout » achèvera notre description du monde comme le ferait un théorème. Il ne resterait alors que des difficultés dus à la complexité des calculs. D'autres pensent que lorsque cela sera compris il y aura encore de nouvelles questions que nous sommes tout à fait incapables de formuler aujourdhui, et que ce questionnement ne s'arrêtera jamais.

Une des questions fondamentales posée aux théoriciens des cordes porte sur le nombre alpha=0,007... Ce nombre est important parce qu'il détermine la taille des atomes, la façon d'être de notre monde. C'est un nombre absolument essentiel pour notre monde. A-t-il cette valeur pour des raisons accidentelles ? Pourrait-il en avoir d'autres ? N'existe-t-il qu'une seule solution aux équations que contemplent aujourd'hui les théoriciens ou alors des Univers de toutes natures sont-ils possibles ? Nous serions dans notre Univers tel quil est pour des raisons « accidentelles ». Sont-elles réellement accidentelles ou manquerait-il un principe ? Voilà des questions qui sont d'allure philosophique mais qui sont posées réellement aux théoriciens d'aujourd'hui et vous voyez là comment les interrogations des mathématiques et de la physique se rejoignent. Jamais l'interaction entre mathématiques et physique n'a été aussi riche et aussi stimulante qu'en ces questions que je viens d'évoquer.

[1] Complexe signifie ici que la structure fait intervenir les nombres complexes des mathématiciens pour lequel il faut introduire un nombre qui serait la racine carrée de -1 et qui généralise la notion de nombre
[2] Un théorème est une assertion toujours vraie lorsque les hypothèses le sont.

 

 VIDEO     canal U       LIEN  

SOCRATE

Il y a 23 jours

Socrate


Philosophe grec (Alôpekê, Attique, 470-Athènes 399 avant J.-C.).
Homme de la parole philosophique en cette époque du « siècle de Périclès » féconde entre toutes pour l’histoire de la pensée en Occident, Socrate fit de l’intelligence l’instrument d’une quête méthodique de la vérité. Son enseignement, propagé par les dialogues de Platon, fut si déterminant que la vie de l’esprit en fut à jamais transformée.
1. La vie de Socrate : le maître de l'agora
Né dans un milieu modeste, Socrate a pour père Sophronisque, un simple sculpteur, et pour mère Phainarète, qui exerce la profession de sage-femme. Voué lui-même au métier de sculpteur, il l’abandonne pour se consacrer à la philosophie. Sa vie consiste alors à discuter avec ses concitoyens, en déambulant où que ce soit dans Athènes, mais de préférence sur l’agora (centre religieux, politique et commercial de la ville grecque antique).

De la vie de Socrate peu de choses nous sont parvenues. On sait qu’il a eu trois enfants (Lamproclès, Sophonisque et Ménéxène) d’un ou de trois mariages. On sait aussi qu’il n’est sorti que quatre fois d’Athènes : en 432-429 avant J.-C. pour la bataille de Potidée, en 424 pour la bataille de Délium, en 422 pour l'expédition d'Amphipolis et à une date incertaine pour aller consulter l'oracle de Delphes.

Un curieux professeur
À une époque où fleurissent les « maîtres de savoir » professionnels, il ne se prétend pas fondateur d’école et, s’il a des disciples, jeunes gens fortunés – Platon, Alcibiade, Xénophon – ou simples artisans, c’est qu’ils viennent spontanément s’entretenir avec lui. Il n'écrit rien mais il le dit lui-même : « Si on me pose des questions, j’y réponds ; si on préfère que j’en pose, je m’exécute. »
À la différence des sophistes, professeurs itinérants, Socrate ne fait pas payer ses leçons. Il a la réputation de vivre dans la pauvreté. Mais, pendant la guerre du Péloponnèse, il sert comme hoplite (fantassin lourdement armé), ce qui sous-entend qu’il dispose d’un minimum de bien. À la guerre, il fait preuve de sa valeur mais aussi de son endurance. Alcibiade en témoigne : « Il ne ressemble à aucun homme, ni des temps anciens, ni des temps actuels. » Il peut aussi, de l’aube d’un jour à l’aube du jour suivant, rester « planté comme une souche » afin de trouver la solution au problème qu’il se pose.

Alcibiade, l'élève préféré de Socrate


Pupille de Périclès, Alcibiade faisait partie de la jeunesse dorée d’Athènes qui n’avait que vénération pour Socrate – un homme aux traits disgracieux (d’un avis unanime) mais à l’esprit supérieur. Durant la guerre du Péloponnèse, il fut deux fois son compagnon d’armes, lors de la bataille de Potidée, où Socrate lui sauva la vie, puis lors de la bataille de Délium, où c’est lui qui se porta au secours de Socrate.
Pour Socrate comme pour Platon, qui fit d’Alcibiade l’un des protagonistes du Banquet et le héros de tout un dialogue (Alcibiade, sous-titré De la nature de l’homme), le jeune aristocrate incarnait l’idéal grec du kalos kagathos, selon lequel la beauté du corps était le reflet de la noblesse de l’âme. Hélas ! L’arriviste qui sommeillait en lui précipita la ruine d’Athènes en provoquant l’expédition de Sicile de 415 avant J.-C., devenant ainsi, selon le mot de Jacqueline de Romilly, le « beau fossoyeur » de sa patrie.
Socrate vu par ses contemporains
Trois de ses contemporains parlent de Socrate. Aristophane le ridiculise dans les Nuées (423 avant J.-C.). Platon a vingt ans quand il rencontre Socrate. Des huit années qu'il passe auprès de lui, tous les dialogues portent sans doute la trace, mais les premiers sont plus riches en informations (Apologie de Socrate, Criton, le Banquet, Phédon, Théétète). Quant à Xénophon (auteur également d'une Apologie de Socrate), il a fréquenté Socrate à la même époque, mais semble-t-il moins assidûment ; l'intérêt de ses Mémorables s'en ressent. Entre les trois portraits que font ces auteurs, l'accord est loin de régner.

Sans doute le Socrate d'Aristophane est-il plus jeune, mais, pour avoir le même âge, celui de Platon et celui de Xénophon ne se ressemblent pas. Qu'y a-t-il de commun entre le personnage quelconque évoqué par ce dernier et la figure qui, à travers les dialogues de Platon, dominera toute la philosophie ?

2. La philosophie de Socrate
Une attitude : l'ironie
Socrate n’a pas toujours la philosophie facile. Face aux esprits exigeants que sont ses interlocuteurs, il doit batailler dur ; s’il se trouve à court d’argument, il s’en veut et parle d’un « démon intérieur » comme d’un contradicteur qui le rappelle à l’ordre. La plupart du temps, il est vrai, c’est lui qui s’amuse de ceux qui l’approchent (l’« ironie socratique ») et, s’il le faut, qui les malmène en les poussant dans leurs retranchements. L’enjeu, en effet, dépasse leur personne : c’est l’homme en général que Socrate s’efforce de changer en homo philosophicus. Il faut donc que son raisonnement soit sans défaut pour que sa pensée soit la plus universelle possible, et pour que lui-même ne soit pas seulement un grand homme d’Athènes, « mais du monde », comme le dira Montaigne.

« Connais-toi toi-même »
Lors de son voyage à Delphes, Socrate découvre l’injonction inscrite au fronton du temple d’Apollon : « Connais-toi toi-même » (gnôthi seauton). Il en fera la maxime de sa vie, tout entière consacrée à révéler aux consciences ce qu’elles sont au fond d’elles-mêmes et à les faire passer du savoir apparent au savoir vrai.
La première chose à savoir sur soi-même est en effet l’état d’ignorance où l’on se trouve : « Je sais que je ne sais rien. » Aussi Socrate, comparant sa « sagesse » à celle d’un autre Athénien, déclare-t-il : « Il y a cette différence que, lui, il croit savoir, quoiqu’il ne sache rien ; et que moi, si je ne sais rien, je ne crois pas non plus savoir. Il me semble donc qu’en cela du moins je suis un peu plus sage – je ne crois pas savoir ce que je ne sais point » (Apologie de Socrate).

Une méthode : la dialectique et la maïeutique
Pour conduire la jeunesse d’Athènes sur la voie du Vrai, du Beau et du Juste, Socrate met en application une méthode qui repose sur l’art du dialogue contradictoire – la dialectique – et, comme le confirmera Aristote, sur l’« art d’accoucher les esprits » – la maïeutique. C’est ainsi qu’au jeune Théétète médusé, il apprend que son âme (son esprit) est « en butte aux douleurs de l’enfantement » au moment d’accoucher de ses opinions sur la nature de la science. Socrate présidera au « travail » de son âme afin que, de question en question, celle-ci donne naissance à l’opinion vraie – la seule qui ait le droit d’exister.
PUBLICITÉ

3. Le procès et la mort de Socrate
Au lendemain du régime des Trente, qui avait mis à bas la démocratie, celle-ci est restaurée par Thrasybule revenu d’exil. À Athènes, cependant, le climat reste tendu. Indifférent aux honneurs et aux compromissions, Socrate irrite. Par surcroît, son admiration pour Sparte, la cité rivale d'Athènes, le rend suspect. Surtout, il est celui qui, ayant toute sa vie pris le parti de la raison, a ébranlé au moins autant les certitudes que les traditions de ses compatriotes.

C’est alors que trois citoyens d’Athènes, le tailleur Anytos flanqué du poète Mélétos et du rhéteur Lycon, accusent Socrate d’« avoir honoré d’autres dieux que ceux de la cité et tenté de corrompre la jeunesse », sous le prétexte qu’il y avait parmi les Trente plusieurs de ses anciens élèves.
Son procès sera celui de la conscience individuelle en butte à l’abus de pouvoir et à la démagogie.
Se chargeant lui-même de sa défense (qu’exposent en détail les deux textes dits Apologie de Socrate) mais se refusant à invoquer la pitié de ses juges, Socrate est condamné à mort par 281 voix contre 278. À ses amis qui le pressent de s’enfuir, il répond qu’il préfère « subir l’injustice plutôt que de la commettre » : il détruirait la cité s’il ne respectait pas son jugement. Alors, il accepte la coupe de ciguë qui va lui ôter la vie. En ce soir de mars 399 avant J.-C., il aura ces derniers mots : « Je tiens d’une noble tradition qu’il faut en quittant la vie se garder de paroles funestes. »
Dans l’histoire de la philosophie, la rupture est faite. Il y aura les « présocratiques » et les « postsocratiques ». La science de l’homme qui commence avec Socrate trouvera en Platon puis en Aristote ses féconds continuateurs. Et, plus de 2000 ans après sa mort, Paul Valéry pourra écrire : « Grand Socrate, adorable laideur, toute-puissante pensée, qui changes le poison en un breuvage d’immortalité »(Eupalinos ou l’Architecte).

 

DOCUMENT   larousse.fr    LIEN

SÉMANTIQUE

il y a un mois

        SÉMANTIQUE, subst. fém. et adj.    I. − Subst. fém.
A. − LINGUISTIQUE
1. Étude d'une langue ou des langues considérées du point de vue de la signification; théorie tentant de rendre compte des structures et des phénomènes de la signification dans une langue ou dans le langage. Sémantique analytique, générative, logique, structurale; sémantique descriptive, interprétative; sémantique comparée, diachronique, historique, synchronique; sémantique lexicale, narrative; sémantique paradigmatique, syntagmatique; sémantique de l'énoncé, de la phrase; rapports entre syntaxe et sémantique. Opposée tantôt au couple phonétique-phonologie, tantôt à la syntaxe (plus particulièrement en logique), la sémantique est une des composantes de la théorie du langage (ou de la grammaire) (Greimas-Courtés1979).V. sémasiologie ex. de Rey:
1. Nous définirons (...) le mot comme l'unité sémantique minima de la parole. (...) La science du mot s'appelle lexicologie. Elle comportera deux subdivisions, selon qu'on s'intéresse au nom ou au sens. L'aspect formel des mots est examiné par la morphologie (...). Les significations lexicales constituent le domaine de la sémantique [it. ds le texte]. S. Ullmann, Précis de sém. fr., Berne, éd. A. Francke, 1952, p. 33.
− P. ext., rare. Étude (et théorie) d'un système de signification quel qu'il soit. Synon. sémiotique.Sémantique linguistique, musicale, cinématographique. Le sous-sol de l'âme, − ce que le meilleur philologue Beethovenien (je pourrais dire: le maître de sémantique Beethovenienne) Heinrich Schenker, a nommé l'« Urlinie », le « Lichtbild des Seelenkernes » (Rolland,Beethoven, t. 1, 1937, p. 23).
2. En partic. [Dans le cadre de la sémiotique classique de Ch.-W. Morris, et p. oppos. aux deux autres composantes de celle-ci, la syntaxe et la pragmatique] Étude générale de la signification des signes conçue comme une relation entre les signes et leurs référents. (Ds Rey Sémiot. 1979).
B. − LOG. [Dans un lang. formalisé, p. oppos. à la syntaxe qui expose l'alphabet utilisé, les règles de construction des expressions bien formées, ainsi que les règles de déduction opérant à partir des axiomes] Ensemble des aspects du système logique relatifs aux notions de satisfaction et de vérité. Les logiciens du cercle de Vienne, et principalement Carnap, en sont venus à considérer la logique d'abord comme une syntaxe générale et ensuite comme complétée par une sémantique (la tendance récente (...) qui atténue singulièrement la rigueur du système, consistant à la compléter encore par une pragmatique) (Traité sociol.,1968, p. 233).Il est bien difficile de fixer le sens d'un mot qui désigne, non pas un objet immuable comme une racine cubique, mais une discipline en plein développement. La frontière même de la sémantique et de la syntaxe est incertaine (VaxLog.1982, p. 139, s.v. syntaxe).
Rem. La sémantique peut traiter aussi des structures qui satisfont aux formules et prend alors le nom de théorie des modèles.
II. − Adjectif
A. − [Corresp. à supra I A 1] LING.
1. Qui est relatif à la sémantique, qui a rapport à la signification d'un mot ou d'une structure linguistique. Changement, évolution sémantique; contenu, trait sémantique; analyse, description sémantique; théorie sémantique. Le sens du signe dans le discours est une représentation dans laquelle se combinent la valeur sémantique en langue, telle qu'elle est définie par la convention, et la valeur de situation qui dérive de l'énoncé (Langage,1968, p. 454):
2. ... il est deux lois sémantiques (...). L'une a trait à l'usure des sens. Elle porte que le mot s'épuise avant l'idée et laisse aisément altérer, s'il ne la perd, − plus l'idée est de soi vive et frappante − sa vertu expressive. (...) La seconde (...) porte que le sens commun, en matière de langage, dispose d'un instinct qui ne le trompe guère; qu'il perçoit exactement (...) les plus menues variations d'un sens; qu'il peut enseigner l'écrivain lui-même, et qu'aux Halles on n'apprend pas seulement à parler, mais à entendre. Paulhan,Fleurs Tarbes,1941, p. 77.
♦ Champ sémantique. Ensemble des mots, des notions se rapportant à un même domaine conceptuel ou psychologique. La méthode d'analyse des champs sémantiques élaborée par l'Allemand J. Trier permet de montrer que l'articulation d'une même région notionnelle peut varier selon les langues ou les états successifs d'une même langue (Ducrot-Tod.1972, p. 176).
− [Dans une gramm. générative]
♦ Composant ou composante sémantique. Composant interprétatif traduisant les suites de morphèmes engendrés par la syntaxe en un métalangage permettant de donner une représentation de la signification des phrases. La composante sémantique d'une grammaire (...) a pour fonction d'interpréter les structures syntaxiques en termes de sens − autrement dit, d'attribuer une signification (ou plusieurs, dans le cas des phrases ambiguës) aux structures engendrées par la syntaxe (et le lexique) (N. Ruwet, Introd. à la gramm. générative,1967, p. 332).
♦ [P. oppos. à asémantique] Phrase sémantique. Phrase qui a un sens, qui est acceptable du point de vue du sens. Une phrase qui n'est pas sémantique est dite asémantique (ReySémiot.1979).
− Empl. subst. masc. [Chez Benveniste, p. oppos. au sémiotique] Mode de signifiance d'un signe engendré par le discours. V. sémiotique II B 2 ex. de Benveniste.
2. [Corresp. à supra I A 2] Qui est relatif, appartient à la signification, à la relation entre les signes et leurs référents. [Morris] distingue (...) entre les dimensions sémantique, syntaxique et pragmatique d'un signe: est sémantique la relation entre les signes et les designata ou les denotata; syntaxique, la relation des signes entre eux; pragmatique, la relation entre les signes et leurs utilisateurs (Ducrot-Tod.1972, p. 117).
B. − LOG. Système sémantique. Synon. de sémantique (supra I B). (Dict. xxes.).
REM. 1.
Séma(nt)-,(Séma-, Sémant-) élém. formanttiré du gr. σ η μ α ν τ- base de certaines formes du verbe σ η μ α ι ́ ν ε ι ν « signifier », entrant dans la constr. de qq. mots, dans le domaine de la ling., et indiquant l'idée de sens, de signification.V. sémantème, sémantique, sémanticien, sémasiologie, sémasiologique (dér. s.v. sémasiologie).
2.
Sémantiquement, adv.Du point de vue de la sémantique, de la signification. De toutes les analyses que j'ai reçues d'« et les fruits passeront la promesse des fleurs », la sienne est de beaucoup la mieux poussée, grammaticalement et sémantiquement (Bremond,Poés. pure,1926, p. 100).
Prononc. et Orth.: [semɑ ̃tik]. Att. ds Ac. 1935. Étymol. et Hist. 1. 1561 (Collange, Polygraphie, 14 r ods Delb. Notes mss: Lesquelles [vingt quatre lettres de l'alphabet] j'ay par bon ordre proposees a autant de dictions et paraphrasmes symentiques qui pourront servir pour toute simple description de tous et de tant de secrets que l'operateur voudra), attest. isolée; 2. 1875 art. milit. « art de mouvoir les troupes à l'aide de signaux » (Lar. 19e) − 1895, Guérin Suppl.; 2. a) 1879 (M. Bréal, Lettre à Angelo de Gubernatis, cité ds Hist. épistémol. lang., t. 3, fasc. 2, p. 128, note 8: Je prépare aussi un livre sur les lois intellectuelles du langage, auquel je travaille depuis des années: ç'est ce qu'on peut appeler la sémantique); b) 1897 adj. rapport sémantique (Thomas (A.) Essais, p. 172). Formé sur le gr. σ η μ α ι ́ ν ω « signifier » (cf. gr. σ η μ α ν τ ι κ ο ́ ς « qui signifie »; cf. chez Aristote φ ω ν η ́ « son, voix » σ η μ α ν τ ι κ η ́); à rapprocher de 2 le sens part. de σ η μ α ι ́ ν ω « faire un signal » d'où « donner un ordre, diriger une armée » et σ η μ α ́ ν τ ω ρ « qui donne le signal ou les ordres, qui commande ». En angl. l'adj. semantic est att. en ling. dès 1894 (v. NED Suppl.2), au sens gén. en 1665 semantick Philosophy (v. NED), et le subst. semantics dès 1893 (v. NED Suppl.2). Fréq. abs. littér.: 27.
DÉR.
Sémantisme, subst. masc.Contenu sémantique; ensemble des valeurs sémantiques dont un mot ou une expression sont investis. (Dict. xxes.). − [semɑ ̃tism̭]. − 1reattest. 1913 (Esnault ds R. Philol. fr. t. 27, p. 187); de sémantique par substitution du suff. -isme à la finale; le mot a été en concurrence avec sématisme (v. Esnault, L'Imagination pop., Métaph. occid., p. 6; cf. angl. sematism 1866 ds NED Suppl.2, s.v. seme) qu'il a supplanté.
BBG. − Baldinger (K.). Vers une sémantique mod. Paris, 1984, 261 p. − Baylon (Ch.), Fabre (P.). La Sémantique. Paris, 1974, 110 p. − Carnoy (A.). La Sc. du mot: traité de sémantique. Louvain, 1927, 428 p. − Charron (G.). La Distinction entre sémantique et axiologie. Mél. Martinet (A.) Paris, 1979, pp. 261-270. − Chomsky (N.). Questions de sémantique. Paris, 1975, 230 p. − Dubois-Charlier (F.), Galmiche (M.). La Sémantique générative. Paris, 1972, 130 p. − Ducháček (O.). Précis de sémantique fr. Brno, 1967, 263 p. − Greimas (A.J.). Sémantique struct. Paris, 1966, 263 p. − Guiraud (P.). La Sémantique. Paris, 1969, 128 p. − Hervey (S.). Axiologie et sémantique en ling. fonctionnelle. Lang. Ling. 1982, t. 8, n o2, pp. 57-70. − Ledent (R.). Comprendre la sémantique. Verviers-Paris, 1974, 224 p. − Le Ny (J.-F.). La Sémantique psychol. Paris, 1979, 257 p. -Lerat (P.). Sémantique descr. Paris, 1983, 128 p. − Lyons (J.). Élém. de sém. Paris, 1978, 296 p. − Martin (R.). Inférence, antonymie et paraphrase. Paris, 1976, 174 p.; Pour une log. du sens. Paris, 1983, 268 p. − Martinet (A.). Sémantique et axiologie. R. roum. ling. 1975, t. 20, pp. 539-542. − Mounin (G.). Clefs pour la sémantique. Paris, 1972, 269 p. − Pottier (B.). Ling. gén. Paris, 1974, 339 p. Vers une sém. mod. Trav. Ling. Litt. Strasbourg. 1964, t. 2, n o1, pp. 107-137. − Probl. de sémantique. Par A. Dugas et collab. Paris, 1973, 254 p. − Quem. DDL t. 24. − Rey (A.). La Sémantique. Lang. fr. 1969, n o4, pp. 3-28; Théor. du signe et du sens... Paris, 1976, 408 p. − Schogt (H. G.). Sémantique synchr. Toronto, 1976, 136 p. − Tutescu (M.). Précis de sémantique fr. Paris, 1975, 214 p. − Ullmann (S.). Esquisse d'une terminol. de la sémantique. In: Congrès Internat. des Linguistes. 6. 1948. Paris, 1949, pp. 368-375; Le mot sémantique. Fr. mod. 1951, t. 19, pp. 201-202; Précis de sémantique fr. Bern, 1965, 3eéd., 352 p. − Wunderli (P.). Sémantique und Sémiologie. Vox rom. 1971, t. 30, n o1, pp. 14-31.

 

 DOCUMENT   cnrtl .fr    LIEN

LA NOTION D'ÉVOLUTION

il y a un mois

Texte de la 429e conférence de l'Université de tous les savoirs, donnée le 7 juillet 2002

Hervé Le Guyader, "La notion d'évolution"

Pour présenter la notion d'évolution, j'ai choisi d'adopter une démarche historique, en singularisant différents points autour de périodes clés.
Premièrement, je présenterai quelques éléments importants des XVIIe et XVIIIe siècles qui permettent d'arriver à la conception d'un individu clé, Lamarck, date clé : 1829, publication de sa Philosophie zoologique. Le deuxième individu important est Darwin, date clé : 1859, publication de l' Origine des espèces. La troisième date clé se situe aux alentours de 1940, quand la Théorie synthétique de l'évolution est développée. Enfin, j'exposerai quelques éléments de l'après guerre, qui, à mon sens, montrent comment tout ce qui gravite autour des théories de l'évolution se met en place.
En introduction, j'attire votre attention sur cette citation d'Ernst Mayr qui compare les biologistes et les physiciens : « Au lieu de créer et de donner des lois comme le font les physiciens, les biologistes interprètent leurs données dans un cadre conceptuel »
Ce cadre conceptuel, c'est la notion d'évolution, qui se construit pas à pas, à force de discussions, controverses, voire même d'altercations, de progrès conceptuels ou expérimentaux.
Actuellement, ce cadre conceptuel devient extrêmement compliqué. Néanmoins, il s'en dégage quelques idées directrices.
I. L'apparition du transformisme
Je vous présente tout d'abord comment l'idée, non pas d'évolution, mais de transformisme, est apparue.
En premier lieu, je tiens à insister sur un point. En histoire, on montre souvent l'apparition de concepts « nouveaux » - sous entendu : avant, il n'existait rien. De plus, on attache souvent l'apparition d'un concept à un individu clé, considéré comme un génie. En réalité, ce génie, cet individu clé, ne représente la plupart du temps que le courant de l'époque, et ne fait « que » cristalliser une idée, qui existe néanmoins chez ses contemporains.
Pour que l'idée du transformisme apparaisse, deux mouvements se sont produits en même temps. La première avancée concerne la réfutation d'idées erronées. Ces idées, tant qu'elles n'étaient pas réfutées, empêchaient l'émergence de la notion de transformisme. Concomitamment, de nouveaux concepts apparaissent.
A. Les obstacles au transformisme
1. La métamorphose
Parmi les concepts erronés, celui de métamorphose est l'un des plus importants. Une planche extraite d'un livre d'Ulisse Aldrovandi (1522 - 1605) (fig.1), édité en 1606, illustre cette idée. Elle représente des crustacés, qui appartiennent à la classe des cirripèdes : des anatifes, crustacés fixés par un pédoncule, et dont le corps est contenu dans une sorte de coquille formée de plaques calcaires.
Cette planche montre comment on concevait le devenir de ces coquillages : selon Aldrovandi, les anatifes peuvent se transformer en canards ! Les cirres devenaient les plumes, le pédoncule, le cou, et la tête du canard correspond à l'endroit de fixation. J'aurais pu vous citer bien d'autres exemples de la sorte... D'ailleurs, ceux qui ont fait du latin reconnaîtront peut-être dans le terme actuel pour désigner une de ces espèces, Lepas anatifera, le terme anatifera qui signifie « qui porte des canards ».
Ainsi, dans les esprits d'alors, les animaux pouvaient se transformer les uns en les autres, un crustacé en canard, parmi une foultitude d'exemples. On concevait également des passages du monde végétal au monde animal... Tout était imaginable !
Dans ces conditions, il était impossible que l'idée d'un processus historique puisse apparaître. Ces exemples de métamorphose sont rencontrés jusqu'au milieu du XVIIIe siècle. Puis chacun des exemples de métamorphose est tour à tour réfuté. La notion-même devient progressivement la notion biologique actuelle - la métamorphose par mues des insectes et le passage têtard-adulte des batraciens.
2. La génération spontanée
La deuxième idée, la notion de génération spontanée, n'est pas caractéristique des XVIIe et XVIIIe siècles. Il faudra attendre Louis Pasteur (1822 - 1895) pour qu'elle soit complètement anéantie. En termes actuels, la notion de génération spontanée consiste en ce que de la « matière inanimée » puisse s'animer et produire des êtres vivants. L'abbé Lazzaro Spallanzani (1729-1799) est un homme clé parmi ceux qui ont démontré que la génération spontanée n'existe pas, du moins au niveau des organismes de grandes tailles : souris, insectes... etc. Cependant, il faudra attendre la controverse de 1862 entre Pasteur et Pouchet pour que cette notion disparaisse également au niveau des microorganismes. Retenons qu'au XVIIIe siècle cette notion ne persistera qu'à l'égard des « animalcules », les petits organismes.
3. L'Echelle des Êtres
La notion d'Echelle des Êtres existe déjà chez Aristote. Cette notion traverse tout le Moyen- Age, puis est remise en valeur par Gottfried Leibniz (1646-1716) et reprise par le biologiste Charles Bonnet (1720-1793).
La planche (fig 2) figure cette conception du monde : au bas de l'échelle, se situent les quatre éléments : feu, air, terre, eau. Des terres, on monte vers les cristaux et les métaux. Ensuite, on progresse vers le corail, les polypes, les champignons, jusqu'aux végétaux, insectes et coquillages. Certaines hiérarchies peuvent paraître étranges : les serpents d'abord, les poissons ensuite. Plus haut encore, les poissons, dominés par les poissons volants, qui conduisent aux oiseaux (!) ; puis des oiseaux, on parvient aux quadrupèdes et, qui se situe au sommet de l'échelle ? Bien naturellement : l'homme.
Ce concept était très ancré avant la Révolution. Un extrait d'un poème d'Ecouchard le Brun (1760) illustre comment les lettrés concevaient les relations entre êtres vivants :
« Tous les corps sont liés dans la chaîne de l'Être.
La nature partout se précède et se suit.
[...]
Dans un ordre constant ses pas développés
Ne s'emportant jamais à des bonds escarpés.
De l'homme aux animaux rapprochant la distance,
Voyez l'homme du Bois lier leur existence.
Du corail incertain, ni plante, ni minéral,
Revenez au Polype, insecte végétal. »

Tout était mêlé, avec une notion de progrès. Cette échelle des Êtres vivants est un concept qu'il a fallu discuter longuement, avant qu'il ne soit réfuté.
Cette notion d'Echelle des Êtres, il faut le souligner, est une notion quasi intuitive que tout individu développe. Il ne faut pas se focaliser sur son aspect historique ou archaïque. Chacun, de façon « naturelle », s'imagine être au sommet d'une Echelle des Êtres et conçoit une hiérarchie qui le lie à des subordonnés.
4. L'échelle de temps
Dernière conception à réfuter, la notion de temps. Avant la Révolution, l'échelle des temps reste une échelle biblique. Différents théologiens anglicans ont longuement calculé le temps qui les séparait de la création du monde, à partir des généalogies bibliques. Ils n'étaient pas tous d'accord, à une centaine d'années près, mais s'accordaient autour de 6 000 ans. Comment une idée d'évolution aurait-elle pu germer dans les esprits avec une marge de temps aussi courte ?
L'un de ceux qui réfutent cette idée, c'est Georges Buffon (1707-1788). Il propose une dizaine de milliers d'années, puis une centaine de milliers d'années. Enfin, dans sa correspondance, il émet l'idée que, peut être, la vie serait apparue il y a plusieurs millions d'années. C'est donc à cette époque que naît l'idée d'un temps long, en lien avec le développement de la géologie de l'époque.
B. Les nouvelles idées
A présent, quelles sont les nouvelles propositions ? Trois notions sont essentielles pour que les concepts de transformisme et d'évolution puissent apparaître.
1. L'unicité de la classification naturelle
Depuis Aristote au moins, les hommes ont voulu classer les organismes. Initialement, cette classification a principalement occupé les botanistes.
Aux XVe et XVIe siècles, on se retrouve avec une multitude de systèmes et de méthodes de classification. La bibliothèque du Muséum d'Histoire Naturelle en conserve une centaine dans ses vieux livres. S'il en reste tant actuellement, il en existait au minimum 500 à 600 en Europe, à cette époque.
Carl von Linné (1707-1778), comme les savants de cette époque, est un grand lecteur : il connaît toutes les tentatives réalisées par ses contemporains. Brusquement, il lui apparaît quelque chose d'assez extraordinaire. En effet, lorsque le travail de classification est mené correctement, en bonne logique, d'après de bons caractères, à chaque fois les grandes familles de la botanique ressortent : liliacées, orchidacées, rosacées... etc. Linné remarque que ces multiples tentatives conduisent à une même classification, un même ordonnancement. Tout se passe comme s'il existait une unité qui représente un ordre de la Nature. L'objectif est désormais de décrire cet ordre par une classification naturelle. Cette classification est nécessairement unique, car il n'y a qu'un ordre dans la Nature. Dans le contexte judéo-chrétien de l'époque, Linné imaginait que cette classification naturelle représentait l'ordre de la création.

Cette unicité de la classification est une idée extrêmement forte, comme on le verra avec Darwin. Elle change le sens de la classification - non plus seulement ranger les organismes, mais trouver une unité au monde du vivant.
2. Le concept d'homologie
Le concept d'homologie est mis au point par Etienne Geoffroy St Hilaire (1772-1844). Il utilise des travaux de botanique et bâtit un concept repris par Cuvier quasi en même temps : le concept de plan d'organisation. Cette idée de plan d'organisation, bien antérieure à Geoffroy St Hilaire, est fondamentale. Elle met en évidence que certains êtres vivants sont organisés de la même façon. Cuvier présente quatre plans d'organisation différents pour l'ensemble du règne animal - par exemple, le plan d'organisation des vertébrés.
A partir de ces plans d'organisation, Geoffroy St Hilaire construit un outil très performant pour l'anatomie comparée. Il crée, bien que ce ne soit pas le terme qu'il emploie, le concept d'homologie. Il affirme la nécessité, si on souhaite comparer les organismes, de savoir quels sont les "bons" organes que l'on compare : comment savoir si on compare les « mêmes » organes chez deux organismes différents ? Geoffroy Saint-Hilaire essaie, tout simplement, de trouver des organes qui occupent la même situation dans un plan d'organisation. Par exemple, en observant les membres antérieurs de vertébrés quadrupèdes (fig 3), on remarque qu'à chaque fois, le cubitus, entre autres, se trouve au même endroit dans le membre, même si la forme, la fonction de ce membre changent entre ces animaux.
Ce concept d'homologie permet de comparer de façon pertinente les organismes, ce qui est la condition pour proposer une bonne systématique.
3. La mort des espèces
En plus du concept d'homologie, George Cuvier (1769-1832) apporte une autre notion, qui a un impact considérable. Il démontre, par la paléontologie, que les espèces meurent. Grâce à des fossiles de vertébrés, en particulier ceux du gypse de Montmartre, il prouve qu'il existait des animaux qui n'existent plus actuellement dans le monde, c'est-à-dire que les espèces disparaissent.
Ce concept de mort des espèces a été une révolution extrêmement importante à l'époque, au tout début du XVIIIesiècle. Cet extrait de La peau de chagrin, de Balzac, illustre la portée de ce concept dans le monde des lettres :
« Cuvier n'est-il pas le plus grand poète de notre siècle. Notre immortel naturaliste a reconstruit des mondes avec des os blanchis. Il fouille une parcelle de gypse, y perçoit une empreinte et vous crie : « Voyez ! ». Soudain, les marbres s'animalisent, la mort se vivifie, le monde se déroule »
Brusquement, l'idée apparaît que des mondes, qui n'existent plus, existaient; le monde « se déroule » ; on verra qu'il « évolue ».
C. Lamarck et le transformisme
1. Logique et transformisme
Pour résumer, si vous réfutez les métamorphoses, si vous abandonnez le concept de génération spontanée, si vous allongez l'échelle de temps, si vous relativisez l'Echelle des Êtres, si vous imaginez une unité de classification, si vous concevez les concepts d'homologie et de plan d'organisation et si vous acceptez l'idée de mort des espèces, vous ne pouvez que suivre Jean-Baptiste Lamarck (1744-1829), puis proposer de conserver avec lui la notion de transformisme.
Pourquoi ? Très brièvement, si on suit un raisonnement logique, il ne reste que deux possibilités pour réunir ces idées. Soit on reste créationniste : il faut alors nécessairement imaginer des créations multiples. Or, cela ne figure pas dans la Bible, qui ne mentionne qu'une seule création. Soit, on opte pour une seconde possibilité : les espèces se transforment les unes en les autres. Une troisième possibilité a été retenue par quelques théologiens : le stock des espèces allait en s'amenuisant - ce qui, d'après eux, n'était pas important, puisque seul l'homme a une valeur. Cette dernière théorie a eu très peu d'impact.
2. La théorie de Lamarck
Lamarck présente une classification. Il a l'idée remarquable, même si elle a été réfutée plus tard, de séparer vertébrés et invertébrés. Au niveau des animaux, il construit ce qui reste une échelle des Êtres. Il classe les animaux en trois catégories : les animaux apathiques, les animaux sensibles, les animaux intelligents. Cette vision demeure hiérarchisée.
Il imagine une transformation des organismes les uns en les autres (fig 4). Un premier point est fondamental, novateur : Lamarck présente des bifurcations, c'est-à-dire qu'il construit un arbre, une arborescence. A ma connaissance, c'est la première représentation qui rompt ainsi la linéarité de l'échelle des Êtres. Deuxième innovation, les espèces sont reliées par des points (actuellement ce serait symbolisé par des flèches), qui désignent les transformations possibles : les vers en insectes, les poissons en reptiles ou en amphibiens. La limite de la vision de Lamarck se situe à la base de ce réseau de transformations : la génération spontanée alimente le stock des organismes les plus simples - les vers -. Pour expliquer ce schéma, on a utilisé l'image de l'escalier roulant, qui, avec ses arrêts, ses paliers, paraît particulièrement pertinente : elle montre que Lamarck n'a pas une vision historique. Par exemple, au niveau des oiseaux, certains viennent de prendre l'escalier roulant - ils viennent de se transformer -, tandis que d'autres sont là depuis longtemps. Cela signifie que les animaux semblables ne résultent pas d'une même transformation, qui serait survenue à une même date dans le cours de l'histoire.
Il faut retenir, dans la pensée de Lamarck, cette notion de transformation, d'arbre, nourri continuellement par la génération spontanée.
II. Darwin
Sans entrer dans les détails de la vie de Charles Darwin (1809-1882), un élément important pour le développement de sa vision scientifique et pour l'élaboration de l' Origine des espèces (1859) réside dans un tour du monde de presque cinq ans, effectué entre 1831 et 1836. Non seulement Darwin est un très bon naturaliste et un très bon géologue, mais il possède également des notions d'anatomie et d'embryologie comparées.
A. La théorie de L'Origine des Espèces
Pour illustrer la difficulté de recevabilité que rencontra le livre de Darwin à sa publication, voilà le sous- titre donné dans la traduction française. Le titre original anglais est "Origin of species - by means of natural selection" , qui se traduit par : « L'origine des espèces - par les moyens de la sélection naturelle ». Or, dans l'édition française de 1862, ce titre est « traduit » de manière erronée en : « De l'origine des espèces ou des lois du progrès chez les êtres organisés ». Ce sous-titre montre combien la notion de progrès - et d"échelle des espèces" implicite - était profondément ancrée.
La meilleure solution pour exprimer l'idée clé de L'Origine des espèces, c'est d'examiner un extrait qui traduit de manière essentielle le sens que donne Darwin à la notion de classification :
«Le système naturel, c'est-à-dire la classification naturelle, est fondé sur le concept de descendance avec modification... »
Ce concept de «descendance avec modification » est essentiel pour comprendre la pensée de Darwin. Pourtant, si on interroge quelqu'un sur ce qu'a apporté Darwin, il répondra sans doute « la sélection naturelle "». En réalité, il a proposé ces deux idées, liées : sélection naturelle et descendance avec modification. A mon sens, c'est cette dernière idée qui est la plus importante.
« ... sur le concept de descendance avec modification, c'est-à-dire que les caractères que les naturalistes décrivent comme montrant de réelles affinités entre deux ou plusieurs espèces sont ceux qui ont été hérités d'un parent commun. »
Ces caractères auxquels Darwin fait référence, ce sont les caractères homologues de Geoffroy St Hilaire. Ce que propose Darwin, c'est une réponse à la question : pourquoi ces caractères sont-ils homologues ? Parce qu'ils ont été hérités d'un parent commun. Darwin interprète la notion de ressemblance, très prégnante depuis Geoffroy St Hilaire, comme une notion d'héritage de caractères. Il ne remet pas en cause le travail de ces prédécesseurs : il lui donne « seulement » un autre sens.
« Et par conséquent, toute vraie classification est généalogique... »
Enfin, Darwin plonge ce travail dans un continuum temporel. Cette notion de généalogie bouleverse le sens des classifications : désormais, on recherche des relations de parenté :
« ... c'est-à-dire que la communauté de descendance est le lien caché que les naturalistes ont cherché inconsciemment et non quelque plan inconnu de création. »
A l'époque, cette dernière phrase a représenté une provocation extraordinaire !

Pour éclairer le propos de Darwin, voilà la seule illustration présente dans L'Origine des Espèces (fig 5). Premièrement, cette planche dévoile une vision historique : les lignes horizontales représentent des horizons temporels. Cette figure comprend trois concepts importants :
1) des espèces disparaissent - l'idée de Cuvier ;
2) au cours du temps, les espèces peuvent se transformer - l'idée de Lamarck ;
3) des espèces peuvent donner naissance à plusieurs autres espèces.
Si on considère deux espèces après un embranchement, Darwin considère qu'il faut les rapprocher parce qu'elles partagent un ancêtre commun. Or les espèces partagent toujours un ancêtre commun. La différence réside dans la plus ou moins grande proximité de ces ancêtres. Pour Darwin, les organismes se ressemblent beaucoup car ils partagent un ancêtre commun récent. Les organismes très différents partagent un ancêtre commun lointain, à partir duquel il y a eu énormément de temps pour diverger.
B. La première « généalogie » des organismes
Ces concepts proposés par Darwin sont immédiatement repris par un biologiste allemand, Ernst Haeckel (1834 - 1919). Haeckel poursuit ces idées, en les exagérant même un peu.
Il utilise un arbre pour représenter sa classification. Il propose trois règnes : aux deux règnes animal et végétal classiques, il ajoute les protistes (organismes unicellulaires). Son apport fondamental se situe à la base de l'arbre. Pour chacun des règnes, il situe un ancêtre commun hypothétique, et surtout, il met en place un tronc avec une seule racine commune à l'ensemble des êtres vivants-un ancêtre commun à l'ensemble des organismes.
Cette proposition, en 1866, est le premier arbre dit « phylogénétique »- terme créé par Haeckel. Bien que discutée à ses débuts, l'idée essentielle d'origine commune est conservée - elle contient également l'idée d'origine de la vie sur terre -. Le mouvement est lancé : depuis Haeckel, les chercheurs vont « se contenter » de corriger cet arbre. Seules les logiques pour inférer les relations de parenté sont modifiées et améliorées.
C. Les difficultés de Darwin
Il manque des éléments à Darwin pour expliquer les mécanismes soutenant ce double concept de descendance avec modification. Elle contient premièrement l'idée de descendance entre espèces. Darwin n'utilise pas d'échelle des temps. Entre les lignes horizontales de son schéma, il ne s'agit pas d'années, ni de millions d'années : il s'agit de nombres de générations. Selon Darwin, ce qui rythme la vie des organismes, c'est la reproduction sexuée, à l'origine du concept de descendance. Deuxièmement, Darwin suppose que les caractères héréditaires, transmis via la reproduction sexuée, se « transforment »- mais il ignore comment.
Les deux disciplines qui lui manquent sont d'une part la génétique, et d'autre part, l'embryologie.
III. La Théorie synthétique de l'évolution
A. Les bases de la théorie
Un événement scientifique se produit au début du XXe siècle : la redécouverte des lois de Gregor Mendel (1822 - 1884), indépendamment par trois chercheurs : le hollandais Hugo De Vries (1848 - 1935), l'allemand Carl Correns (1864 - 1933), et l'autrichien Erich von Tschermak (1871 - 1962). Redécouverte, certes, mais enrichie d'un nouveau concept essentiel, celui de mutation. Cette idée de mutation permet de concevoir comment les caractères sont à la fois héréditaires et changeants.

A partir de 1905 jusqu'à 1930, se produit un difficile rapprochement entre deux disciplines : la génétique dite « des populations » (l'étude du devenir des fréquences de gènes dans les populations au cours du temps), se rapproche du darwinisme, par l'intermédiaire de la sélection naturelle. Ce rapprochement conduit à la Théorie synthétique de l'évolution. Signalons que cette traduction mot à mot de l'anglais introduit une connotation étrange en français - c'est plutôt une théorie qui fait une synthèse -.
Cinq biologistes de renom participent à cette nouvelle vision de l'évolution. Le premier individu clé est Theodosius Dobzhansky (1900 - 1975), d'origine russe, immigré aux États-Unis. Comme quasi tous les autres protagonistes de cette théorie, il appartient à l'Université de Columbia, à New York. Dobzhansky publie en 1937 un ouvrage intitulé : Genetics and Origin of Species. Cette référence explicite à Darwin traduit bien sa volonté de démontrer, par la génétique, que Darwin avait raison.
Les autres chercheurs impliqués dans cette vision nouvelle sont :
- Julian S. Huxley (1887-1975), généticien ;
- Ernst Mayr, zoologiste, ornithologue, théoricien de la spéciation ;
- George G. Simpson (1902-1984), géologue et paléontologue ;
- Ledyard G. Stebbins, qui travaille sur la spéciation en biologie végétale.

J'ai repris à partir d'un article récent d'Ernst Mayr les principes de base de cette théorie :
Premier principe : l'hérédité est particulaire et d'origine exclusivement génétique. Cela signifie que l'hérédité est portée par des particules-les gènes-qui ne se mélangent pas. En insistant sur l'origine exclusivement génétique, ce principe nie l'idée d'hérédité des caractères acquis, une forme de lamarckisme en vogue à l'époque.
Second principe : il existe une énorme variabilité dans les populations naturelles. Les organismes présentent une grande variabilité des différents gènes, des différents caractères. Cette variabilité intraspécifique permet l'apparition de nouvelles espèces à partir d'une espèce donnée.
Troisième principe : l'évolution se déroule dans des populations distribuées géographiquement. Un des moteurs les plus importants de la spéciation est l'isolement reproducteur. Les populations peuvent se retrouver séparées par des barrières géographiques, de comportement... etc. A partir du moment où une barrière de reproduction apparaît, des populations isolées peuvent donner naissance à des espèces distinctes.
Quatrième principe : l'évolution procède par modification graduelle des populations. L'évolution se fait pas à pas suivant un gradualisme quasi linéaire en fonction du temps. Autrement dit, le taux d'évolution est toujours considéré comme à peu près constant par unité de temps.
Cinquième principe : les changements dans les populations sont le résultat de la sélection naturelle. Les changements de fréquence des gènes et de caractères dans les populations sont provoqués par la sélection naturelle. Cette idée sera remise en question plus tard : la sélection naturelle existe, certes, mais d'autres moteurs de changement seront avancés.

Dernier principe : la macro-évolution n'est que le prolongement dans le temps de ces processus. La macro-évolution désigne les changements importants, les grands bouleversements, en particulier au niveau des animaux - changements de plans d'organisation, etc. Cette macro-évolution n'est considérée ici que comme le prolongement de la micro-évolution - les changements graduels. La macro-évolution n'est que le résultat de petits changements accumulés pendant des dizaines ou des centaines de millions d'années.

La théorie synthétique de l'évolution contredit la notion fondamentale de finalité : elle affirme que l'évolution ne poursuit aucun but. Tout se passe pas à pas, dans un affrontement continuel, au présent, des organismes avec leur environnement, et les uns par rapport aux autres, et non en fonction d'un but précis.
B. La rupture de la cladistique
Cette théorie synthétique de l'évolution a été un nouveau point de départ. Dans les années 1950, plusieurs aspects sont discutés pour parvenir à la vision actuelle.

Premier point clé : cette nouvelle vision modifie la manière de traiter les fossiles en particulier, et l'histoire de la vie sur Terre, en général. Deux éléments illustrent cette notion. Le premier est révélé par un schéma de Simpson, qui, représente par une arborescence les différentes classes de vertébrés, les mammifères, les oiseaux, les reptiles et les poissons. Malgré Darwin, cet arbre traduit, non pas une recherche de parenté, mais de descendance, de généalogie. Par exemple, l' Ichthyostega est placé de telle sorte qu'on puisse penser qu'il est l'ancêtre de l'ensemble des organismes qui le suivent.
Cette représentation illustre un problème clé : comment retracer les relations de parenté ? Comment se servir des fossiles ? A ces questions, le zoologiste allemand Willy Hennig (1913-1976) propose une nouvelle méthode : la cladistique.
Hennig pense qu'il faut rechercher, non pas des relations de descendance, mais de parenté-les relations de cousinage, en quelque sorte-, et positionner des ancêtres hypothétiques. Pour mettre à jour ces relations de parenté, il faut, parmi les caractères homologues (hérités d'un ancêtre commun), considérer ceux qui correspondent à des innovations. Ces caractères novateurs permettent de rassembler les organismes.
En considérant ces organismes (fig 6), des oiseaux et des reptiles (tortues, lézards et crocodiles), une des innovations héritées d'un ancêtre commun hypothétique est la plume, partagée par l'ensemble des oiseaux. La plume résulte de la transformation de l'écaille épidermique existant chez les organismes reptiliens, à la suite d'un processus évolutif particulier.

Cette démarche, fondée non pas sur un mais plusieurs caractères, permet de construire des arbres phylogénétiques. La méthode consiste à définir des groupes monophylétiques, pas à pas, à partir d'ancêtres hypothétiques communs. Un groupe monophylétique est un groupe qui rassemble un ancêtre et l'ensemble de ses descendants. A l'opposé, un groupe paraphylétique correspond à un ancêtre et une partie de ses descendants.
Pour éclairer ces concepts, considérons cet arbre, relativement juste - relativement car encore sujet de controverse. Cet arbre met évidence un groupe monophylétique, les sauropsides, groupant les oiseaux, les crocodiles, les lézards, les serpents et les tortues. Or, dans la classification "traditionnelle", les reptiles (serpents, lézards, tortues) figurent d'un côté, les oiseaux de l'autre. Cela revient à présenter un groupe monophylétique (les oiseaux) et un groupe paraphylétique (les serpents, les oiseaux et les tortues). Cette dichotomie se fonde sur un ensemble de particularités des oiseaux qui les mettaient, intuitivement, "à part" : la capacité de voler, le plumage... Dans ce cas-là, on occulte la relation de parenté extrêmement importante entre les crocodiles et les oiseaux. Dans le cas contraire, on explicite un groupe monophylétique clé : les archosauriens (crocodiles et oiseaux), ce qui modifie la conception évolutive intuitive.
On aurait "naturellement" tendance à penser que les crocodiles ressemblent plus aux varans ou aux lézards qu'aux oiseaux. Cette méthode met en pièce le concept de ressemblance - en trouvant des caractères (moléculaires ou morpho-anatomiques) qui permettent de positionner des ancêtres hypothétiques communs qui ont apporté des innovations. Dans ce cas particulier, l'innovation est la présence d'un gésier. Ce gésier, connu chez les oiseaux, moins chez les crocodiles, n'est pas présent chez les autres reptiles.

Examinons à présent cet arbre (fig 7), qui représente les archosaures. Deux groupes d'animaux vivent actuellement : les oiseaux et les crocodiliens (ici l'alligator), aux deux extrémités du graphe. D'autres branches sont importantes :
- la branche des ptérosauriens - les « dinosaures » volants ;
- le groupe des dinosaures, divisés en deux branches : ornitischiens et saurischiens ;
- les théropodes.
Contrairement à la figure précédente (fig 6), les fossiles ne figurent pas en tant qu'ancêtres. Ils sont représentés comme apparentés aux autres organismes. Des ancêtres hypothétiques communs sont positionnés. A leur niveau, on fait apparaître les innovations. De cette manière, l'histoire de ces innovations est retracée : à partir d'organismes de "type" dinosaure, on voit l'évolution des différents caractères (tels que la plume, l'évolution des membres, mâchoires...etc.), jusqu'aux oiseaux actuels.
Parmi ces archosaures, seuls existent encore les crocodiles et les oiseaux. Entre ces deux groupes se trouvent tous les dinosaures. Les oiseaux partagent des ancêtres hypothétiques avec quantité de ces dinosaures. On croit que les dinosaures ont disparu. Et bien non ! Quand vous croiserez une volée de pigeons dans les rues de Paris, vous pourrez dire : "nous sommes envahis par les dinosaures !" Tous les oiseaux sont des dinosaures : cette méthode change considérablement la vision intuitive des choses, n'est ce pas ?

Je conclus cet exposé en présentant ce à quoi vous avez échappé :
- Tout d'abord, à la phylogénie moléculaire. Actuellement, tous les organismes de la diversité du vivant peuvent apparaître sur un même arbre : bactérie, animaux, plantes... Cet arbre commence à représenter une bonne vision synthétique du monde vivant.
- Ensuite, à l'évolution du génome. On commence à comprendre comment les innovations, les mutations surviennent au niveau du génome. Elles se produisent principalement par duplication des gènes : des motifs de l'ADN se dupliquent et ces gènes dupliqués peuvent acquérir de nouvelles fonctions. La mise en évidence de ces phénomènes permet de mieux comprendre comment la descendance avec modification se produit. Ce ne sont pas de petites modifications ponctuelles comme on le pensait auparavant.

- Troisième point : la sélection n'agit pas exclusivement au niveau des organismes. Elle opère à tous les niveaux d'organisation. Un exemple très simple est la présence, dans les génomes, de petites unités appelées transposons. Ces transposons se répliquent, indépendamment, envahissent le génome, peuvent passer d'un chromosome à l'autre. Ces transposons participent certainement à la fluidité du génome. Le pourcentage de ces transposons dans le génome est considérable : 40 % du génome humain est composé de ces séquences - des unités « parasites "» puisqu'elles ne participent ni à la construction, ni au fonctionnement de notre organisme. Au niveau végétal, ce chiffre est encore plus important : jusqu'à 75 % du génome de certaines plantes serait envahi de transposons.

- Avant dernier point : l'évolution n'est pas si graduelle, elle se fait souvent par crises. La vitesse d'évolution change. Des crises se sont produites, extrêmement importantes dans l'histoire géologique de la Terre. L'une des plus belles crises est celle du Permien, au cours de laquelle 80 % des espèces auraient disparu. Ces crises d'extinctions ont été suivies de radiations, où des innovations très importantes se produisent.
- Enfin, dernier point qui m'est cher. La notion de progrès devient complètement relative. Les innovations se font sur toutes les branches : il n'existe pas d'organisme plus évolué qu'un autre. Tous les organismes ont parcouru le même temps d'évolution. Seulement, ils n'ont pas évolué dans les mêmes directions, en raison de contraintes différentes, de milieu et de choix de stratégies différentes.
Si on prétend dans un style « d'Echelle des Êtres », qu'il existe de « meilleurs » organismes, c'est qu'on met en exergue un ou plusieurs caractères. Ce n'est pas de la biologie. La biologie considère tous les caractères au même niveau et que la biodiversité est structurée par cette évolution. Dans ces conditions, chaque organisme vaut par lui-même.

 

 VIDEO     canal U       LIEN 

TOUT L'UNIVERS DANS UN ATOME

il y a un mois

Tout l'univers dans un atome
Gerardus t Hooft

Dans cet exposé, je vais expliquer que lunivers gigantesque dans lequel nous vivons abrite un nombre incroyable de minuscules univers : les atomes. Ils présentent une structure extrêmement riche qui a permis aux physiciens dexercer leur sagacité durant tout le siècle précédent. Le sujet de cet exposé est cet univers microscopique que lon trouve à lintérieur des atomes mais il est intimement relié à lunivers macroscopique qui nous est rendu plus familier par les images des médias comme celle de la conquête spatiale.
Au début nexistait quun point, et rien dautre que ce point. Il y a plus de 13 milliards dannées, ce point explosa, marquant le début de lunivers tout entier. Depuis ce moment, lunivers est régi par les lois de la physique. Lors de ses premiers instants, il évolua extrêmement rapidement. Des choses complexes arrivèrent alors, que lon comprend difficilement.
La première lumière de lunivers, que lon observe maintenant, est apparue 380 000 ans après cette explosion. Ce nest quun milliard dannées plus tard que lunivers commence à ressembler à ce quil est aujourdhui : un univers constitué détoiles, situées à lintérieur de galaxies séloignant les unes des autres.
Deux choses remarquables caractérisent lunivers. La première, cest quil est presque vide : il existe de grands espaces désertiques entre les étoiles et les galaxies, de telle sorte quen moyenne, lunivers présente une densité de quelques atomes seulement par kilomètre cube. La deuxième, cest que tous les objets de lunivers obéissent aux lois de la physique de manière extrêmement précise. Des expériences de toutes sortes, ainsi que des calculs complexes établissent une chose qui nétait pas évidente a priori : les lois de la physique semblent partout les mêmes, peu importe la direction dans laquelle on observe lunivers. Lune de ces lois est celle de la gravitation. Cest elle qui fait que les planètes décrivent autour du soleil des ellipses presque parfaites. Elle implique également que les planètes accélèrent à proximité du soleil et décélèrent quand elles sen éloignent. Il sagit dune loi parmi dautres mais dont les effets sont clairement visibles.
Lunivers compte un nombre démesurément grand datomes et dans ces mondes minuscules que sont les atomes, on trouve des objets, les électrons, qui se déplacent selon des lois physiques ressemblant beaucoup à celles régissant le mouvement des planètes autour du soleil. Les électrons tournent autour dun objet central que lon appelle le noyau atomique. Latome constitue ainsi un univers à lui tout seul, mais avec des dimensions minuscules.
La structure de latome
Dire quun atome peut être assimilé à un système planétaire serait en fait mentir. Latome est gouverné par des lois beaucoup plus complexes, celles de la mécanique quantique. Celle-ci dit quen moyenne, les électrons se déplacent selon des orbites elliptiques ; mais cela en moyenne seulement. Leur mouvement est en fait aléatoire, il semble incontrôlé. Autour dun noyau, certaines régions sont dépeuplées délectrons alors que dautres en fourmillent. Ce sont les lois de la mécanique quantique qui permettent de faire la distinction entre ces régions.
Latome possède une autre caractéristique qui le rapproche de lunivers : il est quasiment vide. En effet, le noyau atomique est environ 100 000 fois plus petit que les orbites des électrons, ce qui rend latome beaucoup plus vide en réalité quun système planétaire. Cest ce noyau, dont lunité de taille est le Fermi, 10-15 m, qui est la partie la plus intéressante et la plus complexe de latome.
Il y a plusieurs décennies, les physiciens découvrirent que le noyau atomique est constitué de deux sortes dobjets : les protons et les neutrons. Les premiers sont électriquement chargés alors que les seconds sont neutres, mais hormis cette différence, ces deux objets sont similaires. Ce qui a été découvert plus récemment dans lhistoire de la physique des particules est quils sont tous les deux constitués de trois sous-unités appelées quarks. Ces derniers obéissent à des lois très particulières qui seront évoquées plus loin.
Il y a 35 ans lexistence des quarks était à peine vérifiée. On ne comprenait pas leur comportement, ni pourquoi protons et neutrons étaient constitués de trois dentre eux. Toutes les particules observées à lépoque étaient cependant regroupées en plusieurs classes, de la même façon quen biologie les espèces danimaux et de plantes sont classées en familles. Il existait une distinction entre les leptons, particules insensibles à ce qui fut appelé plus tard la force forte, et les hadrons, qui y étaient sensibles et avaient donc un comportement totalement différent. Les hadrons furent ensuite séparés entre mésons et baryons. Enfin, il existait une troisième sorte de particules, les photons, qui avec leur comportement radicalement différent des autres, constituaient une famille à eux seuls.
Les leptons, dont on connaissait deux représentants à lépoque, électrons et muons, peuvent être chargés électriquement, le plus souvent de manière négative, ou bien être neutres : on les appelle alors neutrinos. De manière générale, les particules sont caractérisées par leur charge électrique ainsi que par leur spin, propriété liée à leur rotation. Elles sont également accompagnées de leurs « contraires », si lon peut dire, leurs antiparticules. Il existe ainsi des antileptons et des antibaryons. Les mésons, eux, sont identiques à leurs antiparticules.
Beaucoup de questions émergent de cette classification : Comment peut-on expliquer le comportement de toutes ces particules ? Comment peut-on les décrire ? Enfin, comment sagencent-elles pour former les atomes ? Pour répondre à ces questions, il a été nécessaire de les étudier.
Les outils pour étudier la structure de latome
Pour étudier les atomes, il a été nécessaire de construire de très grandes machines, les accélérateurs de particules. Lun deux est situé à la frontière de la Suisse et de la France, près de Genève. Sil nétait pas situé sous terre, parfois à cent mètres de profondeur, dun avion on pourrait constater quil a la forme dun cercle de 26 km de circonférence. Il sagit dun circuit que des particules parcourent chacune dans un sens opposé pour se heurter de plein fouet. Les investigations des physiciens concernent ce qui se déroule lors de telles collisions. Cette machine appelée LEP, pour Large Electron-Positron Collider, a été démontée il y a quelques années pour être remplacée par une autre machine, le LHC, acronyme pour Large Hadron Collider. La première a intensivement étudié les leptons, comme lélectron et son antiparticule, alors que la nouvelle génération daccélérateurs étudiera les hadrons. Les physiciens doivent cependant attendre encore plusieurs années avant de recevoir les premiers résultats du LHC, prévus en 2007.
La photographie (fig.1) représente un des nombreux détecteurs de particules utilisés dans les accélérateurs. Comparés à la taille dun homme, ces objets sont particulièrement grands. Ceci est une source de questionnement pour les néophytes : pourquoi nutilise-t-on pas de petits détecteurs pour étudier des particules si minuscules ? Ny gagnerait-on pas en résolution ? Il se trouve que non. Pour bien voir de petits objets, il faut de grosses machines. Par exemple, on pourrait penser que les insectes, avec leurs petits yeux, se voient très bien. Cest tout le contraire. Nous voyons beaucoup mieux les insectes quils ne se voient eux-mêmes, car nos yeux sont beaucoup plus gros que les leurs. Cest pour cela que les insectes ont des antennes, comblant ainsi leur déficit sensoriel. Ainsi, former des images de minuscules particules nécessite dénormes appareils. Les physiciens, qui cherchent à sonder la matière le plus profondément possible, doivent par conséquent construire les machines les plus imposantes qui soient& tout en respectant un certain budget.


figure 1

Les forces dinteractions et les particules de Yang-Mills
Revenons encore trente cinq ans en arrière. A cette époque, il fallait comprendre leurs interactions pour pouvoir décrire les particules & Quelles soient déviées, crées ou annihilées, les physiciens ont réuni tous ces phénomènes dans le concept de force. Ils ont ainsi découvert que trois sortes de forces totalement différentes agissaient sur les noyaux atomiques. Lune delles est assez familière, il sagit de lélectromagnétisme. Cest la force qui est utilisée de manière prédominante dans les microphones et les télévisions. Les uns utilisent la force électromagnétique pour amplifier la voix, les autres pour créer une image sur lécran. De manière plus simple, on peut voir leffet de cette force quand un aimant se déplace à proximité dun autre aimant, ou dun objet en fer. Ou bien même quand on se coiffe par temps sec et que les cheveux sélectrisent. Il existe également deux autres forces actives dans le domaine des particules élémentaires : la force forte et la force faible. On connaissait peu de leurs propriétés il y a 35 ans, et par bien des aspects, elles restaient énigmatiques : comment affectent-elles le comportement des particules ?
Il est très difficile de répondre à cette question. On savait quelles devaient obéir à la fois à la théorie de la relativité dEinstein et aux lois de la mécanique quantique. Mais ces lois sont complexes, et il est très difficile de les réconcilier pour que les mouvements observés des particules respectent ces deux théories fondamentales. Ce nest quen 1954 quune avancée fut effectuée. Deux physiciens américains, Robert-Mills, étudiant à lépoque et Chen Ning Yang, futur prix Nobel, proposèrent ensemble une façon de décrire les particules subatomiques. Leur réflexion fut la suivante : certaines forces de la nature sont déjà connues, les forces électromagnétiques ; peut-on imaginer une nouvelle force, quelque chose de plus général que lélectricité et le magnétisme, quon pourrait décrire avec des équations similaires et qui serait cohérente avec les connaissances acquises par ailleurs en physique ? Ils trouvèrent une réponse à cette question mais ils se rendirent compte très tôt quelle était probablement erronée. Beaucoup de physiciens avaient eu des idées similaires mais les avaient rejetées car ils ne leur trouvaient aucun sens. Peut-être navaient-t-elles aucun sens mais elles étaient tellement belles quils publièrent néanmoins leurs travaux, malgré les critiques de leurs pairs, laissant aux autres le soin de sinquiéter du fait quelles naient rien de réel.
Quont-ils donc inventé qui allait devenir si important, seulement quelques décennies plus tard ? Yang et Mills imaginèrent quil existait un autre champ, ressemblant beaucoup aux champs électriques et magnétiques, mais qui en serait également différent par certains aspects : une particule évoluant dans un tel champ changerait didentité. Au passage, rappelons que lidentité est une caractéristique essentielle des particules : la modifier a dénormes conséquences sur leur comportement. Un champ électromagnétique naltère pas cette identité, mais Yang et Mills imaginèrent quune particule puisse transmuter en une autre quand elle traverserait le champ quils ont décrit. Un proton, par exemple, deviendrait neutron. Le point fondamental est que deux particules initialement identiques pourraient ainsi devenir différentes.

VIDEO canal U LIEN

Découverte de deux protéines impliquées dans le positionnement des noyaux musculaires

il y a un mois

Découverte de deux protéines impliquées dans le positionnement des noyaux musculaires


COMMUNIQUÉ | 20 MARS 2012 - 11H35 | PAR INSERM (SALLE DE PRESSE) 

BIOLOGIE CELLULAIRE, DÉVELOPPEMENT ET ÉVOLUTION | CANCER

La position des noyaux cellulaires dans les fibres musculaires joue un rôle important dans certaines faiblesses du muscle. C’est ce que vient de montrer Edgar Gomes, chercheur Inserm dans le groupe myologie de l’institut Myologie (Unité mixte Inserm/UPMC) en collaboration avec une équipe américaine. Les chercheurs ont identifié plusieurs protéines impliquées dans le « bon » positionnement des noyaux, nécessaire au fonctionnement du muscle. Leurs résultats sont publiés dans une Lettre dans la revue Nature, datée du 18 mars.
Pour bouger, les êtres vivants ont besoin de muscles et plus particulièrement des muscles squelettiques qui sont sous le contrôle du système nerveux. Ces derniers sont constitués de fibres musculaires cylindriques avec une multitude de noyaux périphériques. Le mécanisme par lequel les noyaux se positionnent en périphérie dans les fibres musculaires est encore mal connu. Une équipe de chercheurs franco-américains a essayé de mieux connaitre les raisons d’une telle disposition.

L’équipe d’Edgar Gomes et ses collaborateurs ont découvert le mécanisme impliqué dans le positionnement des noyaux dans les fibres musculaires. Les chercheurs ont identifié, chez la drosophile et la souris, deux protéines impliquées dans le positionnement des noyaux : la protéine Kif5b, appartenant à la famille des kinésines (moteurs moléculaires), et la protéine MAP7, qui permet le mouvement de différentes organelles (1) dans la cellule.
Ils sont parvenus à ce résultat en mutant les gènes codants pour les protéines MAP7 et Kif5b de la drosophile et en étudiant le développement de l’embryon. Ils observent dans ce cas que les noyaux ne s’alignent pas correctement dans les fibres musculaires.

“La présence de MAP7 est exigée pour le positionnement des noyaux dans les fibres musculaires chez la drosophile et chez les mammifères” précise Edgar Gomes, chargé de recherche Inserm. L’équipe de chercheurs est parvenus à décrire le mécanisme du positionnement des noyaux dans les fibres impliquant la protéine MAP7 et son interaction avec le moteur moléculaire : la kinésine Kif5b. Ils ont montré qu’une mutation de ces protéines n’affectait pas l’élongation du muscle ni même l’attachement au squelette mais bien seulement la position des noyaux.
L’équipe d’Edgar Gomes, en faisant interagir les deux protéines ensemble, suggère que MAP7 se lie à Kif5b pour favoriser le positionnement des noyaux. “Par ailleurs, ces protéines agissent génétiquement et physiquement ensemble, et leur lien physique est nécessaire pour le positionnement correct des noyaux. Nos résultats montrent que celui-ci permet le bon fonctionnement du muscle” souligne Edgar Gomes.

Les maladies musculaires entrainant une faiblesse au niveau des fibres peuvent être associées à un défaut d’alignement des noyaux cellulaires. L’équipe d’Edgar Gomes a montré qu’en replaçant correctement les noyaux, le muscle redevient fonctionnel. “Nous suggérons qu’en corrigeant les défauts de positionnement des noyaux musculaires chez des patients atteints de myopathies, les malades pourraient voir leur fonction musculaire s’améliorer” conclut Edgar Gomes.

Note
(1) Structures spécialisées de la cellule contenues dans le cytoplasme

 

DOCUMENT      inserm     LIEN 

RADIOACTIVITÉ

il y a un mois

radioactivité


Propriété des nucléides instables de perdre spontanément de leur masse en émettant des particules ou des rayonnements électromagnétiques.


La découverte, presque par hasard, de la radioactivité par H. Becquerel en 1896 a entraîné une révolution dans la connaissance de la nature de la matière. Elle a montré que les noyaux atomiques ne sont pas tous stables : certains d'entre eux, dits « radioactifs », éjectent de minuscules projectiles sous forme de rayons pénétrants ; de plus, une telle émission change leur nature. On en a déduit que les éléments ne sont pas vraiment « élémentaires » et que les atomes sont composés d'« éléments » plus petits.
Nature et transformations des noyaux atomiques
Les radioactivités naturelles


Suite à la découverte du radium par P. et M. Curie en 1898, il est vite apparu qu'il existe trois sortes de radioactivité. À chacune d'elles correspond une transformation différente des noyaux. L'étude de la radioactivité et celle des rayonnements ont aussi largement contribué à comprendre la structure des noyaux. Ceux-ci ne sont pas des objets simples : ils sont composés de deux sortes de particules, les protons et les neutrons. La façon dont ceux-ci se combinent a conduit à la notion d'isotope, à l'étude des conditions de stabilité des noyaux et à la reconnaissance de deux sortes de forces s'y exerçant : l'interaction forte et l'interaction faible.
 

Les radioactivités artificielles
En bombardant des noyaux à l'aide de rayons α, I. et J. F. Joliot-Curie ont provoqué la formation de noyaux radioactifs nouveaux. C'est un moyen pour produire un grand nombre d'isotopes radioactifs. De manière analogue, on sait aujourd'hui projeter sur d'autres atomes des ions lourds accélérés à haute énergie. Il devient possible d'obtenir des combinaisons nucléaires nouvelles, le plus souvent très instables, dont certaines sont très différentes de tout ce qu'on peut observer dans les corps radioactifs naturels ou à l'aide de collisions par des particules. On a pu ainsi produire des formes de radioactivité atypiques, comme l'émission de noyaux de carbone.

Les principaux types de radioactivité
Les radioactivités se distinguent par la nature du rayonnement émis et par les modifications que cela induit dans le noyau émetteur. Un noyau est caractérisé par sa masse atomique A, égale au nombre de nucléons qu'il contient, et par son numéro atomique Z, égal au nombre de ses protons. La différence A − Z représente donc le nombre de ses neutrons ; pour le plutonium 244, par exemple, A = 244, Z = 94 ; il contient donc 150 neutrons.
Les transformations radioactives sont plus ou moins rapides. On appelle « période » ou « demi-vie » le temps nécessaire pour que la moitié des noyaux de l'élément considéré se soit désintégrée. Ce temps, qui semble indépendant de toute action extérieure, varie considérablement d'un noyau à un autre (de 10−12 s à 1017 années).


La radioactivité alpha
Les rayons α sont constitués de particules de masse égale à 4 fois la masse du proton et dont la charge électrique est le double de celle du proton : il s'agit de noyaux d'hélium. Toutes les particules issues d'une même espèce de noyaux radioactifs (en général de très gros noyaux) sont émises avec la même énergie. Cette émission provoque un changement de nature du noyau : le numéro atomique diminue de deux unités, la masse atomique, de quatre. Ainsi, lors de la désintégration α du plutonium 244, celui-ci se transforme en uranium 240, avec une demi-vie de 80 millions d'années :


La radioactivité bêta
Dans la radioactivité β, le noyau émet un électron au cours de la transformation d'un neutron en proton. La charge électrique et le numéro atomique du noyau augmentent d'une unité, mais la masse atomique demeure sensiblement inchangée, car la masse d'un électron est très faible. Il existe aussi une radioactivité β+ (bêta plus) où un positron est émis, ce qui fait décroître d'une unité le numéro atomique du noyau (par transformation d'un proton en neutron). Pour une désintégration β donnée, tous les électrons émis n'ont pas la même énergie. Celle-ci est répartie selon un spectre d'énergie, ce qui a suggéré à W. Pauli et E. Fermi qu'une autre particule, un neutrino ν (ou, plus exactement, un antineutrino
image: http://www.larousse.fr/encyclopedie/data/formules/M00049.gif
), est émise en même temps que l'électron. Cette hypothèse a permis l'établissement de la théorie de l'interaction faible, qui régit la désintégration β. Celle-ci résulte donc de la désintégration de neutrons du noyau en protons, électrons et antineutrinos. Ainsi, lors de la désintégration de l'uranium 240 en neptunium (Np), seul le numéro atomique est affecté :

.La radioactivité gamma
Dans la radioactivité γ, le noyau émet un photon de haute énergie. La nature chimique de l'atome n'est pas modifiée : le noyau passe d'un état excité à un état dit « fondamental ». En général, le noyau excité a été, au préalable, produit par une désintégration α ou β, ou encore par une réaction nucléaire.
Les familles radioactives

Dans la nature ou dans les produits de réactions nucléaires, on rencontre plusieurs familles radioactives : un noyau lourd, en se désintégrant, produit un noyau lui-même radioactif qui en engendre un troisième, et ainsi de suite jusqu'à un noyau stable qui constitue le produit final de la série. Les noyaux ayant des demi-vies bien déterminées, la connaissance de ces familles fournit un outil de datation géochimique.
L'utilisation de la radioactivité
La radioactivité connaît de nombreuses applications scientifiques et techniques. En géochimie isotopique, par exemple, elle permet de dater des roches, par la mesure de l'abondance respective de couples « père-fils », ou des échantillons contenant de la matière organique récente, par la technique du carbone 14 (datation).
Mais la radioactivité présente aussi des dangers : elle peut détruire les molécules biologiques, entraînant chez les êtres vivants des conséquences néfastes voire fatales (anémies, cancers…) ou bénéfiques (traitement des cancers par cobaltothérapie ou curiethérapie, diagnostics). Les normes d'utilisation des corps radioactifs sont draconiennes et la plupart des pays se sont dotés d'un système de surveillance.


Aspects médicaux

Mesure de la radioactivité
L'activité d'une source de rayonnement est mesurée en becquerels (Bq). Cette unité, valable à l'échelle atomique (elle correspond à une désintégration par seconde), n'est pas adaptée à l'évaluation d'un risque pour l'homme. La quantité de rayonnements reçue par un organisme (dose absorbée) se mesure en grays (Gy). Mais l'effet de ces rayonnements sur un organisme dépend aussi de leurs caractéristiques : la notion d'équivalent de dose, mesurée en sieverts (Sv), permet à la fois de prendre en compte ces données quantitatives et qualitatives. Le gray et le sievert ont remplacé des unités plus anciennes comme le rad (100 rads = 1 gray) et le rem (100 rems = 1 sievert).
Les normes de protection contre les rayonnements ont pour but de limiter leurs risques et de les maintenir à un taux comparable à celui que comporte toute activité humaine. Elles doivent tenir compte du niveau de radioactivité naturelle de l'environnement. Ainsi, en France, le rayonnement cosmique (venant du ciel) et tellurique (venant du sol) correspond à une dose de 2,4 millisieverts par an. À titre d'exemple, l'accident de Tchernobyl d'avril 1986 a augmenté cette dose annuelle de 0,07 millisievert pour la population française (source O.N.U.), ce qui est inférieur à la dose reçue lors d'un cliché radiologique. Les directives Euratom du Conseil de l'Union européenne fixent la dose annuelle admissible pour le public à 1 millisievert pour les irradiations d'origine non naturelle (industries nucléaires, hors domaine médical) et à 20 millisieverts pour le personnel exposé dans un cadre professionnel.

Effets des rayonnements
Du fait de leur énergie, les rayonnements radioactifs sont susceptibles d'exercer une action néfaste sur l'organisme. Les rayons alpha et bêta sont peu pénétrants et ne sont dangereux que s'ils sont introduits, par exemple, par ingestion de produits alimentaires contaminés. Les rayons gamma, en revanche, pénètrent profondément et peuvent traverser les organes (irradiation).
Les effets des rayonnements sont de deux types : ceux qui affectent directement l'être vivant et ceux qui atteignent sa descendance. Tous ces effets varient selon la dose reçue, la durée de l'exposition et l'étendue de la région exposée au rayonnement. Les effets de doses importantes sont bien connus quand celles-ci sont reçues en une seule fois par le corps entier. À l'inverse, l'effet de petites doses est plus difficile à évaluer.

Les effets précoces surviennent dans les heures, les jours ou les semaines qui suivent l'exposition à de fortes doses. À partir d'une dose de 0,2 sievert, les premières atteintes des rayonnements portent sur les cellules sanguines, surtout les globules blancs (infections) et les plaquettes (hémorragies). De 1 à 2 sieverts, on observe une radiodermite (rougeur de la peau). De 3 à 5 sieverts apparaissent des troubles digestifs (nausées, vomissements). Pour des doses plus importantes viennent s'ajouter des brûlures étendues et des troubles nerveux (paralysies).
Les effets tardifs ne sont décelables que pour des doses au moins égales à 1 sievert et après un délai moyen de 4 ans pour les leucémies, de 10 ans pour les autres cancers. Si le risque de développer un cancer est accru, la survenue de celui-ci n'est pas inéluctable. Pour des doses plus faibles, comprises entre 0,1 et 1 sievert, les cancers provoqués par des rayonnements sont plus exceptionnels, survenant surtout chez des enfants dont la mère a été irradiée pendant la grossesse. L'autre conséquence de l'irradiation d'un fœtus est le risque de survenue d'une malformation. L'effet de doses inférieures à 0,1 sievert ne s'est pas révélé significatif, comparé à la fréquence naturelle des malformations chez l'homme. Des irradiations plus importantes peuvent amener à proposer une interruption de grossesse, et cela d'autant plus que la grossesse en est à son début. Un autre effet tardif des rayonnements est la survenue d'une cataracte (opacification du cristallin de l'œil) pour des doses locales supérieures à 1 sievert.

L'uranium appauvri, présent dans de nombreux produits chimiques et dans certains obus, est composé de l'isotope 238, le moins radioactif des 3 isotopes qui composent l'uranium naturel. Il pourrait s'accumuler dans les reins. Utilisé pendant le conflit du Kosovo (1999), il a été accusé d'être responsable de l'apparition de cancers ou de leucémies, ce qui n'est pas démontré.
Les effets sur la descendance ont été décrits chez certains animaux (mutations) ; en revanche, aucune modification transmissible des gènes n'a été observée dans la descendance des populations irradiées d'Hiroshima ou de Nagasaki.

Protection contre les rayonnements
Quatre grands principes doivent être observés dans la protection contre la radioactivité : s'éloigner autant que possible de la source radioactive ; réduire le temps de séjour à proximité ; utiliser des écrans de protection (en plomb ou en béton contre les rayonnements gamma) ; s'efforcer d'éviter toute absorption accidentelle. L'utilisation de sources radioactives fait l'objet de mesures légales et réglementaires très strictes.

 

DOCUMENT   larousse.fr    LIEN

Quand la nanoscopie déchiffre l'organisation moléculaire des neurones

il y a 2 mois

Quand la nanoscopie déchiffre l'organisation moléculaire des neurones

Afin de traiter et transmettre l'information au sein de réseaux, les neurones présentent une organisation polarisée qui dépend d'assemblages moléculaires formant des compartiments distincts au sein de la cellule. La microscopie optique de super-résolution ou “nanoscopie” permet d'observer directement ces assemblages à l'échelle nanométrique pour élucider leur fonction. Une équipe du Centre de recherche en neurobiologie et neurophysiologie de Marseille a utilisé la nanoscopie pour déterminer l'architecture moléculaire du segment initial de l'axone, un compartiment clé pour l'organisation et la communication des neurones. Ces travaux, publiés dans la revue Cell Reports, apportent des informations d'une précision inégalée sur l'organisation neuronale. Ils ouvrent la voie à une meilleure compréhension des phénomènes de polarité et de transport cellulaires qui sont profondément affectés dans les maladies neurodégénératives comme la maladie d'Alzheimer.


Les capacités du cerveau à stocker et traiter l'information reposent sur l'organisation en réseaux des milliards de neurones qui le constituent. Afin de former ces réseaux, les neurones doivent s'organiser de manière polarisée, avec une arborisation complexe composée de dendrites qui reçoivent l'information et d'un axone qui envoie les messages sous forme de potentiels d'action. L'un des grands sujets de recherche de la biologie cellulaire du neurone est de comprendre comment les neurones parviennent à établir et à maintenir cette organisation complexe par une myriade de mécanismes de transport et d'assemblage cellulaires. A l'entrée de l'axone, un compartiment clé permet de le séparer du reste du neurone et de générer les potentiels d'action : c'est le segment initial de l'axone (SIA). Il est constitué d'un assemblage unique de protéines d'échafaudage et de canaux ioniques, mais leur arrangement macromoléculaire était jusqu'à aujourd'hui énigmatique. Connaitre cet arrangement permettrait de comprendre comment le SIA peut gérer l'entrée des protéines dans l'axone, une étape importante pour le maintien de l'organisation neuronale.
Pour déterminer l'arrangement des protéines du SIA, les membres de l'équipe “Architecture des Domaines Axonaux” ont utilisé la microscopie optique de super-résolution (nanoscopie). Cette méthode, couronnée par le prix Nobel de Chimie 2014, permet de visualiser les assemblages protéiques au sein des cellules avec une résolution de l'ordre de 20 nanomètres, dix fois meilleure que la microscopie classique, Grâce à un partenariat avec Nikon Instruments, les chercheurs ont exploité cette technique pour cartographier les composants du SIA et leur arrangement à l'échelle moléculaire. La précision de la nanoscopie, couplée à l'utilisation de plusieurs anticorps contre différentes parties de protéines du SIA, a permis de déterminer la position et l'orientation de ces protéines. Les  chercheurs ont confirmé que le complexe d'actine et de spectrine sous la surface du SIA est organisé de manière périodique, avec des paires de spectrines reliant des anneaux d'actine espacés de 190 nanomètres. Ils ont ensuite révélé que l'ankyrine G, la protéine d'échafaudage qui retient les canaux ioniques au SIA, a une extrémité insérée dans ce complexe périodique, tandis que l'autre dépasse vers l'intérieur de la cellule, avec une extension moyenne de 30 nanomètres.

Une fois cette cartographie moléculaire obtenue, ils ont testé la robustesse de cet assemblage en perturbant le cytosquelette neuronal ainsi que la signalisation intracellulaire. Ils ont démontré que le SIA est non seulement hautement organisé à l'échelle nanoscopique, mais que cette organisation est particulièrement résistante. Ces résultats suggèrent que l'organisation du SIA est importante pour maintenir et réguler le transport vers l'axone, permettant d'entretenir et de modifier l'arborisation axonale. Une meilleure compréhension de ce transport vers l'axone permettra d’appréhender comment et pourquoi il est profondément altéré dans les phases précoces des maladies neurodégénératives comme la maladie d'Alzheimer.
 

Figure : Image par nanoscopie d'un SIA marqué pour la ßIV-spectrine (en haut à gauche). L'organisation en bandes périodiques est clairement visible, contrairement à l'image de microscopie d'épifluorescence classique (encart) dont la résolution est trop limitée pour distinguer ces bandes. La nanoscopie peut être réalisée en 3D et en 2 couleurs (en bas à gauche), permettant de visualiser des coupes transverses du SIA, par exemple les microtubules à l'intérieur (en vert) entourés par la ßIV-spectrine sous-membranaire (en rose). A droite, schéma en zooms successifs montrant la localisation et l'organisation du SIA à l'échelle moléculaire, avec le complexe sous-membranaire périodique (190 nm) et l'extension de l'ankyrine G (32 nm). 

© Christophe Leterrier
 

En savoir plus
* Nanoscale architecture of the axon initial segment reveals an organized and robust scaffold. Christophe Leterrier, Jean Potier, Ghislaine Caillol, Claire Debarnot, Fanny Rueda Boroni, Bénédicte Dargent. Cell Reports (2015), http://dx.doi.org/10.1016/j.celrep.2015.11.051

 Contact chercheur
* Christophe Leterrier  Centre de recherche en neurobiologie et neurophysiologie de Marseille CNRS UMR7286, Aix Marseille Université Faculté de Médecine Secteur Nord Boulevard Pierre Dramard 13344 MARSEILLE CEDEX 15 Tel: 04 91 69 89 30

 

 DOCUMENT       cnrs        LIEN 

Impact de l’apprentissage de la lecture sur le cerveau

il y a 2 mois

     
Impact de l’apprentissage de la lecture sur le cerveau

COMMUNIQUÉ | 09 NOV. 2010 - 17H23 | PAR INSERM (SALLE DE PRESSE) 

Pour la première fois, des images détaillées de l’impact de l’apprentissage de la lecture sur le cerveau ont été obtenues par une équipe internationale de chercheurs. En comparant l’activité cérébrale d’adultes analphabètes avec celle de personnes alphabétisées durant l’enfance ou à l’âge adulte ces chercheurs ont démontré l’emprise massive de la lecture sur les aires visuelles du cerveau ainsi que sur celles utilisées pour le langage parlé. Coordonnée par Stanislas Dehaene (Collège de France, Unité CEAInserm- Université Paris Sud 11 de Neuroimagerie Cognitive, NeuroSpin/I²BM) et Laurent Cohen (Inserm, AP-HP, Université Pierre et Marie Curie), cette étude a impliqué des équipes brésiliennes, portugaises, et belges. Ces résultats sont publiés en ligne le 11 novembre par la revue Science.

L’acquisition de la lecture soulève plusieurs questions scientifiques importantes quant à son influence sur le fonctionnement cérébral. L’écriture est une invention trop récente pour avoir influencé l’évolution génétique humaine. Son apprentissage ne peut donc reposer que sur un « recyclage » de régions cérébrales préexistantes, initialement dédiées à d’autres fonctions mais suffisamment plastiques pour se réorienter vers l’identification des signes écrits et leur mise en liaison avec le langage parlé (1). C’est dans ce cadre que les chercheurs essaient de mieux comprendre l’impact de l’apprentissage de la lecture sur le cerveau.
Pour cela, ils ont mesuré, par IRM fonctionnelle (2), l’activité cérébrale d’adultes volontaires diversement alphabétisés, dans l’ensemble du cortex, avec une résolution de quelques millimètres, tandis qu’ils leur présentaient toute une batterie de stimuli : phrases parlées et écrites, mots et pseudo-mots parlés, visages, maisons, objets, damiers…63 adultes ont participé à l’étude : 10 personnes analphabètes, 22 personnes non-scolarisées dans l’enfance mais alphabétisées à l’âge adulte, et 31 personnes scolarisées depuis l’enfance. La recherche a été menée en parallèle au Portugal et au Brésil, pays dans lesquels, voici quelques dizaines d’années, il était encore relativement fréquent que des enfants ne puissent pas aller à l’école uniquement en raison de leur environnement social (isolement relatif, milieu rural). Tous les volontaires étaient bien intégrés socialement, en bonne santé, et la plupart avaient un emploi. Les études ont été réalisées avec des imageurs IRM à 3 Tesla au centre NeuroSpin (CEA Saclay) pour les volontaires portugais et au centre de recherches en neurosciences de l’hôpital Sarah Lago Norte à Brasilia3 pour les volontaires brésiliens. Grâce à ces travaux les chercheurs apportent des éléments de réponse à plusieurs questions essentielles.
Comment les aires cérébrales impliquées dans la lecture se transforment-elles sous l’influence de l’éducation ?
En comparant directement l’évolution de l’activation cérébrale en fonction du score de lecture (nul chez les analphabètes et variable dans les autres groupes), les chercheurs ont montré que l’impact de l’alphabétisation est bien plus étendu que les études précédentes ne le laissaient penser.
*         Apprendre à lire augmente les réponses des aires visuelles du cortex, non seulement dans une région spécialisée pour la forme écrite des lettres (précédemment identifiée comme la « boîte aux lettres du cerveau »), mais aussi dans l’aire visuelle primaire.

*         La lecture augmente également les réponses au langage parlé dans le cortex auditif, dans une région impliquée dans le codage des phonèmes (les plus petits éléments significatifs du langage parlé, comme « b » ou « ch »). Ce résultat pourrait correspondre au fait que les analphabètes ne parviennent pas à réaliser des jeux de langage tels que la délétion du premier son d’un mot (Paris→aris).

*         La lecture induit également une extension des aires du langage et une communication bidirectionnelle entre les réseaux du langage parlé et écrit : chez un bon lecteur, voir une phrase écrite active l’ensemble des aires du langage parlé, entendre un mot parlé permet de réactiver rapidement son code orthographique dans les aires visuelles. Chez les personnes qui n’ont pas appris à lire, le traitement du langage est moins flexible et strictement limité à la modalité auditive.

*         
À quoi servent les aires cérébrales impliquées dans la lecture avant qu’une personne n’apprenne à lire ? L’apprentissage de la lecture implique-t-il toujours un gain de fonction, ou bien l’augmentation des réponses aux mots s’accompagne-t-elle de diminutions des réponses à d’autres catégories de connaissances ?
Chez les analphabètes l’aire visuelle de l’hémisphère gauche qui, chez les lecteurs, décode les mots écrits répond à une fonction proche : la reconnaissance visuelle des objets et des visages. Dans cette région, au cours de l’apprentissage, la réponse aux visages diminue légèrement à mesure que la compétence de lecture augmente, et l’activation aux visages se déplace partiellement dans l’hémisphère droit. Le cortex visuel se réorganise donc, en partie, par compétition entre l’activité nouvelle de lecture et les activités plus anciennes de reconnaissance des visages et des objets. Aujourd’hui, on ne sait pas si cette compétition entraîne des conséquences fonctionnelles pour la reconnaissance ou la mémoire des visages.

Les modifications cérébrales liées à l’alphabétisation peuvent-elles se produire à l’âge adulte ? Ou bien existe-t-il une « période critique » pour cet apprentissage dans la petite enfance ?
La très grande majorité des effets de l’apprentissage de la lecture sur le cortex sont visibles autant chez les personnes scolarisées dans l’enfance que chez celles qui ont suivi des cours d’alphabétisation à l’âge adulte. Bien entendu, ces dernières n’atteignent que rarement les mêmes performances de lecture, mais cette différence pourrait n’être due qu’à leur moindre entraînement. À performances de lecture égales, il n’existe pratiquement pas de différences mesurables entre les activations cérébrales des personnes qui ont appris à lire dans l’enfance ou à l’âge adulte. Les circuits de la lecture restent donc plastiques tout au long de la vie.

Ces résultats soulignent l’impact massif de l’éducation sur le cerveau humain. Ils nous rappellent également que l’immense majorité des expériences d’IRM cérébrale portent sur le cerveau éduqué et que l’organisation cérébrale en l’absence d’éducation constitue un immense territoire largement inexploré.
Un aperçu des vastes réseaux cérébraux dont l’activité augmente avec le score de lecture, en réponse à des phrases écrites. Dès qu’une personne sait lire, la réponse aux mots écrits augmente rapidement dans diverses aires visuelles, dont l’une est spécialisée dans l’analyse de la forme des lettres (graphe de droite). De plus, l’ensemble des régions de l’hémisphère gauche impliquées dans le traitement du langage parlé (médaillon) devient susceptible de s’activer également en réponse au langage écrit.

 

 DOCUMENT      inserm     LIEN 

Interaction entre cœur et cerveau

il y a 2 mois

Interaction entre cœur et cerveau: un nouvel indicateur de l’état de conscience.


COMMUNIQUÉ | 23 OCT. 2017 - 10H45 | PAR INSERM (SALLE DE PRESSE) 

NEUROSCIENCES, SCIENCES COGNITIVES, NEUROLOGIE, PSYCHIATRIE

Comment savoir si un patient est conscient lorsqu’il est incapable de communiquer ? D’après une étude de l’Inserm menée chez 127 patients âgés de 17 à 80 ans, la modification des battements cardiaques en réponse à une stimulation sonore est un bon indicateur de l’état de conscience. C’est ce que montrent Jacobo Sitt, chercheur à l’Inserm et son équipe basée à l’institut du cerveau et de la moelle épinière à l’hôpital Pitié-Salpêtrière, AP-HP dans un article paru dans Annals of neurology. Cet examen facile à réaliser est complémentaire aux tests déjà existants et permet un diagnostic prédictif plus fin, utile à la fois aux médecins et aux familles.

L’étude des troubles de la conscience distingue schématiquement l’état végétatif, dans lequel le patient est éveillé mais non conscient de l’état de conscience minimale qui correspond à un certain degré de conscience. Distinguer ces deux états est très important pour établir un pronostic sur le devenir neurologique du patient, pour informer les proches et mettre ainsi en œuvre un traitement adapté. Tous les outils développés jusqu’à présent pour déterminer l’état de conscience, comme l’électroencéphalogramme (EEG), l’IRM fonctionnelle ou le PET scan, se concentraient sur le cerveau. Ces outils nécessitent soit un équipement lourd, soit des analyses complexes.

Des chercheurs de l’Inserm ont utilisé une approche novatrice : l’exploration de l’interaction entre le cœur et le cerveau.
De précédentes études avaient mis en évidence que les processus « inconscients » du système neuro-végétatif, comme la respiration ou les battements du cœur, pouvaient être modulés par des processus cognitifs conscients. La perception d’une stimulation externe, auditive par exemple, pourrait donc se traduire par un effet sur l’activité cardiaque, et cela d’autant plus facilement que le sujet est conscient.

En étudiant les données de 127 patients en états végétatifs ou de conscience minimale, les chercheurs ont constaté que les cycles cardiaques étaient effectivement modulés par la stimulation auditive uniquement chez les patients conscients ou minimalement conscients. Ils ont également montré que ces résultats étaient complémentaires des résultats obtenus en EEG. La combinaison de ces deux tests (test cardiaque et EEG) améliorant nettement les performances de prédictions de l’état de conscience d’un patient.

Ces résultats ouvrent de nouvelles perspectives sur une approche globale pour évaluer l’état de conscience des patients. Les chercheurs souhaitent à présent étendre le cadre à d’autres signaux physiologiques modulés par des processus conscients comme la respiration ou la dilatation des pupilles pour mettre au point un outil complet afin de mieux évaluer l’état de conscience au lit du patient.
En quoi consiste le test auditif utilisé ?

Le test consiste à faire écouter des séquences sonores initialement répétitives puis présentant, de manière rare et aléatoire, des variations. Lors de ces perturbations, les chercheurs déterminent si le rythme des battements cardiaques s’en trouve modifié,  traduisant une prise de conscience des bruits environnants.

 

 DOCUMENT      inserm     LIEN  

Un test sanguin développé pour détecter une maladie rare neurologique

il y a 2 mois

Un test sanguin développé pour détecter une maladie rare neurologique
COMMUNIQUÉ | 12 JUIN 2017 - 14H07 | PAR INSERM (SALLE DE PRESSE) 
NEUROSCIENCES, SCIENCES COGNITIVES, NEUROLOGIE, PSYCHIATRIE

Des équipes de l’AP-HP en collaboration avec des chercheurs de l’ICM (Inserm/CNRS/UPMC), et la start-up Metafora Biosystems, issue du CNRS, viennent de développer un test de diagnostic sanguin d’une maladie neurologique rare mais traitable, la maladie de De Vivo.
Il a été testé sur 30 patients atteints de cette maladie qui induit des déficits neurologiques tels qu’une épilepsie ou des troubles de la marche par exemple.
Le nouveau test[1], dont les résultats sont publiés dans la revue Annals of Neurology, permettra d’identifier rapidement (en moins de 48h) et facilement les enfants et les adultes touchés comparativement aux tests diagnostiques actuels qui reposent sur un geste invasif, la ponction lombaire ou des analyses ADN complexes.
La maladie de De Vivo ou syndrome du déficit en transporteur cérébral de glucose de type 1 (GLUT-1) se caractérise le plus souvent par un retard du développement, une épilepsie et/ou des troubles moteurs chez l’enfant. Des formes frustres[2] ont été décrites chez les enfants (accès de mouvements anormaux) mais aussi les adultes. On estime, sur la base d’une prévalence estimée à 1/83 000 dans la population danoise, à 800 le nombre de patients en France[3], dont un peu plus d’une centaine serait diagnostiquée. Dès lors qu’ils sont diagnostiqués, les patients peuvent bénéficier de traitements métaboliques qui diminuent les symptômes.
Le Dr Fanny Mochel à l’hôpital Pitié-Salpêtrière AP-HP, en lien avec les équipes de plusieurs hôpitaux de l’AP-HP (Bichat, Raymond-Poincaré et Robert-Debré) et de l’Institut du cerveau et de la moelle épinière (Inserm/CNRS/UPMC), ont développé avec la start-up Metafora Biosystems, un test de diagnostic sanguin simple et rapide (moins de 48h) de la maladie de De Vivo. Le diagnostic actuel est contraignant puisqu’il repose sur un geste invasif, la ponction lombaire, et des analyses génétiques complexes.

Dans cette étude, les prélèvements sanguins de 30 patients atteints de la maladie avec des profils différents, en fonction de l’âge et des symptômes, ont été analysés. Comparés à 346 prélèvements d’individus témoins, les résultats montrent que le test est significativement concluant avec 78% de diagnostic, incluant des patients pour lesquels les analyses génétiques n’avaient pas permis d’établir le diagnostic.

Forts de ces résultats, les chercheurs recommandent l’utilisation de ce test en routine clinique dans tous les services de neuropédiatrie et de neurologie. Ils suggèrent que la simplicité de ce nouveau test devrait augmenter le nombre de patients identifiés en France.
Grâce à ce nouveau test sanguin innovant, la maladie va pouvoir être recherchée chez tout patient présentant une déficience intellectuelle et/ou une épilepsie et/ou un trouble de la marche. Les traitements que l’on peut mettre en œuvre améliorent considérablement les symptômes, avec par exemple la disparition des crises d’épilepsie, et sont d’autant efficaces qu’ils sont débutés tôt, d’où l’importance d’un diagnostic précoce.
[1]  Protégé par le brevet CNRS WO2004/096841.
[2] Quand les patients ne présentent pas tous les symptômes caractéristiques d’une maladie ou que ces symptômes sont légers.
[3] [1] Larsen J, et al. The role of SLC2A1 mutations in myoclonic astatic epilepsy and absence epilepsy, and the estimated frequency of GLUT1 deficiency syndrome. Epilepsia. 2015 Dec;56(12):e203-8.

 

DOCUMENT      inserm     LIEN  

PÉDAGOGIE DU CHANT

il y a 3 mois

pédagogie du chant

Cet article est extrait de l'ouvrage Larousse « Dictionnaire de la musique ».

L'enseignement du chant a pour but de permettre au chanteur d'exploiter au mieux ses possibilités innées. Il est d'autant plus malaisé qu'aucun instrument n'est visible ni palpable, et que l'élève ne perçoit qu'une audition interne, et tronquée, de sa véritable voix. Le geste vocal à enseigner ne repose donc que sur la perception de sensations physiques, liées aux sensations auditives correspondantes. La difficulté primordiale consiste à déceler progressivement à quel type vocal appartient l'élève, alors que celui-ci ne peut encore donner l'exacte mesure de ses moyens. Or, ce classement dépend non seulement de l'étendue vocale apparente du sujet, mais de sa véritable tessiture, de son timbre, de la puissance éventuelle de la voix, mais encore de nombreux autres caractères propres tenant au milieu ethnique, acoustique, culturel, psychologique et physiologique de l'individu. Si l'essentiel de l'appareil vocal résulte, ainsi que le définit Georges Loiseau (Notes sur le chant, Paris, 1947) du « synchronisme entre le diaphragme (appui du souffle), le larynx et les résonateurs (toutes les cavités creuses situées au-dessus du larynx) », cette triade est liée « à la multiplicité des résultantes individuelles, à la personnalité et à l'individualité propre » de chacun. D'où la diversité des instruments vocaux, celle aussi des facteurs d'application de cet enseignement, qui varie avec chaque sujet dans la recherche d'un but commun, la parfaite disponibilité de la voix, sur toute son étendue, aux nuances et aux colorations les plus diverses, à une parfaite diction, et, enfin, à toutes les sollicitations d'expression ou de virtuosité du texte musical.

Enfin, dans le domaine de l'application, cet enseignement repose sur une autre ambiguïté, car si toutes les méthodes convergent pratiquement sur un mode de respiration (de préférence nasale), qui consiste à emplir d'abord la base des poumons par l'écartement des côtes et l'appui sur le diaphragme, l'expiration du souffle pose d'autres problèmes, car elle ne détermine pas a priori la bonne émission du son, et c'est cette émission qui entraîne a posteriori l'écoulement exact de l'air à expulser. La reconnaissance par le maître et par l'élève de la nature précise du son est donc primordiale dans toutes les pédagogies.

Ces dernières se rejoignent sur certains principes élémentaires de base : le travail vocal s'exécute d'abord sur des valeurs longues, lentes, bien liées entre elles, sans l'aide des consonnes et uniquement sur les notes du médium, celles qui précisément appartiennent en commun aux différents registres de la voix ; mais elles peuvent différer quant à leur application, puisqu'elles dépendent de la langue parlée (et entendue) par le sujet. Mais leur but commun étant la recherche de l'homogénéité du timbre et des voyelles sur toute l'étendue de la voix, leur premier objet est de réaliser la fusion entre ses divers registres par l'assombrissement progressif de la couleur des voyelles, de la note la plus grave à la note la plus aiguë, ce travail étant étroitement lié à la phonation de chaque langue. Le rejet de cette règle, tel qu'il a pu apparaître à certaines époques de l'histoire du chant ou de l'opéra, entraîne ce que l'on nomme parfois le « chant ouvert » (par assimilation à la couleur des voyelles ouvertes) qui, en obstruant le larynx, déforme la diction du texte, compromet l'émission des notes aiguës et leur disponibilité aux nuances. Or, la pose de voix consciente et maîtrisée est la condition préalable à l'interprétation musicale.

En effet, la pédagogie du chant comporte également la formation musicale de l'élève chanteur, qui doit être identique à celle de l'élève instrumentiste, à quelques spécialisations près. Elle est généralement assurée par un spécialiste, alors que la recherche de l'émission vocale et l'étude de l'interprétation peuvent incomber au même enseignant : ce dernier doit alors connaître non seulement les principales méthodes de chant des grands auteurs du passé, mais encore l'histoire des styles intimement liée à l'évolution de l'art lyrique. Il est donc souhaitable que la pédagogie du chant repose aussi sur une éducation de l'audition musicale de l'élève, facteur premier de toute reproduction vocale, par l'écoute critique des grands exemples du passé et du présent. C'est par la reproduction inconsciente de la parole d'autrui que le nouveau-né apprend l'usage de la parole, avec les qualités et défauts inhérents au milieu ambiant. Une fois mis en possession d'une technique vocale de base, l'élève peut ensuite se spécialiser dans une ou plusieurs branches de l'art lyrique, ou subir l'enseignement approprié à l'art de la scène, compte tenu du fait que toute pédagogie vocale doit tenir compte de la constante disponibilité de l'élève à toutes les sollicitations corporelles du concert ou de la scène.

Sans entrer ici dans les nombreuses disciplines afférent à cette pédagogie, il faut noter que si, depuis des siècles, de nombreux auteurs ont déploré l'appauvrissement de la pédagogie dans le domaine de la connaissance musicale, c'est son aspect technique qui s'est plus récemment dégradé et a conduit le chanteur à des spécialisations arbitraires et restrictives, sans justifications historiques, notamment vers le milieu de notre siècle où une divergence s'est créée entre une pédagogie axée sur la recherche d'un maximum d'intensité vocale et une autre tout aussi exclusivement attachée à une préciosité excessive dans l'expression de tous les styles ; or, s'il est patent que Verdi, Wagner, Puccini ou Bizet, par exemple, ont souvent prescrit la nuance pianissimo, rarement respectée par les interprètes, Monteverdi, Haendel, Mozart, Schubert, Debussy ou Fauré ont tout aussi souvent réclamé la nuance forte que leur refusent parfois les chanteurs.

 


            DOCUMENT   larousse.fr    LIEN

 

Arthur Schopenhauer

il y a 3 mois

Arthur Schopenhauer

Philosophe allemand (Dantzig 1788-Francfort-sur-le-Main 1860).

Élevant le « vouloir-vivre » au rang de principe métaphysique, Arthur Schopenhauer en fait la « clef de l’énigme du monde ». Par là s’explique le tragique de la condition humaine, réduite à être le jouet de cette force vitale qui lui échappe. La pensée de Nietzsche se formera par opposition à cette conception pessimiste.

Un parcours intellectuel syncrétique

Issu d'une famille de riches banquiers, Arthur Schopenhauer passe une partie de sa jeunesse à voyager en Europe, notamment en France et en Angleterre. Influencé par Platon et par Kant, il l’est aussi par Fichte, dont il suit les cours, et obtient en 1813 son doctorat de philosophie à Iéna, avec une thèse intitulée De la quadruple racine du principe de raison suffisante. Également marqué par la lecture des Upanishad, il se plonge dans la pensée de l’Inde, brahmanisme et bouddhisme confondus. Après la publication, en 1818, de son œuvre maîtresse, le Monde comme volonté et comme représentation (laquelle n’acquerra de vraie audience qu’après la réédition de 1844), Schopenhauer est chargé de cours à l'université de Berlin en 1819 (en même temps que Hegel), mais on ne lui confie pas de chaire. En 1831, il se retire à Francfort-sur-le-Main, où il rédige les Deux Problèmes fondamentaux de l’éthique (1841), puis Parerga et Paralipomena (1851), contenant des aphorismes spirituels qui faciliteront la diffusion de sa doctrine.

Schopenhauer demeure le représentant d’un pessimisme métaphysique absolu. Outre Nietzsche (« Schopenhauer éducateur », troisième des Considérations inactuelles [ou intempestives], 1874), l’écrivain Thomas Mann (les Buddenbrook. Le déclin d’une famille, 1901) comptera parmi les intellectuels le plus fortement marqués par sa pensée.

La force de la volonté universelle

Schopenhauer professe que le monde est tel que nous le connaissons, du fait même que ses phénomènes ne sont rien d'autre que nos sensations et que ses lois sont nos idées. Ce phénomène, Schopenhauer le renomme représentation ; ainsi, « le monde est ma représentation ». Mais il y a plus : la pensée elle-même n'est qu'un phénomène.

Toute la philosophie de Kant consiste dans la distinction entre phénomène et noumène. Le phénomène est ce qui nous apparaît, c'est-à-dire la représentation que nous nous faisons des choses. Le noumène est la chose en soi, inaccessible à notre connaissance. Or, Schopenhauer déclare que la grande découverte de sa vie est celle de la chose en soi. Cette réalité nouménale, il la trouve en lui-même, en faisant l’expérience de ce qu’est la tendance, le désir, la volonté, en un mot le « vouloir-vivre » érigé en volonté universelle.

Toute action du corps n’est que l’objectivation de cette volonté universelle. Le monde lui-même ne se compose que des manifestations de cette volonté, puissance aveugle qui travaille sans but et sans repos, qui s’élève par degrés de la matière inorganique à la raison humaine, en passant par l'irritabilité des plantes et la sensibilité des animaux, puisque la vie est une lutte pour l'existence où l'on est sûr d'être vaincu, c'est-à-dire de mourir. L'intelligence n'est qu'un agent de la volonté chargé de pourvoir à la vie de l'individu.

L'art et la pitié

Le fond de la conscience humaine elle-même ne serait que la tendance irrésistible au vouloir-vivre, illusion fatalement déçue. Le premier moyen pour s'affranchir de cette illusion est l'art, ce frère aîné de la philosophie. Par l'art – et notamment par la musique, d’où l’intérêt de Wagner pour Schopenhauer –, le génie contemple les Idées éternelles et sait les exprimer ; et, par la contemplation, il échappe aux dures nécessités de la vie.

Mais il n'est que peu de génies. Pour l'homme ordinaire, la voie du salut le plus à sa portée est la morale. L'existence n'est qu'une souffrance, puisque l'homme ne peut guider sa destinée. Mais par l'amour (tel que Jésus-Christ l'a enseigné) et par la pitié, qui lui révèle la fraternité humaine, l'homme peut se délivrer de l'égoïsme. La seule libération véritable et totale est le « quiétisme » de la volonté individuelle, qui laisse toute sa valeur à la volonté universelle. Il faut abolir en soi le vouloir-vivre, il faut « sortir du monde de la vie et entrer dans l'inconscience », dans le néant du nirvana pour parler le langage de l'hindouisme. Le suicide ne représente pas une solution, car il est encore inspiré par la passion.

Dans cette philosophie pessimiste, l'essence de l'être n'est donc qu'un effort douloureux, dont la libération n'est point dans le plaisir, répit négatif qui résulte de l'interruption momentanée de la souffrance, mais dans l'effort de l'intelligence, dans l'art, dans l'ascétisme et dans la pitié. Au final, c'est la pitié, « principe réel de toute justice spontanée et de toute vraie charité », qui constituera le fondement de la morale.

 

 DOCUMENT   larousse.fr    LIEN


 

Les hommes préhistoriques et la religion

il y a 3 mois

Les hommes préhistoriques et la religion
André Leroi-Gourhan dans mensuel 331 
daté mai 2000 - 

La structuration des figures animales et des signes peints ou gravés dans les grottes démontre l'existence de religions pendant la préhistoire. Leur signification précise nous échappe toutefois, comme nous échappent les gestes rituels dont ils étaient le décor.
Au premier chef, il semble qu'il faille, au préhistorien tout au moins, adopter une définition élargie et en quelque sorte ouatée du phénomène religieux, qui n'est pas formellement séparable des phénomènes d'élaboration symbolique liés au langage et à l'activité gestuelle. En d'autres termes, le religieux, dans la mesure de l'information préhistorique, peut-il être distinct de l'esthétique et de toute forme de l'imaginaire ? Le fait que le plus clair des arguments invoqués tourne autour du cadavre et de l'oeuvre d'art apparaît alors moins comme une coïncidence que comme un truisme, la mise en évidence d'une réalité fondamentale, non spécifique sinon de l'homme universel et par conséquent non significative au plan où l'on souhaiterait se situer. Mais c'est une ouverture vers le rapport étroit de l'imaginaire et du langage, ce qui porte l'investigation sur un champ moins fermé qu'il n'apparaît de prime abord.
En effet, la paléontologie des anthropiens, depuis les formes qui remontent à plus d'un million d'années jusqu'au Paléolithique supérieur de - 35 000 à - 9 000, rend compte de l'évolution volumétrique du cerveau et du développement progressif des territoires corticaux associés à une détermination de plus en plus fine de la motricité volontaire. Or les territoires dont l'expansion est privilégiée répondent à la face, à la langue, au larynx et à la main, matérialisant sur la face interne de la boîte crânienne des anthropiens fossiles le perfectionnement simultané du langage et de l'activité manuelle. A partir d'un seuil du développement des territoires fronto-pariétaux, seuil qui se situe dans la période immédiatement antérieure à l'expansion de l' Homo sapiens approximativement - 50 000 - 30 000 apparaissent les premières manifestations d'une activité esthétique sous forme de la recherche de l'ocre rouge, de minéraux de forme singulière coquillages fossiles ou pierres bizarres, griffonnages indistincts sur des blocs et sur des fragments d'os. C'est aussi de cette époque que datent les premières sépultures connues. Si le langage est perdu, les oeuvres de la main portent donc témoignage de l'entrée des anthropiens dans l'expression symbolique. Par le détour de l'anthropologie physique, les rapports virtuels entre langage et émergence dans l'abstrait, entre soins au mort et activité figurative se trouvent approfondis, et les limites du religieux possible situées quelque temps avant l' Homo sapiens . Ce « quelque temps » est d'ailleurs à considérer à l'échelle géologique, car le jour qui s'est levé sur l'art des cavernes a été précédé d'une aube et d'une aurore prolongées.
Il est donc difficile de séparer la religion et l'activité esthétique au sens le plus large : l'ensemble des manifestations répond à un processus d'exaltation sociale, de multiplication des symboles, qui est à prendre comme un tout. Ici, la comparaison ethnographique peut légitimement jouer, car elle porte sur le comportement fondamental de l'homme à partir d'un certain point de son évolution : tous les groupes humains, et notamment ceux qui sont réputés archaïques offrent les mêmes recoupements entre la parure, les amulettes, les instruments de la magie, les insignes sociaux, le décor du palais et du temple, les mêmes symboles pouvant couvrir simultanément ou successivement les différentes zones de l'enveloppe intellectuelle de la société. Il convient donc de considérer d'abord les témoins par catégories concrètes sépulture, objets, plaquettes et blocs mobiles décorés, parois décorées, de rechercher ce qu'ils peuvent avoir de commun ou de particulier, c'est-à-dire s'efforcer de retrouver au moins une partie du réseau qui les liait les uns aux autres de manière significative, et non s'efforcer de faire entrer les faits dans des catégories abstraites comme rituel, magie, envoûtement, clans, totémisme.
Un peu avant 1870, les objets décorés par les chasseurs de mammouths du Paléolithique supérieur ont commencé à retenir l'attention : par contre l'art des cavernes n'a percé que presque un demi-siècle plus tard. Attribuées initialement à des élans purement artistiques, les oeuvres sont entrées dans le dossier de la religion fossile au début du XXe siècle, sous l'inspiration des travaux ethnologiques qui révélaient les liens entre art et religion chez les derniers chasseurs des confins du monde habité. Les figures paléolithiques sont essentiellement des représentations d'animaux, d'êtres humains relativement rares, de symboles génitaux concrets ou abstraits qui n'existent pratiquement que dans les grottes. Les pionniers de la recherche sur l'art des cavernes sont symbolisés par l'abbé Henri Breuil, qui marqua d'une empreinte prestigieuse les travaux de la première moitié de notre siècle. Pour lui, ou pour ses partisans, l'art paléolithique aurait été essentiellement magique : l'envoûtement, la capture des esprits, une sorte de chamanisme, des rites de fécondité auraient commandé l'exécution des objets mobiliers comme celle des décors pariétaux. Les figures sur parois répétées à la mesure des besoins de la tribu se seraient succédé au cours des millénaires, au point de constituer des nuages d'images aussi denses que ceux d'Altamira ou de Lascaux. Un peu à l'insu des inventeurs d'explications, assez souvent modérés dans leurs élans, toute une imagerie s'est ainsi créée autour de l'homme préhistorique, imagerie copieuse mais pauvre, où totémisme, initiation, chasse simulée, danses masquées, juments gravides ont alimenté pendant un demi-siècle une littérature qui a progressivement pénétré dans les masses.
En 1957, Mme Laming-Emperaire a émis, après l'étude de deux des principaux ensembles peints de France Lascaux et Pech-Merle, une série de vues qui tranchaient nettement sur les positions traditionnelles. Dans leur contenu, ces vues conduisaient à considérer les figures des cavernes comme organisées en compositions significatives, et non comme l'accumulation anarchique de figures d'époques successives. Le thème autour duquel les différentes figures gravitaient était constitué par l'association constante du bison ou de l'aurochs avec le cheval. Ce résultat très important convergeait avec les travaux que je poursuivais moi-même à cette époque, travaux qui ont eu pour base de départ l'art pariétal dans sa chronologie, puis qui se sont développés dans une analyse quantitative du groupement des figures dans les différentes régions des panneaux décorés ou de la caverne tout entière. Il en est ressorti un schéma complexe, comme il était naturel dans l'étude d'une centaine de sites distribués sur une large partie de l'Europe occidentale durant près de 20 000 ans. Dans l'art mobilier, les animaux ou les figures humaines apparaissent tantôt isolés, tantôt groupés suivant les principes qui seront décrits ci-dessous. Dans l'art pariétal, du fait que les figures sont restées fixées sur les parois, là où l'homme paléolithique les a tracées, il est plus facile de constater la nature des associations entre les sujets.
Il n'existe pas de caverne où une seule espèce soit représentée, sinon par un individu encore ce cas est-il statistiquement inexistant : en majorité écrasante, les espèces vont par deux suivant la formule cheval-boviné groupe A-B ; avec une fréquence moindre apparaît un troisième élément : cerf, mammouth, bouquetin ou renne groupe C qui est souvent limité à une seule espèce mais peut aller jusqu'à comporter les quatre. La formule la plus fréquente est par conséquent A-B-C. Avec une moindre fréquence encore, on peut voir s'ajouter l'ours, le grand félin, le rhinocéros groupe D, par une seule espèce ou dans les mêmes conditions que pour le groupe C. La formule complète A-B-C-D se rencontre par exemple à Lascaux suivant les régions de la caverne : cheval-aurochs-bouquetin, cheval-bison-cerf, cheval-bison-rhinocéros, cheval-aurochs-ours, cheval-bison- bouquetin-félin.... On verra plus loin que cette répartition est fonction d'une certaine disposition spatiale. A peu d'exceptions près, le schème fondamental de l'art pariétal et dans une mesure notable de l'art mobilier est donc, pour les animaux, une triade A-B-C ou A-B-D éventuellement A-B-C-D avec des proportions numériques qui sont de 27 % pour le groupe A, 28 % pour le groupe B, 32 % pour le groupe C mais avec des fréquences suivant les espèces, qui vont de 9 % pour le mammouth à 0,3 % pour le daim à bois géants, 3,5 % pour l'ensemble du groupe D. Les 10 % qui restent vont à des figures rares : poissons, serpents, oiseaux, carnassiers autres que le félin et l'ours.
Les signes S se répartissent eux aussi en deux catégories fondamentales S1-S2 et une catégorie complémentaire S3 dans laquelle il n'est jusqu'à présent pas établi une différenciation comparable à celle qui existe entre C et D. La catégorie S1 est constituée par des symboles génitaux féminins qui vont de la représentation complète de la femme au torse avec représentation du sexe, à la vulve réaliste, à des figures de plus en plus stylisées en ovale, en triangle, en cercle, en rectangle, avec ou sans indication d'une fente à la partie inférieure. Ces différents mondes de figuration marquent une évolution dans le temps et dans l'espace, et j'ai été conduit à les interpréter comme symboles féminins au cours d'un travail qui était orienté uniquement sur leur valeur comme jalons chronologiques et régionaux. Les signes des catégories S3 et S4 correspondent à des variantes sur le symbole génital masculin figuré par l'homme complet, par le phallus, par des représentations d'un schématisme croissant qui se résolvent en bâtonnets crochus ou barbelés, en traits simples, doubles ou multiples, en lignes ou en nappes de points, voire en un point unique. Comme les animaux, les signes répondent à un dispositif fondamental binaire S1-S2 qui assez souvent prend un caractère ternaire par le voisinage de deux formes différentes de symboles masculins ; de sorte qu'à un signe S1 se trouvent associés par exemple un bâtonnet et une nappe de points S1-S2-S3.
Animaux et signes répondent par conséquent aux mêmes formules fondamentales, logiquement binaires et encore accusées par le fait que les animaux de même espèce apparaissent fréquemment par couples mâle-femelle. Mais le dispositif est moins simple que ne laisserait supposer une explication uniquement fondée sur la symbolique de fécondité : l'élément initial est la présence de deux espèces A-B cheval-boviné confrontées à deux catégories de signes masculins et féminins. On serait donc tenté d'attribuer au cheval et au bison la même valeur symbolique ou tout au moins une bivalence d'un même ordre qu'aux symboles des deux catégories S1 et S2. Enfin, il faut souligner comme une notion indispensable pour mesurer le caractère abstrait du système figuratif paléolithique qu'il n'existe jusqu'à présent dans l'art pariétal comme dans l'art mobilier aucune représentation réaliste d'accouplement animal ou humain.
Il ne faut pas se méprendre sur le caractère du témoignage : la décoration pariétale des grottes est comme la décoration murale des sanctuaires ultérieurs, elle livre un assemblage symbolique de figures qui ne matérialise pas des rites mais qui en était le décor. Les traces que peuvent avoir laissées les rites ne sont pas sur les parois décorées mais à leurs pieds et sur le sol généralement anéanties par les visiteurs. En marge des grandes représentations, on rencontre effectivement, dans des cas privilégiés, des graffitis, des empreintes de pas humains, l'impression de pattes d'animaux coupées et appliquées sur l'argile, des signes tracés au doigt sur les parois molles, c'est-à-dire les très modestes témoins qui subsistent d'actes dont le déroulement s'est fait dans le cadre des grandes images.
La décoration pariétale, elle-même, répond à une formule si générale que son contenu mythologique est pratiquement insaisissable. On perçoit très bien qu'une métaphysique de la mort et de la fécondité a pu sous-tendre les représentations, mais vingt contenus ont pu, au cours des millénaires et dans les différentes régions, entrer dans la formule binaire-ternaire d'association des animaux et des signes. La religion préhistorique est démontrée, mais dans une formule abstraite ; sa richesse et sa complexité sont perceptibles dans les variantes de la formule initiale, mais les explications des préhistoriens sur le chamanisme, les totems, la division des clans, l'envoûtement du gibier, la magie de fécondité, les rites d'initiation sont du domaine de l'hypothèse de cabinet, vraisemblable parce que tout est dans l'homme et que celui du Paléolithique supérieur est un homme pleinement réalisé, mais gratuite parce que fondée directement sur des matériaux qui ne peuvent apporter que des preuves indirectes. Cette erreur de méthode a permis la naissance d'une légende dorée, mais elle a coûté pendant presque un siècle de nombreuses occasions d'observer les traces, encore visibles lors de la découverte, de ce qui pouvait apporter un témoignage direct sur les actes.

UN LONG MÛRISSEMENT
Peu de préhistoriens ont osé aborder de front la question religieuse. Pour André Leroi-Gourhan, qui s'est attaché à reconstituer les modes de vie des populations du Paléolithique sous tous leurs aspects, l'existence même des grottes ornées et de l'art mobilier imposait qu'il s'y intéresse. Il le fait, d'abord par de petits articles puis, en 1964, dans un livre Les R eligions de la préhistoire . Comme pour les très nombreux sujets qu'il a étudiés, il y revient à de nombreuses reprises, à l'occasion de fouilles nouvelles qui posaient de nouvelles questions, ou plus simplement parce que sa réflexion se précise. Cette étude des religions mobilise ses compétences dans les différentes disciplines auxquelles il a été formé : anthropologue physique, il déduit les capacités cognitives des hommes de leur morphologie ; ethnologue, il adapte et développe des modèles structuralistes ; archéologue, il propose la reconstitution des gestes qui ont produit les objets étudiés ou qui se sont déroulés en leur présence. L.A.
SAVOIR
A lire :
-A. Laming-Emperaire, La S ignification de l'art rupestre paléolithique , Paris, Picard, 1962.
-A. Leroi-Gourhan, Le G este et la P arole , tome 1 : Technique et langage , Paris, Albin Michel, 1964.
-A. Leroi-Gourhan, Les R eligions de la préhistoire P aléolithique , Paris, PUF, 1990.
-A. Leroi-Gourhan, Préhistoire de l'art occidental , édité par Brigitte et Gilles Delluc, Paris, Mazenod, 1995.

 

 DOCUMENT   larecherche.fr    LIEN

Comment les algorithmes envahissent notre quotidien

il y a 3 mois

Comment les algorithmes envahissent notre quotidien
Vincent Glavieux dans mensuel 511 
daté mai 2016 - 

Réseaux sociaux, management d'entreprise, politiques publiques... Les algorithmes investissent de plus en plus de domaines de la société. Une tendance qui fascine certains, attise les critiques des autres, mais surtout met en évidence le manque de connaissances du grand public sur le sujet.

Connaissez-vous Deep Knowledge Ventures ? Ce nom est celui d'une société de Hong Kong, qui investit dans des entreprises - en l'occurrence, celles qui mettent au point des médicaments luttant contre des maladies liées à l'âge ou des projets de médecine régénérative - en espérant un lucratif retour sur sa mise. Mais si cette entreprise a fait parler d'elle en 2014, ce n'est pas pour son activité. C'est parce qu'elle a pris une décision étonnante : nommer comme membre de son conseil d'administration... un algorithme !
Baptisé Vital, le programme possède, comme tous les autres membres du conseil d'administration, un vote sur les futurs investissements de l'entreprise. Pour prendre sa décision, il se fonde sur l'analyse de nombreuses données de la société dans laquelle Deep Knowledge Ventures envisage d'investir : son état financier, le type et le nombre d'essais cliniques qu'elle mène, les droits de propriété intellectuelle qu'elle possède (brevets, marques commerciales, etc.) ou encore les résultats de ses précédentes levées de fonds.
Un algorithme qui participe aux prises de décisions stratégiques d'une entreprise ? L'exemple semble - pour le moment du moins - un cas isolé. Mais il est révélateur d'une tendance forte, qui s'accentue ces dernières années : les techniques de calcul et d'analyse des données se complexifient, et s'immiscent dans les moindres aspects de notre vie quotidienne. Bien évidemment, cette emprise croissante suscite de nombreuses interrogations, crée de nouveaux enjeux. Faut-il pour autant redouter le fait qu'un jour les algorithmes puissent devenir les maîtres du monde ?
Les algorithmes sont un outil très ancien. Si le premier algorithme reconnu est celui établi par Euclide, vers - 300 avant J.-C., pour calculer le plus grand commun diviseur, les recherches archéologiques montrent que les Babyloniens, qui peuplaient une région située dans l'Irak actuel, en comprenaient déjà le fonctionnement. La tablette d'argile « YBC 7289 » (« Yale Babylonian Collection n° 7289 »), datée entre -1800 et -1600 avant J.-C. et aujourd'hui conservée à l'université Yale, aux États-Unis, en est un exemple : d'après les spécialistes, il s'agit de la plus ancienne représentation connue de la racine carrée de 2 ; un résultat qu'elle donne avec une précision de six décimales (1,414212, au lieu de 1,414213), grâce à l'utilisation d'un algorithme d'approximation (1).
Aujourd'hui, les algorithmes se retrouvent partout. Les plus répandus sont aussi ceux qui ont le fonctionnement « le plus primitif », juge Serge Abiteboul, directeur de recherche à Inria, professeur affilié à l'École normale supérieure de Cachan. Parmi eux figure le PageRank du moteur de recherche Google, qui référence les pages web en fonction du nombre de fois où des utilisateurs ont cliqué dessus, ou l'algorithme de Facebook qui, jusqu'à l'année dernière, déterminait la place d'un post dans le fil d'actualité de ses utilisateurs en fonction du nombre de mentions « j'aime » (les « like »), de commentaires et de partages avec les autres membres du réseau social.
Depuis un an, l'algorithme du site créé par Mark Zuckerberg prend aussi en compte les préférences des utilisateurs, notamment en se fondant sur le temps qu'ils passent à regarder chacun des contenus. Une évolution qui vise à mieux épouser leurs demandes... mais aussi à mieux mettre en valeur les partenaires commerciaux de Facebook, via la technique de ciblage publicitaire. Cette méthode de marketing digital s'appuie en effet beaucoup sur les recherches des internautes - donc ce qui est censé les intéresser -, pour leur proposer des produits ou des sites dans le même champ.

IDIOTS OU EXPERTS
« On parle ici d'algorithmes peu sophistiqués, idiots et intrusifs, reprend Dominique Cardon, sociologue au laboratoire des usages d'Orange Labs, professeur associé de l'université de Marne-la-Vallée (lire p. 86). D'ailleurs, leur efficacité reste toute relative. Ce problème est en partie dû au fait que les données qu'ils traitent sont de natures variées - un souci qui n'existe pas pour des sites comme Spotify, bien plus efficaces dans leurs conseils car ils traitent de données homogènes : en l'occurrence, les goûts musicaux d'une personne. »
À côté de ces algorithmes basiques, il existe des algorithmes plus élaborés, complexes, qui cherchent à apporter une expertise, voire remplacent carrément la décision humaine. Ces algorithmes, on les retrouve dans la gestion des lignes de métro - la ligne 14 du réseau parisien, qui est entièrement automatique, par exemple - ou en médecine, pour les diagnostics médicaux. Leur domaine d'application privilégié reste néanmoins la finance, où ils sont utilisés à des tâches qui ne requièrent pas nécessairement d'intervention humaine. Il est loin, en effet, le temps où les transactions boursières se faisaient à la main. Ce système cède de plus en plus la place à la gestion systématique par ordinateur et au trading algorithmique. Ici, les différents aspects de l'ordre de transaction, tels que l'instant d'ouverture ou de clôture, le prix ou le volume de l'ordre, sont décidés par des algorithmes - il en existe des dizaines, qui possèdent tous un nom évocateur : Iceberg, Sumo, Shark, etc. (2). Ce qui n'empêche pas des défaillances, comme lorsqu'un algorithme dit de « trading à haute fréquence » a provoqué la chute brutale du cours de la Bourse de Wall Street, et la disparition de près de 860 milliards de dollars de capitalisation boursière (lire p. 84).
Et ce qui est vrai pour des processus automatisables l'est aussi, de plus en plus, dans d'autres domaines où l'on penserait pourtant que les hommes sont incontournables. Ainsi, le management des entreprises s'ouvre lui aussi aux algorithmes. Deux chercheurs américains en sciences sociales, Alex Rosenblat, de l'institut de recherche Data & Society, et Luke Stark, de l'université de New York, ont par exemple montré récemment comment la société Uber, qui développe et exploite des applications mobiles pour mettre en relation ses utilisateurs avec des conducteurs, se sert de son programme de calcul pour exercer sur les chauffeurs le même genre de contrôle managérial qu'un être humain. Parmi les paramètres de leur algorithme figurent des indicateurs de performance, des systèmes de planification ou encore une tarification évolutive, qui varie en fonction de la note de satisfaction attribuée au conducteur (3).
Le domaine de la recherche scientifique lui-même n'est pas à l'abri. Face au développement de l'analyse des données massives - le Big Data -, certains se posent ainsi la question de savoir si cette évolution ne va pas remettre en cause la méthode scientifique traditionnelle, fondée sur les hypothèses et les modèles d'une part, et l'expérimentation pour confirmer ou infirmer des hypothèses d'autre part.
Autre domaine visé par cette logique algorithmique : la politique. Dans l'ouvrage collectif Beyond Transparency, les auteurs - tous impliqués dans des projets appliquant l'open data à la politique - décrivent ainsi les bénéfices que nous pourrions tirer de méthodes de gouvernement dérivées de ces outils de calcul : plus de réactivité, plus de pragmatisme, plus d'efficacité aussi. Pour illustrer leur propos, ils mentionnent entre autres la ville de New York où, selon eux, la création d'une cellule d'analytique prédictive a permis à la municipalité d'améliorer sensiblement la lutte contre la fraude et d'optimiser de nombreuses politiques publiques, notamment l'inscription des enfants dans les établissements d'enseignement secondaire de la ville (4).
Mais parmi tous les projets exploitant des algorithmes, un se détache par son ambition universelle : il s'agit du projet Ethereum, lancé en novembre 2013 et opérationnel depuis juillet 2015. Ses deux cofondateurs, Vitalik Buterin et Joseph Lubin, visent par son biais à étendre l'utilisation des programmes de calcul à tous les pans de la société, selon un même mode de fonctionnement - d'abord dans la finance, puis dans l'Internet des objets, dans la musique, dans la location de voitures, etc. Concrètement, le projet Ethereum est un système de transactions à l'échelle mondiale. Son architecture est celle d'un réseau pair à pair, c'est-à-dire qu'il permet l'échange et le partage direct de fichiers entre ordinateurs, sans intermédiaire. Dans ce système, des algorithmes, dits « de consensus », régissent le fonctionnement : ils ont pour rôle de garantir la fiabilité des transactions (5).

CALCULS BIAISÉS
On le voit, non seulement les algorithmes s'immiscent dans tous les espaces de notre vie quotidienne, afin de nous dégager de tâches non essentielles, mais ils s'infiltrent jusque dans nos processus de décision, et peuvent prendre des aspects hégémoniques. Faut-il pour autant en avoir peur ? Pour Buterin et Lubin, la réponse est clairement non. Les deux hommes sont convaincus de la nature bienfaisante de leur projet, et des algorithmes de manière générale. Lors d'une présentation à Genève, en février de cette année, Joseph Lubin a ainsi défendu Ethereum en mettant en avant ses capacités à « court-circuiter les constructions politiques et légales, qui reposent sur la subjectivité et peuvent conduire à concentrer du pouvoir » et en le définissant comme « un substrat pour construire des systèmes économiques, sociaux et politiques globaux qui soient transparents, configurables de manière privée, profondément sécurisés, non censurables, non répudiables, et nativement interopérables ». Autrement dit : il ne faut pas redouter Ethereum, mais l'accueillir comme un moyen de lutter contre les discriminations, un outil profondément égalitaire et émancipateur.
Mais tout le monde ne pose pas le même regard bienveillant sur cette emprise croissante des algorithmes. Les doutes portent par exemple sur leur loyauté : rendent-ils le service qu'ils prétendent offrir, ou pas ? Pour Serge Abiteboul, les risques liés aux algorithmes sont de trois ordres. « Premièrement, ils peuvent être injustes ou, plus exactement, ils peuvent reproduire une injustice si les concepteurs y introduisent des biais, explique-t-il. Par exemple, il serait injuste d'utiliser un ensemble de données sur la criminalité, dans lequel certains quartiers sont sous-représentés, ou de biaiser un calcul en utilisant les valeurs de certaines variables cachées, comme l'origine ethnique, reconstruites pour l'occasion. De tels biais peuvent refléter les intérêts commerciaux, les préférences politiques, religieuses, ou autres des concepteurs des algorithmes. Qu'ils soient intentionnels ou pas, ils peuvent être immoraux, voire illégaux. »
Le deuxième risque est celui de l'opacité : les algorithmes sont souvent des dispositifs opaques, qui accèdent à nos données - parfois très personnelles - sans que l'on sache vraiment ce qu'ils en font, ni comment. « À ce titre, les "boîtes noires" adoptées l'année dernière dans la loi sur le renseignement sont un exemple particulièrement frappant de ce qu'il faut absolument éviter », estime le directeur de recherche à Inria. La législation française prévoit en effet désormais, pour les services de renseignement, la possibilité d'imposer des dispositifs d'analyse automatique des données - ce qu'on appelle les boîtes noires - dans les réseaux des fournisseurs d'accès et de certains grands sites internet (6). Ces dispositifs sont censés permettre de détecter des comportements suspects de potentiels terroristes en croisant ces données à l'aide d'algorithmes. Sauf que les détails et le périmètre de cette détection automatique sont encore très vagues.

APPRIVOISER LA TECHNOLOGIE
Enfin, il y a le risque que les algorithmes encouragent l'uniformité. « Les algorithmes de recommandation qu'utilisent les sites internet (d'information, de pages web, de films, etc.) donnent en priorité les informations les plus populaires, celles que vous avez l'habitude de voir, commente Serge Abiteboul. Le risque, c'est donc qu'ils nous poussent à occulter une grande partie des choix possibles, et qu'ils nous enferment dans des territoires intellectuels de plus en plus étroits. »
Alors, faut-il s'inquiéter de la (toute) puissance des algorithmes ? « Tous les risques que je viens d'énumérer ne sont pas des défauts intrinsèques à cette technologie, termine le chercheur. Tout dépend de la manière dont nous, êtres humains, les concevons et les utilisons, et cela s'applique y compris aux programmes les plus complexes, dont le fonctionnement ressemble de plus en plus à celui d'un être humain, comme la voiture autonome. » Ce qui implique selon lui de mettre en place des instances indépendantes, chargées de contrôler que les algorithmes sont utilisés de manière responsable. Pour David Monniaux, directeur de recherche dans l'unité mixte Verimag, spécialisée dans la conception d'outils entrant dans le développement de systèmes embarqués, les peurs - comme les espérances - liées aux algorithmes sont surtout révélatrices d'une « pensée magique à l'oeuvre ». Autrement dit, elles reflètent le manque de connaissances du grand public sur le sujet, ce qui empêche d'en faire « une analyse objective et informée ». Dans ce contexte, les chercheurs ont, selon lui, un rôle important à jouer auprès de la population : charge à eux de démystifier les argumentations trompeuses et les concepts présentés comme mystérieux. De cette manière, assure-t-il, nous parviendrons à apprivoiser les algorithmes, comme nous l'avons fait avec chaque grande rupture technologique, comme l'électricité par exemple.

QUAND UN ALGORITHME PROVOQUE UN KRACH BOURSIER ÉCLAIR
En quelques minutes, le 6 mai 2010, la Bourse de New York s'effondre : de - 2 %, son cours passe à - 10 %. Le cours se redresse quelques minutes plus tard mais le mal est fait : environ 860 milliards de dollars de capitalisation boursière ont disparu. Très rapidement, les autorités fédérales de régulation des marchés américains, la Securities and Exchange Commission et la Commodity Futures Trading Commission, sont chargées d'enquêter sur ce qui s'est passé. Dans le rapport qu'elles rendent en octobre de la même année, les agences mettent en cause un courtier et... les algorithmes de trading à haute fréquence (1). D'après elles, le courtier aurait donné, à travers son programme informatique, un ordre de vente de 4,1 milliards de dollars. L'algorithme était paramétré pour vendre 9 % du volume réalisé à la minute précédente, sauf qu'il n'avait aucune indication de prix ou de temps pour effectuer cette tâche. Résultat, il a accompli en vingt minutes une opération qui, normalement, se déroule sur plusieurs heures. L'extrême rapidité de la manoeuvre a surpris, provoquant un effet domino : d'autres algorithmes de courtage ultrarapides se sont mis, mécaniquement, à vendre en masse eux aussi, sans qu'il y ait d'acheteurs, ce qui a fait plonger les cours brutalement.
(1) Collectif, « Findings regarding the market events of May 6th, 2010 », http://tinyurl.com/SEC-and-CFTC-report

 

 DOCUMENT   larecherche.fr    LIEN

Les phéromones, acteurs de la plasticité comportementale

il y a 4 mois

 
Les phéromones, acteurs de la plasticité comportementale
 
Les phéromones sont des éléments clés de la communication animale: elles sont libérées pour transmettre des messages spécifiques tels que l'attraction sexuelle, l'agression, la reconnaissance de congénères, etc., aux membres d’une même espèce. Les équipes de Martin Giurfa au Centre de recherches sur la cognition animale et de Patrizia d'Ettorre au laboratoire d'Ethologie expérimentale et comparée, ont découvert une nouvelle fonction insoupçonnée des phéromones chez l'abeille domestique. En dehors des messages spécifiques qu'elles véhiculent, les phéromones sont capables de changer la façon dont un animal évalue la valeur subjective d'un aliment souhaité et donc sa capacité à apprendre sur cet aliment. Cette étude a été publiée le 29 août 2017 dansla revue Scientific Reports.

L'analogie entre les colonies d'insectes sociaux et les organismes multicellulaires a été établie pour la première fois il y a un siècle, lorsque les colonies d'insectes ont été appelées «superorganismes». En parfaite similarité avec les organismes multicellulaires, qui utilisent des hormones circulantes pour la coordination de leurs cellules, les insectes sociaux utilisent des phéromones, des molécules hautement volatiles agissant comme messagers chimiques pour coordonner des centaines voire des milliers d'individus au sein d’une colonie. Les phéromones sont des éléments clés de la communication animale: elles sont libérées pour transmettre des messages spécifiques tels que l'attraction sexuelle, l'agression, la reconnaissance de congénères, etc., aux membres d’une même espèce. Avec plus de 50 phéromones différentes décrites à ce jour, les abeilles se distinguent assurément des autres insectes sociaux par leur système de communication sophistiqué basé sur ces molécules chimiques.
 
Les chercheurs de l'équipe de Martin Giurfa (CNRS, Université de Toulouse) et de Patrizia d'Ettorre (Université Paris 13), ont découvert une nouvelle fonction des phéromones de l'abeille qui change la vision traditionnelle affirmant que ces substances ne sont que des messagers chimiques très spécifiques. Les travaux, dirigés par David Baracchi, ont permis de découvrir que les phéromones peuvent affecter la prise de décisions et l'activité de recherche de nourriture au-delà des messages spécifiques qu'ils véhiculent: en fait, elles peuvent changer la façon dont un animal évalue la valeur subjective d'un aliment souhaité et donc sa capacité à apprendre sur cet aliment.
 
Les chercheurs ont exposé des abeilles ouvrières soit à une phéromone appétitive, qui dans la nature sert à marquer des sources de nourriture profitables, soit à des phéromones d'alarme, qui signalent des situations aversives. Après quelques minutes, lorsque la phéromone n'était plus présente dans l'environnement, ils offraient une récompense de saccharose aux abeilles et évaluaient leur volonté d'ingérer cette nourriture en utilisant l'extension réflexive des parties buccales (PER) survenant chez cet insecte lorsque ses antennes sont stimulées par des solutions de saccharose.
 
Les chercheurs ont observé que les phéromones induisent des changements significatifs dans la réactivité et l'habituation au saccharose (une forme simple d'apprentissage appétitif), démontrant ainsi que les phéromones modulent la motivation des abeilles au-delà des messages qu’elles fournissent. Fait intéressant, la direction de cette modulation dépend de la valence positive ou négative des phéromones. Les phéromones d'alarme diminuent la motivation appétitive tandis que la phéromone appétitive, qui marque des ressources nutritives rentables, l'améliore. Ainsi, une phéromone d'alarme n'est pas seulement un message d'alarme, elle modifie la motivation globale d'un animal, y compris sa volonté d'accéder à une ressource nutritive et l’apprentissage des facteurs associés à cette ressource.
 
Ces résultats apportent une perspective nouvelle dans l'appréciation générale des effets des phéromones, habituellement considérés comme restreints au déclenchement de réponses stéréotypées, puisque les nouveaux travaux de David Baracchi montrent leur influence sur un apprentissage simple. Ils soulignent ainsi le rôle important des phéromones dans la plasticité comportementale des individus et des colonies. 

 

DOCUMENT       cnrs        LIEN

LA NOTION D'ÉVOLUTION

il y a 4 mois

LA NOTION D'ÉVOLUTION

« Rien n'a de sens en biologie si ce n'est à la lumière de l'évolution ». Cet adage célèbre de Th Dobzhansky prend encore plus de valeur quand on se rend compte à quel point la notion d'évolution a été difficile à faire émerger. En effet, au 18ème siècle, de nombreuses idées fausses, comme le créationnisme, l'échelle des êtres, les métamorphoses, la génération spontanée, empêchaient la constitution d'une biologie cohérente. Pas à pas, principalement par la réfutation de ces dernières, un environnement propice à l'apparition du transformisme s'est constitué. Avec Charles Darwin, au milieu du 19ème siècle, un cadre théorique cohérent se met en place à partir des deux concepts-clés que sont la descendance avec modification et la sélection naturelle. Mais il faudra attendre presque un demi-siècle pour que la génétique puisse asseoir une théorie que l'on baptisera du terme de « théorie synthétique » à l'aube de la Seconde Guerre Mondiale. Ce cadre conceptuel va connaître diverses révolutions qui vont susciter de vastes discussions, parfois houleuses. Avec la cladistique, la classification se trouve bouleversée ; le gradualisme est remis en cause par le concept d'équilibre ponctué et le renouveau du catastrophisme en paléontologie ; l'accès au génome permet de mieux comprendre ce qu'est la nouveauté génétique, en particulier au niveau des gènes de développement ; on se rend compte que la sélection ne joue pas sur tous les caractères
C'est donc une notion de l'évolution, complexe mais cohérente, qui émerge à la fin du 20ème siècle. Les implications philosophiques sont importantes. Mais peut-être que l'une des idées les plus fortes consiste à comprendre que l'originalité géologique de la planète Terre est continuellement sous la dépendance du vivant. Hervé Le Guyader, Professeur à l'Université P. & M. Curie

 

VIDEO     canal U       LIEN   

Régénération musculaire le couplage entre myogenèse et angiogenèse est stimulé par les macrophages

il y a 4 mois

 
Régénération musculaire : le couplage entre myogenèse et angiogenèse est stimulé par les macrophages
 
Après une lésion, le muscle squelettique régénère grâce aux cellules souches qui enclenchent la myogenèse et dans le même temps, le lit vasculaire se reforme par angiogenèse. L'équipe de Bénédicte Chazaud à l’Institut NeuroMyoGène, montre que myogenèse et angiogenèse sont deux processus couplés aux plans cellulaire et moléculaire et stimulés par les macrophages réparateurs. Cette étude qui illustre la complexité des interactions cellulaires permettant la régénération musculaire, a été publiée le 30 novembre 2017 dans la revue Stem Cell Reports.
 
Après une blessure, le muscle strié squelettique est capable de régénérer ad integrum et de recouvrir complètement sa fonction. Ceci est possible grâce aux cellules souches myogéniques qui s'activent en cas de lésion et suivent le programme de myogenèse adulte pour reformer de nouvelles fibres fonctionnelles après des étapes d'expansion, puis de différenciation. Dans le même temps, le lit vasculaire endommagé se reforme par le processus d'angiogenèse à partir des cellules endothéliales existantes. Ainsi, au niveau tissulaire, les deux processus ont lieu de manière concomitante. L'objectif de cette étude était de mettre en évidence un couplage entre myogenèse et angiogenèse au niveau cellulaire et d'en étudier la régulation au niveau moléculaire.

A l'aide de différents systèmes de co-culture de cellules endothéliales et de cellules précurseurs myogéniques humaines, notamment une co-culture en 3 dimensions, les chercheurs montrent que les cellules endothéliales ont une activité pro-myogénique et que les cellules myogéniques ont une activité pro-angiogénique, cette dernière étant augmentée au fur et à mesure de la différenciation myogénique des précurseurs musculaires. Ces résultats sont confirmés in vivo, établissant le couplage cellulaire entre myogenèse et angiogenèse.

Une analyse transcriptomique a été réalisée à partir des cellules souches myogéniques et des cellules endothéliales isolées du muscle à différents temps au cours de la régénération. L'analyse des effecteurs secrétés par les deux types cellulaires a permis d'en identifier trois qui n’avaient jamais été impliqués dans la régénération musculaire jusqu'à présent : l'oncostatine M, la périostine et l'apeline. Des expériences fonctionnelles "gain de fonction" in vitro ont montré un effet positif des trois effecteurs sur la myogenèse et l'angiogenèse. Des expériences "perte de fonction" dans le système 3 dimensions in vitro ont démontré le couplage moléculaire entre myogenèse et angiogenèse. En outre, l'inhibition de ces trois effecteurs in vivo par injection d'anticorps bloquants au cours de la régénération musculaire altère l'ensemble des paramètres attestant d'une myogenèse normale, ainsi que la vascularisation des nouvelles fibres. La sécrétion de l'apeline, de l'oncostatine M et de la périostine est donc nécessaire pour une bonne régénération musculaire.

Enfin, l'analyse de l'expression des trois effecteurs par l'ensemble des cellules présentes dans le muscle en régénération a montré que les macrophages réparateurs, qui sont présents lors de la phase de reconstruction du muscle, expriment fortement l'oncostatine M. Des expériences de tri-culture en 3D utilisant des anticorps bloquants ont montré que les macrophages réparateurs stimulent le couplage angiogenèse/myogenèse par la sécrétion d'oncostatine M.

L'ensemble de cette étude montre que la myogenèse et l'angiogenèse sont des processus biologiques couplés et régulés par les mêmes effecteurs moléculaires au cours de la régénération musculaire. La régulation spatio-temporelle de la sécrétion de ces effecteurs dans le microenvironnement par les différentes cellules partenaires (précurseurs myogéniques, cellules endothéliales, macrophages) permet la coordination de ce couplage, assurant ainsi une régénération musculaire efficace.
 

Figure. Système de co-culture de cellules humaines en 3D permettant d'analyser de manière simultanée l'angiogenèse (formation de vaisseaux par les cellules endothéliales exprimant la GFP, vert) et la myogenèse (formation de myotubes plurinucléés par les cellules progéniteurs myogéniques exprimant la RFP, rouge). Les noyaux sont marqués en bleu.
© Claire Latroche, Michèle Weiss-Gayet, Bénédicte Chazaud


 

En savoir plus
* Coupling between myogenesis and angiogenesis during skeletal muscle regeneration is stimulated by restorative macrophages. Claire Latroche Michèle Weiss-Gayet, Laurent Muller, Cyril Gitiaux, Pascal Leblanc, Sophie Liot, Sabrina Ben-Larbi, Rana Abou-Khalil, Nicolas Verger, Paul Bardot, Mélanie Magnan, Fabrice Chrétien, Rémi Mounier, Stéphane Germain, Bénédicte Chazaud Stem Cell Rep. Published Online: November 30, 2017. DOI: http://dx.doi.org/10.1016/j.stemcr.2017.10.027  

 Contacts chercheurs
* Benedicte Chazaud Institut NeuroMyoGène CNRS UMR 5310 – INSERM U1217 - Université Claude Bernard Lyon 1 Bâtiment Gregor Mendel, 2 étage 16, rue Raphael Dubois F-69622 Villeurbanne Cedex   04 72 43 10 51

 

DOCUMENT       cnrs        LIEN

LA TRANSGENÈSE ET SES APPLICATIONS

il y a 4 mois

LA TRANSGENÈSE ET SES APPLICATIONS


La découverte de la structure de l'ADN et du code génétique ainsi que la mise au point des techniques du génie génétique ont logiquement conduit à la modification du patrimoine génétique des cellules et des organismes entiers. Celle-ci est obtenue par le transfert direct de gènes isolés natifs ou modifiés, à l'aide de techniques qui sont adaptées aux différentes espèces concernées. La transgenèse consiste, soit à ajouter une information génétique étrangère, soit à remplacer très précisément un gène endogène par un gène étranger. Ces modifications génétiques sont définitives et elles conduisent à l'obtention de lignées d'animaux ou de plantes transgéniques.

Texte de la 30ème conférence de l'Université de tous les savoirs réalisée le 30 janvier 2000 par Louis-Maris Houdebine
LA TRANGENESE ET SES APPLICATIONS
Les découvertes des cinquante dernières années nous ont familiarisé avec lidée que la vie nest quun ensemble de réactions physico-chimiques qui se déroulent à lintérieur despaces bien délimités, les cellules. Ces actions sont effectuées pour une part essentielle par des protéines (enzymes, facteurs sanguins, hormones, anticorps, etc.) Les protéines de tous les organismes vivants sont composées des mêmes vingt acides aminés assemblés les uns derrière les autres pour former des chaînes dont la longueur est très diverse. Les protéines peuvent contenir de quelques unités à quelques milliers dacides aminés. Le nombre de combinaisons théoriques des vingt acides aminés est considérable et lensemble des protéines existantes ne représente quune faible partie des possibilités. Lactivité biologique des protéines est directement liée à lenchaînement des acides aminés mais dune manière très complexe. Les chaînes formant les protéines se replient de multiples manières qui sont définies par la séquence des acides aminés. Ces repliements forment les sites actifs des protéines.
La découverte des protéines sest accompagnée de la mise en évidence dune molécule omniprésente dans les organismes vivants : lacide désoxyribonucléique ou ADN qui renferme linformation génétique. Cette molécule est formée dune chaîne de phosphate et de désoxyribose sur laquelle sont accrochées quatre structures appelées bases et symbolisées par les lettres ATGC.

De multiples observations ont montré quun gène est constitué par une région de la chaîne dADN et quà un gène correspond essentiellement une protéine. Des études systématiques ont permis détablir que la succession des bases dans un gène définit directement lenchaînement des acides aminés de la protéine correspondante selon un code universel : le code génétique. Trois bases successives déterminent ainsi quel acide aminé doit participer à la formation de la protéine.
LADN peut donc considérer comme une banque de données dont la cellule fait usage en fonction de ses besoins en protéines. Une copie dun gène sous la forme dun acide ribonucléique messager (ARNm) est formé à la demande de la cellule et décrypté pour synthétiser la protéine correspondante. Ces faits établis il y a bientôt quarante ans définissaient déjà tout le principe du génie génétique. En effet, si les messages génétiques contenus dans lADN ne sont définis que par la succession des quatre bases, il doit être possible de modifier ces messages voire den créer de nouveaux dès lors que lon maîtrise la chimie de lADN. Les techniques essentielles qui permettent de manipuler ainsi lADN ont été définies il y a maintenant un peu plus de vingt ans et avec elles est né le génie génétique qui est désormais un outil très largement utilisé dans de nombreux laboratoires.
Il est admis quil y a une continuité stricte entre la matière inorganisée qui a précédé le Big Bang il y a quinze milliards dannée et la matière très organisée que constituent les organismes vivants apparus sur la terre il y a quatre milliards dannées. Les minéraux représentent un état de complexité intermédiaire.

Les organismes vivants sont eux-mêmes dune complexité très variable qui va croissante des bactéries aux mammifères et à lhomme en passant par les levures et les plantes. Très logiquement, on constate que les organismes vivants les plus complexes sont ceux qui ont le plus grand nombre de gènes. Les bactéries ont ainsi de 350 à 4000 gènes, les levures environ 6000, un des plus petits animaux connus de la famille des nématodes 19099, les plantes environ 20000 et lhomme autour de 100000 (le chiffre proche de la réalité sera connu au cours de lannée 2000). Ces données sont particulièrement révélatrices de la manière dont lévolution a procédé pour faire émerger les différentes espèces. Les mammifères sont en effet beaucoup plus complexes que les bactéries et ils nont pourtant que 50 fois plus de gènes. Les biologistes savent déjà que les gènes, les protéines et les molécules qui en dérivent sont capables dinteragir de manière de plus en plus complexe au fur et à mesure que lorganisme est lui-même devenus plus évolué. La complexité du vivant naît donc au moins autant dune combinatoire de plus en plus sophistiquée de molécules qui le compose que dune accumulation des informations génétiques primaires.

1/ Des gènes au génie génétique
Ces faits ont une répercussion directe et profonde sur les expériences impliquant le génie génétique. Les techniques actuelles permettent virtuellement disoler nimporte quel gène, den étudier la structure, de le modifier et de le réintroduire dans une cellule ou un organisme vivant. Cette dernière opération est une des plus essentielles. Un gène peut en effet se comparer à une bande magnétique. Tous les deux contiennent des messages linéaires codés et aisément modifiables. Ces messages sont en soi inertes. Ils nont dintérêt que par les produits qui en sont issus : une image ou un son dans un cas, une protéine dans lautre cas. Une différence fondamentale existe toutefois entre les deux systèmes ; le lecteur de bande magnétique est indifférent au message quil décode ce qui nest le plus souvent pas le cas pour les gènes dans la mesure où les protéines peuvent agir sur la cellule ou sur lorganisme entier qui les synthétisent.
Un gène peut dans une certaine mesure être comparé à un micro-ordinateur qui contient un message spécifique. 

L’introduction dun gène isolé dans une cellule et à fortiori dans un organisme entier revient alors à connecter le micro-ordinateur à un réseau de micro-ordinateurs déjà interconnectés et interagissant. Une telle incursion peut enrichir le réseau de manière harmonieuse ou à linverse perturber profondément son fonctionnement.
La transgenèse est lopération qui consiste à ajouter un gène étranger à un organisme pluricellulaire (plantes ou animaux) entier ou à remplacer un des ses gènes par un autre. Il est bien évident que dans lun et lautre cas, les effets du transgène sur lorganisme ne peuvent être totalement prévisibles aussi bien connues que soient les propriétés du gène étranger et de la protéine correspondante. La transgenèse est donc par essence un retour au complexe, lisolement dun gène et son étude in vitro étant au contraire une étude volontairement réductionniste. Les conséquences dune transgenèse sont donc à priori inévitablement en partie inconnues. La gestion du complexe que représentent lagriculture et lélevage est en réalité une activité très familière pour les communautés humaines. La sélection génétique consiste classiquement à repérer les effets biologiques intéressants (prolificité, résistance aux maladies etc.) apparus spontanément chez quelques individus au hasard de la redistribution des gènes lors de la reproduction sexuée et de mutations résultant derreurs dans la réplication de lADN. La reproduction privilégiée des individus dotés des propriétés biologiques intéressantes conduit progressivement à létablissement de lignées ou de races. Cette méthode de sélection a largement fait ses preuves et nous en bénéficions grandement. La sélection classique est toutefois une opération le plus souvent réalisée en aveugle. Le sélectionneur ne sait en effet le plus souvent rien des gènes quil a sélectionnés ni de leurs effets individuels. Seul le résultat global est généralement pris en compte. Le remaniement des chromosomes dans les cellules germinales consiste à redistribuer les gènes parentaux de manière aléatoire. Ceci explique que les enfants dun même couple sont différents. Le remaniement des chromosomes parentaux concerne de longs segments dADN qui portent de nombreux gènes contigus. La sélection dun gène ayant un intérêt biologique attendu saccompagne donc inévitablement de la co-sélection de gènes voisins inconnus dont les effets ne sont pas toujours bénéfiques. Ainsi, des taureaux, des verrats, etc. retenus comme géniteurs en raison de leur potentiel génétique intéressant savèrent parfois à lusage porter également un gène parfaitement nuisible pour lélevage. Ces géniteurs doivent alors être éliminés non sans parfois avoir entraîné des pertes financières importantes. Il en est de même pour la sélection végétale.

La transgenèse évite, par essence, une bonne partie de ces effets imprévisibles. La modification génétique quelle représente a des effets en grande partie attendus, dans la mesure où les propriétés du gène étranger sont elles-mêmes connues. La transgenèse ne correspond par ailleurs quà une seule modification génétique de lorganisme. La transgenèse vue ainsi est donc en principe moins hasardeuse que la sélection classique. Tout bien considéré, les mutations obtenues par transgenèse ne sont généralement pas plus complexes que celles engendrées par les mécanismes naturels à chaque cycle de reproduction. La gestion des organismes transgéniques peut donc logiquement sinspirer de celle des organismes obtenus par sélection classique.

2/ Les techniques de transfert de gènes
Le transfert dun gène isolé à un organisme nest quexceptionnellement un phénomène spontané. Si tel nétait pas le cas, lintégrité des espèces ne serait pas une réalité puisque les organismes vivants sont très fréquemment en contact direct avec lADN dautres espèces. Les virus qui ne sont constitués que de quelques gènes associés à des protéines ont une capacité exceptionnelle à pénétrer dans les cellules. Ce processus que lon nomme une infection est primordiale pour le virus qui doit absolument utiliser la machinerie cellulaire dont il est dépourvu pour se répliquer. Lintroduction de gène étranger destiné à obtenir des organismes transgéniques requiert donc des méthodes expérimentales variées. La plus utilisée chez les animaux consiste à procéder à une microinjection directe du gène isolé en solution dans le noyau ou le cytoplasme dun embryon au stade une cellule. Dans une petite proportion de cas (de lordre de 1%) le gène étranger sintègre à LADN de lembryon et se transmet ainsi à ses cellules filles puis à sa descendance.
Cette méthode ne peut être appliquée aux végétaux. Deux techniques sont dans ce cas le plus souvent utilisées. Lune consiste à introduire le gène étranger dans un vecteur dérivé dune bactérie. Celui-ci pénètre aisément dans la cellule végétale et sintègre dans son ADN. Lautre méthode est utilisée pour les végétaux ne pouvant bénéficier du vecteur. Elle consiste à faire pénétrer de force des microbilles métalliques enrobées dADN contenant le gène étranger dans les cellules végétales en les projetant à haute vitesse. Dans lun et lautre cas, le transfert de gène doit être suivi dune régénération complète dune plante à partir de la cellule ayant subi la modification génétique.

Laddition de gène est lopération la plus simple et de loin la plus fréquemment pratiquée. Le remplacement spécifique de gène est également hautement souhaitable. Il permet en pratique de remplacer un gène de lorganisme par un gène inactif (ceci revient alors à supprimer sélectivement un gène de lorganisme) ou par un autre gène actif. Cette opération nest actuellement possible que chez les animaux (et les microorganismes). Elle implique en effet que lADN étranger contenant le gène de remplacement reconnaisse très spécifiquement le gène ciblé pour pouvoir se substituer à lui par un processus de recombinaison homologue. Cette opération nest finalement couronnée de succès que si la cellule dans laquelle a eu lieu le remplacement de gène peut donner naissance à un organisme entier. Cette régénération très couramment pratiquée chez bon nombre de plantes est particulièrement malaisée chez les animaux. En pratique, la cellule animale modifiée doit être celle dun embryon précoce capable, une fois introduite dans un embryon précoce hôte, de participer au développement de lorganisme jusquà transmettre la mutation à la descendance. Cette méthode laborieuse est utilisée depuis plus de 10 ans mais, pour des raisons techniques, chez la souris seulement. Le remplacement de gène par recombinaison homologue a donc pendant une décennie été réservée à cette seule espèce.
Une autre approche très séduisante peut en principe reposer sur la technique de clonage des animaux. Cette technique mise au point il y a environ quinze ans consiste à reconstituer léquivalent dun embryon en introduisant le double stock de chromosomes dune cellule dans un ovocyte préalablement énucléé. Ceci na pendant longtemps été possible quen partant de cellules embryonnaires non différenciées (totipotentes) et non cultivées. Des améliorations techniques relativement minimes ont permis dobtenir des clones de moutons en partant de cellules embryonnaires totipotentes cultivées (un an avant la naissance de Dolly) puis à partir de cellules fStales différenciées et enfin de cellules adultes. Ces expériences ont été menées essentiellement pour tenter de simplifier la technique de transgenèse. Il est en effet en principe possible de transférer des gènes étrangers dans des cellules cultivées utilisées ensuite pour engendrer des animaux qui se trouvent être transgéniques. Laddition de gène a ainsi été couronnée de succès (naissance de Polly) un an après la naissance de Dolly. En 1999, le remplacement de gène chez les moutons a pu être obtenu par recombinaison homologue par le même procédé.
Laddition de gène est ainsi simplifiée et le remplacement de gène est devenu possible chez les ruminants domestiques et très vraisemblablement chez dautres espèces dans le futur.
Les fragments dADN qui sont utilisés pour la transgenèse sont généralement construits au laboratoire pour diriger lexpression du gène étranger spécifiquement dans un tissu donné. La connaissance limitée que lon a actuellement du mode de fonctionnement des gènes ne permet encore quune approche empirique raisonnée dans la construction des futurs transgènes. Des progrès rapides récents dans ce domaine laisse prévoir pour un avenir assez proche un contrôle satisfaisant du fonctionnement  des  transgènes  dans la majorité  des  cas.

3/ Les applications de la transgénèse
La transgenèse, a dès ses débuts chez les animaux en 1981 puis en 1983 chez les plantes, été définie avant tout comme un outil de recherche. Laddition ou le retrait dune information génétique dans un organisme entier est en effet un moyen incontournable pour déterminer les mécanismes moléculaires qui contrôlent le fonctionnement des gènes et le rôle des gènes eux-mêmes dans lexpression des fonctions biologiques. Lidentification systématique et massive des gènes de certains organismes par le séquençage complet de leur ADN va logiquement être suivie dune utilisation plus intense de la transgenèse chez quelques organismes modèles comme la souris et le tabac.

La maîtrise du vivant que représente la transgenèse a rendu possible des applications nouvelles dans le domaine médical et agronomique. Létude des maladies humaines ne peut se passer de modèles animaux. Les modèles pertinents résultant de mutations spontanées sont rares. Dans le meilleur des cas, des modèles particulièrement précieux peuvent être obtenus par addition ou remplacement de gènes. Cest surtout la souris qui est sollicitée en raison de son faible coût dutilisation. Dautres espèces sont parfois nécessaires pour diverses raisons, cest le cas notamment du rat, du lapin, du porc et des primates non humains. Cette approche expérimentale est devenue récemment plus simple et potentiellement plus utile à la suite de lamélioration des techniques de transgenèse.

Les animaux et les plantes sont depuis des temps immémoriaux la source de substances dotées de propriétés pharmacologiques. Ces substances nont, par le passé, été que rarement des protéines. Jusquà une époque récente en effet, un nombre relativement petit de protéines était connu et seulement quelque unes dentre elles pouvaient être extraites pour être administrées à lhomme. Cétait le cas de linsuline de porc pour le traitement des diabétiques. Le génie génétique offre la possibilité de préparer virtuellement nimporte quelle protéine en abondance en transférant le gène correspondant dans des bactéries, des levures, des plantes ou des animaux. Linsuline et lhormone de croissance humaine proviennent désormais essentiellement de bactéries recombinées. Plusieurs dizaines de protéines dintérêt pharmaceutique ont été obtenues à partir du lait danimaux ou de plantes transgéniques. La première protéine extraite ainsi du lait doit être mise sur le marché en 2000. Beaucoup dautres suivront et on peut considérer quune nouvelle branche de lindustrie pharmaceutique est née.
La transgenèse peut jouer un rôle décisif dans le domaine des greffes dorganes. Plusieurs milliers de personnes meurent chaque année en France par manque de greffon humain. Limpossibilité quil y a et qui persistera sans doute longtemps de remédier à cette situation a fait resurgir une idée déjà ancienne. Certains organes ou cellules des animaux et notamment ceux du porc pourraient probablement être utilisés à la place de matériel humain. Les rejets extrêmement violents des organes animaux ont jusquà maintenant empêchés les xénogreffes de devenir une réalité. Des succès partiels mais bien réels ont été obtenus dans la dernière décennie du XXème siècle. Des cSurs et des reins de porcs transgéniques abritant des gènes capables dinhiber le système du complément humain responsable du rejet hyper-aigu des éléments étrangers ont pu être maintenus, intègres, pendant plusieurs semaines après avoir été greffés à des singes.

De multiples obstacles, y compris dans le domaine de la connaissance des mécanismes de rejet, restent à franchir pour que la xénogreffe devienne une réalité médicale. La xénogreffe peut toutefois dans lavenir concerner plus les cellules qui sont moins sujettes aux rejets que les organes. La démonstration récente que des cellules embryonnaires humaines peuvent être différenciées in vitro en cellules souches dorganes laisse penser que des cellules humaines préparées de cette manière pourraient être dans lavenir utilisées plutôt que leurs homologues dorigine porcine. La situation actuelle incite à imaginer que la xénogreffe ou la greffe à partir de cellules humaines différenciées pourraient être retenues comme moyen thérapeutique au cas par cas en fonction des problèmes à résoudre. Le transfert de gène dans les cellules ou via la transgenèse pourrait permettre aux cellules porcines non seulement dêtre mieux tolérées mais également dapporter des protéines ayant une activité thérapeutique. Une thérapie génétique serait alors réalisée en même temps quune thérapie cellulaire.
Les applications agronomiques de la transgénèse commencent à être significatives, en ce qui concerne les végétaux. Elles sont, pour des raisons techniques, tout juste naissantes chez les animaux. La transgenèse permet dans certains cas de conférer aux plantes et aux animaux une résistance contre les maladies. Ceci se traduit ou se traduira par une moindre utilisation de pesticides et dantibiotiques ainsi que par une simplification de la tâche des agriculteurs et des éleveurs. La résistance des animaux à des maladies devenue ainsi génétiquement transmissible a par ailleurs toutes les chances de réduire la souffrance des animaux, de permettre de consommer des viandes plus saines et diminuer la fréquence des zoonoses.
Certains projets de transgenèse nont dautre but que de réduire la pollution. Des porcs transgéniques expérimentaux rejettent ainsi deux fois moins de phosphate dans lenvironnement. Des plantes transgéniques ont été spécialement conçues pour capter certains ions métalliques toxiques présents spontanément dans le sol ou apportés à la suite dune activité industrielle.
Des plantes capables de se développer dans des sols salés ou alcalins impropres à lagriculture ont été obtenues par transgenèse. Ceci permet denvisager de conquérir de nouvelles terres.

La modification volontaire de la composition des plantes ou des animaux via la transgenèse peut permettre de fournir aux consommateurs des aliments plus riches en éléments essentiels voire plus sapides. Le riz doré capable dapporter un supplément de vitamine A aux 400 millions dêtres humains qui en manquent et sont menacés de devenir aveugles ainsi que de fer aux 4 milliards de personnes carencées est un exemple éloquent. Le transfert de plusieurs gènes a dû être réalisé pour atteindre ce but.
Diverses améliorations des produits animaux sont également envisagées. Elles concernent la composition du lait, des graisses, de la carcasse, de la laine, etc.
Il est intéressant de mentionner également que les végétaux qui sont déjà la source de molécules non destinées à l'alimentation humaine ou animale vont de plus en plus être sollicités pour servir comme base à la synthèse de plastiques biodégradables, de carburants, etc. La transgenèse peut dans certains cas apporter des solutions uniques ou originales et très satisfaisantes.

4/ Les problèmes posés par la transgenèse
La transgenèse est actuellement vue surtout par ses applications très marginales mais spectaculaires dans lalimentation humaine. Les OGM (organismes génétiquement modifiés) ont très mauvaise presse. Ce fait ne laisse de surprendre la majorité des biologistes qui considèrent que la transgenèse appliquée à lalimentation est à priori une des techniques puissantes les moins dangereuses que lhumanité ait inventées. Certes, un organisme transgénique est par définition en partie inconnu, mais cela est aussi le cas dun organisme obtenu par sélection classique ou dun aliment exotique. Les tests classiques de toxicité, oncogénicité et allergénicité accompagnés dune traçabilité raisonnable doivent pouvoir réduire les risques à un niveau bien inférieur à celui de beaucoup dautres techniques très généralement acceptées. Il est incontestable que certaines plantes, transgéniques ou non, posent des problèmes environnementaux dont limportance ne peut pas être aisément évaluée. Les modèles de laboratoire ne peuvent en effet que difficilement prendre en compte de manière satisfaisante des paramètres comme lespace et le temps. Les biotechnologistes ont quelque difficulté à imaginer comment leurs actions dans le domaine agronomique pourraient faire ne serait-ce que dix ou cent fois moins de victimes que lautomobile. Les réticences actuelles des consommateurs ne sont toutefois pas incompréhensibles. Toute nouveauté effraie. Les condamnations actuelles des OGM ressemblent à sy méprendre à celles appliquées aux vaccins il y a un siècle. Il est vrai quune désinformation qui a atteint un niveau peu commun ne fait quentretenir la confusion. Les critiques vis à vis des OGM sont en fait bien souvent dirigées plus contre la société libérale mal contrôlée que contre la technique elle-même. Les OGM en font actuellement les frais. Il est vrai que leur utilisation ne devrait pas tomber sous la coupe dentreprises qui détiennent des monopoles de fait. Lobtention du riz doré financée par lUnion Européenne et la fondation Rockefeller indique que la situation est bien plus ouverte et diverse que certains ne le prétendent. Les réticences des pays riches vis à vis des OGM ne sont pas partagées par ceux qui souffrent de pénuries alimentaires. Les chinois consomment ou utilisent actuellement au moins sept plantes transgéniques. Il ne semble pas que ces cultures se fassent sans contrôle. Les agriculteurs chinois sappuient en effet sur les résultats des expériences réalisées dans les pays développés et notamment les USA. Lavenir de lagriculture ne peut reposer sur un retour aux techniques anciennes, pas plus que la médecine traditionnelle ne saurait être un remède à certaines dérives des pratiques médicales modernes. Une application raisonnée des techniques agronomiques modernes, y compris de la transgenèse, paraît plus appropriée. En face de la demande croissante des consommateurs humains, le principe de précaution invite à mettre à notre disposition toutes les techniques de transgenèse pour optimiser les productions végétales et animales, quitte à ne pas les utiliser si des alternatives au cas par cas savèrent tout aussi efficace.

La transgenèse appliquée à lespèce humaine est en principe possible. Tout le monde ou presque saccorde pour considérer quune telle opération ne devrait comporter aucun risque technique et ne concerner que des activités thérapeutiques. La première condition nest pas actuellement remplie mais on peut imaginer que cela sera un jour le cas. Les thérapies géniques germinales ne peuvent raisonnablement concerner que le remplacement de gènes responsables de maladies humaines par leurs homologues non mutés. Ce type dopération est et restera probablement difficile et elles devront être accompagnées de contrôles stricts pour sassurer que la modification génétique induite est bien celle que lon attendait. Cette approche thérapeutique se trouverait en compétition directe avec le tri des embryons portant les gènes défectueux. Il y a tout lieu de penser que la deuxième solution paraîtra majoritairement comme la plus satisfaisante.
La modification du patrimoine génétique dun être humain non destinée strictement à remplacer un gène défectueux par un gène sain paraît difficilement envisageable sans risque. Laddition dun gène, conférant une résistance vis à vis dune maladie infectieuse, paraît séduisante à première vue. Nul ne peut prévoir tous les effets du transgène et ce qui est acceptable pour les animaux et les plantes ne lest plus pour l'espèce humaine. Il est concevable de procéder à des transgènes réversibles. Ceci ne paraît pas suffire à justifier lutilisation de cette technique pour l'espèce humaine.

Les générations qui nous suivront trouveront peut-être légitime et souhaitable de modifier le patrimoine génétique humain pour toute sorte de bonnes raisons. On pourrait en effet par exemple souhaiter que les êtres humains soient plus sereins et moins féroces envers leurs semblables ou plus modestement quils aient une vieillesse biologiquement plus douce. Il nest en rien certain que la transgenèse, dans le meilleur des cas, puisse apporter une solution à des problèmes aussi complexes. Quoiquil en soit, il serait sans doute prétentieux de condamner par avance les décisions de nos descendants. Il nous suffit, dans les faits, dêtre pleinement en accord avec nos convictions actuelles. Elles nous indiquent sans ambiguïté que la transgenèse ne doit pas âtre appliquée à lespèce humaine.

 

    VIDEO     canal U       LIEN   

Comment les antidépresseurs créent de nouveaux neurones

il y a 5 mois

Comment les antidépresseurs créent de nouveaux neurones
08 décembre 2011


Les mécanismes d’action des antidépresseurs se dévoilent petit à petit. Une équipe de l’Inserm vient de montrer comment la fluoxétine (plus connue sous le nom de Prozac) induit la formation de nouveaux neurones au niveau de l’hippocampe, un phénomène indispensable à l’efficacité du traitement. Ces travaux révèlent une cascade de signaux insoupçonnée jusqu’alors. Ils sont publiés dans la revue Translational Psychiatry.

La fluoxétine crée de nouveaux neurones

La dépression touche près de 3 millions de personnes en France. Plusieurs facteurs psychologiques ou environnementaux contribuent à son apparition ou à sa chronicisation mais il existe également des facteurs biologiques. Les malades présentent notamment un taux de sérotonine plus faible que les autres. Il s’agit d’un neurotransmetteur essentiel à la communication entre les neurones, impliqué notamment dans les comportements alimentaires et sexuels, le cycle veille-sommeil, la douleur, l’anxiété ou encore les troubles de l’humeur.
La fluoxétine permet de restaurer en partie le taux de sérotonine et de réduire les symptômes de la maladie. Des travaux datant de 2003 ont montré que ce médicament agit via la synthèse de nouveaux neurones au niveau de l’hippocampe, une région impliquée dans la mémoire et le repérage spatial. Une équipe de l’Inserm vient d’aller plus loin en décrivant les étapes qui induisent ce phénomène.

Des signaux en cascade
La formation de nouveaux neurones dépend en fait du taux d’un microARN (miR-16) au niveau de l’hippocampe. Les microARN sont de petits fragments d’ARN qui ne produisent pas de protéine mais jouent un rôle essentiel dans le contrôle de l'expression des gènes. Chez l'homme, plus de 500 d’entre eux ont été mis en évidence et leur dysfonctionnement est associé à plusieurs maladies, comme le cancer. "Quand on fait baisser le taux de ce microARN, on mime l’effet de la fluoxétine et cela déverrouille la neurogenèse, c’est-à-dire la maturation de nouveaux neurones", précise Sophie Mouillet-Richard, médecin, coauteur des travaux.
Les chercheurs ont également montré que ce taux de microARN est sous le contrôle de trois protéines « signal » produites sous l’effet de la fluoxétine dans une autre région du cerveau appelée noyau du raphé. Ces molécules agissent en synergie pour faire chuter la quantité de microARN. Si une seule d’entre elles est absente, le mécanisme est bloqué. Le trio est nécessaire pour mimer l’action du médicament. Ces molécules sont d’ailleurs retrouvées en grande quantité dans le cerveau des patients traités par cet antidépresseur.

De nouvelles cibles thérapeutiques
"La découverte de ces signaux et du rôle du microARN permet de rechercher de nouvelles cibles thérapeutiques mais également de disposer d’indicateurs pour évaluer l’efficacité d’un médicament ou suivre son effet dans le temps", conclut Sophie Mouillet-Richard. Autant de ressources pour améliorer le traitement des états dépressifs.

Source
Launay et coll."Raphe-mediated signals control the hippocampal response to SRI antidepressants via miR-16".Transl Psychiatry (2011) 1, November

 

  DOCUMENT      inserm     LIEN 

Comment les polluants perturbent la maturation des poissons coralliens

il y a 5 mois

 
Comment les polluants perturbent la maturation des poissons coralliens
 
L’équipe de Vincent Laudet à l’Institut de Génomique Fonctionnelle de Lyon, associée à l’équipe de David Lecchini du Centre de Recherche Insulaire et Observatoire de l’Environnement de Moorea, montre que le recrutement des larves d'un poisson corallien, le chirurgien bagnard Acanthurus triostegus, est une véritable métamorphose contrôlée par l’hormone thyroïdienne. De ce fait, cette étape cruciale du cycle de vie de ces poissons est sensible à des polluants qui perturbent ces hormones tels que le pesticide Chlorpyrifos. Ce polluant affecte la fonction écologique majeure des jeunes poissons qui s'installent sur le récif: leur capacité à brouter les algues qui sont connues pour entrer en compétition avec les coraux. Cette étude a été publiée le 30 octobre 2017 dans la revue eLife.
 
Les récifs coralliens sont des écosystèmes très riches mais qui sont actuellement en péril. On observe ainsi depuis plusieurs années un déclin des populations adultes de poissons sur de nombreux récifs coralliens. Ce déclin serait dû non seulement à une mortalité accrue des adultes, mais aussi à une baisse dans la capacité des récifs, en particulier les récifs dégradés, à attirer les larves océaniques. En effet, la plupart des poissons coralliens ont un cycle de vie en deux parties bien distinctes avec une phase larvaire pélagique, dans l’océan, et une phase juvénile/adulte inféodée au récif corallien.

L’entrée des larves dans le récif corallien est appelée le recrutement larvaire et constitue une étape critique du maintien des populations adultes dans le récif. Il a été montré que le succès du recrutement larvaire diminue fortement selon l’état de dégradation des habitats récifaux. En conséquence, les populations adultes de poissons coralliens continueront à décroître sur les récifs dégradés tant que l'intensité du recrutement larvaire ne sera pas suffisamment élevée pour contrebalancer la mortalité des adultes. Face aux prévisions alarmantes sur l'avenir des récifs coralliens, la compréhension du processus de recrutement larvaire est donc primordiale pour préserver les populations de poissons coralliens.

Les équipes de Vincent Laudet de l’Institut de Génomique Fonctionnelle de Lyon (IGFL, ENS de Lyon, CNRS UMR 5242) et de David Lecchini du Centre de Recherche Insulaire et Observatoire de l’Environnement (CRIOBE, EPHE, USR 3278) en Polynésie française, ont utilisé un poisson corallien, le chirurgien bagnard Acanthurus triostegus (un proche cousin de Dory l'héroïne du film de Pixar...), pour comprendre comment est contrôlée la transformation de la larve océanique en juvénile. Chez cette espèce une larve océanique carnivore qui se nourrit de zooplancton, est transformée en juvénile herbivore qui broute des algues dans les récifs. Les chercheurs ont démontré que cette transformation est en fait très similaire à la transformation d'un têtard en grenouille, et, comme elle, est contrôlée par l'hormone thyroïdienne. Ils ont observé que les taux d’hormone thyroïdienne présents dans l'organisme du poisson atteignent un maximum lors du recrutement larvaire du poisson chirurgienet diminuent ensuite chez les juvéniles, c'est à dire juste après la métamorphose. En outre, en manipulant l'hormone thyroïdienne, les chercheurs ont effectivement perturbé la transformation normale du poisson. Ces résultats ont pu être généralisés à d’autres espèces de poissons coralliens et permettent de conclure que le recrutement larvaire des poissons coralliens est contrôlée par l’hormone thyroïdienne.

Certains polluants environnementaux étant connus pour affecter les hormones thyroïdiennes, les chercheurs ont voulu savoir quel impact ils pouvaient avoir sur le recrutement larvaire. Ils ont ainsi traité des larves de poisson chirurgien avec du Chlorpyrifos, un pesticide très utilisé en agriculture et souvent rencontré au sein des récifs et qui est connu chez d'autres espèces pour perturber l'hormone thyroïdienne. Leurs résultats montrent que le Chlorpyrifos induit effectivement toute une série d'anomalies chez les jeunes larves de poisson chirurgien qui sont en train de se transformer. En particulier le Chlorpyrifos altère la capacité des juvéniles à devenir des herbivores efficaces et donc à se nourrir sur le gazon d'algue qui poussent sur les récifs. Le Chlorpyrifos réduit donc la qualité des juvéniles résultant de la métamorphose et diminue leur rôle écologique d'herbivores.

Or, de nombreuses études récentes suggèrent que des herbivores efficaces sont cruciaux pour l'équilibre des récifs car ils contribuent à diminuer la croissance des algues qui sont en concurrence avec les coraux. Diminuer la quantité des herbivores par une surpêche ou en affectant leur recrutement dans le récif, peut donc avoir un impact très fort sur l'équilibre global et l'état de santé des récifs coralliens. 
En conclusion, ce travail fournit un cadre général pour comprendre comment le recrutement des larves de poissons peut-être altéré par des polluants environnementaux. La mise en évidence chez les larves de poissons d'une grande sensibilité à l’hormone thyroïdienne va permettre de mieux comprendre comment les facteurs de stress anthropiques peuvent affecter les populations de poissons marins au cours des phases critiques de leur cycle de vie.

 

DOCUMENT       cnrs        LIEN

IMPRIMERIE

il y a 5 mois

imprimerie

Cet article fait partie du dossier consacré à la Renaissance.
Ensemble des techniques et métiers qui concourent à la fabrication d'ouvrages imprimés. (Synonyme : industries graphiques.)
Historique
En Orient
Les premières reproductions d'écriture furent sans doute obtenues sur la cire ou l'argile avec les sceaux cylindriques et les cachets qu'on retrouve dans les plus anciennes cités de la Mésopotamie ou de l'Élam ; certains datent de vingt-huit siècles avant notre ère. Des briques ont aussi été estampées en creux au moyen de formes de bois ou de métal. Ensuite, l'imprimerie fut connue en Chine, où elle mettait en œuvre des formes de bois gravé. Sur une planche polie, le bois était enlevé autour de l'écriture, qui demeurait seule en relief. On l'encrait et on appliquait sur elle une feuille de papier de riz. L'invention de caractères mobiles est relatée dans un livre du xie s. et attribuée à Bi Sheng (1041-1048). Ces caractères furent en terre cuite, puis en plomb, enfin en cuivre.


En Europe

Les impressions xylographiques, dont le procédé se rattache plus à la gravure, constituent le premier chapitre de l'histoire de l'imprimerie par leur but et l'époque de leur diffusion. À l'aide de gouges, le graveur laisse en saillie, à la surface d'un bloc, le signe à reproduire. C'est la différence de niveau qui empêche l'encre d'atteindre les creux. La planche à graver en poirier, en cormier ou noyer est débitée dans le sens du fil du bois, parallèlement à l'axe du tronc ou de la branche. Cette gravure en bois de fil a surtout été en faveur au milieu du xvie s. Elle était utilisée pour l'impression de cartes à jouer, d'images pieuses avec ou sans phylactères, de textes brefs plus ou moins illustrés (donats), de livres typographiés enfin, dans lesquels des dessins pouvaient être reproduits. La gravure artistique au burin, sur bois, au xve s., amena à concevoir l'idée de graver séparément chacune des vingt-cinq lettres de l'alphabet latin. En effet, à partir d'un certain nombre de caractères fondus, une infinité de combinaisons fut possible ainsi que le tirage d'épreuves à volonté. C'est à Johannes Gensfleisch, dit Gutenberg, et à son collaborateur principal Peter Schöffer, que revient, semble-t-il, l'honneur de l'invention de l'imprimerie. En fait, cette invention était double puisqu'elle associait celle de la presse à imprimer, mise au point d'après le modèle des pressoirs à vis utilisés par les vignerons rhénans, et celle des caractères métalliques mobiles, dus à Schöffer. Pour autant, ce ne fut pas la lettre mobile qui fut l'invention décisive mais la lettre métallique moulée (« jetée en moule »), due à Gutenberg. Presque immédiatement s'instaura la méthode de fabrication des caractères devenue classique : 
– gravure en poinçon, à l'extrémité d'une tige métallique (acier doux), du signe voulu en relief et à l'envers ; 
– frappe à l'aide de ce poinçon d'une matrice dans un métal plus tendre (cuivre rouge) ; 
– moulage, dans un moule à arçon, ou moule à main, d'un alliage ternaire (plomb, étain, antimoine) qui s'imposa jusqu'à nous.
Le 14 octobre 1457, Fust, l'associé de Gutenberg, et Schöffer achevèrent d'imprimer le premier livre portant la date imprimée : le Psautier de Mayence. Avec Gutenberg, ils publièrent des ouvrages populaires de religion, de grammaire latine, des calendriers. Leur œuvre la plus célèbre est une Bible in-folio, dite à « 42 lignes », ou « Bible mazarine » (elle appartint au cardinal et se trouve à la bibliothèque Mazarine).

La diffusion
La typographie

L'art nouveau se répandit avec rapidité, par la vallée du Rhin, dans toute l'Europe. Deux ouvriers de Gutenberg s'établirent en 1464 en Italie, à Subiaco, puis à Rome. Un envoyé de Charles VII à Mayence porta les « secrets de l'art » à Venise, où Alde Manuce fonda, en 1490, sa dynastie d'imprimeurs, qui devait durer un siècle. Il publia un Virgile en caractères penchés, dits « aldini », ou « italiques » (1500). À Paris, par exemple, les débuts de l'imprimerie sont dûs à trois ouvriers typographes allemands, Martin Crantz (ou Krantz) de Strasbourg, Michaël Freiburger de Colmar, et Ulrich Gehring de Constance, qui furent accueillis en 1470 dans le collège de la Sorbonne (où le premier livre sorti de leur presse, la même année, fut les Lettres de Gasparini de Pergame) ; en 1473, ces trois typographes s'installèrent rue Saint-Jacques à l'enseigne du Soleil d'Or. À partir de 1477, seul apparaît le nom d'Ulrich Gehring, qui revint rue de la Sorbonne où il ouvrit un atelier à l'enseigne du Buis. En France encore, citons la famille Estienne (1500 à 1661) ; à Lyon, É. Dolet ; aux xviiie et xixe s., les Didot. L'Angleterre a une imprimerie à Oxford en 1479, puis une à Londres. Les Pays-Bas ont les Plantin à Anvers (1548-1876), puis les Elzévir à Leyde (1580-1636).
La typographie, opéra une véritable révolution dans la diffusion de la pensée. Sans subir de modification fondamentale, le procédé typographique allait permettre d'imprimer la quasi-totalité des ouvrages parus du xve s. aux débuts de la révolution industrielle. C'est au xixe s. que l'on doit les grandes novations en matière d'imprimerie : l'Allemand König met au point la presse à cylindre en 1811, l'Anglais Stanhope construit, en 1820, une presse à bras entièrement métallique ; vers 1850, entre en service la première rotative. De telles machines vont permettre dès lors la publication quotidienne de journaux. Nicéphore Niépce avait trouvé, vers 1830, le principe de la photographie ; la similigravure permet, dès 1882, d'imprimer des images photographiques.

La composition mécanique
La mécanisation de la composition, effective aux États-Unis peu avant 1890, devint opérationnelle en Europe aux environs de 1900. Tout le travail manuel d'assemblage et de justification des lignes se faisait mécaniquement à l'aide de machines composeuses-fondeuses. Dans le système Linotype (inventé en 1886 par l'Américain Ottmar Mergenthaler), surtout utilisé par la presse, la frappe des touches d'un clavier assemblait et justifiait mécaniquement des matrices – et non des caractères – dans lesquelles était envoyé un jet de « métal typographique » (le plomb). Les lignes-blocs qui en résultaient étaient fondues chacune d'un seul tenant. Avec le procédé Monotype (dû à un autre Américain, Tolbert Lanston), préféré par l'édition, la frappe d'un clavier délivrait une bande de papier perforé, dont le décodage par une machine fondeuse permettait de fabriquer des lettres séparées assemblées ligne par ligne. Les composeuses-fondeuses produisaient, selon les corps, entre 5 000 et 9 000 signes à l'heure, contre 1 000 à 1 400 en composition manuelle.

Les procédés d'impression
La diversification des techniques
Après l'imprimerie typographique, première en date et dont les formes sont constituées par des éléments imprimants en relief, d'autres procédés sont nés, répondant à des besoins nouveaux ou issus de possibilités nouvelles : la taille-douce, l'eau-forte et leurs dérivés, où les éléments imprimants sont en creux ; la lithographie, où éléments imprimants et non imprimants sont sur le même plan. La photographie a donné naissance à la photogravure et a permis de compléter les procédés manuels de dessin, de gravure, de composition, par des procédés photomécaniques, lesquels ont rendu possible l'impression d'illustrations en noir et en couleurs. Nouveaux venus depuis le début du xxe s., l'offset et l'héliogravure ont pris une rapide extension. Aujourd'hui, cependant, l'électronique bouleverse les méthodes traditionnelles des industries graphiques, et la vitesse d'exécution devient sans commune mesure avec les possibilités humaines. Le ruban perforé, la bande magnétique et le film remplacent le plomb. Le caractère immatériel enregistré sur ordinateur succède au caractère métallique. Une seule photocomposeuse de troisième génération absorbe la production d'une centaine de clavistes. Un ordinateur peut d'ores et déjà assurer la présentation définitive d'un texte, voire réaliser diverses maquettes de mise en pages selon un programme préétabli. Seul le produit fini, c'est-à-dire l'imprimé, ne risque pas de disparaître.

L'évolution du secteur
À ses débuts, l'imprimerie intègre toutes les fonctions, de l'édition à la librairie. Puis apparaissent des imprimeries effectuant à façon les travaux que leur confient les éditeurs. La production se divise ensuite en travaux dits « de labeur », ou impression de livres, et en travaux « de ville », représentés par le reste du marché. Au xixe s. vient s'ajouter la presse. Les entreprises se chargent encore de toutes les opérations, de la composition au façonnage.
De nos jours, la diversification s'est accrue, certaines entreprises n'assurant parfois qu'une seule de ces fonctions, si bien que l'ensemble des activités techniques qui ont pour but la production d'un imprimé est plutôt désigné sous l'expression d'« industries graphiques », le terme « imprimerie » étant réservé à une entreprise qui s'occupe surtout (parfois exclusivement) de l'impression.

De la taille douce aux techniques contemporaines
La taille douce
Maso Finiguerra (1426-1464) appliqua pour la première fois la gravure en creux à l'imprimerie, en remplissant d'encre les tailles d'une plaque d'argent gravée et en imprimant, grâce à cette forme, une image représentant le Couronnement de la Vierge. Depuis, on a donné le nom de « taille-douce » à l'ensemble des procédés de gravure manuelle en creux.
La gravure en creux, ou taille-douce, devint à la Renaissance le mode d'illustration préféré du livre; elle succède au relief du bois de fil, qui ne permettait pas une finesse d'exécution suffisante. Ce type d'impression est l'inverse de celui de la gravure sur bois en relief. Il faut ajouter que la métallurgie du cuivre, support habituel de la taille-douce, la favorisa grandement en substituant les planches laminées, d'épaisseur enfin uniforme, aux précédentes, simplement coulées et battues.
Christophe Plantin, à Anvers, fut l'un des premiers à promouvoir la taille-douce, à partir de 1559 (avec l'ouvrage la Magnifique et Somptueuse Pompe funèbre, faite aux obsèques de Charles Cinquième, célébrées en la ville de Bruxelles) en faisant appel à des graveurs de grande renommée.
Deux méthodes sont employées pour graver le cuivre, qui est le métal utilisé presque exclusivement en taille-douce : l'outil peut être un burin dont l'arête tranchante entame fortement le métal, ou une pointe sèche, stylet d'acier ou de diamant, qui ne laisse dans le cuivre qu'un léger sillon, ou le procédé à l'eau-forte.
Quand la gravure est réalisée par voie chimique, la plaque de cuivre est recouverte préalablement d'un vernis. Puis le graveur, avec une pointe, met le métal à nu sans l'entamer. La plaque est ensuite plongée dans un bain d'acide (eau-forte) qui va creuser dans le cuivre les zones que la pointe a dénudées. D'autres techniques sont utilisées : l'aquatinte, le lavis, le procédé au sucre…
Ce procédé avait pour inconvénient majeur la nécessité d'une impression sur deux presses : l'une, typographique, pour le texte ; l'autre, chalcographique, pour les illustrations. Les presses de taille-douce ressemblent à un laminoir, dans lequel passe la plaque recouverte par la feuille à imprimer. Une servitude de la taille-douce est qu'elle nécessite avant impression l'essuyage de l'encre compacte dont on recouvre toute la surface de la plaque – faute de pouvoir faire autrement – car elle ne doit subsister que dans les tailles de la gravure. C'est là, en effet, que le papier d'impression ira la recueillir.
La taille-douce est restée, jusqu'au xixe s., le procédé d'illustration le plus apprécié. Aujourd'hui elle est réservée aux ouvrages de bibliophilie (livres de grand luxe tirés en nombre limité).

Les techniques contemporaines

Cinq procédés d'impression (lithographie, offset, héliogravure, flexigraphie et sérigraphie) se partagent aujourd'hui le marché des industries graphiques. La typographie utilise des caractères typographiques pour le texte et des clichés pour les illustrations. La mise au point, vers 1900, de l'impression en offset a progressivement déstabilisé le secteur d'activité de la typographie, qui ne représente plus qu'une très faible part du marché. Elle est encore utilisée pour l'impression de livres de bibliophilie et pour les travaux de ville.

Le procédé lithographique fut inventé par l'Autrichien Aloys Senefelder, en 1796. C'est un procédé physico-chimique fondé sur l'antagonisme qui existe entre l'eau et les corps gras. La forme imprimante est une pierre calcaire parfaitement plane (la pierre litho est du calcaire très fin). Sur sa surface poreuse, extrêmement homogène, on dessine ou on reporte à l'envers l'image à reproduire, à l'aide d'une encre spéciale dont les acides gras se combinent chimiquement au calcaire. On fixe ensuite ce report avec une solution d'acide nitrique et de gomme arabique. La presse lithographique fonctionne comme une presse typographique à système plan contre cylindre. Lors de l'impression, la forme passe d'abord au contact de rouleaux mouilleurs : l'humidité est « repoussée » par les parties dessinées, et « acceptée » par la surface des parties non imprimantes. La forme passe ensuite au contact des rouleaux encreurs, dont l'encre, qui n'adhère pas aux parties mouillées, se dépose sur l'image. Celle-ci se reporte alors à l'endroit sur une feuille de papier entraînée par le cylindre de pression. Les pierres lithographiques, lourdes et encombrantes, furent remplacées par du zinc, car ce métal présente pour l'imprimerie des propriétés analogues à celles du calcaire. Vers 1880, on construisit des presses lithographiques rotatives, dans lesquelles la plaque de zinc cintrée était accrochée sur un cylindre porte-forme.
En 1904, l'Américain Ira Rubel, laissant passer un tour sans feuille sur sa presse litho, constate que l'habillage de caoutchouc du cylindre de contre-pression donne une impression très convenable au verso de la feuille suivante : c'est grâce à cette fausse manœuvre qu'est né le procédé offset. L'impression en offset ne diffère que très peu de l'imprimerie litho : la feuille est imprimée par l'intermédiaire d'un cylindre recouvert de caoutchouc (cylindre porte-blanchet). L'image, à l'endroit sur la forme, se reporte à l'envers sur le blanchet, pour se décalquer finalement à l'endroit sur la feuille. La photogravure offset obéit aux mêmes principes que la photogravure typographique, mais les points de trame offset ne sont plus soumis à l'écrasement. L'offset est le mode d’impression le plus répandu en publicité, mais aussi dans l'impression des livres, des revues et même des journaux.

L'héliogravure utilise un procédé dont les formes imprimantes sont des cylindres recouverts d'une pellicule de cuivre, déposée par voie électrolytique, dans laquelle sont gravés en creux les éléments imprimants. Le parc des presses d'héliogravure n'est pratiquement constitué que de rotatives. Le traitement des cylindres nécessite des installations lourdes et complexes qui font appel aux technologies de la gravure assistée par ordinateur. Le coût élevé de la gravure ne peut être amorti que par des tirages très élevés : catalogues de V.P.C., hebdomadaires, etc.
Dans la flexographie, les formes imprimantes sont en relief et sont constituées de clichés souples, en caoutchouc ou en plastique ; ce procédé est surtout exploité en continu sur des rotatives. Les solvants de l'encre fluide sont très volatils et le séchage s'effectue par évaporation, ce qui permet d'imprimer sur des supports non absorbants, tels les plastiques souples utilisés dans les secteurs de l'emballage.
La sérigraphie, enfin, est un procédé exploitant le principe du pochoir. La forme imprimante est constituée d'un cadre, fermé par un écran en soie, à l'origine (d'où son nom), et maintenant en Nylon. Les entreprises spécialisées vont de l'imprimerie artisanale aux unités les plus industrialisées. L'impression des autoadhésifs sur les plastiques, celle des habillages de matériel technologique sont des secteurs privilégiés de la sérigraphie, qui permet aussi d'imprimer sur des volumes (tubes, ampoules, etc.).

Insuffisance rénale

il y a 5 mois

Insuffisance rénale
L'insuffisance rénale est une altération du fonctionnement des deux reins qui ne filtrent plus correctement le sang. Elle est dite aiguë si le dysfonctionnement est transitoire, chronique lorsque la destruction est irréversible, sans possibilité de guérison. En cas d'insuffisance rénale majeure, la fonction rénale peut être supplantée par dialyse ou greffe de rein.

Dossier réalisé en collaboration avec le Pr Christian Combe, Université Bordeaux Segalen, Service de néphrologie transplantation dialyse du Centre Hospitalier Universitaire de Bordeaux et Unité Inserm 1026 - Mars 2012.

Qu’est-ce que l’insuffisance rénale ?

Chaque néphron, unité fonctionnelle du rein assurant le rôle de filtre du sang, contient un glomérule et un tubule.
L'insuffisance rénale correspond à l'altération du fonctionnement des deux reins qui ne filtrent plus correctement le sang. La maladie est dite aiguë si le dysfonctionnement est transitoire et réversible et chronique si la destruction est irréversible, sans possibilité de guérison. Dans ce cas, la maladie peut être stabilisée. Si l'insuffisance rénale est majeure, la fonction rénale peut être supplantée par dialyse ou transplantation. La dialyse permet de filtrer le sang par un circuit dérivé, le plus souvent extérieur à l’organisme.
L’insuffisance rénale aiguë survient le plus souvent après une agression comme une baisse brutale et transitoire de la pression artérielle, lors d'une hémorragie, d'une infection générale (septicémie), d'une intoxication médicamenteuse ou encore en cas d’obstruction des voies urinaires par un calcul ou un adénome prostatique. Les reins mettent quelques jours à retrouver spontanément un fonctionnement normal après traitement. Pendant cette période, il faut recourir à la dialyse qui permet au patient de survivre pendant le processus d'auto-réparation rénale.

L’insuffisance rénale chronique ne régresse pas, par définition. Elle est induite par des pathologies (diabète, hypertension…) qui détruisent progressivement et de façon irréversible les différentes structures rénales. Il existe cinq stades de la maladie jusqu’au stade terminal auquel la capacité de filtration est inférieure à 15 % de la normale pour l’ensemble des reins. Ce stade nécessite d’envisager les techniques de remplacement de la fonction rénale : dialyse et transplantation.

Une maladie dont la fréquence augmente avec l’âge

Selon une étude menée aux Etats-Unis sur la période 1999-2000 (National Health and Nutrition Examination Survey IV), 9,4 % de la population générale, dont deux tiers d’hommes, présenteraient une insuffisance rénale, dont 5,6 % à un stade léger ou modéré, 3,7 % à un stade sévère et 0,13 % à un stade terminal*. La maladie est rare avant 45 ans mais sa prévalence augmente avec l’âge, notamment après 65 ans. En France, les données disponibles concernent l’insuffisance rénale chronique terminale grâce au réseau national REIN (Réseau Epidémiologie et Information en Néphrologie). En 2009, 36 000 personnes étaient dialysées en France et 31 000 personnes ont bénéficié d’une greffe de rein (dont 2 800 nouveaux greffés)**. La prévalence de cette maladie devrait encore augmenter dans les années qui viennent en raison du vieillissement de la population et de l’augmentation du diabète, deux causes majeures d’insuffisance rénale, et grâce à l’amélioration de la survie des patients transplantés et dialysés.
*Coresh J, Byrd-Holt D, Astor BC, et al. Chronic kidney disease awareness, prevalence, and trends among U.S. adults, 1999 to 2000. J Am Soc Nephrol 2005;16:180-8
**Réseau Epidémiologie et Information en Néphrologie. Rapport annuel 2009

Le diabète et l’hypertension largement incriminés

L’insuffisance rénale est liée dans presque un quart des cas à une hypertension et un autre quart à un diabète*. Ces deux pathologies entraînent des lésions vasculaires qui altèrent la fonction des reins. D’après une étude de 2003, dix ans après le début d’un diabète, un tiers des patients développe une insuffisance rénale dont 6 % à un stade avancé** mais l’amélioration constante de la prise en charge du diabète a pu modifier ces données.

Les glomérulonéphrites primaires, qui étaient les causes principales d’insuffisance rénale dans les années 1990, ne concernent plus que 12 % des patients. Il s’agit le plus souvent d’une maladie inflammatoire auto-immune du glomérule, le filtre du rein. Le début de la maladie est souvent insidieux et celle-ci peut être découverte au cours d’une prise de sang (protéinurie, hématurie) ou de la mesure de la pression artérielle pour un autre motif.
Plus de 6 % des cas sont liés à une maladie génétique héréditaire appelée polykystose, caractérisée par de nombreux kystes au niveau des reins.
Enfin, les pyélonéphrites sont à l’origine de 4 % des insuffisances rénales et dues à des infections urinaires très fréquentes, surtout chez la femme, et à la remontée du germe dans les reins.
Dans 15 % des cas, la maladie est de cause inconnue.
*Réseau Epidémiologie et Information en Néphrologie. Rapport annuel 2009
**Amanda I.Adler et al. Development and progression of nephropathy in type 2 diabetes: The United Kingdom Prospective Diabetes Study (UKPDS 64). Kidney International, Vol. 63 (2003), pp. 225–232

Des complications cardiovasculaires fréquentes
La complication principale est le risque cardiovasculaire. Des reins malades peuvent longtemps donner l’illusion d’un fonctionnement normal alors qu’ils altèrent le métabolisme général en provoquant l’accumulation de toxiques, de déchets métaboliques ou encore de sels minéraux en raison d’une mauvaise filtration. L’accumulation de sel dans l'organisme et la sécrétion exagérée d'hormones hypertensives par le rein s’accompagnent alors le plus souvent d’une augmentation de la pression artérielle. Or, l'hypertension accélère elle-même les lésions du rein et l'évolution de l’insuffisance rénale. Au moment de l’instauration d’un traitement de suppléance (dialyse ou transplantation), 81 % des malades ont des antécédents d‘hypertension artérielle. Ils présentent souvent d’autres complications cardiovasculaires, 28 % d’entre eux ont une insuffisance cardiaque, 26 % une pathologie coronarienne et 22 % une artérite des membres inférieurs.

Les troubles du calcium et du phosphore sont fréquents. Le calcium est mal absorbé et l’accumulation de phosphore dans le sang aggrave ce phénomène. Les conséquences de ces anomalies peuvent être osseuses avec, chez l'enfant, des signes proches du rachitisme, un retard de croissance, et, chez l'adulte, une fragilité osseuse (ostéoporose). Les artères peuvent également être le siège de calcifications réduisant leur calibre avec des conséquences cardiovasculaires.
La maladie rénale peut entraîner un déficit de sécrétion en érythropoïétine (EPO) et donc l’apparition d’une anémie, ce qui explique le teint pâle du malade, sa fatigue physique et intellectuelle. On peut y remédier avec un apport en érythropoïétine humaine recombinante.
La dénutrition est fréquente, l'accumulation des déchets ayant un effet anorexigène. Elle doit être prévenue, détectée et traitée.
D’autres signe, par exemple neurologiques, peuvent survenir à des stades très avancés de la maladie.
*Réseau Epidémiologie et Information en Néphrologie. Rapport annuel 2009

Ralentir la progression de l’insuffisance rénale
L’insuffisance rénale chronique peut évoluer très différemment selon le patient et la pathologie associée. En cas de polykystose, la maladie progresse d’environ 5 % par an, en cas de diabète équilibré 3,5 % et en cas de diabète mal contrôlé 12 % par an. Dans ce dernier cas de figure, cela signifie qu’en 5 ans, le patient aura perdu 60 % de sa fonction rénale*.

Cependant le contrôle de l’insuffisance rénale est possible et le stade terminal n’est pas inéluctable.
Stopper ou ralentir la progression de l’insuffisance rénale nécessite entre autres de contrôler la pression artérielle (< 130/80 mmHg*) et la protéinurie (< 0,5 g/jour*). Pour cela, un traitement antihypertenseur est nécessaire, de même qu’un contrôle diététique : régime limité en sel surtout, avec un apport en protéines contrôlé. Une supplémentation en calcium peut être prescrite, ainsi qu’un contrôle du cholestérol, avec un objectif de LDL-cholestérol (le "mauvais" cholestérol) de 1 g/l à atteindre par le régime et/ou les médicaments.
Il est en parallèle essentiel de contrôler efficacement les maladies associées à l’insuffisance rénale, notamment le diabète et corriger les autres facteurs de risque cardiovasculaires : arrêter de fumer, quel que soit le stade de la maladie, traiter une hypercholestérolémie, etc.
Malgré ces précautions, tout patient doit être informé des modalités des traitements de suppléance que représentent la dialyse et la greffe.
*Christian Combe et al. Stratégies pour ralentir la progression des maladies rénales chroniques. Presse Med. 2007; 36: 1849–55
Dialyse et transplantation permettent de supplanter la fonction rénale

La dialyse et la transplantation ont révolutionné la prise en charge de la maladie rénale chronique depuis les années 1960. Cependant, le stade qualifié de "terminal" n'implique pas nécessairement le recours à ces techniques de suppléance. Certains patients peuvent être stabilisés pendant plusieurs années à ce stade 5. En outre, chez les patients âgés, le traitement conservateur peut être maintenu si la dialyse n’est pas souhaitée.

L’hémodialyse correspond à un rein artificiel et permet de remplacer la fonction d'épuration des reins via un circuit extracorporel. Elle a lieu en général par séances de 4 heures trois fois par semaine mais une fréquence plus élevée permet d’obtenir une meilleure régulation du métabolisme grâce à une filtration plus régulière. Elle peut se faire dans des centres spécialisés, dans des centres d’autodialyse, et même à domicile, mais sa pratique nécessite une bonne formation. La dialyse péritonéale représente environ 7 % des dialyses* et permet de filtrer le sang à domicile au niveau du péritoine qui sert de membrane. Cette technique est aussi efficace que l'hémodialyse au début mais peut moins souvent être utilisée au-delà de 5 ans en raison de l’altération de la capacité de filtration du péritoine au cours du temps.
La dialyse permet de vivre de nombreuses années et contribue en général à baisser l’utilisation des antihypertenseurs mais elle ne dispense pas des autres traitements.

La transplantation consiste à remplacer les reins déficients par un rein sain. Cette technique permet plusieurs années de vie sans dialyse. Après 10 ans, environ 70 % des greffons sont encore fonctionnels. La greffe rénale est la plus fréquente des transplantations en France et bénéficie à des sujets plutôt jeunes (âge médian 55 ans*). Plus de 2 800 personnes ont pu en bénéficier en 2009 mais près de 7 000 autres patients étaient en attente d’un greffon.
*Réseau Epidémiologie et Information en Néphrologie. Rapport annuel 2009

Des voies de recherche multiples
Mieux comprendre la progression de l’insuffisance rénale
Les spécialistes cherchent à mieux identifier les facteurs de risque d’insuffisance rénale terminale comme le diabète ou l’hypertension et à améliorer l’organisation des soins. Le registre REIN, qui recense depuis 2002 les patients en stade terminal, a pour objectif de décrire l’incidence et la prévalence des traitements de suppléance, les caractéristiques de la population traitée, la mortalité et les modalités de traitement.

Il est également nécessaire d’identifier des déterminants environnementaux ou sociaux de la progression de l’insuffisance rénale chronique. C’est l’un des objectifs de la cohorte Nephrotest créée à partir de 2000 pour au moins 10 ans de suivi. Plus de 3 000 patients atteints d’insuffisance rénale chronique sont suivis afin de déterminer des facteurs de progression de la maladie et de ses complications associées. C’est également le cas de la cohorte CKD-Rein nouvellement formée, incluant 3 600 patients présentant des insuffisances rénales modérées à terminales. Le suivi d’un minimum de cinq ans permettra de comprendre comment le mode de vie, l’environnement, la génétique et les pratiques médicales interagissent sur l’évolution de la maladie et ses complications.
Un autre volet de cette cohorte CKD-REIN porte sur l’organisation des soins et la qualité de vie des patients. L’objectif est d’identifier les modes de prise en charge les plus efficaces et les moins couteux. A ce titre la qualité de vie des patients sera évaluée régulièrement ; vie familiale, activité professionnelle, activités de loisir, alimentation, sommeil et sexualité et les pratiques médicales et l’organisation des soins seront comparées entre la France et d’autres pays afin d’identifier les plus efficients.

Identifier de nouvelles cibles thérapeutiques
Une meilleure appréhension des mécanismes de progression de l’insuffisance rénale chronique permettra par ailleurs de mieux ralentir son évolution. Actuellement, les efforts portent sur la normalisation de la pression artérielle et de la protéinurie, mais d’autres cibles sont à l’étude. Des travaux portent notamment sur les mécanismes d’inflammation et de fibrose du rein qui mènent à son altération.
Deux molécules sont à l’essai et ont déjà montré des résultats prometteurs en cas de néphropathie diabétique : la bardoxolone, qui module l’inflammation au niveau du rein, et l’anticorps monoclonal TGFbβ orienté contre un facteur de croissance impliqué dans la fibrose.

DOCUMENT inserm LIEN

CERVEAU VIRTUEL ...

il y a 5 mois


Human Brain Project : la course au cerveau virtuel est lancée

Par Elena Sender le 07.10.2013 à 17h12, mis à jour le 07.10.2013 à 17h15
Top départ pour le Human Brain Project demain à Lausanne. Retrouvez le reportage de Sciences et Avenir à Neuropolis où les chercheurs veulent créer une version numérique du cerveau humain.

Sciences et Avenir vous propose de retrouver le reportage d'Elena Sender, envoyée spéciale à Lausanne, qui était paru dans le numéro 790 de décembre 2012.
FUTURISTE. Pour l'instant, ce n'est qu'un pré sur le campus de l'École polytechnique fédérale de Lausanne (EPFL), face au lac Léman, avec vue imprenable sur les Alpes suisses. Dans quatre ans, s'élèvera un bâtiment futuriste de 30.000 m2 d'une valeur de 100 millions de francs suisses (83 millions d'euros) qui abritera un projet exceptionnel baptisé Neuropolis, voulu conjointement par l'EPFL, les universités de Lausanne et de Genève ainsi que les autorités politiques suisses : le futur " Cern " du cerveau, à l'image du grand centre de recherche consacré à la physique des particules, à la frontière franco-suisse.

Il faut en effet imaginer un complexe de simulation faisant " mouliner " jour et nuit un supercalculateur effectuant 1018 opérations à la seconde, avec l'ambition de faire " vivre " un cerveau virtuel ! Nourri par toutes les données disponibles de la neurophysiologie, mais aussi de l'imagerie médicale de pointe, cet encéphale – lorsqu'il sera achevé – réagira (presque) comme un vrai.

JOYSTICK. Imaginons le chercheur dans la salle des commandes telle qu'elle se présentera en 2016 lorsque Neuropolis sera opérationnel : il siégera face à des écrans géants projetant des images cérébrales exceptionnelles. D'un mouvement de joystick, il naviguera dans le tissu virtuel, se promènera entre les neurones, zoomera sur une connexion, pointera un canal ioniqueou une synpase pour y observer les échanges de neuromédiateurs. Selon les besoins de son étude, il enverra un influx électrique ici ou là et regardera le système nerveux réagir en temps réel. Dans un bureau attenant, une équipe de recherche s'apprêtera, quant à elle, à tester un " candidat médicament " modélisé en 3D sur un modèle de cerveau malade d'Alzheimer tandis qu'une autre équipe étudiera, par exemple, le câblage neuronal dans la schizophrénie. Venus du monde entier, des chercheurs disposeront de la plateforme de simulation pour éprouver leurs hypothèses, leurs molécules, leurs traceurs… Le rêve d'un cerveau in silico (voir l'encadré "Repères"), ouvert à tous, est en passe de devenir réalité.

"Être un petit poisson dans une grande piscine ou un gros poisson dans une petite piscine ?"
L'idée de ce projet hors normes a germé sur le campus, à une centaine de mètres de là, au
deuxième étage d'un bâtiment métallique aux modules rouge, orange et gris, dans le bureau de Patrick Aebischer, président de l'EPFL depuis 2000. Avant son arrivée, l'École polytechnique n'avait jamais vu le museau d'une souris dans ses laboratoires. C'est ce neurobiologiste qui y a imposé la recherche et l'enseignement en sciences de la vie.
" En dix ans, nous avons embauché 55 professeurs de biologie parmi les meilleurs ", raconte fièrement l'homme fort de l'école. Ce qui, il ne s'en cache pas, " a suscité énormément de débats ". Cet entrepreneur, manager " à l'américaine " – il a travaillé pendant huit ans à l'université Brown aux États-Unis – voit grand. Bras croisés, ponctuant ses phrases d'expressions anglaises, il souhaite créer " a big science " pour la biologie.

« Comme les astronomes ont leur grand télescope, les physiciens leur accélérateur de particules, les biologistes doivent avoir leur plateforme de simulation du vivant » - Patrick Aebischer.
Le patron de l'EPFL se penche sur une table basse dont le plateau n'est autre qu'une photo aérienne du campus, et pointe du doigt un carré inoccupé : " Ce sera ici, à
Neuropolis. "
"PATCH-CLAMP". Tout a commencé en 2001, lorsque Patrick Aebischer a rencontré Henry Markram, neurophysiologiste sud-africain, passé maître dans l'art du patch-clamp (la mesure des paramètres électrophysiologiques) des neurones. " Henry a deux cerveaux, rapporte Patrick Aebischer. Celui de l'expérimentateur et celui de l'informaticien, persuadé que le futur des neurosciences passe par la simulation. " Après avoir travaillé à l'Institut Weizmann, à Rehovot (Israël), et aux National Institutes of Health, à Bethesda (États-Unis), puis à l'Institut Max-Planck pour la recherche médicale à Heidelberg (Allemagne), Henry Markram est alors sur le point de signer un contrat en or au Massachusetts Institute of Technology (États-Unis). " Je lui ai posé la question de savoir s'il préférait être un petit poisson dans une grande piscine ou un gros poisson dans une petite piscine ", se souvient Patrick Aebischer, l'œil malin. Et le tout nouveau patron de l'EPFL a attrapé Markram dans ses filets, lui donnant carte blanche et un gros budget. Celui-ci lance alors son projet Blue Brain, la simulation numérique du fonctionnement cérébral, l'EPFL lui apportant la pièce maîtresse sur un plateau : " Nous avons acheté Blue Gene, puissant supercalculateur ", raconte Patrick Aebischer.

Pour se faire une idée des capacités de Blue Gene. Damien Hypolite pour Sciences et Avenir.
Installé en 2005, l'ordinateur fait depuis tourner l'ensemble du programme. En 2011, nouveau bond en avant. L'équipe s'associe à 120 autres laboratoires de 22 pays et devient le consortium Human Brain Project (HBP). Le HBP décide alors de concourir dans un appel à projets du programme Future and Emerging Technologies Flagship Initiatives, lancé par l'Union européenne pour aider le projet scientifique le plus prometteur pour les dix ans à venir. Avec, à la clé, une subvention colossale d'un milliard d'euros ! Fin 2012, HBP figure parmi les six derniers projets en lice, le gagnant devant être désigné au cours de 2013 (le HBP a effectivement été désigné en janvier de cette année co-lauréat de la bourse de l'Union Européenne).

Le calculateur Blue Gene a simulé la première colonne corticale de souris dès 2008
Pour rencontrer le créateur de Blue Brain, il faut marcher dix minutes, sous la pluie, à
travers le campus en chantier. On croise sur le chemin deux énormes grues qui réduisent à néant un building, celui-ci devant être remplacé d'ici à deux ans par le nouveau Centre de neuroprothèses. Viendront s'y installer le laboratoire du Français Grégoire Courtine, dont les équipes ont fait remarcher des souris paraplégiques ; celui de l'Espagnol José Milan, spécialiste des interfaces homme-machine ; ou encore celui de l'Allemand Olaf Blanke, qui travaille sur les illusions produites par le cerveau.

PUIT DE LUMIÈRE. Le QG de Henry Markram apparaît enfin. Un cube blanc, percé d'un puits de lumière. Chemise claire à petits motifs, yeux bleus perçants, le chercheur est habité par son sujet. De sa voix monocorde, il raconte comment la compréhension du cerveau l'a toujours obsédé : " Mon désir est de partir du cerveau entier puis de descendre jusqu'au niveau des neurones, à celui des cellules uniques, puis des canaux ioniques, des protéines et des gènes. " Pour cela, une seule méthode : l'agrégation de toutes les connaissances disponibles dans un seul et même modèle. " 60.000 articles de neurosciences sont publiés chaque année, note-t-il. Il y a trop d'informations pour qu'elles puissent être digérées. La seule façon de progresser est d'intégrer systématiquement toutes ces données sous forme numérique pour créer un modèle le plus complet possible. Cela aidera aussi les chercheurs à repérer les manques et les contradictions dans leurs connaissances et identifier les expérimentations nécessaires pour les combler. " Intégrer la complexité, telle est l'idée maîtresse du projet.
Ci-dessous, une interview d'Henry Markram, de juin 2012.

Vers un cerveau artificiel à Neuropolis... par sciencesetavenir
En 2008, le calculateur Blue Gene a fait ainsi " tourner " la première colonne corticale (voir Repères) de souris, un réseau vertical de 10.000 neurones. Cette année, 60 colonnes corticales interconnectées ont été modélisées grâce à la version la plus avancée du supercalculateur, d'une puissance de 54 téraflops (54 x 1012 opérations/s). Il s'agit maintenant de construire 10 000 autres colonnes jusqu'à simuler un cerveau de souris entier, et ses 100 millions de neurones. Ce qui demandera une puissance de calcul de un pétaflop (1015), à l'horizon 2014. Puis, l'équipe s'attellera à l'ultime tâche. Faire de même avec le cerveau humain, vers 2023, ce qui exigera un exaflop (1018).

"SALLES DES MACHINES". Pour comprendre concrètement comment ça marche, il faut pousser la porte de la " salle des machines ", le laboratoire. Ici, une quinzaine de jeunes chercheurs de 12 pays sont à l'œuvre. Le Danois Jesper Ryge place un échantillon de cerveau de souris sous un étrange microscope, encerclé par une couronne de seringues, le fameux patch-clamp, cher à Henry Markram.
" On stimule l'échantillon avec une électrode, explique-t-il, puis on enregistre les réponses électriques de chaque neurone. " À côté, sur un écran, on peut voir les neurones " répondre " à la stimulation électrique par des tracés rouges réguliers qui s'affichent en temps réel. Une fois des milliers d'enregistrement réalisés, les chercheurs sont en mesure de passer à la modélisation. Là, les biologistes cèdent la place aux physiciens et aux mathématiciens.
" Nous simulons la biophysique des cellules nerveuses, expose l'Allemand Felix Schürmann, physicien, auparavant à l'université de Heidelberg, et désormais bras droit de Henry Markram. Cela signifie que nous décrivons la physique des propriétés électriques des neurones, comme la propagation des courants et du voltage à travers l'arbre dendritique (voir Repères) des neurones, avec différentes équations. Les paramètres de ces équations ayant été extraits de données expérimentales décrites dans de multiples publications. "
CORTEX. Tandis que l'activité intime du neurone est simulée artificiellement, d'autres chercheurs reproduisent sa morphologie. Il existe, en effet, quelque 200 types différents de neurones dans le cortex. C'est ainsi, en agrégeant les données issues de près de 20.000 expérimentations sur vingt ans, que l'équipe a réussi à reconstituer en 3D la cartographie précise d'une petite portion de cortex de souris avec ses caractéristiques physiologiques, géométriques et ses connexions.

" Il faudrait des décennies, voire un siècle, pour cartographier un cerveau entier avec les connexions précises. Il y a en effet 3000 routes différentes possibles pour chaque neurone. On ne peut les explorer toutes ! " reconnaît Henry Markram qui, heureusement, a trouvé le moyen d'accélérer son travail de bénédictin grâce à une découverte publiée dans les Pnas en août 2012. L'équipe a tenté une expérience en positionnant 298 neurones virtuels de différents types selon la disposition et la répartition observées dans un échantillon de cortex vivant. Puis elle a " lancé la machine " et laissé les neurones se connecter comme bon leur semblait ! Résultat ? En comparant l'organisation virtuelle obtenue et le circuit cortical réel de la souris, les chercheurs ont observé une chose extraordinaire : de 75 % à 95 % des points de connexions étaient similaires. " Ça a été un choc, assure Henry Markram. Cela signifie que l'on peut prédire les schémas de connexions synaptiques [le connectome, voir Repères] à partir du moment où la composition et la répartition des neurones du cortex sont connues. "

"BAT LAB". Mais pour construire le futur modèle de cerveau, il n'y a pas que les observations tirées du patch-clamp qui comptent. En cela, une autre branche de Neuropolis va être d'une grande aide. Pour la découvrir, il faut se rendre cette fois aux hôpitaux universitaires de Genève, à trois quarts d'heure de train du campus. Là aussi les grues s'activent. Un nouveau bâtiment, le Bat Lab, va bientôt sortir de terre, au sixième étage duquel s'installera le nouvel Institut d'imagerie moléculaire translationnelle.
Cette unité, placée sous l'égide du professeur Osman Ratib, spécialiste d'imagerie moléculaire, sera un satellite de Neuropolis. Objectif ? " Nous développons des nouveaux outils diagnostiques mais aussi thérapeutiques pour voir les molécules agir dans le cerveau animal, explique Osman Ratib. Nous cherchons par exemple des biomarqueurs spécifiques à certaines sous-catégories de tumeurs cérébrales pour mettre au point des thérapies personnalisées et prédire la réponse au traitement. " Tous ces résultats sont déjà – et seront encore davantage – injectés dans le cerveau virtuel du campus de Lausanne. Dans le cadre de Neuropolis, l'équipe d'Osman Ratib va d'ailleurs se focaliser sur la modélisation d'un cerveau vieillissant et sur les effets des maladies neurodégénératives. Ici aussi, on mise sur la bourse européenne du HBP.

Trop complexe pour certains, le HBP a suscité la polémique
Un autre médecin-chercheur britannique attend beaucoup de Neuropolis. C'est le professeur Richard Frackowiak, spécialiste de l'imagerie clinique au Centre hospitalier universitaire vaudois de Lausanne, autre satellite du projet. Lui, travaille sur le cerveau humain malade. Il est sûr que la méthode de neuro-sciences intégrée " à la Markram " est la solution pour avancer dans la compréhension de maladies comme Alzheimer. " Pour l'instant, on est dans l'impasse car on se focalise sur des petites parties du problème comme les plaques amyloïdes. Grâce au modèle global, nous allons prendre la maladie dans son ensemble. Il en émergera une véritable théorie du cerveau sain mais aussi du cerveau malade. "

"TROP COMPLEXE". Même si cette approche n'est pas partagée par toute la communauté scientifique, des voix s'élevant en Suisse comme ailleurs contre cette démarche jugée " trop complexe ". De fait, dans un article paru dans Nature en février 2012, le HBP a suscité la polémique. Rodney Douglas codirecteur de l'Institut de neuro-informatique de Zurich (Suisse), y exprime son inquiétude : " Nous avons besoin de variance en neurosciences, nous avons besoin de personnes qui expriment des idées différentes, une diversité qui peut être menacée si autant d'argent est consacré à un seul projet. "
Sollicité par courriel, Rodney Douglas n'a cependant pas souhaité répondre à nos questions, préférant jouer l'apaisement. " Clairement, je ne suis pas d'accord avec Henry sur certains problèmes. Néanmoins, il demeure mon collègue et il est regrettable que nos désaccords scientifiques soient polarisés dans la presse. " Il n'empêche : certains scientifiques pensent effectivement que le modèle Blue Brain, trop fourni et détaillé, ne sera pas forcément plus facile à comprendre qu'un cerveau réel. La question qui se pose : que va nous montrer un modèle complexe ? Ou encore, la modélisation du vivant est-elle là pour prédire – comme Blue Brain – ou pour faire comprendre des phénomènes ? Car, s'il s'agit de comprendre, ne vaut-il pas mieux avoir un système simplifié avec un minimum de données à faire varier ?
" Aujourd'hui, nous possédons les mathématiques qui correspondent à cette complexité, il faut cesser d'en avoir peur ", rétorque Richard Frackowiak. Patrick Aebischer, lui, estime que les débats sont sains. " La “grande science” a toujours évolué à travers de grands débats, comme pour le séquençage du génome qu'on estimait impensable. " Quant à Henry Markram, il joue la conciliation, affirmant que " notre plateforme sera ouverte à toutes les propositions ".
REPÈRES. Canal ionique : protéine transmembranaire qui permet le mouvement des ions, créant des courants électriques. Neuromédiateur : molécules chimiques libérées par les neurones et agissant au niveau des synapses. In silico : effectué avec l'outil informatique. La bio-informatique correspond à l'approche in silico de la biologie traditionnelle. Colonne corticale : groupe de 10 000 neurones environ situés dans le cortex cérébral qui forme une unité fonctionnelle. Il en existe environ 100.000 dans le cerveau humain. Arbre dendritique : les dendrites (fibres réceptrices des neurones) peuvent former une arborescence très dense. Connectome : carte complète des connexions dans le cerveau.

SCIENCES ET AVENIR LIEN

MUCOVISCIDOSE

il y a 6 mois

Mucoviscidose
 
Dossier réalisé en collaboration avec Claude Férec, directeur de l’unité mixte de recherche 1078 Inserm/Université de Bretagne occidentale/EFS, chef de service du laboratoire de génétique du CHU Brest, directeur adjoint et scientifique de l'EFS Bretagne - Septembre 2014
La mucoviscidose est une des maladies génétiques potentiellement graves les plus fréquentes en France et dans les pays occidentaux. Elle touche surtout les fonctions digestives et respiratoires. Ses symptômes invalidants et les complications infectieuses et fonctionnelles qui en découlent impactent l’espérance de vie des patients. Heureusement, les espoirs thérapeutiques se multiplient. 

En France, 200 enfants naissent chaque année avec la mucoviscidose, soit en moyenne 1 sur 4 500 nouveaux-nés, avec une forte disparité régionale due aux socles génétiques locaux : la maladie concerne ainsi 1 enfant sur 3 000 en Bretagne, contre 1 sur 7 à 8 000 en Languedoc-Roussillon. Par ailleurs, les populations européennes sont plus fréquemment concernées que celles d’origine africaine ou asiatique. La France compterait 6 000 patients.

Aujourd’hui, grâce aux progrès de la recherche et à l’amélioration de la prise en charge de cette maladie, l’espérance de vie moyenne d’un patient est approximativement de 40 ans, alors qu’elle n’était que de 5 ans dans les années 1960. Il est probable que les enfants malades nés ces dernières années voient leur espérance de vie encore améliorée, a fortiori si de nouveaux traitements font prochainement leur apparition.

Une maladie liée à l’extrême instabilité du gène CFTR
La mucoviscidose est une maladie génétique dite ‘autosomique récessive’, transmise par deux parents porteurs sains : chacun d’eux transmet un allèle muté du gène codant pour la protéine CFTR  (Cystic fibrosis transmembrane conductance regulator), présent au niveau du chromosome 7. Avec l'amélioration de l’espérance de vie des patients, la mucoviscidose peut aussi être transmise par un couple au sein duquel figure un malade et un porteur sain ou même deux malades.
La protéine CFTR est une protéine présente dans la membrane des cellules de différents muqueuses : respiratoire, digestive… Elle fonctionne comme un canal qui permet l’échange d’ions chlorures entre l’intérieur et l’extérieur de la cellule. Lorsque son gène est muté, le canal dysfonctionne. Par le biais de différentes cascades biologiques, il en résulte notamment une diminution de l’eau excrétée au niveau des muqueuses et, en conséquence, une inflammation et un épaississement du mucus qui le recouvre. Ce phénomène entraîne l’apparition des symptômes habituels de la mucoviscidose.

 
Le gène CFTR peut être porteur de nombreuses mutations : près de 2 000 altérations différentes du gène ont d’ores et déjà été identifiées. Parmi elles, la mutation Delta F508 est la plus fréquente : elle est présente chez 70 % des malades sous forme hétérozygote (une seule copie), et chez 50 % d’entre eux sous forme homozygote (deux copies).
Les différentes mutations identifiées engendrent des dysfonctionnements dont la sévérité est variable. Ainsi, la mucoviscidose est une maladie dont l’expression est plus ou moins sévère selon la nature des mutations portées par le patient. La mutation Delta F508, expose quant à elle à une forme relativement sévère de mucoviscidose.
Par ailleurs, il est aujourd’hui démontré que des gènes modificateurs, codant pour des protéines sans rapport direct avec le canal CFTR, peuvent aussi influencer l’expression de la maladie. Plusieurs d’entre eux ont été identifiés.  Ils peuvent expliquer pourquoi deux patients ayant le même profil génotypique ne présentent pas la même expression phénotypique de la maladie.

Des symptômes respiratoires et digestifs prédominants
La mucoviscidose est une maladie qui se manifeste le plus souvent dès la naissance ou les premiers mois de vie. Elle touche principalement la fonction respiratoire et gastro-intestinale.
L’épais mucus qui encombre les bronches entraîne en premier lieu l’installation d’une bronchopneumopathie chronique obstructive (BPCO) qui épuise progressivement les capacités respiratoires du patient, entraînant à terme une insuffisance respiratoire. D’autres complications peuvent se développer avec le temps, comme des atélectasies (affaissement des alvéoles pulmonaires sur elles-mêmes) ou un pneumothorax (affection de la plèvre).
 
Le mucus présent dans les bronches fait également le lit d’infections bactériennes fréquentes et spécifiques par Staphylococcus aureus (staphylocoque doré), Haemophilus influenzae ou encore Pseudomonas aeruginosa.
Au niveau gastro-intestinal, près de 85 % des patients touchés par la mucoviscidose ont une insuffisance pancréatique, responsable d’une malabsorption des graisses. Seules les porteurs d’une ou deux mutations peu sévères peuvent espérer conserver la fonctionnalité de l’organe jusqu’à l’âge adulte, voire indéfiniment. Le mucus présent au sein du tractus intestinal favorise par ailleurs les stases (arrêt du transit), les alternances diarrhées/constipation, la malabsorption des nutriments et des vitamines.
Les hommes atteints de la maladie sont généralement stériles : les canaux déférents qui permettent d’évacuer les spermatozoïdes des testicules sont en effet obstrués in utero par un bouchon muqueux, provoquant leur involution.
Enfin, d’autres symptômes peuvent apparaître, souvent secondairement, sans que leur étiologie ne soit bien comprise : cirrhosedu foie, diabète, pathologies cardiaques…
 
Un diagnostic systématisé
Dans l’immense majorité des cas, la maladie est diagnostiquée dès la naissance de l’enfant, grâce à la démarche de dépistage systématique implantée dans toutes les maternités de France depuis 2002. Seuls quelques rares cas de mucoviscidose modérée ne seront identifiés qu’à un âge plus avancé, voire adulte.
Le dépistage systématique se déroule en deux temps : le premier consiste à doser la trypsine immunoréactive dans le sang des nouveau-nés au troisième jour de vie, à partir de quelques gouttes de sang prélevées par une piqûre au talon. Cette molécule est une enzyme pancréatique dont le passage dans le sang est favorisé par l’obstruction in utero des canaux pancréatiques par du mucus. Un taux élevé est associé à un risque élevé de mucoviscidose. Pour les enfants concernés, la présence des mutations du gène codant pour la protéine CFTR est recherchée dans le second temps, à partir du même échantillon sanguin. Si le test génétique est positif, le diagnostic de mucoviscidose peut être posé.
Un test biologique complémentaire est systématiquement réalisé. Ce test dit ‘de la sueur’ permet de doser les ions chlorures après avoir favorisé la sudation du patient. Ce taux est anormalement élevé chez les malades atteints de mucoviscidose.
Les couples dans lesquels existe une personne malade et ceux ayant déjà un enfant atteint bénéficient d’un conseil génétique. Ces rendez-vous sont notamment l’occasion de proposer une enquête génétique familiale, étendue ‘en cascade’ aux frères et sœurs. Ce travail permet d’identifier les porteurs sains de la famille : si dans un couple, les deux futurs parents sont concernés, ils pourront bénéficier d’un diagnostic prénatal.

Une prise en charge très spécialisée
Dès l’établissement du diagnostic, les personnes atteintes de mucoviscidose sont suivis au sein de centres de soins spécialisés, les Centres de ressources et de compétences de la mucoviscidose (CRCM). Le traitement qui leur est proposé est symptomatique : il vise à réduire les manifestations de la maladie et leurs complications. Il repose sur la prise de mucolytiques et de fluidifiants bronchiques, associée à des séances régulières de kinésithérapie améliorant l’expectoration bronchique. Tous les 3 à 4 mois, un traitement antibiotique préventif est prescrit pour limiter le risque d’infections respiratoires. Lorsque l’insuffisance respiratoire est terminale, une oxygénothérapie devient nécessaire. Une greffe pulmonaire peut aussi être envisagée en dernier recours. Afin de traiter les manifestations extrapulmonaires, des traitements antiinflammatoires, des extraits pancréatiques, des vitamines et supplémentations caloriques sont également prescrits.

Des pistes thérapeutiques encourageantes
Depuis la découverte du gène CFTR défectueux en 1989, les efforts de recherche se sont accentués. Ils ont permis de réelles avancées dans la compréhension de la maladie et ouverts plusieurs pistes de développement thérapeutique.
La première idée qui a émergé a été de corriger les anomalies génétiques responsables de la maladie par thérapie génique. Cette approche utilise un vecteur viral modifié pour introduire puis remplacer au sein des cellules souches pulmonaires le gène muté par sa version normale. Les essais cliniques conduits jusqu’à présent ont été décevants car les vecteurs utilisés (adénovirus, lentivirus) sont apparus immunogènes et le succès du ciblage des cellules souches aléatoire. Pour pallier ces inconvénients, des vecteurs de synthèse sont aujourd’hui développés. L’un d’eux, le GL67A (développé par un consortium britannique) est aujourd’hui en cours d’évaluation clinique.

La seconde alternative consiste à corriger le fonctionnement de la protéine CFTR. Les efforts de recherche ayant permis de déterminer précisément la structure et la configuration du canal sous sa forme normale, l’incidence de chaque mutation sur la fonctionnalité de la protéine CFTR a en effet pu être identifiée. Il est ainsi apparu que certaines mutations engendrent un défaut de repliement de la protéine CFTR sur elle-même, l’empêchant de s’intégrer à la membrane cellulaire. Mais d’autres version de la protéine mutée dysfonctionnent tout en étant bel et bien présente dans la membrane. Aujourd’hui, beaucoup d’équipes internationales cherchent donc à développer des molécules qui interagiraient avec la protéine CFTR, pour lui permettre de s’intégrer dans la membrane (correcteurs), ou pour améliorer son fonctionnement lorsqu’elle est présente mais inactive (potentiateurs).

En 2012, le premier médicament potentiateur, Kalydeco® (Laboratoire Vertex Pharmaceuticals) a reçu une autorisation européenne de mise sur le marché. Alors uniquement destiné aux patients porteurs de la mutation G551D (soit environ 4 % des diagnostics), la commercialisation de ce médicament a été élargie à 7 autres mutations en juillet 2014.
D’autres candidats médicaments sont en phase de développement ou d’essais cliniques ou précliniques. Parmi ces projets, une équipe internationale conduite par des chercheurs de l’Institut fédératif de recherche Necker-Enfants malades (CNRS/Inserm/Université Paris Descartes), étudie actuellement l’association de deux molécules – l’une correctrice et l’autre potentiatrice – qui permettrait de traiter les sujets porteurs de la mutation la plus fréquente Delta F508.

 

DOCUMENT      inserm     LIEN 

Radioactivité faibles doses, fortes doses, sommes-nous tous égaux

il y a 6 mois

Radioactivité : faibles doses, fortes doses, sommes-nous tous égaux ?
22 mars 2011

 

L’accident de la centrale de Fukushima au Japon a suscité de nombreuses questions sur les effets des diverses doses de radiooactivité pour la population. A quelle quantité de radioactivité sommes-nous quotidiennement exposés, quels sont les effets de faibles doses pour la santé et sommes-nous tous égaux au plan biologique ?
Informations complémentaires

La radioactivité : un dossier d’information du CEA

Les réponses de Nicolas Foray, chercheur au sein du groupe de radiobiologie de l’Unité Inserm 836 (Grenoble).
 
Quelles sont les principales sources de radioactivité auxquelles nous sommes habituellement exposés ?

Pour la population générale, les deux principales sources d’irradiation sont la radioactivité naturelle et l’irradiation d’origine médicale (mammographies, scanners, radiodiagnostic…). Alors que la première a une contribution d’environ 45 %, la seconde (environ 25 %) a doublé en 10 ans et pourrait, pour certains individus dépasser la radioactivité naturelle. Notons cependant que la radioactivité naturelle (environ 2,4 mSv/an en France) varie significativement avec le lieu. Elle peut notamment atteindre plus de 20 mSv/an dans l’Etat du Kerala en Inde où l’incidence moyenne de cancers n’est pas significativement différente du reste du monde. Suivant les publications, la radioactivité naturelle peut prendre en compte les radiations qui proviennent de l’espace (rayonnement cosmique issu du soleil et des étoiles) et l’irradiation dite interne (radioactivité naturellement émise par notre corps). Par exemple, un homme de 80 kg émet environ 8000 particules par seconde (8000 Bq). On trouve la même valeur pour 1 kg de granit.
 
Effets pour la santé : une question de dose(s)
La radioprotection est basée sur 2 grandeurs majeures :
- l’activité émise (nombre de désintégrations par seconde ou Becquerels (Bq)
- la dose (énergie absorbée par kg de matière exprimée en Joules/kg ou Gray (Gy)
Afin de différencier la dose reçue selon la nature des particules émises, l’organe cible et la surface touchée, on parle pour les effets chez l’homme d’équivalent de dose ou dose efficace, exprimé en Sievert (Sv).
Quelques ordres de grandeur utiles :
Radioactivité naturelle : 1-20 mSv par an (des pics à 40 mSv ont été reportés en Iran)
Une radiographie du bras : 0,1 à 1 mSv en quelques minutes
Une mammographie : 1 à 4 mSv en quelques minutes
Un scanner du thorax : 10-20 mSv en quelques minutes
Une session de radiothérapie : 2 Sv en quelques minutes à la tumeur (une radiothérapie est faite de plusieurs sessions espacées de 24 h)
En dehors de la radioactivité naturelle et de toute irradiation d’origine médicale, la limite individuelle pour le grand public (hors travail) est de 1 mSv/an (corps entier), 15 mSv/an pour le cristallin et 50 mSv/an pour chaque cm2 de peau.

Quels sont les effets d’une irradiation au plan biologique ?

Une irradiation produit des dégâts sur l’ADN des cellules. Ils peuvent n’avoir aucun effet s’ils sont réparés fidèlement, mener à la mort cellulaire et perturber la fonction de l’organe touché (toxicité) s’ils ne sont pas réparés ou initier un phénomène de cancérogénèse en cas de mauvaise réparation. La vitesse et l’intensité de la réponse dépendent de nombreux facteurs comme la dose, la nature du rayonnement, l’organe irradié et la susceptibilité individuelle.
Dans le cas d’une irradiation sur le corps entier, la dose létale moyenne est de 5 Gy pour l’homme. Pour des doses croissantees, supérieures à 1-2 Gy, le syndrome d’irradiation aigüe se traduit principalement pour les plus fortes doses par, successivement une altération de la composition sanguine, un dérèglement gastro-intestinal et des troubles neurologiques.
En deçà de 1 Gy, les manifestations de toxicité sont plus rares mais on peut observer une baisse temporaire des globules rouges, de la fertilité et de l’immunité.
Par contre, l’effet cancérogène prédomine. La survenue des cancers dépend de la dose mais aussi de la biologie de l’organe. Globalement, plus les cellules de cet organe se renouvellent rapidement de façon naturelle, plus la survenue du cancer est rapide. Les cancers radioinduits les plus fréquents sont les leucémies et les cancers de la thyroïde chez l’enfant (notamment dûs à l’iode radioactif).

Existe-t-il une dose-seuil en dessous de laquelle il n’y a pas de risque ?
La toxicité pour les cellules irradiées à faibles doses (notamment inférieures à 0,1 Gy) est mal connue. En effet, pour des raisons statistiques, plus la dose est faible, plus les effets sont difficiles à mettre en évidence. Il faut compenser les contraintes statistiques par des analyses à plus grande échelle et celles-ci sont plus difficiles à mettre en place. Globalement, l’histoire des catastrophes nucléaires a permis de définir un seuil de 100 à 200 mGy, au-delà duquel on considère que le risque de cancer radioinduit existe. Que se passe-t-il à des doses inférieures à ce seuil ? Les travaux de recherche expérimentale sur les cellules de modèles animaux prédominent mais l’extrapolation à l’homme devient de moins en moins admise. L’épidémiologie humaine reste limitée par l’étude de rares accidents (Tchernobyl) ou événements (Hiroshima, Nagasaki) de nature très différente pour permettre une généralisation satisfaisante. Par contre, l’étude des faibles doses sur les cellules humaines a révélé des phénomènes non-linéaires inattendus comme par exemple des taux de mort cellulaires aussi élevés à 0,1 Gy qu’à 1 Gy. Ces études ont surtout montré que le facteur individuel peut changer drastiquement la réponse toxique et de cancérogénèse à une irradiation à faible dose.
Faut-il considérer le risque de cancers radioinduits dans l’intervalle 0-100 mSv comme proportionnel à la dose (modèle linéaire sans seuil) ou au contraire comme négligeable (modèle non linéaire avec seuil) ? Un débat s’est engagé entre scientifiques…

Sommes-nous tous égaux face aux radiations ?
L’identification puis la prise en compte du facteur individuel sera l’un des enjeux majeurs de la radiobiologie de demain. Alors qu’elle avait déjà été évoquée par les pionniers de l’atome au début du XXème siècle, l’usage de traitements anti-cancer standardisés a un peu fait oublier l’évidence expérimentale et clinique que « nous ne sommes pas égaux face aux radiations ». L’étude des complications survenues après radiothérapie a notamment montré qu’il existait des individus dits « radiosensibles » et d’autres présentant à l’inverse un seuil de tolérance plus élevé que la moyenne. A dose égale, le nombre de cellules détruites sera donc plus important chez certaines personnes et les effets plus rapides et intenses. En particulier, des cassures double-brin de l’ADN produites par les radiaitons peuvent être toutes réparées au bout de 24 h chez un individu considéré comme "radiorésistant" alors que des patients présentant des complications se distinguent par l’absence de réparation de quelques-unes.
Les règles de la radioprotection proposées par la Commission Internationale de Protection Radiologique (CIPR) ne tiennent pas encore compte de la susceptibilité individuelle aux radiations alors que celle-ci peut constituer un facteur plus important que le type de radiation ou l’organe irradié. Les marqueurs et les tests ne sont toutefois pas encore assez puissants pour détecter les différences inter-individuelles à ce jour ; les progrès technologiques de génomique et d’analyse de masse ainsi que le développement des recherches sur les effets biologiques des faibles doses de radiation feront sans nulle doute changer cette position dans les années à venir mais posera de nombreux problèmes pratiques et éthiques.

Peut-on se protéger d’une contamination par des particules radioactives ?
Il existe deux types d’exposition aux radiations :
- une irradiation externe produit par un irradiateur ou une source de radioactivité qui irradie de l’extérieur le corps entier ou un organe,
- une contamination interne qui, à travers la peau (cutanée, transcutanée), les poumons (par inhalation) ou les aliments (par ingestion) apporte dans le corps la source d’irradiation (dans ce cas un radionucléide).
La protection dépendra donc du type d’exposition et du type de radiation mais c’est la règle D.A.T.E qui est le plus évoquée
- Distance : le rayonnement diminue avec l’inverse du carré de la distance homme-source (difficilement applicable pour une contamination interne)
- Activité : réduire l’activité de la source notamment par des dilutions (notamment applicable pour une contamination interne)
- Temps : minimiser le temps d’exposition (voir plus haut)
- Ecran : dans le cas d’une irradiation externe, des protections dans différents matériaux dépendant du type de radiation peuvent être utilisés (plomb, béton, etc…). Notons cependant qu’un rayonnement secondaire peut être émis par l’écran lui-même (exemple des astronautes dans leur vaisseau spatial) et représenter une source d’irradiation non négligeable.
En plus de cette règle facile à retenir, notons des mesures à prendre spécifiques de certaines sources d’irradiation :
- pour le radon, aérer régulièrement les pièces
- pour l’iode radioactif, saturer la thyroïde par des pastilles d’iodure de potassium mais seulement après émission d’un message national (saturer sans contamination ou trop tardivement est inefficace et peut être dangereux).
Des substances dites "radioprotectrices" peuvent être utilisés dans le cadre d’une radiothérapie anti-cancéreuse pour mieux protéger les tissus sains et limiter les complications. Elles consistent à réduire le stress oxydatif induit par les radiations mais ne sont toutefois pas adaptées à tous les cas de patients ou de traitements et doivent être utilisées seulement dans un cadre médical précis.

 

DOCUMENT      inserm     LIEN 

Troubles de l’audition surdités

il y a 6 mois

Troubles de l’audition / surdités


Dossier réalisé en collaboration avec Jean-Luc Puel (unité Inserm 1051 /université de Montpellier, Institut des neurosciences de Montpellier) – avril 2016

Le nombre de cas ne cessant de progresser avec l’âge, la surdité affecte 6% des 15-24 ans et plus de 65% des 65 ans et plus. Face à cette problématique, la recherche est particulièrement active : au cours de la dernière décennie, des avancées spectaculaires ont été réalisées dans la compréhension des mécanismes et des facteurs génétiques responsables des troubles auditifs. Les récents progrès technologiques devraient permettre d’améliorer les performances des aides auditives et des implants existants, et les scientifiques espèrent désormais pouvoir régénérer des cellules ciliées de l’oreille interne par la thérapie génique.

Cochlée en microscopie électronique à balayage : sur la membrane spirale se trouvent les cellules ciliées.
En France, chaque année, près d’un millier de nouveau-nés (0,25%) sont affectés desurdité. Dans 40% des cas, le trouble est sévère et profond, avec de lourdes conséquences sur l’acquisition du langage oral et sur le développement socio-affectif de l’enfant. Trois quarts des ces surdités sont d’origine génétique (liées à une anomalie de l’oreille), les autres étant acquises au cours de la grossesse ou pendant la période périnatale.

Le nombre de cas ne cesse ensuite de progresser avec l’âge, la surdité touchant  6% des 15-24 ans, 9% des 25-34 ans, 18% des 35-44 ans et plus de 65% des plus de 65 ans. Il s’agit alors de surdités acquises au cours de la vie, suite à des traumatismes acoustiques, des maladies (otites chroniques dans environ 20 % des cas, tumeurs, etc.), des accidents (plongée) ou encore des toxicités médicamenteuses. La plupart de ces facteurs contribue à la destruction progressive de cellules qui jouent un rôle central dans les mécanismes de l’audition (voir plus loin). Le vieillissement peut être associé aux mêmes phénomènes, conduisant à une perte auditive qui apparaît le plus souvent à partir de 50-60 ans. On parle alors de presbyacousie.
Plusieurs degrés de pertes auditives sont observés : 
*         légères (perte auditive de 20 à 40 dB),
*         moyennes (perte auditive de 40 à 70 dB),
*         sévères (perte auditive de 70 à 90 dB),
*         profondes (perte auditive de 90 à 120 dB).
Ces pertes auditives entraînent des conséquences variables sur la vie sociale. Les surdités moyennes ont un impact négatif sur les apprentissages scolaires, le développement cognitif et l’adaptation sociale. Les surdités profondes ne permettent pas l’acquisition du langage oral. Chez les personnes de plus de 65 ans, une perte d’audition est associée à un déclin cognitif (altération de la mémoire, des capacités d’attention ou encore de l’utilisation de certains éléments de langage), sans pour autant favoriser la survenue d’une démence de type maladie d’Alzheimer. Ce déclin est sans doute lié à un isolement social progressif.
Les surdités acquises sont assez fréquemment accompagnées d'acouphènes, une perception auditive (battements, grésillements, sifflements) en l'absence de tout stimulus externe, qui peut être très invalidante.

Le son converti en signal électrique
L’audition résulte du couple oreille-cerveau. L’oreille capte les ondes sonores et transmet les vibrations jusqu’à la cochlée. Là, des cellules ciliées les transforment en signaux électriques transmis jusqu’au cerveau par le nerf auditif. C’est à ce niveau que les sons seront traités, interprétés et mémorisés.
Pour assurer ses fonctions, l’oreille est divisée en trois parties : l’oreille externe se compose du pavillon (la partie visible) et du conduit auditif qui mène jusqu’au tympan. Son rôle est de capter, amplifier et focaliser les sons vers l’oreille moyenne. Lorsque les ondes sonores frappent le tympan, celui-ci se met à vibrer. Ces vibrations parviennent jusqu’à l’oreille moyenne constituée de petits os articulés. Ces osselets les transmettent jusqu’à une membrane appelée fenêtre ovale, située à l’entrée de l’oreille interne. Cette dernière renferme la cochlée, une structure en forme de spirale composée de 15 000 cellules ciliées capables de transformer les vibrations en signaux électriques transmis au cerveau par le nerf auditif.
Plusieurs facteurs peuvent contribuer à la destruction brutale ou progressive des cellules ciliées et du nerf auditif, provoquant un déficit auditif irrémédiable.
Fréquence et intensité du son
Un son correspond à une onde sonore captée par l’oreille et qui fait vibrer le tympan. Sa fréquence correspond au nombre de vibrations par seconde et s’exprime en Hertz. Si elle est faible, le son est grave, à l’inverse, si elle est élevée, le son est aigu. Les fréquences captées par les humains varient de 20 à 20 000 Hz. L’intensité, exprimée en décibels, dépend de l’amplitude des vibrations. Plus elle est importante, plus le son est fort. L'oreille humaine capte des intensités comprises entre 0 et 120 dB, niveau à partir duquel des structures de l'oreille interne peuvent être irréversiblement détruites.
Prévention majeure : réduire l’exposition aux bruits excessifs
L’exposition au bruit est une cause première de troubles de l’audition. Des niveaux sonores élevés détruisent de façon irréversible les cellules ciliées et altèrent les fibres nerveuses auditives. C’est le cas de nombreux bruits associés à des activités de loisirs (concerts, boîtes de nuit, baladeurs, etc.). La législation du travail a fixé des seuils de tolérance :
*         Au-delà de 85 dB, une exposition de plus de huit heures nécessite une protection,
*         Au-delà de 90 dB (perceuse), il faut limiter l’exposition à deux heures,
*         Au-delà de 100 dB (marteau piqueur), il ne faut pas dépasser quinze minutes d’exposition,
*         Passé 115 dB (explosion, avion au décollage), des bruits très brefs provoquent immédiatement des dommages irréversibles.
Il existe cependant une grande variabilité individuelle face au bruit. Certains gènes semblent notamment influer sur la sensibilité au traumatisme sonore.
Autre cause de surdité, l’ototoxicité de certains médicaments. Des antibiotiques (comme les aminoglycosides) ou des anticancéreux (en particulier le cisplatine) peuvent en effet être toxiques pour le système auditif. Là encore, on observe une variabilité individuelle considérable face à cette toxicité.


Le dépistage, à tous les âges
La recherche d’un déficit auditif peut être effectuée dès la naissance, de manière rapide, indolore et automatisée. Certains pays européens pratiquent même un dépistage systématique à la naissance. Par la suite, la médecine scolaire ou l’entourage peuvent déceler un déficit. Chez les enfants, les répercussions d'une surdité seront différentes selon qu'elle apparaît avant ou après l'acquisition du langage. Chez l'adulte, le dépistage est proposé dès l’âge de 45-50 ans dans le cadre de la médecine du travail, et plus précocement et régulièrement dans les situations à risque (travail en milieu bruyant, militaires, etc.).
Lorsque le dépistage décèle un risque de déficience, des tests réalisés dans un cadre spécialisé permettent de définir le type de surdité et son importance.
*         L’audiométrie tonale est le test le plus courant. Il consiste à rechercher des réflexes ou des réactions en réponse à des émissions de sons, pour des fréquences allant le plus souvent de 125 Hz (graves) à 8 000 Hz (aiguës),
*         L’audiométrie vocale permet d’évaluer la compréhension. Le sujet doit répéter correctement des mots simples et courants de différentes intensités,
*         Les otoémissions acoustiques sont des vibrations générées par les cellules ciliées externes de la cochlée suite à une stimulation sonore. Leur enregistrement permet de vérifier que ces cellules et l’oreille moyenne fonctionnent correctement. Il s’agit d’un bon outil de dépistage néonatal,
*         Les potentiels évoqués auditifs automatisés s’enregistrent grâce à des électrodes placées sur le cuir chevelu, en stimulant les oreilles avec une intensité sonore. Ce test permet de vérifier le fonctionnement de la cochlée et du nerf auditif.
Les spécialistes constatent que les tests classiques ne permettent pas toujours de dépister une atteinte partielle des fibres des nerfs auditifs, une partie d’entre elles étant suffisante pour analyser les sons. Ainsi, face à des tests normaux mais une plainte persistante d’un patient, notamment une plainte correspondant à une mauvaise compréhension en environnement bruyant, il est nécessaire d’effectuer une audiométrie vocale en environnement bruyant.
Des traitements de plus en plus sophistiqués
Les traitements consistent à rétablir ou à augmenter l'intensité des vibrations parvenant à l'oreille interne, ou à corriger l'anomalie à l'origine de la surdité. Ainsi, lorsque le trouble auditif est lié à un défaut de fonctionnement de la chaîne tympano-ossiculaire, comme une perforation du tympan, une destruction ou un blocage des osselets, l’anomalie peut être corrigée par chirurgie.
Les aides auditives
En cas de déficits auditifs légers à modérés, des aides auditives conventionnelles, dites en conduction aérienne, sont proposées aux patients. Leur fonctionnement repose sur la captation du son par un ou plusieurs microphones. Le signal capté est traité par un microprocesseur, amplifié puis réémis via un écouteur placé dans le conduit auditif externe. Des aides en conduction osseuse peuvent également être utilisées. Elles permettent de stimuler directement l’oreille interne à travers les os du crâne : les vibrations sonores sont captées par un microphone et transmises à l’os temporal par un vibrateur placé derrière l’oreille. Les vibrations de la paroi osseuse autour de la cochlée sont alors transférées aux cellules ciliées.

Les implants

Chirurgie : pose d'un implant cochléaire par le Professeur Olivier Sterkers (ORL) et son équipe, hôpital Beaujon, Clichy.
Pour les surdités très sévères, voire totales, des implants sont recommandés. Il en existe deux types : l’implant d’oreille moyenne fonctionne à l’image des aides en conduction osseuse. Il est fixé sur un osselet ou à proximité de l'oreille interne, capte les vibrations et les transmet à l’oreille interne. L’implant cochléaire comprend quant à lui un processeur externe qui transforme les sons en signaux électriques. Ces derniers sont transmis (sous forme d’ondes) à la partie interne de l’implant. Le rôle de celle-ci est d’émettre des impulsions électriques (grâce à des électrodes) qui stimulent les fibres du nerf auditif. Avec cette technique, la compréhension requiert du temps et un apprentissage pour intégrer les informations reçues. Globalement, comprendre dans le silence est acquis par la grande majorité des patients, mais une conversation dans le bruit ou la musique est une situation sonore difficile. Chez l’enfant atteint de surdité profonde, l’implantation cochléaire précoce (entre 12 et 24 mois) a montré d’excellents résultats sur l’acquisition du langage oral.
Une nouvelle tendance consiste à associer aides auditives et implants chez certains patients souffrant de surdités sévères, mais chez lesquels il existe un reliquat d’audition : les implants stimulent la cochlée pour mieux percevoir les sons, particulièrement en fréquences aigues, et les aides auditives augmentent la perception des sons graves.

Et demain ?
Vers une meilleure connaissance des mécanismes auditifs
Les chercheurs connaissent encore mal l’histoire naturelle de la surdité et tentent de comprendre pourquoi certaines personnes sont plus vulnérables que d’autres au bruit, ou connaissent une perte des cellules ciliées ou des fibres nerveuses auditives liée à l’âge plus rapide.
Il a récemment été établi qu’il existe deux types de fibres nerveuses connectées aux cellules ciliées dans la cochlée. Parmi elles, 95% des fibres transmettent l’information sonore au cerveau et les 5% restantes sont des fibres différentes (non myélinisées) et spécialisées dans la transmission d’un signal d’alerte en cas de bruit trop intense, si les cellules ciliées sont malmenées. Concrètement, au-delà d’un certain seuil d’inconfort, ces fibres sont activées et transmettent au cerveau un message douloureux (ou en tout cas désagréable), permettant de prévenir l’individu sur la nécessité de retrouver un environnement plus calme. C’est cette seconde catégorie de fibres qui vient d’être découverte. Elle pourrait jouer un rôle dans la vulnérabilité individuelle au bruit et des travaux sur ce sujet sont en cours.

Avancées en génétique
L’identification de mutations génétiques responsables de surdités constitue, par ailleurs, un axe récent de recherche. Ces mutations affectent des gènes codant pour des protéines impliquées dans le développement ou le fonctionnement de la cochlée. Les surdités génétiques sont le plus souvent des maladies monogéniques, c’est-à-dire impliquant l’altération d’un seul gène. L’un d’eux, DFNB1, découvert en 1997 par l’équipe de Christine Petit dans l’unité de génétique des déficits sensoriels de l'Institut Pasteur, explique à lui seul 50% des surdités congénitales. La connaissance de ces gènes permet de réaliser des diagnostics moléculaires et du conseil génétique pour les familles concernées. Dans certains cas, elle contribue également au choix de la méthode de réhabilitation.

Thérapie génique pour les cellules ciliées
Les scientifiques envisagent la régénération par la thérapie génique des cellules ciliées endommagées. Des résultats prometteurs ont en effet déjà été obtenus sur des cochlées d'oiseaux. L’idée est d’obtenir de nouvelles cellules auditives fonctionnelles à partir de cellules de soutien qui restent présentes après la mort des cellules ciliées. Le transfert du gène Math1 dans l’oreille interne (grâce à un virus) permet d’induire la différenciation des cellules de soutien en cellules sensorielles fonctionnelles. Les données disponibles indiquent qu’il suffirait d’obtenir quelques dizaines de cellules sensorielles pour améliorer considérablement les performances des implants cochléaires.

Améliorations technologiques
Des progrès technologiques devraient permettre d’améliorer les performances des aides auditives et des implants. À ce jour, les implantés cochléaires rencontrent de grandes difficultés en cas de sources sonores multiples ou en présence de sons complexes tels que de la musique. Les chercheurs expérimentent l’augmentation du nombre d’électrodes, du nombre d’impulsions électriques par seconde, ou encore la prise en compte des variations rapides de fréquences.


Traitements transtympaniques

La perte des cellules ciliées résulte en grande partie d’un programme actif de mort cellulaire, appelé apoptose, qui dépend de la nature du stress qui le déclenche (traumatisme acoustique, type de médicament ototoxique, etc.). La connaissance de ces mécanismes a permis d’identifier des cibles thérapeutiques pour s’y opposer.
Ainsi, on songe aujourd’hui à l’utilisation de substances telles que des neurotrophines - pour protéger les neurones et favoriser la repousse des neurites - et des anti-apoptotiques - pour prévenir la mort des cellules sensorielles. Afin d’être en mesure d’administrer ces substances au cœur de l’oreille interne et de façon chronique chez les patients, l’Inserm et le CEA développent actuellement un système de pompe implantable.  Testé chez l’homme, il doit toutefois encore être miniaturisé. Cette pompe sera implantée dans le rocher, une voie couramment utilisée pour les implants cochléaires. Un tel dispositif ne pourra pas être proposé à toutes les personnes âgées malentendantes (presbyacousiques). En revanche, il pourrait être intéressant pour des sujets jeunes atteints d’une presbyacousie précoce et très évolutive.
La pharmacologie locale pourrait prendre une place de plus en plus importante pour protéger les cellules ciliées, préserver celles restantes chez les patients équipés d’un implant cochléaire ou encore prévenir la fibrose locale provoquée par la mise en place d’un implant, qui menace souvent le reliquat auditif des patients.

 

DOCUMENT      inserm     LIEN 

LES TESTS GÉNÉTIQUES

il y a 6 mois

Les tests génétiques
Dossier réalisé en collaboration avec le Pr François Eisinger, onco-généticien et membre du comité d'éthique Inserm – Mai 2015
De nombreux tests génétiques apportent des informations relatives à la santé des individus ou à celle de leur famille. Ces tests consistent à rechercher des anomalies sur la molécule d’ADN elle-même, ou à dépister des anomalies concernant le nombre ou la forme des chromosomes. Il faut distinguer les tests qui apportent des informations sur le patrimoine génétique transmissible, présent dans toutes les cellules de l’organisme (génétique constitutionnelle), et les tests qui informent sur l’état du génome de cellules tumorales (génétique somatique). En outre, d’autres tests permettent d’obtenir des informations sur la réponse à un traitement ou sur les risques d’effets secondaires (pharmacogénomique).
Les tests de génétique constitutionnelle

Les tests de génétique constitutionnelle (ou héréditaire) reposent sur l’étude du patrimoine génétique d’une personne, le plus souvent à partir d’une prise de sang. Ils peuvent être réalisés avant la naissance (test prénatal) ou après, à n’importe quel âge (test postnatal).
En 2013, des tests concernant plus de 1 500 maladies génétiques étaient disponibles et plus de 500 000 tests postnataux de génétique constitutionnelle ont été réalisés (incluant les tests de pharmacogénomique). Toutefois, une part importante des analyses étaient consacrées à deux maladies : l’hémochromatose et la thrombophilie non rare.
 
Une pratique encadrée par la loi de bioéthique
 
Des règles de bonne pratique concernant l’utilisation de ces tests et l’information à délivrer aux patients et à leur famille sont prévues par la loi de bioéthique et recommandées par l’Agence de biomédecine et la Haute autorité de santé.
 
En France, ces tests sont toujours effectués dans un cadre médical, avec une consultation en génétique permettant d’éclairer le patient et sa famille sur l’intérêt du test et sur les conséquences éventuelles de son résultat (risque pour la descendance, pronostic vital menacé, suivi thérapeutique à mettre en place, interruption médicale de grossesse...). 
Ces tests sont envisagés dans trois situations :
Le diagnostic de maladies génétiques
Un test génétique diagnostic est effectué en cas de symptôme pouvant évoquer une maladie génétique. Le test est alors associé à des examens complémentaires et permet souvent de mettre fin à l’errance diagnostique. La rapidité et les chances de succès du test varient en fonction du nombre de modifications génétiques, et surtout de gènes associés à la maladie : ces tests sont utilisés pour le diagnostic de maladies monogéniques (liées à des anomalies affectant un seul gène), dont le gène causal est identifié (mucoviscidose, hémochromatose héréditaire ou encore polypose colique familiale).
Les tests génétiques diagnostics peuvent être pratiqués chez des enfants et des adultes, mais également chez des fœtus si l’anomalie recherchée a déjà été identifiée chez un parent ou si une symptomatologie évoquant un trouble génétique a été dépistée au cours du développement fœtal, comme en cas de trisomie 21. En 2012, des tests génétiques prénataux ont été réalisés chez plus de 41 000 fœtus.
Génétique prénatal : l’analyse de l’ADN fœtal circulant dans le sang maternel change la donne
 
Il est désormais possible d’analyser des fragments d’ADN fœtal présents dans le sang de la mère et récoltés à partir d’une simple prise de sang chez cette dernière. Cette pratique constitue un progrès important car elle évite des prélèvements invasifs et leurs risques.
 
Deux tests sont déjà proposés en routine avec cette méthode : la détermination du sexe de l’enfant dans le cadre d’un diagnostic prénatal de maladies associées au chromosome X et la détermination du rhésus fœtal lorsque la mère est rhésus négatif. Le dépistage de la trisomie 21 par cette technique commence également à être proposé à certaines femmes et le nombre d’indications devrait rapidement progresser. Toutefois, l’Agence de biomédecine se dit vigilante sur le plan éthique, compte tenu des dérives possibles à venir, liées à la facilité d’analyse de l’ADN fœtal par cette méthode.
Des tests génétiques peuvent également être effectués chez des personnes ne présentant aucun symptôme, mais ayant un risque d’être porteurs d’une mutation associée à une maladie grave et désirant concevoir un enfant. Le résultat du test permet alors d’évaluer le risque de transmettre la maladie à sa descendance.
Le diagnostic préimplantatoire
 
Un couple susceptible de transmettre une maladie génétique grave à sa descendance peut demander un test génétique préimplantatoire. Ce test consiste à rechercher l’anomalie génétique dans le génome d’embryons conçus par fécondation in vitro, avant implantation dans l’utérus de la mère.
 
La maladie recherchée doit présenter un risque élevé de transmission (25 à 50% de risque), être grave et incurable. Des dizaines de maladies répondent à ces critères.
 
L’Agence de biomédecine suit l’activité des laboratoires effectuant des diagnostics préimplantatoires en France, à Paris, Montpellier, Strasbourg ou encore Nantes. En 2012, 464 couples ont été éligibles à un diagnostic préimplantatoire et 91 enfants sont nés après sélection d’embryons sains.
Le diagnostic de maladies pré-symptomatique (tests prédictifs)
Pour les maladies monogéniques :
Les tests génétiques prédictifs sont effectués chez des personnes qui ne présentent aucun symptôme, afin de prédire le risque de développer ultérieurement une maladie. Ces tests peuvent être hautement prédictifs : dans le cas de la maladie de Huntington, par exemple, la mutation cherchée est une condition nécessaire et suffisante pour développer la maladie.
Pour les maladies multifactorielles : 

Il existe des tests prédictifs en cancérologie, notamment proposés lorsqu’une mutation a déjà été identifiée dans la famille. Ces tests apportent une indication concernant le risque de développer la maladie, mais en aucun cas une certitude : les facteurs environnementaux et personnels contribuent largement à la survenue d’un cancer, et les mutations génétiques recherchées lors de ces tests ne sont ni nécessaires, ni suffisantes à l’apparition d’un cancer.
Ainsi, lorsqu’une personne est porteuse d’une mutation sur le gène BRCA1 ou le gène BRCA2, son risque de développer un cancer du sein avant 70 ans est de 40 à 85%, alors qu’il est de 10% dans la population générale. Concernant le cancer de l’ovaire, le risque est de 10 à 60%, contre 1% dans le reste de la population. L’identification de cette susceptibilité permet une surveillance plus précoce et plus rigoureuse des sujets à risque (l’ablation des seins est parfois choisie par les patientes et l’ablation des ovaires recommandée en fonction de l’âge et du projet parental). De même, un test de susceptibilité aux cancers colorectaux héréditaires sans polypose(HNPCC ou syndrome de Lynch) est également disponible. Les personnes présentant une mutation de l’un des gènes de la famille MMR ont 40 à 70% de risque de développer un cancer colorectal avant l’âge de 70 ans.
D’autres tests sont disponibles pour des cancers du rein, des cancers plus rares comme le rétinoblastome, ou encore des néoplasies endocriniennes… Le nombre de tests prédictifs en cancérologie devrait progresser dans les années à venir, en raison de la découverte permanente de nouveaux gènes de susceptibilité associés aux différents cancers. A terme, la possibilité d’effectuer ces tests devrait s’ouvrir au plus grand nombre compte tenu des progrès techniques et de la baisse des coûts. Mais ils devront toujours être réalisés dans le cadre d’un conseil médical et d’une information préalable sur les conséquences possibles en fonction des résultats.
Pour d’autres maladies multifactorielles ayant une composante génétique, comme l’asthme, le diabète ou bien d’autres, aucun test génétique prédictif n’est disponible à ce jour. Plusieurs gènes de susceptibilité à ces maladies ont pourtant été découverts au cours des dernières années. Mais la valeur prédictive des variants identifiés est beaucoup trop faible pour avoir une signification clinique sur le risque de développer la maladie. Cette situation pourrait néanmoins évoluer dans le futur, par exemple en associant plusieurs variants génétiques et en intégrant des données biologiques pour augmenter la valeur prédictive du test.
Quand un test prédictif peut-il être considéré pertinent ?
 
Le centre de contrôle et de prévention des maladies américain (CDC) a proposé des règles, réunies au sein d’un modèle ACCE (validité Analytique, validité Clinique, utilité Clinique et respect de l’Ethique), qui permettent d’évaluer la pertinence de développer un nouveau test génétique.
 
Les critères fixés assurent que le test est réellement prédictif d’une maladie et que la valeur prédictive est satisfaisante. Le doublement du risque d’apparition de la maladie dans les années qui suivent est souvent considéré comme une valeur acceptable, mais ce seuil peut varier selon la gravité de la maladie et les conséquences pour le patient. En outre, le test doit être utile : un diagnostic positif doit pouvoir déclencher une prise en charge adaptée. En cancérologie, les tests permettent par exemple de renforcer la prévention ou le dépistage. Il existe toutefois des exceptions à cette règle : dans le cas de la maladie de Huntington un test génétique prédictif est disponible alors qu’il n’existe actuellement aucun moyen de prévenir le développement de la maladie ou de la traiter. Mais dans ce cas particulier et quelques autres, les patients évoquent le droit de savoir.
 
La pertinence d’un test génétique prend également en compte le respect de la dimension éthique, avec par exemple la nécessité d’une fin médicale (et non eugénique). 
Les tests de pharmacogénétique
La pharmacogénomique consiste à étudier les caractéristiques génétiques d’un individu pour prédire la réponse de son organisme à un médicament : effets secondaires, risques de surdosages, ou encore inefficacité. 
Ces tests permettent de détecter des variants génétiques associés à l’assimilation ou au contraire à la transformation/dégradation du médicament. En 2013, une trentaine de tests étaient disponibles. L’un d’eux permet par exemple de prédire la toxicité au traitement par 5-FU (chimiothérapie) en cas de cancers colorectaux ou du sein. Plus de 3 500 personnes en ont bénéficié en 2013. Autre exemple, un polymorphisme du gène HLA est associé à une hypersensibilité à l’abacavir, un antirétroviral utilisé contre le VIH.
La pharmacogénétique n’en est qu’à ses débuts : grâce à l’analyse des données génétiques des patients inclus dans les essais cliniques, les laboratoires pharmaceutiques développent de plus en plus souvent des tests génétiques associés à la réponse ou à la toxicité d’un traitement.
Comment sont effectuées les analyses génétiques ?
Deux principales approches d’analyses du génome sont utilisées dans le cadre des tests génétiques :
*         La génétique moléculaire, qui consiste à analyser la molécule d’ADN pour détecter des mutations ou autres anomalies de façon ciblée sur le génome. Elle fait appel à des techniques de biologie moléculaire.
*         La cytogénétique, qui consiste à étudier le nombre et la forme des chromosomes pour détecter des remaniements affectant des fragments chromosomiques ou des chromosomes entiers. Le plus souvent, cette étude s’appuie sur l’observation du caryotype du patient, correspondant à la photographie de l’ensemble de ses chromosomes. C’est l’analyse la plus répandue chez les fœtus, avec près de 41 000 caryotypes réalisés en 2012.

Institut de génétique et de biologie moléculaire et cellulaire, Illkirch
Ces deux approches sont de plus en plus perméables, notamment de part l’utilisation croissante d’outils communs tels que les puces à ADN. Environ 14 000 tests ont été effectués avec puces à ADN en 2013 en France, et l’utilisation de cet outil devrait croître dans les années à venir. Cette technique associe l’aspect global du caryotype et la haute résolution de l’hybridation ciblée de la génétique moléculaire. Les puces à ADN permettent de détecter des remaniements chromosomiques cent fois plus petits que ne le permettait jusque-là le caryotype. Dès lors, le risque devient celui de découvrir une autre maladie que celle recherchée… Le comité d’éthique de l’Inserm se penche actuellement sur cette question : que faire d’une information importante pour la santé découverte de façon fortuite, que l’individu n’a pas demandé à savoir et n’est pas forcément désireux d’entendre ?
 
Les tests en vente sur internet et leurs dangers
 
Des tests génétiques sont vendus directement par internet par des sociétés extérieures au système de santé. Les tests proposés ne sont pas forcément validés et ces services sont souvent proposés sans aucune intervention de professionnels de santé. Ce manque constitue un risque de désinformation majeure sur les conséquences possibles des résultats, dans un sens ou dans l’autre. Un conseil en génétique est absolument fondamental pour encadrer toute réalisation de test génétique.
Il existe 229 laboratoires de génétique constitutionnelle postnatale en France. Leur activité est suivie par l’Agence de biomédecine, en collaboration avec Orphanet (portail de référence sur les maladies rares et les médicaments orphelins, coordonné par l’Inserm). Parmi eux, 200 pratiquent des tests de génétique moléculaire et 111 des tests de cytogénétique. Pour 60% des maladies qui bénéficient d’un test génétique (environ 880 sur 1 500), le diagnostic génétique est complexe et nécessite l’expertise d’un laboratoire particulier en France.
Les tests de génétique somatique
Les tests de génétique somatique (non héréditaire) consistent à analyser le génome des cellules cancéreuses pour détecter des mutations survenues spécifiquement dans la tumeur et prédire la réponse à un traitement ciblé. On parle de « test compagnon ». Ils sont réalisés à partir d’une biopsie (ou d’une prise de sang pour les cancers hématopoïétiques), dans l’une des 28 plateformes de génétique moléculaire réparties sur tout le territoire français et rattachées à des établissements hospitaliers.
En 2011, 55 000 patients atteints de cancer ont bénéficié d’un de ces tests en vue d’utiliser l’un des 14 traitements spécifiques d’une anomalie génétique disponibles. Parmi ces patients, 20 000 étaient atteints d’un cancer du poumon et ont bénéficié de la recherche des mutations du gène EGFR, biomarqueurs de la sensibilité au gefitinib.

Détection d'anomalies chromosomiques tumorale
Compte tenu de l’arrivée massive de traitements ciblés en cancérologie, ces tests sont amenés à largement se développer. Plusieurs programmes de recherche clinique sont en cours en France, comme SHIVA à l’Institut Curie, MOSCATO à l’Institut Gustave Roussy, ou encore le programme AcSé coordonné par l’Institut national du cancer pour tester la faisabilité d’un séquençage du génome tumoral en routine, afin de permettre au plus grand nombre de patients possible de bénéficier de traitements ciblés.

 

DOCUMENT      inserm     LIEN 

DÉPRESSION

il y a 7 mois

Dépression
Dossier réalisé en collaboration avec le Pr Bruno Aouizerate, psychiatre au Centre hospitalier Charles Perrens de Bordeaux, directeur adjoint des soins au sein de la Fondation FondaMental, chercheur au Neurocentre Magendie (unité Inserm 862) – Université de Bordeaux - Août 2014.

La dépression est une maladie qui touche tous les âges, depuis l’enfance jusque très tard dans la vie. Ses nombreux symptômes, parmi lesquels la tristesse ou la perte de plaisir, sont très handicapants et accroissent le risque suicidaire. La maladie peut être soignée efficacement grâce aux médicaments antidépresseurs et à la psychothérapie. Toutefois, le risque de rechute est extrêmement présent et persiste plusieurs années après la rémission. Les chercheurs tentent de comprendre pourquoi certaines personnes sont plus vulnérables que d’autres à la dépression. Au fur et à mesure de leurs découvertes sur les mécanismes de la maladie, de nouvelles pistes thérapeutiques se profilent.
Des symptômes clairement identifiés

Le diagnostic de la dépression répond à des critères très précis fixés par l’Organisation mondiale de la santé (CIM-10, en anglais) et l’Association américaine de psychiatrie (DSM-5, en anglais). Il existe neuf symptômes caractéristiques de la dépression. Pour que le diagnostic de dépression puisse être posé, le patient dépressif doit en présenter au moins cinq, presque tous les jours depuis au moins deux semaines, dont obligatoirement l’un des deux premiers de la liste :

*         une tristesse quasi-permanente, avec parfois des pleurs (humeur dépressive) 
*         une perte d’intérêt et du plaisir à l'égard des activités quotidiennes, même celles habituellement plaisantes (anhédonie)
*         un sentiment de dévalorisation et de culpabilité excessif ou inapproprié
*         des idées de mort ou de suicide récurrentes, le sentiment que la vie ne vaut pas la peine d’être vécue
*         un ralentissement psychomoteur
*         une fatigue (asthénie), souvent dès le matin
*         une perte d’appétit, souvent associée à une perte de poids
*         des troubles du sommeil avec en particulier des insomnies matinales
*         des difficultés attentionnelles, de concentration et de mémorisation
Pour les patients qui présentent entre 5 et 7 symptômes, la dépression est considérée comme légère à modérée. Au-delà de 8, elle est dite sévère. Des échelles d’autoévaluation (évaluation par le patient lui-même) ou d’hétéro-évaluation (par le médecin) permettent d’évaluer plus précisément la sévérité de ces symptômes, comme l’échelle de dépression de Hamilton (HDRS) ou encore l’échelle de dépression de Montgomery et Asberg (MADRS).
Les rechutes, principal facteur de risque à moyen et long terme
 Un premier épisode dépressif peut se résoudre par une rémission spontanée dans les 6 à 12 mois. Mais les épisodes isolés sont assez rares : une première dépression annonce souvent une récidive. Celle-ci intervient dans les cinq années suivantes dans 50 % à 80 % des cas.

Généralement, plus les récidives sont nombreuses, plus la dépression est sévère et le pronostic à long terme compromis. Certains facteurs, par exemple le fait de vivre seul, augmentent le risque de chronicisation de la dépression.
L’objectif du traitement est de réduire les symptômes mais 
aussi de limiter ce risque de récidive à moyen et long terme.

De l’isolement au suicide, des complications dramatiques
Les symptômes dépressifs ont des répercussions familiales, sociales et professionnelles. En effet, il peut être difficile pour l’entourage de comprendre et d’accepter qu’un adulte se lève fatigué, pleure sans raison et n’ait envie de rien faire. Côté vie professionnelle, une étude de la Direction de la recherche, des études, de l'évaluation et des statistiques (Drees), datant de 2014, indique notamment qu’un homme présentant une dépression caractérisée a moins de chance que les autres de conserver son emploi à moyen terme : 82 % versus 93 % à 4 ans.
Selon un rapport de l’Académie de médecine, le risque de tentative de suicide est multiplié par 21 en cas d’épisode dépressif, et par quatre en cas de rémission partielle par rapport à la rémission complète. Au final, entre 5 à 20 % des patients se suicident. La majorité d’entre eux n’ont pas reçu d'antidépresseurs, faute de diagnostic ou de problèmes de suivi. Les personnes sous antidépresseurs au long cours ont un risque suicidaire moindre.
La dépression est en outre associée à une morbidité et une mortalité cardiovasculaire accrue. Elle altère le pronostic des patients présentant ce type d’affections. Elle est d’ailleurs le principal facteur de mortalité après un infarctus du myocarde.

Une maladie qui touche tous les âges
On estime que près d’une personne sur cinq a souffert ou souffrira d’une dépression au cours de sa vie.
Les données de l’Institut national de prévention et d’éducation pour la santé indiquent qu’en 2010, 7,5 % des 15-85 ans avaient vécu un épisode dépressif caractérisé au cours des 12 derniers mois, avec une prévalence deux fois plus importante chez les femmes que chez les hommes. Les chiffres varient par tranche d’âge :  6,4 % chez les 15-19 ans, 10,1 % chez les 20-34 ans, 9 % chez les 35-54 ans et 4,4 % entre 55 et 85 ans. Chez les hommes, la prévalence est maximale entre 45 et 54 ans (10,3 %).
La dépression ne concerne pas que les adultes. La prévalence des troubles dépressifs est estimée à entre 2,1 à 3,4 % chez l’enfant et à 14 % chez l’adolescent. Chez ces jeunes patients, le diagnostic est plus difficile à réaliser que chez l’adulte : les manifestations de la dépression varient en effet en fonction du stade de développement, qui modifie les capacités d’introspection et de communication.

La dépression post-partum
L’arrivée d’un enfant entraine souvent chez la mère des émotions excessives, avec des pleurs incontrôlés dans les jours qui suivent la naissance : c’est le baby blues. Les changements hormonaux brutaux et les facteurs émotionnels en sont la cause. La rémission est le plus souvent très rapide.
Mais chez certaines femmes, cette humeur persiste et une dépression peut alors s’installer. Plusieurs facteurs accroissent le risque de dépression post-partum : se sentir seule, avoir des difficultés financières ou encore des antécédents de dépression.
Cet état peut peser sur la relation précoce entre la mère et son enfant, voire menacer la bonne santé et la sécurité du nourrisson (en cas de difficultés à s’intéresser à l’enfant ou à s’en occuper). Une prise en charge rapide et efficace s’impose.

Des facteurs de risque en cours d’identification
Des situations et des événements de la vie (un décès, une perte d’emploi, une séparation…) sont associés à un risque accru de dépression. C’est aussi le cas de traumatismes précoces, notamment affectifs ou sexuels, survenus au cours l’enfance. Néanmoins, toutes les personnes exposées à ce type d’événements ne développent pas la maladie. De plus, certaines personnes font une dépression sans motif apparent. Il existe donc une susceptibilité individuelle à la dépression.
Cette vulnérabilité est en partie génétique. Ainsi, un individu dont l’un des parents fait une dépression a deux à quatre fois plus de risque d’être lui-même dépressif au cours de sa vie. Certaines variations génétiques associées à cette vulnérabilité ont été identifiées, par exemple au niveau des gènes codant pour le transporteur de la sérotonine (un neurotransmetteur) ou pour un facteur essentiel à la prolifération, la différenciation et la survie des neurones (le BDNF pour Brain-Derived Neurotrophic Factor). Néanmoins, l’impact de ces variations génétiques dépend de l’environnement. On parle d’interaction gène-environnement. Des travaux ont par exemple montré que certains des individus qui développent davantage de dépression et d’idées suicidaires après des stress précoces (menaces, abandon, violences, abus pendant l’enfance) sont ceux qui possèdent des « versions courtes » du gène codant pour le transporteur à la sérotonine.

Neurones à noradrénaline.
D’autres mécanismes semblent impliqués. Ainsi, un déficit dans la régulation du système de réponse au stress (l’axe hypothalamo-hypophyso-surrénalien) et des anomalies des neurones de l’hippocampe (région du cerveau impliquée dans la cognition et les émotions) sont souvent observés chez les patients sévèrement déprimés. Ces deux phénomènes sont d’ailleurs vraisemblablement liés : l’altération de la réponse au stress conduit à une sécrétion anormalement élevée de cortisol (l’hormone du stress) qui est potentiellement neurotoxique et peut entrainer une désorganisation, voire une dégénérescence neuronale dans l’hippocampe. L’augmentation de la sécrétion de cortisol entraîne en effet une diminution de la production du BDNF (Brain Derived Neurotrophic Factor), un facteur essentiel à la prolifération, la différenciation et la survie des neurones.
 
Des traitements efficaces dans près de 70 % des cas
L’objectif du traitement de la dépression est la réduction des symptômes et de leurs répercussions dans la vie quotidienne, ainsi que la prévention de récidives ultérieures. Les traitements antidépresseurs et/ou la psychothérapie permettent d’obtenir une guérison dans 67 % des cas, parfois après plusieurs séquences de traitement.
*         Les antidépresseurs
Les médicaments antidépresseurs ciblent en général les neurones à sérotonine et/ou noradrénaline et/ou dopamine. Ils stimulent la neurotransmission monoaminergique par divers mécanismes. Leur efficacité n’est pas immédiate : l’amélioration des symptômes s’observe le plus souvent après 3 semaines de traitement, parfois plus.
Ces médicaments doivent être pris régulièrement pendant 6 à 12 semaines pour surmonter la phase aiguë de la dépression. Le traitement doit se prolonger 4 à 9 mois (phase de consolidation) pour en maintenir le bénéfice et réduire le risque de rechute. Lorsqu’un patient en est à son troisième épisode dépressif ou plus, le traitement doit se prolonger pendant plusieurs années pour éviter une nouvelle récidive (on parle de phase d’entretien). Les données varient sur la durée optimale du traitement, qui peut aller jusqu’à 5 ans.
L’arrêt du traitement avant la durée recommandée par le médecin expose à un risque plus élevé d’échec de guérison, à moyen ou long terme. Cet arrêt doit en outre se faire de manière progressive, habituellement sur une durée de quelques semaines.
Un premier traitement antidépresseur est efficace dans 40 % des cas. En cas d’échec de deux, voire trois séquences thérapeutiques successives, les chances de succès avec un nouveau traitement chutent à 13 %.

*         La psychothérapie
La psychothérapie peut être recommandée, seule en cas de dépression légère ou en association avec les antidépresseurs dans les formes plus sévères. Elle peut améliorer les symptômes dépressifs et anxieux, diminuer la fréquence des récidives et même conduire à une rémission durable. La thérapie cognitivo-comportementale a notamment fait la preuve de son efficacité dans la prise en charge de la dépression.

*         L’électroconvulsivothérapie
L’électroconvulsivothérapie (électrochocs) a sa place dans le traitement de la dépression sévère, résistante aux antidépresseurs et à la psychothérapie. Elle peut aussi être utilisée en situation d’urgence (risque suicidaire très élevé). Son efficacité est très bonne, avec 80 à 90 % de taux de réponse. Concrètement, lors d’une séance d’électroconvulsivothérapie le patient est placé sous anesthésie générale et un courant électrique est appliqué au niveau de la zone frontale de son cerveau. Deux à trois séances sont réalisées par semaine. L’amélioration des symptômes est rapide, s’observant après quelques séances. Parfois un traitement d’entretien est nécessaire, avec environ une séance par semaine ou tous les 15 jours, voire de façon plus espacée.

*         Stimulation magnétique transcrânienne / Stimulation cérébrale profonde
La stimulation magnétique transcrânienne (TMS) est une alternative thérapeutique possible pour les personnes souffrant de dépression. L’utilisation de la stimulation cérébrale profonde est en revanche expérimentale et ne s’adresse qu’aux formes très résistantes de la maladie. En France, seule une dizaine de patients souffrant de dépression a été éligible à la stimulation cérébrale profonde. La technique consiste à implanter deux électrodes dans des régions cérébrales profondes (notamment dans le cortex cingulaire antérieur sous-génual ou le striatum ventral). Les modifications électriques de l’activité des neurones ciblés peuvent très significativement réduire la sévérité des symptômes, avec 50 à 60 % de réponse favorable.

A la recherche de nouveaux traitements et de marqueurs
Les chercheurs tentent de mieux comprendre la dépression et s’orientent pour cela dans des voies très variées : génétique, anatomique, inflammatoire.
Les observations qui découlent de ces travaux renseignent progressivement sur les mécanismes de la maladie et permettent d’envisager de nouvelles cibles thérapeutiques. Il apparaît ainsi par exemple que la dépression est associée à une élévation du taux de plusieurs facteurs d’inflammation, comme des cytokines proinflammatoires (interleukine 6, TNF alpha) et la protéine C réactive (CRP). L’implication des neurostéroïdes ou des endocannabinoïdes est aussi à l’étude. Des modifications des concentrations périphériques de certains neurostéroïdes (DHEA, alloprégnanolone…) ou d’endocannabinoïdes (anandamine, 2-AG) ont en effet été observées chez les patients déprimés.
Les chercheurs tentent par ailleurs d’identifier des marqueurs de réponse aux traitements qui permettraient de choisir d’emblée la bonne stratégie thérapeutique pour chaque patient. Des travaux ont par exemple montré qu’une hypoactivité du cortex insulaire (impliqué dans la réponse émotionnelle) est associée à de bonnes chances de rémission par thérapie cognitive mais à une faible réponse aux antidépresseurs. A l’inverse, si cette région corticale est hyperactive les antidépresseurs donneront de meilleurs résultats que la thérapie comportementale. Par ailleurs, des modifications de l’activité fonctionnelle au niveau du cortex orbitofrontal (qui joue un rôle majeur dans la régulation des émotions) semblent également associées à une bonne réponse à certains antidépresseurs. Enfin, l’activité des récepteurs à la sérotonine pourrait aussi constituer un marqueur de réponse aux traitements : les chances de rémission sont en effet plus élevées si ce récepteur fixe fortement la sérotonine au niveau cérébral.

L’identification de marqueurs de vulnérabilité permettant de prédire une rechute après un premier épisode dépressif est un autre champ de recherche. Pour les découvrir, les chercheurs mesurent les concentrations de différents marqueurs associés à la dépression et regardent comment elles évoluent en cas de rémission. Il a ainsi été montré que le taux de monoamine oxydase (impliquée dans la dégradation de la sérotonine, noradrénaline et de la dopamine) mesuré dans le cerveau est associé au risque de rechute : si ce taux reste élevé après une première phase de traitement, cela laisse présager d’une rechute. Le pronostic est meilleur si ce taux diminue. D’autres travaux récents montrent que les personnes qui ont des taux de cortisol (l’hormone du stress) élevés après traitement par antidépresseur sont plus à risque de récidive dans les 2 à 3 ans qui suivent que celles dont les taux sont plus faibles. Des travaux similaires sont actuellement menés sur certains récepteurs de la sérotonine.

 

DOCUMENT      inserm     LIEN  

Acouphènes

il y a 7 mois

Acouphènes
Dossier réalisé en collaboration avec Jean-Luc Puel (unité Inserm 1051/université de Montpellier, Institut des neurosciences de Montpellier) – avril 2016
Les acouphènes sont des bruits générés spontanément dans la voie auditive, sans qu’ils proviennent de l’extérieur. Ils sont le plus souvent liés à une perte auditive, même s’ils ont parfois une autre origine. Les chercheurs en clarifient peu à peu les mécanismes, pour tenter de proposer des solutions efficaces et durables aux patients les plus affectés.   

Les acouphènes sont des sifflements, des grésillements ou des bourdonnements d’oreille, quine proviennent pas du monde extérieur. Survenant dans une seule ou deux oreilles, ils peuvent être continus ou intermittents, transitoires ou persistants.  Un acouphène persistant peut durer plusieurs mois, voire plusieurs années.
Dans environ 80% des cas, les acouphènes sont associés à des troubles de l’audition. Dans les autres cas, bien qu’aucun déficit ne soit retrouvé à l’audiogramme, l’existence de lésions indétectables des fibres nerveuses auditives n’est pas à exclure.
Une perte auditive serait le plus souvent à l’origine des acouphènes. Face à une déficience de l’audition, le cerveau va se réorganiser pour s’adapter et tenter de pallier cette déficience. Hélas, cette réorganisation peut entrainer unfonctionnement aberrant du cortex auditif. Dans certains cas, des activités anormales générées le long de la voie auditive seront interprétées comme des sons par le système nerveux central. Le cerveau entendra alors donc des sons qui ne correspondent pas à une stimulation acoustique extérieure : c’est l’acouphène !
Un traumatisme induit par intervention chirurgicale, une inflammation liée à une otite moyenne, un médicament toxique pour le système auditif (médicament ototoxique) ou encore un problème vasculaire pouvant générer une gêne à proximité du nerf auditif peuvent également être des causes d’acouphènes.

Une pathologie fréquente
Environ 10% de la population adulte serait touchée par les acouphènes, avec des formes très invalidantes dans moins de 1% des cas.
Le risque d’acouphène augmente avec l’âge et la presbyacousie (perte auditive liée à l’âge), atteignant un pic autour de 65 ans. Ce risque augmente également avec l’exposition au bruit au cours de la vie et la survenue de traumatismes sonores. Une récente étude portant sur des discs jockeys de 26 ans, travaillant trois nuits par semaine depuis six ans, montre que 75% d’entre eux souffrent d’acouphènes.
Le retentissement des acouphènes est très variable d’un individu à l’autre, pouvant aller d’une simple gêne à un handicap sévère dans la vie quotidienne. Les acouphènes peuvent, notamment, entrainer des difficultés pour s’endormir ou pour se concentrer. Ils peuvent aussi provoquer des états d’anxiété et de dépression.

Une prise en charge possible
En cas d’acouphènes, il est utile de consulter pour rechercher une perte auditive. En cas de déficit avéré, une aide auditive permet le plus souvent d’améliorer l’audition et de détourner le patient de ses acouphènes.
Néanmoins, il n’existe pas de traitement des acouphènes à proprement parler. Dans les cas invalidants, des solutions peuvent toutefois être proposées pour en réduire le retentissement :
*         des masqueurs d’acouphènes peuvent être proposés. Il s’agit de prothèses qui émettent un bruit de fond, modéré mais permanent, qui masque les acouphènes et en limite la perception ;
*         des thérapies cognitivo-comportementales permettent aux patients d’apprendre à mieux vivre avec leurs acouphènes. Par exemple, la sophrologie peut les aider à supprimer la connotation négative du son et à relativiser son importance. Des thérapies comportementales proposées dans certains hôpitaux les aident à détourner leur attention de cette gêne ;
*         en cas d’anxiété et/ou de dépression, une prise en charge par un psychiatre ou par un psychologue, ainsi que des médicaments (anxiolytiques, antidépresseurs) peuvent être utiles.

A la recherche de solutions efficaces

Centre d'évaluation et de traitement de la douleur de l'hôpital Ambroise Paré
De nombreuses pistes sont explorées pour parvenir à mieux soulager les patients, ou même à supprimer durablement les acouphènes. Sans succès à ce jour… mais avec des espoirs réels !
Compte-tenu du lien entre troubles de l’audition et acouphènes, améliorer la prévention des pertes auditives et leur prise en charge permettrait de réduire l’incidence des acouphènes. L’exposition au bruit est une cause première de troubles de l’audition : des niveaux sonores élevés détruisent de façon irréversible des cellules de l’oreille interne (cellules ciliées) et altèrent les fibres nerveuses auditives. Ainsi, un traitement limitant la destruction des cellules ciliées, administré dans les heures qui suivent un traumatisme, pourrait atténuer le risque d’apparition des acouphènes. De tels traitements sont en cours de développement (voir notre dossier Troubles de l’audition / surdités).
Des thérapies sonores sont également en cours d’expérimentation. L’idée est d’induire une réorganisation du cortex auditif pour supprimer (ou au moins atténuer) les acouphènes. Concrètement, le patient est exposé à une musique ou à un bruit dépourvu de la fréquence sonore caractéristique de ses acouphènes. Il s’agit d’un traitement à long terme, conduit sur plusieurs mois.
Des essais de stimulation magnétique transcrânienne ont eu lieu il y a une dizaine d’années. Cette stratégie vise à utiliser les stimulations magnétiques pour  provoquer la réorganisation du cortex auditif et réduire les acouphènes. Les résultats obtenus jusqu’ici ne sont pas convaincants. Des stimulations électriques ont également été testées dans le même objectif. Nécessitant l’implantation d’électrodes dans le cerveau, cette technique a été abandonnée dans cette indication : les acouphènes revenaient chez les quelques patients implantés.
En 2011, des travaux ont suggéré l’intérêt de stimuler le nerf pneumogastrique (aussi appelé nerf vague), situé au niveau du cou. Chez le rat, le couplage de stimuli sonores spécifiques avec des stimulations brèves et répétées du nerf vague semble en effet inverser durablement les modifications neuronales liées à la perte auditive, et réduire les acouphènes. Un protocole clinique a débuté en Belgique, chez des patients souffrant depuis plus d’un an d’acouphènes sévères et d’une perte auditive permettant toutefois d’entendre les stimuli sonores.
Côté thérapies pharmacologiques, des essais cliniques sont en cours pour tester l’efficacité de molécules à action locale, capables de bloquer les acouphènes dans des modèles animaux. Il s’agit d’antagonistes des récepteurs NMDA sensibles au glutamate. Il semble en effet que les récepteurs NMDA situés sur les fibres nerveuses auditives jouent un rôle majeur dans l’apparition des acouphènes. Ils répondent à la présence excessive de glutamate, principal neurotransmetteur du système auditif, entrainant un surcroit d’excitabilité.
Un essai clinique de phase 3 (AM-101) est en cours dans plusieurs pays, dont la France où sept centres sont impliqués. Le protocole consiste à effectuer des injections répétées de la molécule AM-101 à travers le tympan, à l’aide d’une seringue. L’essai est réalisé chez des personnes ayant des acouphènes depuis moins de trois mois ou anciens de trois à six mois. L’objectif est d’évaluer les effets de la molécule AM-101 à court terme. Les premiers résultats sont attendus pour la fin 2016. Si la molécule se révèle efficace, une mini pompe rechargeable sera nécessaire pour administrer le médicament à volonté. Cette pompe sera implantée dans le rocher, derrière le tympan. Un prototype a été réalisé en partenariat entre l’Inserm (à Montpellier) et le CEA-Leti (Grenoble), mais son développement est loin d’être achevé.
Une autre société a lancé un essai de phase 1 utilisant un principe actif voisin de l’AM-101, la gacyclidine. La molécule est administrée sous la forme d’un gel, diffusé par un aérateur transtympanique (les fameux « yoyos » utilisés chez les enfants souffrant d’otites récidivantes).

 

 DOCUMENT      inserm     LIEN  

Le génie, une affaire de créativité

il y a 7 mois

SANTÉ
Le génie, une affaire de créativité


Par Elena Sender le 04.01.2015 à 14h00, mis à jour le 29.09.2016 à 12h26
Einstein, Mozart ou Marie Curie sont reconnus comme des génies. Ils ont développé un don, la créativité. Un critère bien plus déterminant que le fameux QI, jadis célébré. Quels sont les mécanismes du génie créatif ? Les gènes jouent-ils un rôle ?

Devant un feu de cheminée, un verre de bordeaux à la main, le réalisateur américain George Lucas (Star Wars, Indiana Jones) plonge dans ses souvenirs d’enfance. En face de lui, Nancy Andreasen, neuroscientifique et psychiatre de l’université de l’Iowa (États-Unis), lauréate de la National Medal of Science — la plus haute distinction scientifique du pays —prend des notes.

Dans ce même fauteuil, se sont déjà succédé la romancière Jane Smiley, prix Pulitzer 1992, l’astrophysicien John Mather, prix Nobel de physique 2006, le mathématicien Bill Thurston, médaille Fields 1982 et les biologistes moléculaires Carol Greider et Liz Blackburn, prix Nobel de médecine en 2009... "J’ai sélectionné des personnalités exceptionnelles qui ont réalisé des œuvres majeures dans leur domaine et ont reçu des prix prestigieux", explique la psychiatre qui les accueille dans sa propriété. Déjà quinze personnes d’exception ont ainsi été mises sur la sellette. L’objectif ? "Comprendre quels sont les facteurs familiaux et environnementaux qui ont permis à leur haut potentiel créatif d’émerger", explique la chercheuse. Toutes acceptent de se prêter à des tests cognitifs et à un examen d’imagerie cérébrale en IRM fonctionnelle "pour permettre de comparer leurs structures et fonctions cérébrales à celles d’un groupe témoin", poursuit l’experte qui a déjà "passé au crible" 30 écrivains talentueux américains dans les années 1990. Pour tenter de percer... le secret des génies.

Une capacité à ne pas confondre avec le QI
"Le génie est une capacité à produire quelque chose de hautement original", affirme Nancy Andreasen. "Les génies sont ceux qui “ font l’histoire” par leur contribution dans un domaine de créativité ou de leadership", complète Dean Keith Simonton, chercheur en psychologie à l’université de Californie (États-Unis). Le tout selon ce que le scientifique appelle une "définition historiométrique" ou "d’accomplissement". À ne — surtout ! — pas confondre avec l’autre définition du génie dite psychométrique caractérisant "un individu ayant un QI [quotient intellectuel] exceptionnel de 140 et plus" qui se mesure par un test mis au point selon l’échelle de mesure de l’intelligence créée par Alfred Binet et Théodore Simon en 1905. Car, toujours selon Dean Keith Simonton qui a étudié le QI de 282 personnalités, "on peut avoir un QI extrêmement haut et ne rien accomplir et, à l’inverse, réaliser des productions majeures avec un QI de 120-130".
Faire la liste des génies "historiométriques" n’est pas aisé puisque l’évaluation se fait sur des critères de production d’œuvres ou d’idées nouvelles. Si Einstein, Picasso, Victor Hugo, Mozart ou Léonard de Vinci font l’unanimité d’autres — comme Chagall, Ravel, Malraux, Marie Curie, Camille Claudel ou Napoléon — suscitent des débats aussi bien dans les discussions de comptoir que dans les colloques de spécialistes. Sans parler des contemporains comme l’astrophysicien Stephen Hawking, le réalisateur Steven Spielberg (E.T., Jurassic Park...), Steve Jobs (fondateur d’Apple), le prix Nobel de la paix Nelson Mandela ou le mathématicien Alexandre Grothendieck... entre autres. Gagnent-ils leur place au panthéon des génies ? "L’une des façons d’éviter les erreurs de jugement est certainement d’établir ce statut de manière posthume, une fois toutes les données réunies, estime prudemment Dean Keith Simonton. Notre évaluation historiométrique de Steve Jobs aurait été bien différente si elle était survenue en 1985, au moment où il s’est fait renvoyer d’Apple, avant qu’il ne revienne à la tête de l’entreprise en 1997 avec le succès que l’on sait !" Un critère met cependant tout le monde d’accord : toutes ces personnalités ont en commun d’avoir surdéveloppé une capacité, la créativité.

Pour comprendre ce qu’est un "haut potentiel créatif", direction le Laboratoire adaptations travail-individu (Lati) de la faculté de psychologie Paris-Descartes, à Boulogne-Billancourt (Hauts-de-Seine), au cinquième étage du bâtiment principal. C’est le repaire de Todd Lubart, son directeur, psychologue américain débarqué de New York en 1994 et spécialiste de la créativité depuis les années 1980. Son credo : la créativité existe en chacun de nous. "Il y a quatre niveaux de créativité — ou de “c” — que l’on évalue selon la portée de l’œuvre", explique-t-il.
Dix composantes associant cinq qualités cognitives
Le premier correspond à la capacité de reproduire quelque chose qui a déjà été inventé, comme cet élève qui applique un théorème de mathématique au cours d’un exercice par exemple. Le deuxième correspond à une créativité limitée au cercle personnel ou familial, comme cet oncle qui imagine sans relâche des recettes de cuisine ou cette grand-mère qui invente comme personne des histoires pour ses petits-enfants. Le troisième niveau concerne la créativité reconnue dans le milieu professionnel et dont on tire parti dans son travail comme le font les écrivains, les publicitaires, les ingénieurs, les chefs cuisiniers, etc. Enfin, au sommet, trône le quatrième niveau ou "big C", la super-créativité rayonnant au niveau international, engendrant une réorientation de la pensée dans un champ thématique donné et dont l’histoire se souviendra.

Les Big C — comme les appellent les spécialistes — partagent des traits psychologiques selon Nancy Andreasen : audace, esprit de révolte, individualisme, absence de présupposés, persévérance, concentration, simplicité, aptitude au jeu, curiosité intense, humilité et désintéressement. Todd Lubart a poussé plus loin l’analyse et en a déduit son modèle "multivarié". "Dix composantes sont nécessaires à la créativité, assure-t-il, associant ainsi cinq qualités cognitives — au premier rang desquelles la flexibilité mentale — et cinq traits de personnalité comme une grande ouverture d’esprit, et une tolérance à l’ambiguïté."
Un test, intitulé EPoC, mis au point par le Lati permet d’ailleurs de mesurer le potentiel créatif chez l’enfant et l’adolescent. Durant quatre ans, des psychologues du laboratoire ont travaillé aussi sur Creative Profiler, un programme informatique d’évaluation du potentiel de l’adulte à partir de la mesure des dix dimensions par des épreuves en ligne. Depuis un an, le programme tourne déjà dans quelques entreprises. Au final on obtient un profil en décagone (polygone à dix côtés) plus ou moins large et régulier. "Un pur génie atteindra des maximums dans toutes les dimensions, assure Benjamin Frantz, ingénieur en psychologie responsable du projet. Cela peut arriver statistiquement, mais c’est très rare."
Pourtant, réunir toutes ces composantes, à un niveau aussi élevé ne garantit pas le passage à la postérité ! "Ces compétences sont nécessaires mais non suffisantes ! poursuit Todd Lubart. Elles doivent rencontrer une époque, un environnement, un besoin de la société. Il faut la bonne personne au bon endroit au bon moment pour que le génie émerge." Et le psychologue de citer le philosophe Friedrich Nietzsche "hissé au rang de génie bien après sa mort, lorsque son œuvre est entrée en résonance avec les préoccupations d’une époque". José de Valverde, conseiller d’orientation-psychologue, travaille avec le chercheur sur des études de cas, comme ceux de Vincent Van Gogh ou Frédéric Chopin afin de tenter de répondre à ces questions : "Pourquoi le génie éclot-il à un moment donné ? Pourquoi existe-t-il des périodes plus fécondes que d’autres ?"
Françoys Gagné, professeur de psychologie canadien, a esquissé des éléments de réponse en établissant en 2003 une théorie qui fait aujourd’hui référence : un potentiel créatif deviendrait un talent lorsqu’il rencontre des catalyseurs internes (personnalité, motivation) et/ou externes (entourage, éducation, moyens). Ainsi, si Van Gogh a été si créatif durant sa période dite arlésienne, c’est, selon José de Valverde, grâce, entre autres, à la luminosité du Midi, l’espoir d’une meilleure santé et une relation renoué avec son frère Théo. De même, Chopin a été particulièrement prolifique lorsqu’il séjournait à Nohant avec sa compagne, la romancière George Sand. À en croire ces mode?les, les graines d’un potentiel créatif existeraient donc en chacun de nous, n’attendant qu’un "coup de pouce" pour croître au grand jour. Encourageant ! "Il faut encore étudier ce processus, pour mieux comprendre comment intervenir au niveau éducatif afin de favoriser l’éclosion des talents", martèle José de Valverde.
Que se passe-t-il au juste sous le crâne de ces esprits hautement créatifs ? Pour le savoir, il faut revenir à George Lucas — passionné d’anthropologie, d’histoire, de sociologie, de neurosciences, de technologie numérique, d’architecture, de design et de littérature — dont le cerveau a été observé à l’IRM tandis qu’il réalisait des tests cognitifs.

 

Une habileté à réaliser des connexions cérébrales
De quoi permettre à Nancy Andreasen d’établir un constat : "Tout comme les autres personnalités créatives, il montre des activations plus fortes des cortex associatifs, ces aires cérébrales qui permettent les associations d’idées." Outre-Atlantique, à l’université Drexel près de Philadelphie, John Kounios, directeur du Creativity Research lab et son confrère Marc Beeman, coauteurs de l’ouvrage Eurêka Factor (2014), étudient de près ce phénomène. "La créativité peut être pensée comme l’habileté à faire des connexions non évidentes", estime John Kounios.
Ainsi, l’écrivain Daniel Tammet, atteint du syndrome d’Asperger (une forme d’autisme) mais aussi génie des nombres et des langues, décrit "de l’intérieur" ce phénomène dans son ouvrage Embrasser le ciel immense. Le nombre 23, par exemple, lui évoque aussitôt 529 (soit 23 au carre?) et il reconnaît immédiatement 989 comme le dernier nombre divisible par 23 avant 1000. "Les nombres ne sont pas isolés, ils sont en interaction", écrit-il. Et d’avancer cette hypothèse : "Chez la plupart des individus, les tâches cognitives majeures (faire des calculs, comprendre le langage, analyser des informations sensorielles...) sont effectuées distinctement dans des régions cérébrales séparées. Une inhibition empêcherait les différentes parties du cerveau de se mêler du travail des autres."
Or, dans certains cas, cette inhibition serait moins forte, permettant des dialogues entre parties du cerveau peu habituées à communiquer entre elles. "Je pense que c’est dans cette communication désordonnée entre des régions cérébrales habituellement distinctes que l’on peut trouver un début d’explication aux capacités numériques savantes, dont je fais moi-même l’expérience", note-t-il. John Kounios penche aussi pour cette théorie de la désinhibition cognitive. "La créativité viendrait d’une diminution du contrôle exercé par le lobe frontal sur le reste du cerveau. Les pensées des personnes créatives seraient donc un peu moins disciplinées." Même sous l’IRM, "l’éclair de génie" — comme on appelle cet instant où l’idée géniale fuse — reste mystérieux. Ainsi, que s’est-il réellement passé dans le cerveau de Descartes au cours de la nuit du 10 novembre 1619 où lui vint l’intuition d’une nouvelle méthode ? Et dans celui de Camille Saint-Saëns cette nuit du 21 avril 1915 où il rêva du final de sa symphonie en ut mineur avant de le retranscrire à son réveil ? "L’illumination est cette soudaine conscience d’une nouvelle idée ou perspective", explique John Kounios.

L’aboutissement d’un long processus inconscient
Certes, il est toujours possible de parvenir à produire de telles idées délibérément et méthodiquement, mais les cas sont rares. "La révélation est souvent l’aboutissement d’un long processus inconscient qui émerge soudainement alors que la pensée analytique est délibérée et consciente, caractérisée par une réflexion par étape", détaille John Kounios. Cette illumination (insight) est un moment de grande exaltation "accompagnée d’une flambée d’émotions positives, qui se différencie de la satisfaction calme qu’apporte la pensée analytique". Et l’acteur majeur en serait plu- tôt l’hémisphère cérébral droit, impliqué dans les associations d’idées, alors que le gauche jouerait davantage un rôle dans la pensée analytique comme l’ont montré des études menées ces quinze dernières années. De plus, des chercheurs ont pu déterminer par électroencéphalographie qu’une inhibition fugace des sens se produit juste avant que "l’ampoule ne s’allume","comme un phénomène inconscient de retrait en soi pour faciliter l’émergence de la solution", conclut John Kounios.
Bonne nouvelle : ces fulgurances pourraient être favorisées, à en croire le chercheur américain. À commencer par toutes les activités qui élargissent le champ de l’attention et évite la concentration. "Une émotion positive, qui élargit l’attention, est bénéfique pour la créativité alors que les pensées anxieuses, en rétrécissant le champ attentionnel, sont délétères", note John Kounios. Selon une étude (Jarosz, 2012) une — petite ! — quantité d’alcool pourrait aussi favoriser l’émergence des idées par la désinhibition qu’elle entraîne. En revanche, contrairement à une idée reçue, "il est peu probable que des drogues comme la cocaïne rendent quelqu’un créatif, poursuit le chercheur. Les psychostimulants forts concentrent en effet le mental sur les paramètres les plus évidents d’une situation, or c’est une attention étendue qui mène à la créativité".
D’autres scientifiques ont tenté d’intervenir de manière plus directe. Deux études récentes ont ainsi été menées (Chi&Snyder 2011, 2012) en stimulation transcranienne à courant continu : le cortex fronto-temporal droit de plusieurs sujets a été stimulé alors que leur cortex fronto-temporal gauche était inhibé. Et ça a marché. L’expérience a augmenté de manière significative le score de résolution de deux problèmes nécessitant une solution créative. "Mais cela soulève autant de questions que cela en résout, commente John Kounios. Est-ce l’activation à droite ou l’inhibition à gauche, ou les deux, qui produit l’effet ? A-t-on augmenté la créativité ou la perspicacité ?" Le spécialiste préfère s’en tenir à des conseils simples : "Lorsqu’on se sent près de l’“eurêka“, il faut induire une humeur positive et élargir son attention par de multiples moyens pour ne pas rester centré sur le problème. C’est le meilleur moyen de favoriser l’éclair."
Dans le laboratoire Lati, les moyens à mettre en œuvre pour augmenter la créativité agitent les méninges. C’est d’ailleurs l’objet du projet Creativeness mené par les psychologues Julie Collange et Jérôme Guegan, avec deux groupes d’étudiants de l’université Paris-Descartes et des Arts et Métiers. Leur idée ? Abolir la traditionnelle réunion de brainstorming (agitation d’idées) autour d’une table pratiquée dans toutes les entreprises. Pour ce faire, chaque étudiant participant est donc prié de se faire remplacer par son avatar informatique — anonyme — lors de réunions virtuelles. Les psychologues réalisent alors un test de "pensée divergente" avant de comptabiliser le nombre et l’originalité des propositions faites par chacun. "Le nombre d’idées augmente légèrement par rapport à une réunion classique car l’anonymat contrecarre l’autocensure et la peur du jugement", révèle Julie Collange. La suite de l’expérience est encore plus intéressante. Lors d’une autre réunion virtuelle, les étudiants sont priés cette fois de se choisir un avatar qui, selon eux, symbolise le mieux "le génie".
Le savant fou, mythe ou réalité ?
Les avatars choisis par les "gadzarts" (étudiants des Arts et Métiers) portent presque tous blouse blanche et crinière d’Einstein tandis que ceux des étudiants en psychologie s’affublent de plumes et d’habits colorés. Et la magie opère ! "Le nombre d’idées obtenues par personne double quasiment ! Se mettre dans la peau d’un génie débride la créativité", relate Jérôme Guegan. L’équipe cherche à présent à savoir si les caractéristiques du lieu virtuel ont une incidence. Une île paradisiaque ou les flammes de l’enfer stimuleraient-elles davantage notre potentiel créatif qu’une salle sans âme ?
Reste que la créativité débridée a son revers. "Virgina Woolf s’est suicidée, de même que Vincent Van Gogh, Newton souffrait de paranoïa et Galilée, dépressif, était souvent cloué au lit", expose Dean Keith Simonton, qui a analysé le lien entre folie et génie. "Mon étude, portant sur 15 génies créatifs comparés à 15 témoins, montre un lien entre créativité et trouble mental, rapporte Nancy Andreasen qui avait déjà établi ce rapprochement dans son étude précédente sur les écrivains. Les sujets créatifs et leurs proches ont un taux plus élevé de troubles mentaux incluant les dépressions, l’anxiété, les troubles paniques, les troubles bipolaires et l’alcoolisme. Ils ont également une probabilité plus forte que les autres d’avoir dans leur entourage un ou plusieurs proches atteints de schizophrénie."
Dean Keith Simonton évoque un paradoxe : dans la population générale, les créatifs semblent en meilleure santé mentale que les non-créatifs. Mais parmi les créatifs, les plus inventifs semblent mentalement plus fragiles. Sur cette question, deux camps s’affrontent. Le savant fou est-il un mythe ? Nancy Andreasen compte bien apporter une réponse à cette polémique. Le fauteuil de son salon n’a pas fini de livrer ses secrets.

 

 DOCUMENT        sciencesetavenir.fr      LIEN

Neurofibromatose comment la protéine Nf1 impacte les processus de mémorisation

il y a 7 mois

 
Neurofibromatose : comment la protéine Nf1 impacte les processus de mémorisation


Des chercheurs du Centre de biophysique moléculaire d’Orléans (CNRS) en collaboration avec l’Institut de génomique fonctionnelle (CNRS/INSERM/Université de Montpellier) ont montré dans une étude publiée dans PNAS que le récepteur 5-HT6 de la sérotonine pourrait représenter une cible thérapeutique prometteuse pour le traitement des déficits cognitifs observés chez des patients atteints de la neurofibromatose.

La Neurofibromatose de type 1 est une pathologie d’origine génétique touchant 1 personne sur 3000.  Elle se caractérise notamment par des taches pigmentées sur la peau, des tumeurs au niveau de la gaine des nerfs localisées à la surface de la peau (neurofibromes). Les tumeurs sont en partie liées à un dysfonctionnement de la protéine Nf1, présente en abondance dans le système nerveux où elle est telle un garde-fou dans la prolifération cellulaire. La maladie se caractérise aussi par l’apparition de troubles d’apprentissage et de mémorisation. Pour comprendre l’implication de la protéine dans ces troubles cognitifs,  il est intéressant d’observer ses différentes interactions  avec les éléments du SNC. L’équipe BCT* du Centre de Biophysique Moléculaire (CBM) d’Orléans travaille notamment sur la recherche de partenaires de Nf1. L’un d’eux, identifié en collaboration avec une équipe de l’Institut de Génomique Fonctionnelle (IGF) de Montpellier**, est le récepteur 5-HT6. Couplé aux protéines G, exclusivement exprimé dans le SNC, il est activé par la 5-hydroxytryptamine, communément appelée sérotonine. “Nous avons caractérisé les domaines du récepteur et de Nf1 impliqués dans l’interaction, explique Séverine Morisset Lopez, chargée de recherche au CBM. “Puis, grâce aux données de la littérature, nous avons répertorié des mutations génétiques localisées dans le domaine de Nf1 impliqué dans son interaction avec le récepteur et présentes chez des patients atteints de la maladie. Dès lors, nous avons créé différentes protéines mutées et montré que certaines mutations affectaient l’interaction de Nf1 avec le récepteur 5-HT6dans des neurones de souris et des cellules humaines ». Ce n’est pas tout, dans un modèle animal de la maladie, la production d’AMPc,  - un messager impliqué dans les processus de mémorisation et d’apprentissage - sous le contrôle du récepteur 5-HT6, est aussi affecté. Ceci pourrait contribuer à l’apparition des troubles de la mémoire observés chez ces animaux. Restaurer une activité normale du récepteur grâce à des composés agissant sur celui-ci pourrait corriger ces troubles. Ces études offrent de nouvelles perspectives non seulement pour la compréhension des mécanismes moléculaires mis en jeu dans la maladie, mais également pour le traitement des troubles cognitifs observés chez les malades.
 
*BCT : Biologie Cellulaire, Cibles moléculaires et Thérapies innovantes dirigée par le Pr C Pichon et le Dr H Bénédetti. 
** Equipe Neuroprotéomique et signalisation des maladies neurologiques et psychiatriques dirigée par le Dr P Marin

 


En savoir plus
* Wissem Deraredj Nadim, Séverine Chaumont-Dubel, Fahima Madouri, Laetitia Cobret, Marie-Ludivine De Tauzia, Pawel Zajdel, Hélène Bénédetti, Philippe Marin & Séverine Morisset-Lopez Physical interaction between neurofibromin andserotonin 5-HT6 receptor promotes receptor constitutive activity PNAS 2 septembre 2016 doi: 10.1073/pnas.1600914113  

 Contact chercheur
* Séverine Morisset-Lopez Centre de biophysique moléculaire – Orléans CNRS - CS 80054 Rue Charles Sadron 45071 ORLEANS CEDEX 2 T 02 38 25 76 05  
Mise en ligne le 18 décembre 2016

 

 DOCUMENT           cnrs       LIEN

Les préférences auditives des nouveau-nés

il y a 8 mois

 
Les préférences auditives des nouveau-nés sont influencées par l’expérience émotionnelle associée aux sons perçus par leur mère au cours de la gestation


L’expérience sensorielle prénatale, en particulier les expériences auditives, sont une source de mémoires pour les fœtus. Ainsi, les nouveau-nés de différentes espèces, y compris l’Homme, distinguent la voix de leur mère de celle d’autres individus. Des chercheurs des laboratoires Physiologie, environnement et génétique pour l'animal et les systèmes d'élevage et Ethologie animale et humaine, apportent pour la première fois une preuve expérimentale chez des porcelets que la contiguïté temporelle entre des stimuli sensoriels et des réactions émotionnelles maternelles peut être une source d’apprentissage associatif pour le fœtus. Cette étude a été publiée le 18 novembre dans la revue Scientific Reports.

Les chercheurs ont testé si l’association de sons (voix humaine lisant un texte) avec une expérience émotionnelle de valence positive ou négative chez des truies gestantes avait un impact sur la réaction des porcelets à ces mêmes sons juste après la naissance et dans les semaines suivantes.
Trente truies et leurs portées ont été étudiées : les truies recevaient quotidiennement et alternativement un traitement positif et un traitement négatif pendant leur dernier mois de gestation, chacun étant associé avec une voix humaine particulière. Après la naissance des porcelets, ceux-ci ont été soumis à des tests de séparation auxquels étaient associés la diffusion d’une ou des deux voix. Les résultats montrent bien que cette expérience de la mère gestante a une influence sur les réactions postnatales des porcelets à ces sons : 1) dès le premier test à l’âge de deux jours (mais également encore à l'âge de trois semaines), les porcelets pour qui ces voix sont “familières” sont moins stressés par la séparation que les porcelets témoins qui n'ont pas été exposés à ces voix avant leur naissance : il y a donc bien eu audition et mémorisation in utero ; 2) cet effet est généralisé à toute voix humaine puisqu’ils sont aussi davantage “rassurés” en entendant une voix étrangère ; 3) et surtout, ils sont plus stressés en entendant la voix humaine associée par la mère à une émotion négative que lorsqu'ils sont isolés avec la voix humaine associée par la mère à une émotion positive ou en absence de voix. Cette étude apporte la première démonstration d’un apprentissage in utero d’une association entre un stimulus sensoriel et l’état émotionnel de la mère. Ces résultats ouvrent tout un pan de recherche qui va bien au-delà de l’espèce porcine car ils invitent à reconsidérer l’impact des expériences prénatales à travers le filtre des ressentis maternels.

 

 DOCUMENT           cnrs       LIEN

La jeune géante qui s'est fait une place au soleil

il y a 8 mois


Paris, 20 juin 2016

La jeune géante qui s'est fait une place au soleil


Depuis 20 ans, les exoplanètes qu'on nomme « Jupiters chauds » défient les astronomes. Ces planètes géantes orbitent 100 fois plus près de leur étoile que Jupiter autour du Soleil, et sont donc réchauffées par cette proximité. Mais comment et quand dans leur histoire migrent-elles si près de leur étoile ? Une équipe internationale d'astronomes vient d'annoncer la découverte d'un très jeune Jupiter chaud au voisinage immédiat d'un soleil d'à peine 2 millions d'années – l'équivalent stellaire d'un nourrisson d'une semaine. Cette toute première preuve que les Jupiters chauds apparaissent dès les origines constitue un progrès majeur dans notre compréhension de la formation et de l'évolution des systèmes planétaires. Les travaux, dirigés par des chercheurs de l'Institut de recherche en astrophysique et planétologie (IRAP, CNRS/Université Toulouse III – Paul Sabatier)1, en collaboration, entre autres2, avec des collègues de l'Institut de planétologie et d'astrophysique de Grenoble (CNRS/Université Grenoble Alpes)3, sont publiés le 20 juin 2016 dans la revue Nature.
C'est en scrutant une étoile d'à peine 2 millions d'années, baptisée V830 Tau, qu'une équipe internationale d'astronomes a découvert le plus jeune Jupiter chaud. Après un mois et demi d'observations au cœur de la pouponnière stellaire du Taureau, à 430 années-lumière de la Terre, l'équipe a détecté une variation régulière de la vitesse de l'étoile, révélant la présence d'une planète presque aussi massive que Jupiter, sur une orbite 20 fois plus resserrée que celle de la Terre autour du Soleil. Cette découverte prouve pour la première fois que les Jupiters chauds apparaissent très tôt lors de la phase de formation des systèmes planétaires, et ont donc un impact majeur sur l'architecture de ces derniers. 

Dans le système solaire, les petites planètes rocheuses comme la Terre orbitent près du Soleil alors que les géantes gazeuses comme Jupiter et Saturne patrouillent bien plus loin. D'où l'étonnement de la communauté quand les premières exoplanètes détectées se sont révélées des géantes côtoyant leur étoile. Les travaux théoriques nous apprennent que ces planètes ne peuvent se former que dans les confins glacés du disque protoplanétaire donnant naissance à l'étoile centrale et à son cortège de planètes. Certaines d'entre elles migrent vers l'étoile sans y tomber, devenant dès lors des Jupiters chauds. 

Les modèles théoriques prédisent une migration soit dans l'enfance des géantes gazeuses, alors qu'elles se nourrissent encore au sein du disque primordial, soit bien plus tard, lorsque les nombreuses planètes formées interagissent et propulsent certaines d'entre elles au voisinage immédiat de l'étoile. Parmi les Jupiters chauds connus, certains possèdent justement une orbite inclinée, voire inversée, suggérant qu'ils ont été précipités vers l'étoile par d'ombrageuses voisines. Cette découverte d'un Jupiter chaud très jeune confirme donc que la migration précoce au sein du disque est bien, elle aussi, opérationnelle dans le cas des planètes géantes.

Détecter des planètes autour d'étoiles très jeunes s'avère un vrai défi observationnel, car ces étoiles se révèlent être des monstres en comparaison de notre Soleil : leur intense activité magnétique perturbe en effet la lumière émise par l'étoile d'une façon bien plus marquée que ne peut le faire une éventuelle planète géante, même en orbite rapprochée. L'une des prouesses de l'équipe a été de séparer le signal dû à l'activité de l'étoile de celui engendré par la planète.

Pour cette découverte, l'équipe a utilisé les spectropolarimètres4 jumeaux ESPaDOnS et Narval, conçus et construits à l'IRAP. ESPaDOnS est installé au télescope Canada-France-Hawaï (TCFH), au sommet du Maunakea, un volcan endormi de la grande île de l'archipel d'Hawaï. Narval est monté quant à lui au télescope Bernard Lyot (TBL - OMP) au sommet du Pic du Midi. L'utilisation combinée de ces deux télescopes et du télescope Gemini d'Hawaï s'est avérée essentielle pour obtenir la continuité requise dans le suivi de V830 Tau. Avec SPIRou et SPIP, les spectropolarimètres infrarouge de nouvelle génération construits à l'IRAP pour le TCFH et le TBL, et dont la mise en service est prévue en 2017 et 2019, les performances seront largement améliorées, ce qui nous permettra d'étudier avec une sensibilité encore accrue la formation des nouveaux mondes. 

Des animations sont disponibles (crédit : Jean-François Donati) :
- l'étoile en formation V830 Tau et son champ magnétique ;
- les distorsions du spectre lumineux induites par l'activité de l'étoile (flèche bleue) et par sa planète (flèche verte). La flèche rouge montre les deux effets combinés. L'effet est amplifié d'un facteur 20.

Télécharger le communiqué de presse : 

Notes :
1 Ce laboratoire fait partie de l'Observatoire Midi-Pyrénées (OMP).
2 Les autres organismes ayant contribué à ces travaux sont : CFHT corporation, l'Université de York (Toronto, Canada), l'ESO, l'Université fédérale du Minas Gerais (Brésil), l'Academia sinica (Taïwan), l'Université de Montréal (Canada) et l'Université de St Andrews (Royaume-Uni).
3 Ce laboratoire fait partie de l'Observatoire des sciences de l'Univers de Grenoble.
4 En astronomie, un spectropolarimètre sert à mesurer le champ magnétique des étoiles.
Références :
A hot Jupiter orbiting a 2-million-year-old solar-mass T Tauri star, JF Donati, C Moutou, L Malo, C Baruteau, L Yu, E Hébrard, G Hussain, S Alencar, F Ménard, J Bouvier, P Petit, M Takami, R Doyon, A Collier Cameron. Nature, 20 juin 2016. Consulter le site web
Contacts :
Chercheur CNRS l Jean-François Donati l T +33 (0)5 61 33 29 17 l jean-francois.donati@irap.omp.eu 
Presse CNRS l Véronique Etienne l T +33 (0)1 44 96 51 37 l veronique.etienne@cnrs-dir.fr

 

 DOCUMENT       cnrs        LIEN

Comment les cellules s’adaptent-elles à une carence en sucre

il y a 8 mois

 
Comment les cellules s’adaptent-elles à une carence en sucre ?
 
L’équipe de Sébastien Léon à l’Institut Jacques Monod dévoile un nouveau mécanisme qui contrôle chez la levure la dégradation des transporteurs de sucre localisés à la surface des cellules. Ce mécanisme fait intervenir Csr2, une protéine de la famille des arrestines qui est régulée à plusieurs niveaux par la disponibilité en glucose. Ce travail, réalisé en collaboration avec le laboratoire de Libuše Váchová et Zdena Palková à l'Université Charles à Prague, a été publié le 3 mai 2017 dans la revue Journal of Cell Biology.
 
Les cellules sont délimitées par une membrane, appelée membrane plasmique, dans laquelle sont insérées des protéines transporteurs qui permettent aux différents nutriments de pénétrer à l’intérieur de la cellule. En fonction de l’évolution des conditions nutritionnelles de l’environnement, certains de ces transporteurs deviennent inutiles. Ils sont donc dégradés par la cellule grâce à un mécanisme appelé endocytose.
 
Le mécanisme d’endocytose est très bien caractérisé chez la levure de boulanger Saccharomyces cerevisiae. Comme les cellules humaines, la levure possède à sa surface des transporteurs dont elle doit réguler l’abondance en utilisant les mêmes mécanismes que les cellules humaines. La levure utilise un sucre, le glucose, pour produire l’énergie nécessaire à sa croissance.
 
Les chercheurs ont caractérisé un nouveau mécanisme qui permet la dégradation des transporteurs de glucose lorsque les levures sont soumises à une carence dans ce sucre. Ce mécanisme dépend de Csr2, une protéine de la famille des arrestines. Chez l’Homme, les arrestines sont d’importants régulateurs du métabolisme et certaines d’entre elles sont des suppresseurs de tumeur, c’est à dire que leur absence peut causer des cancers. Il est donc très important de comprendre le rôle de ces arrestines et leur régulation par la physiologie cellulaire.
 
Les chercheurs ont découvert que Csr2 est fabriquée et devient active uniquement en absence de glucose. Son activité est régulée par de nombreuses modifications post-traductionnelles. Cette régulation complexe fait intervenir plusieurs acteurs (voies de signalisation PKA, AMPK) dont l’activité est elle même régulée par la disponibilité en glucose. Ainsi, cette étude montre que la régulation d’une arrestine par la signalisation cellulaire contribue à l’homéostasie des transporteurs et donc à l’adaptation des cellules à leur environnement.

 

Figure : Schéma de la régulation de l’endocytose des transporteurs de glucose lors d’une carence en glucose chez la levure de boulanger. L’absence de glucose dans le milieu extérieur est ressentie et transmise à l’intérieur de la cellule grâce à la signalisation cellulaire. Ce signal va alors induire une réponse spécifique. Ici, sont représentées l’induction et l’activation de l’arrestine Csr2. Cela conduit à l’internalisation des transporteurs de glucose (initialement localisés au niveau de la membrane plasmique) et leur dégradation dans le lysosome de la cellule.
© Sébastien Léon

 

En savoir plus
* Multilevel regulation of an α-arrestin by glucose depletion controls hexose transporter endocytosis. Hovsepian J, Defenouillère Q, Albanèse V, Váchová L, Garcia C, Palková Z, Léon S. J Cell Biol. 2017 May 3. pii: jcb.201610094. doi: 10.1083/jcb.201610094. 

 Contact chercheur
* Sébastien Léon Institut Jacques Monod CNRS UMR7592 – Université Paris-Diderot 15 rue Hélène Brion    01 57 27 80 57  
* Junie Hovsepian Institut Jacques Monod CNRS UMR7592 – Université Paris-Diderot 15 rue Hélène Brion   01 57 27 80 57  

 

DOCUMENT           cnrs       LIEN
          
 

L’autophagie au rythme des protéines Hox

il y a 8 mois

L’autophagie au rythme des protéines Hox
 
Architectes du développement embryonnaire, les gènes Hox sont bien connus pour contrôler la mise en place, dans l’espace, d’avant en arrière, des structures du corps. L’équipe de Yacine Graba de l’IBDM (CNRS – Université Aix-Marseille) vient de leur découvrir un nouveau rôle : régulateur dans le temps de l’autophagie. Ces travaux ont été publiés dans Developmental Cell.
 
Les gènes Hox, classés en groupe de paralogie, s’expriment différemment le long de l’axe antéropostérieur des animaux bilatériens. Yacine Graba et son équipe, en collaboration avec le groupe de Miklos Sass (Université Lorand Eotvos, Budapest) observent un phénomène surprenant : dans le corps gras de la drosophile, cette expression différentielle n’est pas la règle, et la plupart des des gènes Hox s’expriment dans l’ensemble du tissu, aussi bien antérieurement que postérieurement. D’autre part, les protéines Hox disparaissent dès que la larve se prépare à sa métamorphose. C’est à partir de cette étonnante observation que les scientifiques marseillais ont mis en évidence, pour la première fois, un lien entre l’expression des gènes Hox et l’autophagie.

Contrairement à ce qui se passe dans les autres tissus de la larve, les protéines Hox du corps gras ne délivrent pas d’information de position. Leur fonction n’est pas non plus spécifique à chacun de leur groupe de paralogie. Dans le corps gras, elles inhibent, de manière générique  l’autophagie développementale, nécessaire à la métamorphose. L’autophagie ne débutera qu’à la disparition des protéines Hox, qui rythment ainsi cet  événement central dans le remodelage tissulaire au cours du développement.

De plus, la production de protéines Hox est influencée par des signaux développementaux, comme l’ecdysone ou « hormone de mue ». Mais aussi par des situations de carences nutritionnelles dont les signaux sont relayés par la voie  Insuline/dTOR.  Cet arrêt de production, et par là même l’initiation de l’autophagie, résultent de la modification de la composition du complexe de remodelage de la chromatine Brahma qui maintient l’expression des gènes Hox.

Au-delà d’élargir la compréhension de la fonction des protéines Hox, cette étude offre un nouvel éclairage sur la régulation de l’autophagie. Très étudié depuis ces cinq dernières années, ce processus qui est d’ailleurs conservé au cours de l’évolution chez tous les eucaryotes, est associé à de nombreuses pathologies humaines, comme des maladies neurodégénératives, des cancers, des myopathies ou le diabète. Cette découverte permettra sans doute d’apporter de nouvelles hypothèses à la recherche biomédicale.

 

DOCUMENT       cnrs        LIEN

L’activité neuronale prédit la gravité des TOC

il y a 8 mois

L’activité neuronale prédit la gravité des TOC

30 mai 2011
Les troubles obsessionnels compulsifs (TOC) sont caractérisés par des obsessions ou des compulsions qui reviennent sans arrêt et peuvent devenir handicapantes. En 2008, une étude a montré que la stimulation cérébrale profonde permettait d’améliorer nettement les symptômes des patients qui ne répondent pas aux traitements classiques. Cette technique a permis plus récemment à l’équipe du Dr Luc Mallet, Centre de recherche de l’Institut du cerveau et de la moelle (ICM) à la Pitié-Salpêtrière, d’enregistrer l’activité cérébrale dans des zones bien précises du cerveau. La gravité de la maladie et la réponse à la stimulation semblent liées à certaines caractéristiques de l’activité neuronale des patients.
Articles associés

*         Un essai clinique très encourageant pour les patients atteints de TOC
Informations complémentaires
Lire l’article original
Les TOC, véritable handicap social


© Fotolia
Vérifier cent fois que le gaz est éteint, que la porte est fermée à clé, se laver les mains vingt fois par jour, marcher uniquement sur les bandes blanches aux passages cloutés, toutes ces obsessions ou ces compulsions sont en fait à l’origine d’une maladie psychiatrique plus connue sous le nom de troubles obsessionnels compulsifs. La maladie touche environ 2 % de la population le plus souvent avant 30 ans. Elle peut vite devenir très handicapante, privant même un certain nombre de patients d’une vie sociale normale quand l'obsession prend le pas sur toutes les autres priorités et se met à rythmer la vie de l’individu.

La stimulation cérébrale profonde au secours des malades
Les causes de ces troubles sont mal connues mais les chercheurs suspectent deux dysfonctionnements. L’un au niveau de certains messagers chimiques dans le cerveau, notamment la sérotonine et l’autre au niveau des circuits reliant les zones superficielles et profondes du cerveau. Le traitement de référence de la maladie repose sur une thérapie comportementale associée à un traitement antidépresseur (inhibiteur de recapture de la sérotonine). Cependant, un tiers des patients ne répondent pas à ce traitement. Or, en 2002, des chercheurs qui travaillent sur la stimulation cérébrale profonde (voir encadré) chez des patients parkinsoniens, découvrent fortuitement que cette expérience réduit les symptômes obsessionnels de certains de ces patients atteints de TOC. Un essai clinique est alors mis en place dans 10 CHU en France et coordonné par le Dr Luc Mallet à la Pitié-Salpêtrière pour étudier le bénéfice de la stimulation cérébrale dans les TOC. Il inclut 16 patients en échec thérapeutique. Le bénéfice est spectaculaire. Après 3 mois de stimulation, sept patients sur dix ont une nette amélioration de leurs symptômes et six d’entre eux ne ressentent plus qu’une gêne modérée et retrouvent une vie satisfaisante (vie de famille, nouveaux liens sociaux, activité professionnelle).

Activité neuronale et gravité des symptômes
Mais au-delà de son bénéfice thérapeutique, cette technique permet à l’équipe de Luc Mallet d’aller plus loin dans la connaissance de la maladie. L’implantation des électrodes permet non seulement de stimuler des neurones mais également d’enregistrer leur activité. Les scientifiques ont ainsi pu étudier l’activité d’une zone du cerveau (noyau sous-thalamique) chez 12 patients atteints de TOC sévères et résistants aux traitements. Or, ces enregistrements montrent des profils d’activité neuronale anormaux dont les caractéristiques sont liées à la gravité des symptômes.En outre, certains de ces dysfonctionnements semblent prédictifs du bénéfice de la stimulation cérébrale. "Ces résultats confirment l’intérêt de cette technique pour traiter les troubles réfractaires aux thérapeutiques usuelles et marquent une première étape vers l’identification de marqueurs biologiques dans cette forme sévère de la maladie", se réjouit Luc Mallet.

La stimulation cérébrale profonde en bref
La stimulation cérébrale profonde consiste à émettre un faible courant électrique dans une zone précise du cerveau pour interférer avec un signal neuronal déficient. Cette technique utilisée depuis la fin des années 80 permet de traiter différentes maladies neurologiques ou psychiatriques comme la maladie de Parkinson, des mouvements involontaires ou encore les troubles obsessionnels compulsifs (TOC). Pour cela, une ou deux électrodes sont implantées dans un noyau cible au cœur du cerveau, par exemple le noyau sous-thalamique pour la maladie de Parkinson et les TOC. Chaque électrode est reliée à un stimulateur implanté sous la peau au niveau de l’abdomen ou de la clavicule qui émet le signal électrique. Celui-ci est d’intensité variable en fonction des résultats attendus.

Source
"Basal ganglia dysfunction in OCD: subthalamic neuronal activity correlates with symptoms severity and predicts high-frequency stimulation efficacy"
Welter et coll. Translational Psychiatry (2011) 1, e5 (groupe Nature)

 

   DOCUMENT   inserm.fr    LIEN

Dans 10 ou 30 secondes  Un réseau neuronal impliqué dans la mémoire temporelle

il y a 9 mois

Dans 10 ou 30 secondes ? Un réseau neuronal impliqué dans la mémoire temporelle  
 
L’appariement temporel d’événements conditionne leur lien mnésique, ce qui permet d’agir en conséquence au bon moment. L’équipe de Valérie Doyère à l’Institut des neurosciences de Paris-Saclay, en collaboration avec des chercheurs de la New York University (USA), révèle l’implication d’un réseau neuronal dans la mise en place d’une plasticité synaptique sous-tendant la mémoire de l’intervalle et l’adaptation de l’attente qui en résulte. Cette étude a été publiée le 9 janvier 2017 dans la revue Nature Communications.

Le temps ou l’intervalle entre deux événements est un élément crucial dans notre vie de tous les jours, même si nous n’en sommes pas conscients. Nous le mémorisons en général très rapidement, en particulier s’il implique un événement aversif ou dangereux. Un exemple facile que nous connaissons tous est l’estimation temporelle que nous faisons lorsqu’un éclair apparaît dans le ciel et que nous attendons le coup de tonnerre qui va suivre. De même, dans des situations plus dramatiques, une estimation temporelle est mémorisée en temps de guerre entre la perception de la sirène d’alerte et celle du bruit de moteur des avions à l’attaque. Même s’ils sont stressants ou douloureux, la prédictibilité de tels événements donne la possibilité de mettre en place des comportements adaptés pour en minimiser l’impact négatif ou même les éviter. Le moment attendu de leur arrivée est un élément crucial de cette prédictibilité, car il permet d’agir au bon moment, et non trop tard ou trop tôt. Cet intervalle de temps entre un signal annonciateur et l’événement négatif doit donc être mémorisé pour qu’à l’occasion suivante, on puisse juger du temps en cours et mettre en œuvre le comportement adapté au moment approprié. En fait, l’appariement temporel d’événements conditionne leur lien mnésique et la mémoire permet de suivre le temps qui passe et prédire les événements futurs. Les mécanismes cérébraux qui sous-tendent cette mémoire de la durée ou de l’intervalle et les processus d’attente temporelle restent peu connus et la majorité des études chez l’Homme ne donne pas accès à une analyse à haute résolution temporelle de réseaux neuronaux profonds. 
Dans cette étude, les chercheurs se sont intéressés au rôle du réseau neuronal que forment le striatum dorsomédian, structure connue pour son implication dans le jugement temporel, et l’amygdale basolatérale, structure essentielle dans le traitement de l’aspect émotionnel des événements. Ils ont utilisé un protocole de conditionnement Pavlovien aversif chez le rat, dans lequel un son prédit l’arrivée d’un léger choc électrique sur les pattes 30 secondes après le début du son, de telle sorte qu’il se forme un comportement d’attente maximal du choc vers les 30 secondes. 
Au travers de l’analyse de la synchronisation des oscillations d’activité neuronale, un changement dynamique au sein de ce réseau a été mis en évidence, avec une synchronisation maximale à l’approche du moment d’arrivée du choc, similaire au comportement d’anticipation. De plus, l’utilisation d’outils pharmacologiques locaux, d’électrophysiologie in vivo et d’imagerie cellulaire a permis de révéler la mise en jeu d’une plasticité synaptique au sein du striatum dorsomédian qui accompagne l’adaptation de l’anticipation à une nouvelle durée (changement de l’intervalle à 10 secondes, au lieu de 30 secondes), sous contrôle de la détection du changement par l’amygdale basolatérale. L’analyse fine des données a mis en évidence l’implication différentielle de ce réseau dans l’adaptation à la nouvelle durée et l’élimination de la durée initiale.
Cette étude, réalisée en collaboration avec des chercheurs de la New York University (NYU, New York, USA), dans le cadre du Laboratoire International Associé ‘EmoTime’ et du Partner University Fund ‘Emotion & Time’, apporte la première démonstration de l’importance de l’interaction entre structures au sein d’un réseau dans le contrôle d’une plasticité synaptique associée à l’adaptation à de nouvelles contraintes temporelles, en particulier en freinant l’élimination des acquis temporels. Le paramètre ‘temps’ étant à la clef de tout apprentissage associatif, cette étude enrichit notre compréhension des mécanismes sous-tendant l’apprentissage et les capacités de flexibilité comportementale lors de changements de l’environnement, capacités sans cesse mises en jeu dans la vie de tous les jours.

 

 DOCUMENT           cnrs       LIEN

Un contrôle de neurorécepteur par la lumière pour atténuer les symptômes de la douleur chronique

il y a 9 mois


Paris, 20 décembre 2016
Un contrôle de neurorécepteur par la lumière pour atténuer les symptômes de la douleur chronique

La douleur nous sert de précieux signal d'alarme, mais elle se transforme en véritable maladie lorsqu'elle devient chronique. Une équipe internationale, comprenant des chercheurs du CNRS et de l'Inserm1, a identifié et contrôlé un des centres associés aux douleurs chroniques. Ces travaux, publiés le 20 décembre 2016 dans Molecular Psychiatry, ont permis d'en soulager les symptômes chez des souris et de montrer la capacité du cerveau d'y remédier.
Alors qu'environ 20% de la population européenne a connu des épisodes de douleur chronique, les traitements sont efficaces chez moins de la moitié des patients. Cette maladie est pourtant associée à des modifications du système nerveux. Les chercheurs souhaitent donc comprendre comment le cerveau module la douleur physique et les désordres affectifs et cognitifs qui l'accompagnent : anxiété, perte des émotions positives, hypersensibilité à la douleur… Dans cette étude, ils se sont penchés sur l'amygdale, une région du cerveau impliquée dans la gestion de la douleur et des émotions, et sur le récepteur du glutamate de type 4 (mGlu4). Il s'agit du principal transmetteur des signaux de douleur dans le système nerveux des mammifères. Ce neurorécepteur détecte la présence du glutamate et diminue, selon les besoins, sa libération au niveau de la synapse. 

Afin d'étudier ces récepteurs, les chercheurs utilisent en général un ligand capable de les activer ou de les inhiber. Ils ont innové en créant un ligand particulier photo-contrôlable, l'optogluram, dont l'action sur mGlu4 est pilotée par la lumière. L'utilisation de fibres optiques leur permet alors de contrôler très précisément l'activation du neurorécepteur dans une zone donnée du cerveau. Les scientifiques se sont penchés sur des souris conscientes et libres de leurs mouvements, atteintes de douleurs inflammatoires chroniques. En activant l'optogluram par la lumière, ils ont pu inhiber de manière rapide et réversible ces symptômes douloureux, démontrant ainsi que le cerveau de ces souris conservait sa capacité à contrer ces effets. Avec l'identification d'un modulateur capable d'agir sur la douleur chronique, ces travaux sont  porteurs d'espoirs thérapeutiques.

 

 DOCUMENT         cnrs        LIEN

Sommeil paradoxal ces neurones qui nous paralysent

il y a 9 mois

Paris, 12 décembre 2016
Sommeil paradoxal : ces neurones qui nous paralysent

Lors du sommeil paradoxal, le cerveau inhibe le système moteur, ce qui rend le dormeur complètement immobile. Des chercheurs CNRS travaillant au Centre de recherche en neurosciences de Lyon (CNRS/Université Claude Bernard Lyon 1/Inserm/Université Jean Monnet) ont identifié une population de neurones responsables de cette paralysie transitoire des muscles. Le modèle animal créé permettra de mieux comprendre l'origine de certains troubles du sommeil paradoxal, en particulier la maladie qui empêche cette paralysie corporelle. Il sera également d'une grande aide pour étudier la maladie de Parkinson, les deux pathologies étant liées. Ces travaux sont publiés le 12 décembre 2016 sur le site de la revue Brain.
Pourtant plongé dans un sommeil profond, le patient parle, s'agite, donne des coups de pied et finit par tomber de son lit. Il souffre d'une forme de parasomnie appelée REM Sleep Behavior Disorder1 (RBD), une maladie du sommeil qui se déclare aux alentours de la cinquantaine. Alors que pendant la phase de sommeil paradoxal, les muscles sont au repos, chez ce patient, la paralysie corporelle est absente, sans que l'on sache bien pourquoi. Il exprime alors des mouvements anormaux reflétant très probablement son activité onirique.

Une équipe du Centre de recherche en neurosciences de Lyon (CNRS/Inserm/Université Claude Bernard Lyon 1/Université Jean Monnet) a fait un pas de plus dans la compréhension de cette pathologie. Les chercheurs ont identifié dans le cerveau les neurones du noyau sub-latérodorsal, idéalement placés pour contrôler la paralysie du système moteur pendant le sommeil paradoxal. Chez le rat, ils ont ciblé spécifiquement cette population de neurones en y introduisant des vecteurs viraux génétiquement modifiés2. Une fois dans les cellules neurales, ceux-ci bloquent l'expression d'un gène permettant la sécrétion synaptique du glutamate. Incapables de libérer ce neurotransmetteur excitateur, ces neurones ne peuvent alors plus communiquer avec leurs voisins. Ils sont déconnectés du réseau cérébral nécessaire à la paralysie corporelle du sommeil paradoxal.

Depuis 50 ans, la communauté scientifique considérait que ces neurones à glutamate généraient le sommeil paradoxal lui-même. L'expérience menée par l'équipe balaye cette hypothèse : même sans aucune activité de ce circuit neuronal, les rats passent bien par cet état de sommeil. Ils sont profondément endormis et déconnectés du monde extérieur, les paupières closes. Pourtant ces rats ne sont plus paralysés. Leurs comportements rappellent très fortement le tableau clinique des patients souffrant de RBD. Les neurones à glutamate ciblés dans cette étude jouent donc un rôle essentiel dans la paralysie corporelle pendant le sommeil paradoxal et seraient prioritairement atteints dans cette pathologie neurologique.

Ces travaux de recherche vont au-delà de la création d'un nouveau modèle préclinique mimant cette parasomnie. Ils pourraient même avoir une importance capitale dans l'étude de certaines maladies neurodégénératives. En effet, de récents travaux de recherche clinique ont montré que les patients diagnostiqués avec le RBD développent presque systématiquement les symptômes moteurs de la maladie de Parkinson, en moyenne une décennie plus tard. L'équipe cherche maintenant à développer un modèle animal évoluant de la parasomnie à la maladie de Parkinson afin de comprendre les prémices de la dégénérescence neuronale.

 

   DOCUMENT         cnrs        LIEN 

Imiter les virus pour livrer des médicaments au coeur des cellules

il y a 9 mois


Paris, 27 août 2015
Imiter les virus pour livrer des médicaments au coeur des cellules

Les virus ont une aptitude à détourner le fonctionnement des cellules pour les infecter. En s'inspirant de leur mode d'action, des chercheurs du CNRS et de l'Université de Strasbourg ont conçu un « virus chimique » capable de franchir la double couche de lipides qui délimite les cellules, puis de se désagréger dans le milieu intracellulaire afin d'y libérer des molécules actives. Pour cela, ils ont utilisé deux polymères de leur conception, qui ont notamment des capacités d'auto-assemblage ou de dissociation selon les conditions. Ces travaux, fruit d'une collaboration entre chimistes, biologistes et biophysiciens, sont publiés dans l'édition du 1er septembre de la revue Angewandte Chemie International Edition.
Les progrès biotechnologiques donnent accès à un trésor de molécules ayant un potentiel thérapeutique. Beaucoup de ces molécules sont actives uniquement à l'intérieur des cellules humaines et restent inutilisables car la membrane lipidique qui délimite les cellules est une barrière qu'elles ne peuvent pas franchir. L'enjeu est donc de trouver des solutions de transfert aptes à traverser cette barrière. 

En imitant la capacité des virus à pénétrer dans les cellules, des chimistes du Laboratoire de conception et application de molécules bioactives (CNRS/Université de Strasbourg) cherchent à concevoir des particules à même de libérer des macromolécules actives uniquement au sein des cellules. Pour cela, ces particules doivent obéir à plusieurs contraintes souvent contradictoires. Elles doivent être stables dans le milieu extracellulaire, capables de se lier aux cellules afin d'être internalisées mais être plus fragiles à l'intérieur des cellules pour libérer leur contenu. Avec deux polymères de leur conception, les chercheurs ont réussi à construire un "virus chimique" remplissant les conditions nécessaires pour transférer directement des protéines actives dans la cellule.

Concrètement, le premier polymère (pGi-Ni2+) sert de support aux protéines, qui s'y fixent. Le second polymère (πPEI), récemment breveté, encapsule cet ensemble grâce à ses charges positives qui se lient aux charges négatives du pGi-Ni2+. Les particules obtenues (30-40 nanomètres de diamètre) sont capables de reconnaitre la membrane entourant les cellules et de s'y lier. Cette liaison active une réponse cellulaire : la nanoparticule est enveloppée par un fragment de membrane et entre dans un compartiment intracellulaire appelé endosome. Alors qu'ils étaient stables à l'extérieur de la cellule, les assemblages sont ébranlés par l'acidité qui règne dans ce nouvel environnement. Par ailleurs, cette baisse de pH permet au polymère πPEI de faire éclater l'endosome, ce qui libère son contenu en molécules actives. 

Grâce à cet assemblage, les chercheurs ont pu concentrer suffisamment de protéines actives à l'intérieur des cellules pour obtenir un effet biologique notable. Ainsi, en transférant une protéine appelée caspase 3 dans des lignées de cellules cancéreuses, ils ont réussi à induire 80 % de mort cellulaire1. 

Les résultats in vitro sont encourageants, d'autant que ce "virus chimique" ne devient toxique qu'à une dose dix fois supérieure à celle utilisée dans cette étude. Par ailleurs, des résultats préliminaires chez la souris ne font pas état de surmortalité. L'élimination par l'organisme des deux polymères reste cependant une question ouverte. La prochaine étape consistera à tester ce système de manière approfondie in vivo, chez l'animal. A court terme, ce système servira d'outil de recherche pour vectoriser2 dans les cellules des protéines recombinantes et/ou chimiquement modifiées. A long terme, ce travail pourrait ouvrir le champ d'application des protéines pharmaceutiques à des cibles intracellulaires et contribuer à la mise au point de médicaments novateurs. 

Ces travaux ont été rendus possibles par la collaboration de biophysiciens et de biologistes. Les compétences en cryomicroscopie électronique de l'Institut de génétique et de biologie moléculaire et cellulaire (CNRS/Université de Strasbourg/Inserm) et l'expertise en microscopie à force atomique du Laboratoire de biophotonique et pharmacologie (CNRS/Université de Strasbourg) ont permis de caractériser les assemblages moléculaires de manière très précise. Le laboratoire Biotechnologie et signalisation cellulaire (CNRS/Université de Strasbourg) a quant à lui fourni les protéines recombinantes encapsulées dans le virus artificiel.

 

  DOCUMENT       cnrs        LIEN

Comment le phytoplancton domine-t-il les océans

il y a 10 mois


Paris, 20 juin 2017
Comment le phytoplancton domine-t-il les océans ?

La photosynthèse est un processus unique qui, dans le monde vivant, a permis la colonisation des terres et des océans, respectivement par les plantes et le phytoplancton. Si les mécanismes de la photosynthèse sont bien connus chez les plantes, les scientifiques commencent seulement à comprendre comment le phytoplancton a développé une photosynthèse. Dans le cadre d'une collaboration internationale1, des chercheurs du Laboratoire de physiologie cellulaire & végétale (CNRS/CEA/UGA/Inra)2, de l'Institut de biologie structurale (CNRS/CEA/UGA), du Laboratoire d'études des matériaux par microscopie avancée (CEA/UGA)3, et du Laboratoire de physiologie membranaire et moléculaire du chloroplaste (CNRS/UPMC) proposent un modèle structural du processus photosynthétique chez le phytoplancton, en étudiant la diatomée Phaeodactylum tricornutum. Ces résultats sont publiés le 20 Juin 2017 dans Nature communications.
La photosynthèse est un mécanisme remarquable de production d'énergie chimique à partir d'énergie lumineuse. Ce processus est possible grâce à deux petites usines photochimiques, appelées photosystèmes I et II. Mais pour que la photosynthèse puisse avoir lieu, ces deux photosystèmes ne doivent pas être en contact afin d'éviter les courts-circuits, qui diminuent la photosynthèse. Chez les plantes, ils sont séparés par des structures (image A) qui ne semblent pas exister chez le phytoplancton (image B). Comment le phytoplancton peut-il donc être responsable de la moitié de la photosynthèse sur Terre ?

En adaptant différentes approches d'imagerie cellulaire à haute résolution appliquées à la diatomée Phaeodactylum tricornutum, les chercheurs ont été en mesure de développer un modèle 3D du système photosynthétique des diatomées (image C). Ils ont ainsi observé l'existence de micro-domaines qui séparent, comme chez les plantes, les deux photosystèmes, permettant une photosynthèse encore plus efficace. L'ensemble de ces résultats explique comment les diatomées produisent chaque jour environ 20 % de l'oxygène libéré sur Terre et pourquoi elles dominent les océans depuis environ 100 millions d'années.

Les chercheurs continuent de développer ce modèle 3D de la photosynthèse chez les diatomées, qui leur permettra notamment de comprendre comment ces organismes unicellulaires s'adapteront aux conséquences des changements climatiques. 

 


            DOCUMENT       cnrs        LIEN

Prévision des séismes une technique innovante pour observer les failles sous-marines

il y a 10 mois

Paris, 8 juillet 2016
Prévision des séismes : une technique innovante pour observer les failles sous-marines

Pour surveiller un segment de la faille sismique nord-anatolienne près d'Istanbul, une équipe internationale de chercheurs, notamment du CNRS et de l'université de Bretagne occidentale, a déployé un réseau de balises au fond de la mer de Marmara. Objectif : mesurer les mouvements des fonds marins de part et d'autre de ce segment. Les données récoltées lors des six premiers mois révèlent que la faille serait bloquée au niveau de ce segment, suggérant une accumulation progressive d'énergie susceptible d'être libérée brusquement. Ce qui pourrait provoquer un séisme de forte magnitude à proximité d'Istanbul. Cette étude, issue d'une collaboration entre des chercheurs français, allemands et turcs, vient d'être publiée dans Geophysical Research Letters.
La faille nord-anatolienne, responsable de tremblements de terre destructeurs en 1999 en Turquie, est comparable à la faille de San Andreas en Californie. Elle constitue la limite des plaques tectoniques eurasiatique et anatolienne, qui se déplacent l'une par rapport à l'autre d'environ 2 cm par an. Le comportement d'un segment sous-marin de cette faille, situé à quelques dizaines de kilomètres au large d'Istanbul, en mer de Marmara, intrigue particulièrement les chercheurs, car il semble exempt de sismicité depuis le 18e siècle. Comment se comporte ce segment ? Glisse-t-il en continu, cède-t-il régulièrement, provoquant de petits séismes épisodiques de faible magnitude ou est-il bloqué, laissant présager une future rupture et donc un fort séisme ?

Observer in situ le mouvement d'une faille sous-marine sur plusieurs années est un vrai défi. Pour le relever, les chercheurs testent une méthode de télédétection sous-marine innovante, à l'aide de balises acoustiques actives, autonomes et interrogeables à distance depuis la surface de la mer. Posées sur le fond marin de part et d'autre de la faille à 800 mètres de profondeur, ces balises s'interrogent à tour de rôle par paire et mesurent le temps aller-retour d'un signal acoustique entre elles. Ces laps de temps sont ensuite convertis en distances entre les balises. C'est la variation de ces distances dans le temps qui permet de détecter un mouvement des fonds marins et la déformation du réseau de balises, de déduire les déplacements de la faille. Concrètement, un réseau de dix balises françaises et allemandes a été déployé lors d'une première campagne en mer1 en octobre 2014. Les six premiers mois de données (temps de parcours, température, pression et stabilité)2 confirment les performances de la méthode. Après calculs, les données ne révèlent aucun mouvement significatif de la faille surveillée, dans la limite de résolution du réseau. Les distances entre balises, séparées de 350 à 1700 mètres, sont mesurées avec une résolution de 1,5 à 2,5 mm. Ce segment serait donc bloqué ou quasi-bloqué, et accumulerait des contraintes susceptibles de générer un séisme. L'acquisition d'information sur plusieurs années sera cependant nécessaire pour confirmer cette observation ou caractériser un fonctionnement plus complexe de cette portion de faille.

Si, au-delà de cette démonstration, cette approche dite de « géodésie acoustique fond de mer » s'avère robuste sur le long terme (ici 3 à 5 ans sont envisagés dans la limite d'autonomie des batteries), elle pourrait être intégrée dans un observatoire sous-marin permanent en complément d'autres observations (sismologie, émission de bulles, …) pour surveiller in situ et en temps réel l'activité de cette faille en particulier, ou d'autres failles actives sous-marines dans le monde.

Ces travaux sont menés par le Laboratoire Domaines océaniques3 (LDO, CNRS/Université de Bretagne occidentale), en collaboration avec le laboratoire Littoral environnement et sociétés (CNRS/Université de La Rochelle), l'institut Geomar à Kiel (Allemagne), le Centre européen de recherche et d'enseignement de géosciences de l'environnement (CNRS/Collège de France/AMU/IRD), le Laboratoire Géosciences marines de l'Ifremer, l'Eurasian Institute of Earth Sciences de l'Université Technique d'Istanbul (Turquie) et le Kandilli Observatory and Earthquake Research Institute de l'Université Bogazici d'Istanbul. Cet article est dédié à la mémoire d'Anne Deschamps, chargée de recherche CNRS au LDO, initiatrice et responsable du projet, décédée peu après avoir conduit avec succès le déploiement de ces balises.

 

 DOCUMENT         cnrs        LIEN 

LE CLIMAT MÉCANISMES ET VARIABILITÉ

il y a 10 mois

LE CLIMAT : MÉCANISMES ET VARIABILITÉ
"Le climat peut se définir comme la distribution statistique des conditions météorologiques prévalant dans les basses couches de l'atmosphère où vivent les hommes. Celles-ci sont le résultat de mécanismes variés mettant en jeu l'énergie reçue du soleil, le rayonnement tellurique, la composition chimique de l'atmosphère, la rotation de la Terre, la topographie des continents, la dynamique des deux fluides que sont l'atmosphère et océan, le cycle de l'eau, la végétation et l'hydrologie des sols. La circulation de l'atmosphère et de l'océan détermine les climats régionaux et assure le transport de l'énergie des tropiques vers les pôles, et plus généralement, des régions excédentaires vers les régions déficitaires. Les grandes caractéristiques du climat sont associées dans les tropiques, à la circulation de Hadley-Walker qui module les saisons des pluies équatoriales et les déserts subtropicaux ; et dans les moyennes latitudes, aux contrastes thermiques qui induisent des régimes de temps dominés par d'incessantes perturbations. Enfin, le climat n'est jamais réellement en équilibre : il varie à toutes les échelles de temps sous l'effet des effets tectoniques, des fluctuations du mouvement orbital de la Terre, des variations de l'irradiation solaire, et aujourd'hui, des perturbations planétaires dues à l'activité des hommes.. "

 

Le climat

par Robert Sadourny

Qu'est-ce que le climat ?

Comme la météorologie est la science des météores, en particulier du temps qu'il fait ou qu'il va faire, la climatologie est la science du climat, c'est à dire la science des probabilités ou des statistiques sur le temps. On entend trop souvent dire qu'une fête a été gâchée (par exemple) « en raison des mauvaises conditions climatiques », alors qu'il s'agit là, bien sûr, de mauvaises conditions météorologiques : le climat ne change pas quand en quelques jours, on passe du beau temps au mauvais temps !

Quand nous parlons de climat, de quel système physique parlons-nous ? Le système climatique inclut naturellement les basses couches de l'atmosphère où nous vivons, et les couches plus élevées dont le comportement est étroitement lié à celles-ci : principalement la troposphère et dans une moindre mesure, la stratosphère. Ce système inclut aussi les océans et les couches superficielles des terres émergées, qui échangent de l'eau et de la chaleur avec l'atmosphère, et bien sûr, les glaces de terre et de mer. Mais l'étude du climat ne se réduit pas à celle d'un système physique. Le climat interagit très fortement avec la chimie de l'atmosphère et de l'océan, et aussi avec la biosphère, c'est à dire l'ensemble des êtres vivants.

Étudier le climat, c'est non seulement observer continûment, sur l'ensemble du globe et durant de longues périodes, le comportement de l'atmosphère, de l'océan, des glaces et des terres émergées, mais aussi modéliser l'ensemble des mécanismes du système pour simuler son évolution. C'est en comparant le climat simulé au climat observé que nous mesurons notre niveau de compréhension des mécanismes, et donc nos capacités à prédire les évolutions futures. La climatologie s'est développée très rapidement à l'ère des satellites et des calculateurs. Les sondeurs spatiaux placés à bord de satellites à défilement, à orbite quasi-polaire, comme la série météorologique opérationnelle américaine Nimbus, permettent de suivre l'évolution des profils verticaux de la température et de l'humidité sur l'ensemble du globe. Les radiomètres à bande large, comme ERBI, ScaRaB ou CERES nous permettent de suivre les variations spatio-temporelles du bilan d'énergie de la planète. Les satellites géostationnaires comme Météosat observent en permanence les tropiques et les latitudes moyennes de leur position équatoriale à 36 000 km d'altitude. L'altimètre de TOPEX-Poséidon mesure, avec une précision de quelques centimètres, l'altitude du niveau de la mer, qui nous renseigne sur la dynamique des courants.

Quant aux modèles de climat, ce sont bien sûr des modèles pronostiques, qui décrivent une évolution dans le temps à partir d'une situation initiale donnée, comme les modèles de prévision météorologique. Mais ils doivent inclure, en plus de l'atmosphère, des océans et des glaces de mer interactifs, ainsi que les couverts végétaux et l'hydrologie des terres émergées. Ces modèles simulent en particulier le cycle de l'eau dans son ensemble, la formation des divers types de nuages, la formation de glaces de mer ; ils commencent aujourd'hui à inclure une végétation interactive et certains cycles chimiques comme le cycle du carbone et celui de l'ozone stratosphérique. Le coût de calcul est tel que, dans la pratique, la durée d'une simulation dépasse rarement le siècle ; pour des simulations plus longues, il faut user de modèles simplifiés. Le résultat d'une simulation est une évolution, c'est à dire une succession d'états instantanés du système ; l'interprétation climatologique de cette simulation repose ensuite sur l'analyse statistique de cet succession d'états. C'est d'ailleurs bien parce que le climat est un problème statistique que nous pouvons prolonger nos simulations bien au delà de la limite de prévisibilité de l'atmosphère (une douzaine de jours au plus) : on ne s'intéresse plus, comme dans la prévision du temps, aux perturbations individuelles, mais à leurs probabilités d'occurrence. Ces statistiques sont basées, soit sur des moyennes temporelles, soit sur des ensembles de simulations indépendantes. Ces dernières sont relativement faciles à construire. Il suffit par exemple de perturber très légèrement les états initiaux : à cause des instabilités du système, deux solutions initialement très proches deviennent totalement décorrélées dès qu'on atteint la limite de prévisibilité.

Énergie et climat

Le climat est d'abord une affaire d'énergie. L'apport d'énergie vient presque exclusivement du soleil ; il se répartit dans l'espace et dans le temps en fonction du mouvement orbital de la Terre, de la rotation de celle-ci sur elle-même, et des variations dans le temps de la puissance solaire. La façon dont cette énergie solaire incidente traverse l'atmosphère, pénètre à la surface, se transforme en d'autres types d'énergie comme l'énergie latente ou l'énergie potentielle, puis est réémise vers l'espace à travers l'atmosphère sous forme d'énergie infrarouge, dépend de la composition physico-chimique de l'atmosphère, du cycle de l'eau, des propriétés optiques de l'océan, de l'état des surfaces émergées et de leur couvert végétal, et enfin du transport d'énergie d'un endroit à l'autre de la planète par les mouvements de l'atmosphère et de l'océan. L'ensemble du système peut s'interpréter comme une sorte d'énorme machine thermique.

Intéressons-nous d'abord aux valeurs moyennes qui déterminent le climat terrestre. La luminosité solaire actuelle correspond à un flux incident d'énergie solaire d'environ 1368 Wm-2 ; si nous répartissons ce flux sur l'ensemble de la surface terrestre (soit quatre fois la section du cylindre intercepté par la Terre), nous obtenons une valeur moyenne de 342 Wm-2. De ce flux incident, environ 30 %, soit 102 Wm-2, est réfléchi ou rétrodiffusé vers l'espace par les nuages, les aérosols, la neige et les parties les plus réfléchissantes de la surface, notamment les déserts. Restent donc 240 Wm-2 qui sont réellement absorbés par le système : environ 65 par l'atmosphère, le reste, environ 175, servant à chauffer la surface. Le fait que presque les trois quarts de l'énergie solaire absorbée le soit au niveau de la surface entraîne naturellement que la température de l'air décroît quand on s'élève ; mais l'effet de serre accentue très fortement cette décroissance. En effet, la surface chauffée par le rayonnement solaire restitue son énergie à l'espace principalement sous forme de rayonnement infrarouge, dont une partie est absorbée et réémise vers le bas par l'écran des gaz à effet de serre (vapeur d'eau, CO2, méthane, N2O, ozone, halocarbures) ainsi que par les nuages. Cet effet de serre piège ainsi une grande quantité de chaleur dans les basses couches, dont il contribue à élever encore la température. Le rayonnement intercepté par l'effet de serre est de l'ordre de 155 Wm-2 ; cette valeur est une mesure de l'effet de serre total. Une autre mesure possible de l'effet de serre est le réchauffement qu'il entraîne pour la surface : 33°C, calculé comme la différence entre la température moyenne de la surface (288 K), et la température de la Terre vue de l'espace à travers l'atmosphère (255 K).

Les radiomètres à bandes larges comme ScaRaB (CNRS-CNES), qui mesurent le bilan radiatif depuis l'espace, nous renseignent sur les flux nets de rayonnement solaire et infrarouge irradiés par la Terre vers l'espace. Combinées avec les mesures de surface, les données de ces instruments permettent par exemple d'étudier la modulation de l'effet de serre par la température de surface, par la vapeur d'eau (le plus abondant des gaz à effet de serre) et par les nuages. D'après ScaRaB, la contribution des nuages à l'effet de serre global est d'environ 30 Wm-2, alors qu'ils augmentent la réflectivité de la planète de 48 Wm-2 : l'effet radiatif net des nuages va donc dans le sens d'un refroidissement du climat par 18 Wm-2. Bien sûr, il s'agit là d'une valeur moyenne : l'effet radiatif varie selon les types de nuages, et se répartit diversement en fonction des lieux et des saisons.

En moyenne sur le globe et dans le temps, le bilan d'énergie de la planète Terre est à peu près équilibré : la Terre irradie vers l'espace dans l'infrarouge une énergie sensiblement égale à celle qu'elle reçoit du soleil. Mais il est bien évident que cet équilibre ne peut être qu'approché, à cause des oscillations permanentes - diurnes, saisonnière et autres - du système climatique, et aussi, aujourd'hui, de la perturbation faible mais significative due à l'activité planétaire des hommes.

Le rôle de l'atmosphère et de l'océan

Par contre, en un point donné de la Terre, le bilan des échanges d'énergie avec l'espace est loin d'être équilibré. Dans les tropiques, la Terre reçoit plus d'énergie solaire qu'elle n'émet de rayonnement infrarouge ; dans les régions polaires, c'est l'inverse. Les régions d'excédent ou de déficit énergétique sont modulées par les saisons : l'hémisphère d'hiver est partout déficitaire, c'est à dire qu'en tout point, il perd de l'énergie vers l'espace. Certaines régions du globe sont même déficitaires durant toute l'année. C'est le cas des déserts subtropicaux comme le Sahara : l'air au dessus du Sahara étant particulièrement sec et sans nuage, l'effet de serre est minimal, ce qui entraîne une forte perte d'énergie infrarouge (d'où des températures nocturnes très basses) ; en outre, l'absence de végétation se traduit par une forte réflectivité de la surface, qui renvoie vers l'espace 30 à 40 % de l'énergie solaire incidente. La conjugaison de ces deux mécanismes fait de la région saharienne un puits d'énergie qui persiste tout au long de l'année.

La distribution du bilan net, ou flux net d'énergie entre la Terre et l'espace, nous renseigne sur les mouvements de l'atmosphère et de l'océan. En effet, ce sera le rôle de ces deux fluides de transporter l'excès d'énergie reçue ici ou là, vers les régions où le déficit domine. En particulier, l'océan et l'atmosphère vont transporter l'énergie de la bande tropicale vers les moyennes et les hautes latitudes, plus particulièrement du côté de l'hémisphère d'hiver. Intégrés sur un parallèle et sur l'épaisseur de l'atmosphère et de l'océan, ces flux méridiens sont de l'ordre de 5x1015 Watts. L'océan et l'atmosphère prennent une part sensiblement égale à ces transferts.

Comment l'atmosphère et l'océan peuvent-ils transporter l'énergie d'un endroit à l'autre de la planète ?

Un premier mécanisme est le mélange horizontal des masses d'air. Il est surtout efficace dans l'atmosphère, aux latitudes moyennes et pendant l'hiver, là où la température varie très rapidement avec la latitude. L'instabilité de l'écoulement atmosphérique crée des perturbations (basses pressions autour desquelles l'air tourne à peu près horizontalement dans le sens inverse des aiguilles d'une montre) qui brassent l'air chaud et souvent humide venant des subtropiques, avec l'air froid et plutôt sec venant des hautes latitudes. Cet échange se traduit par un flux de chaleur et d'énergie latente (ou vapeur d'eau) allant des subtropiques vers les hautes latitudes. Le brassage par les perturbations n'est efficace pour transporter l'énergie que parce qu'il mélange des masses d'air subtropical très énergétique, avec des masses d'air subpolaire qui le sont beaucoup moins.

Dans la bande tropicale, ce type de transport devient totalement inefficace, car les températures sont horizontalement très uniformes, et il en est de même des niveaux d'énergie. L'énergie sera transportée par des mouvements tridimensionnels, organisés en rouleaux, avec des régions d'ascendance et des régions de subsidence, le fluide allant dans les hautes couches, des régions d'ascendance vers les régions de subsidence, et dans les basses couches, des régions de subsidence vers les régions d'ascendance. Pour comprendre comment des rouleaux verticaux peuvent transporter de l'énergie suivant l'horizontale, il nous faut dire quelques mots de deux propriétés très importantes de l'atmosphère et de l'océan : il s'agit de la stratification et de la stabilité.

L'atmosphère et l'océan sont des fluides presque partout stratifiés en densité, en pression et en température : la densité, la pression et la température varient beaucoup plus vite (par plusieurs ordres de grandeur) suivant la verticale que suivant l'horizontale. L'origine de la stratification en température de l'atmosphère est, on l'a vu, le chauffage par la surface et l'effet de serre ; quant à l'océan, il est aussi chauffé par la surface et la température décroît naturellement quand on s'enfonce. Il va de soi que, partout où ces stratifications sont établies, elle sont stables, c'est-à-dire que le fluide léger est situé au dessus du fluide plus lourd ; les mouvements sont quasi-hydrostatiques. On démontre qu'une stratification est stable si l'énergie croît quand on s'élève.

Puisqu'il en est ainsi, il est clair que dans une circulation en rouleaux, la branche supérieure transporte plus d'énergie des ascendances vers les subsidences, que la branche inférieure n'en transporte des subsidences vers les ascendances. Le bilan net sera donc un transport d'énergie des ascendances vers les subsidences : les régions excédentaires en énergie seront des régions d'ascendance, et les régions déficitaires, des régions de subsidence.

Dans l'atmosphère, les régions excédentaires se trouvent principalement dans les tropiques, là où l'atmosphère reçoit un fort apport d'énergie à la surface : sur les continents, là où le soleil est au zénith, et sur l'océan, là où la surface de l'eau est particulièrement chaude. Cet apport d'énergie à la base a un effet déstabilisateur : les ascendances s'accompagnent de puissants mouvements convectifs (cumulonimbus pouvant atteindre jusqu'à 20 km de hauteur) qui transportent l'énergie vers le haut et restabilisent la stratification. Les masses d'air léger, chaud et humide qui montent dans ces tours convectives se refroidissent, leur humidité se condense et retombe en pluie : le passage du soleil au zénith sur les continents tropicaux correspond ainsi à la saison des pluies ou mousson. C'est donc un air froid et sec qui atteint les hautes couches et se dirige vers les régions déficitaires en énergie comme les déserts, où il redescend vers la surface. Ainsi, la désertification favorise le développement d'une subsidence d'air sec, qui en retour, favorise la désertification. Le contraste entre les régions convectives et humides, et les régions de subsidence où l'air est sec sont particulièrement visibles sur les images du canal vapeur d'eau de Météosat.

Dans l'océan, c'est la déperdition d'énergie à la surface, aux hautes latitudes, qui tend à violer la condition de stabilité et déclenche la convection. Celle-ci se produit surtout dans les mers de Norvège et du Labrador, et, près de l'Antarctique, dans la mer de Weddell, où l'eau lourde, froide et salée plonge et alimente la circulation abyssale.

La vapeur d'eau dans l'atmosphère, le sel dans l'océan sont tous deux des facteurs déstabilisants pour la stratification. Les seules sources de la vapeur d'eau atmosphérique (ou énergie latente) se trouvent à la surface : c'est l'évaporation sur l'océan, les surfaces d'eau ou les sols humides, ou l'évapotranspiration des couverts végétaux. De plus, la pression de vapeur saturante décroît exponentiellement quand la température s'abaisse : un air très froid ne peut absorber que très peu de vapeur d'eau. L'énergie latente est donc confinée dans les tropiques et surtout dans les basses couches de l'atmosphère, ce qui va à l'encontre de la loi de stabilité. C'est la raison pour laquelle la convection tropicale est dominée par la convection humide. Dans l'océan, l'évaporation à la surface alourdit l'eau superficielle en la chargeant en sel. Aux hautes latitudes, la formation de glace de mer est une source additionnelle de sel : le sel expulsé par la glace vient alourdir l'eau de surface, favorisant l'apparition de cheminées convectives, où se forme l'eau profonde.

Dans l'atmosphère tropicale, la circulation en rouleaux peut se schématiser en moyenne zonale sous le nom de cellule de Hadley, qui transporte l'énergie de ce que l'on appelle l'équateur météorologique, vers les subtropiques de l'hémisphère d'hiver. Au delà des subtropiques, c'est le mélange horizontal qui prend le relais pour transporter l'énergie vers les pôles. Il est intéressant de noter que lorsqu'on s'élève, si l'énergie totale et bien sûr l'énergie potentielle croissent, la chaleur sensible et l'énergie latente décroissent. Si donc les rouleaux exportent de l'énergie totale des régions d'ascendance, ils y importent en même temps de l'énergie sensible et latente, favorisant ainsi la convection et le maintien des rouleaux.

L'analogue dans l'océan des circulations en rouleaux dans l'atmosphère est la circulation tridimensionnelle dite thermohaline, parce qu'elle est gouvernée par les variations de flottaison due à la dilatation thermique et à la salinité. L'eau froide et salée qui plonge dans les mers de Norvège et du Labrador s'écoule lentement vers le sud au fond de l'Atlantique, franchit l'équateur et contourne le cap de Bonne Espérance pour rejoindre l'Océan Indien où une partie remonte à la surface ; le reste poursuit sa route vers l'est et remonte à la surface à son tour dans le Pacifique équatorial. Sous l'effet des alizés, ces eaux de surface reprennent ensuite le chemin inverse, et remontent vers le nord de l'Atlantique où elles se refroidissent, se chargent en sel, et ainsi alourdies, plongent à nouveau. Cette circulation de « tapis roulant océanique » est extrêmement lente, puisque la durée du cycle est de l'ordre de 500 ans à 1 000 ans. C'est elle qui réchauffe aujourd'hui le climat européen et en fait, à latitude égale, le plus tempéré du globe.

L'atmosphère et l'océan nous apparaissent ainsi comme les deux acteurs principaux du grand jeu climatique. Le dialogue entre ces deux acteurs joue un rôle central : les vents entraînent les eaux superficielles de l'océan ; en retour le mouvement des masses d'eau transporte de grandes quantités de chaleur qui réchauffent à leur tour l'atmosphère, modifiant ainsi le régime des vents qui vont à leur tour entraîner l'océan. Les interactions de ce type, ou rétroactions, sont monnaie courante dans le système climatique ; elles engendrent les instabilités et les oscillations naturelles qui dominent le comportement du système.

Oscillations internes

Parmi les oscillations liées aux interactions océan-atmosphère, la plus connue est le phénomène portant les noms d'El Niño (pour sa partie océanique) et d'Oscillation Australe (pour sa partie atmosphérique). Pour aborder les mécanismes d'El Niño, il faut indiquer tout d'abord que la rotation terrestre impose une domination des vents alizés (c'est-à-dire des vents d'est) dans les tropiques : c'est l'existence des alizés qui assure que la Terre solide transmet par friction sa rotation à l'atmosphère. L'entraînement des eaux superficielles du Pacifique tropical vers l'ouest par les alizés conduit à une accumulation d'eaux chaudes (plus de 30°C) dans toute la partie ouest, et à des remontées d'eaux froides au voisinage des côtes du Pérou. L'énorme quantité d'énergie ainsi emmagasinée à l'ouest se transmet à l'atmosphère, et entretient au voisinage de l'Indonésie une activité convective intense. Il en résulte, comme nous l'avons vu plus haut, une circulation en rouleau dite circulation de Walker, avec des ascendances sur les eaux chaudes de l'ouest du Pacifique et des subsidences sur les eaux froides de l'est. L'établissement de cette circulation se traduit, dans sa branche basse, par un renforcement des alizés. Nous avons là un exemple de ces rétroactions qui conduisent à des oscillations propres du système. Dans les périodes d'intensification des alizés, le Pacifique oriental est très froid, la convection sur l'Indonésie très intense. Dans les périodes d'affaiblissement des alizés, la masse d'eau chaude superficielle reflue vers l'est, la convection quitte l'Indonésie pour le centre et l'est du Pacifique. Toute la circulation en rouleaux de la bande tropicale s'en trouve modifiée : on observe des sécheresses dramatiques dans certaines régions comme l'Indonésie ou l'Australie, et des pluies diluviennes sur d'autres comme le Pérou. Le schéma le plus simple de cette oscillation est un schéma unidimensionnel, dans lequel les constantes de temps de l'oscillation sont déterminées par la propagation longitudinale d'ondes équatoriales. La réalité est naturellement plus complexe, et met en jeu l'ensemble des interactions entre les circulations tridimensionnelles de l'atmosphère et de l'océan au voisinage du Pacifique équatorial. Ces phénomènes commencent d'ailleurs à être assez bien modélisés pour que l'on aborde le stade des prévisions expérimentales.

El Niño est une oscillation interannuelle, avec une pseudo-période de l'ordre de deux à quatre ans. Il existe aussi dans les tropiques des oscillations intrasaisonnières, dont les périodes sont de l'ordre de quelques décades ; elles sont caractérisées par la propagation d'amas convectifs vers l'est, de l'ouest de l'Océan Indien vers le Pacifique équatorial. Ces oscillations sont elles aussi liées aux interactions océan-atmosphère ; elles interagissent avec la mousson asiatique et avec El Niño, ce qui leur confère une importance particulière pour l'économie et pour la société, dans des régions où la population dépasse aujourd'hui les deux milliards d'individus.

Plus proches de nous, il faut citer l'Oscillation Nord-atlantique, qui se traduit par des modulations d'intensité du contraste entre les basses pressions d'Islande et les hautes pressions des Açores. Elle concerne plus particulièrement les conditions hivernales sur l'Europe, quand ces systèmes de hautes et basses pressions sont particulièrement actifs. Un anticyclone des Açores plus intense que la normale correspond à une ligne des tempêtes atteignant l'Europe du nord : le temps y est alors plus doux et humide, tandis qu'il fait anormalement sec et froid sur l'Europe du sud. C'est l'inverse quand l'anticyclone s'affaiblit : la ligne des tempêtes atteint plutôt l'Europe du sud, y apportant davantage de précipitations.

Une autre oscillation interne, à des échelles de temps beaucoup plus longues, est la possibilité de modulation de la circulation thermohaline, donc du flux de chaleur océanique et de la formation d'eau profonde dans l'Atlantique nord. La densification des eaux du surface dans la mer de Norvège et la mer du Labrador est sensible, par exemple, à l'apport d'eau douce par les précipitations et par les fleuves, ou encore, par la fonte partielle des glaciers ou des calottes glaciaires. Un réchauffement temporaire des moyennes et hautes latitudes boréales, en activant les précipitations et la fonte des glaces, tend normalement à faire baisser la salinité de l'Atlantique nord, donc à affaiblir la circulation thermohaline, ce qui entraîne un refroidissement de l'Atlantique nord et des régions continentales qui le bordent, plus particulièrement l'Europe. Nous avons encore ici la source d'oscillations possibles, qui pourraient intervenir dans un certains nombres de changements climatiques rapides du passé, comme le début de l'épisode du Dryas Récent, brusque récession vers le froid intervenue en quelques décennies au cours de la dernière déglaciation, il y a environ 13 000 ans, ou d'autres épisodes de la dernière glaciation connues sous le nom d'oscillations de Dansgaard-Oeschger. De tels épisodes pourraient se produire de la même manière lors d'un réchauffement climatique dû aux perturbations anthropiques actuelles. La vitesse de ces variations climatiques rapides semble avoir pu atteindre dans le passé des valeurs de l'ordre de 10°C en 50 ans ; c'est là un changement climatique intense à l'échelle d'une vie d'homme.

Oscillations forcées naturelles

Le système climatique nous apparaît donc comme un oscillateur assez complexe. Cet oscillateur a ses modes d'oscillation propres, dont nous venons de donner des exemples ; mais, bien sûr, il réagit aussi aux sollicitations externes.

Nous ne citerons que pour mémoire la dérive des continents qui, à l'échelle de quelques dizaines de millions d'années, change du tout au tout les climats régionaux et modifie même le climat global, par exemple en érigeant des montagnes, ou en limitant, voire en supprimant, la possibilités de formation de calottes glaciaires. Une Terre, par exemple, où les calottes arctiques et antarctiques seraient entièrement occupées par des océans ouverts ne connaîtrait sans doute pas de glaciations, les courants océaniques apportant suffisamment d'énergie jusqu'aux pôles.

À des échelles de temps moins longues, quelques dizaines de milliers d'années, la variabilité climatique a pour source principale les variations lentes de la distribution de l'insolation, due aux irrégularités du mouvement orbital de la Terre. Le mouvement de la Terre autour du soleil est en effet perturbé par l'attraction des autres planètes du système solaire. Il est possible, par des développements en série, de reconstituer ce mouvement de façon très précise sur des périodes de temps de quelques millions d'années. Les variations correspondantes de l'insolation sont entièrement définies par les variations dans le temps de trois paramètres : l' excentricité de l'ellipse, qui module le contraste entre une saison chaude globale où la Terre est proche du soleil, et une saison froide globale où elle est éloignée du soleil ; l' obliquité de l'équateur terrestre sur l'écliptique, qui module le contraste entre l'hémisphère d'été et l'hémisphère d'hiver ; et enfin, la précession, qui définit le déphasage entre la saison chaude globale et l'hiver ou l'été de l'un ou l'autre des deux hémisphères. L'excentricité varie entre 0 (cercle parfait) et 0,07, avec une période d'environ 100 000 ans. L'obliquité varie entre 22° et 25°, avec une période de 41 000 ans. La précession est un phénomène un peu plus compliqué : la précession astronomique est le mouvement de rotation de l'axe des pôles sur le cône de précession dont la période est 26 000 ans, auquel s'ajoute le mouvement de nutation ; mais pour arriver à ce que l'on appelle la précession climatique, c'est à dire à la phase des saisons le long de l'orbite, il faut aussi tenir compte de la rotation de l'orbite elle-même : d'où deux périodes principales de 19 000 ans et 23 000 ans.

Il est aujourd'hui universellement admis que les grandes variations du climat qui ont dominé les deux derniers millions d'années sont dues à ces variations orbitales et aux variations d'insolation qui en découlent. Les phénomènes les plus marquants sont les alternances d'époques glaciaires et interglaciaires, rythmés par la lente accumulation, puis la disparition relativement rapide d'énormes calottes de glace sur l'Amérique du Nord et le nord de l'Europe. Le dernier cycle glaciaire-interglaciaire a duré environ 120 000 ans. L'accumulation de glace sur les pôles est toujours lente, car il faut beaucoup de temps à l'atmosphère pour transporter de la vapeur d'eau en quantité suffisante aux hautes latitudes où l'air est froid et peu porteur d'humidité. Le retour à l'interglaciaire par fonte ou déstabilisation des calottes est beaucoup plus rapide. Nous nous situons aujourd'hui à la fin d'une période interglaciaire qui a débuté il y a environ 10 000 ans. Le dernier maximum glaciaire, c'est à dire l'époque où le climat a été le plus froid et où les calottes glaciaires ont atteint leur extension maximale, s'est produit il y a environ 20 000 ans. À cette époque, le Canada et le nord des États-Unis étaient recouverts par plus de trois kilomètres et demi de glace, et le nord de l'Europe et de la Russie, par plus de deux kilomètres de glace ! La température moyenne du globe était de cinq à six degrés plus basse qu'aujourd'hui, et les pôles étaient plus froids d'environ dix degrés. Juste après le retour à l'interglaciaire, il y a six à dix mille ans, le climat était légèrement plus chaud qu'aujourd'hui : la précession était telle que la Terre était proche du soleil durant l'été boréal (c'est le contraire actuellement) : les étés de l'hémisphère nord étaient donc plus chauds, les moussons africaines et asiatiques étaient plus intenses et pénétraient plus au nord dans les deux continents : le sud de ce qui est aujourd'hui le désert saharien était relativement verdoyant et peuplé d'animaux et de pasteurs, comme le rappellent les fresques du Tassili.

Nous disposons sur les quatre derniers cycles glaciaires-interglaciaires, c'est à dire sur les quatre cent ou cinq cent mille dernières années, de ces véritables archives de l'évolution du climat que sont les calottes glaciaires et les sédiments marins ou lacustres, que l'on explore par carottage, stratigraphie, analyse isotopique et analyse chimique. La teneur des glaces, par exemple, en isotopes lourds de l'oxygène et de l'hydrogène nous renseigne sur l'histoire du cycle de l'eau (marquée lors de l'évaporation par des fractionnements isotopiques), donc sur les températures, les précipitations et le niveau des mers, qui, il y a 20 000 ans, à l'époque des grandes calottes glaciaires, était 120 mètres en dessous du niveau actuel (on allait à pied sec de France en Angleterre, et de l'Asie continentale jusqu'à Java et Bornéo). Les fines bulles d'air prisonnières de la glace nous permettent de retrouver la composition chimique de l'air (en particulier sa teneur en gaz à effet de serre : dioxyde de carbone et méthane) au moment où la glace s'est formée, jusqu'à il y a plusieurs centaines de milliers d'années.

Ce que nous disent ces archives et les modélisations que l'on peut faire de l'évolution du climat sur ces périodes de temps, c'est que le système climatique se comporte comme un amplificateur des impulsions orbitales, grâce aux multiples rétroactions dues par exemple au cycle de l'eau : la formation de calottes glaciaires et l'accroissement du manteau neigeux, en renvoyant davantage d'énergie solaire vers l'espace, intensifient le refroidissement ; ou encore, dues au dioxyde de carbone et au méthane : la teneur de ces gaz dépend de l'activité biologique et diminue lors des baisses d'insolation, avec pour conséquence un affaiblissement de l'effet de serre et donc un refroidissement supplémentaire.

Une autre cause naturelle, externe, de variations climatiques, est l'activité même du soleil. La « dynamo » solaire est modulée par des cycles de 22 ans ; la luminosité varie, elle, suivant des cycles de 11 ans, car elle ne dépend pas du signe du champ magnétique. Les périodes d'activité maximale du soleil se manifestent par la multiplication de taches solaires (surcompensées par des facules ou plages extrêmement brillantes). Nous disposons d'observations quantitatives de l'évolution de l'activité solaire depuis la fondation de l'Observatoire de Paris dans la deuxième moitié du XVIIe siècle (apparition, disparition, nombre de taches, variations du diamètre du soleil qui varie en raison inverse de son activité). Nous savons ainsi que la deuxième moitié du XVIIe siècle a été une période d'activité solaire particulièrement faible, allant jusqu'à une disparition totale des taches durant des périodes de plusieurs années. Aujourd'hui, des radiomètres à cavité, embarqués sur des plate-formes spatiales, mesurent ces variations avec une grande précision en s'affranchissant des perturbations dues à l'absorption par l'atmosphère. Dans un cycle de 11 ans actuel, la luminosité solaire varie d'environ un Watt m-2 (sur une valeur moyenne d'environ 1368 Watts m-2) : ces modulations sont donc très faibles et ne peuvent donner lieu à des effets climatiques importants, d'autant plus que 11 ans est une durée trop brève pour perturber l'inertie thermique de l'océan.

On sait toutefois que l'activité solaire est modulée par des cycles plus longs que le cycle de 11 ans ; le plus court est le cycle de Gleisberg (environ 80 ans). Ces cycles peuvent avoir des influences climatiques plus fortes. Néanmoins, nous ne disposons pas encore de véritables modèles tridimensionnels de la dynamo solaire et nous ne savons pas reconstruire très précisément les variations de la luminosité au cours des derniers siècles. Des modèles simplifiés ont permis d'estimer la baisse de puissance du soleil au XVIIesiècle, époque dite du minimum de Maunder, à environ 0,4 %, ce qui donne une diminution du flux solaire absorbé d'environ un Watt par mètre carré pendant au moins un demi-siècle. Cette époque semble avoir été particulièrement froide, comme en témoignent les canaux gelés des peintures hollandaises, et diverses archives climatiques (notamment la dendroclimatologie qui étudie les variations de la croissance passée des arbres et les relie aux variations de température et de pluviosité). Néanmoins, nous ne sommes pas sûrs que le refroidissement observé, qu'on a appelé assez suggestivement « petit âge glaciaire », ait été un phénomène réellement global ; il pourrait bien s'être en fait limité à l'Europe.

Perturbations anthropiques

Nous nous étendrons peu ici sur les conséquences climatiques de l'effet de serre anthropique, dû à l'injection dans l'atmosphère de produits de la combustion et d'autres activités humaines : celles-ci font l'objet d'un autre exposé dans cette même série. On notera seulement qu'il faut toujours replacer ces effets, avec leurs propres constantes de temps (de quelques décennies à plusieurs siècles) dans le cadre des variations naturelles du climat, auxquelles elles se superposent et avec lesquelles elles peuvent interagir. Par exemple, nous nous dirigeons aujourd'hui naturellement vers une nouvelle glaciation qui devrait se développer progressivement dans les 100 000 ans qui viennent. Certaines études montrent que la modification de cette évolution naturelle par le réchauffement climatique dû aux hommes pourrait perdurer sur plusieurs milliers d'années.

Revenons au présent ou à un avenir plus proche. L'effet de serre n'est pas, et de loin, la seule perturbation d'origine anthropique. Les divers types de combustion, dont les sociétés modernes font un si grand usage, injectent aussi dans l'atmosphère, à doses plus ou moins grandes, des pollutions visibles sous forme d'aérosols, petites particules en suspension dans l'air, à base de carbone suie, de carbone organique, de dioxyde de soufre, etc. Beaucoup de ces particules ont des tailles de l'ordre des longueurs d'onde du rayonnement solaire : elles interceptent une partie de ce rayonnement et l'empêchent d'atteindre la surface, soit en le renvoyant vers l'espace, soit en l'absorbant : dans une atmosphère très polluée, la couche d'aérosols peut être assez dense pour masquer complètement le soleil un jour de beau temps. À l'opposite de l'effet de serre, les aérosols tendent ainsi à refroidir la surface, et donc le climat. Le fait que certains aérosols, les aérosols soufrés, sont hygroscopiques les rend aptes à jouer en plus le rôle de noyaux de condensation : à quantité donnée de vapeur d'eau, la présence d'une grande quantité d'aérosols soufrés multiplie donc le nombre de gouttelettes ; les gouttelettes qui se forment sont plus petites, elles se forment donc en plus grandes quantités et restent en suspension plus longtemps : un même volume de gouttes d'eau offre ainsi une surface réfléchissante plus grande et plus persistante. Cet effet refroidisseur supplémentaire est ce que l'on appelle l'effet indirect des aérosols soufrés.

Contrairement aux gaz à effet de serre, les aérosols ont une durée de vie courte. Ceux dont la durée de vie est la plus longue sont les aérosols stratosphériques naturels, injectés dans la stratosphère par les grandes éruptions volcaniques tropicales comme récemment, El Chichon ou le Pinatubo : ils sédimentent lentement et leur rôle de refroidisseur n'excède pas deux ou trois ans. Les aérosols soulevés par le vent dans les déserts, et les aérosols anthropiques restent pour l'essentiel dans les basses couches et la plus grande partie (notamment les aérosols soufrés) sont lessivés rapidement par les pluies. Leur durée de vie est de l'ordre d'une semaine, leurs panaches ont une extension limitée, contrairement au CO2, par exemple, qui est très bien mélangé dans l'ensemble de l'atmosphère. Néanmoins, ces panaches peuvent affecter notablement les climats régionaux. Pendant l'hiver 1999, la campagne INDOEX a étudié le panache issu de l'Inde et de l'Asie du Sud, qui, poussé par les vents de nord-est, s'étale de décembre à mars sur tout le nord de l'Océan Indien, jusqu'à la ligne des grands systèmes convectifs située vers 5 à 10°S, où la plupart sont lessivés. Le contraste est impressionnant, entre l'atmosphère lourdement polluée au nord de cette ligne convective, et l'atmosphère très pure située au sud. INDOEX a montré que ces pollutions régionales modifiaient fortement le bilan radiatif à la surface, créant des déficits d'énergie à la surface de la mer de l'ordre d'une vingtaine de Watts par mètre carré ; ceci doit entraîner des perturbations notables de l'interaction océan-atmosphère, en particulier des déficits d'évaporation pouvant influencer les précipitations dans des endroits très éloignés. Certaines études ont montré que de même, pendant l'été, la pollution émise sur le sous-continent indien influençait négativement les précipitations de mousson, parce qu'elle limite l'excédent énergétique à la surface qui est le véritable moteur de la saison des pluies. Le problème est évidemment que la pollution, comme l'effet de serre, est directement liée au développement et à l'explosion démographique. Les effets climatiques étudiés par INDOEX ne pourront que croître très fortement dans les décennies à venir, même si des mesures anti-pollution commencent à être mises en Suvre.

Enfin, on ne peut pas parler des perturbations climatiques liées à l'activité humaine sans évoquer, au moins brièvement, l'évolution du climat du Sahel. Les années soixante-dix ont été marquées par une baisse catastrophique des précipitations dans la bande sahélienne. Cette évolution fut vraisemblablement due, en partie à des causes naturelles, en partie à des causes anthropiques.

Les causes naturelles peuvent être rapportées aux interactions océan-atmosphère. On a vu que les précipitations tropicales (la saison des pluies) étaient liées aux branches ascendantes des circulations en rouleaux. Celles-ci se développent au dessus des continents, là où l'énergie solaire reçue est maximale, et, au dessus des océans, là où la température de la mer est particulièrement élevée. On conçoit que ces deux mécanismes puissent interférer, et qu'une anomalie d'eau chaude sur l'océan, en créant de nouvelles ascendances et de nouvelles subsidences, puisse accentuer ou limiter les ascendances continentales. C'est ce qui se produit avec El Niño, qui entraîne des sécheresses sur l'Indonésie, l'Australie, le Mozambique et le Nordeste brésilien, ainsi que des moussons généralement médiocres sur l'Inde. De même, il existe de fortes corrélations entre certaines anomalies de température océanique, et les sécheresses sahéliennes. Ceci dit, la région continentale où les pluies sont les mieux corrélées aux températures de l'océan semble bien être le Nordeste brésilien, qui réagit à la fois, aux oscillations El Niño-La Niña à l'ouest, et aux oscillations nord-sud des températures de l'Atlantique tropical, à l'est. Les modèles de circulation générale de l'atmosphère simulent très bien ce genre de relations.

Mais pour en revenir au Sahel, le comportement des hommes semble aussi avoir joué son rôle. La destruction de la végétation par le surpâturage conduit à une augmentation de la réflectivité de la surface, et donc à une moindre absorption de l'énergie solaire. De là, comme nous l'avons déjà expliqué, un affaiblissement de la saison des pluies, qui renforce la tendance à la désertification : on retrouve ici encore, une de ces rétroactions qui rendent le système climatique si sensible aux perturbations externes. D'une façon beaucoup plus générale, il est clair que le développement de nos civilisations s'est toujours accompagné de déforestation intensive liée aux pratiques agricoles, à la navigation ou à la construction : dans l'antiquité, tout le pourtour de la Méditerranée ; au Moyen Âge, l'Europe ; au siècle dernier, l'Amérique du Nord ; l'Inde aussi au cours des siècles passés ; et aujourd'hui, l'ensemble des forêts équatoriales, de l'Indonésie à l'Amazonie en passant par l'Afrique. L'évolution des climats n'a certes pas été insensible à toutes ces perturbations.

 

 VIDEO     canal U       LIEN

TOUT L'UNIVERS DANS UN ATOME

il y a 10 mois

Tout lunivers dans un atome
Gerardus t Hooft

Dans cet exposé, je vais expliquer que lunivers gigantesque dans lequel nous vivons abrite un nombre incroyable de minuscules univers : les atomes. Ils présentent une structure extrêmement riche qui a permis aux physiciens dexercer leur sagacité durant tout le siècle précédent. Le sujet de cet exposé est cet univers microscopique que lon trouve à lintérieur des atomes mais il est intimement relié à lunivers macroscopique qui nous est rendu plus familier par les images des médias comme celle de la conquête spatiale.

Au début nexistait quun point, et rien dautre que ce point. Il y a plus de 13 milliards dannées, ce point explosa, marquant le début de lunivers tout entier. Depuis ce moment, lunivers est régi par les lois de la physique. Lors de ses premiers instants, il évolua extrêmement rapidement. Des choses complexes arrivèrent alors, que lon comprend difficilement.

La première lumière de lunivers, que lon observe maintenant, est apparue 380 000 ans après cette explosion. Ce nest quun milliard dannées plus tard que lunivers commence à ressembler à ce quil est aujourdhui : un univers constitué détoiles, situées à lintérieur de galaxies séloignant les unes des autres.

Deux choses remarquables caractérisent lunivers. La première, cest quil est presque vide : il existe de grands espaces désertiques entre les étoiles et les galaxies, de telle sorte quen moyenne, lunivers présente une densité de quelques atomes seulement par kilomètre cube. La deuxième, cest que tous les objets de lunivers obéissent aux lois de la physique de manière extrêmement précise. Des expériences de toutes sortes, ainsi que des calculs complexes établissent une chose qui nétait pas évidente a priori : les lois de la physique semblent partout les mêmes, peu importe la direction dans laquelle on observe lunivers. Lune de ces lois est celle de la gravitation. Cest elle qui fait que les planètes décrivent autour du soleil des ellipses presque parfaites. Elle implique également que les planètes accélèrent à proximité du soleil et décélèrent quand elles sen éloignent. Il sagit dune loi parmi dautres mais dont les effets sont clairement visibles.

Lunivers compte un nombre démesurément grand datomes et dans ces mondes minuscules que sont les atomes, on trouve des objets, les électrons, qui se déplacent selon des lois physiques ressemblant beaucoup à celles régissant le mouvement des planètes autour du soleil. Les électrons tournent autour dun objet central que lon appelle le noyau atomique. Latome constitue ainsi un univers à lui tout seul, mais avec des dimensions minuscules.

La structure de latome

Dire quun atome peut être assimilé à un système planétaire serait en fait mentir. Latome est gouverné par des lois beaucoup plus complexes, celles de la mécanique quantique. Celle-ci dit quen moyenne, les électrons se déplacent selon des orbites elliptiques ; mais cela en moyenne seulement. Leur mouvement est en fait aléatoire, il semble incontrôlé. Autour dun noyau, certaines régions sont dépeuplées délectrons alors que dautres en fourmillent. Ce sont les lois de la mécanique quantique qui permettent de faire la distinction entre ces régions.

Latome possède une autre caractéristique qui le rapproche de lunivers : il est quasiment vide. En effet, le noyau atomique est environ 100 000 fois plus petit que les orbites des électrons, ce qui rend latome beaucoup plus vide en réalité quun système planétaire. Cest ce noyau, dont lunité de taille est le Fermi, 10-15 m, qui est la partie la plus intéressante et la plus complexe de latome.

Il y a plusieurs décennies, les physiciens découvrirent que le noyau atomique est constitué de deux sortes dobjets : les protons et les neutrons. Les premiers sont électriquement chargés alors que les seconds sont neutres, mais hormis cette différence, ces deux objets sont similaires. Ce qui a été découvert plus récemment dans lhistoire de la physique des particules est quils sont tous les deux constitués de trois sous-unités appelées quarks. Ces derniers obéissent à des lois très particulières qui seront évoquées plus loin.

Il y a 35 ans lexistence des quarks était à peine vérifiée. On ne comprenait pas leur comportement, ni pourquoi protons et neutrons étaient constitués de trois dentre eux. Toutes les particules observées à lépoque étaient cependant regroupées en plusieurs classes, de la même façon quen biologie les espèces danimaux et de plantes sont classées en familles. Il existait une distinction entre les leptons, particules insensibles à ce qui fut appelé plus tard la force forte, et les hadrons, qui y étaient sensibles et avaient donc un comportement totalement différent. Les hadrons furent ensuite séparés entre mésons et baryons. Enfin, il existait une troisième sorte de particules, les photons, qui avec leur comportement radicalement différent des autres, constituaient une famille à eux seuls.

Les leptons, dont on connaissait deux représentants à lépoque, électrons et muons, peuvent être chargés électriquement, le plus souvent de manière négative, ou bien être neutres : on les appelle alors neutrinos. De manière générale, les particules sont caractérisées par leur charge électrique ainsi que par leur spin, propriété liée à leur rotation. Elles sont également accompagnées de leurs « contraires », si lon peut dire, leurs antiparticules. Il existe ainsi des antileptons et des antibaryons. Les mésons, eux, sont identiques à leurs antiparticules.

Beaucoup de questions émergent de cette classification : Comment peut-on expliquer le comportement de toutes ces particules ? Comment peut-on les décrire ? Enfin, comment sagencent-elles pour former les atomes ? Pour répondre à ces questions, il a été nécessaire de les étudier.

Les outils pour étudier la structure de latome

Pour étudier les atomes, il a été nécessaire de construire de très grandes machines, les accélérateurs de particules. Lun deux est situé à la frontière de la Suisse et de la France, près de Genève. Sil nétait pas situé sous terre, parfois à cent mètres de profondeur, dun avion on pourrait constater quil a la forme dun cercle de 26 km de circonférence. Il sagit dun circuit que des particules parcourent chacune dans un sens opposé pour se heurter de plein fouet. Les investigations des physiciens concernent ce qui se déroule lors de telles collisions. Cette machine appelée LEP, pour Large Electron-Positron Collider, a été démontée il y a quelques années pour être remplacée par une autre machine, le LHC, acronyme pour Large Hadron Collider. La première a intensivement étudié les leptons, comme lélectron et son antiparticule, alors que la nouvelle génération daccélérateurs étudiera les hadrons. Les physiciens doivent cependant attendre encore plusieurs années avant de recevoir les premiers résultats du LHC, prévus en 2007.

La photographie (fig.1) représente un des nombreux détecteurs de particules utilisés dans les accélérateurs. Comparés à la taille dun homme, ces objets sont particulièrement grands. Ceci est une source de questionnement pour les néophytes : pourquoi nutilise-t-on pas de petits détecteurs pour étudier des particules si minuscules ? Ny gagnerait-on pas en résolution ? Il se trouve que non. Pour bien voir de petits objets, il faut de grosses machines. Par exemple, on pourrait penser que les insectes, avec leurs petits yeux, se voient très bien. Cest tout le contraire. Nous voyons beaucoup mieux les insectes quils ne se voient eux-mêmes, car nos yeux sont beaucoup plus gros que les leurs. Cest pour cela que les insectes ont des antennes, comblant ainsi leur déficit sensoriel. Ainsi, former des images de minuscules particules nécessite dénormes appareils. Les physiciens, qui cherchent à sonder la matière le plus profondément possible, doivent par conséquent construire les machines les plus imposantes qui soient& tout en respectant un certain budget.

figure 1
Les forces dinteractions et les particules de Yang-Mills

Revenons encore trente cinq ans en arrière. A cette époque, il fallait comprendre leurs interactions pour pouvoir décrire les particules & Quelles soient déviées, crées ou annihilées, les physiciens ont réuni tous ces phénomènes dans le concept de force. Ils ont ainsi découvert que trois sortes de forces totalement différentes agissaient sur les noyaux atomiques. Lune delles est assez familière, il sagit de lélectromagnétisme. Cest la force qui est utilisée de manière prédominante dans les microphones et les télévisions. Les uns utilisent la force électromagnétique pour amplifier la voix, les autres pour créer une image sur lécran. De manière plus simple, on peut voir leffet de cette force quand un aimant se déplace à proximité dun autre aimant, ou dun objet en fer. Ou bien même quand on se coiffe par temps sec et que les cheveux sélectrisent. Il existe également deux autres forces actives dans le domaine des particules élémentaires : la force forte et la force faible. On connaissait peu de leurs propriétés il y a 35 ans, et par bien des aspects, elles restaient énigmatiques : comment affectent-elles le comportement des particules ?

Il est très difficile de répondre à cette question. On savait quelles devaient obéir à la fois à la théorie de la relativité dEinstein et aux lois de la mécanique quantique. Mais ces lois sont complexes, et il est très difficile de les réconcilier pour que les mouvements observés des particules respectent ces deux théories fondamentales. Ce nest quen 1954 quune avancée fut effectuée. Deux physiciens américains, Robert-Mills, étudiant à lépoque et Chen Ning Yang, futur prix Nobel, proposèrent ensemble une façon de décrire les particules subatomiques. Leur réflexion fut la suivante : certaines forces de la nature sont déjà connues, les forces électromagnétiques ; peut-on imaginer une nouvelle force, quelque chose de plus général que lélectricité et le magnétisme, quon pourrait décrire avec des équations similaires et qui serait cohérente avec les connaissances acquises par ailleurs en physique ? Ils trouvèrent une réponse à cette question mais ils se rendirent compte très tôt quelle était probablement erronée. Beaucoup de physiciens avaient eu des idées similaires mais les avaient rejetées car ils ne leur trouvaient aucun sens. Peut-être navaient-t-elles aucun sens mais elles étaient tellement belles quils publièrent néanmoins leurs travaux, malgré les critiques de leurs pairs, laissant aux autres le soin de sinquiéter du fait quelles naient rien de réel.

Quont-ils donc inventé qui allait devenir si important, seulement quelques décennies plus tard ? Yang et Mills imaginèrent quil existait un autre champ, ressemblant beaucoup aux champs électriques et magnétiques, mais qui en serait également différent par certains aspects : une particule évoluant dans un tel champ changerait didentité. Au passage, rappelons que lidentité est une caractéristique essentielle des particules : la modifier a dénormes conséquences sur leur comportement. Un champ électromagnétique naltère pas cette identité, mais Yang et Mills imaginèrent quune particule puisse transmuter en une autre quand elle traverserait le champ quils ont décrit. Un proton, par exemple, deviendrait neutron. Le point fondamental est que deux particules initialement identiques pourraient ainsi devenir différentes.

 

  VIDEO       CANAL  U         LIEN

La musique pour soigner la mémoire

25/05/2017

Grâce aux travaux des neurosciences, on sait aujourd'hui que l'exposition à la musique a des effets positifs sur la mémoire, notamment chez les personnes atteintes d'Alzheimer. Le point sur les dernières découvertes, à l'occasion de la 2e édition de la Semaine de la mémoire à Caen et à Bordeaux.
La musique aurait-elle ce pouvoir extraordinaire de s’enraciner profondément dans notre mémoire et de réactiver des capacités cognitives qu’on croyait perdues à jamais ? Dans les institutions qui accueillent les malades d’Alzheimer, il est fréquent de voir des patients entonner avec une vitalité inattendue La Java bleue et autres chansons apprises dans leur jeunesse, alors qu’ils ne se souviennent plus de leur prénom. Dans le même registre, les cliniciens ont depuis longtemps constaté que certaines personnes victimes d’accident vasculaire cérébral (AVC) atteintes d’aphasie (troubles de la parole) étaient capables de fredonner les paroles de leurs chansons favorites sans difficulté d’élocution ou encore que des patients atteints par la maladie de Parkinson parvenaient à se déplacer lorsqu’ils synchronisaient leur marche sur un rythme ou un tempo musical. Comment expliquer ce phénomène ?

Le son traité de manière automatique par le cerveau

« Lorsque la musique nous parvient, précise Emmanuel Bigand1, professeur de psychologie cognitive à l’université de Bourgogne et directeur du Laboratoire d’études de l’apprentissage et du développement2, notre cerveau l’interprète à une vitesse de 250 millièmes de seconde, au cours de laquelle se joue une véritable symphonie neuronale. » Concrètement, le son est d’abord traité par le système auditif, puis interviennent différentes aires cérébrales impliquées dans la mémoire, les émotions, la motricité (la musique nous donne envie de battre du pied), le langage… sans compter l’activation des circuits neuronaux de la récompense (production de la dopamine) lorsque nous écoutons une musique plaisante.

Musicothérapie et Alzheimer Le son est d’abord traité par le système auditif (en rouge sur cette IRM), puis par les aires cérébrales impliquées dans la mémoire, les émotions, la motricité (la musique nous donne envie de battre du pied), ou encore le langage.

La musique est traitée par notre cerveau de manière automatique, sur un mode involontaire, et stockée dans notre mémoire « implicite ». « Beaucoup de nos connaissances et de nos représentations musicales sont acquises par exposition naturelle, précise Emmanuel Bigand. Bien avant de naître, le bébé mémorise les œuvres musicales et est capable de les reconnaître un an après sa naissance, sans les avoir réentendues. À l’autre extrémité de la vie, même lorsque les activités linguistiques disparaissent, notamment aux stades avancés de la maladie d’Alzheimer, la musique reste accessible. Non seulement, elle redonne le goût de communiquer, de sourire et de chanter, mais elle parvient à réveiller la mémoire et les événements qui lui sont associés. »

La mémoire
musicale active les
deux hémisphères,
notamment la
région de Broca :
celle du langage.


Hervé Platel3, professeur de neuropsychologie à l’université de Caen, est l’un des premiers chercheurs, dans les années 1990, à avoir observé le cerveau exposé à la musique. Grâce à l’imagerie par résonance magnétique (IRM), il a identifié les réseaux du cerveau impliqués dans la perception et la mémoire musicale. Jusqu’alors, et de manière empirique, on considérait que le cerveau gauche était celui du langage (notamment l’aire de Broca et de Wernicke) et le droit, celui de la musique, or c’est plus compliqué que cela.

La mémoire musicale partage ainsi avec celle des mots des zones de l’hémisphère gauche qui permet notamment de nommer le nom de l’œuvre musicale, alors que l’hémisphère droit assure l’analyse perceptive (on reconnaît une mélodie). « Cette spécificité confère à la mémoire musicale, une supériorité par rapport à la mémoire verbale, détaille le chercheur. Lorsqu’un malade présente une lésion à l’hémisphère gauche (langage), les aires homologues droites ne compensent généralement pas ce déficit. En revanche, le malade pourra généralement toujours percevoir, mémoriser la musique (sans la nommer) et en retirer du plaisir. »

Une persistance étonnante chez les malades d’Alzheimer

Cette persistance de la mémoire musicale s’observe particulièrement chez les malades d’Alzheimer, y compris dans les situations d’apprentissage. Des travaux réalisés par l’équipe d’Hervé Platel, en collaboration avec le docteur Odile Letortu, médecin dans l’unité Alzheimer de la maison de retraite Les Pervenches (Calvados), ont en effet montré que des patients (cas modérés et sévères de la maladie) a priori incapables de mémoriser une nouvelle information réussissaient à apprendre des chansons nouvelles (d’une dizaine de lignes) en moins de huit semaines (huit séances d’une heure tente). Et fait encore plus étonnant : certains d’entre eux s’en souvenaient et pouvaient entonner les mélodies quatre mois après l’arrêt de l’atelier.

Ces résultats ont conduit les chercheurs caennais à répliquer l’expérience. Ils ont fait écouter à des malades de nouveaux extraits musicaux et verbaux (poèmes et livres audio) pendant huit jours (à raison d’une fois par jour). Et, une fois encore, ont constaté que « les malades éprouvaient un sentiment de familiarité avec les mélodies écoutées deux mois et demi plus tôt, détaille le chercheur. En revanche, ils ne gardaient plus aucun souvenir des poèmes et des histoires entendus, ce qui confirme l’étonnant pouvoir de la musique à s’inscrire durablement dans le cerveau ».

Musicothérapie et Alzheimer Des patients atteints de la maladie d'Alzheimer, a priori incapables de mémoriser une nouvelle information, réussissent à apprendre des chansons nouvelles.

Une étude incluant un groupe de 40 malades d’Alzheimer (stades modérés et sévères) et un groupe de 20 patients appareillés est en cours pour identifier les aires impliquées dans l’acquisition de nouvelles informations. « La question qui se pose, s’interroge Hervé Platel, qui pilote cette recherche avec la chercheuse Mathilde Groussard, est de savoir si cette capacité d’apprentissage est liée aux zones cérébrales qui fonctionnent encore ou à un circuit de mémoire alternatif qui prendrait le relais. »

La musique contre le vieillissement cérébral

Quoi qu’il en soit, la mise en évidence de ces étonnantes aptitudes musicales chez les patients atteints par la maladie d’Alzheimer a favorisé la mise en place de nouvelles méthodes de prises en charge. Certaines structures d’accueil proposent désormais des dispositifs fondés sur la familiarisation comme l’utilisation d’une mélodie chantée familière pour aider à la ritualisation de l’activité toilette, ou la mise en place de bornes de musique spécifique à chaque salle d’activité afin d’aider les patients à se repérer dans l’espace et dans le temps.

Les sujets âgés
ayant une pratique
musicale de
quelques années
ont moins
de risque de
développer une
maladie neuro-
dégénérative.


Mais pour autant, peut-on parler d’effets thérapeutiques ? De nombreux travaux indiquent que, en cas de lésions cérébrales, la sollicitation des aires cérébrales impliquées dans le traitement de la musique avait un effet positif sur les aptitudes cognitives (attention, mémoire, traitement du langage) et contribuait à favoriser la plasticité cérébrale. « La répétition de stimuli musicaux contribue à favoriser les échanges d’informations entre les deux hémisphères et à augmenter le nombre de neurones qui assure cette communication, ce qui a pour effet de modifier la structure du cerveau. Chez les musiciens, ces modifications se traduisent par des changements visibles, sur le plan anatomique par exemple : une plus forte densité du corps calleux (réseau de fibres qui relient les deux hémisphères) par rapport aux non-musiciens », note Emmanuel Bigand.

En 2010, Hervé Platel et Mathilde Groussard ont pour la première fois mis en évidence l’effet de la pratique musicale sur la mémoire. Ils ont observé chez les musiciens une plus forte concentration de neurones dans l’hippocampe, région des processus mnésiques.

« Ce résultat confirme que la pratique de la musique stimule les circuits neuronaux de la mémoire et suggère qu’elle permettrait de contrer efficacement les effets du vieillissement cérébral. Plusieurs études ont ainsi montré que les sujets âgés ayant une pratique musicale de quelques années ont moins de risque de développer une maladie neurodégénérative », souligne le chercheur.

Des bénéfices à tous les âges

De même, la musique a des effets sur les aphasies (perte de l’usage de la parole) majoritairement consécutives aux AVC. En 2008, l’équipe de Teppo Sarkamo, du Centre de recherche sur le cerveau, à Helsinki, en Finlande, mettait en évidence les effets de récupération du fonctionnement cognitif et émotionnel de l’écoute musicale chez les victimes d’AVC.

Des travaux similaires ont lieu actuellement au CHU de Dijon sur l’impact d’une stimulation musicale précoce chez les patients touchés par un AVC. « Les premières observations montrent non seulement que les patients éprouvent du plaisir à écouter des musiques qui leur rappellent des souvenirs, mais qu’ils se mettent spontanément à fredonner ces mélodies, explique Emmanuel Bigand, qui pilote cette recherche. Cette réaction pourrait faciliter la réorganisation fonctionnelle indispensable à la restauration des compétences linguistiques. »

Alors devrions-nous tous écouter de la musique en boucle, chanter ou pratiquer un instrument pour stimuler notre cerveau et l’aider à lutter contre le vieillissement ? « Cela ne fait aucun doute », répondent de concert les chercheurs. « Les bénéfices sur le fonctionnement cognitif global du cerveau peuvent être observés à tous les âges, y compris chez les personnes âgées qui débutent tardivement la musique », précise Emmanuel Bigand, qui milite pour que, au même titre que le sport, la musique soit enseignée dès le plus jeune âge.

À lire aussi sur notre site : "Dans la tête de Dory, le poisson amnésique"

La Semaine de la mémoire, du 19 au 25 septembre 2016, à Caen (link is external) et à Bordeaux et sa région (link is external)
Une semaine en compagnie de chercheurs venus du monde entier pour partager les recherches et les découvertes sur la mémoire auprès du grand public.



Notes
1. Il a coordonné l’ouvrage Le Cerveau mélomane, paru en 2014 aux éditions Belin.
2. Unité CNRS/Univ. de Bourgogne.
3. Chercheur au laboratoire Neuropsychologie et imagerie de la mémoire (Inserm/EPHE/Unicaen), à l’université de Caen. Il est coauteur avec Francis Eustache et Bernard Lechevalier de l’ouvrage Le Cerveau musicien, paru en 2010 aux éditions De Boeck.

DOCUMENT cnrs LIEN

HEIDEGGER, L’ART, LA TECHNIQUE (PAR JEAN-FRANÇOIS COURTINE)

19/05/2017

HEIDEGGER, L’ART, LA TECHNIQUE (PAR JEAN-FRANÇOIS COURTINE)


Conférence de Jean-François Courtine
Heidegger, l’art, la technique
Résumé de la première séance
(lundi 3 février 2014)

Dans cette première séance, il s’est agi de montrer en quoi la pensée de Heidegger sur l'essence de la technique était redevable  aux deux essais de Ernst Jünger sur la « totale Mobilmachung » (La Mobilisation totale 1930, traduit par Marc Buhot de Launay dans L'État universel,  TEL, Gallimard, 1990) et sur la figure du travailleur (Le Travailleur, 1932, traduit par Julien Hervier, Christian Bourgois, 1989). Ces essais témoignent de l'acuité du regard de l'écrivain allemand sur le monde moderne dominé par la technique. Jünger – alors auteur connu pour ses célèbres récits de guerre, Les orages d'acier, Le Boqueteau 125 etc. – y met en lumière certains traits de la technique moderne qu’il analyse sous l’angle de la « mobilisation du monde par la figure du Travailleur ». Cette « figure » (all. die Gestalt) du « Travailleur » (all. der Arbeiter) est à concevoir comme un nouveau type humain propre à l'époque moderne. C’est un type universel qui ne saurait être rapporté à une classe sociale au sens où l’entendait Marx (et les courants de pensée qui s’en réclament auxquels Jünger s’opposait). La figure du « Travailleur » serait plutôt, ainsi que devait le remarquer Heidegger plus tard, « une sobre dénomination de ce que Nietzsche appelle le surhomme » [GA 90, p. 257]. 
Quoi qu’il en soit, pour Jünger, le formidable bouleversement qui s’était accompli avec la Grande Guerre exigeait un nouveau regard, une nouvelle manière de voir clair dans ce qui est. Avec la guerre industrielle et totale, c’est le « caractère de puissance inhérent à la technique » qui se serait dévoilé. Jünger aborde ce phénomène de la technique moderne en en excluant « tout élément économique  ou progressiste » (Le Travailleur, p. 207). Ce processus dynamique de la « mobilisation totale » sous la figure du « Travailleur » a encore pour caractéristique d’échapper à tout contrôle et pour conséquence de  transformer le monde d'un côté en un « gigantesque chantier perpétuel » et de l'autre en « un musée » (ibid. p.253). Dans cette perspective, une mobilité sans limites (ni dans le temps, ni dans l’espace) et un incessant affairement organisationnel créent « un mode de vie [qui] ressemble […] à une course mortelle où il faut bander toutes ses énergies pour ne pas rester sur le carreau » (ibid. p.223).
Dans  un deuxième temps, on s’est efforcé de montrer en quoi la réflexion heideggérienne sur la technique se distinguait de celle de Jünger [1]. On a ainsi rappelé que, mu par la relecture/réinterprétation de l’œuvre de Nietzsche et par ses analyse du "nihilisme" comme trait de l'époque contemporaine,  Heidegger avait articulé certains aspects de la description de Jünger  à sa propre conception de l'histoire de la métaphysique entendue comme « histoire de l'être » (Seinsgeschichte). Il a alors été question plus particulièrement d’un "concept" clé de la réflexion de Heidegger, celui de la Machenschaft  – un mot qu’on rend d’ordinaire par "machination", "manœuvre", "manigance", mais qui désigne dans le contexte le "règne de l'efficience", de la "faisabilité". Le mot est formé à partir du verbe allemand machen "faire".   
La Machenschaft préfigure et annonce, dans le cheminement heideggérien, le fameux Gestell – "dispositif d'arraisonnement" ou "dispositif", autre « Grundwort » (terme fondamental) qui désigne, à partir de la fin des années 1940, « l'essence de la technique » (das Wesen der Technik). Dans cette dernière expression, il faut souligner que Wesen (essence) ne doit pas être compris de la  manière abstraite et anhistorique qui est traditionnellement associée à la notion d’essence ou d’essentia. Au contraire, dans l’usage qu’en fait Heidegger, Wesen doit être entendu comme ce qui porte, de manière sous-jacente et immédiatement inapparente, le déploiement du phénomène auquel il est associé (ici la technique) et ce dans une temporalité spécifique, en l’occurrence celle de l'être, temporalité qui diffère de la conscience historique que les hommes en ont. 
Cette analyse de la Machenschaft a été esquissée en fin de séance à partir de la lecture du début du § 61 des Beiträge zur Philosophie (traduit en français récemment sous le titre: Apports à la Philosophie, cf. texte 1 de l'exemplier distribué). L'accent a été mis sur un paradoxe tout à fait surprenant : ce qui étend son règne sans partage aujourd'hui, à savoir le déferlement planétaire de la toute puissance de la technique (et les types de rapports au monde et à ce qui est qui en est induit), aurait son noyau germinatif dans une « décision » [2] de la philosophie grecque, décision qui se lit dans les œuvres de Platon et d’Aristote [3] réinterprétées en la circonstance (non sans une certaine violence herméneutique) par Heidegger. Cette « décision » aurait tenu dans le fait de penser la « nature » (en grec, la phusis, φύσις) à l'horizon de la technè (« le « savoir faire », « l’art » gr. τέχνη) comme « fabriquer », comme « faire humain ». Ce moment  originaire de la Machenschaft aurait constitué le premier temps d’une Entmachtung de la phusis (comprendre « d’une "dépotentialisation" », « de l'évidement du pouvoir de la nature », de son « émasculation », pourrait-on presque dire en forçant le trait). Cette Entmachtung de la nature ne se peut comprendre que relativement à la conception de la phusis qui, selon Heidegger, prédominait chez les premiers penseurs grecs avant donc Platon et Aristote. Chez ces penseurs qualifiés significativement par Aristote de « physiologues », (oi phusiologoi = « ceux qui parlent de et à partir de la nature »), dominait la représentation d’une phusis sur-puissante  (übermächtig) à ce point que toute pensée (noein, νοεῖν) et toute parole (logos, λόγος) étaient éprouvées comme appartenant au déploiement essentiel de la phusis (exemplier, texte n°3).

En contrepoint, on peut aussi se faire une idée de la « surpuissance » de la nature en prenant la mesure de la violence et du pouvoir propres de la technè qui y répond en relisant avec les lunettes de Heidegger (et de Hölderlin – cf. GA 40, p.168, texte 5 de l'exemplier, v. aussi le cours sur « L’Ister » GA 53, été 1942)  le premier Stasimon (« chant » qu’exécutait le chœur dans la Tragédie antique) de l’Antigone de Sophocle. Heidegger commente en effet « τὸ μηχανόεν τέχνας [...] ἔων » des v. 364-365 en s’appuyant sur ce terme de Machenschaft qu’il comprend en un sens « non péjoratif » comme ce « qui s’annonce à nous dans le mot grec τέχνη », lequel est un « savoir [Wissen] » qui « consiste à pouvoir “mettre-en-œuvre” l’être au titre d'un étant à chaque fois tel et tel ». À ce stade, la puissance ou le pouvoir violent de la τέχνη ne dégénère pas encore en puissance sans mesure, en violence déchainée ou en sauvagerie barbare.  C’est en ce point que se noue le lien entre la réflexion sur la Machenschaft et la τέχνη  d’un côté et la pensée  heideggérienne de l'œuvre d'art de l’autre.Ce serait donc dans ce premier pas encore imperceptible, dans ce  “premier commencement” que, de manière “destinale”, se serait  amorcé ce qui ne se réalisera pleinement que bien plus tard comme accomplissement de la métaphysique : le règne de l’essence de la technique moderne. Cet empire de la Machenschaft, devenu celui du Gestell, s’atteste notamment dans le fait que, pour l'homme contemporain, il n'y a plus d'objets, autrement dit plus de choses qui lui font face (en allemand, Gegenstände). L’homme arraisonné par le Dispositif a affaire désormais à des choses qu’il a toujours déjà prises en vue comme fonds ou  stock disponible  (en allemand, Bestände) : « Ce qui se tient au sens du fonds disponible [Bestand]  ne se tient plus en nous faisant face comme objet [Gegenstand] [GA 7, 17- Essais et conférences,  « La question de la technique », p. 23]. La sur-puissance initiale de la nature, vidée de sa puissance propre (l’Entmachtung) est, au terme du processus, supplantée par la “puissance de sommation” du Gestell. Cette puissance n’est pas le fait de quelques uns (les « chefs » ou tous ceux qui croient pouvoir en contrôler le déchaînement). Le danger qui menace essentiellement l’homme est qu'il n’atteigne pas son propre  (ni dans son agir, ni dans sa parole, ni dans rapport aux choses) et soit exproprié de son être.

 

 VIDEO       CANAL  U         LIEN

Projection du son la supériorité des Stradivarius remise en question

12/05/2017


Paris, 8 mai 2017
Projection du son : la supériorité des Stradivarius remise en question

Des chercheurs de l'Institut Jean Le Rond d'Alembert (CNRS/UPMC) ont montré que les violons récents ont une meilleure projection du son1 que les violons fabriqués par le célèbre luthier Antonio Stradivarius. Cette étude, publiée dans la revue PNAS le 8 mai 2017, révèle également qu'en dépit du prestige de ces anciens violons italiens, les auditeurs préfèrent le son produit par les instruments récents et ne peuvent différencier les deux catégories de violons.
La projection du son est la capacité d'un instrument à remplir l'espace lors d'un concert, à porter jusqu'au fond d'une salle ou à passer au-dessus d'un orchestre. Elle est particulièrement  importante par les solistes. La projection des violons italiens des XVIIe et XVIIIe siècles, et notamment celle des Stradivarius, est souvent considérée comme supérieure à celle des violons plus récents. L'équipe de recherche dont fait partie Claudia Fritz, chercheuse CNRS à l'Institut Jean Le Rond d'Alembert (CNRS/UPMC)2, en collaboration avec le luthier américain Joseph Curtin, a donc voulu vérifier cette supériorité présumée lors de deux expériences ayant fait appel à 137 auditeurs : 55 dans un auditorium à Paris, 82 dans une salle de concert newyorkaise. Les auditeurs devaient juger neuf paires de violons - constituées d'un violon ancien et d'un violon récent3 – suivant deux critères : la préférence personnelle et la projection sonore. Afin de ne pas influencer les jugements, les expériences ont été menées en double aveugle, en dissimulant la nature de chaque instrument aux violonistes et au public.

Les résultats de l'étude montrent qu'en moyenne, les auditeurs préfèrent les violons récents aux Stradivarius et trouvent qu'ils projettent davantage. De plus, à l'instar des violonistes, l'auditoire ne parvient pas à distinguer systématiquement les deux types de violons. Deux études menées en aveugle par la même équipe, en 2010 et en 2012, avaient en effet montré que les violonistes préféraient les instruments récents aux célèbres violons italiens, en étant toutefois incapables de les différencier.

Cette étude révèle que, contrairement aux idées reçues, les solistes auraient intérêt à privilégier les violons récents pour leurs concours, leurs auditions et leurs concerts, à condition que la provenance de leur instrument reste inconnue du jury et des auditeurs. Par ailleurs, inciter les violonistes à effectuer des tests en aveugle leur permettrait de porter leur choix sur un instrument sans être influencés par le prestige associé à un célèbre nom de luthier.

 

  DOCUMENT       cnrs        LIEN

Nous sommes plus que notre ADN découverte d'un nouveau mécanisme d'hérédité épigénétique

05/05/2017

Paris, 24 avril 2017
 

Nous sommes plus que notre ADN : découverte d'un nouveau mécanisme d'hérédité épigénétique

 

L'équipe de Giacomo Cavalli, à l'Institut de génétique humaine de Montpellier (Université de Montpellier/CNRS), en collaboration avec l'Inra1, démontre chez la drosophile l'existence d'une hérédité épigénétique2 transgénérationnelle. En modifiant de façon transitoire la fonction des protéines du groupe Polycomb, dont l'activité est essentielle au cours du développement, ils ont obtenu des lignées de drosophile porteuses de la même séquence d'ADN mais caractérisées par des yeux de couleurs différentes. Ces différences dépendent d'un degré variable de répression par les protéines Polycomb qui est hérité de façon stable mais réversible. Cette hérédité épigénétique s'applique aussi bien à des lignées transgéniques qu'à des lignées naturelles et peut être modifiée par des changements de conditions environnementales, comme la température ambiante. Ces résultats sont publiés dans la revue Nature Genetics, le 24 avril 2017.
Elles ont toutes le même ADN mais des caractères bien différents : des chercheurs ont obtenu des lignées de drosophiles aux yeux blancs, jaunes ou rouges, en perturbant de façon transitoire des interactions entre des gènes cibles des protéines Polycomb, des complexes protéiques impliqués dans la répression de nombreux gènes, notamment des gènes de développement. 

Les informations nécessaires au fonctionnement des cellules ne sont pas toutes portées par le matériel génétique. D'autres paramètres, transmis de façon héréditaire mais non codés par les gènes d'un individu, pilotent la vie des cellules. Ces facteurs dits épigénétiques sont un étiquetage chimique et une organisation spatiale bien définie de notre génome. Ils correspondent en particulier aux modifications des histones, les protéines autour desquelles l'ADN s'enroule. Les protéines du groupe Polycomb, elles, sont impliquées dans la définition de l'architecture tridimensionnelle des chromosomes, qu'elles régulent en établissant des interactions entre gènes dans l'espace 3D du noyau cellulaire. Or, selon la position d'un gène à un moment donné, son expression sera activée ou réprimée.

En perturbant de façon transitoire ces interactions, les chercheurs ont pu établir des lignées de drosophiles caractérisées par des niveaux différentiels de répression ou d'activation génique dépendant des Polycomb. Les chercheurs ont séquencé le génome entier de chaque lignée de drosophiles, afin de vérifier que leur ADN soit bien identique. Malgré l'identité de leurs séquences d'ADN, ces lignées peuvent être maintenues indéfiniment et transmettent fidèlement leurs différences phénotypiques une fois établies. Ce phénomène peut être réversible : en croisant ces individus aux gènes surexprimés ou sous exprimés avec des drosophiles n'ayant pas de modifications, il est possible d'induire un retour à la normal de la couleur des yeux sans changer la séquence d'ADN, ce qui démontre le caractère épigénétique de cette forme d'héritage.
 
Les chercheurs ont ensuite pu montrer que la modification des conditions environnementales, notamment la température ambiante3, peut affecter l'expression de l'information épigénétique sur plusieurs générations, sans pour autant effacer sa transmission. Cette influence transitoire de l'environnement dans lequel ont vécu les générations précédentes sur l'expression des traits des insectes confère à ce mécanisme épigénétique des propriétés évolutives uniques. La pertinence du phénomène dans la nature a de plus été confirmée par des études en microcosme menées en collaboration avec l'Inra.

L'équipe de Giacomo Cavalli démontre ainsi l'existence d'un héritage épigénétique transgénérationnel stable, dépendant de la structure tridimensionnelle des chromosomes et régulé par les facteurs Polycomb. Ces résultats ouvrent de nouvelles perspectives pour les sciences biomédicales. Ils suggèrent notamment que l'épigénétique pourrait expliquer en partie le mystère de « l'hérédité manquante », c'est-à-dire l'incapacité de trouver les causes génétiques de certains caractères héréditaires normaux ainsi que de nombreuses pathologies humaines.

 

 DOCUMENT       cnrs        LIEN

Imiter les virus pour livrer des médicaments au coeur des cellules

28/04/2017


Paris, 27 août 2015
Imiter les virus pour livrer des médicaments au coeur des cellules

Les virus ont une aptitude à détourner le fonctionnement des cellules pour les infecter. En s'inspirant de leur mode d'action, des chercheurs du CNRS et de l'Université de Strasbourg ont conçu un « virus chimique » capable de franchir la double couche de lipides qui délimite les cellules, puis de se désagréger dans le milieu intracellulaire afin d'y libérer des molécules actives. Pour cela, ils ont utilisé deux polymères de leur conception, qui ont notamment des capacités d'auto-assemblage ou de dissociation selon les conditions. Ces travaux, fruit d'une collaboration entre chimistes, biologistes et biophysiciens, sont publiés dans l'édition du 1er septembre de la revue Angewandte Chemie International Edition.
Les progrès biotechnologiques donnent accès à un trésor de molécules ayant un potentiel thérapeutique. Beaucoup de ces molécules sont actives uniquement à l'intérieur des cellules humaines et restent inutilisables car la membrane lipidique qui délimite les cellules est une barrière qu'elles ne peuvent pas franchir. L'enjeu est donc de trouver des solutions de transfert aptes à traverser cette barrière. 

En imitant la capacité des virus à pénétrer dans les cellules, des chimistes du Laboratoire de conception et application de molécules bioactives (CNRS/Université de Strasbourg) cherchent à concevoir des particules à même de libérer des macromolécules actives uniquement au sein des cellules. Pour cela, ces particules doivent obéir à plusieurs contraintes souvent contradictoires. Elles doivent être stables dans le milieu extracellulaire, capables de se lier aux cellules afin d'être internalisées mais être plus fragiles à l'intérieur des cellules pour libérer leur contenu. Avec deux polymères de leur conception, les chercheurs ont réussi à construire un "virus chimique" remplissant les conditions nécessaires pour transférer directement des protéines actives dans la cellule.

Concrètement, le premier polymère (pGi-Ni2+) sert de support aux protéines, qui s'y fixent. Le second polymère (πPEI), récemment breveté, encapsule cet ensemble grâce à ses charges positives qui se lient aux charges négatives du pGi-Ni2+. Les particules obtenues (30-40 nanomètres de diamètre) sont capables de reconnaitre la membrane entourant les cellules et de s'y lier. Cette liaison active une réponse cellulaire : la nanoparticule est enveloppée par un fragment de membrane et entre dans un compartiment intracellulaire appelé endosome. Alors qu'ils étaient stables à l'extérieur de la cellule, les assemblages sont ébranlés par l'acidité qui règne dans ce nouvel environnement. Par ailleurs, cette baisse de pH permet au polymère πPEI de faire éclater l'endosome, ce qui libère son contenu en molécules actives. 

Grâce à cet assemblage, les chercheurs ont pu concentrer suffisamment de protéines actives à l'intérieur des cellules pour obtenir un effet biologique notable. Ainsi, en transférant une protéine appelée caspase 3 dans des lignées de cellules cancéreuses, ils ont réussi à induire 80 % de mort cellulaire1. 

Les résultats in vitro sont encourageants, d'autant que ce "virus chimique" ne devient toxique qu'à une dose dix fois supérieure à celle utilisée dans cette étude. Par ailleurs, des résultats préliminaires chez la souris ne font pas état de surmortalité. L'élimination par l'organisme des deux polymères reste cependant une question ouverte. La prochaine étape consistera à tester ce système de manière approfondie in vivo, chez l'animal. A court terme, ce système servira d'outil de recherche pour vectoriser2 dans les cellules des protéines recombinantes et/ou chimiquement modifiées. A long terme, ce travail pourrait ouvrir le champ d'application des protéines pharmaceutiques à des cibles intracellulaires et contribuer à la mise au point de médicaments novateurs. 

Ces travaux ont été rendus possibles par la collaboration de biophysiciens et de biologistes. Les compétences en cryomicroscopie électronique de l'Institut de génétique et de biologie moléculaire et cellulaire (CNRS/Université de Strasbourg/Inserm) et l'expertise en microscopie à force atomique du Laboratoire de biophotonique et pharmacologie (CNRS/Université de Strasbourg) ont permis de caractériser les assemblages moléculaires de manière très précise. Le laboratoire Biotechnologie et signalisation cellulaire (CNRS/Université de Strasbourg) a quant à lui fourni les protéines recombinantes encapsulées dans le virus artificiel.

 

 DOCUMENT         CNRS         LIEN

L'observation de l'anxiété, pour la première fois chez un invertébré, ouvre une nouvelle voie d'étude

22/04/2017

Paris, 13 Juin 2014
L'observation de l'anxiété, pour la première fois chez un invertébré, ouvre une nouvelle voie d'étude

Pour la première fois, des chercheurs du CNRS et de l'université de Bordeaux viennent de produire et d'observer un comportement d'anxiété chez l'écrevisse, qui disparaît lorsqu'on lui injecte une dose d'anxiolytiques. Ces travaux, publiés dans Science le 13 juin 2014, montrent que les mécanismes neuronaux liés à l'anxiété se sont conservés tout au long de l'évolution. L'analyse de ce comportement ancestral chez un modèle animal simple révèle, en outre, une nouvelle voie pour l'étude des bases neuronales de cette émotion.
L'anxiété peut être définie comme une réponse comportementale au stress consistant en une appréhension durable des événements à venir. Elle prépare les individus à détecter les menaces et à les anticiper de façon adaptée. Elle favorise donc leur survie. Cependant, lorsque le stress est chronique, l'anxiété devient pathologique et peut conduire à un état dépressif. 

Jusqu'à présent l'anxiété non pathologique n'avait été décrite que chez l'homme et quelques vertébrés. Pour la première fois, elle est observée chez un invertébré. Pour y parvenir, les chercheurs de l'Institut de neurosciences cognitives et intégratives d'Aquitaine (CNRS/université de Bordeaux) et de l'Institut des maladies neurodégénératives (CNRS/ université de Bordeaux) ont d'abord exposé les écrevisses à un champ électrique de façon répétée durant trente minutes. Ensuite, ils ont placé les écrevisses dans un labyrinthe aquatique en forme de croix. Deux des bras étaient éclairés, ce qui naturellement rebute les écrevisses, et deux étaient dans l'obscurité, ce qui, au contraire, les rassure. 

Les chercheurs ont alors analysé le comportement exploratoire des écrevisses. Les écrevisses rendues anxieuses ont eu tendance à rester dans les parties sombres du labyrinthe, contrairement aux écrevisses témoin, qui ont exploré l'ensemble du labyrinthe. Ce comportement est une réponse adaptative au stress subi : l'animal cherche à minimiser les risques de rencontrer un agresseur. Cet état émotionnel s'est estompé au bout d'une heure environ. 

L'anxiété des écrevisses est corrélée à un accroissement de la concentration de sérotonine dans leur cerveau. Ce neurotransmetteur est impliqué dans de nombreuses régulations physiologiques tant chez les invertébrés que chez l'homme. Elle est libérée dans des contextes de stress et régule plusieurs réponses liées à l'anxiété, comme l'augmentation des taux de glucose dans le sang. Les chercheurs ont aussi montré qu'en injectant un anxiolytique d'usage courant chez l'humain (benzodiazépine), le comportement d'évitement de l'écrevisse est aboli. Ceci montre à quel point les mécanismes neuronaux permettant d'établir ou d'inhiber le comportement anxieux sont apparus tôt dans l'évolution et se sont bien conservés au cours du temps. 

Ces travaux offrent aux chercheurs qui étudient le stress  et  l'anxiété, un modèle animal unique. Dotée d'un système nerveux simple dont les neurones sont faciles à enregistrer, l'écrevisse pourrait permettre de mieux comprendre les mécanismes neuronaux en œuvre dans un contexte stressant, ainsi que le rôle de neurotransmetteurs tels que la sérotonine ou le GABA. A présent, l'équipe veut étudier l'anxiété chez l'écrevisse soumise à un stress social et analyser les changements neuronaux qui s'opèrent lorsque l'anxiété se prolonge sur plusieurs jours. 

 

 DOCUMENT         cnrs        LIEN  

LASER

16/04/2017

Des nanofibres pour une conversion efficace de la longueur d’onde d’un laser
18 juillet 2013
Laser , fibre optique , LCF - UMR 8501 , nanofibre , diffusion Raman , non linéaire

Des physiciens viennent de démontrer la conversion de longueur d’onde d’un faisceau vert en un faisceau rouge par diffusion Raman stimulée avec une efficacité de 50% en le faisant traverser une nanofibre de silice baignant dans de l’éthanol.


 
Les processus d’optique non linéaire mis en œuvre pour convertir la longueur d’onde d’un faisceau lumineux requièrent de faire traverser des matériaux spécifiques par un faisceau intense. En concentrant la lumière dans leur cœur sur de grandes distances, les fibres optiques sont potentiellement très bien adaptées à ces processus, mais de nombreux matériaux utilisés pour l’optique non linéaire ne peuvent pas constituer de fibre. Des physiciens du laboratoire Charles Fabry (CNRS/IOGS) et de l’Université de Hangzhou (Chine) viennent de montrer que l’on peut contourner cette difficulté en plaçant le matériau non linéaire autour d’une fibre optique de diamètre nanométrique. Le faisceau lumineux canalisé par cette fibre se trouve en fait essentiellement hors du cœur de silice et interagit donc efficacement avec le milieu non linéaire qui l’entoure. Un rendement de près de 50% a ainsi été obtenu pour la conversion Raman d’un faisceau laser vert traversant de l’éthanol, sur une distance 10 fois plus faible qu’avec une fibre creuse contenant l’éthanol en son cœur. Ce travail est publié dans le Journal of the European Optical Society Rapid Publication.

Les physiciens ont développé une « plateforme d’étirage de fibres » pour étirer les fibres optiques de silice de même type que celles employées dans les réseaux de communication. Cet étirement de la fibre s’accompagne d’un affinement, le diamètre est réduit d’un facteur supérieur à 100, passant des 125 µm de la fibre d’origine à quelques centaines de nanomètres, cela sur une longueur pouvant atteindre 10 centimètres. La nanofibre obtenue se trouve entre deux sections de fibres standard de 125 µm d’un maniement particulièrement aisé pour injecter et récupérer la lumière. Le passage de la fibre standard à la nanofibre s’effectue sans perte et s’accompagne d’un très fort accroissement de l’intensité lumineuse lié à la réduction du diamètre. Bien que le diamètre de la nanofibre soit considérablement plus faible que la longueur d’onde de la lumière, le guidage persiste, mais une partie significative de l’énergie optique se propage hors de la silice et donc dans le milieu qui baigne cette dernière. Après une première expérience utilisant l’éthanol comme milieu non linéaire, les physiciens ont utilisé du toluène dilué dans de l’éthanol. Ils ont alors observé une cascade Raman : le faisceau initial à 532 nm excite le premier ordre Stokes du toluène à 562 nm qui excite à son tour le second ordre Stokes du toluène à 596 nm. Ces premières démonstrations ouvrent la voie à un vaste éventail de nouvelles expériences en optique non linéaire.

 

 DOCUMENT         cnrs        LIEN 

Invasion des insectes l'économie mondiale affectée

08/04/2017

Paris, 4 octobre 2016
Invasion des insectes : l'économie mondiale affectée

69 milliards d'euros, c'est le coût minimal annuel des dégâts provoqués par les insectes envahissants dans le monde, estime une équipe internationale de chercheurs menée par Franck Courchamp, directeur de recherche CNRS au laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech) et impliquant notamment les entomologistes de l'IRD à Montpellier et un économiste CNRS. Depuis les dégâts sur les biens et services jusqu'aux coûts en santé, en passant par les pertes en agriculture, cette étude, réalisée avec le soutien de l'ANR et de la Fondation BNP Paribas, rassemble la plus importante base de données jamais élaborée des dégâts économiques imputables aux insectes envahissants dans le monde : 737 articles, livres et rapports ont été considérés. Ces travaux sont publiés dans Nature Communications le 4 octobre 2016.
Pourquoi étudier les insectes ? Depuis des milliers d'années, les insectes ont été responsables de la propagation de maladies chez l'Homme et le bétail, et de dégâts considérables, depuis l'anéantissement des cultures et réserves, en passant par la destruction des infrastructures, jusqu'à la dévastation des forêts, altérant ainsi les écosystèmes et les rendant plus fragiles. Dans le règne vivant, la seule classe des insectes (environ 2,5 millions d'espèces) est probablement le groupe le plus coûteux. De plus, ils font partie des espèces envahissantes les plus virulentes : 87 % des 2 500 invertébrés terrestres ayant colonisé de nouveaux territoires sont des insectes.

Des dégâts sous-évalués

Les scientifiques ont estimé à 69 milliards d'euros par an le coût minimal des dégâts causés par les insectes envahissants dans le monde. Parmi les d'insectes étudiés, le termite de Formose1 (Coptotermes formosanus) serait l'un des plus destructeurs : plus de 26,7 milliards d'euros par an dans le monde. Mais cette estimation provient d'une étude trop peu documentée, selon l'équipe de recherche. Des études plus renseignées (estimées reproductibles par les scientifiques) placent également « en haut du classement » la teigne des choux2 (Plutella xylostella), avec un coût de 4,1 milliards d'euros par an et le longicorne brun de l'épinette3 (Tetropium fuscum), avec un coût de 4 milliards d'euros par an rien qu'au Canada.

Par ailleurs, d'après cette étude, l'Amérique du Nord présente les plus importantes pertes financières avec 24,5 milliards d'euros par an, tandis que l'Europe n'est pour l'instant qu'à 3,2 milliards d'euros par an. Mais cette différence s'explique par un manque de sources d'évaluation et non par une réelle différence d'exposition au danger. Ainsi, selon les chercheurs, le coût annuel total estimé de 69 milliards d'euros est largement sous-évalué. De nombreuses régions du monde n'offrent pas assez de données économiques pour produire une estimation précise, qui a donc été minimisée. De plus, l'équipe de chercheurs s'est concentrée sur l'étude des dix espèces invasives les plus coûteuses, sans comptabiliser celles, très nombreuses, qui provoquent moins de dégâts. Enfin, si l'on considère les valeurs estimées pour les services écosystémiques à l'échelle globale (plusieurs centaines de milliards de dollars pour la seule pollinisation des cultures), les perturbations causées par les insectes envahissants pourraient atteindre un niveau bien au-delà de l'estimation actuelle. 

La santé et l'agriculture sont les plus touchées

Les insectes dans leur ensemble pèsent particulièrement sur l'agriculture en consommant 40 % des biens de consommation (l'équivalent de ce qui pourrait nourrir un milliard d'êtres humains).

Sur la santé, le coût global attribuable aux insectes envahissants dépasse 6,1 milliards d'euros par an (sans prendre en compte le paludisme, le virus Zika, ou encore l'impact économique provoqué sur certains facteurs comme le tourisme, la productivité, etc). D'un point de vue géographique, les régions du monde où les dépenses médicales liées aux dégâts causés par les insectes envahissants s'avèrent les plus importantes, sont respectivement l'Asie (2,55 milliards d'euros par an), l'Amérique du Nord (1,85 milliards d'euros par an) et l'ensemble de l'Amérique centrale et du Sud (1,66 milliards d'euros par an). Et, parmi les maladies les plus lourdes financièrement, on trouve au premier plan la dengue, dont les dépenses représentent 84 % des 6,1 milliards d'euros.

Une plus grande vigilance et la mise en place de procédures de réponse à une invasion biologique permettraient de faire économiser à la société des dizaines de milliards d'euros, selon les auteurs. Ces mesures de prévention pourraient diviser au moins par dix les coûts des maladies provoquées par les moustiques.

Laboratoires français impliqués :

laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech)
Laboratoire montpelliérain d'économie théorique et appliquée (CNRS/ Université de Montpellier/Inra)
laboratoire Maladies infectieuses et vecteurs : écologie, génétique, évolution et contrôle (CNRS/IRD/Université de Montpellier)
laboratoire Biologie des organismes et écosystèmes aquatiques (CNRS/MNHN/IRD/UPMC/Université Caen Normandie) 

 

  DOCUMENT         cnrs        LIEN  

SUPRACONDUCTIVITÉ

01/04/2017


supraconductivité

Phénomène présenté par certains métaux, alliages ou céramiques dont la résistivité électrique devient pratiquement nulle au-dessous d'une certaine température (appelée température critique).
image: http://www.larousse.fr/encyclopedie/data/animations/1101059-Supraconducteur.jpg
Supraconducteur
Supraconducteur
Découverte en 1911, la supraconductivité apparaît dans certains métaux ou alliages refroidis à très basse température : 7,2 K (− 266 °C) pour le plomb et 1,17 K (− 272 °C) pour l'aluminium. Ses propriétés exceptionnelles (en particulier une résistance électrique nulle) sont le reflet d'un nouvel état de la matière dont les propriétés quantiques se révèlent à notre échelle.
La compréhension de la supraconductivité a fait appel aux connaissances expérimentales et théoriques de la physique quantique acquises jusqu'au milieu des années 1950 pour aboutir, en 1957, au modèle BCS, du nom de ses inventeurs : J. Bardeen, L. Cooper et J. Schrieffer. Ce modèle, qui leur a valu le prix Nobel en 1972, a été bâti en deux étapes.
Dans un premier temps, ils établirent l'existence d'une interaction attractive entre les électrons libres d'un métal, ceux participant à la conduction électrique, alors que ces électrons, porteurs d'une charge négative, auraient dû normalement se repousser. L'observation du changement de la température critique, température à laquelle se manifeste la supraconductivité, d'échantillons ne différant que par leur composition isotopique mit en évidence le rôle des ions du réseau. Un électron se déplaçant dans le réseau cristallin attire les ions sur son passage et crée ainsi dans son sillage un excès de charge positive auquel un autre électron sera sensible. Ce mécanisme se traduit par une attraction effective entre les deux électrons, qui, dans un matériau favorable, peut dominer la répulsion électrostatique.
Cette observation n'a pris tout son sens que dans la deuxième étape, quand il est apparu que toute attraction entre les électrons libres déstabilise l'état fondamental d'un métal. Il en résulte l'apparition d'un nouvel état du « gaz électronique », qui n'est plus alors formé d'électrons individuels obéissant à la statistique de Fermi-Dirac (fermions) mais de paires d'électrons, les paires de Cooper, régies par la statistique de Bose-Einstein (bosons). Ces nouvelles propriétés statistiques entraînent la condensation de toutes les paires de Cooper en un état quantique unique qui se traduit par les propriétés supraconductrices.
Dans un métal normal, les impuretés et les vibrations du réseau cristallin sont autant d'obstacles qui freinent le mouvement des électrons individuels transportant le courant électrique et créent ainsi une résistance non nulle. Dans un supraconducteur, ces mêmes obstacles ne suffisent plus à freiner l'ensemble cohérent des paires d'électrons, dont le mouvement est intimement dépendant du mouvement de toutes les autres. Une résistance électrique rigoureusement nulle, et donc un transport sans perte d'un courant électrique continu, en est la conséquence.

 

 DOCUMENT    larousse.fr    LIEN

 

SUPRACONDUCTIVITÉ

01/04/2017


supraconductivité

Phénomène présenté par certains métaux, alliages ou céramiques dont la résistivité électrique devient pratiquement nulle au-dessous d'une certaine température (appelée température critique).
image: http://www.larousse.fr/encyclopedie/data/animations/1101059-Supraconducteur.jpg
Supraconducteur
Supraconducteur
Découverte en 1911, la supraconductivité apparaît dans certains métaux ou alliages refroidis à très basse température : 7,2 K (− 266 °C) pour le plomb et 1,17 K (− 272 °C) pour l'aluminium. Ses propriétés exceptionnelles (en particulier une résistance électrique nulle) sont le reflet d'un nouvel état de la matière dont les propriétés quantiques se révèlent à notre échelle.
La compréhension de la supraconductivité a fait appel aux connaissances expérimentales et théoriques de la physique quantique acquises jusqu'au milieu des années 1950 pour aboutir, en 1957, au modèle BCS, du nom de ses inventeurs : J. Bardeen, L. Cooper et J. Schrieffer. Ce modèle, qui leur a valu le prix Nobel en 1972, a été bâti en deux étapes.
Dans un premier temps, ils établirent l'existence d'une interaction attractive entre les électrons libres d'un métal, ceux participant à la conduction électrique, alors que ces électrons, porteurs d'une charge négative, auraient dû normalement se repousser. L'observation du changement de la température critique, température à laquelle se manifeste la supraconductivité, d'échantillons ne différant que par leur composition isotopique mit en évidence le rôle des ions du réseau. Un électron se déplaçant dans le réseau cristallin attire les ions sur son passage et crée ainsi dans son sillage un excès de charge positive auquel un autre électron sera sensible. Ce mécanisme se traduit par une attraction effective entre les deux électrons, qui, dans un matériau favorable, peut dominer la répulsion électrostatique.
Cette observation n'a pris tout son sens que dans la deuxième étape, quand il est apparu que toute attraction entre les électrons libres déstabilise l'état fondamental d'un métal. Il en résulte l'apparition d'un nouvel état du « gaz électronique », qui n'est plus alors formé d'électrons individuels obéissant à la statistique de Fermi-Dirac (fermions) mais de paires d'électrons, les paires de Cooper, régies par la statistique de Bose-Einstein (bosons). Ces nouvelles propriétés statistiques entraînent la condensation de toutes les paires de Cooper en un état quantique unique qui se traduit par les propriétés supraconductrices.
Dans un métal normal, les impuretés et les vibrations du réseau cristallin sont autant d'obstacles qui freinent le mouvement des électrons individuels transportant le courant électrique et créent ainsi une résistance non nulle. Dans un supraconducteur, ces mêmes obstacles ne suffisent plus à freiner l'ensemble cohérent des paires d'électrons, dont le mouvement est intimement dépendant du mouvement de toutes les autres. Une résistance électrique rigoureusement nulle, et donc un transport sans perte d'un courant électrique continu, en est la conséquence.

 

 DOCUMENT    larousse.fr    LIEN

 

SUPRACONDUCTEUR

26/03/2017

Plan
supraconducteur
Propriétés
Matériaux supraconducteurs
Applications
Plan
supraconducteur
Consulter aussi dans le dictionnaire : supraconducteur
Matériau qui présente le phénomène de supraconduction.
Propriétés


Les supraconducteurs de type I excluent tout champ magnétique et possèdent un faible champ magnétique critique au-delà duquel ils reviennent à l'état normal. Au contraire, ceux de type II laissent un champ magnétique extérieur les pénétrer partiellement sous forme de petits tubes de flux magnétique, les vortex. La densité de courant maximale admissible (ou courant critique) dépend étroitement du comportement magnétique du matériau puisqu'il est soumis au champ créé par le courant qu'il transporte. En pratique, ce sont les supraconducteurs de type II, plus souples, qui possèdent les meilleures caractéristiques, c'est-à-dire les valeurs les plus élevées de température de champ et de courant critiques, ce qui leur ouvre le vaste domaine de la production de champs magnétiques intenses.
Matériaux supraconducteurs

Les plus couramment utilisés sont, d'une part, des alliages ductiles comme l'alliage niobium-zirconium (NbZr) et surtout niobium-titane (NbTi), d'autre part, des composés intermétalliques tels que niobium-étain (Nb3Sn), qui ont de meilleures caractéristiques supraconductrices mais présentent l'inconvénient d'être cassants.
Les premiers matériaux supraconducteurs à haute température critique (35 K), des oxydes de cuivre et de terres rares (céramiques), n'ont été découverts qu'en 1986. Les auteurs de cette découverte, révolutionnaire pour la supraconductivité, J. G. Bednorz et K. A. Müller, ont reçu dès 1987 le prix Nobel de physique. En quelques mois, plusieurs équipes découvrent de nombreux composés analogues, de température critique souvent plus élevée encore. En 1993, deux équipes françaises élaborent des matériaux présentant certains des critères de supraconductivité à des températures proches des températures ambiantes ; l'une, à l'École supérieure de physique et de chimie industrielles de la Ville de Paris (E.S.P.C.I.), obtient une température critique (résistance nulle) de − 23 °C ; l'autre, au C.N.R.S. à Grenoble, observe du diamagnétisme à des températures variant de − 63 °C à + 7 °C.
Ces composés complexes forment une classe originale : ce sont des oxydes, assez mauvais conducteurs à température ambiante. Leur structure cristalline est de type lamellaire et leurs propriétés physiques sont fortement anisotropes. Par ailleurs, le mécanisme conduisant à la supraconductivité dans ces céramiques est toujours débattu.
Plus récemment, ont été mises en évidence les propriétés supraconductrices à haute température critique (117 K) des fullerènes de formule C60 (sous champ électrique). On a aussi découvert que le diborure de magnésium MgB2 devient supraconducteur à 39 K. Ce matériau présente l'avantage de pouvoir laisser passer de forts courants électriques ; par ailleurs, sa chimie et sa mise en forme sont nettement plus faciles à maîtriser que celles des céramiques supraconductrices.
Applications

Les supraconducteurs à champ élevé sont principalement utilisés en physique des hautes énergies, notamment pour les accélérateurs de particules, les anneaux de stockage, le confinement magnétique des plasmas pour la fusion nucléaire (installations du type tokamak). En électrotechnique, divers prototypes ont été étudiés pour le transport et la production d'énergie électrique : lignes, transformateurs, moteurs et générateurs. Des filtres micro-ondes à supraconducteurs sont utilisés dans les réseaux de télécommunications mobiles et les radars. Comme on obtient aisément, de façon industrielle, une température de 77 K grâce à l'azote liquide, l'obstacle des basses températures, soumis à l'utilisation de l'hélium liquide, a disparu pour les applications à grande échelle de la supraconductivité. Cependant, la recherche et le développement nécessaires sont en cours et les domaines qui déboucheront sur des applications sont difficiles à déterminer. On cite l'obtention de champs magnétiques intenses (de plusieurs centaines de teslas) utilisables dans les transports, par exemple avec les projets de trains à sustentation magnétique. Des connexions sans pertes dans les ordinateurs sont aussi envisagées. Ces applications supposent d'abord que ces composés, obtenus sous forme de grains, puissent être transformés en fils ou déposés en couche mince, technique qui n'en est encore qu'à ses débuts.

 

 DOCUMENT    larousse.fr    LIEN

 

 

 

EXISTENTIALISME

12/03/2017

existentialisme
(de existentiel)

Jean-Paul Sartre

Doctrine philosophique qui met l'accent sur le vécu humain plutôt que sur l'être et qui affirme l'identité de l'existence et de l'essence, ou leur parfaite complémentarité.
Existentialisme et littérature

L'existentialisme n'est pas un mouvement littéraire, et il n'existe pas à proprement parler de littérature existentialiste. C'est par une extension abusive du terme que le langage courant a qualifié d'existentialistes un certain nombre de manifestations culturelles de tous ordres qui se sont produites en France entre 1945 et 1955. Cette période a été dominée par les figures de Jean-Paul Sartre et d'Albert Camus, mais ni l'un ni l'autre n'a jamais prétendu diriger ou inspirer une école littéraire.
Historiquement, on peut considérer qu'il existe une littérature de l'époque dite « existentialiste », mais il s'en faut de beaucoup qu'elle ne contienne que des œuvres d'existentialistes déclarés : Camus lui-même a refusé cette étiquette. En revanche, la littérature de l'époque existentialiste se caractérise par un certain nombre de traits dont on trouve l'expression la plus pure et la plus intense dans les œuvres littéraires de Sartre et de Camus. Comme on l'a écrit, l'existentialisme a été, « autour d'un certain nombre d'œuvres auxquelles il convient de restituer leur singularité, un climat philosophique, politique et littéraire, un ensemble de thèmes et de préoccupations qui caractérisent plus une situation historique et une période qu'une grande famille de la littérature française ».
La situation historique était celle de la Libération. C'est dans le climat dramatique de l'Occupation et de la Résistance qu'est née l'angoisse, trait commun de la plupart des écrivains de l'époque existentialiste. C'est d'ailleurs parce que la philosophie héritée de Husserl et de Heidegger place l'angoisse au cœur même de l'existence que sa vulgarisation – dès les années de guerre avec Gabriel Marcel – a rencontré un tel écho et a pu, de ce fait, devenir un thème littéraire. Les grands textes de base de Sartre, comme la Nausée ou de Camus, comme l'Étranger, sont des descriptions d'une expérience de l'angoisse. On en pourrait dire autant des premiers romans de Simone de Beauvoir et aussi des pièces d'un écrivain comme Jean Anouilh, qui n'est pas un existentialiste, mais dont l'Antigone (1944), à peu près contemporaine des Mouches (1943) de Sartre, reflète le même climat moral et psychologique.
Un autre trait de la philosophie existentialiste qui devait trouver un écho dans le public est sa manière d'appréhender le réel, ce qu'on appelle la phénoménologie. En un temps où l'événement est roi et où les constructions intellectuelles s'écroulent sous la poussée d'une histoire au sens propre absurde, l'interrogation de l'instant, de l'objet, de la conscience immédiate fournit à l'écrivain une riche matière. La description minutieuse, attentive, mais impitoyable et souvent désespérée de ce que les sens perçoivent est un des procédés caractéristiques de l'écriture existentialiste. Plus tard, le « nouveau roman » en héritera et en fera un système. Il y a une filiation directe de l'écriture de Sartre narrateur à celle de Michel Butor, d'Alain Robbe-Grillet ou de Claude Simon.
Le nouveau roman reniera cette filiation, mais toute l'attitude phénoménologique des existentialistes est encore dans cette remarque d'Alain Robbe-Grillet : « Or le monde n'est ni signifiant, ni absurde. Il est tout simplement. C'est là en tout cas ce qu'il a de plus remarquable. Et soudain cette évidence nous frappe avec une force contre laquelle nous ne pouvons plus rien. […] Autour de nous, défiant la meute de nos adjectifs animistes ou ménagers, les choses sont là. Leur surface est nette et lisse, intacte, sans éclat louche ni transparence. Toute notre littérature n'a pas encore réussi à en entamer le plus petit coin, à en amollir la moindre courbe. »
On notera que l'absurde est ici refusé en tant que catégorie littéraire, et c'est en cela notamment que l'idéologie du nouveau roman se sépare de la littérature d'inspiration existentialiste, dont le sentiment de l'absurde est encore un des traits caractéristiques. Il survivra brillamment en particulier dans le théâtre de Beckett et d'Ionesco, et plus encore dans celui de Jean Genet. Ce dernier, auquel Sartre a consacré plusieurs études, est probablement un des auteurs contemporains dont il est possible de dire qu'il appartient à la lignée existentialiste. Il fait dire à un de ses personnages, représentant des opprimés : « Nous sommes ce qu'on veut que nous soyons, nous le serons donc jusqu'au bout, absurdement. »
Le trait peut-être le plus caractéristique de la littérature dite « existentialiste » est l'engagement conçu comme une expérience, comme une situation de l'écrivain plutôt que comme une loi morale. Pivot de la pensée littéraire de Sartre, l'engagement est avant tout la prise de conscience par l'écrivain de sa responsabilité politique et idéologique. Ce n'est, en aucun cas, l'asservissement à un pouvoir politique ou à une idéologie, ainsi qu'on l'a parfois un peu légèrement ou perfidement représenté.
Ce qui pourrait, à la rigueur, passer pour un manifeste littéraire de l'existentialisme est un petit livre de Jean-Paul Sartre paru en 1947 : Qu'est-ce que la littérature ? Mais, plutôt que l'expression des principes d'un groupe, il faut y voir l'analyse d'un philosophe militant qui est en même temps un écrivain et qui réfléchit en moraliste sur le phénomène littéraire.
Les trois premiers chapitres du livre répondent à trois questions : Qu'est-ce qu'écrire ? Pourquoi écrire ? Pour qui écrit-on ?
À la première question, Sartre répond en disant qu'écrire, c'est transmettre un message en se livrant tout entier « comme une volonté résolue et comme un choix, comme cette totale entreprise de vivre que nous sommes chacun ».
L'exercice de la liberté est la réponse à la deuxième question : pourquoi écrire ? Il s'agit de « la liberté concrète et quotidienne qu'il faut protéger, en prenant parti dans les luttes politiques et sociales ».
Enfin, on écrit pour un lecteur dont l'acte de lecture va au-devant de l'acte d'écriture pour créer l'œuvre de l'esprit. « Ainsi le public concret serait une immense interrogation féminine, l'attente d'une société tout entière que l'écrivain aurait à capter et à combler. » Mais de telles conditions ne peuvent être réalisées que dans une société sans classes.
Cette constatation conduit Sartre à s'interroger dans un dernier chapitre sur ce qu'est la situation de l'écrivain dans la société où il vit, c'est-à-dire celle de 1947.
Sa conclusion est que la littérature est menacée dans cette société et que « son unique chance, c'est la chance de l'Europe, du socialisme, de la paix ». Sartre indique ainsi quels doivent être les combats de l'écrivain engagé, c'est-à-dire de l'écrivain libre. Dans les idées de Sartre, ce sont les notions de message et d'engagement qui sont les plus fréquemment contestées. La critique structuraliste, en particulier, les considère comme « métaphysiques » et incompatibles avec la rigueur scientifique qu'elle exige de l'expression littéraire. Elles sont pourtant passées dans les mœurs et dans le langage.
Même s'il n'a jamais fondé d'école littéraire, l'existentialisme, outre quelques grandes œuvres, a laissé dans notre vie littéraire des marques durables, notamment la conscience du lecteur et l'exigence d'une éthique de l'écrivain.


Existentialisme et philosophie

Un double refus de la philosophie caractérise l'existentialisme. Refus de la philosophie en tant qu'elle constituerait une discipline portant sur un ensemble de problèmes fixés par la tradition, en particulier en tant qu'elle serait une « science de l'être ». Et d'abord parce que l'être n'est pas un objet, parce que le rapport à l'être n'est, en aucun sens du terme, « disciplinable » : il s'établit sur le mode de la question dans l'expérience de l'angoisse. Tel est d'ailleurs le sens de l'opposition de l'essence et de l'existence : si les divers « étants » (pierres, plantes, animaux, etc.) ont chacun une structure propre, celle de l'homme – l'existence (ou Dasein) – veut précisément qu'en lui son être soit (en) question. Autrement dit, l'analyse du Dasein (du mode d'existence illustré et incarné par l'homme) révèle que l'homme n'est pas, mais qu'il a à être (quelque chose), révèle donc que son essence est postérieure à son existence et même, selon le mot de Jean Wahl, que « l'existence n'a pas d'essence ». Si les choses sont ce qu'elles sont, l'homme n'est jamais ce qu'il est : leur existence statique s'oppose à son existence « ek-statique ». L'existence est perpétuelle transcendance, pouvoir inépuisable d'être autre chose, de différer jusqu'à la mort. Mais, en même temps, cette transcendance et la liberté qu'elle implique s'enracinent dans la finitude d'une situation qui ne leur doit rien : on ne choisit pas d'exister. En effet, l'existence – et ce sera là un second axe de transcendance qui prolonge les descriptions faites par Husserl de la structure intentionnelle de la conscience – est, en son cœur même, rapport avec l'extériorité d'un monde qui n'est pas son œuvre. Exister, ce n'est donc pas être, mais être-dans, être-avec, être-pour, etc. « L'existentialisme, écrit Emmanuel Lévinas, consiste à sentir et à penser que le verbe être est transitif. » À l'analyse du concept d'être que la philosophie traditionnelle poursuivait, l'existentialisme substitue une description des divers modes d'existence, des diverses structures qu'adopte le phénomène d'exister : une « ontologie phénoménologique », selon le sous-titre donné par Sartre à l'Étre et le Néant (1943).
Cette contestation de la philosophie comme théorie de l'être en tant que concept et du primat des essences sur les existences représente ce que l'on pourrait appeler le « contenu doctrinal » de la philosophie existentielle ; elle est commune d'ailleurs à nombre de penseurs qui, pourtant (comme Heidegger), refusent d'être définis comme existentialistes. Or, elle continue à se produire dans le cadre ménagé par la tradition occidentale à l'exercice de la philosophie : l'enseignement. C'est ici qu'apparaît le second refus : affirmer, à l'intérieur des franchises universitaires, que l'existence n'a pas d'essence, n'est-ce pas se contenter, dans la contestation de la philosophie, d'une demi-mesure qui condamne la doctrine existentialiste à une position inauthentique ? Pour être conséquent l'existentialisme n'exige-t-il pas que la philosophie cesse d'être le fait de professeurs qui discourent sur la vie, mais qu'elle soit la vie elle-même ? Si les concepts s'enseignent, l'existence se vit. Autrement dit, après la contestation de la philosophie effectuée au sein de l'espace philosophique traditionnel par les penseurs allemands, il faut (c'est du moins ce que pensent et entreprennent ceux qui, en France, revendiquent le nom d'existentialistes) mettre en œuvre une contestation en quelque sorte pratique, en rupture d'université, qui s'installe de plain-pied avec l'existence, qui détruise la dissociation de la philosophie et de l'existence.
C'est ici, également, qu'apparaît l'importance rétrospective de Kierkegaard avec son double refus théorique et pratique de la philosophie, que symbolise l'opposition à Hegel. Toute son œuvre, toute sa vie ne sont qu'un refus du savoir, qu'une revendication inlassable de la singularité de l'existence subjective, qu'une affirmation de l'incommensurabilité du savoir et du vécu. C'est ce que Sartre exprime quand il écrit que « Kierkegaard marque par sa simple vie que tout savoir concernant le subjectif est d'une certaine manière un faux savoir », que « le vécu comme réalité concrète se pose comme non-savoir ».
L'existentialisme ne saurait être une doctrine qui se professe : il affirme qu'aucun recul, qu'aucune « mise-entre-parenthèses » n'est possible, car l'existence, c'est ce dans quoi l'on est toujours engagé. (On peut objecter que ce refus mène à deux inauthenticités, au choix : la parole professorale ou le bavardage.)
L'entrée de l'existentialisme dans la vie quotidienne adopte deux directions : renonçant au mode d'expression philosophique, il recourt volontiers aux formes littéraires ; d'autre part, il demande à l'époque le thème de ses réflexions, ce qui l'oriente vers la politique. (La littérature, qui présente des personnages et non des concepts, des situations concrètes et non des raisonnements, est théoriquement accessible à des lecteurs non spécialisés. Quant à la politique, elle est précisément ce qui occupe toutes les pensées du moment.) Ces deux voies, autour desquelles s'ordonnaient les premiers sommaires de la revue les Temps modernes, convergeront dans le programme d'une littérature engagée.

 

DOCUMENT   larousse.fr    LIEN

 

L'EAU UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE

04/03/2017

L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE


L'eau est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. C'est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie d'un petit groupe de liquides qu'on appelle liquides associés. Cependant, parmi ces liquides, la cohésion de l'eau est remarquable, et elle se traduit par une chaleur spécifique énorme. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat. L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait sur la base de la valeur du moment dipolaire de la molécule isolée. C'est aussi, dans les conditions usuelles de température et de pression, un liquide peu dense : les atomes y occupent moins de la moitié du volume total ; une grande partie du volume de l'eau liquide est donc formée de cavités. Le volume occupé par ces cavités varie de manière tout à fait anormale à basse température. D'abord, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité. Ensuite, l'eau se dilate encore de 9 % en cristallisant, contrairement à la plupart des liquides, qui se contractent d'environ 10 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans Pour presque tous les liquides, l'application d'une pression réduit la fluidité et favorise le solide par rapport au liquide. Au contraire, pour l'eau à basse température, l'application d'une pression accroît la fluidité et favorise le liquide par rapport à la glace. Cet effet anormal de la pression permet à l'eau de rester fluide lorqu'elle est confinée dans des pores ou des films nanométriques, contrairement aux autres liquides qui se solidifient sous l'effet des pressions de confinement. Cette persistance de l'état fluide est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules, ou avant le passage d'un ligand vers son récepteur. De même le passage des ions à travers les canaux qui traversent les membranes des cellules n'est possible que grâce à l'état fluide de l'eau confinée dans ces canaux. Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, amides). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ – bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette hypothèse n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant. Certains liquides ont un comportement qui ressemble à celui de l'eau pour une de ses propriétés : par exemple, on connaît quelques liquides qui se dilatent à basse température, ou en cristallisant. Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.

 

  DOCUMENT       canal-u.tv     LIEN  

 ( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

Méningites à méningocoque

26/02/2017


1er juin 2014
Méningites à méningocoque : un pas décisif dans la compréhension du mécanisme pathogène de cette bactérie

Neisseria meningitidis ou méningocoque, est une bactérie responsable de méningites et de septicémies1, dont la forme la plus grave, purpura fulminans, est souvent fatale. Cette bactérie, qui réside naturellement dans le rhinopharynx de l'Homme, est pathogène lorsqu'elle atteint la circulation sanguine. Les équipes du Dr Sandrine Bourdoulous, directrice de recherche CNRS à l'Institut Cochin (CNRS/Inserm/Université Paris Descartes), et du Pr Xavier Nassif de l'Institut Necker Enfants Malades (CNRS/Inserm/Université Paris Descartes/AP-HP) ont décrypté les événements moléculaires par lesquels les méningocoques ciblent les vaisseaux sanguins et les colonisent. Ces travaux ouvrent la voie à de nouvelles perspectives thérapeutiques pour le traitement des troubles vasculaires provoqués par ce type d'infection invasive. Leur étude est publiée le 1er juin 2014 dans Nature Medicine.
Lorsque Neisseria meningitidis se multiplie dans le sang, cette bactérie interagit avec les cellules endothéliales qui tapissent l'intérieur des vaisseaux sanguins et adhère aux parois de ces derniers. Au niveau de la peau et des muqueuses, l'infection des vaisseaux par le méningocoque crée des lésions hémorragiques (dites purpuriques), dues à des saignements dans les tissus, qui peuvent rapidement évoluer vers une forme grave et souvent mortelle de la maladie (le purpura fulminans) Au niveau du cerveau, l'adhérence des méningocoques aux vaisseaux leur permet de franchir la barrière hémato-encéphalique2 et d'entraîner une méningite lorsqu'ils envahissent les méninges3. 

Les équipes de chercheurs ont décrypté le mécanisme d'adhérence de Neisseria meningitidis aux vaisseaux sanguins, étape au cœur de la pathogénicité de la bactérie. Du côté des vaisseaux sanguins, ils ont identifié le récepteur4 CD147, dont l'expression est essentielle à l'adhérence initiale du méningocoque aux cellules endothéliales. Si ce récepteur est absent, N. meningitidis ne peut pas s'implanter et coloniser les vaisseaux sanguins.

Du côté bactérien, il est connu que les processus d'adhérence du méningocoque aux cellules humaines reposent sur les pili de longs appendices filamenteux exprimés par la bactérie, composés de différentes sous-unités (les pilines). Cependant, les pilines spécifiquement impliquées dans l'adhérence de N. meningitidis aux vaisseaux sanguins n'avaient jamais été identifiées. Les chercheurs ont ainsi déterminé que deux pilines, PilE et PilV, interagissent directement avec le récepteur CD147. Sans elles, les méningocoques ne peuvent pas adhérer aux cellules endothéliales.

L'Homme est la seule espèce pouvant être infectée par les méningocoques. Pour montrer in vivo que les pilines PilE et PilV sont essentielles à la colonisation du réseau vasculaire par N. meningitidis, les chercheurs ont utilisé un modèle de souris immunodéficientes greffées avec de la peau humaine, conservant des vaisseaux humains fonctionnels au sein de la greffe et permettant ainsi de reproduire chez la souris les phases cutanées de l'infection observée chez l'Homme. Ces souris ont alors été infectées par des méningocoques possédant naturellement les pilines PilE et PilV, ou des méningocoques dans lesquels l'expression de ces pilines a été artificiellement supprimée. Les vaisseaux sanguins humains ne sont infectés que par les méningocoques possédant PilE et PilV ce qui confirme que ces deux pilines sont essentielles au processus de colonisation de la bactérie. 
Les chercheurs ont également montré, avec un modèle d'infection ex vivo5, que les vaisseaux cérébraux et les méninges, particulièrement riches en récepteurs CD147, sont permissifs à la colonisation par les méningocoques à la différence d'autres parties du cerveau. 

Les chercheurs souhaitent désormais développer un nouveau type de vaccin (en complément de ceux qui existent déjà) qui bloquerait l'interaction entre N. meningitidis et les récepteurs CD147 et empêcherait ainsi la colonisation des vaisseaux par la bactérie. 

Cette étude a été réalisée grâce au soutien des équipes du Dr Frank Lafont, du Centre d'infection et d'immunité de Lille (CNRS/Inserm/Institut Pasteur de Lille/Université Lille 1/Université Lille 2), du Pr Fabrice Chrétien, de l'unité Histopathologie humaine et modèles animaux de l'Institut Pasteur de Paris et du Dr Eric Chevet du Groupe de recherches pour l'étude du foie (Inserm/Université de Bordeaux).

 

 DOCUMENT         cnrs        LIEN 

Méningites à méningocoque

26/02/2017


1er juin 2014
Méningites à méningocoque : un pas décisif dans la compréhension du mécanisme pathogène de cette bactérie

Neisseria meningitidis ou méningocoque, est une bactérie responsable de méningites et de septicémies1, dont la forme la plus grave, purpura fulminans, est souvent fatale. Cette bactérie, qui réside naturellement dans le rhinopharynx de l'Homme, est pathogène lorsqu'elle atteint la circulation sanguine. Les équipes du Dr Sandrine Bourdoulous, directrice de recherche CNRS à l'Institut Cochin (CNRS/Inserm/Université Paris Descartes), et du Pr Xavier Nassif de l'Institut Necker Enfants Malades (CNRS/Inserm/Université Paris Descartes/AP-HP) ont décrypté les événements moléculaires par lesquels les méningocoques ciblent les vaisseaux sanguins et les colonisent. Ces travaux ouvrent la voie à de nouvelles perspectives thérapeutiques pour le traitement des troubles vasculaires provoqués par ce type d'infection invasive. Leur étude est publiée le 1er juin 2014 dans Nature Medicine.
Lorsque Neisseria meningitidis se multiplie dans le sang, cette bactérie interagit avec les cellules endothéliales qui tapissent l'intérieur des vaisseaux sanguins et adhère aux parois de ces derniers. Au niveau de la peau et des muqueuses, l'infection des vaisseaux par le méningocoque crée des lésions hémorragiques (dites purpuriques), dues à des saignements dans les tissus, qui peuvent rapidement évoluer vers une forme grave et souvent mortelle de la maladie (le purpura fulminans) Au niveau du cerveau, l'adhérence des méningocoques aux vaisseaux leur permet de franchir la barrière hémato-encéphalique2 et d'entraîner une méningite lorsqu'ils envahissent les méninges3. 

Les équipes de chercheurs ont décrypté le mécanisme d'adhérence de Neisseria meningitidis aux vaisseaux sanguins, étape au cœur de la pathogénicité de la bactérie. Du côté des vaisseaux sanguins, ils ont identifié le récepteur4 CD147, dont l'expression est essentielle à l'adhérence initiale du méningocoque aux cellules endothéliales. Si ce récepteur est absent, N. meningitidis ne peut pas s'implanter et coloniser les vaisseaux sanguins.

Du côté bactérien, il est connu que les processus d'adhérence du méningocoque aux cellules humaines reposent sur les pili de longs appendices filamenteux exprimés par la bactérie, composés de différentes sous-unités (les pilines). Cependant, les pilines spécifiquement impliquées dans l'adhérence de N. meningitidis aux vaisseaux sanguins n'avaient jamais été identifiées. Les chercheurs ont ainsi déterminé que deux pilines, PilE et PilV, interagissent directement avec le récepteur CD147. Sans elles, les méningocoques ne peuvent pas adhérer aux cellules endothéliales.

L'Homme est la seule espèce pouvant être infectée par les méningocoques. Pour montrer in vivo que les pilines PilE et PilV sont essentielles à la colonisation du réseau vasculaire par N. meningitidis, les chercheurs ont utilisé un modèle de souris immunodéficientes greffées avec de la peau humaine, conservant des vaisseaux humains fonctionnels au sein de la greffe et permettant ainsi de reproduire chez la souris les phases cutanées de l'infection observée chez l'Homme. Ces souris ont alors été infectées par des méningocoques possédant naturellement les pilines PilE et PilV, ou des méningocoques dans lesquels l'expression de ces pilines a été artificiellement supprimée. Les vaisseaux sanguins humains ne sont infectés que par les méningocoques possédant PilE et PilV ce qui confirme que ces deux pilines sont essentielles au processus de colonisation de la bactérie. 
Les chercheurs ont également montré, avec un modèle d'infection ex vivo5, que les vaisseaux cérébraux et les méninges, particulièrement riches en récepteurs CD147, sont permissifs à la colonisation par les méningocoques à la différence d'autres parties du cerveau. 

Les chercheurs souhaitent désormais développer un nouveau type de vaccin (en complément de ceux qui existent déjà) qui bloquerait l'interaction entre N. meningitidis et les récepteurs CD147 et empêcherait ainsi la colonisation des vaisseaux par la bactérie. 

Cette étude a été réalisée grâce au soutien des équipes du Dr Frank Lafont, du Centre d'infection et d'immunité de Lille (CNRS/Inserm/Institut Pasteur de Lille/Université Lille 1/Université Lille 2), du Pr Fabrice Chrétien, de l'unité Histopathologie humaine et modèles animaux de l'Institut Pasteur de Paris et du Dr Eric Chevet du Groupe de recherches pour l'étude du foie (Inserm/Université de Bordeaux).

 

 DOCUMENT         cnrs        LIEN 

LE CARBONIFÈRE

18/02/2017

carbonifère

Système du paléozoïque supérieur, le carbonifère est la période de l'ère primaire, de – 359 à – 299 millions d'années (durée 65 millions d'années), entre le dévonien et le permien. À la base, les sédiments marins sont pauvres en trilobites, mais riches en foraminifères (fusulines), brachiopodes, goniatites, etc., et localement en amphibiens. Les premières plantes du groupe des gymnospermes (conifères actuels) apparaissent. Les sédiments continentaux de la partie supérieure sont riches en végétaux (houilles), en insectes, arthropodes et en premiers restes de reptiles.
Au carbonifère, les masses continentales sont en contact (constituant un amalgame mouvant appelé la Pangée), mais elles continuent à se déplacer les unes par rapport aux autres, provoquant de grandes déformations (chaîne hercynienne) accompagnées de rotations de blocs, révélées par le paléomagnétisme, de l'Espagne à l'Europe centrale. Une glaciation encadrée par deux périodes chaudes affecte l'hémisphère Sud (Gondwana). Le carbonifère fait partie du cycle hercynien ou varisque.
La paléogéographie du carbonifère
Avec le carbonifère, après qu'en certaines régions une phase bretonne eut inauguré l'orogenèse hercynienne, une transgression générale, l'une des plus importantes des temps géologiques (comparable par son ampleur à celle du crétacé supérieur), s'avance sur toutes les masses continentales. Sur le continent nord-atlantique en Europe, c'est la transgression dinantienne. En Amérique du Nord, cette transgression est dite mississippienne. Le carbonifère saharien est également transgressif sur le continent nigritien.
Cette transgression marine dépose des calcaires. Les premières ébauches de chaîne hercynienne commencent à émerger, alimentant la sédimentation d'un flysch dans les fosses marines (faciès kulm ou culm en Europe).
Au carbonifère moyen et supérieur, la chaîne hercynienne commence à se structurer avec les phases sudète et asturienne, essentielles dans le domaine prototéthysien occidental (Amérique du Nord, Europe de l'Ouest).
Au carbonifère moyen, par suite du basculement de l'équateur, une zone d'évaporites se développe sous les latitudes subtropicales (régions septentrionales de l'Amérique du Nord, du Groenland et de l'Europe du Nord). Par ailleurs, l'équateur, qui passe alors par le sud des États-Unis et le sud de l'Europe, est le siège d'une exubérante végétation (forêt houillère) qui colonise les zones exondées par la surrection de la chaîne hercynienne. C'est en bordure de la chaîne hercynienne que se formeront les bassins houillers paraliques marins. Au carbonifère supérieur s'individualisent, à l'intérieur de la chaîne, des bassins houillers limniques continentaux.
La Pangée un moment réunie se dissocie, à la fin du carbonifère, en trois blocs qui connaîtront des évolutions paléogéographiques et bioclimatiques ultérieures différentes : au sud, le continent du Gondwana (boucliers brésilien, africain, arabe, australien) et, au nord, celui de l'Angara (plate-forme sibérienne) et le continent nord-atlantique.
La biostratigraphie et la chronostratigraphie du carbonifère
Le carbonifère constitue un système unique et se subdivise en deux parties ayant chacune rang de sous-système : dinantien et silésien en Europe, mississippien et pennsylvanien en Amérique du Nord.
Ces sous-systèmes se subdivisent eux-mêmes en séries : tournaisien et viséen pour le dinantien ; namurien, westphalien et stéphanien pour le silésien. Les autres dénominations correspondantes sont au nombre de douze et sont principalement définies à partir de stratotypes situés en Russie.
La paléontologie du carbonifère
Les animaux

À la suite des poissons, les batraciens se développent – avec l'apparition d'un groupe de grande taille, les stégocéphales – ainsi que les reptiles, dont le dimétrodon. Les premiers insectes sont connus au carbonifère. Parmi les microfossiles, les fusulines apparaissent. Elles constituent le fondement de la stratigraphie du permo-carbonifère mésogéen. Les trilobites et les goniatites restent très présentes.
Les végétaux

Les végétaux continuent leur explosion : les cryptogames vasculaires, se reproduisant par des spores, constituent de véritables forêts. Les groupes de ptéridophytes se diversifient, et certains atteignent des tailles d'arbres : filicales, lycopodiales (Lepidodendron, Sigillaria), équisétales (Calamites). Les gymnospermes (conifères actuels) sous forme de cordaïtes apparaissent.
Le volcanisme, la granitisation et les gisements métallifères au carbonifère
Au carbonifère inférieur, la mise en place de ceintures volcaniques sous-marines s'accompagne vers – 360 millions d'années d'une importante phase métallogénique en ce qui concerne le cuivre, l'or et les métaux de base, avec la formation en Europe des amas sulfurés de Neves Corvo (Portugal), de la ceinture sud-ibérique (Rio Tinto), de Mavan et Galmoy en Irlande, de la Toscane et de Chessy et Sain-Bel, en France.

Au carbonifère supérieur, un important volcanisme orogénique profond accompagne également la sédimentation du stéphanien. Avec les granitoïdes et l'hydrothermalisme connexes, il détermine la mise en place dans le socle ancien des hercynides d'Europe et d'Ouzbékistan, vers – 300 millions d'années, de minéralisations filoniennes économiques à or, antimoine, plomb, argent, zinc, et plus tardivement (vers – 280 à – 260 millions d'années) à zinc, plomb, fluorine et localement, uranium.

 

 DOCUMENT   larousse.fr    LIEN

 

LE NUMÉRIQUE ET LES NOUVELLES PRATIQUES D’INFORMATION

11/02/2017

08 LE NUMÉRIQUE ET LES NOUVELLES PRATIQUES D’INFORMATION
Us et abus d’internet : enjeux sociaux et psychologiques des Pratiques numériques

Le numérique touche désormais l’ensemble de notre vie et bouleverse nos habitudes, nos savoir-faire (lire, écrire, raconter, travailler, jouer), interroge nos certitudes et par là-même l’ensemble de nos paradigmes économiques, juridiques, technologiques et sociétaux. Les transformations engendrées par ce monde numérique se sont produites très rapidement et n’ont pas toujours laissé le temps de développer une réflexion structurée capable de les comprendre.

Les sciences et les technologies du numérique bouleversent en profondeur nos structures sociales, notre rapport à la connaissance, à la culture, aux territoires, à la société, et modifient jusqu’à la construction même de nos identités. Ces pratiques liées au numérique mettent en place de nouvelles valeurs susceptibles de donner lieu à de nouvelles pratiques culturelles. Le numérique nous invite à repenser nos rapports avec l’espace, le temps et l’image.

Cette société numérique dans laquelle nous évoluons aujourd’hui et dans laquelle nous vivrons demain promet d’être une aventure « fascinante et effrayante ». Cette journée d’étude va essayer d’étudier et d’examiner les pratiques liées au numérique.

Elle sera organisée en quatre axes :

1.       Connectivité : usages participatifs et espace public ;

2.       Éthique et humanités numériques ;

3.       Addictions et culture des écrans ;

4.       Information et accès aux savoirs.

Face à ces mutations numériques, il s’agit de proposer une approche critique, pour faire le bilan de leurs pratiques. Nous avons souhaité poser ces questions et inviter des chercheurs qui puissent les comprendre et y apporter des réponses.

Quatrième session : information et accès aux savoirs

Rémy Rieffel, sociologue des médias, professeur à l’Université Paris II Panthéon-Assas et à l’Institut français de presse (IFP) et directeur du Carism : Le numérique et les nouvelles pratiques d’information.

 

  DOCUMENT       canal-u.tv     LIEN

LANGAGE

05/02/2017

langage

Capacité, observée chez tous les hommes, d'exprimer leur pensée et de communiquer au moyen d'un système de signes vocaux et éventuellement graphiques (la langue). [Voir également troubles du langage.]


LINGUISTIQUE

Le langage est un système qui a pour finalité de réaliser un message d'un émetteur vers un récepteur. Cela permet d'englober plusieurs modes de communication formalisés : langue naturelle, langages artificiels (de programmation informatique, par exemple), ou tout autre code : Code de la route, langage des fleurs, etc. Chaque langue naturelle est un code original propre à l'espèce humaine ; les langages artificiels proviennent de simplifications et de conventions à partir des langues naturelles.
La hiérarchisation des signes

Ferdinand de Saussure
Ce système est dit « articulé » (A. Martinet), ce qui signifie que tout énoncé langagier doit pouvoir s'analyser à deux niveaux. Au niveau de la production de chaque langage, chaque unité s'articule en deux unités non significatives mais distinctives, par exemple entre le phonème (son émis) et le morphème (forme minimale de signification ; exemple : le pluriel en -s), entre le morphème et le syntagme (unité dans une organisation phrastique ; exemple : « le chien » dans « le chien dort »), etc. La combinaison des morphèmes, liée à la syntaxe (L. Bloomfield, Z. Harris), et l'assemblage des syntagmes forment une structuration hiérarchisée d'éléments constituants. C'est là que se situe la spécificité du langage humain, par opposition à un « langage » animal, dont on ne peut parler que par métaphore : les abeilles communiquent, mais leur mode de communication est exclusivement signalétique ; ce n'est donc pas un langage articulé.
Différentes écoles ont tenté de décrire l'intégration systémique du langage humain : les structuralistes (F. de Saussure, L. T. Hjelmslev) ont mis l'accent sur les oppositions et les complémentarités dans les distributions de phonèmes, morphèmes, lexèmes, etc., d'où résulterait le fonctionnement du système langagier. Les dernières théories de N. Chomsky ont permis d'avancer l'hypothèse d'une organisation en modules, c'est-à-dire en petites unités de traitement distribuées en réseaux réglés pour permettre la communication de l'information.


Les fonctions du langage

La notion de fonction du langage a été mise en valeur par l'école de Prague. La fonction principale est celle de communication (dite aussi référentielle ou cognitive). Cependant, selon les caractères de la communication, il existe différentes fonctions du langage. R. Jakobson a distingué six fonctions qui, dans toute langue, se rapportent chacune à l'un des pôles fondamentaux de la communication linguistique. Toute communication fait en effet intervenir six facteurs : l'émetteur, le destinataire, le contexte, ou référent, le code commun à l'émetteur et au destinataire, le canal (le support physique) de la communication, le message.
Le linguiste distingue ainsi la fonction émotive, qui centre le message sur l'émetteur, le locuteur (exemple : « Quel sale temps ce week-end ! »), la fonction conative, qui vise à influencer le destinataire (exemple : « Corrige-moi si je me trompe » ; « Viens ici »!), la fonction référentielle (ou dénotative, ou cognitive), qui renvoie au contexte (exemple : « Le chien est un animal »), la fonction phatique, qui renvoie au canal ou au contact (exemple : « Allo, ne coupez pas »), la fonction métalinguistique, qui renvoie au code lui-même (exemple : « Porte-manteau est invariable ») la fonction poétique, qui concerne le message en lui-même.


Les universaux du langage

On peut dénombrer dans le langage un certain nombre d'universaux, parmi lesquels on peut distinguer des universaux substantiels et des universaux conditionnels.
Dans la catégorie des universaux substantiels entreraient le prédicat (ce qu'on dit d'un sujet dans un énoncé quelconque) ainsi que les mots fonctionnels. En effet, dans toutes les langues du monde existent des formes (noms ou verbes) susceptibles de recevoir la fonction prédicative et se trouvent également des morphèmes ne désignant rien par eux-mêmes (ils ne renvoient pas aux choses), mais dont la fonction est d'établir tel ou tel rapport entre les unités du lexique : les prépositions, les postpositions, les conjonctions, etc.
Les universaux conditionnels mettent en relation deux phénomènes : ils sont formulés sous une forme d'implication (si p, alors q). Ainsi, dans les langues à prépositions, le génitif suit presque toujours le nom régissant ; dans les langues à postpositions, il le précède presque toujours. Les langues à ordre PSO (prédicat-sujet-objet) sont toujours à prépositions (l'arabe, par exemple). Avec une fréquence qui ne peut être due au hasard, les langues à ordre SOP (sujet-objet-prédicat) sont postpositionnelles (le japonais, les langues altaïques, le birman, par exemple). [→ langue.]

DOCUMENT larousse.fr LIEN

document PDF LIEN

pédagogie du chant

29/01/2017

pédagogie du chant
Cet article est extrait de l'ouvrage Larousse « Dictionnaire de la musique ».
L'enseignement du chant a pour but de permettre au chanteur d'exploiter au mieux ses possibilités innées. Il est d'autant plus malaisé qu'aucun instrument n'est visible ni palpable, et que l'élève ne perçoit qu'une audition interne, et tronquée, de sa véritable voix. Le geste vocal à enseigner ne repose donc que sur la perception de sensations physiques, liées aux sensations auditives correspondantes. La difficulté primordiale consiste à déceler progressivement à quel type vocal appartient l'élève, alors que celui-ci ne peut encore donner l'exacte mesure de ses moyens. Or, ce classement dépend non seulement de l'étendue vocale apparente du sujet, mais de sa véritable tessiture, de son timbre, de la puissance éventuelle de la voix, mais encore de nombreux autres caractères propres tenant au milieu ethnique, acoustique, culturel, psychologique et physiologique de l'individu. Si l'essentiel de l'appareil vocal résulte, ainsi que le définit Georges Loiseau (Notes sur le chant, Paris, 1947) du « synchronisme entre le diaphragme (appui du souffle), le larynx et les résonateurs (toutes les cavités creuses situées au-dessus du larynx) », cette triade est liée « à la multiplicité des résultantes individuelles, à la personnalité et à l'individualité propre » de chacun. D'où la diversité des instruments vocaux, celle aussi des facteurs d'application de cet enseignement, qui varie avec chaque sujet dans la recherche d'un but commun, la parfaite disponibilité de la voix, sur toute son étendue, aux nuances et aux colorations les plus diverses, à une parfaite diction, et, enfin, à toutes les sollicitations d'expression ou de virtuosité du texte musical.
Enfin, dans le domaine de l'application, cet enseignement repose sur une autre ambiguïté, car si toutes les méthodes convergent pratiquement sur un mode de respiration (de préférence nasale), qui consiste à emplir d'abord la base des poumons par l'écartement des côtes et l'appui sur le diaphragme, l'expiration du souffle pose d'autres problèmes, car elle ne détermine pas a priori la bonne émission du son, et c'est cette émission qui entraîne a posteriori l'écoulement exact de l'air à expulser. La reconnaissance par le maître et par l'élève de la nature précise du son est donc primordiale dans toutes les pédagogies.
Ces dernières se rejoignent sur certains principes élémentaires de base : le travail vocal s'exécute d'abord sur des valeurs longues, lentes, bien liées entre elles, sans l'aide des consonnes et uniquement sur les notes du médium, celles qui précisément appartiennent en commun aux différents registres de la voix ; mais elles peuvent différer quant à leur application, puisqu'elles dépendent de la langue parlée (et entendue) par le sujet. Mais leur but commun étant la recherche de l'homogénéité du timbre et des voyelles sur toute l'étendue de la voix, leur premier objet est de réaliser la fusion entre ses divers registres par l'assombrissement progressif de la couleur des voyelles, de la note la plus grave à la note la plus aiguë, ce travail étant étroitement lié à la phonation de chaque langue. Le rejet de cette règle, tel qu'il a pu apparaître à certaines époques de l'histoire du chant ou de l'opéra, entraîne ce que l'on nomme parfois le « chant ouvert » (par assimilation à la couleur des voyelles ouvertes) qui, en obstruant le larynx, déforme la diction du texte, compromet l'émission des notes aiguës et leur disponibilité aux nuances. Or, la pose de voix consciente et maîtrisée est la condition préalable à l'interprétation musicale.
En effet, la pédagogie du chant comporte également la formation musicale de l'élève chanteur, qui doit être identique à celle de l'élève instrumentiste, à quelques spécialisations près. Elle est généralement assurée par un spécialiste, alors que la recherche de l'émission vocale et l'étude de l'interprétation peuvent incomber au même enseignant : ce dernier doit alors connaître non seulement les principales méthodes de chant des grands auteurs du passé, mais encore l'histoire des styles intimement liée à l'évolution de l'art lyrique. Il est donc souhaitable que la pédagogie du chant repose aussi sur une éducation de l'audition musicale de l'élève, facteur premier de toute reproduction vocale, par l'écoute critique des grands exemples du passé et du présent. C'est par la reproduction inconsciente de la parole d'autrui que le nouveau-né apprend l'usage de la parole, avec les qualités et défauts inhérents au milieu ambiant. Une fois mis en possession d'une technique vocale de base, l'élève peut ensuite se spécialiser dans une ou plusieurs branches de l'art lyrique, ou subir l'enseignement approprié à l'art de la scène, compte tenu du fait que toute pédagogie vocale doit tenir compte de la constante disponibilité de l'élève à toutes les sollicitations corporelles du concert ou de la scène.
Sans entrer ici dans les nombreuses disciplines afférent à cette pédagogie, il faut noter que si, depuis des siècles, de nombreux auteurs ont déploré l'appauvrissement de la pédagogie dans le domaine de la connaissance musicale, c'est son aspect technique qui s'est plus récemment dégradé et a conduit le chanteur à des spécialisations arbitraires et restrictives, sans justifications historiques, notamment vers le milieu de notre siècle où une divergence s'est créée entre une pédagogie axée sur la recherche d'un maximum d'intensité vocale et une autre tout aussi exclusivement attachée à une préciosité excessive dans l'expression de tous les styles ; or, s'il est patent que Verdi, Wagner, Puccini ou Bizet, par exemple, ont souvent prescrit la nuance pianissimo, rarement respectée par les interprètes, Monteverdi, Haendel, Mozart, Schubert, Debussy ou Fauré ont tout aussi souvent réclamé la nuance forte que leur refusent parfois les chanteurs.

 

   DOCUMENT   larousse.fr    LIEN

 

Le point sur... les gènes homéotiques

21/01/2017

Le point sur... les gènes homéotiques
par Naoum Salamé — Dernière modification 18/02/2012 10:06
Hervé Le Guyader, Professeur au Laboratoire de Biologie moléculaire et cellulaire du Développement de l'Université Pierre et Marie Curie, répond à nos questions.

 

Qu’est-ce qu’un gène homéotique ?

Un gène homéotique est, par définition, un gène dont la mutation produit une homéose, c’est-à-dire l’apparition d’un organe bien formé, mais à un mauvais emplacement du corps. Un gène homéotique est donc défini par rapport au phénotype qu’il entraîne lorsqu’il est muté, et non par sa séquence nucléotidique. Les premières observations de phénotypes homéotiques remontent à 1894, bien avant la découverte des gènes et la définition du mot phénotype !  
C’est William Bateson, qui en étudiant les variations intraspécifiques chez un coléoptère, observa des mutations homéotiques, notamment l’apparition de pattes à la place des antennes. Il fit d’ailleurs des observations similaires chez les végétaux, où les étamines pouvaient par exemple être remplacées par des pétales. Bateson comprit qu’un segment de l’organisme possède toutes les potentialités, et qu’au cours du développement, un « choix » s’opère ; lorsque ce choix est faux, le segment ne possède pas les appendices ou organes attendus. On apprendra plus tard que ce sont des  gènes qui déterminent ces choix. 

Les gènes homéotiques ne possèdent donc pas nécessairement la fameuse séquence appelée « homéoboîte » ?

Non, et la confusion est fréquente : en 1983, deux équipes de recherche distinctes, celle de Walter J. Gehring et celle de Thomes C. Kaufman , découvrent que tous les gènes homéotiques connus chez la drosophile possèdent une séquence commune de 180 paires de bases, qu’on nomme « homéboîte » (en anglais homeobox). La tentation est grande d’appeler alors « gène homéotique » tout gène  à homéoboîte…Cette définition s’applique effectivement chez la drosophile , et chez tous les animaux, mais il faut bien préciser deux points. 
D’une part, la réciproque est fausse : les chercheurs se sont très vite rendus compte que tous les gènes à homéoboîte ne sont pas des gènes homéotiques, c’est-à-dire que leurs mutations ne donnent pas nécessairement un phénotype homéotique. C’est le cas des gènes bicoïd (1), engrailed, fushi tarazu  (2), ou encore des gènes Pax (3), qui sont  des gènes du développement, mais pas des gènes homéotiques.  
D’autre part, cette définition ne s’applique pas aux végétaux : les gènes entraînant des phénotypes homéotiques chez les végétaux ne possèdent pas l’homéoboîte.

Quel rôle jouent les gènes homéotiques chez les différents organismes ?

Chez les arthropodes comme la drosophile, animal modèle des laboratoires, les gènes homéotiques déterminent l’identité de chaque segment de l’animal : ils dirigent ainsi l’apparition de pattes, d’antennes, ou de balanciers suivant les segments. Le phénotype « pattes à la place des antennes », décrit par Bateson, est dû chez la drosophile à une mutation dans le complexe de gènes homéotiques Antennapedia (4). Cette spécification des segments se fait suivant un axe antéro-postérieur, et il est fortement corrélé à l’ordre des gènes sur les chromosomes : c’est la règle de colinéarité. En parcourant l’ADN de 3’ vers 5’, on trouve des gènes dont les lieux d’action s’échelonnent de l’avant vers l’arrière de l’animal. 
Chez les vertébrés, la majeure partie des gènes homéotiques intervient dans l’identité des différentes parties du corps, suivant l’axe antéro-postérieur, -mais pas dans celle de l’axe dorso-ventral. Une partie d’entre eux joue également un rôle dans l’édification des membres. Chez la souris par exemple, les gènes homéotiques, regroupés en 4 complexes appelés HOX A à HOX D, interviennent dans la régionalisation de la colonne vertébrale et du système nerveux central. Des mutations de ces gènes entraînent par exemple l’apparition de vertèbres cervicales à l’endroit des de vertèbres dorsales ou encore des lombaires à la place de dorsales.  
Chez les végétaux, les gènes à MADSbox déterminent la mise en place des différentes verticilles de pièces florales : sépales, pétales, carpelle, étamines...

Quel est le mode d’action des gènes à homéoboîte ? 

Les gènes à homéoboîte sont des régulateurs de transcription, activateurs ou inhibiteurs suivant les cas : ils sont en quelque sorte des gènes « maîtres », qui dirigent l’expression d’autres gènes. Prenons l’exemple des gènes homéotiques animaux, qui possèdent tous l’homéoboîte : cette séquence code un peptide de 60 acides aminés, appelé homéodomaine, qui possède dans sa structure secondaire trois hélices a lui permettant de se fixer à l’ADN. L’homéodomaine régule ainsi la transcription d’autres gènes. Chez les végétaux, la MADSbox joue un rôle similaire : elle code un peptide possédant un site de fixation à l’ADN.

Les gènes homéotiques sont très conservés au sein du monde vivant. En quoi ont-ils pu participer à la diversité des êtres vivants ?

Lorsqu’en 1983, Gehring et Kaufman découvrent « l’homéoboîte », on crible des banques connues de séquences de gènes pour savoir si cette séquence est présente chez d’autres organismes que la drosophile : on  trouve d’abord des gènes à homéoboîte chez la souris, chez l’homme, puis chez tous les vertébrés. La plupart de ces gènes s’avèrent homologues chez les arthropodes et chez les vertébrés. De plus, ils sont regroupés en complexes dans les deux cas. Or les paléontologues nous disent que les arthropodes et les cordés se sont séparés il y a 540 millions d’années ! L’ancêtre commun à ces deux embranchements possédait donc déjà des gènes à homéoboîte, qui se sont probablement dupliqués au sein d’un complexe, qui se scindera plus tard en deux sous-complexes chez la drosophile, et se dupliquera pour en donner 4 chez les vertébrés, créant de la diversité.  
Les gènes à homéoboîte forment une famille multigénique, les gènes homéotiques en sont une sous-famille, et les gènes Hox des animaux constituent encore un sous-ensemble homogène de la famille des gènes homéotiques.  
Les gènes à homéoboîte sont très anciens, puisqu’on les trouve chez les plantes, chez les champignons…. Il en va de même pour les gènes à MADSbox découverts chez les végétaux, et qui sont présents chez presque tous les Eucaryotes, des unicellulaires aux vertébrés (5) Des gènes très anciens, par duplication et remaniements, ont été « recrutés » au cours de l’évolution pour accomplir de nouvelles fonctions. 

Propos recueillis par  
Anne-Laure Monnier

 (1) bicoïd code une protéine déterminant la polarité antéro-postérieure de l’embryon  de drosophile 
(2) engrailed et fushi tarazu sont des gènes intervenant dans la segmentation de l’embryon de Drosophile 
(3) Parmi les gènes Pax des vertébrés, on trouve une famille multigénique qui possède une paired-box , séquence présente dans trois gènes de segmentation de la drosophile. Cette famille de gènes Pax interviendrait dans la formation du tube neural, du rein et de l’œil. Pax 6 est un gène de cette famille, homologue de eyeless et aniridia. 
(4) Drosophila melanogaster possède deux grands complexes de gènes homéotiques : Antennapedia et Bithorax , qui correspondent à la scission d’un complexe ancestral HOX.  
(5) le facteur immunitaire SRF, chez les vertébrés, possède une MADSbox.

 

DOCUMENT          acces.ens-lyon.fr           LIEN

LE TEMPS DES NEURONES

14/01/2017

LE TEMPS DES NEURONES
Quinze minutes de plongée dans le monde étrange et fascinant de nos cellules nerveuses. Grâce aux techniques de la microcinématographie, les phénomènes les plus complexes qui se déroulent dans le cerveau sont enfin montrés. Nous voyons naître les cellules nerveuses, nous les voyons grandir, travailler, mourir. Ces images mettent en évidence deux acteurs principaux : les cellules gliales, responsables de l'architecture et du nettoyage du cerveau, et les neurones qui ont pour fonction de communiquer en produisant des signaux. Un voyage dans le moi le plus intime.

GénériqueAuteurs : Marcel Pouchelet, William Rostène et Jean-François Ternay Réalisateur : Jean-François Ternay Producteur : CNRS Audiovisuel Diffuseur : CNRS Diffusion

 

  DOCUMENT       canal-u.tv     LIEN 

PHOTON

07/01/2017

photon
(de électron)


Quanton spécifique de la lumière, véhicule des interactions électromagnétiques.


Introduction
Les phénomènes électromagnétiques, allant de l'électricité et du magnétisme aux rayons X, en passant par les ondes radio et la lumière, ont été rassemblés dans un cadre théorique unique par James Clerk Maxwell vers 1865. Depuis cette date, les équations de Maxwell ont joué un rôle central dans l'histoire de la physique, et notamment dans l'origine et les développements de deux théories « révolutionnaires » apparues au début du xxe s. : la relativité et la mécanique quantique.
Une découverte essentielle, ayant marqué les débuts de ces deux théories, est le concept de « grain » ou quantum d'énergie lumineuse, devenu plus tard le photon. Pressenti par Max Planck en 1900, introduit réellement par Albert Einstein en 1905, le concept de photon s'est immédiatement révélé très fructueux dans l'interprétation de certaines expériences. Cependant, la notion de « grain » d'énergie lumineuse semblait alors totalement contradictoire avec les équations de Maxwell. Ces équations, qui prévoient l'existence d'ondes lumineuses, formaient pourtant une des bases les plus solides de la physique de la fin du xixe s.
La résolution de ces contradictions devait venir de la toute jeune mécanique quantique, grâce à laquelle Paul Dirac put effectuer en 1927 une synthèse entre les propriétés à la fois « ondulatoires » et « corpusculaires » que semble posséder le photon. La théorie de Dirac, développée ensuite sous le nom d'électrodynamique quantique, est aujourd'hui fondamentale pour la physique des hautes énergies, dont un résultat spectaculaire a été la mise en évidence des bosons intermédiaires Z0, W+ et W− au Cern en 1983. Par ailleurs, l'apparition du laser au début des années 1960 a conduit au développement rapide d'un nouveau champ de recherches, l'optique quantique, dans laquelle les propriétés quantiques de la lumière jouent un rôle essentiel. En particulier, il est maintenant possible d'observer directement les propriétés ondulatoires et corpusculaires d'un photon unique, matérialisant ainsi des concepts vieux de plus de cinquante ans.


Historique de la notion de photon
L'introduction du concept de photon ne s'est pas faite sans difficultés ; les étapes essentielles de ces débuts se situent entre 1900 et 1922.

Un matériau chauffé à une température suffisamment élevée émet de la lumière : il devient incandescent. Le spectre de la lumière émise, c'est-à-dire la répartition de l'énergie lumineuse en fonction de la fréquence (responsable de la couleur que nous voyons), devrait dépendre du matériau utilisé. Cependant, Gustav Kirchhoff montra en 1860, par un argument thermodynamique très général, que ce spectre dépend uniquement de la température – et non du matériau particulier – à condition que celui-ci soit parfaitement absorbant ; on parle alors de « corps noir ». Cette découverte déclencha un intense travail expérimental et théorique, afin, d'une part de réaliser concrètement un tel corps noir et de mesurer son spectre et, d'autre part, de calculer la loi inconnue ρ (ν, T) exprimant la quantité d'énergie rayonnée à la fréquence ν par un corps noir chauffé à la température T.
À la fin du xixe s., les méthodes de mesure de l'émissivité du corps noir avaient beaucoup progressé, mais les tentatives de calculs de ρ (ν, T) demeuraient infructueuses : deux lois différentes semblaient s'appliquer aux régions « basses fréquences » et « hautes fréquences » des spectres observés. Enfin, en 1900, Planck parvenait à la bonne formule par une démarche d'abord intuitive. En fait, le caractère révolutionnaire de cette découverte apparut réellement lorsque Planck parvint à justifier rigoureusement sa formule, en admettant que les échanges d'énergie entre la lumière et le matériau s'effectuaient par quanta, c'est-à-dire par « paquets » indivisibles. La valeur du quantum d'énergie, dépendant de la fréquence ν, est égale à hν, où h est une constante universelle, maintenant baptisée « constante de Planck ».
Rien, dans la physique de cette époque, ne pouvait justifier l'hypothèse de Planck : la loi d'émissivité du corps noir, immédiatement confirmée par l'expérience, ouvrait donc la voie à des théories entièrement nouvelles.
Einstein et l'effet photoélectrique

En 1905, le mystère des quanta de Planck restait entier ; on ignorait si la lumière, les atomes, ou seulement les échanges d'énergie devaient être quantifiés. C'est alors qu'Einstein proposa que la lumière elle-même soit formée de quanta (qui devaient être baptisés photons seulement en 1926) ; cette hypothèse permettait d'interpréter de façon simple l'effet photoélectrique.
Cet effet, connu depuis la fin du xixe s., consiste en l'émission d'électrons par une plaque métallique éclairée par un faisceau lumineux. Deux observations semblaient défier toute explication : tout d'abord, l'effet n'existe que pour des fréquences lumineuses ν supérieures à une certaine fréquence seuil νs ; ensuite, l'énergie cinétique des électrons émis dépend de la fréquence, c'est-à-dire de la couleur, et non de l'intensité de la lumière utilisée. L'interprétation fournie par Einstein fut alors la suivante : la lumière est formée de grains d'énergie hν et l'absorption d'un de ces grains provoque l'émission d'un électron par la plaque métallique. L'énergie cinétique Ec communiquée à l'électron est alors l'énergie hν, diminuée d'une quantité fixe Ws nécessaire pour arracher l'électron au matériau, ce qui se représente par l'équation : 
Ec = hν − Ws
Cette équation très simple rend compte de tous les faits expérimentaux observés : 
– l'énergie cinétique Ec d'un électron émis ne dépend pas de l'intensité de la lumière (c'est-à-dire du nombre de photons) mais de sa fréquence ; Ec augmente du côté « bleu » du spectre visible (hautes fréquences) ; 
– pour que l'électron soit émis, l'énergie Ec doit être positive ; il existe donc un seuil à l'effet photoélectrique, c'est-à-dire une valeur minimum hνs = Ws en dessous de laquelle aucun électron n'est émis.
Le seuil dépend du métal utilisé ; les valeurs les plus basses de hνs sont obtenues pour les métaux alcalins.
Des expériences réalisées par Robert Millikan, en 1915, confirmèrent toutes ces prédictions.
L'énergie seuil fut mesurée pour plusieurs métaux, et la valeur de h obtenue par ces expériences se révéla être en très bon accord avec celle obtenue par Planck à partir de la loi d'émissivité du corps noir : on pouvait donc penser que le photon allait avoir gain de cause. En fait, rien n'était encore joué, puisque Millikan et, avec lui, de nombreux autres physiciens de renom rejetaient l'interprétation de l'effet photoélectrique donnée par Einstein. Ce conflit provenait de la contradiction apparente qui existe entre le concept de photon – particule de lumière – et les équations de Maxwell de l'électromagnétisme – qui impliquent l'existence d'ondes lumineuses.


Compton et la diffusion électron-photon

Cependant, une nouvelle expérience en faveur du photon « corpusculaire » devait emporter l'adhésion de la communauté des physiciens : il s'agit de l'étude par Arthur Compton de la « collision » d'un électron et d'un photon. Les équations de l'effet Compton décrivent le choc d'un électron et d'un photon comme un choc de particules matérielles, en assurant la conservation de l'énergie et de la quantité de mouvement. Le résultat du calcul est que le photon est dévié, et sa fréquence légèrement changée. La valeur théorique de ce décalage de fréquence fut confirmée expérimentalement par Compton, ce qui imposa définitivement la nécessité du concept de photon.
En 1918, Planck reçut le prix Nobel pour la découverte du quantum d'action ; Einstein, en 1922, pour son interprétation de l'effet photoélectrique ; Compton, en 1927, pour la découverte de l'effet qui porte son nom. Peu de temps après, les progrès réalisés par la théorie quantique allaient permettre une description synthétique des propriétés à la fois « ondulatoires » et « corpusculaires » de la lumière.
Le photon, particule élémentaire
Fiche d’identité du photon
Le photon est une particule de masse nulle, de spin unité ; son énergie est E = hν, et sa quantité de mouvement est p = (h/2π) k où k est le vecteur d'onde associé à la particule.
Interactions photon-matière
Les interactions des photons avec des atomes ou d'autres particules peuvent s'accompagner de transfert d'énergie, d'impulsion ou de moment cinétique. Par exemple, des photons polarisés circulairement peuvent transférer leur moment cinétique à une vapeur atomique : c'est le principe du pompage optique, inventé par Alfred Kastler en 1950, utilisé notamment dans les lasers.
De même, la pression de radiation exercée par un faisceau lumineux sur des atomes peut être utilisée pour ralentir ou dévier un jet d'atomes. Ces phénomènes sont observés dans le domaine des basses énergies, c'est-à-dire pour des valeurs de hν très inférieures à l'énergie de masse mec2 d'un électron. Lorsque hν devient plus grand que 2 mec2 (domaine des rayons γ), l'électrodynamique quantique relativiste prédit la possibilité pour un photon de se transformer en une paire électron-positon (le positon, également appelé positron, étant l’antiparticule de l’électron) ; la réaction inverse (annihilation d'une paire) est possible également, et de telles réactions sont couramment observées dans les accélérateurs de particules.


Le photon dans le modèle standard
Dans les théories contemporaines, le photon est le médiateur de l'interaction électromagnétique, c'est-à-dire que cette interaction est décrite comme un échange de photons. À très haute énergie, Steven Weinberg, Abdus Salam et Sheldow Glashow ont montré que l'interaction électromagnétique s'unifie avec l'interaction faible, responsable de certaines réactions de désintégration. Les médiateurs de cette interaction électrofaible sont les bosons intermédiaires Z0, W+ et W−.

 

DOCUMENT   larousse.fr    LIEN

 

LANGAGE

30/12/2016

 langage
Capacité, observée chez tous les hommes, d'exprimer leur pensée et de communiquer au moyen d'un système de signes vocaux et éventuellement graphiques (la langue). [Voir également troubles du langage.]


LINGUISTIQUE

Le langage est un système qui a pour finalité de réaliser un message d'un émetteur vers un récepteur. Cela permet d'englober plusieurs modes de communication formalisés : langue naturelle, langages artificiels (de programmation informatique, par exemple), ou tout autre code : Code de la route, langage des fleurs, etc. Chaque langue naturelle est un code original propre à l'espèce humaine ; les langages artificiels proviennent de simplifications et de conventions à partir des langues naturelles.


La hiérarchisation des signes


Ce système est dit « articulé » (A. Martinet), ce qui signifie que tout énoncé langagier doit pouvoir s'analyser à deux niveaux. Au niveau de la production de chaque langage, chaque unité s'articule en deux unités non significatives mais distinctives, par exemple entre le phonème (son émis) et le morphème (forme minimale de signification ; exemple : le pluriel en -s), entre le morphème et le syntagme (unité dans une organisation phrastique ; exemple : « le chien » dans « le chien dort »), etc. La combinaison des morphèmes, liée à la syntaxe (L. Bloomfield, Z. Harris), et l'assemblage des syntagmes forment une structuration hiérarchisée d'éléments constituants. C'est là que se situe la spécificité du langage humain, par opposition à un « langage » animal, dont on ne peut parler que par métaphore : les abeilles communiquent, mais leur mode de communication est exclusivement signalétique ; ce n'est donc pas un langage articulé.
Différentes écoles ont tenté de décrire l'intégration systémique du langage humain : les structuralistes (F. de Saussure, L. T. Hjelmslev) ont mis l'accent sur les oppositions et les complémentarités dans les distributions de phonèmes, morphèmes, lexèmes, etc., d'où résulterait le fonctionnement du système langagier. Les dernières théories de N. Chomsky ont permis d'avancer l'hypothèse d'une organisation en modules, c'est-à-dire en petites unités de traitement distribuées en réseaux réglés pour permettre la communication de l'information.


Les fonctions du langage

La notion de fonction du langage a été mise en valeur par l'école de Prague. La fonction principale est celle de communication (dite aussi référentielle ou cognitive). Cependant, selon les caractères de la communication, il existe différentes fonctions du langage. R. Jakobson a distingué six fonctions qui, dans toute langue, se rapportent chacune à l'un des pôles fondamentaux de la communication linguistique. Toute communication fait en effet intervenir six facteurs : l'émetteur, le destinataire, le contexte, ou référent, le code commun à l'émetteur et au destinataire, le canal (le support physique) de la communication, le message.
Le linguiste distingue ainsi la fonction émotive, qui centre le message sur l'émetteur, le locuteur (exemple : « Quel sale temps ce week-end ! »), la fonction conative, qui vise à influencer le destinataire (exemple : « Corrige-moi si je me trompe » ; « Viens ici »!), la fonction référentielle (ou dénotative, ou cognitive), qui renvoie au contexte (exemple : « Le chien est un animal »), la fonction phatique, qui renvoie au canal ou au contact (exemple : « Allo, ne coupez pas »), la fonction métalinguistique, qui renvoie au code lui-même (exemple : « Porte-manteau est invariable ») la fonction poétique, qui concerne le message en lui-même.


Les universaux du langage

On peut dénombrer dans le langage un certain nombre d'universaux, parmi lesquels on peut distinguer des universaux substantiels et des universaux conditionnels.
Dans la catégorie des universaux substantiels entreraient le prédicat (ce qu'on dit d'un sujet dans un énoncé quelconque) ainsi que les mots fonctionnels. En effet, dans toutes les langues du monde existent des formes (noms ou verbes) susceptibles de recevoir la fonction prédicative et se trouvent également des morphèmes ne désignant rien par eux-mêmes (ils ne renvoient pas aux choses), mais dont la fonction est d'établir tel ou tel rapport entre les unités du lexique : les prépositions, les postpositions, les conjonctions, etc.
Les universaux conditionnels mettent en relation deux phénomènes : ils sont formulés sous une forme d'implication (si p, alors q). Ainsi, dans les langues à prépositions, le génitif suit presque toujours le nom régissant ; dans les langues à postpositions, il le précède presque toujours. Les langues à ordre PSO (prédicat-sujet-objet) sont toujours à prépositions (l'arabe, par exemple). Avec une fréquence qui ne peut être due au hasard, les langues à ordre SOP (sujet-objet-prédicat) sont postpositionnelles (le japonais, les langues altaïques, le birman, par exemple). [→ langue.]

 

  DOCUMENT   larousse.fr    LIEN

Découverte d'un système « immunitaire » chez les virus géants

24/12/2016

Paris, 11 mars 2016
Découverte d'un système « immunitaire » chez les virus géants

Des chercheurs de l'unité de recherche sur les maladies infectieuses tropicales émergentes (Aix-Marseille Université / CNRS / IRD / INSERM) – située à l'IHU Méditerranée Infection - avec le soutien de l'AP-HM - viennent de mettre en évidence l'existence d'un système de défense chez les virus géants capable d'empêcher l'infection de ces derniers par des virophages. Un virophage étant lui-même un virus capable d'infecter d'autres virus. Il s'agit de la première démonstration qu'un virus peut avoir un système « immunitaire » de défense contre un autre virus. Ces travaux viennent de faire l'objet d'une publication dans Nature.
L'équipe du Pr Didier Raoult a été la première à rapporter l'existence de virus géants en 2004 (Raoult et al. 2004). Mimivirus est ainsi le premier virus géant découvert et quelques années plus tard cette même équipe décrit une nouvelle entité, les virophages qui sont des virus capables d'infecter d'autres virus (La Scola et al. 2008). Depuis leur découverte, les virus géants ont révélé un certain nombre de caractéristiques uniques qui vont à l'encontre de  la définition classique d'un virus, comme par exemple leur taille importante, la taille et la complexité de leur génome, leur infection possible par des virophages et la présence de transpovirons (Desnues et al. 2012) . 
Dans cette étude publiée dans le journal Nature, les chercheurs ont observé qu'un groupe parmi les Mimivirus (appelé lignées A) a développé une résistance contre l'infection par un virophage nommé Zamilon, alors que les Mimivirus des lignées B et C sont sensibles à l'infection par ce virophage. C'est en essayant de comprendre ce mécanisme de résistance au virophage si particulier et unique dans le monde viral que les chercheurs ont trouvé la présence d'une  séquence répétée d'ADN de Zamilon qui sert à accrocher le virophage uniquement dans la lignée A. Ce complexe a ainsi été nommé MIMIVIRE (MIMIvirus VIrophage Résistance Elément) et présente des similarités fonctionnelles avec le système de défense CRISPR-Cas existant jusqu'alors uniquement chez les bactéries et les archées et comportant une enzyme déroulant l'ADN et une autre le coupant. 
L'inactivation du complexe MIMIVIRE a permis de restaurer la susceptibilité de Mimivirus à l'infection par le virophage. Les protéines partenaires comprises dans ce complexe MIMIVIRE sont impliquées dans la dégradation spécifique de l'ADN étranger. Le système de défense virale, MIMIVIRE, confère ainsi une immunité aux virus géants qui ont pu intégrer dans leur génome l'ADN du virophage infectant. 
Ceci est la première démonstration qu'un virus peut avoir un système « immunitaire » de défense contre un autre virus et renforce l'idée d'un quatrième monde des microbes.

 

 DOCUMENT         cnrs        LIEN 

Imiter les virus pour livrer des médicaments au coeur des cellules

15/12/2016

Paris, 27 août 2015
Imiter les virus pour livrer des médicaments au coeur des cellules

Les virus ont une aptitude à détourner le fonctionnement des cellules pour les infecter. En s'inspirant de leur mode d'action, des chercheurs du CNRS et de l'Université de Strasbourg ont conçu un « virus chimique » capable de franchir la double couche de lipides qui délimite les cellules, puis de se désagréger dans le milieu intracellulaire afin d'y libérer des molécules actives. Pour cela, ils ont utilisé deux polymères de leur conception, qui ont notamment des capacités d'auto-assemblage ou de dissociation selon les conditions. Ces travaux, fruit d'une collaboration entre chimistes, biologistes et biophysiciens, sont publiés dans l'édition du 1er septembre de la revue Angewandte Chemie International Edition.
Les progrès biotechnologiques donnent accès à un trésor de molécules ayant un potentiel thérapeutique. Beaucoup de ces molécules sont actives uniquement à l'intérieur des cellules humaines et restent inutilisables car la membrane lipidique qui délimite les cellules est une barrière qu'elles ne peuvent pas franchir. L'enjeu est donc de trouver des solutions de transfert aptes à traverser cette barrière. 

En imitant la capacité des virus à pénétrer dans les cellules, des chimistes du Laboratoire de conception et application de molécules bioactives (CNRS/Université de Strasbourg) cherchent à concevoir des particules à même de libérer des macromolécules actives uniquement au sein des cellules. Pour cela, ces particules doivent obéir à plusieurs contraintes souvent contradictoires. Elles doivent être stables dans le milieu extracellulaire, capables de se lier aux cellules afin d'être internalisées mais être plus fragiles à l'intérieur des cellules pour libérer leur contenu. Avec deux polymères de leur conception, les chercheurs ont réussi à construire un "virus chimique" remplissant les conditions nécessaires pour transférer directement des protéines actives dans la cellule.

Concrètement, le premier polymère (pGi-Ni2+) sert de support aux protéines, qui s'y fixent. Le second polymère (πPEI), récemment breveté, encapsule cet ensemble grâce à ses charges positives qui se lient aux charges négatives du pGi-Ni2+. Les particules obtenues (30-40 nanomètres de diamètre) sont capables de reconnaitre la membrane entourant les cellules et de s'y lier. Cette liaison active une réponse cellulaire : la nanoparticule est enveloppée par un fragment de membrane et entre dans un compartiment intracellulaire appelé endosome. Alors qu'ils étaient stables à l'extérieur de la cellule, les assemblages sont ébranlés par l'acidité qui règne dans ce nouvel environnement. Par ailleurs, cette baisse de pH permet au polymère πPEI de faire éclater l'endosome, ce qui libère son contenu en molécules actives. 

Grâce à cet assemblage, les chercheurs ont pu concentrer suffisamment de protéines actives à l'intérieur des cellules pour obtenir un effet biologique notable. Ainsi, en transférant une protéine appelée caspase 3 dans des lignées de cellules cancéreuses, ils ont réussi à induire 80 % de mort cellulaire1. 

Les résultats in vitro sont encourageants, d'autant que ce "virus chimique" ne devient toxique qu'à une dose dix fois supérieure à celle utilisée dans cette étude. Par ailleurs, des résultats préliminaires chez la souris ne font pas état de surmortalité. L'élimination par l'organisme des deux polymères reste cependant une question ouverte. La prochaine étape consistera à tester ce système de manière approfondie in vivo, chez l'animal. A court terme, ce système servira d'outil de recherche pour vectoriser2 dans les cellules des protéines recombinantes et/ou chimiquement modifiées. A long terme, ce travail pourrait ouvrir le champ d'application des protéines pharmaceutiques à des cibles intracellulaires et contribuer à la mise au point de médicaments novateurs. 

Ces travaux ont été rendus possibles par la collaboration de biophysiciens et de biologistes. Les compétences en cryomicroscopie électronique de l'Institut de génétique et de biologie moléculaire et cellulaire (CNRS/Université de Strasbourg/Inserm) et l'expertise en microscopie à force atomique du Laboratoire de biophotonique et pharmacologie (CNRS/Université de Strasbourg) ont permis de caractériser les assemblages moléculaires de manière très précise. Le laboratoire Biotechnologie et signalisation cellulaire (CNRS/Université de Strasbourg) a quant à lui fourni les protéines recombinantes encapsulées dans le virus artificiel.

 

 DOCUMENT         CNRS         LIEN

LE NIL

08/12/2016

Le Nil


Principal fleuve d'Afrique, drainant un bassin d'environ 3 millions de km2 et long de 6 700 km (5 600 km depuis le lac Victoria), et qui rejoint la mer Méditerranée par un vaste delta.
Le fleuve a été appelé Hâpî par les Pharaons, Chrysonoas par les Grecs, Bahr (« mer ») par les Arabes.
GÉOGRAPHIE
1. Le cours du Nil

Le fleuve trouve son origine dans un cours d'eau du Burundi, le Kasumo, qui devient, dans son cours inférieur, la Kagera, tributaire du lac Victoria. Cette mer intérieure (près de 70 000 km2), perchée à 1 133 m, s'écoule vers le Nord par le Nil Victoria, qui traverse le lac Kioga entre deux chutes. Il pénètre ensuite dans le lac Albert, alimenté par la Semliki, et en sort sous le nom de Bahr el-Gebel, « rivière de la Montagne », puis entre dans la plaine du Soudan du Sud. Les inondations, la multiplication des bras, la végétation aquatique et une évaporation intense qui prélève près de la moitié de la masse liquide caractérisent cette immense cuvette marécageuse des « sadd », qui reçoit en outre le Bahr el-Ghazal. Sortant du lac No, le fleuve, qui prend alors le nom de Nil Blanc (Bahr el-Abiad), reçoit le Sobat (rive droite), reprend la direction du nord et entre au Soudan.

À Khartoum, il reçoit le Nil Bleu (Bahr el-Azrak) et, dès lors, on lui donne parfois le nom de Grand Nil. Il reçoit encore l'Atbara, toujours sur la rive droite, et travers ensuite 2 700 km de désert, en Nubie, puis continue son cours en Égypte, passe au Caire, à la tête du delta, avant de rejoindre la mer Méditerranée.
2. Le profil du Nil

Le profil longitudinal du Nil n'est pas régularisé dans le cours supérieur, mais, à l'entrée des marais des « sadd », la pente devient très faible, jusqu'au-delà de Khartoum (3,5 cm par km). En aval, une série d'accidents séparent des biefs à pente douce : ce sont les fameuses « cataractes » numérotées de 1 à 6 en remontant le cours du fleuve à partir d'Assouan. En fait, ce ne sont que des rapides qui, souvent, n'interdisent la navigation qu'en basses eaux. Peu après la deuxième cataracte, la vallée inférieure constitue la partie habitable de l'Égypte. Le haut-barrage d'Assouan régularise son cours inférieur et créé un vaste lac artificiel, long de 500 km (en partie au Soudan). Passé Le Caire, le Nil entre dans son delta, construction postglaciaire qui a continué de progresser pendant la période historique et dont l'extension est à présent bloquée par la raideur de la pente sous-marine et le fort courant littoral. Le fleuve aboutit à la mer par les branches de Rosette et de Damiette, aux modules respectifs de 1 076 et 508 m3s.
Le bassin du Nil s'étend de l'équateur à la Méditerranée et inclut des parties de dix États : Burundi, Rwanda, Tanzanie, Ouganda, Kenya, République démocratique du Congo, Soudan du Sud, Éthiopie, Soudan, Égypte.
3. Le régime du Nil

En Égypte, le Nil a un régime simple et plutôt régulier : le débit, minimal au début du mois de juin, augmente jusqu'à la fin de septembre pour décroître ensuite. Ce régime est pourtant le résultat d'une combinaison complexe d'affluents répartis sur 35 degrés de latitude. Le Nil Blanc, malgré un appauvrissement dans les « sadd », a encore beaucoup d'eau en saison sèche et son régime est pondéré. Le Nil Bleu et l'Atbara sont, au contraire, excessifs : au début de septembre, ils apportent au Nil plus de 90 % de son débit moyen de 8 000 m3s mais, en avril, le Nil Bleu est fort réduit (131 m3s) et, pendant cinq mois, de janvier à mai, l'Atbara est à sec. La fameuse crue du fleuve est due à la montée des affluents éthiopiens, dont les eaux violentes érodent les massifs volcaniques auxquels elles arrachent des terres fertiles. Il en résultait jadis l'inondation de la vallée égyptienne, à laquelle échappaient les villages construits sur des buttes. Le sol emmagasinait une réserve naturelle d'eau, tandis que la surface recevait quelques millimètres de limon régénérateur. Dès novembre, le fleuve étant rentré dans son lit mineur, on procédait aux semailles dans la boue. Cependant, si les hautes eaux ont toujours lieu dans la même saison, elles sont parfois faibles et tardives, parfois hautes et dévastatrices. Ainsi le débit moyen annuel du Nil à Assouan a pu varier de 4 341 m3s en 1879 à 1441 m3s en 1913, alors que la moyenne, pour 80 ans, est de 2 922 m3s. Les nilomètres permettaient de noter, dès l'Antiquité, la hauteur de la crue et même de faire des pronostics.
4. Les travaux sur le Nil
Depuis le xixe s., le régime du Nil a été sensiblement transformé par de grands travaux : édification de barrages pour relever le plan d'eau à la tête des canaux (notamment barrages du Delta, d'Assiout, de Nag Hamadi, de Esnèh près de Louqsor) et création de barrages-réservoirs pour améliorer le débit entre février et juillet (barrages d'Assouan, du Djebel Aulia, de Sennar, d'Owen Falls). Enfin, à proximité d'Assouan, le Haut-Barrage, construit de 1960 à 1964 et dont la mise en eau a été achevée en 1972, est l'un des plus imposants du monde. L'intérêt, capital pour l'Égypte, d'un développement de l'irrigation et l'avantage d'une production hydroélectrique dans un pays mal pourvu de sources d'énergie sont à l'origine de cet ouvrage. Le Nil est enfin un fleuve navigable par biefs, entre les rapides ou les chutes, et son cours égyptien est utilisé par une batellerie très active.
4.1. Les premiers barrages
La vallée fut équipée de barrages d'élévation à Assiout (1902), à Esnèh (1909) et à Nag Hamadi (1930). Ces travaux visaient surtout à étendre la culture du coton, pour approvisionner les filatures anglaises. Mais l'extension de l'irrigation pérenne fut handicapée par le manque d'eau pendant l'étiage, alors que la plus grande partie de l'eau de la crue se perdait dans la Méditerranée. Les premiers barrages-réservoirs en Égypte et au Soudan permirent d'augmenter le niveau de l'eau disponible pendant l'étiage : le premier barrage d'Assouan (1898-1902) voit sa capacité passer de 1 à 5 milliards de mètres cubes, grâce à deux surélévations ; le barrage de Sennar (1925), sur le Nil Bleu, sert à irriguer le vaste périmètre cotonnier de la Gezireh – en échange, le Soudan renonce en 1929 à toute ponction entre janvier et juillet ; le barrage du Djebel Aulia (1929-1933) retient les eaux du Nil Blanc durant la crue du Nil Bleu.
4.2. Le haut barrage d'Assouan
Les besoins augmentant plus vite que les disponibilités, la solution proposée est celle d'un nouveau barrage à Assouan, qui retiendrait toute la crue dans un réservoir d'une capacité maximale de 156 milliards de mètres cubes, à cheval sur l'Égypte et le Soudan. L'eau du Nil est partagée, en 1959, sur la base de 55,5 milliards de mètres cubes pour l'Égypte et 18,5 milliards pour le Soudan (les pertes du lac-réservoir représentent 10 milliards de mètres cubes). Le barrage, construit avec l'aide soviétique, est inauguré en 1970, quelques semaines après la mort du président Nasser, qui en avait été l'initiateur. Cent mille villageois nubiens durent quitter leur foyer submergé.
Le haut barrage d'Assouan a permis la régulation pluriannuelle du débit, la production d'électricité, la bonification d'étendues désertiques sur les marges de la vallée et du Delta (400 000 ha), le passage à l'irrigation pérenne des derniers bassins de Haute-Égypte (300 000 ha), l'extension des cultures grosses consommatrices d'eau, comme la canne à sucre et le riz. Mais le haut barrage a aussi pour effet de retenir le limon de la crue, réduisant à néant la pêche côtière, érodant les berges et le littoral, et privant le sol de sa fertilité. Les paysans arrosent trop, provoquant l'élévation de la nappe phréatique et la salinisation des terres. La mise en valeur du désert n'a pas compensé la perte des meilleurs sols devant la croissance urbaine. Enfin, la croissance démographique et l'augmentation constante des besoins ont contraint l'Égypte à consommer plus que sa part, tandis que le Soudan entreprenait de se doter de ses propres aménagements.
4.3. Les nouveaux projets
Sur le Nil Blanc, le percement du canal de Jongleï, long de 380 km et destiné à drainer une partie des sadd, commence en 1978. Cofinancé par l'Égypte et le Soudan, il devait fournir à chacun 3,5 milliards de mètres cubes d'eau supplémentaires par an. Mais la reprise de la guerre civile au Soudan a entraîné l'arrêt des travaux en 1983. C'est cependant le Nil Bleu qui détient le plus grand potentiel inexploité : il dispose de sites hydroélectriques prometteurs et donne à l'Éthiopie, qui en a la maîtrise, les clés du destin du Soudan et surtout de celui de l'Égypte. Devant la pression démographique croissante sur les vieilles terres érodées du plateau, le gouvernement éthiopien a mis en chantier de vastes projets agricoles dans les vallées du Nil Bleu, de la Sobat et de l'Atbara.
En 2013, l'Éthiopie a commencé les travaux de détournement du cours du Nil Bleu en vue de la construction du barrage de la Renaissance, destiné à la production d'hydroélectricité.
5. Les accords de partage des eaux du Nil
Plusieurs accords ont été signés entre les pays riverains pour le partage des eaux du Nil.
5.1. Les accords de 1929 et de 1959
Les accords de 1929 et de 1959 étaient favorables à l'Égypte. Seuls deux pays peuvent disposer du débit du Nil : l'Égypte et le Soudan (qui englobe alors le Soudan du Sud). Les deux tiers reviennent à l'Égypte, 22 % au Soudan, tandis que l'Éthiopie ne reçoit rien. L'Égypte dispose d'un droit de veto sur tout projet sur le fleuve.
5.2. L'accord d'Entebbe, en 2010
L'accord d'Entebbe a été signé en 2010 par six pays de l'amont du fleuve : l'Éthiopie, le Kenya, la Tanzanie, le Rwanda, le Burundi et l'Ouganda. Il conteste les accords de 1929 et de 1959. L'Égypte a rejeté cet accord.
HISTOIRE
1. Le Nil dans l'Antiquité égyptienne : berceau d’une civilisation
L'agriculture apparaît dans la basse vallée du Nil il y a environ 7 000 ans. Il s'agit tout d'abord de cultures pratiquées dans le limon laissé par la décrue du fleuve ; puis, vers 3400 avant notre ère, on note une organisation supravillageoise qui permet de retenir l'eau dans des bassins.
L'unification du Delta et de la vallée égyptienne est réalisée vers 3300 avant J.-C., et assure la prospérité du pays, grâce au contrôle centralisé de la crue et de l'activité agricole, durant l'Ancien, le Moyen et le Nouvel Empire. En revanche, les périodes de division (première période intermédiaire, fin du Nouvel Empire) ou d'occupation étrangère entraînent désordre et famine.
1.1. La civilisation koushite
Au-delà de la 1ere cataracte sont entreprises de fructueuses expéditions, qui aboutissent parfois à une présence égyptienne permanente. Mais dès le IVe millénaire est apparue au Soudan actuel la civilisation koushite, dont la capitale est Kerma, en Nubie.
Colonisée au Moyen Empire, la Nubie recouvre son indépendance lors de la deuxième période intermédiaire et de l'occupation de l'Égypte par les Hyksos.
1.2. Napata, Méroé, Aksoum
Sous le Nouvel Empire, Thoutmosis III la reconquiert; mais elle s'émancipe à nouveau vers l'an 1000. Ce sera pourtant par elle que l'unité sera rétablie sous la XXVe dynastie, dite éthiopienne, des pharaons noirs de Napata ; vers 700 avant J.-C., ils étendent leur pouvoir jusqu'à la Méditerranée pendant un siècle, puis le royaume de Napata, replié au sud de la 1ere cataracte, transfère sa capitale à Méroé, entre l'Atbara et le Nil Bleu. La civilisation méroïtique, où le respect des traditions égyptiennes s'allie au fonds africain, est maintenue jusqu'au iiie siècle de notre ère, avant de disparaître sous les coups du puissant royaume d'Aksoum, qui contrôle le haut bassin du Nil Bleu.
1.3. Le Nil, bon génie des Égyptiens
Le Nil était vénéré par les Égyptiens comme un bon génie, envoyé par les dieux ; son nom était Hâpî. On localisa d'abord sa retraite dans une grotte située au milieu de la première cataracte ; il s'agit là, en fait, d'une fiction mythologique, les Égyptiens sachant très bien que la Basse-Égypte, plus avancée en civilisation, bénéficiait d'une irrigation régularisée pendant la période de l'inondation annuelle, alors que la Haute-Égypte laissait passer sans l'endiguer un flot dévastateur.
Après que la Haute-Égypte eut été dotée à son tour d'un système d'irrigation, on lui appliqua le même cadre mythologique, une seconde retraite étant assignée au bon génie Nil. Lorsque l'Égypte fut unifiée, on représenta sur les monuments et on vénéra deux Nils, le premier étant censé prendre sa source en amont d'Éléphantine, le second, à Hélouân, en amont d'Héliopolis.
2. L'ère chrétienne et la conquête arabe
Des royaumes chrétiens, berceau d'une civilisation florissante, se fondent en Abyssinie à partir du ive siècle, et en Nubie à partir du vie siècle.
La conquête arabe de l'Égypte, en 641 rend plus difficiles les contacts de ces royaumes avec les centres de la chrétienté. Le royaume d'Aloa, au confluent des deux Nils, subsiste pourtant jusqu'au début du xvie siècle, et le christianisme éthiopien, demeuré monophysite, comme celui d'Égypte, se maintient jusqu'à nos jours. L'islam ne provoque pas l'unification de la vallée du Nil, même si en 1504 le sultanat noir des Fundji s'établit sur les rives du Nil soudanais, avec sa capitale à Sennar.
Dans la région des Grands Lacs, c'est au xiiie-xive siècle que les pasteurs tutsis s'installent au Rwanda, et en soumettent les cultivateurs hutus et les chasseurs pygmées, tandis que l'Ouganda est le siège de quatre royaumes : Bouganda, Toro, Ankolé et Bounyoro, le plus puissant. Mais au XVIe siècle, le Bouganda, en s'alliant aux commerçants arabes de la côte, prend le dessus et continue son expansion jusqu'à l'occupation britannique.
3. La découverte du Nil
Le réseau supérieur du fleuve est demeuré longtemps inconnu. Ce sont les récits des marchands qui permirent l'établissement des premières cartes, où l'on note des « monts de la Lune », vers les sources. Néron envoya deux centurions à la recherche de celles-ci ; ils furent arrêtés par les sadd (ilôts de végétation formant barrage).
Du xiiie au xviiie siècle, l'Éthiopie est parcourue, et le Nil Bleu repéré ; on le considérait comme le fleuve principal.
Au xixe siècle, les expéditions ordonnées par Méhémet-Ali atteignent, en remontant le Nil Blanc, Gondokoro, en amont des sadd. Partant de l'océan Indien, l’explorateur John Hanning Speke, avec sir Richard Francis Burton puis avec James Augustus Grant, atteint le lac Victoria ; Speke le contourne pour toucher à Gondokoro (1863). Un long travail de reconnaissance, de cartographie et d'hydrologie commença alors.
À la suite de l'ouverture du canal de Suez, la Grande-Bretagne impose son protectorat sur l'Égypte (1882), tandis qu'au Soudan le Mahdi s'empare de Khartoum (1885) et fonde un empire qui dure treize ans.
L'Éthiopie est également menacée, mais les troupes italiennes sont écrasées à Adoua en 1890. Les visées françaises et britanniques se heurtent à Fachoda (1898), sur le Nil Blanc : la Grande-Bretagne a décidé de reconquérir le Soudan pour faire la jonction avec ses possessions d'Afrique orientale, alors que la France espère atteindre la mer Rouge (→ affaire de Fachoda).

 

 DOCUMENT   larousse.fr    LIEN

 

Ramsès II

01/12/2016

Ramsès II

Troisième pharaon de la XIXe dynastie (1301-1236 avant J.-C.).
Le règne de Ramsès II se situe au début de la seconde moitié du Nouvel Empire (1580-1085 avant J.-C.), la dernière période de gloire et de prospérité de l'Égypte ancienne. À cette époque de l'histoire de l'humanité, l'Égypte est encore une grande puissance qui rayonne sur tout le Proche-Orient et qui, bien au-delà, mène une politique ouvertement expansionniste en Afrique et en Asie.
Un monarque guerrier

Fils de Seti Ier, Ramsès II est le troisième souverain de la XIXe dynastie, qui a pris le pouvoir vers 1314 avant J.-C., soixante ans après le règne d’Akhenaton. Les années troublées qui suivent directement celui-ci (règnes de Smenkhkarê, de Toutankhamon, de Aï) sont mal connues ; mais on sait que, vers 1339 avant J.-C., le général Horemheb, qui a su conserver l'intégrité des frontières de l'Empire menacé, est désigné comme roi par un oracle d'Amon ; il restaure l'Empire et l'État. Sans héritiers, il adopte pour successeur un général originaire, semble-t-il, de Tanis, Ramsès Ier, qui, très vite, associe son fils Seti Ier au trône. Avec cette dynastie de monarques guerriers, provenant des marches de l'Asie, la politique égyptienne devient résolument impérialiste, l'idéologie se fait violente : Amon rétablira par la terreur la domination du roi, qui sera « celui qui s'élance sur ses ennemis comme un lion terrible, qui entasse leurs cadavres auprès de leurs vallées, qui les renverse dans leur sang… ».
La lutte contre les Hittites
Quand Ramsès II monte sur le trône, la situation extérieure est de nouveau menaçante. Il y a un danger principal : le royaume du Hatti (peuplé par les Hittites, et constitué dans la région des plateaux de l'Anatolie actuelle lors des invasions indo-européennes du IIe millénaire avant J.-C.) et son actif souverain, Mouwattali. Une intense activité diplomatique a permis à celui-ci de nouer un réseau d'alliances en Asie Mineure, constituant ainsi un bloc de puissance politique rival du « groupe » égyptien ; de plus, à l'hégémonie économique de l'Égypte en Méditerranée, le Hatti oppose maintenant une politique concurrente en Égée, à laquelle la puissance mycénienne (succédant à celle de la Crète) donne une importance nouvelle ; les commerçants des îles égéennes se tournent naturellement vers le Hatti, installé sur les côtes occidentale et méridionale de l'Asie Mineure. La clef de cette double hégémonie est la Syrie et les ports phéniciens ; Ramsès et Mouwattali se préparent ouvertement à la lutte.
Ramsès, militaire avisé, installe ses bases et renforce ses armées. Il transporte d'abord sa résidence à Pi-Ramsès, à la frontière orientale de l'Égypte. Cette « remontée » de la capitale vers le nord est un fait important, tant du point de vue économique (en effet, les villes du Delta oriental, Tanis, Bubastis, Athribis, sont alors de grands centres commerciaux, et la nouvelle résidence du souverain se trouve ainsi au point de jonction des routes qui unissent le Delta aux ports syro-phéniciens et à la mer Rouge) que du point de vue politique (à la capitale religieuse sise à Thèbes, où le clergé d'Amon est puissant, s'oppose désormais une autre capitale, centre politique, éloignée de l'emprise cléricale) ; de plus, Pi-Ramsès (Tanis ? Qantir ?), aux frontières mêmes de l'Asie, prend figure de capitale d'Empire, mi-égyptienne, mi-asiatique (ainsi, le quartier oriental de la ville est consacré à la grande déesse-mère de l'Asie antérieure, Ishtar, et le quartier occidental à celle du Delta, Ouadjet). Cette décision répond avec évidence à un souci de politique impérialiste raisonnée, et a l'avantage d'offrir une base commode pour les opérations militaires.
Dans le même esprit, Ramsès II développe son armée. Aux trois divisions déjà existantes (placées sous le patronage des dieux Amon, Rê et Ptah), il en adjoint une quatrième, que protège Seth, dieu oriental (proche de Baal ou de Soutekh, guerriers asiatiques, et souvent assimilé à ceux-ci). Des troupes noires sont levées en Nubie (corps d'archers), et des mercenaires sont recrutés parmi les prisonniers de guerre (Shardanes, notamment). Dernière mesure de sagesse : des campagnes en Nubie et en Libye assurent la paix aux confins du sud et de l'ouest. Une guerre s'engage, qui va durer, suivant différentes phases, une vingtaine d'années.
Ramsès remonte jusqu'à l'Oronte et livre, devant Qadesh, une grande bataille connue grâce à des sources précises : notamment le Poème de Pentaour (reproduit sur plusieurs papyrus, copié en hiéroglyphes sur les murs des temples de Louqsor, de Karnak, d'Abydos) et le rapport officiel de la bataille (sculpté en bas reliefs, accompagnés de légendes, sur les murs de plusieurs sanctuaires : à Thèbes, Abydos, Abou-Simbel, entre autres). C'est une aventure héroïque : Ramsès II, déjà parvenu aux rives de l'Oronte, où l'attend Mouwattali près de Kadesh, ayant été trompé par de faux rapports d'espions (agents doubles) annonçant la retraite de l'armée hittite, précipite sa marche et franchit en partie le gué sur le fleuve, pour contourner la ville, et cela (rassuré qu'il est) sans prendre soin de couvrir ses flancs ; la division d'Amon a franchi la rivière, celle de Rê s'apprête à le faire, cependant que les divisions de Ptah et de Seth, à l'arrière, s'acheminent encore sur la route. Mais la trahison apparaît lorsque deux prisonniers hittites, interrogés… et bâtonnés, avouent la manœuvre perfide. Ramsès veut accélérer le regroupement de ses soldats, mais Mouwattali, qui a déjà massé ses 2 500 chars au bord du fleuve, fonce, coupe en deux l'armée égyptienne et pénètre, semble-t-il, jusque dans le camp de Ramsès. Celui-ci, guidé par Amon, réussit (d'après les textes égyptiens) l'héroïque exploit de rejeter, seul, l'ennemi en désordre : « Je t'invoque, ô mon père Amon ! Me voici au milieu de peuples si nombreux qu'on ne sait qui sont les nations conjurées contre moi, et je suis seul, aucun autre avec moi. Mes nombreux soldats m'ont laissé, aucun de mes charriers n'a regardé vers moi quand je l'appelais… Mais Amon vaut mieux pour moi qu'un million de soldats, que cent mille charriers, qu'une myriade de frères ou de jeunes fils… Amon surgit à mon injonction, il me tend la main, il pousse un cri de joie : "Face à face avec toi, Ramsès Meriamoun, je suis avec toi ! C'est moi ton père ! Ma main est avec toi… Moi, le fort, qui aime la vaillance, j'ai reconnu un cœur courageux…" Alors je suis comme Montou, de la droite je tranche, de la gauche je saisis… J'ai rencontré 2 500 chars, et, dès que je suis au milieu, ils se renversent devant mes cavales… ». Bataille confuse, en fait, à l'issue incertaine, mais qui arrêta la progression hittite vers le sud.
La lutte contre l'Assyrie
Deux ans après, Ramsès fait campagne en « Palestine », où Mouwattali a fomenté une révolte.
Une crise dynastique éclate au Hatti : Hattousili, frère de Mouwattali, prend finalement le pouvoir. Après une nouvelle démonstration militaire du souverain d'Égypte, qui remonte jusqu'à Tounip, Hattousili III semble manifester une volonté de paix. Un nouveau danger, commun, rapproche d'ailleurs, à ce moment, les deux souverains : Salmanasar Ier (Shoulmân-asharêdou), roi d'Assyrie, pénètre dans le Mitanni et porte sa frontière jusque sur l'Euphrate. Des ambassadeurs égyptiens et hittites établissent, vers 1278 avant J.-C., les bases d'un traité qui assure aux deux royaumes le partage de l'hégémonie, politique et économique, sur le monde asiatique. Le texte de ce traité est gravé en langue akkadienne sur des tablettes d'argile, déposé aux pieds des dieux Rê et Teshoub (ses garants), dans leurs sanctuaires respectifs à Pi-Ramsès et à Hattousa (l'actuel site de Boğazköy), et des copies sont sculptées, en hiéroglyphes, sur les murs du temple d'Amon à Karnak et sur ceux du Ramesseum. Il témoigne d'une alliance étroite entre deux rois égaux, alliance consolidée par des rapports personnels : visite du souverain hittite en Égypte, mariage de Ramsès avec une princesse hittite ( ?). Pendant cinquante ans, le Proche-Orient connaît la paix, que rend féconde un intense courant d'échanges culturels et économiques.
Mise en valeur du royaume et grandes réalisations architecturales

Ramsès emploie également ces années calmes à consolider son empire africain. La mise en valeur des mines d'or, la politique d'égyptianisation se développent encore. L'occupation, tout en se maintenant officiellement jusqu'à Napata (quatrième cataracte), semble n'avoir été effective que jusqu'à la deuxième cataracte. Cette région se couvre alors de magnifiques monuments : les plus célèbres sont les temples que Ramsès II fit tailler dans la montagne même, à Abou-Simbel (peu avant la deuxième cataracte) ; l'un est consacré à la triade Amon-Horakhty-Ptah, l'autre à la déesse Hathor ; c'est à même le roc également que sont sculptées les quatre statues assises colossales du souverain, lesquelles devancent la façade du grand temple, ainsi que les six hautes statues de Ramsès II et de la grande épouse royale Néfertari, qui encadrent l'entrée du temple d'Hathor.
Une extraordinaire activité architecturale marque d'ailleurs ce règne : achèvement de la grande colonnade de Karnak et du temple d'Amon-Mout-Khonsou à Louqsor, construction du temple funéraire, dit Ramesseum, à Thèbes, de l'Osireion à Abydos, notamment. Travaillant à ces constructions, des prisonniers de guerre et des populations ramenées en butin constituent un immense prolétariat (Phéniciens pour les constructions navales, Syriens dans les carrières, Hébreux briquetiers dans l'est du Delta). Ainsi, du cœur de l'Afrique aux rives de l'Oronte, d'innombrables monuments et documents attestent le prestige du souverain « élu de Rê, aimé d'Amon », souverain magnifique, nanti de cinq ou six grandes épouses et de nombreuses concubines, père de plus de 100 enfants royaux. Le luxe de la cour est sans précédent, qui fait dire que « à Thèbes, toutes les maisons regorgent d'or » (l'Odyssée, IV, 125).
Une fin de règne difficile

Mais la fin du règne est assombrie par des événements menaçants pour l'avenir. Au-delà des frontières, une double rupture de l'équilibre international entraîne la ruine de l'Empire : sur terre, la dynastie assyrienne s'installe définitivement sur l'Euphrate (la grande voie commerciale reliant l'Asie Mineure à Babylone), défait les Hittites, occupe Babylone même et contrôle désormais toute la Mésopotamie. Sur mer, l'expansion achéenne prend, dans la mer Égée et la Méditerranée orientale, des proportions considérables. Le Hatti fait front, Ramsès II, vieilli, ne fait rien et temporise. Son pouvoir est d'ailleurs sapé de l'intérieur par la formation inévitable d'une nouvelle classe militaire (conséquence de la création d'une armée de métier, dotée de bénéfices fonciers inaliénables), par le développement de la classe cléricale (l'hérédité sacerdotale s'implante, les terres des temples prennent allure de domaines seigneuriaux) et par des troubles démographiques (dus à l'accroissement de la main-d'œuvre étrangère).
À la mort de Ramsès II, en 1236 avant J.-C., Mineptah, son quatrième fils et successeur, doit affronter une situation dangereuse.
Une découverte archéologique, en 1995, a permis de mettre au jour les sépultures des femmes et enfants de Ramsès II ; il s'agit du plus vaste ensemble funéraire de la Vallée des rois.

 

   DOCUMENT   larousse.fr    LIEN

 

Ramsès II

01/12/2016

Ramsès II

Troisième pharaon de la XIXe dynastie (1301-1236 avant J.-C.).
Le règne de Ramsès II se situe au début de la seconde moitié du Nouvel Empire (1580-1085 avant J.-C.), la dernière période de gloire et de prospérité de l'Égypte ancienne. À cette époque de l'histoire de l'humanité, l'Égypte est encore une grande puissance qui rayonne sur tout le Proche-Orient et qui, bien au-delà, mène une politique ouvertement expansionniste en Afrique et en Asie.
Un monarque guerrier

Fils de Seti Ier, Ramsès II est le troisième souverain de la XIXe dynastie, qui a pris le pouvoir vers 1314 avant J.-C., soixante ans après le règne d’Akhenaton. Les années troublées qui suivent directement celui-ci (règnes de Smenkhkarê, de Toutankhamon, de Aï) sont mal connues ; mais on sait que, vers 1339 avant J.-C., le général Horemheb, qui a su conserver l'intégrité des frontières de l'Empire menacé, est désigné comme roi par un oracle d'Amon ; il restaure l'Empire et l'État. Sans héritiers, il adopte pour successeur un général originaire, semble-t-il, de Tanis, Ramsès Ier, qui, très vite, associe son fils Seti Ier au trône. Avec cette dynastie de monarques guerriers, provenant des marches de l'Asie, la politique égyptienne devient résolument impérialiste, l'idéologie se fait violente : Amon rétablira par la terreur la domination du roi, qui sera « celui qui s'élance sur ses ennemis comme un lion terrible, qui entasse leurs cadavres auprès de leurs vallées, qui les renverse dans leur sang… ».
La lutte contre les Hittites
Quand Ramsès II monte sur le trône, la situation extérieure est de nouveau menaçante. Il y a un danger principal : le royaume du Hatti (peuplé par les Hittites, et constitué dans la région des plateaux de l'Anatolie actuelle lors des invasions indo-européennes du IIe millénaire avant J.-C.) et son actif souverain, Mouwattali. Une intense activité diplomatique a permis à celui-ci de nouer un réseau d'alliances en Asie Mineure, constituant ainsi un bloc de puissance politique rival du « groupe » égyptien ; de plus, à l'hégémonie économique de l'Égypte en Méditerranée, le Hatti oppose maintenant une politique concurrente en Égée, à laquelle la puissance mycénienne (succédant à celle de la Crète) donne une importance nouvelle ; les commerçants des îles égéennes se tournent naturellement vers le Hatti, installé sur les côtes occidentale et méridionale de l'Asie Mineure. La clef de cette double hégémonie est la Syrie et les ports phéniciens ; Ramsès et Mouwattali se préparent ouvertement à la lutte.
Ramsès, militaire avisé, installe ses bases et renforce ses armées. Il transporte d'abord sa résidence à Pi-Ramsès, à la frontière orientale de l'Égypte. Cette « remontée » de la capitale vers le nord est un fait important, tant du point de vue économique (en effet, les villes du Delta oriental, Tanis, Bubastis, Athribis, sont alors de grands centres commerciaux, et la nouvelle résidence du souverain se trouve ainsi au point de jonction des routes qui unissent le Delta aux ports syro-phéniciens et à la mer Rouge) que du point de vue politique (à la capitale religieuse sise à Thèbes, où le clergé d'Amon est puissant, s'oppose désormais une autre capitale, centre politique, éloignée de l'emprise cléricale) ; de plus, Pi-Ramsès (Tanis ? Qantir ?), aux frontières mêmes de l'Asie, prend figure de capitale d'Empire, mi-égyptienne, mi-asiatique (ainsi, le quartier oriental de la ville est consacré à la grande déesse-mère de l'Asie antérieure, Ishtar, et le quartier occidental à celle du Delta, Ouadjet). Cette décision répond avec évidence à un souci de politique impérialiste raisonnée, et a l'avantage d'offrir une base commode pour les opérations militaires.
Dans le même esprit, Ramsès II développe son armée. Aux trois divisions déjà existantes (placées sous le patronage des dieux Amon, Rê et Ptah), il en adjoint une quatrième, que protège Seth, dieu oriental (proche de Baal ou de Soutekh, guerriers asiatiques, et souvent assimilé à ceux-ci). Des troupes noires sont levées en Nubie (corps d'archers), et des mercenaires sont recrutés parmi les prisonniers de guerre (Shardanes, notamment). Dernière mesure de sagesse : des campagnes en Nubie et en Libye assurent la paix aux confins du sud et de l'ouest. Une guerre s'engage, qui va durer, suivant différentes phases, une vingtaine d'années.
Ramsès remonte jusqu'à l'Oronte et livre, devant Qadesh, une grande bataille connue grâce à des sources précises : notamment le Poème de Pentaour (reproduit sur plusieurs papyrus, copié en hiéroglyphes sur les murs des temples de Louqsor, de Karnak, d'Abydos) et le rapport officiel de la bataille (sculpté en bas reliefs, accompagnés de légendes, sur les murs de plusieurs sanctuaires : à Thèbes, Abydos, Abou-Simbel, entre autres). C'est une aventure héroïque : Ramsès II, déjà parvenu aux rives de l'Oronte, où l'attend Mouwattali près de Kadesh, ayant été trompé par de faux rapports d'espions (agents doubles) annonçant la retraite de l'armée hittite, précipite sa marche et franchit en partie le gué sur le fleuve, pour contourner la ville, et cela (rassuré qu'il est) sans prendre soin de couvrir ses flancs ; la division d'Amon a franchi la rivière, celle de Rê s'apprête à le faire, cependant que les divisions de Ptah et de Seth, à l'arrière, s'acheminent encore sur la route. Mais la trahison apparaît lorsque deux prisonniers hittites, interrogés… et bâtonnés, avouent la manœuvre perfide. Ramsès veut accélérer le regroupement de ses soldats, mais Mouwattali, qui a déjà massé ses 2 500 chars au bord du fleuve, fonce, coupe en deux l'armée égyptienne et pénètre, semble-t-il, jusque dans le camp de Ramsès. Celui-ci, guidé par Amon, réussit (d'après les textes égyptiens) l'héroïque exploit de rejeter, seul, l'ennemi en désordre : « Je t'invoque, ô mon père Amon ! Me voici au milieu de peuples si nombreux qu'on ne sait qui sont les nations conjurées contre moi, et je suis seul, aucun autre avec moi. Mes nombreux soldats m'ont laissé, aucun de mes charriers n'a regardé vers moi quand je l'appelais… Mais Amon vaut mieux pour moi qu'un million de soldats, que cent mille charriers, qu'une myriade de frères ou de jeunes fils… Amon surgit à mon injonction, il me tend la main, il pousse un cri de joie : "Face à face avec toi, Ramsès Meriamoun, je suis avec toi ! C'est moi ton père ! Ma main est avec toi… Moi, le fort, qui aime la vaillance, j'ai reconnu un cœur courageux…" Alors je suis comme Montou, de la droite je tranche, de la gauche je saisis… J'ai rencontré 2 500 chars, et, dès que je suis au milieu, ils se renversent devant mes cavales… ». Bataille confuse, en fait, à l'issue incertaine, mais qui arrêta la progression hittite vers le sud.
La lutte contre l'Assyrie
Deux ans après, Ramsès fait campagne en « Palestine », où Mouwattali a fomenté une révolte.
Une crise dynastique éclate au Hatti : Hattousili, frère de Mouwattali, prend finalement le pouvoir. Après une nouvelle démonstration militaire du souverain d'Égypte, qui remonte jusqu'à Tounip, Hattousili III semble manifester une volonté de paix. Un nouveau danger, commun, rapproche d'ailleurs, à ce moment, les deux souverains : Salmanasar Ier (Shoulmân-asharêdou), roi d'Assyrie, pénètre dans le Mitanni et porte sa frontière jusque sur l'Euphrate. Des ambassadeurs égyptiens et hittites établissent, vers 1278 avant J.-C., les bases d'un traité qui assure aux deux royaumes le partage de l'hégémonie, politique et économique, sur le monde asiatique. Le texte de ce traité est gravé en langue akkadienne sur des tablettes d'argile, déposé aux pieds des dieux Rê et Teshoub (ses garants), dans leurs sanctuaires respectifs à Pi-Ramsès et à Hattousa (l'actuel site de Boğazköy), et des copies sont sculptées, en hiéroglyphes, sur les murs du temple d'Amon à Karnak et sur ceux du Ramesseum. Il témoigne d'une alliance étroite entre deux rois égaux, alliance consolidée par des rapports personnels : visite du souverain hittite en Égypte, mariage de Ramsès avec une princesse hittite ( ?). Pendant cinquante ans, le Proche-Orient connaît la paix, que rend féconde un intense courant d'échanges culturels et économiques.
Mise en valeur du royaume et grandes réalisations architecturales

Ramsès emploie également ces années calmes à consolider son empire africain. La mise en valeur des mines d'or, la politique d'égyptianisation se développent encore. L'occupation, tout en se maintenant officiellement jusqu'à Napata (quatrième cataracte), semble n'avoir été effective que jusqu'à la deuxième cataracte. Cette région se couvre alors de magnifiques monuments : les plus célèbres sont les temples que Ramsès II fit tailler dans la montagne même, à Abou-Simbel (peu avant la deuxième cataracte) ; l'un est consacré à la triade Amon-Horakhty-Ptah, l'autre à la déesse Hathor ; c'est à même le roc également que sont sculptées les quatre statues assises colossales du souverain, lesquelles devancent la façade du grand temple, ainsi que les six hautes statues de Ramsès II et de la grande épouse royale Néfertari, qui encadrent l'entrée du temple d'Hathor.
Une extraordinaire activité architecturale marque d'ailleurs ce règne : achèvement de la grande colonnade de Karnak et du temple d'Amon-Mout-Khonsou à Louqsor, construction du temple funéraire, dit Ramesseum, à Thèbes, de l'Osireion à Abydos, notamment. Travaillant à ces constructions, des prisonniers de guerre et des populations ramenées en butin constituent un immense prolétariat (Phéniciens pour les constructions navales, Syriens dans les carrières, Hébreux briquetiers dans l'est du Delta). Ainsi, du cœur de l'Afrique aux rives de l'Oronte, d'innombrables monuments et documents attestent le prestige du souverain « élu de Rê, aimé d'Amon », souverain magnifique, nanti de cinq ou six grandes épouses et de nombreuses concubines, père de plus de 100 enfants royaux. Le luxe de la cour est sans précédent, qui fait dire que « à Thèbes, toutes les maisons regorgent d'or » (l'Odyssée, IV, 125).
Une fin de règne difficile

Mais la fin du règne est assombrie par des événements menaçants pour l'avenir. Au-delà des frontières, une double rupture de l'équilibre international entraîne la ruine de l'Empire : sur terre, la dynastie assyrienne s'installe définitivement sur l'Euphrate (la grande voie commerciale reliant l'Asie Mineure à Babylone), défait les Hittites, occupe Babylone même et contrôle désormais toute la Mésopotamie. Sur mer, l'expansion achéenne prend, dans la mer Égée et la Méditerranée orientale, des proportions considérables. Le Hatti fait front, Ramsès II, vieilli, ne fait rien et temporise. Son pouvoir est d'ailleurs sapé de l'intérieur par la formation inévitable d'une nouvelle classe militaire (conséquence de la création d'une armée de métier, dotée de bénéfices fonciers inaliénables), par le développement de la classe cléricale (l'hérédité sacerdotale s'implante, les terres des temples prennent allure de domaines seigneuriaux) et par des troubles démographiques (dus à l'accroissement de la main-d'œuvre étrangère).
À la mort de Ramsès II, en 1236 avant J.-C., Mineptah, son quatrième fils et successeur, doit affronter une situation dangereuse.
Une découverte archéologique, en 1995, a permis de mettre au jour les sépultures des femmes et enfants de Ramsès II ; il s'agit du plus vaste ensemble funéraire de la Vallée des rois.

 

   DOCUMENT   larousse.fr    LIEN

 

Invasion des insectes l'économie mondiale affectée

27/11/2016

Paris, 4 octobre 2016
Invasion des insectes : l'économie mondiale affectée

69 milliards d'euros, c'est le coût minimal annuel des dégâts provoqués par les insectes envahissants dans le monde, estime une équipe internationale de chercheurs menée par Franck Courchamp, directeur de recherche CNRS au laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech) et impliquant notamment les entomologistes de l'IRD à Montpellier et un économiste CNRS. Depuis les dégâts sur les biens et services jusqu'aux coûts en santé, en passant par les pertes en agriculture, cette étude, réalisée avec le soutien de l'ANR et de la Fondation BNP Paribas, rassemble la plus importante base de données jamais élaborée des dégâts économiques imputables aux insectes envahissants dans le monde : 737 articles, livres et rapports ont été considérés. Ces travaux sont publiés dans Nature Communications le 4 octobre 2016.
Pourquoi étudier les insectes ? Depuis des milliers d'années, les insectes ont été responsables de la propagation de maladies chez l'Homme et le bétail, et de dégâts considérables, depuis l'anéantissement des cultures et réserves, en passant par la destruction des infrastructures, jusqu'à la dévastation des forêts, altérant ainsi les écosystèmes et les rendant plus fragiles. Dans le règne vivant, la seule classe des insectes (environ 2,5 millions d'espèces) est probablement le groupe le plus coûteux. De plus, ils font partie des espèces envahissantes les plus virulentes : 87 % des 2 500 invertébrés terrestres ayant colonisé de nouveaux territoires sont des insectes.

Des dégâts sous-évalués

Les scientifiques ont estimé à 69 milliards d'euros par an le coût minimal des dégâts causés par les insectes envahissants dans le monde. Parmi les d'insectes étudiés, le termite de Formose1 (Coptotermes formosanus) serait l'un des plus destructeurs : plus de 26,7 milliards d'euros par an dans le monde. Mais cette estimation provient d'une étude trop peu documentée, selon l'équipe de recherche. Des études plus renseignées (estimées reproductibles par les scientifiques) placent également « en haut du classement » la teigne des choux2 (Plutella xylostella), avec un coût de 4,1 milliards d'euros par an et le longicorne brun de l'épinette3 (Tetropium fuscum), avec un coût de 4 milliards d'euros par an rien qu'au Canada.

Par ailleurs, d'après cette étude, l'Amérique du Nord présente les plus importantes pertes financières avec 24,5 milliards d'euros par an, tandis que l'Europe n'est pour l'instant qu'à 3,2 milliards d'euros par an. Mais cette différence s'explique par un manque de sources d'évaluation et non par une réelle différence d'exposition au danger. Ainsi, selon les chercheurs, le coût annuel total estimé de 69 milliards d'euros est largement sous-évalué. De nombreuses régions du monde n'offrent pas assez de données économiques pour produire une estimation précise, qui a donc été minimisée. De plus, l'équipe de chercheurs s'est concentrée sur l'étude des dix espèces invasives les plus coûteuses, sans comptabiliser celles, très nombreuses, qui provoquent moins de dégâts. Enfin, si l'on considère les valeurs estimées pour les services écosystémiques à l'échelle globale (plusieurs centaines de milliards de dollars pour la seule pollinisation des cultures), les perturbations causées par les insectes envahissants pourraient atteindre un niveau bien au-delà de l'estimation actuelle. 

La santé et l'agriculture sont les plus touchées

Les insectes dans leur ensemble pèsent particulièrement sur l'agriculture en consommant 40 % des biens de consommation (l'équivalent de ce qui pourrait nourrir un milliard d'êtres humains).

Sur la santé, le coût global attribuable aux insectes envahissants dépasse 6,1 milliards d'euros par an (sans prendre en compte le paludisme, le virus Zika, ou encore l'impact économique provoqué sur certains facteurs comme le tourisme, la productivité, etc). D'un point de vue géographique, les régions du monde où les dépenses médicales liées aux dégâts causés par les insectes envahissants s'avèrent les plus importantes, sont respectivement l'Asie (2,55 milliards d'euros par an), l'Amérique du Nord (1,85 milliards d'euros par an) et l'ensemble de l'Amérique centrale et du Sud (1,66 milliards d'euros par an). Et, parmi les maladies les plus lourdes financièrement, on trouve au premier plan la dengue, dont les dépenses représentent 84 % des 6,1 milliards d'euros.

Une plus grande vigilance et la mise en place de procédures de réponse à une invasion biologique permettraient de faire économiser à la société des dizaines de milliards d'euros, selon les auteurs. Ces mesures de prévention pourraient diviser au moins par dix les coûts des maladies provoquées par les moustiques.

Laboratoires français impliqués :

laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech)
Laboratoire montpelliérain d'économie théorique et appliquée (CNRS/ Université de Montpellier/Inra)
laboratoire Maladies infectieuses et vecteurs : écologie, génétique, évolution et contrôle (CNRS/IRD/Université de Montpellier)
laboratoire Biologie des organismes et écosystèmes aquatiques (CNRS/MNHN/IRD/UPMC/Université Caen Normandie) 

 

 DOCUMENT         cnrs        LIEN

MACHINES ET MOTEURS MOLÉCULAIRES DE LA BIOLOGIE AU MOLÉCULES DE SYNTHÈSE

20/11/2016

MACHINES ET MOTEURS MOLÉCULAIRES : DE LA BIOLOGIE AU MOLÉCULES DE SYNTHÈSE


De nombreux processus biologiques essentiels font intervenir des moteurs moléculaires (naturels). Ces moteurs sont constitués de protéines dont la mise en mouvement, le plus souvent déclenchée par l'hydrolyse d'ATP (le "fioul" biologique), correspond à une fonction précise et importante. Parmi les exemples les plus spectaculaires, nous pouvons citer l'ATPsynthase, véritable moteur rotatif responsable de la fabrication de l'ATP. Pour le chimiste de synthèse, l'élaboration de molécules totalement artificielles, dont le comportement rappelle celui des systèmes biologiques, est un défi formidable. L'élaboration de "machines" et "moteurs" moléculaires de synthèse représente un domaine particulièrement actif, qui a vu le jour il y a environ une douzaine d'années. Ces machines sont des objets nanométriques pour lesquels il est possible de mettre en mouvement une partie du composé ou de l'assemblée moléculaire considérée, par l'intervention d'un signal envoyé de l'extérieur, alors que d'autres parties sont immobiles. Si une source d'énergie alimente le système de manière continue, et qu'un mouvement périodique en résulte, l'assemblée moléculaire en mouvement pourra être considérée comme un "moteur". D'ores et déjà, certaines équipes de chimiste ont pu fabriquer des moteurs rotatifs minuscules, des moteurs linéaires mis en mouvement par un signal électronique ou des "muscles" moléculaires de synthèse, capables de se contracter ou de s'allonger sous l'action d'un stimulus externe. Quelques exemples représentatifs seront discutés lors de l'exposé. Un certain nombre de questions ayant trait aux applications potentielles du domaine de "nanomécanique moléculaire" seront abordées : - "ordinateurs moléculaires", pour lesquels certains chercheurs fondent de grands espoirs, stockage et traitement de l'information au niveau moléculaire, - robots microscopiques, capables de remplir une grande variété de fonctions allant de la médecine à la vie de tous les jours, - transport sélectif de molécules ou d'ions à travers des membranes.

 

  DOCUMENT       canal-u.tv     LIEN 

LES MATÉRIAUX MAGNÉTIQUES DE LA BOUSSOLE À L'ÉLECTRONIQUE DE SPIN

11/11/2016

LES MATÉRIAUX MAGNÉTIQUES : DE LA BOUSSOLE À L'ÉLECTRONIQUE DE SPIN


Le mot magnétisme reste chargé de mystères, pourtant les phénomènes magnétiques sont connus depuis trois mille ans et les matériaux magnétiques sont omniprésents dans notre environnement. Le but de cet exposé est de tenter de lever ces mystères et d'expliquer la formidable importance des matériaux magnétiques dans nos sociétés développées. La conférence va débuter par un bref historique des matériaux magnétiques, depuis leur découverte en Asie mineure et en Chine jusqu'aux développements les plus récents. On verra ensuite ce qu'est le magnétisme, le champ ou induction magnétique est produit par une charge électrique en mouvement. C'est une conséquence directe de la théorie de la relativité d'Einstein. Ce champ magnétique induit une force sur toutes les particules en mouvement, c'est là l'origine de toutes les forces magnétiques. A l'échelle atomique ce sont le mouvement des électrons autour des noyaux des atomes et le mouvement propre de ces mêmes électrons (mouvement de rotation) qui sont à l'origine des deux types de moments magnétiques atomiques : le moment orbital et le spin. Les liaisons chimiques tendent à compenser ces moments magnétiques, sauf, dans le cas où survivent à ces liaisons des couches atomiques incomplètes, comme celle des métaux dits de transition ou celles des métaux dit de la famille des terres rares. On abordera, ensuite, un aperçu de la diversité des matériaux magnétiques, les matériaux ferromagnétiques paramagnétiques et diamagnétiques...On montrera les fondements physiques des propriétés magnétiques et on décrira un certain nombre de matériaux spécifiques comme les aimants permanents, les différentes bandes magnétiques ou les mémoires...On terminera cet exposé par une description des tendances actuelles dans la science et la technologie des matériaux magnétiques : le nanomagnétisme et l'électronique de spin.

 

 DOCUMENT       canal-u.tv     LIEN 

Génétique un "code origines" pour l'ADN

04/11/2016

Paris, 12 novembre 2015
Génétique : un "code origines" pour l'ADN

A l'origine de toute vie, il y a la duplication (ou réplication) de l'ADN, un mécanisme crucial pour la division des cellules. Des biologistes viennent de mener l'analyse la plus exhaustive à ce jour des milliers de sites (appelés origines) où démarre cette réplication du génome chez les organismes multicellulaires. Ils ont pu en distinguer trois grandes catégories, qui reflètent les capacités d'adaptation des cellules. La connaissance de ce "code origines" devrait permettre de rechercher d'éventuelles altérations dans le cancer, voire déboucher sur de nouveaux outils de thérapie génique. Ces résultats, issus principalement d'une collaboration entre des biologistes moléculaires de l'Institut de génétique humaine (CNRS) et des bioinformaticiens du laboratoire Technologie avancée pour le génome et la clinique (TAGC, Inserm/Aix-Marseille Université), sont publiés le 11 novembre 2015 dans la revue Genome Research.
La vie est un éternel recommencement. Pour construire un nouvel organisme à partir de l'unique cellule issue de la fécondation, ou pour renouveler nos tissus (peau, sang…), les cellules se multiplient. Cela commence par la copie (appelée réplication) du patrimoine génétique (l'ADN contenu dans chaque chromosome), avant que la cellule ne se divise en deux copies identiques. La première étape nécessite que les deux brins d'ADN de la double hélice se déroulent et s'ouvrent à la manière d'une fermeture éclair. Puis, chaque brin est recopié, en progressant à partir de cette ouverture, afin de former deux chromosomes identiques. 

Chez les organismes pluricellulaires, cette copie démarre simultanément en des milliers de sites sur chaque chromosome, appelés origines de réplication1. Ces sites dessinent une sorte de code-barres sur l'ADN, dont les caractéristiques étaient encore mal comprises. 

A partir de cellules souches de souris (dont le génome est très proche du nôtre), l'équipe de Marcel Méchali (dont principalement Christelle Cayrou) à l'Institut de génétique humaine du CNRS, et les bioinformaticiens Jacques van Helden et Benoit Ballester du laboratoire TAGC ont recherché les caractéristiques des origines de réplication. Ils ont croisé les approches pour déterminer à la fois leur séquence (le message héréditaire porté par l'ADN, codé dans un alphabet de quatre lettres) et les marques réversibles qui peuvent être ajoutées sur le chromosome, qualifiées d'épigénétiques.

Ils ont ainsi observé une structure particulière de l'ADN, partagée par 75 % des origines, consistant en un site riche en G (l'une des quatre lettres de l'alphabet génétique) où pourrait s'assembler la machinerie cellulaire utile à la réplication, avant que l'ADN s'ouvre sur un deuxième site situé un peu en aval.

Mais surtout, en voulant dresser un portrait-robot des origines de réplication, les chercheurs sont finalement parvenus à dégager trois grandes catégories, qui semblent s'adapter à différents besoins de la cellule. Par exemple, la classe 1 regroupe des origines qui portent peu de marques épigénétiques, assez isolées, situées dans des régions pauvres en gènes, qui sont recopiées assez tardivement lors de la réplication. La classe 3, elle, rassemble des origines situées dans des régions riches en gènes, et notamment en gènes impliqués dans le développement embryonnaire ou la différenciation des cellules.

Ce "code origines" pourrait expliquer la flexibilité d'utilisation des origines, sans doute en lien avec les capacités d'adaptation des cellules face aux conditions rencontrées. En effet, sur les 65 000 à 100 000 origines du génome humain, seul un tiers est mobilisé lors d'un cycle de réplication donné. Mais les autres sont loin d'être superflues. Une partie sert de réserve anti-stress : si des erreurs ou des cassures provoquées par des agents externes bloquent la réplication à un endroit donné, elle peut redémarrer à partir d'une autre origine de réserve. Une autre partie des origines excédentaires peut permettre une adaptation en fonction du destin cellulaire : selon les types cellulaires (neurone, globule blanc…), les chromosomes sont repliés différemment dans le noyau et les parties du chromosome accessibles ne sont pas les mêmes.  

Ce travail très fondamental n'est pas sans applications potentielles. En effet, des anomalies lors de la réplication peuvent provoquer des réarrangements du génome tels que ceux rencontrés dans les cellules cancéreuses. Le déchiffrement du "code origines" va donc permettre de rechercher d'éventuelles altérations de ce code qui pourraient contribuer aux cancers. Il pourrait aussi ouvrir sur des traitements bloquant les origines dans les cellules cancéreuses, afin d'arrêter leur prolifération. Enfin, les chercheurs espèrent mettre au point de nouveaux outils de thérapie génique. En concevant des origines de réplication très efficaces, ils pourraient construire des vecteurs2 de gènes capables de se comporter dans les cellules comme un mini-chromosome supplémentaire, assurant le maintien à long terme du gène-médicament, tout en évitant les inconvénients des vecteurs viraux3 utilisés à l'heure actuelle.

 

 DOCUMENT         CNRS         LIEN

Invasion des insectes l'économie mondiale affectée

29/10/2016

Paris, 4 octobre 2016
Invasion des insectes : l'économie mondiale affectée

69 milliards d'euros, c'est le coût minimal annuel des dégâts provoqués par les insectes envahissants dans le monde, estime une équipe internationale de chercheurs menée par Franck Courchamp, directeur de recherche CNRS au laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech) et impliquant notamment les entomologistes de l'IRD à Montpellier et un économiste CNRS. Depuis les dégâts sur les biens et services jusqu'aux coûts en santé, en passant par les pertes en agriculture, cette étude, réalisée avec le soutien de l'ANR et de la Fondation BNP Paribas, rassemble la plus importante base de données jamais élaborée des dégâts économiques imputables aux insectes envahissants dans le monde : 737 articles, livres et rapports ont été considérés. Ces travaux sont publiés dans Nature Communications le 4 octobre 2016.
Pourquoi étudier les insectes ? Depuis des milliers d'années, les insectes ont été responsables de la propagation de maladies chez l'Homme et le bétail, et de dégâts considérables, depuis l'anéantissement des cultures et réserves, en passant par la destruction des infrastructures, jusqu'à la dévastation des forêts, altérant ainsi les écosystèmes et les rendant plus fragiles. Dans le règne vivant, la seule classe des insectes (environ 2,5 millions d'espèces) est probablement le groupe le plus coûteux. De plus, ils font partie des espèces envahissantes les plus virulentes : 87 % des 2 500 invertébrés terrestres ayant colonisé de nouveaux territoires sont des insectes.

Des dégâts sous-évalués

Les scientifiques ont estimé à 69 milliards d'euros par an le coût minimal des dégâts causés par les insectes envahissants dans le monde. Parmi les d'insectes étudiés, le termite de Formose1 (Coptotermes formosanus) serait l'un des plus destructeurs : plus de 26,7 milliards d'euros par an dans le monde. Mais cette estimation provient d'une étude trop peu documentée, selon l'équipe de recherche. Des études plus renseignées (estimées reproductibles par les scientifiques) placent également « en haut du classement » la teigne des choux2 (Plutella xylostella), avec un coût de 4,1 milliards d'euros par an et le longicorne brun de l'épinette3 (Tetropium fuscum), avec un coût de 4 milliards d'euros par an rien qu'au Canada.

Par ailleurs, d'après cette étude, l'Amérique du Nord présente les plus importantes pertes financières avec 24,5 milliards d'euros par an, tandis que l'Europe n'est pour l'instant qu'à 3,2 milliards d'euros par an. Mais cette différence s'explique par un manque de sources d'évaluation et non par une réelle différence d'exposition au danger. Ainsi, selon les chercheurs, le coût annuel total estimé de 69 milliards d'euros est largement sous-évalué. De nombreuses régions du monde n'offrent pas assez de données économiques pour produire une estimation précise, qui a donc été minimisée. De plus, l'équipe de chercheurs s'est concentrée sur l'étude des dix espèces invasives les plus coûteuses, sans comptabiliser celles, très nombreuses, qui provoquent moins de dégâts. Enfin, si l'on considère les valeurs estimées pour les services écosystémiques à l'échelle globale (plusieurs centaines de milliards de dollars pour la seule pollinisation des cultures), les perturbations causées par les insectes envahissants pourraient atteindre un niveau bien au-delà de l'estimation actuelle. 

La santé et l'agriculture sont les plus touchées

Les insectes dans leur ensemble pèsent particulièrement sur l'agriculture en consommant 40 % des biens de consommation (l'équivalent de ce qui pourrait nourrir un milliard d'êtres humains).

Sur la santé, le coût global attribuable aux insectes envahissants dépasse 6,1 milliards d'euros par an (sans prendre en compte le paludisme, le virus Zika, ou encore l'impact économique provoqué sur certains facteurs comme le tourisme, la productivité, etc). D'un point de vue géographique, les régions du monde où les dépenses médicales liées aux dégâts causés par les insectes envahissants s'avèrent les plus importantes, sont respectivement l'Asie (2,55 milliards d'euros par an), l'Amérique du Nord (1,85 milliards d'euros par an) et l'ensemble de l'Amérique centrale et du Sud (1,66 milliards d'euros par an). Et, parmi les maladies les plus lourdes financièrement, on trouve au premier plan la dengue, dont les dépenses représentent 84 % des 6,1 milliards d'euros.

Une plus grande vigilance et la mise en place de procédures de réponse à une invasion biologique permettraient de faire économiser à la société des dizaines de milliards d'euros, selon les auteurs. Ces mesures de prévention pourraient diviser au moins par dix les coûts des maladies provoquées par les moustiques.

 

 DOCUMENT         cnrs        LIEN 

La naissance du politique chez l'enfant le cas de la hiérarchie

23/10/2016

Paris, 26 septembre 2016
La naissance du politique chez l'enfant : le cas de la hiérarchie

L'enfant deviendrait-il, en grandissant, un véritable petit Robin des Bois ? Selon son âge, il ne partage pas les ressources de la même façon entre un individu dominant et un individu subordonné. Ainsi, une tendance égalitariste se développe puis s'accentue entre 5 et 8 ans. Ce résultat, obtenu par une équipe de chercheurs du CNRS, des universités Claude Bernard Lyon 1, de Lausanne et de Neuchâtel (Suisse), permet de mieux comprendre la naissance de la notion d'égalité chez les êtres humains et d'appréhender leur sens de la justice. Il est publié le 26 septembre 2016 dans la revue Developmental Psychology.
Les relations hiérarchiques constituent une des caractéristiques de notre vie sociale. L'enfant détecte très tôt la différence entre un individu dominant et un individu subordonné. Mais quel comportement adopte-t-il face à une asymétrie hiérarchique ? Va-t-il favoriser le dominant et ainsi préserver le statu quo ? Ou au contraire avantager le subordonné et instituer une forme d'égalité ? Comment ces prises de position évoluent-elles pendant l'enfance ? 

Des chercheurs de l'Institut des sciences cognitives Marc Jeannerod (CNRS/Université Claude Bernard Lyon 1), des universités de Lausanne et de Neuchâtel ont examiné les prémices de ce positionnement politique chez des enfants âgés de 3 à 8 ans grâce à deux expériences : l'une de partage de ressources, l'autre de redistribution.

Dans la première expérience, les chercheurs ont demandé à 173 enfants de regarder une saynète jouée par deux marionnettes. L'une d'elles imposait systématiquement ses jeux à l'autre : les enfants reconnaissaient en elle le chef. Les chercheurs donnaient alors à l'enfant un grand chocolat et un petit chocolat, et observaient à quelle marionnette il distribuait chaque friandise. A 3 et 4 ans, une large majorité d'enfants avantage la marionnette dominante en lui attribuant le grand chocolat. A 5 ans, cette tendance disparait, pour s'inverser complètement à 8 ans. A cet âge, la quasi-totalité des enfants favorisent la marionnette subordonnée. 

Les spécialistes ont intitulé la seconde expérience « paradigme de Robin des Bois ». Les enfants (au nombre de 132) devaient regarder une scène où trois personnages, dont l'un se déclarait être le chef, jouaient dans un parc. Par la suite, le chef et l'un des subordonnés recevaient chacun trois pièces, tandis que le dernier subordonné obtenait seulement une pièce. L'examinateur demandait à l'enfant de prendre une pièce de l'une des deux personnages les plus riches pour la donner au plus pauvre. Le même effet que dans la première expérience est alors observé : les plus jeunes protègent les ressources du dominant alors que les plus âgés protègent celles du subordonné. 

Les enfants les plus âgés parvenaient souvent à expliquer leur choix. Ils donnaient le plus gros chocolat à telle marionnette « parce qu'elle ne choisit jamais le jeu », ou encore « parce qu'elle est moins chanceuse que l'autre ». D'autres, surtout les plus jeunes, n'y arrivaient pas, car produire une justification leur demandait un niveau d'abstraction trop élevé. 

Les chercheurs suggèrent plusieurs facteurs pour expliquer l'avantage donné au dominant et pour comprendre l'inversion de cette tendance avec l'âge. Tout d'abord, les enfants plus jeunes sont plus dépendants des figures d'autorité parentale. De plus, à la crèche, les rapports de dominance entre enfants sont fréquents et relativement bien acceptés. Les très jeunes enfants pourraient également vouloir s'attirer les faveurs du dominant, ou éviter d'entrer en conflit avec lui. Mais la volonté des enfants de contrecarrer les inégalités se renforce à mesure que se complexifie leur vie sociale. En effet, plus ils grandissent, plus ils ont de partenaires de jeu, plus la notion d'égalité leur est nécessaire pour évoluer dans leur groupe. 

Ces travaux montrent que les enfants commencent à être sensibles aux inégalités de statut vers cinq ans, et que cette tendance devient très prononcée vers huit ans. Toutefois, ces résultats ne signifient pas que les enfants de huit ans se montrent égalitaristes dans toutes les situations sociales. Les chercheurs s'attachent maintenant à comprendre l'effet du genre et l'influence de la culture sur cette tendance : une marionnette de genre masculin sera-t-elle perçue comme davantage dominante ? La sensibilité aux inégalités est-elle moins forte dans les pays où les hiérarchies sont culturellement plus marquées ?  

Ces travaux ont bénéficié du soutien de la Fondation de France, de la région Rhône-Alpes et du rectorat de Lyon.

 

  DOCUMENT         cnrs        LIEN  

Mieux courir grâce aux mathématiques

16/10/2016

Paris, 13 mai 2014
Mieux courir grâce aux mathématiques

Comment courir pour améliorer sa performance, son poids et sa forme ? Amandine Aftalion du Laboratoire de mathématiques de Versailles (CNRS/Université de Versailles-Saint-Quentin-en-Yvelines) et Frédéric Bonnans du Centre de mathématiques appliquées (CNRS/Inria/École polytechnique)1 ont créé un modèle mathématique d'optimisation de la course qui pourrait conduire à un programme d'entrainements personnalisés selon l'état physiologique de chacun. Il confirme en outre un fait bien connu des sportifs : varier sa vitesse permet de mieux dépenser son énergie et de courir plus longtemps. Les mathématiques offrent ainsi l'opportunité aux coureurs de passer de simples outils de mesures statistiques2 au conseil sportif personnalisé. Ces travaux, disponibles sur l'archive ouverte HAL, seront présentés le 16 mai 2014 lors du forum Futurapolis à Toulouse, dont le CNRS est partenaire, puis publiés dans la revue SIAM J.Applied Mathematics.
Ce modèle mathématique prend tout d'abord en compte l'énergie du coureur, notamment sa consommation maximale d'oxygène (VO2max)3 et son stock d'énergie anaérobie4, en les faisant intervenir dans un système d'équations différentielles reliant la vitesse, l'accélération, la force de propulsion et les forces de frottement. Ce système est couplé à des conditions initiales de départ de la course, vitesse nulle et quantité d'énergie donnée, et des contraintes : l'énergie et la force de propulsion doivent être positives (le coureur ne peut pas reculer). Les chercheurs sont capables avec ce modèle de prédire le comportement que doit avoir le sportif tout au long de sa course au moyen d'un bilan instantané déterminant à la seconde près la vitesse optimale du coureur et l'énergie dépensée depuis le départ. Leur résultat principal montre ainsi que varier sa vitesse permet de dépenser moins d'énergie et de courir plus longtemps. De plus, en comparant ces résultats avec ceux d'athlètes professionnels, les auteurs peuvent également préciser quels paramètres physiologiques les coureurs doivent développer pour s'améliorer en répondant par exemple aux questions suivantes : quels seront les résultats d'un champion s'il avait le poids et la consommation maximale d'oxygène d'un coureur amateur ? Quels sont alors les paramètres que le sportif amateur peut améliorer pour s'approcher des résultats habituels du champion ? Doit-il améliorer sa capacité respiratoire ou son énergie anaérobie ?

Les applications de ce modèle concernent deux types de publics. Dans le cas des coureurs « semi-professionnels » qui n'ont pas l'opportunité de travailler avec un entraîneur ou dans le cadre de cours d'éducation physique et sportive à l'école, les chercheurs souhaiteraient développer un logiciel capable de créer des programmes d'entrainements personnalisés qui indiqueraient les paramètres physiologiques à développer en priorité et de réaliser des stratégies précisant les vitesses optimales à atteindre à chaque moment de la course. Pour les « coureurs du dimanche », le système d'équations étant adaptable à toutes les variables intéressantes pour le sportif (et pas seulement la vitesse), ces derniers pourraient, par exemple, connaître instantanément le nombre exact (et non pas une simple moyenne comme pour les outils existant actuellement) de calories perdues lors de la course afin d'améliorer leur perte de poids. 

Les chercheurs souhaitent désormais améliorer leur modèle mathématique en intégrant au système d'équations de nouveaux paramètres comme l'altitude ou l'effet du vent et l'appliquer à d'autres sports d'endurance comme le cyclisme, la natation ou le canoé kayak.


Notes :
1Amandine Aftalion est directrice de recherche CNRS au Laboratoire de mathématiques de Versailles. Frédéric Bonnans est directeur de recherche Inria au Centre de mathématiques appliquées de l'École polytechnique.
2Les applications mobiles qui se multiplient actuellement ne recueillent des données qu'à des fins statistiques (vitesse ou distance moyenne) mais ne permettent pas d'améliorer les performances des coureurs. 
3Lors d'un effort « aérobie » les muscles, grâce au système respiratoire, fonctionnent avec suffisamment d'oxygène pour tirer la majorité de leur énergie. La consommation maximale d'oxygène correspond au volume d'oxygène maximal que le coureur peut utiliser lors d'un effort. Elle est utilisée pour mesurer la capacité respiratoire des coureurs.
4La dénomination « anaérobie » est attribuée à l'énergie utilisée par le corps lorsque celui-ci subit un déficit en oxygène. Cette énergie est due à la transformation des sucres venant de l'alimentation.
Références :
Optimization of running strategies based on anaerobic energy and variations of velocity. A. Aftalion et F. Bonnans. À paraître dans SIAM J.Applied Mathematics.

 

 DOCUMENT         cnrs        LIEN 

LES NANOSTRUCTURES SEMI-CONDUCTRICES

09/10/2016

Texte de la 586 e conférence de l'Université de tous les savoirs prononcée le 8 juillet 2005

Par Jean-Michel Gérard * « Les nanostructures semiconductrices »

Au cours des vingt dernières années, les chercheurs ont appris à structurer la matière à l'échelle du nanomètre, en particulier pour les besoins de la microélectronique. Rappelons qu'un nanomètre, c'est un milliardième de mètre, c'est-à-dire cinquante mille fois plus petit que le diamètre d'un cheveu. On parle donc ici d'une échelle extrêmement petite, de l'ordre de quelques distances inter-atomiques au sein des molécules ou des corps solides. A l'échelle du nanomètre, les propriétés physiques sont très différentes de celles qui sont observables dans notre monde macroscopique et sont gouvernées, pour l'essentiel, par la mécanique quantique. Nous allons montrer ici qu'il est particulièrement intéressant de fabriquer des objets de taille nanométrique à partir de matériaux semi-conducteurs. Ces « nanostructures semiconductrices » nous ouvrent des perspectives d'application originales et importantes, grâce à leurs propriétés très particulières.
Nous utilisons tous au quotidien des composants nanométriques, souvent sans le savoir. A titre d'exemple, lorsque nous écoutons notre lecteur de disque compact, nous mettons en Suvre un laser semiconducteur « à puits quantique » pour lire l'information stockée sur le disque. Le cSur de ce composant est constitué par un empilement de couches semiconductrices, qui comporte notamment une couche très fine, le puits quantique, dont l'épaisseur est de l'ordre de 10 nanomètres. Ce composant a été développé il y a une vingtaine d'années et a aujourd'hui de très nombreuses applications.
Les semi-conducteurs constituent une famille de matériaux particulièrement commodes pour fabriquer des nano-structures et exploiter leurs propriétés originales. Après avoir rappelé en termes simples ce qu'est un semi-conducteur, je décrirai les effets quantiques de base attendus pour des structures semi-conductrices de taille nanométrique. Je présenterai ensuite les techniques de fabrication à cette échelle avant d'illustrer par quelques exemples les propriétés et applications des nanostructures semiconductrices.

Qu'est ce qu'un semiconducteur ?

Pour comprendre les propriétés électriques ou optiques des matériaux, il faut de façon générale connaître les états possibles pour les électrons dans le système considéré. Rappelons que ces états sont par exemple très différents pour un électron libre dans l'espace et pour un électron appartenant à un atome. Si l'électron est libre, il peut avoir n'importe quelle vitesse et par conséquent n'importe quelle énergie. S'il appartient à un atome isolé, son énergie ne peut au contraire prendre que certaines valeurs bien définies. Ceci résulte du fait que l'électron, attiré par le noyau atomique, est piégé au voisinage de celui-ci. Plus généralement, la mécanique quantique nous apprend que toute particule dont la position est confinée dans les trois dimensions de l'espace possède un ensemble discret d'énergies permises.
Considérons à présent la situation dans laquelle l'électron n'est plus dans un espace libre mais dans un solide, par exemple un morceau de fer ou un morceau de silicium. Dans ce cas, l'énergie de cet électron ne peut prendre que des valeurs comprises dans certains intervalles (ou « bandes ») d'énergie permise (voir la figure 1). Ceux-ci sont séparés par des « bandes interdites », plages d'énergie pour lesquels le système ne possède aucun état quantique permettant à l'électron d'avoir cette énergie. La connaissance de cette structure de bandes d'un matériau donné permet de définir si celui-ci est un métal ou un isolant. On connaît en effet le nombre d'électrons de ce solide et, d'après une loi physique connue sous le nom de principe de Pauli, on sait qu'on ne peut mettre dans un état quantique donné qu'un seul électron. Dans une « expérience de pensée », plaçons donc les électrons du solide à l'intérieur de ces bandes d'états disponibles. Pour cela, on remplit successivement les différents états, en commençant par ceux de plus basse énergie, jusqu'à ce que tous les électrons soient placés. Dans le cas d'un métal, ce processus s'arrête au milieu d'une bande d'états (voir figure 1). Un tel système électronique va pouvoir répondre très facilement à une sollicitation par une force extérieure, par exemple un champ électrique. En effet, les électrons qui occupent la bande partiellement remplie vont pouvoir se redistribuer aisément au sein de cette bande, puisqu'elle comprend à la fois des états occupés et des états vides très proches en énergie les uns des autres. Un tel solide sera un bon conducteur du courant, et est dit métallique. Supposons au contraire qu'on soit dans une situation pour laquelle les électrons remplissent parfaitement un certain nombre de bandes d'états, toutes les autres étant vides. Dans ce cas, il est beaucoup plus difficile de changer la configuration électronique du système, car il faut apporter une énergie importante pour faire passer un électron d'une bande d'états pleine à une bande d'états vide. Un tel solide, qui ne peut pas répondre à une sollicitation par un champ électrique, est un isolant. Plus précisément, on parlera de matériau semi-conducteur ou de matériau isolant, selon qu'il est possible ou non de rendre ce matériau partiellement conducteur en le fonctionnalisant, en suivant une méthode simple que nous allons décrire.
Nous avons vu que dans un isolant, les bandes d'états sont soit parfaitement remplies par les électrons, soit entièrement vides. On va pouvoir dès lors fonctionnaliser ce matériau en introduisant volontairement des impuretés, ce qu'on appelle « doper » le matériau. Imaginez, par exemple, que dans un cristal de silicium, vous remplaciez des atomes de silicium par des atomes de phosphore qui apportent chacun un électron en plus. Pour placer ces électrons excédentaires, il nous faut commencer à remplir une nouvelle bande, qu'on appelle bande de conduction. Puisqu'ils occupent une bande partiellement occupée, ces électrons vont pouvoir conduire le courant, et la conductibilité du matériau peut être ajustée très simplement en dosant le nombre d'électrons qu'on introduit. De la même façon, si vous insérez des impuretés qui apportent un électron en moins, la dernière bande d'état occupée, appelée bande de valence, ne sera pas complètement pleine. Elle comportera certains « trous », qui permettent ici encore au matériau de devenir conducteur. Le contrôle du dopage des semiconducteurs a constitué une étape clef pour le développement des diodes, des transistors et plus généralement pour l'essor de la microélectronique et de l'optoélectronique.

Figure 1 : Représentation schématique des états électroniques et de leur remplissage par les électrons du solide dans le cas d'un métal, d'un semiconducteur pur, et d'un semiconducteur dopé par des impuretés « donneuses d'électron ».

En considérant la figure 1 b), nous allons voir qu'un semi-conducteur non dopé présente des propriétés très spécifiques vis-à-vis de la lumière. La lumière et la matière interagissent par échange de quanta d'énergie comme l'a montré Einstein en 1905. Ces quantas (les « photons ») peuvent être vus comme des petits grains de lumière, qui ont une énergie hn, où h la constante de Planck et n la fréquence de l'onde lumineuse. Si ce quantum d'énergie hn est plus petit que la largeur de la bande interdite qui sépare la bande de valence de la bande de conduction, le principe de conservation d'énergie nous empêche de promouvoir un électron de la bande de valence à la bande de conduction. Le semi-conducteur ne peut absorber un tel photon, et est donc transparent pour un rayonnement lumineux de fréquence n. Par contre, si l'énergie hn est plus grande que la largeur de la bande d'énergie interdite, il devient possible de faire passer un électron de la bande de valence à la bande de conduction en absorbant un photon.
De plus, un semi-conducteur, peut être mis en Suvre pour émettre de la lumière de fréquence relativement bien définie. Imaginons que nous ayons placé par un moyen idoine, un certain nombre d'électrons dans la bande de conduction et un certain nombre de trous dans la bande de valence. Chaque électron pourra alors redescendre de la bande de conduction à la bande de valence en émettant un photon, avec une énergie voisine de la largeur de la bande interdite. En jouant sur la nature ou la composition du matériau semiconducteur, on peut ainsi ajuster la fréquence du rayonnement émis. Les matériaux les plus employés pour cette fonction sont le nitrure de gallium GaN, le phosphure d'indium InP, ou encore l'arséniure de gallium GaAs, tandis que le silicium, matériau roi de l'électronique, n'est pas un bon émetteur de lumière.
Le principal composant optoélectronique en termes de marché (loin devant la diode laser) est la diode électroluminescente. Ce composant très répandu est largement utilisé pour la visualisation (voyants lumineux, feux de signalisation routière, écrans plats extérieurs...) et de plus en plus pour l'éclairage. Nous reviendrons plus loin sur quelques avancées récentes importantes dans ce domaine.
On peut comprendre relativement simplement comment les diodes électroluminescentes et les diodes lasers émettent de la lumière lorsqu'on leur injecte un courant électrique (figure 2). Juxtaposons côte à côte deux morceaux de semi-conducteur dopés, l'un riche en électrons (SC « de type n ») et l'autre pauvre en électrons (SC « de type p »). Des électrons pourront alors passer de la bande de conduction du matériau de type n vers des états vides de valence du matériau de type p, passage qui s'accompagne de l'émission de photons. Afin d'entretenir ce phénomène, il faut bien entendu apporter des électrons au matériau de type n et en extraire du matériau de type p. Ceci est simplement réalisé en appliquant une tension électrique entre ces deux matériaux via des contacts métalliques.

Figure 2 : Principe de fonctionnement d'une diode électroluminescente (M = métal, SC = semi-conducteur). A droite, diodes électroluminescentes réalisées à partir du semiconducteur GaN (nitrure de gallium).

Afin d'accroître la fonctionnalité des matériaux semi-conducteurs, on peut aussi associer des semi-conducteurs de nature différente, présentant des largeurs de bande interdite différentes, de façon à réaliser une « hétérostructure » semiconductrice. Insérons par exemple une couche d'un matériau à petite bande interdite, P, au sein d'un semiconducteur G de plus grande bande interdite. Plaçons un électron dans la bande de conduction du matériau G. Lorsqu'il se déplace au sein de celui-ci, l'électron « voit » un univers essentiellement uniforme (tous les endroits se ressemblent dans un cristal, les atomes étant parfaitement bien ordonnés). A contrario, lorsqu'il arrive à l'interface entre les matériaux P et G, cet électron peut abaisser son énergie en passant de G à P, car il existe des états de conduction dans le matériau P à plus basse énergie que dans le matériau G. En quelque sorte, l'électron se comporte ici un peu comme une bille qui rencontrerait une marche d'escalier. Il était sur la marche du haut, il saute et tombe sur la marche du bas. On peut bien entendu décliner cette idée de très nombreuses façons, afin de structurer le profil de potentiel vu par l'électron. On va construire pour lui un paysage avec des collines et des vallées, dont le profil et la hauteur peuvent être dessinés quasiment à volonté en jouant avec la nature des matériaux.

Les nanostructures semiconductrices

Invention capitale, les hétérostructures semiconductrices ont déjà valu plusieurs prix Nobel à leurs inventeurs. Derniers en date, Z. Alferov et H. Kroemer se sont vus récompenser en 2000 pour avoir « développé des hétérostructures semiconductrices employées dans les domaines de l'électronique ultrarapide et de l'optoélectronique », selon les termes du comité Nobel. Les hétérostructures « quantiques » sont quant à elles apparues à la fin des années 70. Le principe reste ici le même, à ceci près qu'on va à présent structurer la matière à l'échelle du nanomètre de façon à voir apparaître des effets quantiques. Parmi les exemples les plus célèbres, on peut citer le super-réseau, qui est une sorte de millefeuille, constitué d'un empilement périodique G/P/G/P...de couches semiconductrices de grande bande interdite (G) et de petite bande interdite (P) de quelques nanomètres d'épaisseur. Les super-réseaux possèdent des propriétés de conduction électrique très particulières, dont la découverte a valu le prix Nobel 1973 à L. Esaki. On peut aussi jouer à confiner les électrons dans des nanostructures. L'exemple le plus simple, déjà cité, est le puits quantique G/P/G constitué par une couche mince P, d'épaisseur nanométrique, placée au sein d'un matériau G de plus grande bande interdite. Un électron de conduction, placé dans le puits quantique, est confiné selon une direction de l'espace, mais reste libre de se mouvoir dans les deux autres dimensions. On peut également fabriquer des fils quantiques ou des boîtes quantiques, pour lesquels l'électron est confiné selon deux dimensions ou trois dimensions. Dans le cas des boîtes quantiques, l'électron est confiné dans toutes les directions ; cette situation est tout à fait analogue au cas de l'électron piégé au voisinage du noyau dans un atome. On s'attend donc à retrouver, dans le cas des boîtes quantiques, un système présentant (comme l'atome) des états électroniques discrets, bien séparés en énergie.

Figure 3 : Représentation schématique d'un puits quantique (PQ), de fils quantiques (FQs) et de boîtes quantiques (BQs). Vue en coupe de puits quantiques de GaN dans AlN, obtenue par microscopie électronique à haute résolution (Remerciements à J.L. Rouvière et B. Daudin, CEA).

On sait réaliser des puits quantiques de bonne qualité depuis le début des années 80. A titre d'exemple, la figure 3 montre une vue en coupe d'un puits quantique de GaN au sein d'une couche de nitrure d'aluminium AlN, obtenue par microscopie électronique. Sur cette image, chaque ligne correspond à un plan d'atomes. On voit qu'en fait la structure est très proche de la perfection : d'une part, on passe de la couche de GaN à la couche d'AlN via un changement de composition abrupt à l'échelle atomique ; d'autre part, les interfaces sont presque parfaitement plates, à la présence près de quelques marches atomiques. Comment obtient-on en pratique un tel contrôle ? La perfection de ces objets résulte de la mise en Suvre d'une technique de déposition de films en couches minces, qui s'appelle l'épitaxie par jets moléculaires. Cette technique consiste à prendre un substrat, c'est-à-dire un cristal semi-conducteur sans défaut, sur lequel on va déposer l'hétérostructure désirée. Pour déposer une couche de nature donnée, par exemple en GaAs, on expose la surface du substrat à des flux d'atomes, ici de gallium et d'arsenic, évaporés à partir de cellules chauffées contenant des charges extrêmement pures de ces éléments. On ajuste la composition du matériau qu'on dépose en contrôlant les flux de ces différentes familles d'atomes, et les épaisseurs des couches déposées en jouant sur le temps de déposition. L'épitaxie par jets moléculaires se déroule dans une enceinte dans laquelle on réalise un vide résiduel extrêmement poussé (10-13 atmosphères !) de façon à éviter toute contamination par des atomes indésirables.

Les puits quantiques constituent un exemple simple de système dont les propriétés électroniques sont gouvernées par la mécanique quantique. Ces effets quantiques résultent du confinement de l'électron dans la couche « puits ». On sait depuis L. De Broglie qu'à toute particule on peut associer une onde, et que cette onde représente en fait la probabilité de présence de la particule dans l'espace. Toute onde confinée présente des fréquences de résonance particulière. Considérons par exemple la corde d'un violon ; elle a une longueur bien définie, est fixée à ses deux extrémités, et possède des fréquences de résonance spécifiques : la « note » qui lui est associée, ainsi que ses harmoniques, dont la fréquence est un multiple de celle de la note fondamentale. Il en est de même pour l'électron dans le puits quantique, dont l'onde associée va devoir s'adapter à la taille du puits. De façon analogue à la corde vibrante, dont la longueur est égale à un multiple de la demi longueur d'onde, la longueur d'onde de De Broglie l de l'électron est reliée à l'épaisseur L du puits par la relation L= n. l /2 où n est un nombre entier. De même que la longueur d'onde, l'énergie de l'électron (associée à son mouvement dans une direction perpendiculaire au plan du puits) ne peut prendre qu'un ensemble de valeurs discrètes données par l'expression suivante : . [1] Cette relation nous montre que l'électron a toujours une énergie cinétique minimale, donnée par E1, dont la valeur croît rapidement (comme 1/L2) lorsqu'on réduit la taille L du puits quantique. De même, la séparation énergétique entre les niveaux discrets de l'électron Em- En croît, elle aussi, comme 1/L2. L'étude expérimentale des puits quantiques par spectroscopie optique, par exemple l'étude de leurs propriétés d'absorption de la lumière, a parfaitement confirmé l'ensemble de ces prédictions. Les propriétés des puits quantiques ont été discutées plus en détail par E. Rosencher dans le cadre de ce cycle de conférences de l'UTLS, ainsi que leurs applications très variées en optoélectronique.

Nous allons nous intéresser plus spécifiquement dans la suite de cet exposé aux propriétés et applications des boîtes quantiques, qui ont fait l'objet de très nombreuses études au cours des dix dernières années. Initialement, ces nanostructures ont été principalement développées dans le but d'améliorer les propriétés des diodes laser. Pourquoi fabriquer des boîtes quantiques, et que s'attend t-on à gagner par rapport au laser à puits quantique ?
Ouvrons le boîtier de votre lecteur CD, et regardons à quoi ressemble la diode laser qu'il utilise pour lire le disque. Si on réalise une vue en coupe de ce composant, de façon à obtenir une image analogue à la figure 3, on verra qu'il est constitué par un empilement de couches semi-conductrices. L'une d'elles, de quelques centaines de nanomètres d'épaisseur, sert à guider le faisceau laser à l'intérieur du composant ; en son sein, on trouvera une ou quelques couches plus fines, formant des puits quantiques, qui vont amplifier cette onde laser s'ils sont excités par un courant électrique. Bien que les diodes laser soient des composants présentant des performances tout à fait remarquables, celles-ci sont cependant limitées par certaines lois fondamentales de la physique. Lorsqu'on met des électrons et des trous dans un puits quantique à la température T, l'énergie de ceux-ci n'est pas bien définie, mais distribuée sur une bande d'énergie de largeur typique kT, où k est la constante de Boltzmann. Le laser, quant à lui, fonctionne avec une fréquence d'émission n bien précise. On voit donc que la plupart des paires électron-trou injectées dans le puits, dont l'énergie est différente de hn, ne participent pas à l'émission laser. Ces paires peuvent cependant se recombiner, en émettant un photon par émission spontanée à une énergie différente de hn. Cette consommation d'électrons et de trous, inutiles pour le fonctionnement du laser, accroît la valeur du courant de seuil du laser, courant minimal qu'il faut lui injecter pour assurer son fonctionnement.
En 1982, Y. Arakawa et Y. Sakaki, de l'Université de Tokyo, ont proposé de réaliser des lasers à boîtes quantiques. L'idée sous-jacente était simple, conceptuellement du moins. Dans une boîte quantique, l'électron est confiné dans toutes les directions de l'espace, et ses états électroniques possibles sont discrets, comme pour un atome isolé. Si la boîte est assez petite, les états vont être très bien séparés en énergie comme on l'a vu auparavant, en discutant des effets de confinement. Supposons donc que cette séparation soit plus grande que l'énergie thermique kT (qui vaut 25 meV à température ambiante). Lorsqu'on injecte un électron dans la boîte quantique, celui-ci ne pourra occuper qu'un seul état, celui de plus basse énergie, car l'énergie thermique est insuffisante pour lui permettre d'occuper des états plus hauts en énergie. Il en est de même pour un trou, dans les états de valence de la boîte quantique. On espère donc, si les boîtes quantiques sont toutes identiques, que tous les électrons et les trous injectés vont travailler à la même énergie, ce qui devrait révolutionner les propriétés des lasers : on s'attend par exemple à ce que le courant de seuil soit réduit par un facteur 100 !
Cela étant dit, il faut que l'ensemble de boîtes quantiques satisfasse, pour atteindre cet objectif, un ensemble de conditions draconiennes. Tout d'abord, on veut que les états de la boîte quantique soient très bien séparés en énergie (à l'échelle de l'énergie thermique kT), de façon à ce que seul le premier état électronique de la boîte soit peuplé. Un calcul simple montre qu'alors la boîte quantique doit être plus petite que 15 nanomètres environ pour chacune de ses trois dimensions. Bien entendu, il faut aussi que les boîtes quantiques soient pratiquement identiques. En effet, la position des niveaux quantiques dans une boîte dépend de la taille de la boîte ; elle en dépend même très fortement pour un objet aussi petit, puisque l'énergie de confinement varie comme 1/L2, comme on l'a vu plus haut. On peut montrer facilement que la dispersion des tailles des boîtes quantiques doit être nettement plus petite que 15%. A notre échelle, une précision relative de 15% paraît quelque peu grossière, mais dans le cas présent, cela signifie que les boîtes quantiques doivent être fabriquées avec une précision absolue nettement meilleure que 2 nanomètres ! Enfin, il nous faut mettre en Suvre suffisamment de boîtes quantiques pour que le laser fonctionne effectivement, ce qui implique de fabriquer de l'ordre de un milliard à cent milliards de boîtes par centimètre carré. Chacune de ces trois contraintes, et a fortiori leur combinaison, paraissent extrêmement difficiles à remplir.

Comment fabriquer des boîtes quantiques ?

De nombreuses approches ont été explorées pour fabriquer des boîtes quantiques au cours des vingt dernières années. De façon imagée, on peut dire que la première à avoir fait l'objet d'un intérêt soutenu est celle du sculpteur. On part d'un puits quantique, qu'on cisèle au burin pour former un plot vertical, qui ne contient qu'une toute petite partie du puits. On forme de cette façon une boîte quantique pour laquelle l'électron est confiné suivant un axe vertical par la modulation de composition du semiconducteur (comme pour le puits quantique), et latéralement par les bords du plot. On sait fabriquer de tels objets en utilisant les outils de nanofabrication couramment employés en microélectronique, en particulier la lithographie électronique (qui permet de dessiner des motifs de taille nanométrique dans une résine à l'aide d'un faisceau d'électrons), et la gravure sèche assistée par plasma, qui permet de reproduire ce motif dans le semiconducteur. Bien qu'on ait réussi à fabriquer des boîtes quantiques par cette voie dès 1990, cette approche aujourd'hui abandonnée pose deux problèmes majeurs. D'une part, la lithographie électronique est une technique séquentielle ; il nous faut dessiner le motif désiré dans la résine boîte par boîte. Cette étape est donc fastidieuse et nécessairement coûteuse. D'autre part, on ne sait pas lithographier une résine organique à une échelle inférieure à 3 nanomètres environ. Cette approche n'est donc pas adaptée pour fabriquer un ensemble de boîtes quantiques avec le degré de précision requis pour faire un laser performant.
Fort heureusement, il s'est produit au début des années 90 deux miracles, de ceux dont la Nature a le secret. On a en effet alors découvert qu'il est possible d'obtenir des boîtes quantiques presque identiques très simplement, par auto-assemblage. Nous allons à présent présenter deux méthodes de fabrication de ce type, qui sont aujourd'hui très couramment employées.
La synthèse chimique de boîtes quantiques est assez proche de notre expérience quotidienne. Prenons une casserole d'eau salée, que nous laissons trop longtemps sur le feu. Au début, l'eau s'évapore progressivement, sans qu'on observe de changement particulier. A partir d'un certain moment, on verra cependant de tout petits cristaux de sel commencer à se déposer sur les bords de la casserole. L'eau salée a atteint sa concentration de saturation, ce qui conduit à la précipitation du sel excédentaire sous forme de petits cristaux solides. On peut faire à peu près la même chose à l'échelle nanométrique, avec des semi-conducteurs, par exemple avec le séléniure de cadmium CdSe. Dans la pratique, on prend un récipient dans lequel on met en solution de l'oxyde de cadmium dans un solvant organique. On injecte ensuite brutalement du sélénium dans la solution. Ce faisant, on dépasse le seuil de saturation pour CdSe et on déclenche la nucléation d'un très grand nombre de cristaux nanométriques de CdSe. A ce stade, les molécules de solvant viennent se fixer à la surface des nanocristaux, ce qui va ralentir leur croissance. Du fait de leur formation quasi-simultanée et de leur croissance lente, les nanocristaux conservent des tailles très voisines au cours du temps. Lorsqu'on arrête la croissance à un moment donné en cessant d'apporter du sélénium à la solution, on obtient un ensemble de nanocristaux dont la dispersion des tailles peut être de l'ordre de 5 %, ce qui est tout à fait remarquable pour des objets dont la taille n'est que de 3 nanomètres ! Cette merveilleuse homogénéité est illustrée par le cliché de microscopie électronique présenté sur la figure 4.

Figure 4 : A gauche, vue au microscope électronique d'un ensemble de nanocristaux de CdSe obtenus par synthèse chimique. La fluctuation relative de leur rayon R est de l'ordre de 5%. A droite, observation sous éclairage ultraviolet de flacons contenant des nanocristaux de CdSe dans un solvant: la couleur de la suspension colloïdale peut être ajustée dans tout le spectre visible en jouant sur la taille moyenne des nanocristaux. Remerciements à P. Reiss et J. Bleuse (CEA).

La seconde approche permet de fabriquer des boîtes quantiques par auto-assemblage en utilisant -comme pour les puits quantiques- l'épitaxie par jets moléculaires. Contrairement aux nanocristaux, ces boîtes quantiques vont pouvoir être intégrées facilement au sein d'un composant semi-conducteur, par exemple un laser. Pour présenter cette méthode, considérons une image d'une surface de GaAs sur laquelle on a déposé deux couches moléculaires (soit un demi-nanomètre en moyenne) d'InAs. Cette image, présentée figure 5, a été obtenue par microscopie à force atomique, une technique qui permet d'avoir une résolution à l'échelle atomique sur la topographie d'une surface. On constate ici la formation spontanée d'un ensemble dense d'îlots de taille nanométrique à la surface de l'échantillon. Ce mode de croissance tridimensionnel avec formation d'îlots est en fait observé pour un très grand nombre de couples de matériaux semi-conducteurs.
Pourquoi ce mode de croissance tridimensionnel est-il observé ici ? Lorsqu'on dépose par croissance épitaxiale un semiconducteur A sur un substrat S, on choisit en général deux matériaux pour lesquels la géométrie d'agencement des atomes et leurs distances mutuelles sont les mêmes. Les atomes déposés pour former la couche A adoptent alors de façon naturelle le même ordre cristallin que dans le substrat. (On rencontre une situation analogue lorsqu'on joue aux LegoTM : on peut facilement accrocher des pièces rouges sur un plan de pièces blanches). La croissance se fait alors couche atomique par couche atomique et permet de réaliser des puits quantiques. La situation est différente pour InAs et GaAs, qui ont une même structure cristalline, mais des distances inter-atomiques assez différentes (7% environ). (Une faible différence de distance entre plots d'accrochage suffit pour que les pièces de jeux de constructions différents soient incompatibles !). Pour déposer une couche d'InAs sur GaAs, il va falloir déformer la maille cristalline d'InAs, de façon à adapter la distance entre atomes voisins dans le plan de la couche au paramètre de maille du substrat. Une croissance couche par couche reste ainsi possible, mais la déformation élastique de la couche déposée a un coût en énergie important. Il y a deux solutions pour relaxer cette énergie élastique. La première repose sur la création de défauts cristallins, les dislocations. Une autre solution, adoptée par la Nature dans le cas d'InAs sur GaAs, réside dans la formation d'îlots tridimensionnels. Les atomes à la surface de l'îlot n'ayant pas d'atomes voisins, ils peuvent se « pousser de côté » pour donner plus de place aux autres. Cette morphologie particulière permet donc à la couche d'InAs contrainte de diminuer son énergie élastique.

Figure 5 : A gauche, vue au microscope à force atomique de la surface d'une couche fine d'InAs épitaxiée sur un substrat de GaAs ; les îlots d'InAs ont une hauteur moyenne de 5 nm et une largeur de 20 nm environ à leur base. A droite, vue en coupe d'un plan de boîtes quantiques d'InAs dans GaAs, obtenue par microscopie électronique. Remerciements à JM Moison et A Ponchet, CNRS.

Une fois qu'on a formé ces îlots nanométriques d'InAs, il suffit de déposer une nouvelle couche de GaAs en surface. On obtient alors des inclusions d'InAs, matériau de petite bande interdite, au milieu de GaAs, matériau de plus grande bande interdite, qui constituent de ce fait des boîtes quantiques. Ce procédé de fabrication collectif permet de réaliser en quelques secondes de l'ordre de 10 à 100 milliards de boîtes quantiques par centimètre carré. Il est de surcroît extrêmement propre, puisqu'il se déroule dans l'enceinte du bâti d'épitaxie par jet moléculaire. Quant aux fluctuations de taille, celles-ci ne dépassent pas 7 à 10% lorsque le procédé est optimisé, et sont donc d'amplitude suffisamment faible pour qu'on puisse exploiter ces boîtes quantiques dans des composants optoélectroniques.

Quelques propriétés optiques des nanocristaux et des boîtes quantiques

Considérons à présent les propriétés optiques de ces nano-objets. Nous allons voir que celles-ci présentent des signatures très claires d'effets quantiques. Observons tout d'abord la figure 4, qui présente une série de petites fioles contenant des nanocristaux en solution. Ceux-ci sont constitués du même semi-conducteur, le sélénium de cadmium CdSe. Cependant, on a laissé croître ces nano-cristaux plus ou moins longtemps d'un échantillon à l'autre, de sorte que le diamètre moyen varie graduellement de 3 nanomètres, pour la fiole de gauche à 5nm pour celle de droite. Cette variation de taille provoque un changement spectaculaire de la couleur des nano-cristaux. Cette couleur, qui est ici observée sous excitation par une lampe UV (on est donc en train d'observer l'émission des nano-cristaux), reflète l'énergie de bande interdite de ces boîtes quantiques. Parce qu'on confine fortement l'électron dans ces nano-objets, l'énergie des états électroniques, et donc la largeur de la bande interdite, sont très différentes de celle du semi-conducteur massif CdSe. En ce qui concerne les applications associées à cet effet, il faut mentionner qu'une technique très voisine est employée pour fabriquer des filtres colorés, très utilisés dans les laboratoires d'optique. Au lieu de réaliser la croissance des nanocristaux en solution, on peut en effet les faire précipiter au sein d'une matrice vitreuse, pendant que le verre est fondu. Ce procédé était déjà connu au XVIIème siècle par les artisans verriers de Murano.
Revenons à présent aux boîtes quantiques d'InAs dans GaAs obtenues par épitaxie. Lorsqu'on observe leur émission collective, on constate tout d'abord que sa distribution spectrale est centrée autour d'une énergie hn beaucoup plus grande que la bande interdite du semiconducteur massif InAs, et qui croît lorsque la taille moyenne des boîtes quantiques diminue. Ici encore, le confinement quantique des électrons et des trous entraîne une modification très marquée de la bande interdite du système et donc de ses propriétés d'émission. On constate par ailleurs que cette émission collective est distribuée sur une gamme spectrale très large, typiquement cent mille fois plus large que pour un atome ! D'où cela vient-il ? On se doute que les fluctuations de taille de boîte à boîte sont partiellement responsables de ce résultat. Pour confirmer cette hypothèse et connaître les propriétés intrinsèques des boîtes quantiques, il faut isoler et étudier une boîte quantique unique. Partant d'un plan de boîtes quantiques tel que celui de la figure 5, on va graver celui-ci de façon à définir des plots, dont la taille est de l'ordre de 100 nanomètres, et qui ne contiennent que quelques boîtes, voire une seule boîte. Lorsqu'on réalise cette expérience, on peut observer un spectre d'émission constitué de quelques raies spectrales très fines, qui correspondent chacune à une boîte quantique spécifique (voir la figure 6). Ce comportement, observé à basse température (T

Figure 6 : Spectre d'émission mesuré à basse température (10K) pour un ensemble de boîtes quantiques (à gauche) et pour une boîte quantique isolée, à droite. On notera que l'échelle des énergies est environ 100 fois plus petite pour le spectre de la boîte unique.

Lorsqu'on souhaite discuter les applications futures des boîtes quantiques, par exemple dans le domaine des lasers, il est bien entendu essentiel de considérer leurs propriétés optiques à température ambiante. Nous avons précédemment montré qu'à basse température, une boîte quantique émet, comme un atome, un rayonnement de très faible largeur spectrale. Malheureusement, on perd cette propriété très séduisante dès lors qu'on dépasse une température supérieure à une centaine de Kelvin typiquement. A température ambiante (300K), la raie d'émission observée pour une boîte unique est voisine de 10 milli-électrons volt (soit environ kT/2), ce qui est comparable à la largeur de raie observée pour un puits quantique. On est donc ici très loin de l'image de l'atome artificiel. Plus on élève la température, plus les vibrations des atomes constituant le cristal semiconducteur sont importantes. Ces vibrations cristallines viennent perturber le système électronique et de ce fait élargissent l'émission associée à une boîte unique. Ce résultat, qui n'a été découvert que relativement récemment, nous montre donc que l'image de l'atome artificiel isolé n'est pas du tout valide à haute température. Une boîte quantique est un système électronique localisé fortement couplé à son environnement. En sus de son importance conceptuelle, ce résultat nous invite à reconsidérer les applications initialement envisagées pour les boîtes quantiques.

Quelles applications pour les boîtes quantiques ?

L'observation de raies d'émission larges pour les boîtes quantiques isolées à 300K a sonné le glas du vieux rêve d'Arakawa et Sakaki : il ne sera pas possible d'obtenir un laser à boîte quantique 100 fois plus performant qu'un laser à puits quantique. L'idée de départ était d'avoir une raie d'émission très fine - pour un ensemble de boîtes quantiques très similaires- , qui permette de bien mieux utiliser les paires électron-trou injectées qu'avec un puits quantique. On voit ici que pour une raison tout à fait intrinsèque, ce couplage aux vibrations cristallines, la largeur de raie d'une boîte unique et donc a fortiori d'un plan de boîtes ne peut pas être beaucoup plus étroite que pour un puits quantique.
Très souvent, dans le monde de la recherche, lorsqu'un rêve s'écroule, dix autres naissent. C'est ici le cas. En s'attachant à étudier les propriétés spécifiques des boîtes quantiques, on leur trouve jour après jour de nombreuses opportunités d'application. Il ne saurait ici être question d'en faire une présentation exhaustive ; je n'en citerai donc que quelques unes, choisies pour leur valeur exemplaire.
Plusieurs équipes de recherche ont développé des lasers à boîtes quantiques émettant au voisinage de 1.3 µm - l'une des principales longueurs d'onde employées pour les télécommunications sur fibre optique -, lasers dont les propriétés sont beaucoup moins sensibles à la température celles des lasers à puits quantiques disponibles dans la même gamme spectrale (Cette propriété résulte de la densité d'états discrète des boîtes quantiques : faire passer un électron d'un état à un autre requiert un changement notable de son énergie). Bien que les lasers à boîtes quantiques soient un peu moins performants que les lasers à puits quantiques, leur faible sensibilité aux variations de température permet de simplifier le circuit électronique d'alimentation et de contrôle du laser, et de se dispenser de systèmes complexes de régulation en température. Cette simplification a, bien entendu, a un impact très fort en termes de coût de revient global des modules laser pour les télécommunications à 1.3 µm. Plusieurs start-ups exploitant cette opportunité ont vu le jour aux Etats-Unis, en Europe et au Japon.
C'est cependant dans un domaine différent des lasers, celui des diodes électroluminescentes, que les boîtes quantiques ont trouvé leur principal domaine d'application à ce jour. Les diodes électro-luminescentes (ou « DELs » pour light emitting diodes) représentent un marché colossal supérieur à 3 milliards d'euros par an, et de loin le plus gros marché des composants optoélectroniques. Ce composant très répandu autour de nous est employé pour des fonctions de visualisation et d'éclairage. Les écrans plats extérieurs en couleur, tel que celui que vous voyez sur la tour Montparnasse, reposent sur l'émission de dizaines de millions de DELs. Elles assurent également l'éclairage de l'écran de votre téléphone portable, du tableau de bord des véhicules automobiles récents, et sont présentes dans tous les feux de signalisation routière. Les DELs présentent en fait des avantages très importants par rapport aux lampes à incandescence. Elles consomment typiquement 10 fois moins d'énergie et sont « éternelles », en ce sens que leur durée de vie est 10 fois plus longue que la durée de vie du système dans lequel elles sont incorporées. On saisit très vite l'intérêt d'intégrer ces composants dans un système complexe tel qu'une voiture ; nul n'a envie de démonter un tableau de bord pour changer une simple ampoule ! Si on était capable de remplacer toutes les lampes à incandescence par des DELs blanches, on réduirait aussi très fortement la consommation énergétique associée à l'éclairage, et de plusieurs pour cents la consommation énergétique globale. Les enjeux associés à cette utilisation de plus en plus vaste des DELs sont donc considérables sur un plan économique mais aussi écologique.

Figure 7: Vue en coupe de la couche active d'une DEL bleue commerciale, constituée par une couche très fine d'alliage (InxGa1-x)N dans GaN. Cartographie de la composition chimique de l'alliage, obtenues par microscopie électronique. On observe un phénomène de démixtion et la formation d'inclusions de taille nanométriques très riches en indium (remerciements P. Bayle, CEA).

En 1995, ce domaine a connu une véritable révolution, avec la commercialisation par une société japonaise de DELs bleues et vertes très brillantes. Jusque là en effet, on ne savait produire efficacement de la lumière avec les DELs que dans le rouge ou l'orange. Un épais mystère était attaché au fonctionnement de ces nouvelles DELs. En effet, celles-ci sont réalisées à partir de nitrure de gallium GaN, pour lequel on ne dispose pas de substrat bien adapté à sa croissance épitaxiale. La croissance des DELs GaN est le plus souvent réalisée sur un substrat de saphir, dont le paramètre de maille cristalline est très différent de celui de GaN. De ce fait, la couche épitaxiée contient un très grand nombre de défauts, les dislocations, qui sont connus comme des « tueurs » de paires électron-trou. Celles-ci sont en effet capturées très efficacement par les dislocations, et se recombinent sur ce défaut en générant de la chaleur en lieu et place de photons. Pour les semiconducteurs usuels, on doit donc travailler avec un matériau absolument sans dislocations si on veut obtenir des DELs efficaces. L'analyse par microscopie électronique de la couche active des DELs bleues a donné la clef de ce mystère quelques années plus tard. On s'est alors rendu compte que cette couche active, qu'on croyait être un puits quantique d'alliage (InGa)N, est en fait un ensemble de boîtes quantiques. En cours de croissance, cet alliage présente en effet un phénomène de démixtion, avec formation d'agrégats de taille nanométriques riche en InN, qui constituent des boîtes quantiques (figure 7). Cette nanostructuration de la couche active a des conséquences très importantes. En effet, le piégeage des électrons et les trous dans les boîtes quantiques inhibe presque totalement leur diffusion vers les dislocations, et assure ainsi leur recombinaison radiative. Cette nanostructuration spontanée des couches d'(InGa)N a ainsi engendré un marché de plusieurs milliards d'euros par an !
Les boîtes quantiques offrent de nombreuses autres perspectives d'application, qui font actuellement l'objet d'études exploratoires. L'un des objectifs les plus séduisants est la réalisation d'une source de photons uniques, composant qui exploite l'émission d'une unique boîte quantique. Les composants considérés jusqu'ici, lasers ou DELs, fonctionnent avec des dizaines de milliards de boîtes. Travailler avec une seule boîte quantique nous permet de réaliser une fonction optoélectronique importante et originale, l'émission à la demande de photons un par un. Comme l'a expliqué Philippe Grangier dans une conférence récente de l'Université de Tous Les Savoirs, la disponibilité d'une telle source lumineuse est essentielle en vue d'une application future de la cryptographie quantique à grande échelle. Rappelons ici simplement que la cryptographie quantique propose des protocoles de communication originaux, qui s'appuient sur les lois de la mécanique quantique pour garantir une confidentialité absolue de l'information échangée. Un autre champ d'application des sources à photon unique pourrait être la métrologie. Si on est capable, à la demande, d'émettre une impulsion lumineuse contenant un et un seul photon, on pourrait aussi répéter l'opération 1 million de fois, et émettre précisément 1 million de photons. On pourrait donc utiliser cette source comme étalon de flux lumineux ou plus généralement d'énergie.
Comment préparer un photon unique ? C'est en fait relativement délicat. Un photon unique est un état quantique de la lumière, et il est absolument impossible de le générer par des moyens « classiques » par exemple à l'aide d'un laser, d'une DEL ou d'une lampe à incandescence. A titre d'exemple, lorsqu'un laser génère des impulsions lumineuses contenant en moyenne n photons, le nombre de photons présente en fait une fluctuation d'impulsion à impulsion égale à la racine de n. Pour émettre des photons un par un, il faut en fait utiliser un système quantique unique, tel qu'un atome unique. Isolons par la pensée un atome dans l'espace, et excitons le à l'aide d'un rayonnement lumineux dont la fréquence correspond à l'une de ses raies spectrales. L'absorption d'un photon par l'atome s'accompagne du passage d'un électron d'un état « b » bien défini vers un état « h » lui aussi bien défini, et d'énergie plus élevée. Dans cette nouvelle configuration électronique, l'atome ne peut plus absorber la lumière, puisque l'état « b » est vide. On voit par conséquent qu'un atome excité de cette façon ne peut stocker qu'une excitation élémentaire : lorsqu'on coupe le faisceau de pompage, il se désexcite en émettant un unique photon. En pratique, on sait piéger un atome unique dans l'espace par des méthodes optiques, mais pour une durée qui n'excède pas quelques secondes. Il est ici beaucoup plus commode d'employer une boîte quantique comme « atome artificiel » pour réaliser la même fonction. En collaboration avec des collègues du CNRS, nous avons proposé un protocole original, qui permet de générer des photons un par un à la demande à l'aide d'une boîte quantique. Celui-ci tire en fait parti de la forte interaction de Coulomb entre électrons et trous piégés dans une même boîte. La boîte quantique peut être excitée au choix à l'aide d'un faisceau optique ou à l'aide d'une impulsion électrique, ce qui ouvre la voie au développement de sources de photons uniques compactes et pratiques pour la cryptographie quantique. Plusieurs dizaines d'équipes dans le monde y travaillent aujourd'hui.
Je présenterai enfin un nouvel exemple d'application des nano-cristaux semiconducteurs. A la différence des boîtes quantiques obtenues par croissance sur un substrat, ceux-ci peuvent être dispersés dans différents milieux, en particulier liquides. Ils constituent aujourd'hui une classe de marqueurs fluorescents particulièrement intéressante pour la biologie. On sait aujourd'hui assurer la biocompatibilité de ces nano-objets, ainsi que leur solubilisation dans les liquides physiologiques, en les enrobant par exemple de silice. On sait aussi greffer sur leur surface du matériel biologique, par exemple une protéine ou un fragment d'ADN monobrin, afin de le fonctionnaliser. En cartographiant l'émission des nanocristaux dans l'espace, on peut voir où ce matériel biologique est allé se fixer à l'intérieur d'un organisme, éventuellement jusqu'à l'échelle intracellulaire. Bien qu'il existe des colorants organiques qui remplissent une fonction similaire, les nanocristaux présentent des atouts très importants. Tout d'abord, ils sont dix à cent fois plus stables dans le temps, ce qui permet de faire de longues expériences. Ensuite, le spectre de leur émission est moins large ; il est donc possible d'employer en parallèle des nanocristaux émettant dans des gammes de longueur d'onde différentes et d'obtenir simultanément des informations de nature différente. Enfin, leur biocompatibilité est bien supérieure à celle des colorants organiques, qui sont pour la plupart hautement toxiques.

En conclusion, je voudrais conclure cette présentation, en soulignant le caractère extrêmement vivant de ce domaine. Loin d'être figées, les techniques de nanofabrication font l'objet de nombreux développements, qui permettent par exemple de construire des systèmes quantiques plus complexes (« molécules artificielles » constituées d'un assemblage de boîtes quantiques, dopage par des atomes magnétiques, intégration de boîtes quantiques dans des microrésonateurs optiques...). Mois après mois, de nouveaux résultats viennent enrichir la palette des effets quantiques observables avec les nanostructures semi-conductrices et élargir leur champ d'application potentiel.

*CEA Grenoble, CEA/DRFMC/SP2M, 17 rue des Martyrs, 38054 Grenoble Cedex 9.
Adresse électronique : jean-michel.gerard@cea.fr

[1] Remarquons que l'électron reste libre de se mouvoir dans le plan du puits quantique ; l'énergie cinétique associée à ce mouvement peut prendre une valeur positive quelconque.

 

 DOCUMENT       canal-u.tv     LIEN  

(pour  consulter  la  vidéo, inscrire  le TITRE  dans  le  moteur  de  recherche  de  CANAL U )

LA TRANSGENÈSE ET SES APPLICATIONS

02/10/2016

Texte de la 30ème conférence de l'Université de tous les savoirs réalisée le 30 janvier 2000 par Louis-Maris Houdebine

LA TRANGENESE ET SES APPLICATIONS

Les découvertes des cinquante dernières années nous ont familiarisé avec lidée que la vie nest quun ensemble de réactions physico-chimiques qui se déroulent à lintérieur despaces bien délimités, les cellules. Ces actions sont effectuées pour une part essentielle par des protéines (enzymes, facteurs sanguins, hormones, anticorps, etc.) Les protéines de tous les organismes vivants sont composées des mêmes vingt acides aminés assemblés les uns derrière les autres pour former des chaînes dont la longueur est très diverse. Les protéines peuvent contenir de quelques unités à quelques milliers dacides aminés. Le nombre de combinaisons théoriques des vingt acides aminés est considérable et lensemble des protéines existantes ne représente quune faible partie des possibilités. Lactivité biologique des protéines est directement liée à lenchaînement des acides aminés mais dune manière très complexe. Les chaînes formant les protéines se replient de multiples manières qui sont définies par la séquence des acides aminés. Ces repliements forment les sites actifs des protéines.

La découverte des protéines sest accompagnée de la mise en évidence dune molécule omniprésente dans les organismes vivants : lacide désoxyribonucléique ou ADN qui renferme linformation génétique. Cette molécule est formée dune chaîne de phosphate et de désoxyribose sur laquelle sont accrochées quatre structures appelées bases et symbolisées par les lettres ATGC.

De multiples observations ont montré quun gène est constitué par une région de la chaîne dADN et quà un gène correspond essentiellement une protéine. Des études systématiques ont permis détablir que la succession des bases dans un gène définit directement lenchaînement des acides aminés de la protéine correspondante selon un code universel : le code génétique. Trois bases successives déterminent ainsi quel acide aminé doit participer à la formation de la protéine.

LADN peut donc considérer comme une banque de données dont la cellule fait usage en fonction de ses besoins en protéines. Une copie dun gène sous la forme dun acide ribonucléique messager (ARNm) est formé à la demande de la cellule et décrypté pour synthétiser la protéine correspondante. Ces faits établis il y a bientôt quarante ans définissaient déjà tout le principe du génie génétique. En effet, si les messages génétiques contenus dans lADN ne sont définis que par la succession des quatre bases, il doit être possible de modifier ces messages voire den créer de nouveaux dès lors que lon maîtrise la chimie de lADN. Les techniques essentielles qui permettent de manipuler ainsi lADN ont été définies il y a maintenant un peu plus de vingt ans et avec elles est né le génie génétique qui est désormais un outil très largement utilisé dans de nombreux laboratoires.

Il est admis quil y a une continuité stricte entre la matière inorganisée qui a précédé le Big Bang il y a quinze milliards dannée et la matière très organisée que constituent les organismes vivants apparus sur la terre il y a quatre milliards dannées. Les minéraux représentent un état de complexité intermédiaire.

Les organismes vivants sont eux-mêmes dune complexité très variable qui va croissante des bactéries aux mammifères et à lhomme en passant par les levures et les plantes. Très logiquement, on constate que les organismes vivants les plus complexes sont ceux qui ont le plus grand nombre de gènes. Les bactéries ont ainsi de 350 à 4000 gènes, les levures environ 6000, un des plus petits animaux connus de la famille des nématodes 19099, les plantes environ 20000 et lhomme autour de 100000 (le chiffre proche de la réalité sera connu au cours de lannée 2000). Ces données sont particulièrement révélatrices de la manière dont lévolution a procédé pour faire émerger les différentes espèces. Les mammifères sont en effet beaucoup plus complexes que les bactéries et ils nont pourtant que 50 fois plus de gènes. Les biologistes savent déjà que les gènes, les protéines et les molécules qui en dérivent sont capables dinteragir de manière de plus en plus complexe au fur et à mesure que lorganisme est lui-même devenus plus évolué. La complexité du vivant naît donc au moins autant dune combinatoire de plus en plus sophistiquée de molécules qui le compose que dune accumulation des informations génétiques primaires.

1/ Des gènes au génie génétique

Ces faits ont une répercussion directe et profonde sur les expériences impliquant le génie génétique. Les techniques actuelles permettent virtuellement disoler nimporte quel gène, den étudier la structure, de le modifier et de le réintroduire dans une cellule ou un organisme vivant. Cette dernière opération est une des plus essentielles. Un gène peut en effet se comparer à une bande magnétique. Tous les deux contiennent des messages linéaires codés et aisément modifiables. Ces messages sont en soi inertes. Ils nont dintérêt que par les produits qui en sont issus : une image ou un son dans un cas, une protéine dans lautre cas. Une différence fondamentale existe toutefois entre les deux systèmes ; le lecteur de bande magnétique est indifférent au message quil décode ce qui nest le plus souvent pas le cas pour les gènes dans la mesure où les protéines peuvent agir sur la cellule ou sur lorganisme entier qui les synthétisent.

Un gène peut dans une certaine mesure être comparé à un micro-ordinateur qui contient un message spécifique. Lintroduction dun gène isolé dans une cellule et à fortiori dans un organisme entier revient alors à connecter le micro-ordinateur à un réseau de micro-ordinateurs déjà interconnectés et interagissant. Une telle incursion peut enrichir le réseau de manière harmonieuse ou à linverse perturber profondément son fonctionnement.

La transgenèse est lopération qui consiste à ajouter un gène étranger à un organisme pluricellulaire (plantes ou animaux) entier ou à remplacer un des ses gènes par un autre. Il est bien évident que dans lun et lautre cas, les effets du transgène sur lorganisme ne peuvent être totalement prévisibles aussi bien connues que soient les propriétés du gène étranger et de la protéine correspondante. La transgenèse est donc par essence un retour au complexe, lisolement dun gène et son étude in vitro étant au contraire une étude volontairement réductionniste. Les conséquences dune transgenèse sont donc à priori inévitablement en partie inconnues. La gestion du complexe que représentent lagriculture et lélevage est en réalité une activité très familière pour les communautés humaines. La sélection génétique consiste classiquement à repérer les effets biologiques intéressants (prolificité, résistance aux maladies etc.) apparus spontanément chez quelques individus au hasard de la redistribution des gènes lors de la reproduction sexuée et de mutations résultant derreurs dans la réplication de lADN. La reproduction privilégiée des individus dotés des propriétés biologiques intéressantes conduit progressivement à létablissement de lignées ou de races. Cette méthode de sélection a largement fait ses preuves et nous en bénéficions grandement. La sélection classique est toutefois une opération le plus souvent réalisée en aveugle. Le sélectionneur ne sait en effet le plus souvent rien des gènes quil a sélectionnés ni de leurs effets individuels. Seul le résultat global est généralement pris en compte. Le remaniement des chromosomes dans les cellules germinales consiste à redistribuer les gènes parentaux de manière aléatoire. Ceci explique que les enfants dun même couple sont différents. Le remaniement des chromosomes parentaux concerne de longs segments dADN qui portent de nombreux gènes contigus. La sélection dun gène ayant un intérêt biologique attendu saccompagne donc inévitablement de la co-sélection de gènes voisins inconnus dont les effets ne sont pas toujours bénéfiques. Ainsi, des taureaux, des verrats, etc. retenus comme géniteurs en raison de leur potentiel génétique intéressant savèrent parfois à lusage porter également un gène parfaitement nuisible pour lélevage. Ces géniteurs doivent alors être éliminés non sans parfois avoir entraîné des pertes financières importantes. Il en est de même pour la sélection végétale.

La transgenèse évite, par essence, une bonne partie de ces effets imprévisibles. La modification génétique quelle représente a des effets en grande partie attendus, dans la mesure où les propriétés du gène étranger sont elles-mêmes connues. La transgenèse ne correspond par ailleurs quà une seule modification génétique de lorganisme. La transgenèse vue ainsi est donc en principe moins hasardeuse que la sélection classique. Tout bien considéré, les mutations obtenues par transgenèse ne sont généralement pas plus complexes que celles engendrées par les mécanismes naturels à chaque cycle de reproduction. La gestion des organismes transgéniques peut donc logiquement sinspirer de celle des organismes obtenus par sélection classique.

2/ Les techniques de transfert de gènes

Le transfert dun gène isolé à un organisme nest quexceptionnellement un phénomène spontané. Si tel nétait pas le cas, lintégrité des espèces ne serait pas une réalité puisque les organismes vivants sont très fréquemment en contact direct avec lADN dautres espèces. Les virus qui ne sont constitués que de quelques gènes associés à des protéines ont une capacité exceptionnelle à pénétrer dans les cellules. Ce processus que lon nomme une infection est primordiale pour le virus qui doit absolument utiliser la machinerie cellulaire dont il est dépourvu pour se répliquer. Lintroduction de gène étranger destiné à obtenir des organismes transgéniques requiert donc des méthodes expérimentales variées. La plus utilisée chez les animaux consiste à procéder à une microinjection directe du gène isolé en solution dans le noyau ou le cytoplasme dun embryon au stade une cellule. Dans une petite proportion de cas (de lordre de 1%) le gène étranger sintègre à LADN de lembryon et se transmet ainsi à ses cellules filles puis à sa descendance.

Cette méthode ne peut être appliquée aux végétaux. Deux techniques sont dans ce cas le plus souvent utilisées. Lune consiste à introduire le gène étranger dans un vecteur dérivé dune bactérie. Celui-ci pénètre aisément dans la cellule végétale et sintègre dans son ADN. Lautre méthode est utilisée pour les végétaux ne pouvant bénéficier du vecteur. Elle consiste à faire pénétrer de force des microbilles métalliques enrobées dADN contenant le gène étranger dans les cellules végétales en les projetant à haute vitesse. Dans lun et lautre cas, le transfert de gène doit être suivi dune régénération complète dune plante à partir de la cellule ayant subi la modification génétique.

Laddition de gène est lopération la plus simple et de loin la plus fréquemment pratiquée. Le remplacement spécifique de gène est également hautement souhaitable. Il permet en pratique de remplacer un gène de lorganisme par un gène inactif (ceci revient alors à supprimer sélectivement un gène de lorganisme) ou par un autre gène actif. Cette opération nest actuellement possible que chez les animaux (et les microorganismes). Elle implique en effet que lADN étranger contenant le gène de remplacement reconnaisse très spécifiquement le gène ciblé pour pouvoir se substituer à lui par un processus de recombinaison homologue. Cette opération nest finalement couronnée de succès que si la cellule dans laquelle a eu lieu le remplacement de gène peut donner naissance à un organisme entier. Cette régénération très couramment pratiquée chez bon nombre de plantes est particulièrement malaisée chez les animaux. En pratique, la cellule animale modifiée doit être celle dun embryon précoce capable, une fois introduite dans un embryon précoce hôte, de participer au développement de lorganisme jusquà transmettre la mutation à la descendance. Cette méthode laborieuse est utilisée depuis plus de 10 ans mais, pour des raisons techniques, chez la souris seulement. Le remplacement de gène par recombinaison homologue a donc pendant une décennie été réservée à cette seule espèce.

Une autre approche très séduisante peut en principe reposer sur la technique de clonage des animaux. Cette technique mise au point il y a environ quinze ans consiste à reconstituer léquivalent dun embryon en introduisant le double stock de chromosomes dune cellule dans un ovocyte préalablement énucléé. Ceci na pendant longtemps été possible quen partant de cellules embryonnaires non différenciées (totipotentes) et non cultivées. Des améliorations techniques relativement minimes ont permis dobtenir des clones de moutons en partant de cellules embryonnaires totipotentes cultivées (un an avant la naissance de Dolly) puis à partir de cellules fStales différenciées et enfin de cellules adultes. Ces expériences ont été menées essentiellement pour tenter de simplifier la technique de transgenèse. Il est en effet en principe possible de transférer des gènes étrangers dans des cellules cultivées utilisées ensuite pour engendrer des animaux qui se trouvent être transgéniques. Laddition de gène a ainsi été couronnée de succès (naissance de Polly) un an après la naissance de Dolly. En 1999, le remplacement de gène chez les moutons a pu être obtenu par recombinaison homologue par le même procédé.

Laddition de gène est ainsi simplifiée et le remplacement de gène est devenu possible chez les ruminants domestiques et très vraisemblablement chez dautres espèces dans le futur.

Les fragments dADN qui sont utilisés pour la transgenèse sont généralement construits au laboratoire pour diriger lexpression du gène étranger spécifiquement dans un tissu donné. La connaissance limitée que lon a actuellement du mode de fonctionnement des gènes ne permet encore quune approche empirique raisonnée dans la construction des futurs transgènes. Des progrès rapides récents dans ce domaine laisse prévoir pour un avenir assez proche un contrôle satisfaisant du fonctionnement des transgènes dans la majorité des cas.

3/ Les applications de la transgénèse

La transgenèse, a dès ses débuts chez les animaux en 1981 puis en 1983 chez les plantes, été définie avant tout comme un outil de recherche. Laddition ou le retrait dune information génétique dans un organisme entier est en effet un moyen incontournable pour déterminer les mécanismes moléculaires qui contrôlent le fonctionnement des gènes et le rôle des gènes eux-mêmes dans lexpression des fonctions biologiques. Lidentification systématique et massive des gènes de certains organismes par le séquençage complet de leur ADN va logiquement être suivie dune utilisation plus intense de la transgenèse chez quelques organismes modèles comme la souris et le tabac.

La maîtrise du vivant que représente la transgenèse a rendu possible des applications nouvelles dans le domaine médical et agronomique. Létude des maladies humaines ne peut se passer de modèles animaux. Les modèles pertinents résultant de mutations spontanées sont rares. Dans le meilleur des cas, des modèles particulièrement précieux peuvent être obtenus par addition ou remplacement de gènes. Cest surtout la souris qui est sollicitée en raison de son faible coût dutilisation. Dautres espèces sont parfois nécessaires pour diverses raisons, cest le cas notamment du rat, du lapin, du porc et des primates non humains. Cette approche expérimentale est devenue récemment plus simple et potentiellement plus utile à la suite de lamélioration des techniques de transgenèse.

Les animaux et les plantes sont depuis des temps immémoriaux la source de substances dotées de propriétés pharmacologiques. Ces substances nont, par le passé, été que rarement des protéines. Jusquà une époque récente en effet, un nombre relativement petit de protéines était connu et seulement quelque unes dentre elles pouvaient être extraites pour être administrées à lhomme. Cétait le cas de linsuline de porc pour le traitement des diabétiques. Le génie génétique offre la possibilité de préparer virtuellement nimporte quelle protéine en abondance en transférant le gène correspondant dans des bactéries, des levures, des plantes ou des animaux. Linsuline et lhormone de croissance humaine proviennent désormais essentiellement de bactéries recombinées. Plusieurs dizaines de protéines dintérêt pharmaceutique ont été obtenues à partir du lait danimaux ou de plantes transgéniques. La première protéine extraite ainsi du lait doit être mise sur le marché en 2000. Beaucoup dautres suivront et on peut considérer quune nouvelle branche de lindustrie pharmaceutique est née.

La transgenèse peut jouer un rôle décisif dans le domaine des greffes dorganes. Plusieurs milliers de personnes meurent chaque année en France par manque de greffon humain. Limpossibilité quil y a et qui persistera sans doute longtemps de remédier à cette situation a fait resurgir une idée déjà ancienne. Certains organes ou cellules des animaux et notamment ceux du porc pourraient probablement être utilisés à la place de matériel humain. Les rejets extrêmement violents des organes animaux ont jusquà maintenant empêchés les xénogreffes de devenir une réalité. Des succès partiels mais bien réels ont été obtenus dans la dernière décennie du XXème siècle. Des cSurs et des reins de porcs transgéniques abritant des gènes capables dinhiber le système du complément humain responsable du rejet hyper-aigu des éléments étrangers ont pu être maintenus, intègres, pendant plusieurs semaines après avoir été greffés à des singes.

De multiples obstacles, y compris dans le domaine de la connaissance des mécanismes de rejet, restent à franchir pour que la xénogreffe devienne une réalité médicale. La xénogreffe peut toutefois dans lavenir concerner plus les cellules qui sont moins sujettes aux rejets que les organes. La démonstration récente que des cellules embryonnaires humaines peuvent être différenciées in vitro en cellules souches dorganes laisse penser que des cellules humaines préparées de cette manière pourraient être dans lavenir utilisées plutôt que leurs homologues dorigine porcine. La situation actuelle incite à imaginer que la xénogreffe ou la greffe à partir de cellules humaines différenciées pourraient être retenues comme moyen thérapeutique au cas par cas en fonction des problèmes à résoudre. Le transfert de gène dans les cellules ou via la transgenèse pourrait permettre aux cellules porcines non seulement dêtre mieux tolérées mais également dapporter des protéines ayant une activité thérapeutique. Une thérapie génétique serait alors réalisée en même temps quune thérapie cellulaire.

Les applications agronomiques de la transgénèse commencent à être significatives, en ce qui concerne les végétaux. Elles sont, pour des raisons techniques, tout juste naissantes chez les animaux. La transgenèse permet dans certains cas de conférer aux plantes et aux animaux une résistance contre les maladies. Ceci se traduit ou se traduira par une moindre utilisation de pesticides et dantibiotiques ainsi que par une simplification de la tâche des agriculteurs et des éleveurs. La résistance des animaux à des maladies devenue ainsi génétiquement transmissible a par ailleurs toutes les chances de réduire la souffrance des animaux, de permettre de consommer des viandes plus saines et diminuer la fréquence des zoonoses.

Certains projets de transgenèse nont dautre but que de réduire la pollution. Des porcs transgéniques expérimentaux rejettent ainsi deux fois moins de phosphate dans lenvironnement. Des plantes transgéniques ont été spécialement conçues pour capter certains ions métalliques toxiques présents spontanément dans le sol ou apportés à la suite dune activité industrielle.

Des plantes capables de se développer dans des sols salés ou alcalins impropres à lagriculture ont été obtenues par transgenèse. Ceci permet denvisager de conquérir de nouvelles terres.

La modification volontaire de la composition des plantes ou des animaux via la transgenèse peut permettre de fournir aux consommateurs des aliments plus riches en éléments essentiels voire plus sapides. Le riz doré capable dapporter un supplément de vitamine A aux 400 millions dêtres humains qui en manquent et sont menacés de devenir aveugles ainsi que de fer aux 4 milliards de personnes carencées est un exemple éloquent. Le transfert de plusieurs gènes a dû être réalisé pour atteindre ce but.

Diverses améliorations des produits animaux sont également envisagées. Elles concernent la composition du lait, des graisses, de la carcasse, de la laine, etc.

Il est intéressant de mentionner également que les végétaux qui sont déjà la source de molécules non destinées à l'alimentation humaine ou animale vont de plus en plus être sollicités pour servir comme base à la synthèse de plastiques biodégradables, de carburants, etc. La transgenèse peut dans certains cas apporter des solutions uniques ou originales et très satisfaisantes.

4/ Les problèmes posés par la transgenèse

La transgenèse est actuellement vue surtout par ses applications très marginales mais spectaculaires dans lalimentation humaine. Les OGM (organismes génétiquement modifiés) ont très mauvaise presse. Ce fait ne laisse de surprendre la majorité des biologistes qui considèrent que la transgenèse appliquée à lalimentation est à priori une des techniques puissantes les moins dangereuses que lhumanité ait inventées. Certes, un organisme transgénique est par définition en partie inconnu, mais cela est aussi le cas dun organisme obtenu par sélection classique ou dun aliment exotique. Les tests classiques de toxicité, oncogénicité et allergénicité accompagnés dune traçabilité raisonnable doivent pouvoir réduire les risques à un niveau bien inférieur à celui de beaucoup dautres techniques très généralement acceptées. Il est incontestable que certaines plantes, transgéniques ou non, posent des problèmes environnementaux dont limportance ne peut pas être aisément évaluée. Les modèles de laboratoire ne peuvent en effet que difficilement prendre en compte de manière satisfaisante des paramètres comme lespace et le temps. Les biotechnologistes ont quelque difficulté à imaginer comment leurs actions dans le domaine agronomique pourraient faire ne serait-ce que dix ou cent fois moins de victimes que lautomobile. Les réticences actuelles des consommateurs ne sont toutefois pas incompréhensibles. Toute nouveauté effraie. Les condamnations actuelles des OGM ressemblent à sy méprendre à celles appliquées aux vaccins il y a un siècle. Il est vrai quune désinformation qui a atteint un niveau peu commun ne fait quentretenir la confusion. Les critiques vis à vis des OGM sont en fait bien souvent dirigées plus contre la société libérale mal contrôlée que contre la technique elle-même. Les OGM en font actuellement les frais. Il est vrai que leur utilisation ne devrait pas tomber sous la coupe dentreprises qui détiennent des monopoles de fait. Lobtention du riz doré financée par lUnion Européenne et la fondation Rockefeller indique que la situation est bien plus ouverte et diverse que certains ne le prétendent. Les réticences des pays riches vis à vis des OGM ne sont pas partagées par ceux qui souffrent de pénuries alimentaires. Les chinois consomment ou utilisent actuellement au moins sept plantes transgéniques. Il ne semble pas que ces cultures se fassent sans contrôle. Les agriculteurs chinois sappuient en effet sur les résultats des expériences réalisées dans les pays développés et notamment les USA. Lavenir de lagriculture ne peut reposer sur un retour aux techniques anciennes, pas plus que la médecine traditionnelle ne saurait être un remède à certaines dérives des pratiques médicales modernes. Une application raisonnée des techniques agronomiques modernes, y compris de la transgenèse, paraît plus appropriée. En face de la demande croissante des consommateurs humains, le principe de précaution invite à mettre à notre disposition toutes les techniques de transgenèse pour optimiser les productions végétales et animales, quitte à ne pas les utiliser si des alternatives au cas par cas savèrent tout aussi efficace.

La transgenèse appliquée à lespèce humaine est en principe possible. Tout le monde ou presque saccorde pour considérer quune telle opération ne devrait comporter aucun risque technique et ne concerner que des activités thérapeutiques. La première condition nest pas actuellement remplie mais on peut imaginer que cela sera un jour le cas. Les thérapies géniques germinales ne peuvent raisonnablement concerner que le remplacement de gènes responsables de maladies humaines par leurs homologues non mutés. Ce type dopération est et restera probablement difficile et elles devront être accompagnées de contrôles stricts pour sassurer que la modification génétique induite est bien celle que lon attendait. Cette approche thérapeutique se trouverait en compétition directe avec le tri des embryons portant les gènes défectueux. Il y a tout lieu de penser que la deuxième solution paraîtra majoritairement comme la plus satisfaisante.

La modification du patrimoine génétique dun être humain non destinée strictement à remplacer un gène défectueux par un gène sain paraît difficilement envisageable sans risque. Laddition dun gène, conférant une résistance vis à vis dune maladie infectieuse, paraît séduisante à première vue. Nul ne peut prévoir tous les effets du transgène et ce qui est acceptable pour les animaux et les plantes ne lest plus pour l'espèce humaine. Il est concevable de procéder à des transgènes réversibles. Ceci ne paraît pas suffire à justifier lutilisation de cette technique pour l'espèce humaine.

Les générations qui nous suivront trouveront peut-être légitime et souhaitable de modifier le patrimoine génétique humain pour toute sorte de bonnes raisons. On pourrait en effet par exemple souhaiter que les êtres humains soient plus sereins et moins féroces envers leurs semblables ou plus modestement quils aient une vieillesse biologiquement plus douce. Il nest en rien certain que la transgenèse, dans le meilleur des cas, puisse apporter une solution à des problèmes aussi complexes. Quoiquil en soit, il serait sans doute prétentieux de condamner par avance les décisions de nos descendants. Il nous suffit, dans les faits, dêtre pleinement en accord avec nos convictions actuelles. Elles nous indiquent sans ambiguïté que la transgenèse ne doit pas âtre appliquée à lespèce humaine.

 

 DOCUMENT       canal-u.tv     LIEN  

(pour  consulter  la  vidéo, inscrire  le TITRE  dans  le  moteur  de  recherche  de  CANAL U )

le comportement anormal d'un matériau nanoporeux

25/09/2016

Paris, 6 avril 2016
Expirer en inspirant : le comportement anormal d'un matériau nanoporeux

Véritables éponges high-tech de l'infiniment petit, les matériaux nanoporeux permettent de capturer et libérer de manière contrôlée les composés chimiques, gaz ou liquides. Une équipe franco-allemande comprenant des chercheurs de l'Institut de recherche de Chimie Paris (CNRS/Chimie ParisTech) et de l'Institut Charles Gerhardt de Montpellier (CNRS/Université de Montpellier/ENSCM)1 a mis au point et décrit un de ces matériaux au comportement totalement contre-intuitif, le DUT-49. Lorsque la pression augmente pour faire entrer davantage de gaz dans un échantillon de DUT-49, celui-ci se contracte subitement et libère son contenu comme si, au cours d'une inspiration, les poumons se rétractaient et expulsaient l'air qu'ils contiennent. Publiés le 6 avril 2016 sur le site de la revue Nature, ces travaux permettent d'envisager des comportements innovants en science des matériaux.
La capture de molécules toxiques dans l'air ambiant, le stockage de l'hydrogène ou la libération ciblée de médicaments… Autant d'applications qui peuvent faire appel à des matériaux nanoporeux flexibles. Ces matériaux utilisent la grande surface déployée par leurs pores pour capter et stocker les molécules de gaz ou de liquide : c'est le phénomène d'adsorption2. Leurs pores peuvent ainsi adsorber des quantités impressionnantes de produits, s'agrandissant dans la limite de leur flexibilité.

Une équipe franco-allemande a conçu un nouveau type de matériau nanoporeux : le DUT-49. Formé par auto-assemblage d'un squelette carboné et d'atomes de cuivre, sa structure est à la fois organique et métallique. Il se présente sous la forme d'une poudre incroyablement poreuse : la superficie interne3 d'un seul gramme de ce matériau couvre 5000 m². Le DUT-49 est ainsi capable d'adsorber l'équivalent du tiers de son poids en méthane. Tout comme les autres matériaux « intelligents » de sa famille, ses propriétés changent selon les stimulations extérieures, comme la pression, la température ou la lumière. Si l'on augmente la pression lors de la capture d'un gaz, on augmente à la fois la quantité de gaz adsorbée et, dans le cas le plus courant, la taille des pores du matériau. La très grande flexibilité du DUT-49 provoque cependant un phénomène imprévu : alors que le matériau se remplit de gaz jusqu'à une certaine pression, il va se contracter brutalement et voir son volume diminuer de moitié si la pression continue d'augmenter.

Les chercheurs ont d'abord cru à une erreur d'instrumentation, car aucun autre des millions de matériaux connus qui adsorbent les gaz ne se comporte ainsi. Ce phénomène « d'adsorption négative » a pourtant bien été confirmé par des mesures complémentaires et l'équipe est parvenue à en décrire le mécanisme. Les molécules de gaz stockées dans les pores du DUT-49 établissent des interactions fortes avec la structure de ce solide ce qui, selon la quantité de gaz adsorbée, perturbe la disposition des atomes qui le composent et finit par provoquer sa contraction. Testé avec le butane et le méthane, ce comportement caractéristique du DUT-49 serait généralisable à d'autres composés gazeux.

DUT-49 rejoint les récentes découvertes de matériaux aux propriétés physiques « anormales », comme ceux à expansion thermique négative qui se contractent lorsqu'ils sont chauffés. Ce résultat ouvre un grand champ d'étude dans la compréhension des matériaux poreux flexibles et permet d'envisager des comportements innovants en science des matériaux. Il pourrait ainsi conduire à développer des interrupteurs et des capteurs à échelle nanométrique. Le dégonflement du matériau correspond en effet à une réponse forte à un petit évènement, déclenché à partir d'une valeur seuil facilement détectable.

 

 DOCUMENT         cnrs        LIEN 

Sans microbes, pas d'immunité efficace

18/09/2016

 Sans microbes, pas d'immunité efficace
Jean-Philippe Braly dans mensuel 468 
daté octobre 2012 -


Le système immunitaire d'un nouveau-né a besoin des microbes de l'environnement pour devenir performant. Cette hypothèse ancienne vient d'être récemment démontrée.
Dans le ventre de sa mère, baigné par le liquide amniotique, le foetus grandit dans un milieu stérile : sauf grave infection maternelle, il se trouve à l'abri des microbes. Mais à la naissance, il est brusquement confronté aux bactéries, virus ou champignons qui colonisent le vagin de sa mère, puis à tous ceux qui foisonnent dans l'environnement. Or, contrairement à celui d'un adulte, son système immunitaire a, à ce stade, encore du mal à les reconnaître spécifiquement, même s'il est moins immature qu'on l'a longtemps pensé (lire « Le foetus se défend mieux que prévu », p. 51).

On estime qu'il lui faut deux à trois années avant d'être fonctionnel. Comment apprend-il à réagir efficacement contre les intrus, tout en contrôlant cette agressivité afin qu'elle ne menace pas les cellules de l'organisme ? On le découvre aujourd'hui : une partie de la réponse se trouve dans tous les microbes qui colonisent l'enfant dès sa naissance - sa peau, sa bouche, ou encore et surtout son tube digestif. Ce n'est pas le moindre des paradoxes : les bactéries et autres microbes qui composent cette flore, en particulier la flore intestinale, sont indispensables à la mise en place d'un système immunitaire équilibré.

Double défi
L'hypothèse selon laquelle la flore microbienne - aujourd'hui appelée microbiote - jouerait un rôle dans la construction de l'immunité n'est pas nouvelle : elle a été évoquée dès 1907 par Elie Metchnikoff, un des fondateurs de l'immunologie à l'Institut Pasteur. Mais un siècle plus tard, l'explorer reste un défi. En effet, les investigateurs se heurtent à une double complexité : celle du système immunitaire, et celle du microbiote.

Très sophistiqué, le système immunitaire implique, chez les mammifères adultes, une multitude d'acteurs. En schématisant à l'extrême, on trouve en première ligne des cellules sentinelles (cellules dendritiques et macrophages) capables de détecter d'éventuels intrus (par exemple des bactéries). Elles les ingèrent, les digèrent, puis exhibent à leur surface des fragments protéiques caractéristiques de ces intrus. Ces fragments sont ensuite détectés par des cellules appelées lymphocytes T « effecteurs CD4+ ». Activés par ce contact, les lymphocytes T déclenchent alors différents mécanismes visant à éliminer les intrus (par exemple, certains lymphocytes T stimulent les lymphocytes B producteurs d'anticorps). Le tout se déroule sous le contrôle de multiples mécanismes régulateurs, qui impliquent notamment une catégorie particulière de lymphocytes T, les lymphocytes T régulateurs, capables d'inhiber les lymphocytes T effecteurs. De l'équilibre entre ces différentes populations de lymphocytes dépend en grande partie l'équilibre du système immunitaire tout entier (lire « Les lymphocytes T, des défenseurs bien entraînés », p. 46).

Souris sans microbes
Quant au microbiote, sa complexité tient à l'extrême diversité des micro-organismes qui le constituent. Rien qu'au niveau de notre tube digestif, pas moins de cent mille milliards de bactéries cohabitent, appartenant à plusieurs centaines d'espèces différentes, et dont la majeure partie n'est pas identifiée.

Fort heureusement, pour comprendre l'interaction entre microbiote et système immunitaire, les scientifiques disposent depuis plusieurs années d'un précieux outil d'investigation : des souris dépourvues de microbiote, car nées et élevées en milieu stérile. On parle de souris « axéniques ». Ces animaux ont permis de mettre en évidence combien la flore intestinale était indispensable à un développement harmonieux des nouveau-nés. En effet, les souriceaux axéniques présentent de nombreuses anomalies, en particulier au niveau du système immunitaire. Il suffit de regarder leurs organes lymphoïdes, c'est-à-dire les structures où les lymphocytes T et B se multiplient, pour s'en rendre compte : les plaques de Peyer, situées le long de l'intestin, restent immatures quand ces animaux grandissent, de même que la rate et les ganglions lymphoïdes. Cela s'accompagne, dans l'organisme, d'un déficit en lymphocytes matures. Aujourd'hui, on commence à discerner la façon dont le microbiote intervient dans la maturation du système immunitaire. Grâce, là encore, aux souris axéniques : en colonisant leur tube digestif avec un ensemble de bactéries, ou une bactérie en particulier, on peut étudier la façon dont ces microbes influencent les acteurs du système immunitaire.

Certaines équipes ont choisi d'utiliser, comme souris axéniques, des animaux « modèles » de telle ou telle maladie auto-immune, maladies où le système immunitaire attaque les cellules de l'organisme. En 2008, une étude pilotée par Alexander Chervonsky, de l'université de Chicago, a marqué les esprits. Son équipe et lui étudient la genèse du diabète de type 1, où le système immunitaire s'attaque aux cellules du pancréas sécrétrices d'insuline. Il s'agit d'une maladie multifactorielle, avec en particulier des déterminants génétiques. Mais les résultats des biologistes de Chicago suggèrent qu'elle dépend aussi, en partie, de la flore intestinale [1].

Influence bénéfique
Alexander Chervonsky et ses collaborateurs ont travaillé avec des souris dites « NOD », qui développent spontanément un diabète de type 1 à l'âge adulte. Ils les ont comparées à des souris NOD mutées de sorte que leur capacité à développer une flore intestinale normale en présence de bactéries soit perturbée. Tant les souris NOD que les souris NOD mutées étaient axéniques, car élevées en conditions stériles. Il s'agissait de voir si, une fois sorties de ce milieu stérile et colonisées par des bactéries, les souris NOD mutées développaient un diabète comme les souris NOD non mutées. Et si oui, de comparer leur flore respective.

Résultat : les souris NOD mutées ne sont pas devenues diabétiques, contrairement aux souris NOD non mutées. Pourquoi ? « Certaines espèces bactériennes - des lactobacilles notamment - se sont davantage développées chez les souris NOD mutées que chez les autres, indique Gérard Eberl, chercheur à l'Institut Pasteur. Leur rôle exact reste à définir, mais on pense que certaines bactéries intestinales accentueraient des mécanismes régulateurs du système immunitaire, l'empêchant ainsi de s'attaquer aux cellules du soi », complète-t-il.

Quels mécanismes exactement ? Pour l'instant, on l'ignore. En revanche, d'autres études ont montré que certaines bactéries jouaient un rôle particulièrement important dans les proportions entre les différents types de lymphocytes T.

L'un des exemples les plus marquants à ce jour concerne la bactérie Bacteroides fragilis. En 2005, Sarkis Mazmanian, Dennis Kasper et leurs collaborateurs de l'école de médecine de Harvard, ont montré que cette espèce bactérienne corrige, à elle seule, certaines anomalies sévères observées chez les souris axéniques [2]. En particulier, la rate des souris colonisées par Bacteroides fragilis se développe normalement, alors qu'elle reste immature chez les animaux axéniques. Et le déficit en lymphocytes T effecteurs CD4+ dont souffrent ces animaux est corrigé, atteignant un niveau normal. Plus précisément, Sarkis Mazmanian et Dennis Kasper ont montré que la colonisation par Bacteroides fragilis rétablissait la balance entre deux sous-types de ces lymphocytes, les Th1 et Th2 (ces derniers étant proportionnellement plus nombreux chez les souris axéniques). Les biologistes de Harvard ont même réussi à déterminer d'où la bactérie tirait ses propriétés : « D'une molécule qu'elle produit, le polysaccharide A, ou PSA », explique Sarkis Mazmanian. Purifié puis administré à des souris axéniques, le PSA reproduit à lui seul l'ensemble des effets dus à la colonisation par Bacteroides fragilis.

Mais Bacteroides fragilis n'est pas la seule bactérie à influencer la balance lymphocytaire. En 2009, une équipe européenne pilotée par Nadine Cerf-Bensussan, de l'Inserm, a mis en évidence le rôle d'une bactérie filamenteuse nommée SFB [3]. Les biologistes ont observé que la colonisation de souris axéniques avec une flore intestinale normale déclenchait l'expression de nombreux gènes, caractéristique d'une réponse immunitaire de l'organisme. Ils ont ensuite essayé de reproduire le phénomène en administrant à des souris axéniques soit des bactéries bien identifiées, soit des mélanges bactériens plus ou moins complexes. C'est là qu'ils ont découvert le rôle étonnant de la bactérie SFB. « La colonisation de l'intestin par SFB active des cellules immunitaires, en particulier des lymphocytes T effecteurs, indique Nadine Cerf-Bensussan. Ils se différencient et migrent le long de l'intestin, où ils assurent une fonction protectrice. »

Cellules régulatrices
Quant aux lymphocytes T régulateurs, à l'action anti-inflammatoire, ils semblent eux aussi bénéficier de la présence de certaines bactéries. Sarkis Mazmanian a montré, en 2010, que Bacteroides fragilis induit leur prolifération dans la muqueuse du côlon [4] [fig. 1]. Et en 2011, une équipe japonaise a révélé qu'un cocktail de bactéries du genre Clostridium exerçait un effet semblable [5].

L'équilibre entre toutes les catégories de lymphocytes T semble donc bien être sous influence du microbiote, du moins chez la souris. Reste une question clé : qu'en est-il chez l'homme ? Tester des hypothèses est bien évidemment beaucoup plus compliqué qu'avec des souris axéniques. D'autant que chaque espèce de mammifères a sélectionné, au fil de l'évolution, un microbiote qui lui est propre. Venant appuyer des résultats préliminaires obtenus par l'équipe de Nadine Cerf-Bensussan, une récente étude pilotée par Dennis Kasper a prouvé qu'une flore humaine échouait à restaurer un système immunitaire normal chez des souris axéniques [6].

Mais certains indices militent néanmoins en faveur d'une implication tout aussi importante des microbes au sein de nos propres organismes. En particulier, depuis les années 1990, des études épidémiologiques montrent un développement plus important des allergies et de certaines pathologies auto-immunes dans les pays développés, en parallèle avec une hygiène de plus en plus stricte - et donc une moindre confrontation des jeunes enfants aux microbes. Plus récemment, des travaux comparant une cohorte d'enfants burkinabés avec des enfants italiens ont montré que la flore bactérienne intestinale est moins diversifiée chez ces derniers [7]. « Tout cela renforce la théorie hygiéniste selon laquelle les dysfonctionnements du système immunitaire à l'origine de certaines pathologies auto-immunes seraient favorisés par la flore trop peu diversifiée des enfants occidentaux », explique Gérard Eberl. Cela perturberait la maturation du système immunitaire, et en particulier la mise en place de sa composante régulatrice.

 

 DOCUMENT     larecherche.fr       LIEN

Le système immunitaire

03/09/2016

Le système immunitaire
Laure Schalchli dans mensuel 301 


Des millions d'anticorps et un grand principe : pour reconnaître l'étranger, encore faut-il se connaître soi-même
La masse du système immunitaire est comparable à celle du foie ou du cerveau. Mais il est éparpillé dans tout l'organisme. En font partie les globules blancs circulant dans le sang, dans la lymphe et imprégnant les tissus. Les principales cellules de l'immunité sont les lymphocytes, qui sont les globules blancs majoritaires dans le sang. Un homme adulte en contiendrait quelque deux mille milliards. Mais il existe beaucoup d'autres cellules impliquées dans l'immunité : globules blancs polynucléaires, monocytes ou macrophages, mastocytes, cellules dendritiques.

Le système immunitaire c'est aussi une série d'organes et de tissus dits lymphoïdes : les ganglions, la moelle des os, la rate, les amygdales, les végétations, l'appendice et des tissus associés au tube digestif et aux poumons en font partie. S'y ajoute le thymus, un organe situé dans le thorax derrière le sternum, qui grossit jusqu'à la puberté puis s'atrophie à l'âge adulte.

Toutes les cellules im