UP' Magazine L'innovation pour défi

Canicule

Et si nos vêtements étaient climatisés ?

Des chercheurs américains de l’Université de Stanford ont développé un textile bon marché à base de matière plastique qui permet de mieux résister à la chaleur. Ce nouveau textile pourrait refroidir notre corps sans avoir besoin de recourir à l’air climatisé, onéreux pour le porte-monnaie comme pour la planète.
 
Décrivant leur travail dans la revue Science, les chercheurs suggèrent que cette nouvelle famille de tissus pourrait devenir la base des vêtements destinés aux pays chauds.
"Si nous parvenons à rafraîchir les personnes plutôt que les bâtiments où elles vivent et travaillent, nous pourrions faire des économies d'énergie", explique Yi Cui, professeur adjoint de science des matériaux et ingénierie à l'Université Stanford en Californie.
 
Ce nouveau matériau, résultat du mariage de la nanotechnologie, de l'optique et de la chimie, permet à l'organisme de décharger la chaleur. Selon les scientifiques, le corps peut ainsi se rafraîchir de deux degrés Celsius de plus que s'il portait un vêtement de coton.
Comme le coton ou le lin, ce nouveau matériau, issu du polyéthylène, permet l'évaporation de la sueur. Mais il est en plus doté d'un mécanisme inédit qui laisse passer les radiations infrarouges émises par le corps.
Tous les objets, y compris notre organisme, rejettent de la chaleur sous cette forme d'ondes lumineuses invisibles. Les couvertures nous permettent de rester au chaud en piégeant ces émissions de chaleur. Ce sont ces radiations thermiques qui nous rendent visibles dans l'obscurité avec des lunettes de vision nocturne. "Entre 40 et 60% de la chaleur corporelle se dissipe sous forme de radiations infrarouges quand nous sommes assis au bureau", explique Shanhui Fan, professeur d’ingénierie électrique et l'un des co-auteurs de l’étude. Selon lui, "très peu d'études, voire aucune, n'avaient été menées jusqu'alors pour concevoir un textile favorisant la dissipation des radiations infrarouges".
 
Les chercheurs utilisent une variante de polyéthylène couramment utilisé dans la fabrication des batteries. Ce matériau possède une nanostructure spécifique, opaque à la lumière visible mais perméable au rayonnement infrarouge. C’est cette caractéristique qui permettrait à la chaleur du corps de se dissiper.  Les ingénieurs de Stanford ont ensuite modifié le polyéthylène industriel en le traitant de telle sorte que les molécules de vapeur d’eau puissent s’évaporer par des nanopores dans le plastique. Cela permet au matériau de respirer comme une fibre naturelle.
 
 
Pour tester la capacité à rafraîchir de ce tissu expérimental comparativement à un linge de coton de la même épaisseur, les chercheurs ont placé un petit morceau de ces étoffes sur une superficie ayant la même température que la peau et mesuré la quantité de chaleur retenue par chacun des échantillons.
Selon Shanhui Fan, cette étude ouvre la voie à de nouvelles façons de refroidir ou de chauffer des objets sans recourir à des sources d'énergie extérieures.
 
Les chercheurs travaillent maintenant à l’amélioration de leur produit pour offrir une large gamme de couleurs et de textures. Aux créateurs de mode de se l’approprier pour nous offrir une garde-robe rafraichissante pour les temps de réchauffement qui viennent.
 
 
Sources : AFP, Stanford news
Image d’en-tête : AFP/Raymond Roig
 

 

collision

Nous sommes tous des extraterrestres

La vie sur Terre serait le résultat d’une gigantesque collision entre notre planète et une autre venue des confins de l’espace. Un événement qui s’est passé il y a 4.4 milliards d’années, soit, à quelques centaines de millions d’années près, quasiment au moment de la formation de notre Terre. C’est ce qu’affirme une étude publiée cette semaine dans la revue Nature.
 
Les auteurs de cette étude, soutenue par la NASA et la National Science Foundation, pensent qu’une telle catastrophe planétaire expliquerait comment le carbone –un des éléments fondamentaux de la vie– serait arrivé sur Terre et aurait revêtu toute la surface de la planète. Cette hypothèse résoudrait un mystère de l’évolution auquel les hommes se sont, depuis toujours, heurtés.
 
Lorsque la Terre était très jeune, quelques centaines de millions d’années seulement, elle était effroyablement chaude en raison de l’extrême activité volcanique qui y régnait. Notre planète avait l’aspect d’une grande masse de matière fondue, en incandescence. Jusqu’à présent, on se demandait comment le carbone avait pu se former dans un environnement aussi infernal, rendant impossible toute forme de vie.
 
Les géologues de l’Université de Rice suggèrent dans une étude qui vient d’être publiée par la revue Nature qu’une collision a dû se produire avec une planète du type de Mercure au moment où la Terre s’était refroidie. Cette collision aurait apporté sur notre planète le carbone nécessaire à la vie future.

Du carbone venu de l’espace

Le défi, dit le géologue Rajdeep Dasgupa, est d’expliquer comment un élément aussi volatil que le carbone a pu rester sur le manteau de notre planète alors qu’elle était en incandescence. Il aurait dû se vaporiser dans l’espace ou fondre dans le noyau métallique de la Terre pour former des alliages avec le fer, dont on sait qu’il présente une forte affinité avec le carbone. Or on trouve du carbone sur le manteau terrestre qui est composé essentiellement de silicate, et dans la mince couche de l’atmosphère. D’où vient donc ce carbone que l’on retrouve dans le manteau terrestre et dans la biosphère ? La seule hypothèse qui expliquerait comment le carbone a pu rester sur le manteau terrestre serait celle d’une collision. Le carbone aurait été apporté par une autre planète, au moment où la Terre commençait à se refroidir.
 
Cette idée n’est pas nouvelle. The « late veneer hypothesis », ou hypothèse du vernis tardif, expliquerait pourquoi certains des produits chimiques que l’on retrouve sur Terre sont originaires d’ailleurs dans l’espace et seraient arrivés via des météorites. Selon le géochimiste Yuan Li de l’Académie chinoise des sciences, une idée populaire a été de penser que les éléments volatils tels que le carbone, le soufre, l’azote et l’hydrogène ont été ajoutés après que le noyau terrestre eut terminé sa formation.  Il précise : « tous ces éléments seraient tombés sur la Terre via des météorites et des comètes un peu plus de 100 millions d’années après la formation du système solaire et après que l’océan de magma qui recouvrait la Terre à cette époque se soit refroidi. »
 
Cette hypothèse est plausible, mais la chute de ces météorites, tombant comme une pluie aléatoire, n’explique pas comment et pourquoi la couche de carbone que l’on retrouve sur Terre est répandue de façon homogène, partout sur le manteau en silicate terrestre ; un manteau qui représente les deux-tiers de la masse de notre planète. De plus, affirme Yuan Li, cette hypothèse d’une pluie de météorites nous livrant du carbone n’explique pas l’origine de l’immense proportion de carbone volatil qui n’aurait pas pu être apporté par des météorites.
 
À la fin de 2013, l'équipe de Rajdeep Dasgupta a commencé à penser à des moyens non conventionnels pour résoudre le mystère. Les scientifiques ont décidé de mener des expériences pour évaluer la façon dont le soufre ou le silicium pourraient modifier l'affinité du fer pour le carbone. L'idée ne repose pas sur l’étude de la Terre, mais de certains de nos voisins planétaires. « Nous avons pensé que nous devions vraiment nous détacher de la composition de base classique de notre noyau terrestre : le fer, le nickel et le carbone », explique Dasgupta. « Nous avons donc commencé à explorer des alliages très riches en soufre et riches en silicium, en partie parce que le noyau de Mars est vraisemblablement riche en soufre et le noyau de Mercure est considéré comme relativement riche en silicium. »
 
Représentation schématique de la fusion de la proto-Terre avec un embryon planétaire potentiellement ressemblant à Mercure.
 
Les auteurs de l’étude ont travaillé sur différentes hypothèses de collision. Leur laboratoire est spécialisé dans la recréation des conditions de haute pression et de haute température qui existent profondément à l'intérieur de la Terre et les autres planètes rocheuses. Son équipe comprime les roches dans les presses hydrauliques qui peuvent simuler des conditions à environ 400 kilomètres sous la surface de la Terre ou à la limite noyau-manteau des plus petites planètes comme Mercure.
 
Leurs expériences ont révélé que le carbone ne pouvait être exclu du noyau - et relégué au manteau silicaté – uniquement si les alliages de fer dans le noyau étaient riches soit en silicium soit en soufre.
L'équipe a dénombré les concentrations relatives de carbone qui résulterait de différents niveaux d'enrichissement de soufre et de silicium, et les chercheurs ont comparé ces concentrations à celles du manteau de silicate de la Terre.
 
« Un scénario qui explique pourquoi le carbone est si abondant sur notre planète et comment s’établit le rapport carbone-soufre est qu'une planète embryonnaire comme Mercure, qui avait déjà formé un noyau riche en silicium, est entrée en collision avec et a été absorbée par la Terre », a déclaré le professeur Dasgupta. « Parce qu’elle possède un corps massif, les principes de la dynamique ont fait que le noyau de cette planète est allé directement au centre de notre planète, et le manteau riche en carbone se serait mélangé avec le manteau de la Terre. »
 
En d’autres termes, la composition chimique de la vie est apparue quand notre planète est parvenue à absorber géologiquement des composés chimiques présents sur une autre planète du type Mercure. Une collision des plus aléatoires qui expliquerait pourquoi la vie est si rare ailleurs. Et pourquoi nous sommes tous un peu des extraterrestres.
 
 
 
 

 

Proxima b

Pour rejoindre Proxima b, l’exoplanète la plus proche, il faudra voyager (presque) à la vitesse de la lumière

Des astronomes ont annoncé la semaine dernière avoir découvert une exoplanète très voisine de notre Terre et potentiellement habitable. Elle évolue en orbite autour de l’étoile la plus proche de notre planète, Proxima du Centaure, et se situe à 4,25 années-lumière soit la bagatelle de quarante mille milliards de km, soit 700 000 fois la distance Terre-Mars. Selon les spécialistes, Proxima b, c’est le nom de cette planète, possèderait les conditions propices à la vie. Pour l’instant on n’en sait rien. Pour éclaircir nos idées, il suffit d’y aller…
 
La recherche des exoplanètes bat son plein depuis quelques années. On en découvre presque tous les jours à tel point que l’on peut se demander si cette focalisation des astronomes dans la recherche d’une nouvelle planète n’est pas un peu inquiétante.  Notre belle planète bleue est-elle donc arrivée au bout du rouleau et songe-t-on déjà à émigrer aux confins de l’espace ? Cet accès d’anxiété passé, on observera que la planète Proxima b semble présenter de fortes similitudes avec la Terre. Ne serait-ce que par curiosité, ne serait-il pas intéressant d’aller y jeter un œil ?
 
Le problème, c’est que cette exoplanète qui tourne autour de l’étoile la plus proche de nous, se situe tout de même à une forte distance. Avec les moyens actuels de propulsion les plus rapides, comme ceux de la sonde New Horizon qui est partie pour Pluton à la vitesse de 17 km à la seconde, il faudrait 78 000 ans pour rejoindre notre destination. Voyage un peu longuet, à l’échelle humaine.
 
Alors, les astronomes et autres spécialistes des fusées déploient toutes les capacités de leurs neurones pour trouver une solution et nous offrir un voyage un peu plus rapide. Plusieurs projets sont en lice, plus ou moins fous. Certains imaginent de récupérer le souffle d’une explosion de charges nucléaires afin d’atteindre une vitesse d’accélération équivalente à 5 % de la vitesse de la lumière, soit 15 000 km/s. À cette vitesse, le voyage durerait quand même un bon siècle, et rien ne garantit l’état des astronautes qui auraient été soumis à de telles explosions nucléaires.
 
Un autre projet consiste à maîtriser la fusion nucléaire pour construire un moteur capable de nous emmener à 10 % de la vitesse de la lumière, soit 30 000 km/s. Dans l’hypothèse où l’on parvienne à maîtriser cette technologie et surtout à trouver du carburant suffisant pour aller si loin, le voyage durerait 36 ans.
 
Une autre solution a été dévoilée en avril dernier, le jour de l’anniversaire du premier vol de Gagarine. Il s’agit du projet Starshot qui ambitionne de rallier l’étoile Proxima du Centaure et donc sa planète Proxima b à 20 % de la vitesse de la lumière. À 60 000 km/s, le voyage ne durerait que 20 ans. Le projet repose sur une technologie en apparence complètement folle : propulser des mini sondes –des nanocrafts– par des rayons lasers ultra puissants. Ce projet pourrait être remisé au catalogue des idées infaisables, mais nous devons hésiter avant de procéder à ce classement vertical. En effet, le concept est soutenu par l’astrophysicien Stephen Hawking qui n’est pas à proprement parler un fantaisiste. Il est financé par un milliardaire russe, passionné d’espace, Yuri Milner, qui a déjà versé 100 millions de dollars pour réaliser très prochainement un « proof of concept » ; et dans le comité de direction du projet on retrouve un certain Mark Zuckerberg le fondateur de Facebook, parmi d’autres personnalités, prêtes à injecter leurs milliards. Dans ce cas, il faut regarder d’un peu plus près ce projet qui ressemble à de la science-fiction.
 
Stephen Hawking
 
Le projet Breakthrough Starshot a pour objectif d'envoyer des milliers de sondes spatiales d'environ 1 gramme, équipées de voiles solaires, vers Proxima du Centaure. Le faible poids de ces sondes, allié à la puissance de lasers terrestres utilisés pour les propulser (jusqu'à 100 GW) permettrait à ces dernières d'atteindre 20 % de la vitesse de la lumière dans le vide et ainsi de pouvoir nous retourner des images des exoplanètes tournant autour d'Alpha du Centaure d'ici environ 20 ans.
 
Pour Mark Zuckerberg, s’exprimant dans un communiqué au lancement du projet, « La nouvelle idée ici est qu'au lieu d'utiliser un grand vaisseau spatial brûlant beaucoup de combustible comme les gens ont tendance à imaginer un voyage spatial traditionnel, nous allons créer une flotte de petits engins spatiaux - ou nanocraft - que nous pouvons accélérer à 20% de la vitesse de la lumière en utilisant un réseau de faisceaux laser depuis la surface de notre planète. »
 
Les nanocrafts sont des astronefs robotiques de l’ordre du gramme, comprenant deux modules principaux : la Starship d’abord. La loi de Moore ayant permis une diminution spectaculaire de la taille des composants microélectroniques, il est possible aujourd’hui d’envisager des modules spatiaux entièrement fonctionnels, à l’échelle du gramme. Ces sondes seront dotées d'une part, d'équipements identiques (communication via un laser intégré, stockage d'énergie, éventuellement le contrôle de la voile...) et d'autre part, d’équipements spécifiques (selon les sondes, appareil photographique, détecteur radio, analyseur de molécules...) leur permettant de remplir une mission.
L’autre partie du dispositif est la LIghtSail. Les progrès des nanotechnologies permettent de produire des métamatériaux de plus en plus minces et légers. Ces technologies autorisent la fabrication de voiles de quelques centaines d’atomes, pesant moins d’un gramme pour une surface de voile de 4 m2 (2m x 2m).
 
 
 
Ces sondes seraient lâchées par milliers sur une orbite haute par un vaisseau mère. Elles seraient alors accélérées en une fois par le rayon laser.
 
L'émetteur laser a pour but d'éclairer la voile solaire et d'accélérer la sonde spatiale grâce à la pression de radiation. La puissance du laser sera de l'ordre de 100 GW. Le rayon laser sera en fait généré par combinaison de plusieurs lasers de puissance inférieure. L'impulsion laser durera 10 minutes environ, délivrant 1 TJ à la voile et permettant à la sonde spatiale d'atteindre sa vitesse de croisière (0,2 c).
 
 
L’astrophysicien français, Francis Rocard, interrogé par nos confrères de Sciences et Avenir affirme : « C’est un projet fou, mais pas impossible ! » Il ajoute : « Ce qui est intéressant ici, c'est l'idée d'utiliser des sondes très petites. Les technologies permettant d'atteindre une telle miniaturisation n'existaient pas il y a 10 ans. L'avantage, c'est que plus l'engin est léger, plus il est facile à propulser. Et même si certains d'entre eux se perdent en route, cela augmente les chances que quelques-uns arrivent à bon port. »
 
 
Depuis la découverte de Proxima b, les scientifiques autour du projet sont atteints d’une immense excitation. Le physicien de Harvard Avi Loeb, membre du conseil du projet Starshot, confie à la revue Business Insider : « cette découverte fournit une cible idéale pour une mission de survol. ». Il poursuit, enthousiaste : « Cela nous permettra d'envoyer une flotte de sondes vers Proxima qui reverraient les images prises vers la Terre plus facilement ». Il faut préciser que les télescopes actuels ne peuvent pas photographier la nouvelle planète. Avi Loeb ajoute « La curiosité d’en savoir plus sur cette planète, surtout si elle peut accueillir de la vie, confère désormais au projet Starshot un caractère d’urgence. » Pour l’astrophysicien, l’enjeu est de nous offrir peut-être une planète de substitution. Il précise sa pensée : « La durée de vie de l’étoile Proxima est près d’un millier de fois plus longue que la durée de vie restante de notre Soleil. Par conséquent, une planète rocheuse habitable autour de Proxima serait l’endroit le plus naturel où notre civilisation pourrait aspirer à se déplacer, avant que notre Soleil ne meure, dans 5 milliards d’années. »
 
L’équipe de Starshot espère réaliser un lancement dans 2-3 ans, et atteindre Proxima environ 20 ans plus tard. Les photographies, quant à elles, prendraient au moins 4,24 années - la distance en années-lumière d'ici à l'étoile - pour revenir sur Terre. Alors, un peu de patience…
 
 
 

 

Lidar

Lidar : ce minuscule capteur va donner une vue perçante aux robots

Le problème de la robotique autonome, que ce soit pour les voitures, les drones, et tous les objets destinés à se déplacer, c’est la perception de leur environnement. Les robots sont donc équipés de capteurs, en général issus de la technologie des radars. Mais ces instruments sont lourds, encombrants et encore très coûteux. En 2015, l’agence de recherche pour la Défense américaine (DARPA) lançait donc un challenge : développer des capteurs, miniaturisés, de haute précision et au moindre coût. Défi relevé par des équipes de chercheurs du MIT qui viennent de publier leurs travaux. Ils ont inventé un radar réagissant à la lumière, un Lidar, de taille millimétrique et dont la production en série pourrait amener le coût à quelques dollars l’unité.
 
Pour qu’une voiture autonome se déplace en toute sécurité, elle doit être équipée de capteurs capables de « voir » l’environnement dans lequel l’objet évolue et de distinguer le moindre détail. Cette mission était jusqu’à présent dévolue à la famille des radars ou des sonars. Le bon vieux radar utilise les ondes radio alors que le sonar joue avec les sons. Mais ces technologies sont insuffisantes pour les applications auxquelles ont les destine, demandant des temps de réaction instantanée et une précision absolue.
 
Le lidar s’appuie sur les lasers et la lumière pour évaluer les distances plutôt que sur le son ou les ondes radios. En travaillant sur la lumière, ces appareils gagnent en rapidité et en précision. En effet, les ondes lumineuses sont 100 000 fois plus fines que les ondes radio ce qui autorise la détection d’objets beaucoup plus petits, avec des résolutions bien plus grandes. C’est pourquoi ces lidars, depuis leur invention dans les années 60 sont surtout destinées à la cartographie de précision et offrent des solutions intéressantes pour les métiers demandant une grande précision de localisation comme les archéologues ou les roboticiens.
 
Le problème de ces lidars est leur taille et surtout leur coût, empêchant toute utilisation massive de cette technologie de précision. Le prix d’un dispositif lidar oscille entre 1000 et 70 000 dolars, ce qui limite les applications à de rares secteurs industriels. Même les voitures autonomes qui représentent des applications naturelles de ces technologies rechignent devant les coûts. Le dernier accident de la Tesla autonome serait, semble-t-il dû à l’absence de cette technologie dans le véhicule.
 
Le Photonic Microsystems Group du Laboratoire de Recherche électronique du MIT affirme être parvenu à résoudre l’équation taille et coût de cette technologie. Les deux ingénieurs en chef du PMG, Christopher V. Poulton et Michael R. Watts décrivent dans leur article de nouveaux lidars miniatures qui ne dépassent pas la taille de 0.5 sur 0.6 mm et pourraient être produits à grande échelle pour moins de 10 $ l’unité.
 
Autre avantage, ces lidars sont fabriqués en une seule pièce, ce qui les rend plus robustes que n’importe quel autre système similaire ; de plus, le faisceau lumineux n’est pas mécanique ce qui le rend 1000 fois plus rapide que les systèmes mécaniques actuels. Pour abaisser aussi considérablement le prix, les chercheurs et ingénieurs se sont en effet inspirés des techniques de fabrication des processeurs pour créer un lidar sur "puce photonique" qui élimine le recours aux pièces mécaniques des appareils traditionnels. Ces derniers utilisent en effet souvent des cellules photosensibles montées dans des dômes tournant très vite pour balayer l'environnement à 360 degrés.
 
La contrepartie de ce choix technique est qu’il faudra installer davantage de ces mini lidars pour obtenir une vision 360°. C’est la raison pour laquelle l’abaissement du coût est un facteur important.
Ce nouveau lidar ouvre d'innombrables nouvelles perspectives en matière de robotique. Grâce à lui, on peut imaginer demain des drones autonomes, capables d'évoluer en ville en évitant le moindre obstacle. Ils pourraient aussi être aisément implémentés sur des robots domestiques comme les aspirateurs autonomes qui pourraient « voir » la poussière avec une précision absolue. Autre application impressionnante : ces lidars pourraient équiper les « doigts » d’un robot humanoïde afin de lui permettre de saisir des objets avec une précision extrême et d'identifier ce qu’il tient dans la main.
 
Pour l’instant, le lidar développé par la DARPA et le MIT ne peut détecter des objets que dans un rayon de 2 mètres. Les chercheurs espèrent atteindre une portée de 5 mètres d’ici un an et à terme aller... au-delà de 100 mètres. Des performances qui permettraient à ces yeux électroniques de détecter une tête d’épingle à l’autre bout d’un terrain de football.
 

 

talc

Le géomimétisme : s’inspirer des minéraux pour synthétiser de nouveaux matériaux

Après le biomimétisme, voici le géomimétisme ! Il s’agit d’un processus qui s’inspire du minéral pour créer de nouveaux matériaux. Bien que présentant une structure similaire à leurs homologues naturels, ces nouveaux minéraux synthétiques présentent l’avantage d’avoir une chimie et une taille contrôlées. La taille nanométrique de ces nouveaux minéraux permet de leur conférer de nouvelles propriétés et de nouveaux signaux cristallochimiques
 
Une collaboration étroite entre des minéralogistes du laboratoire Géosciences environnement Toulouse (GET/OMP, UPS / IRD / CNRS / CNES) et des chimistes des matériaux de l’Institut de chimie de la matière condensée de Bordeaux (ICMCB, CNRS / Université Bordeaux / Bordeaux INP) a permis de réaliser la synthèse de talc en seulement 20 secondes à l’aide d’un procédé innovant et rapide, s’inspirant des processus naturels de formation des minéraux : la synthèse hydrothermale en continu et en conditions supercritiques.
 
Un communiqué du CNRS précise que ce nouvel outil pour les géosciences et la science des matériaux leur a permis de créer un nanominéral modèle de talc en seulement quelques dizaines de secondes.
Ce talc possède une structure tétraèdre-octaèdre-tétraèdre (TOT) trioactaédrique comme le talc naturel dont il se distingue cependant par des tailles de cristallites nanométriques. Cette taille nanométrique lui confère des signatures cristallochimiques singulières et de nouvelles propriétés de surface telles une hydrophilie, le talc naturel étant hydrophobe.
 
Étudier des nanominéraux modèles permet d’identifier les propriétés physico-chimiques liées uniquement à la phase nanométrique. Dans le cas du talc, les signatures cristallochimiques du nanotalc ont conduit à l’identification dans un minerai de talc d’une phase submicronique jusqu’alors insoupçonnée.
 
En permettant de reproduire les premiers stades de formation des minéraux, la synthèse hydrothermale en continu et en conditions proche- et supercritiques offre une nouvelle approche vers la nanominéralogie, d’une part, et vers le développement de nouveaux géo-matériaux avancés, d’autre part.
 
Ce procédé breveté (1) fait aujourd’hui l’objet d’un partenariat industriel avec la société Imerys Talc pour le transfert de technologie. Ce procédé est également développé dans le cadre d’un projet prématuration du CNRS pour l’élaboration hydrothermale supercritique de phyllo-aluminosilicates.
 
 
Note(s):
C. Aymonier, A. Dumas, C. Le Roux, F. Martin, P. Micoud, C. Slostowski (2015) Procédé de préparation de particules synthétiques phyllominérales en continu. PCT/FR2015/050984, aux noms du Centre National de la Recherche Scientifique (CNRS) et de l’Université Paul Sabatier Toulouse III.
Source(s):
Dumas, M. Claverie, C. Slostowski, G. Aubert, C. Carême, C. Le Roux, P. Micoud, F. Martin, C. Aymonier, Fast-geomimicking using chemistry in supercritical water. Angewandte Chemie International Edition, 2016, DOI: 10.1002/anie.201604096. (Very important paper).
 
 

 

Loading...
Loading...