AGENDA  

Aucun évènement à venir!
   

IESF  

iesf

   

lu pour vous numéro 124

Détails

" Lu pour vous " n° 124*

Sommaire :

  • Science & futur : élever des montagnes pour faire tomber de la pluie
  • Science & futur : Les véhicules électriques s'alimenteront au solaire
  • Science & futur : les ballons stratosphériques vont jouer les satellites
  • Actus technique - optique : une lentille d'objectif ultra-fine qui agrandit les images 170 fois
  • Science & techniques - informatique : L'ordinateur du nouveau monde ?
  • Sciences & découvertes - transport : un train à 1200 km/h

Science & futur : élever des montagnes pour faire tomber de la pluie est à l'étude.

Comment augmenter les précipitations dans une région ou l'eau est rare ? En construisant une montagne artificielle qui force les nuages à se former au-dessus d’elle. Pour maximiser la formation de ces nuages, les scientifiques du centre américain de recherche en science de l'atmosphère, chargés de l'étude de faisabilité, devront déterminer la localisation géographique de cette montagne, sa hauteur et l'inclinaison de sa pointe. Il sera alors possible d'ensemencer les nuages à
L’aide d'aérosols favorisant la condensation de la vapeur d'eau. En 2015, 486 ensemencements ont ainsi déjà été pratiqués dans les Emirats, sur les rares nuages capables de faire pleuvoir.

Source : Science et Vie, n° 1187, août 2016, signé S.F.

Science & futur : Les véhicules électriques s'alimenteront au solaire.

lpv1241Deux parasols de 150 m2 de surface, capables de de recharger chacun jusqu'à huit véhicules électriques grâce à l'énergie produite par leurs 554 panneaux solaires (29 kW/c de puissance photovoltaïque) ...

Voici ce que vient d'inaugurer en Corse la spécialiste en énergie solaire Drive Eco. En pratique, il s’agit de deux mini-centrales électriques qui génèrent leur propre énergie solaire (70kw de puissance maximum de charge), la stockent grâce à une batterie (8kw/h de stockage), en rechargeant (en filaire) tous les véhicules électriques et hybrides du matché. Voitures, vélos ou scooters pouvant ainsi être rechargés par beau ou mauvais temps, de jour comme de nuit, y compris en cas de panne d'électricité. Les Le surplus éventuel peut même être injecté dans le réseau électrique, grâce à un système intelligent (smart grid).

Source : Science et Vie, N° 1187, août 2016, signé E.T ;-A.

 

Science & futur : un ballon stratosphérique vont jouer les satellites.

lpv1242Le top départ vient d'être donné officiellement : Stratobus effectuera sin premier vol commercial en 2020. Moins coûteux de mettre en orbite qu'un satellite, il n'a pas besoin de lanceur, et se déployant en seulement quatre heures, ce dirigeable nouvelle génération a été élaboré par l'entreprise française Thales Alenia Space. Avec ses 100 mètres de longueur, cet énorme aéronef rempli d'hydrogène ou d'hélium peut embarquer 250 kg d'équipement à 20 000 m d'altitude.

Si haut dans le ciel il fonctionne évidemment à l'énergie solaire, mais avec une innovation en plus : un anneau placé autour du ballon le fait tourner sur lui-même pour que son panneau solaire (à concentration) se trouve toujours face au soleil. Il dispose ainsi d'assez de puissance à bord (environ l00kw) pour lutter contre les vents et rester stationnaire en actionnant ses hélices. « Une performance qu'il est le seul à offrir aujourd'hui parmi les pseudo-satellites à haute altitude (HAPS) », précise Jean-Philippe Chassel, chef du projet Loon de Google, qui apportent internet dans des zones reculées, celui-ci est destiné à des missions variées, pouvant durer jusqu'à cinq ans : télécommunications, surveillance des frontières ou des sites critiques, observations météorologiques ou détection d'incendies.

Source ; Science et Vie n° 1187, août 2016, signé L.B.

Actus technos - optique : une lentille d'objectif ultra-fine qui agrandit les images 170 fois.

lpv1243Remplacer la classique lentille de verre concave par un système aussi plat qu'une feuille de papier ! Telle est la prouesse de chercheurs de Harvard (Etats-Unis) qui ont mis au point cet objectif de 600 nanomètres de 4 épaisseurs. Pour y parvenir, ils ont créé une surface plane composée de nanoparticules de dioxyde de titane disposées sur une fine couche de verre, qui focalisent la lumière dans le spectre visible. La taille des nanoparticules détermine la réponse en longueur d'onde et leur arrangement confère les propriétés optiques de la lentille. Testées dans le vert, le bleu et le rouge, ces lentilles offrent des résolutions comparables à celles des microscopes les plus performants, ouverture optique de 0,5, et agrandissent les images jusqu'à 170 fois.

Reste à concevoir un dispositif fonctionnants sur tout le spectre visible. « Des stratégies géométriques, déjà testées dans le domaine des ondes radio, permettront de corriger les aberrations chromatiques, estime Federico Capasso. D'ici cinq ans nous devrons obtenir une première version commercialisable. Le potentiel de ces nouvelles lentilles est énorme ! C’est l'ensemble des instruments pour lesquels la miniaturisation est de mise (lunettes et casques de réalité augmentée, caméras embarquées dans le vivant, optique spatiale} qui pourront profiter de cet objectif ultrafin.

Source : Science et Vie, n° 1187, août 2016, signé A. P.

Science & techniques - informatique · L'ordinateur du nouveau monde ?

lpv1244Un PC dont le cœur n'est pas le processeur mais la mémoire ? Voici la solution imaginée par HP pour répondre à l'exigence de big data.

Les équipes de recherche de Hewlett-Packard Entreprise (HPPE), qui planchent dessus depuis 2008, annoncent un premier prototype pour la seconde partie de l'année. Un prototype hors norme :avec ses 320 téraoctets, il disposera une mémoire vingt fois plus importante que les plus gros serveurs actuels, constitués de milliers d'ordinateurs. Surtout, la machine du géant américain sera le premier ordinateur ... qui ne ressemblera plus à un ordinateur. La première tentative sérieuse de faire évoluer l'architecture d'une machine qui a changé le monde en l'adaptant justement, au nouveau monde qu'elle a elle-même construit.

Un monde de big data ou la problématique essentielle n'est plus la puissance de calcul, mais la maîtrise des données.

La technologie proposée par HPPE offre une rupture en termes de performance. Elle apporte aussi une nouvelle façon d'aborder les fichiers informatiques », commente Bruno Raffin, spécialiste du calcul haute performance à l'Institut national de recherche en informatique et en automatique (lnria).

Jusqu'à présent, la pièce centrale de l'ordinateur a toujours été le processeur. Le cerveau qui exécute les calculs. C’est le cœur de la machine autour duquel gravitent les autres composants. En particulier, ceux dédiées à la mémoire, avec d'un côté la mémoire des stockage (disques durs magnétiques ou mémoire flash électronique), qui conserve de manière permanente les fichiers ,et de l'autre la mémoire de travail ,ou mémoire vive, beaucoup plus rapide, mais éphémère, dans laquelle sont chargées toutes informations nécessaires au processeur pour accomplir son travail.

The Machine renverse complétement cette logique, en plaçant les données au centre et les calculs en périphérie. Ici, le cœur du système n'est plus le processeur, mais la mémoire. Une mémoire universelle, qui allie permanence des informations de la mémoire de stockage et la rapidité d'accès de la mémoire de travail. Un immense espace de stockage dans lequel des processeurs périphériques reliés par des fibres optiques à lasers viennent chercher leurs données.

Le défi de la sobriété.

Selon HPPE, cette architecture bouleversée devrait rendre l'informatique plus efficace, plus simple à programmer, plus facile à utiliser et plus sobre en énergie : The Machine doit être le premier ordinateur du nouveau monde.
Plus sobre, l'enjeu est de taille. Pour stocker et digérer toutes les données envoyées par les objets connectés, dont le nombre ne cesse d’augmenter, les data centers, qui regroupent des milliers d'ordinateurs, devrons devenir encore plus grands, plus puissants et encore plus énergivores.

« Tous les trois ans, quand la capacité de calcul des processeurs est multiplié par 10, la consommation électrique est, elle, multipliée par 3, précise Patrick Demichel, chef technologue chez Hewlett-Packard Entreprise et représentant du projet The Machine. Ça paraît peu mais c'est déjà énorme ; un data center consommant 10 mégawatts passerait à 30 mégawatts, ce qui est impossible en ville en raison de la capacité des lignes électriques.
En 2014, lors du lancement du projet, Mathias Fink, directeur des laboratoires d’HPE tablait sur un quintuplement des performances de calcul des data centers avec une consommation d’energie divisée par 5 !

Ultrafacile à gérer.

lpv1245Son calcul se fonde sur plusieurs éléments. Sur les futures performances de son nouveau type de mémoire universelle d'abord, qui évite les incessants allers- retours d’informations entre mémoire de travail et mémoire de stockage ; elle est censée être dix fois plus sobre que la mémoire vive - dynamique (Dram), avec un objectif d'un picojoule pour l'écriture ou la lecture d’un bit... Sur l’efficacité des liaisons photoniques ensuite, qui se substitueront aux connexions en cuivre, lentes et à très forte dissipation thermique. Enfin, sur l'emploi des processeurs fabriqués et programmés en fonction de leur rôle, de façon d'être les plus économes possible, à la place d’un processeur générique » dont l'architecture n'a jamais été optimisée pour une tâche spécifique » souligne Patrick Demichel.

Autre avantage clé avancé : la simplicité de programmation et d'utilisation. Plutôt que de répartir les vastes collections de données dans des milliers d'ordinateurs en réseau avec chacune sa mémoire de stockage et sa mémoire vive. The Machine regroupe tous dans un seul bloc mémoire central. De taille modulable... Et avec les liaisons photoniques le temps d'accès est non seulement fortement réduit, mais il devient plus uniforme.

« Alors que des algorithmes complexes doivent aujourd'hui prendre en compte les temps d’accès différents, selon que la mémoire est locale ou sur une autre machine l'uniformisation du temps d'accès permettra de repenser la manière de stocker les données et de simplifier les algorithmes confirme Bruno Raffin.

Patrick Demichel le promet : « Même 1000 fois plus grosse, cette machine sera aussi facile à gérer par les programmeurs que par les utilisateurs. »

Ce gain en efficacité a été chiffré. Aujourd’hui, trouver les cinq images les plus ressemblantes à une autre parmi une collection de 4 millions réparti sur une vingtaine de serveurs prend trois minutes.

Avec The Machine, c'est une bibliothèque de 50 millions d'images qui serait vue comme mémoire unique... en moins de 50 millisecondes.
« Ce nouveau type de mémoire à deux avantages pour les petits appareils, confirme Kevin Marquet, spécialiste des systèmes embarqués au laboratoire Citi (lnra/lnsa Lyon). Elle est très dense, ce qui permet d'ajouter beaucoup de mémoire pour un volume réduit. Et elle peut être éteinte facilement sans rien perdre, ou allumée quand on en a besoin, garantissant de grosses économies d'énergie.

Bref, HPE rêve d'imposer sa Machine dans tous les futurs systèmes informatiques centrés sur le traitement massif de données. Et pourquoi pas, ensuite, dans les ordinateurs de bureau ?

Pour l'heure, les ingénieurs sont face à des problèmes très concrets. Comme la fabrication de la mémoire universelle. Pour y parvenir, ils misaient initialement sur une technologie développée en interne, les memristors, une mémoire reposant sur du dioxyde de titanium, dont la résistance varie en fonction du courant qui le parcourt. N'ayant pas réussi à élaborer une méthode de fabrication industrielle, ils envisagent d'autres types de mémoire universelle, comme une mémoire à changement de phases (les structures du matériau deviennent amorphes ou crilines en fonction du courant qui le parcourt).

Les liaisons laser par fibres optiques, elles existent déjà : elles sont utilisées entre les serveurs des data centers. Le défi ? Miniaturiser ces éléments pour implanter fibres et lasers sur, puis, dans un second temps, à l'intérieur du processeur lui-même.. Intel et IBM y travaillent : après un peu de retard, les premiers composants photoniques pourraient être commercialises dans un an.
Quant aux processeurs spécialisés, ils sont déjà sur le marché.

Patrick Demichel est optimiste : « Le hardware n'est pas le plus compliqué, on y arrivera, ce n'est qu'une question de temps. » C'est le software qui est en fait la partie la plus critique.

Le prototype en construction, à l'usage exclusif des équipes de recherche d'HEP, doit servir à mettre au point la partie logicielle, qui assure la gestion des flux d'informations sur les liaisons photoniques, à défaut de de mémoire universelle disponible, c’est une mémoire vive classique qui est utilisée.
Il faut aussi concevoir un système d'exploitation capable de tirer le meilleur parti de tous ces changements. HPE y travaille.
The Machine permettra-t-elle à Hewlett-Packard Entreprise de revenir dans la course pour la maîtrise des futurs systèmes informatiques ? L'avenir le dira.
Sachant qu'il est difficile de reconstruire un système aussi complexe qu'un ordinateur à partir de zéro, vu les gigantesques forces d'inertie des savoir-faire et des outils accumulés durant décennies. Mais ce bouleversement radical dessine déjà les contours de notre nouveau monde .Un monde dont les données informatiques commencent désormais à occuper le centre.

En chiffres : Avec 320 téraoctets de mémoire, le premier prototype de The Machine est capable de stocker l'information inscrite sur 500 00 CD Rom (soit une tour de 7,5 km ou 100 milliards de pages (soit 10 000 km de hauteur).

Source : Science et Vie, n° 1186, juillet 2016, par Olivier Lapirot ;

Sciences & Découvertes -transports : Un train à 1 200 km/h.

lpv1246Le « train » Hyperloop envisage de transporter des passagers plus rapidement qu'un avion...
Un projet apparemment délirant ? Après enquête, Muriel Valin a changé d'avis.

Contexte

Le réseau ferroviaire mondial compte plus d'un million de kilomètres de voies ferrées, dont 40 000 à grande vitesse (entre 220 et 500 km/h). Pour aller encore plus vite, les prochaines lignes pourraient consister en tubes avec des capsules circulant à l'intérieur. C'est du moins ce que propose le projet Hyperloop.
Août 2013, Elon Musk, le célèbre patron américain des voitures électrique Tesla et du transport spatial Space X, fait la une des journaux en dévoilant un nouveau concept de train. Et quel train ! Baptisé Hyperloop, le projet ambitionne d'embarquer des passagers à 1 200 km/h au sein de petites capsules circulant dans un tube quasi sous vide, à 30 secondes d'intervalle...

A la rédaction, nous étions sceptiques.

Pouvoir relier Los Angeles à San Francisco en 35 minutes ou atteindre Marseille depuis Paris en moins de 40 minutes, perspective réjouissante... sauf qu'Elon Musk n'était pas le premier à avoir cette idée, et tous ceux qui s'y étaient frottés avant lui s'y étaient cassés les dents.
Et Hyperloop alors ? Plusieurs indices laissent penser quece projet ne prendra forcément la même tournure que les précédents.

L'intérêt des industriels d'abord. Après avoir lancé son idée, Elon Musk a très vite passé la main et invité tous les intéressés à s'en emparer. Du coup, trois entreprises concurrentes (deux américaines, Hyperloop One et Hyperloop Transportation Technology -HTT- et le canadien,Trazns-Pod) et plusieurs laboratoires se sont créés spécialement dans la foulée pour développer le projet. En l'espace de quelques mois, des chercheurs d'entreprises, d'universités et d'organismes de renom (Airbus, Nasa, Boeing, Deutsche Bahn, MIT...) apportaient leurs contributions. En mai dernier, neuf grosses entreprises, dont la SNCF, ont même participé à une levée de fonds de 80 millions de dollars pour financer les travaux de Hyperloop One.

Enfin pris au sérieux.

Autre indice : début juin, au 112 congrès mondial de la recherche ferroviaire, Hyperloop One et TransPo figuraient parmi les principaux intervenants. La communauté ferroviaire a pris leur projet très au sérieux.
Les entreprises lancées dans le projet ont également su convaincre plusieurs gouvernements dans le monde (Russie, Slovaquie et Canada en tête) de commencer à étudier des réalisations concrètes sur le terrain. Dernier signe, plus concret, en mai dernier, dans le désert du Nevada, Hyperloop One réalisait avec succès un premier test sur un système de propulsion, qui a réussi à accélérer de 0 à 187 km/h en 1,1seconde. Un essai qui marque le coup d'envoi, d’ici à la fin de l'année, de toute une série d'expérimentations. De quoi interroger notre scepticisme original :et si ce projet n'était pas si fou que ça ?

Du côté des industriels impliqués, l'optimisme est évidemment de mise.

lpv1247« Aujourd’hui, on est en train de voir naître un nouveau concept techniquement faisable, explique Sébastien Gendron, directeur de TransPod. Il ne s'agit pas de fusion nucléaire ni de nouveaux concepts de recherche fondamentale. Il va juste falloir revoir des technologies existantes, tirer des leçons des précédents échecs de trains dans le vide et adapter le projet aux réalités de terrain. »

Exemple de pragmatisme : dès le départ, et contrairement aux exemples précédents, le projet d'Elon Musk n'impose pas un vide complet dans le tube, trop coûteux en énergie, mais juste une très basse pression. C'est avec des valeurs avoisinant les 100 pascals (1 000 fois moins que la pression atmosphérique, l'équivalent de la pression à 40 km au-dessus du sol) que les équipes sont donc en train de réaliser leurs tests. Une option qui a l'avantage d'enduire peu de frottements pour les capsules (ce qui leur permet de circuler très vite), tout en étant plus facile à réaliser que le vide total.

Autre exemple : le déplacement dans le tube. Elon Musk proposait de faire évoluer les capsules sur un coussin d'air comprimé. Après des tests, l'idée a été abandonnée car le coussin d'air ne conservait pas son épaisseur tout au long du tube. Du coup, des aimants ont remplacé l'air comprimé : les trois entreprises se tournent donc vers des techniques de propulsion et d'accélération proches de celles utilisées sur les trains à sustentation magnétique japonais. Rien n'est encore figé.... Mais les premiers tests réalisés en mai par Hyperloop One sont prometteurs.

Aucun obstacle technique.

Beaucoup de questions doivent encore être réglées : par exemple, concernant la sécurité et la gestion des pannes, notamment le risque de dépressurisation ou d'arrêts de capsules en cours de route

Ou la durée de vie des matériaux dans des conditions de pression extrêmement basse. Mais l'avis est unanime : rien ne paraît infranchissable techniquement. « Finalement, le plus grand obstacle ne sera pas tant la prouesse technologique que réussir à convaincre des régions ou des gouvernement d'investir dans la construction d'un réseau et d'infrastructure d'une telle ampleur », note Jean-Pierre Loubinoux..

Car le tube devra être déployé sur des circuits suffisamment longs et sans interruption pour que la vitesse se justifie : « Pour que l'accélération soit supportable, comparable à celle ressentie dans un métro, il faudra augmenter la vitesse des capsules progressivement : 50 km au minimum seront nécessaires pour atteindre 1 200 km/h. Le tube n'aura donc aucun intérêt sur des trajets inférieurs à plusieurs centaines de km », explique Sébastien Gendron, qui imagine relier Montréal à Toronto (550 km) en moins d'une heure, contre six actuellement en train.

Alors, voyagerons-nous réellement un jour sur cette nouvelle ligne de chemin de fer ? A TransPod, on y croit. «Hyperloop arrive à un moment ou les trains ont atteint leur limite en terme de vitesse, et où il faut inventer autre chose, qui soit moins polluant que l'avion », analyse Sébastien Gensdron.
A la rédaction, en tous cas, nous suivront de près l'avancement de ce projet pas aussi fou qu'il n'en a l'air.

Source: Science et Vie, n° 1187, août 2016.

*Les articles qui figurent dans cette rubrique sont transmis à titre d'information scientifique et / ou Technique. Ils ne sont en aucun cas l'expression d'une prise de position de l'UDISS ou d'un jugement de valeur

   
© UNION DES INGÉNIEURS ET SCIENTIFIQUES DES SAVOIE - 2011