AGENDA  

Aucun évènement à venir!
   

IESF  

iesf

   

lu pour vous numéro 41

Détails

"Lu pour vous" numéro 41*

 

*Les articles qui figurent dans cette rubrique sont transmis à titre d'information scientifique et / ou Technique. Ils ne sont en aucun cas l'expression d'une prise de position de l'UDISS ou d'un jugement de valeur

Sommaire :

 

  • Technologie : un bouchon protégera les métros des inondations
  • Nanomatériaux à base d’atomes géants
  • Biologie : limites de l’être humain
  • Physique : les brouillards de mélange
  • Neurosciences : des prothèses pilotées par la pensée
  • Voiture électrique : la nouvelle génération

 

Technologie : un bouchon protégera les métros des inondations.

lpv411Des chercheurs américains ont mis au point un ballon gonflable qui empêche l’eau d’entrer dans un tunnel en cas d’intempéries.

C’est un gros ballon de 9,75m de long sur 5 de diamètre, d’un volume total de 132480 litres qui, gonflé, pourrait contenir les inondations de tunnels de métro. Ce projet américain remonte déjà à 2007, mais son efficacité n’a été validée que le 19 novembre 2012 dans une réplique à taille réelle d’un tronçon de tunnel de métro installé dans un hangar d’aéroport.

Menée pour le compte du ministère de la sécurité intérieure américain, qui à l’origine cherchait un moyen de se protéger d’attaques terroristes passant par les souterrains des villes, l’étude du Resilient Tunnel Plug associe des chercheurs en ingénierie mécanique et aérospatiale de l’université de Virginie-Occidentale et le Pacific Northwest National Laboratory du ministère américain de l’Energie. Le principe ? Gonfler un ballon à l’intérieur d’un tunnel afin qu’il épouse parfaitement les contours, du sol au plafond. Un peu comme une boule Quies dans le conduit auriculaire.

Fabriquée par la société ILD Dover, qui conçoit les combinaisons d’astronautes, l’enveloppe est formée d’une triple couche de polyuréthane, de Vectran (une matière flexible très résistante faite de polymères à cristaux liquides, utilisée dans la voile) et de lanières de Vectran entrecroisées. Elle résiste à de fortes pressions mais aussi aux frictions contre les murs et les rails, ainsi qu’aux morsures de rats.

Les chercheurs ont imaginé un système de sac à lanières qui se détachent, façon parachute, permettant de stocker l’engin dégonflé. Il faut une demi-heure pour mettre le dispositif sous pression et assurer l’étanchéité .Avant de le voir se généraliser, les ingénieurs doivent encore réfléchir aux manières de réaménager les tunnels pour en réduire les aspérités. Le ballon ne pourra pas sceller un tunnel à 100%, à cause des tuyauteries et des rails qui créeront des interstices, mais il permettra de réduire l’intrusion d’eau ou de fumée et d’éviter que le système de pompage ou de ventilation ne sature.

Source : Science et Avenir, n° 791, janvier 2013, signé Arnaud Devillard

 

Nanomatériaux à base d’atomes géants

Des chercheurs ont mis au point des «atomes« artificiels capables de s’auto-assembler via … des brins d’ADN. De quoi concevoir des matières aux propriétés inédites.

Une équipe de l’université de New-York, dirigée par Yufeng WANG, a mis au point un « kit de construction » de nanoparticules à destination de tous les chercheurs de cette discipline. Via des brins d’ADN, qui servent ici de colle, ces nanoparticules peuvent se lier les unes aux autres comme des atomes réels. Les chercheurs peuvent désormais produire des atomes artificiels géants (de 500 à 900 nm, contre 10 nm pour les vrais atomes) qui, dilués en masse dans un solvant, réagiront selon les lois de la chimie pour former des structures semblables aux matières existantes (naturelles ou manufacturées). Sauf que les structures auront des propriétés nouvelles, inexistantes dans la nature. De quoi fabriquer des matériaux aux caractéristiques chimiques, électroniques et mécaniques inédites.

Cet exploit signe la consécration de l’ADN comme «ciment« pour fabriquer par auto-assemblage des nanomatériaux. Concrètement, des brins d’ADN ont été greffés à la surface de nanoparticules de polystyrène. Or ces brins greffés, qu’on appelle «patchs», sont très sélectifs : ils ne s’accolent qu’à des brins complémentaires d’ADN, pour former des doubles brins (Fabrice SEVERAC, Nanomade-Concept, laboratoire Laas-CNRS de Toulouse). La nouveauté, ici, c’est surtout l’aspect directionnel des patchs. La technique permet de placer les brins d’ADN en des lieux bien précis de la surface des particules, par exemple sur des sites diamétralement opposés, ou disposés en triangle, en tétraèdre (voir photos). De quoi produire par auto-assemblage tout type de structure : les chercheurs ont inventé une «super chimie qui fait désormais partie de l’outillage des nanotechnologies».

Un bémol : cette technique ne s’applique qu’aux nanoparticules en polymères, alors que 90% des travaux sur les nanotechnologies sont basés sur des nanoparticules métalliques surtout en or. Il faudra donc généraliser cette invention à une gamme plus large .C’est alors toute l’industrie de l’optoélectronique (diodes, phototransistors…) qui sera visée en priorité.

Pour fabriquer des atomes géants, les chercheurs utilisent des nano billes de polystyrène isolées ou agglomérées

lpv412-1

Ces nano billes sont ensuite enduites de résine (du styrène) de façon à ne laisser dépasser que leurs extrémités : c’est là que viendront se greffer les brins d’ADN (les patchs).

lpv412-2

En assemblant un atome à quatre patchs et quatre autres à 1 patch, ils ont obtenu cette «molécule» artificielle similaire au méthane (CH4)

lpv412-3

Vers les premières nanostructures en 3D

Certaines réalisations se servent déjà de l’ADN comme «colle« à particules. Par exemple, les nano composites énergétiques mis au point par le Laboratoire d’analyse et d’architecture des systèmes : des agglomérats de nanoparticules d’aluminium et d’oxyde de cuivre, cimentés par des v=brins d’ADN. Ces composites de quelques micromètres libèrent de l’énergie sous l’effet d’un signal. Mais ils n’ont pas de structure particulière. La technique des chercheurs américains, elle, ouvre la voie à la conception de structures en «3D (des cristaux) qui traiteraient de l’information en volume et non plus en surface, comme le font les circuits électroniques ou optiques actuels.

Source : Science et Vie n° 1141, janvier 2013, signé R.I.

Biologie : limites de l’être humain

Depuis les records de toutes sortes, des plus nobles aux plus idiots, sont recensés, on cerne mieux les capacités ultimes de l’homme. Courir à une vitesse approchant 40 kilomètres par heure, ne pas respirer pendant plus de 11 minutes, détecter une molécule odorante parmi 10 000 milliards d’autres, mémoriser une suite de 100 000 chiffres, etc.

Ces prouesses d’aujourd’hui donnent une idée des capacités physiologiques et psychologique auxquelles pourrait prétendre l’homme 2.0, cet être transformé et augmenté par les technologies qui pourrait nous succéder.

Voici trois exemples (sur dix) de performances hors du commun.

Des yeux de lynx

Le champion automobile Sébastien LOEB est réputé avoir une acuité visuelle supérieure à 14/10. Qu’est-ce que cela signifie ? Par convention, une personne ayant une acuité visuelle de 10/10 est capable de distinguer deux points séparés par une minute d’arc, soit deux points écartés de 0,3 millimètre vus de un mètre, ou de 1,46 millimètre vus de cinq mètres.

Un individu ayant une acuité visuelle de 15/10 discerne deux points distants de 0,2 millimètre à un mètre ou de 2 centimètre à 100 mètres, ce qui est nettement plus petit qu’un obstacle sur la route…

Pour qu’un œil discrimine deux points voisins, il faut que les images sur la rétine se forment sur deux cônes photorécepteurs différents et séparés par un cône non stimulé. Des lors, théoriquement, c’est-à-dire quand l’œil est exempt de défauts optiques, les 2,5 micromètres qui séparent deux photorécepteurs sur la région centrale de la rétine permettent de distinguer deux points séparés par une demi-minute d’arc (pour une distance focale oculaire typique de 17 millimètres), soit 0,73 millimètre à cinq mètres, ou 1,5 centimètre à 100 mètres. Cela correspond dans le système français à une acuité visuelle de 20/10 !

Cependant, même quand l’œil est parfait, la diffraction de la lumière sur les bords de la pupille réduit cette performance théorique, qui n’est que très rarement approché. Tout de même, les ophtalmologues constatent que, chez les jeunes gens, l’acuité visuelle peut atteindre 15/10.

Un odorat très fin

Un créateur de parfums est entraîné à reconnaître les odeurs de ses matières premières. Certains de ces « nez » apprennent ainsi à en maîtriser plusieurs centaines, voire des milliers. Pour autant, la plupart des stimuli olfactifs sont complexes, de sorte qu’avoir un odorat fin consiste davantage à déceler une odeur parmi des centaines, plutôt que la reconnaître quand elle est pure.

Les goûteurs de vin professionnels sont dans cette situation, lorsqu’ils cherchent par exemple à repérer la présence d’une composante olfactive désagréable dans la boisson dégustée. Sophie TEMPERE et ses collègues de l’université de Bordeaux ont testé, sur dix molécules odorantes clefs, les capacités olfactives de 200 dégustateurs professionnels, et mis en évidence leur extrême variabilité. Les chercheurs ont découvert que chez des experts, la capacité à détecter une odeur peut varier, en fonction de la concentration, d’un facteur 1000. En d’autres termes, certains sont 1000 fois plus sensibles que d’autres à une molécule donnée ; ils détectent jusqu’à cinq nano grammes par litres seulement. Pour autant, il n’existe pas de dégustateurs sensibles à toutes les odeurs ; ils peuvent être très sensibles à l’une et indifférents à une autre. Un manque de sensibilité peut s’expliquer en partie par des variations génétiques (portant sur les gènes qui codent les récepteurs olfactifs), mais aussi par un manque de familiarité. Il est donc possible d’améliorer cette capacité par un entraînement spécifique, ce qui est utile, par exemple, pour rechercher des défauts caractéristiques dans le vin. Cependant, les goûteurs professionnels s’entraînent surtout à former, à partir de la répétition de leurs sensations, des représentations mentales des types de vin. Que ces représentations correspondent à des sensations différentes d’un dégustateur à l’autre et sans importance, car cela ne les empêche pas de se comprendre quand ils parlent du même vin

Se faire entendre de loin

Un chanteur wagnérien émet des sons dont l’intensité est comparable à celle d’un réacteur d’avion qui décolle. En termes acoustiques, cela revient à dire qu’il atteint 120 décibels à un mètre, soit une pression d’environ 20 pascals sur le tympan. C’est considérable mais nous apprécions un chanteur pour les performances et la beauté de sa voix plutôt que pour sa puissance !

La beauté de la voix dépend en particulier de son timbre, c’est-à-dire de la façon dont la résonance de sa voix dans la cavité pharyngo-buccale renforce certains harmoniques (les fréquences multiples entières de la fréquence fondamentale du son). Toutefois, le timbre étant propre à chaque individu, les grands interprètes dotés d’un timbre plaisant ne font aucun effort technique pour l’acquérir.

Ils en font en revanche pour se faire entendre des spectateurs du dernier rang dans d’immenses salles de concert. Pour ce faire, ils se sont entraînés afin de placer leur « formant », c’est-à-dire le maximum d’énergie de leur spectre sonore, aux alentours de 3000 hertz. Cette plage de fréquences est en effet celle de l’acuité auditive optimale.

C’est ce qui permet de chanter sans microphone malgré un orchestre de 80 à 100 musiciens, et ce sans forcer la voix. Les chanteurs parviennent ainsi à émettre des sons de très belle intensité (pianissimi) qui portent néanmoins jusqu’au dernier rang.

Source : pour la Science, n° 422, décembre 2012, François SAVATIER

Physique : les brouillards de mélange

Le mélange de deux masses d’air de températures différentes peut en fonction de leur hygrométrie, créer un brouillard. C’est le procédé employé dans les salles de spectacles.

Certains matins d’hiver, nous produisons de la brume blanche en soufflant dans l’air froid ; d’autres matins, pourtant tout aussi froid, il ne se passe rien. Pourquoi ? L’explication est à rechercher dans le fait qu’en se mélangeant à l’air ambiant, l’air expiré voit non seulement sa température diminuer, mais aussi sa teneur en eau. Le mécanisme de formation du « brouillard de mélange » qui peut en résulter est semblable à celui des traînées d’avion ou des générateurs de fumée utilisés dans certains spectacles.

Le brouillard un air sursaturé en eau.

lpv416A température ambiante (20°C), un mètre cube d’air contient au maximum 18 grammes de vapeur d’eau. C’est par exemple l’humidité présente dans l’air occupant le haut d’une bouteille d’eau bouchée. Tant que la teneur en eau est inférieure à ce seuil, l’eau reste sous forme de vapeur et forme avec les autres molécules de l’air un mélange gazeux transparent. Quand le seuil est atteint, on dit que l’air est saturé et que l’hygrométrie est de 100%.

Lorsque la teneur en eau dépasse le seuil de 18 grammes par mètre cube à 20°C, l’eau en excès se condense, formant de minuscules et innombrables gouttelettes liquides qui diffusent la lumière et donnent aux brouillards et aux nuages leur apparence laiteuse. Or le seuil de saturation de l’air augmente fortement avec la température : aux températures ordinaires (entre 0 et 30°C), il double à peu près tous les 10 degrés. En refroidissant suffisamment une masse d’air non saturée, on peut donc lui faire franchir le seuil de saturation. Par exemple, de l’air à 60% d’humidité à 30°C (environ 18 grammes d’eau par mètre cube d’air) devient, à 10°C, sursaturé à 200 pour cent : la moitié de l’eau contenue dans l’air va se condenser.

Pour déterminer ce qui peut se passer, il est indispensable de se reporter à la courbe qui représente la teneur en eau à saturation en fonction de la température.

Des avions aux machines à brouillard

Le même mécanisme permet aussi de comprendre pourquoi les avions laissent parfois des traînées blanches dans le ciel. La combustion du carburant dans les réacteurs produit, entre autres, de la vapeur d’eau. Le gaz chaud éjecté par les tuyères se mélange avec l’air ambiant et se refroidit. Dans les conditions atmosphériques usuelles, ce mélange sera à l’origine d’un brouillard entre 8 et 19 kilomètres d’altitude pour de l’air ambiant saturé, et entre 10 et 14 kilomètres d’altitude pour de l’air sec : ne sont donc concernés que les avions de ligne en vol de croisière.

Dans les machines à brouillard, un « jus à brouillard » est vaporisé et éjecté sous pression. Sa température est de l’ordre de 120°C, soit autant que dans une cocotte-minute, donc avec le même résultat que lorsqu’on retire la soupape de la dite cocotte : le mélange avec l’air ambiant produit de la fumée.

Mais comment éviter la disparition rapide de ce brouillard lorsqu’il s’éloigne de son point d’éjection ?

On utilise pour cela un mélange d’eau et de glycérine ou de propylène glycol, deux composés moins volatiles que l’eau (et non toxiques). L’évaporation des gouttelettes est fortement ralentie et le brouillard est beaucoup plus persistant. Il permet de rendre visibles les faisceaux des projecteurs dans les spectacles, de créer des ambiances au cinéma.

Source : pour la Science, n° 422, décembre 2012, signé Jean-Michel COURTY et Edouard KIERLIK

Neurosciences : des prothèses pilotées par la pensée

Le premier exosquelette commandé par la pensée et permettant à une personne paralysée de se déplacer pourrait bientôt être opérationnel …

En 2014, lors de la coupe du monde de football, les téléspectateurs assisteront peut-être à un événement inédit : le coup d’envoi du match d’ouverture donné par un adolescent paralysé, revêtu d’un « costume robotique ». Cet exosquelette, enveloppera ses jambes et sera commandé par des signaux électriques provenant de son cerveau. Ils seront transmis sans fil à un petit ordinateur (placé dans un sac à dos), qui les traduira en commandes motrices.

A l’entrée sur le terrain, l’exosquelette stabilisera le corps du tireur, puis coordonnera les mouvements des jambes robotiques. Lorsqu’il sera correctement placé, le tireur devra penser à son pied tapant le ballon. Trois cent millisecondes plus tard, des signaux cérébraux donneront au pied robotique de l’exosquelette l’ordre de frapper la sphère de cuir.

Les défis à surmonter sont encore considérables, mais les travaux en cours montreraient que la commande de machines par le cerveau a quitté le stade des démonstrations de laboratoire et de la science-fiction pour entrer dans une ère nouvelle.

lpv413Un prototype est en construction au laboratoire de Gordon Cheng, de l’université technique de Munich- l’un des membres fondateurs du projet Walk Again (marcher à nouveau), une collaboration internationale qui vise à rendre la mobilité à des personnes handicapées grâce à des prothèses commandées par la pensée. Cette collaboration réunit le Centre de neuro- ingénierie de l’université Duke, l’université technique de Munich, l’école polytechnique fédérale de Lausanne, et l’Institut de neurosciences Edmond et Lily SAFRA, à Natal, au Brésil.

Grâce aux interfaces cerveau-machine, on pourra ainsi manipuler des robots envoyés dans des environnements inaccessibles à l’homme ; nos pensées manœuvreraient par exemple un outil microchirurgical à l’intérieur du corps, ou dirigeraient un ouvrier humanoïde réparant une fuite dans une centrale nucléaire.

Ces interfaces pourraient également commander des outils exerçant des forces bien plus importantes, ou bien plus faibles, que celles applicables par le corps humain.

Annexe : résumé d’expériences récentes.

Une expérience réalisée avec des singes donne une idée des applications potentielles de cette technique.

En 2007, l’équipe de G.CHANG a entraîné des singes rhésus à marcher sur un tapis roulant, tandis que l’activité électrique de plus de 200 neurones était enregistrée. Les données étaient envoyées au laboratoire IRC (Intelligent robotics and communication), à Kyoto, au Japon. L’équipe a utilisé un protocole Internet que CHANG avait développé et qui permettait des échanges extrêmement rapides. Les données étaient destinées aux contrôleurs électroniques de CBI, un robot humanoïde.

Ces contrôleurs utilisaient des algorithmes élaborés précédemment pour traduire des pensées en commandes de bras robotiques. Dans la première partie de l’expérience, on a montré que ces algorithmes fonctionnaient également pour la locomotion bipède ; ils transformaient les données neuronales recueillies en commandes qui actionnaient deux jambes mécaniques.

Lors de la deuxième partie de cette expérience Idoya, un singe femelle, marchait sur le tapis roulant du laboratoire, et l’interface cerveau-machine transmettait le flux d’activité électrique de son cerveau à Kyoto. Là, CBI commençait à marcher dès qu’il détectait ces commandes motrices. Au début, il avait besoin d’être maintenu à la taille, mais dans les expériences ultérieures, il se déplaçait de façon autonome, en réponse aux commandes engendrées par le singe à l’autre bout du monde.

Quand le tapis roulant s’arrêtait et qu’Idoya cessait de marcher, elle pouvait encore commander les mouvements de CBI à Kyoto ; pour ce faire, elle observait en direct sur une vidéo les jambes du robot qui se déplaçait et elle imaginait chaque pas qu’il devait faire. Idoya continuait donc à produire les schémas cérébraux requis   pour faire marcher CBI, même si son propre corps n’était plus engagé dans cette tache motrice. Cette expérience transcontinentale a révélé qu’un humain ou un singe peut transmettre des commandes cérébrales hors de son corps biologique, jusqu’à un dispositif artificiel éloigné.

Source : pour la Science, n° 422, décembre 2012, signé Miguel NICOLELIS

Voiture électrique : la nouvelle génération

La génération qui arrive est enfin dotée de performances dignes d’un moteur thermique ? Batteries, charge, matériaux. Leur conception a été complètement repensée. Et c’est toute l’automobile de demain qui s’invente aujourd’hui.

Sept premières voitures électriques de seconde génération vont arriver sur le marché en 2013 (Renault Zoé, Lumeneo Neoma , BMW i3 , Courb C-Zen, Tesla Model S , Exagon Furtive e-GT , Lightning GT). Ces modèles ont été directement conçus pour être électriques, du moteur jusqu’à la carrosserie, et non plus simplement des dérivés de modèles thermiques, comme l’était la génération précédente. 2013 s’annonce comme le véritable an I de la voiture électrique. Autant de couacs et de faux démarrages que corrige largement la nouvelle génération. D’abord parce qu’au niveau technologique elle affiche des performances enfin dignes de ce nom, fruits d’une conception remise à plat et d’un développement jamais interrompu. Batteries, moteurs, dispositifs de recharge, architecture, équipements.

lpv414La batterie première de ces cinq piliers technologiques, affiche ainsi des performances plus qu’honorables. Oublié le nickel-cadmium : place à l’accumulateur lithium-ion, que l’on trouve dans les ordinateurs et les téléphones portables. D’une durée de vie supérieure à dix ans (environ 200 cycles, soit 200 000 km), ne nécessitent aucun entretien et pouvant être mises en charge à n’importe quel moment, ces batteries nouvelles permettent d’atteindre un seuil de distance critique : 200 kg de batteries assurent 150 km d’autonomie moyenne. Plusieurs moteurs 2013 assurent même 200 km sans recharge.

Les moteurs électriques sont plus légers, plus compactes et plus puissants. Le moteur de la Citroën Saxo(1997), pesait 80 kg et n’affichait que 32 ch ; en 2012, la Mercedes SLS Electric Drive offre 188 ch pour un poids limité à 45 kg .Le tout avec un couple élevé, disponible dès le régime minimum et un rendement exceptionnel d’environ 90%... contre 40% dans le meilleur cas pour un moteur thermique.

Une architecture spécifique : les batteries de la Tesla Model S sont suffisamment compactes pour se loger sous le plancher, ce qui permet d’abaisser le centre de gravité et d’améliorer la tenue de route. Le modèle qui présente un fond plat, profite aussi d’une face avant sans les prises d’air indispensables au moteur thermique, ce qui lui autorise de nouvelles performances aérodynamiques. Son coefficient de pénétration dans l’air (Cx) tombe à 0,24, un record mondial.

Confort : adaptés à la propulsion électrique, chauffage, climatisation et éclairage sont beaucoup moins énergivores. La résistance au chauffage des premiers modèles a été remplacée par une pompe à chaleur réversible, qui peut faire office de chauffage et de climatisation. Et la récupération d’énergie de freinage permet, lors des décélérations, d’utiliser la machine électrique comme une génératrice et de recharger la batterie, ce qui a également pour effet d’économiser plaquettes et disques de frein.

Dispositif de recharge : recharger une voiture électrique était jusqu’ici long et, surtout difficile, faute de prises. Des bornes de charge rapide de courant continu (seul accepté jusqu’à présent) délivrant 50kw, voire plus, coûtent très chers,15 000 à 20 000 euros hors pose.

Dès cette année, certains véhicules seront équipés d’une prise « combo », généralisé en Europe au plus tard en 2017, qui permettra aussi bien une charge lente (sur une prise domestique) que rapide (sur une prise spéciale), et qui sera compatible avec le courant continu et le courant alternatif.

Batteries : technologie lithium-air.

Cette technologie devrait prendre le relais et permettre de faire exploser la densité massique. Sur le papier, la réaction des ions lithium avec l’oxygène présent dans l’air offre une formidable densité d’énergie : jusqu’à 2 000 Wh/kg ! Une valeur record, due au fait que l’air, à la fois plus léger et puisé à l’extérieur, remplace au niveau de la cathode l’oxyde métallique des batteries lithium-ions, qui est, à la fois lourd et disponible en quantité limitée du fait de la surface de l’électrode. En pratique, la densité des cellules lithium-air devrait évoluer de 500 Wh/kg en 2020 à plus de 800 Wh/kg d’ici à 2030. Une batterie de 200 kg permettrait alors de parcourir plus de 1000 km entre deux recharges, ce qui correspond à l’autonomie d’un modèle diesel actuel.

Evolutions des techniques :

Une autre technique de charge devrait émerger d’ici 2020 : l’induction électromagnétique. Fini les câbles, la batterie se recharge sans contact, lorsque le train avant du véhicule est aligné avec un boîtier, situé au sol, connecté au réseau électrique. Plusieurs solutions sont aujourd’hui à l’étude, car l’induction est un dispositif de charge sûr, confortable et performant : il permet déjà d’atteindre une puissance de 20kW. Et certains imaginent même d’implanter des bobines sous la chaussée pour recharger en roulant. Vous pourriez potentiellement conduire un nombre illimité de kilomètres sans recharger, résume Richard SASSOON, directeur du projet climat et énergie à Stanford, dont une équipe a modélisé un système par induction qui délivre 10 kW à 2 mètres de distance, et fonctionne avec des voitures en mouvement.

lpv415Les moteurs évoluent aussi à un rythme accéléré. Matériaux (aimants permanents, tôles magnétiques, isolants à haute température), structures ou modes de refroidissement devraient permettre d’atteindre une puissance de 5 ou 6 kW/kg de matière active, contre 2 à 4 aujourd’hui pour les meilleurs machines. De quoi loger la pièce maîtresse de la voiture… dans les roues. La puissance variant avec la taille de la jante, la même technologie permet de proposer une citadine traction de 60 kW et une sportive à transmission intégrale de 400 kW !

Et une fois les moteurs installés dans les roues, c’est toute l’architecture qui peut être repensée .Ainsi la « roue active » de Michelin (Active Wheel) pourrait être appliquée en série vers 2020, intégrant, outre le moteur, les freins et une suspension active électrique.

Le confort : l’équipementier japonais Denso a ainsi élaboré un système qui ne ventile que les sièges occupés au lieu de tout l’habitacle. Quand le conducteur est seul, le système de climatisation peut économiser jusqu’à 20% d’énergie.

Eclairage : des évolutions radicales dans le domaine de l’éclairage vont également permettre d’économiser du poids et de l’énergie grâce aux diodes électroluminescents : un éclairage 100% LED réclame deux fois moins d’énergie qu’un éclairage au xénon et cinq fois moins que l’halogène, tout en disposant d’une lumière plus proche de la lumière naturelle, et d’un allumage plus rapide.

En 2020, les modèles haut de gamme disposeront de diodes lasers qui permettront toutes les fantaisies en matière de design grâce à leur petite taille (10 micromètres pièce). Et les progrès en matière de panneaux solaires permettront de prolonger l’autonomie : des panneaux placés sur le toit offriront une énergie journalière gratuite allant jusqu’à 1,5kW/h. Toutes ces avancées s’accompagneront d’une baisse des prix liée à l’augmentation des cadences de production et à la maîtrise des technologies employées. En 2020, le kW/h de batterie devrait coûter moins de 200 euros, contre plus de 500 euros aujourd’hui. Or l’Agence internationale de l’énergie estime à 250 euros le coût à partir duquel les véhicules électriques deviennent compétitifs avec les véhicules équipés d’un moteur à combustion interne. Renault vient d’ailleurs d’annoncer qu’en 2016, ses véhicules électriques seraient au tarif des véhicules thermiques équivalents.

Source : science et vie , n° 1144 , janvier 2013 , signé Brice PERRIN

   
© UNION DES INGÉNIEURS ET SCIENTIFIQUES DES SAVOIE - 2011