lundi, décembre 31, 2007

Cellules solaires organiques en V




Une des propriétés les plus critiques des capteurs solaires est leur efficacité à recevoir l'énergie reçue et à la convertir en énergie électrique exploitable. L'équipe du professeur Peumans, de l'université de Stanford en Californie, vient de démontrer comment améliorer cette efficacité pour des cellules solaires en couche mince ("thin film"). Cette étude est parue dans la dernière édition d'Applied Physics Letters.

Les cellules solaires utilisées, de type organiques, souples, peu onéreuses mais peu efficaces, sont constituées de molécules, souvent des pigments ou des polymères et sont déposées sous forme de film sur un substrat, en général flexible et plat. L'idée du professeur et de son équipe consiste à courber le substrat en forme de "V", afin de forcer la lumière à rebondir et donc augmenter la probabilité d'absorption à chaque rebond. Avec cette technique, l'efficacité est augmentée de 52%, ce qui prouve l'intérêt de cette technique, au vu de son faible investissement technologique.

Bien que les démonstrations aient été faites avec des cellules organiques, peu efficaces actuellement face à des approches plus classiques à base de silicium, cette technique devrait être adaptable à d'autres technologies de cellules.

Source: BE Etats-Unis numéro 105 (21/12/2007) - Ambassade de France aux Etats-Unis / ADIT

vendredi, décembre 28, 2007

Loi chatel en faveur des consommateurs a été adoptée

M. Gérard Cornu (Eure-et-Loir - UMP), rapporteur du projet de loi pour le développement de la concurrence au service des consommateurs, se félicite de l'adoption définitive de ce texte qui autorise d'importantes avancées pour le pouvoir d'achat et la protection des consommateurs.

S'agissant des relations commerciales, la réforme du « triple net » va favoriser une nouvelle baisse des prix dans la grande distribution, alors qu'il y a à peine deux ans et demi, le retour partiel des marges arrière vers l'avant suscitait encore de profondes réticences.

En matière de communications électroniques, le renforcement de la protection et de l'information du consommateur est notable, avec notamment la gratuité des temps d'attente pour les appels contraints -hotlines, réclamations et SAV - et la possibilité de résilier les contrats de téléphonie mobile d'une durée de deux ans à partir du 13ème mois, à condition de verser le quart du coût de l'abonnement restant dû.

Les améliorations apportées à l'information des clients dans le domaine bancaire sont également nombreuses, qu'il s'agisse du relevé annuel des frais bancaires et des agios, des conditions de souscription de l'assurance ou encore, pour les prêts à taux variable, de la simulation des effets d'une variation des taux ou du montant du capital restant à rembourser.

A l'initiative de M. Gérard Cornu, le Parlement a par ailleurs procédé à l'encadrement de certaines conditions d'exercice de la vente à distance, un secteur en pleine expansion dont les professionnels ne font pas encore tous usage des meilleures pratiques : pas de surtaxation des communications pour suivre l'exécution de la commande, exercer le droit de rétractation ou faire jouer la garantie, information plus claire sur le statut des biens et services au regard de l'exercice du droit à rétractation, amélioration du remboursement du consommateur ayant exercé ce droit...

Le Parlement a surtout adopté deux mesures jugées essentielles par M. Gérard Cornu, qui les avait proposées :
- la première étend à toutes les personnes physiques les dispositions relatives à l'information sur les contrats annuels à tacite reconduction qui figuraient dans la première loi Chatel, promulguée en janvier 2005 ;
- la seconde permet au juge de soulever d'office toutes les dispositions du code de la consommation dans les litiges nés de son application, mesure qui constitue l'un des apports fondamentaux de ce texte en faveur des consommateurs. Il semble du reste que les associations ne s'y trompent pas...

M. Gérard Cornu considère donc que cette « loi Chatel » est un texte important. Elle fait partie d'un ensemble cohérent mis en oeuvre par le gouvernement. Après la loi TEPA de l'été, cette réforme apportera en effet, en favorisant la baisse des prix dans la grande distribution et dans le secteur des télécommunications, une autre réponse aux attentes de nos concitoyens. Elle sera suivie par la loi pour le pouvoir d'achat en cours de discussion à l'Assemblée nationale, que le Sénat examinera au début du mois de janvier. Enfin, plusieurs questions essentielles (urbanisme commercial, délais de paiement, action de groupe, crédit à la consommation...) seront abordées au printemps, dans le projet de loi pour la modernisation de l'économie qui viendra compléter les efforts de la majorité présidentielle en faveur de l'amélioration du niveau de vie des Français.

source : communiqué du Sénat le 27/12/2007

mardi, décembre 25, 2007

lundi, novembre 05, 2007

le panneau solaire déchiré de l'ISS a été réparé

Le panneau solaire déchiré de la Station Spatiale Internationale a été réparé avec succès samedi 3 novembre 2007 au cours d'une sortie de 7 heures 19 minutes, une des plus risquées jamais entreprises en raison de la nature totalement imprévisible de l'incident et de ses conséquences.

Scott Parazynski a utilisé pour cela de l'outillage entièrement fabriqué à bord de la station, une sorte de petite canne enveloppée d'isolant qui lui a servi à enfiler des morceaux de câble de 1,50 mètre environ pourvus d'attaches aux extrémités au travers d'ouvertures prévues sur les bords du panneau endommagé. Il a d'abord renforcé le côté resté intact afin d'éviter que la déchirure ne l'atteigne en s'agrandissant, puis a rapproché les lèvres de l'ouverture en y passant un renfort. Cinq attelles ont ensuite été mises en place afin de consolider l'ensemble.

La commande de déploiement de l'énorme panneau solaire de 76 mètres d'envergure a enfin pu être transùise, et l'opération s'est déroulée sans le moindre incident.

Scott Parazynski, 46 ans, accomplit en ce moment sa cinquième mission à bord d'une navette spatiale américaine. Il a aussi séjourné sur la Station Mir en 1997 (notamment en compagnie du spationaute français Jean-Loup Chrétien) ainsi qu'à bord de l'ISS (2001 et 2007). Médecin de son état, il ne s'attendrait vraisemblablement pas à effectuer un jour une intervention chirurgicale sur un panneau solaire à près de 300 km d'altitude…

article lu sur Futura Sciences

samedi, septembre 15, 2007

Stocker l'energie éolienne



La découverte promet d’aider les éoliennes ou les centrales solaires à s’affranchir des caprices de la météo. Une équipe d’ingénieurs australiens de l’université de Nouvelle-Galles du Sud, à Sydney, a trouvé le moyen de stocker l’électricité dans des cuves, sous forme liquide. La centrale éolienne de King Island, une île du sud de l’Australie, expérimente ainsi depuis 2003 un accumulateur à circulation qui emmagasine l’excédent d’électricité produit lorsque le vent souffle fort pour le restituer lorsqu’il faiblit.

Ce système pourrait lever l’un des obstacles qui freinent le développement des énergies renouvelables, en leur permettant d’alimenter le réseau en l’absence de vent ou de soleil. A King Island, le générateur thermique qui prend le relais des éoliennes quand il n’y a pas de vent a vu sa consommation de fioul diminuer de moitié. "Le principe de ces batteries est connu depuis longtemps, mais personne n’était parvenu à le mener au stade de la commercialisation", dit Maria Skyllas-Kazacos, l’ingénieur chimiste qui dirige depuis vingt ans les recherches de l’université de Nouvelle-Galles du Sud sur ces accumulateurs.

Contrairement aux batteries classiques au plomb, ces derniers utilisent des électrolytes (liquides dans lesquels baignent les plaques de l’accumulateur) qui ne sont pas stockés à l’intérieur, mais dans deux réservoirs externes. C’est leur mise en contact, dans une cuve centrale, qui produit de l’électricité. Pour la recharge, l’apport de courant provenant des éoliennes assure la séparation des deux électrolytes, qui sont à nouveau stockés dans leurs réservoirs. L’avantage du système à circulation sur les batteries classiques réside dans sa capacité à fournir aussi bien un kilowattheure que plusieurs centaines de mégawattheures.

L’accumulateur de King Island peut ainsi restituer 200 kilowatts d’électricité pendant quatre heures. "Théoriquement, les capacités de stockage sont illimitées : il suffit d’augmenter la capacité des cuves d’électrolytes", confirme Mme Skyllas-Kazacos. Les quatre réservoirs de King Island contiennent 55 000 litres. Pour gagner de la place, il est possible de les entreposer sous terre. Une poignée de centrales éoliennes testent déjà le système, sur l’île japonaise d’Hokkaido ou encore aux Etats-Unis.

source : Le Monde

samedi, septembre 08, 2007

Voyager dans le temps ????

Voici une copie de l'édito du sénateur Tregouet, étonnant...

La machine à explorer le temps, immortalisée par l’écrivain Herbert Georges Wells, pourrait un jour devenir réalité, affirment des scientifiques de l’Institut israélien de technologie, le Technion.

L’équipe annonce avoir mis au point un modèle expérimental qui, dans un futur lointain, pourrait permettre à nos successeurs de voyager dans le temps. Pour réaliser cette machine, les scientifiques se sont reposés sur la théorie de la relativité d’Einstein et le principe de courbure de l’espace.

Selon ces physiciens, il est possible d’entraîner l’incurvation d’un espace-temps dans une direction définie pour rendre possible un retour dans le temps dans un espace-temps parallèle.

"La machine devient elle-même un espace-temps", explique le professeur Amos Ori de la Faculté de physique du Technion. Et, en suivant la théorie du chercheur israélien, c’est le fait même d’en fabriquer une qui autoriserait le voyage dans le passé. "En créant aujourd’hui une machine à remonter le temps, nous rendrions possible le retour dans notre temps aux générations futures. Si nous ne pouvons malheureusement pas nous rendre dans notre passé, c’est parce que nos prédécesseurs n’ont pas créé ce type d’infrastructure pour nous". Le système développé par les scientifiques dépasse certaines des limites rencontrées jusqu’à présent pour élaborer ce type de machines.

Les chercheurs de Technion sont persuadés qu’il est possible de recourir à un espace vide contenant de la matière positive pour remonter dans le temps.

Mais avant de construire ce "chronoscaphe", bien des obstacles, théoriques et pratiques, restent à surmonter, à commencer par le contrôle des champs gravitationnels. D’autres scientifiques ont envisagé d’utiliser un trou noir ou un trou de vers pour voyager dans le temps.

Mais encore faudrait-il pouvoir rentrer dans le trou noir sans être écrasé, étiré et détruit car la singularité centrale est d’une densité infinie. Une solution est envisageable si les trous noirs tournent autour d’un axe central.

Ceci permet de définir un point par lequel il est possible de pénétrer dans un trou noir en toute sécurité. Comme dans l’oeil du cyclone, ce point serait dénué de toute force gravitationnelle !

Autre obstacle, et non des moindres, un trou blanc viole le second principe de la thermodynamique qui veut que dans un système fermé, l’entropie (désordre) ne peut pas décroître, autrement dit, on ne peut pas créer de la matière à partir du néant.

Le voyage dans le temps n’est donc pas pour demain mais il n’est pas définitivement à exclure. Certains physiciens ont en effet émis l’hypothèse, parfaitement possible, en théorie, qu’il existe des "fontaines blanches", qui courberaient l’espace dans le sens inverse et qui, au lieu d’attirer la matière, la cracheraient.

Le trou noir et la fontaine blanche formeraient un trou de ver, sorte de raccourci dans l’espace temps.

Il serait alors possible, en théorie, de fabriquer un trou de ver dont le trou noir est immobile par rapport à nous et dont la fontaine blanche se déplace à des vitesses proches de celle de la lumière. Le temps ne s’écoulera pas de la même manière aux extrémités du tunnel : il sera plus lent du coté de la fontaine blanche. Ainsi, quand deux mois se seront écoulés à l’entrée du trou noir la fontaine blanche sera en retard, dans le passé.

Il suffira alors d’emprunter le trou de ver pour remonter le temps. Au mieux, on ne pourra revenir qu’à la date de création du trou de ver. La machine à remonter le temps est donc un tunnel spatio-temporel dont l’entrée respecte l’évolution du temps, mais dont la sortie reste figée à la date de sa création.

Imaginons que l’on parvienne à créer un tel tunnel le 1er janvier 2050. Si l’on utilise ensuite ce tunnel en 2100, on doit pouvoir en ressortir le 1er janvier 2050.

Mais en admettant que toutes les immenses difficultés techniques et matérielles liées à la réalisation d’une telle machine puissent être surmontées, il reste à résoudre certains paradoxes redoutables comme celui du "voyageur imprudent".

Que se passerait-il en effet si un voyageur temporel revenait dans le passé et tuait son grand père ? Cesserait-il d’exister ? Continuerait-il d’exister dans une autre dimension temporelle parallèle ? Autant de questions passionnantes qui n’ont pas fini de faire les beaux jours des films et romans de Science-Fiction.

Le simple fait que la machine à voyager dans le temps ne soit plus considérée comme une absurdité ou une totale impossibilité scientifique et soit envisagée comme une perspective certes lointaine mais faisable est tout de même fascinant et en dit long sur les extraordinaires avancées dans la connaissance des lois physiques fondamentales qui régissent notre univers.

René Trégouët

lundi, août 13, 2007

L'espace en 3D !

Si vous avez une paire de lunette 3D dans un coin, voici une adresse ou vous pourrez voir des photos 3D de la station spatiale entre autre :
FLASH ESPACE . COM

dimanche, juillet 15, 2007

JOHN BUTLER TRIO, un petit groupe sympa

OCEAN, à écouter en regardant les vagues par "gros temps"



BETTER THAN à TARATATA



et une dernière : Home is where the heart is

mardi, juillet 10, 2007

Une pile à combustible à l'alcool, assez puissante pour entraîner un véhicule

Les scientifiques et étudiants de l'Université d'Offenbourg sont parvenus, après des années de recherche, à concevoir une pile à combustible (PAC) à éthanol assez puissante pour entraîner un véhicule.


Pour ce faire, ils ont repris une technologie dont le développement avait été abandonné il y a 20 ans: la PAC alcaline. A l'époque, on ne disposait pas encore des membranes adaptées au fonctionnement d'une telle pile. Aujourd'hui, l'utilisation de membranes initialement développées pour le traitement des eaux usées a permis aux chercheurs de concevoir une PAC alcaline fonctionnant à l'éthanol et d'une taille satisfaisante.

Contrairement au type le plus répandu de PAC, dit à membrane échangeuse de protons (ou PEMFC), la PAC alcaline présente l'avantage de tolérer des catalyseurs assez efficaces pour permettre la rupture d'une liaison C-C, rupture nécessaire au déroulement de la réaction d'oxydoréduction. Montée sur un véhicule dénommé "Schluckspecht" (le poivrot), la pile a ainsi pu entraîner l'engin sur le circuit Paul Armagnac dans le sud de la France à l'occasion de l'Eco-Marathon 2007 organisé par le groupe Shell, et remporter le 2ème prix.

Les piles à combustibles (PAC) produisent de l'électricité via une réaction d'oxydoréduction impliquant en général de l'hydrogène (à la cathode) et de l'oxygène (à l'anode). Ces deux réactifs sont séparés par une membrane (électrolyte) de part et d'autre de laquelle sont disposés des catalyseurs. L'hydrogène est oxydé à l'anode, c'est-à-dire décomposé en protons et en électrons. Dans le cas de la PEMFC, la particule chargée positivement traverse l'électrolyte et se retrouve à la cathode, pendant que l'électron simultanément libéré circule dans un circuit extérieur. Ce circuit contourne la membrane pour atteindre lui aussi la cathode. Là, l'électron réagit avec le proton et l'oxygène: un courant électrique est créé.

L'utilisation d'un autre combustible que l'hydrogène, comme l'éthanol par exemple, rend la réaction chimique plus difficile: celle-ci implique en effet la rupture d'une liaison C-C, d'où la nécessité d'utiliser un catalyseur plus puissant. Or les catalyseurs potentiellement adaptés ne sont pas stables dans le milieu nécessairement acide de la PEMFC.

Source: BE Allemagne numéro 339 (14/06/2007) - Ambassade de France en Allemagne / ADIT

samedi, juillet 07, 2007

Chikungunya: des cellules cibles du virus identifiées

Des chercheurs de l'Institut Pasteur et du CNRS viennent de marquer une avancée dans la compréhension de la maladie due au virus Chikungunya (maladie de "l'homme courbé"), qui sévit actuellement en Inde et au Gabon, en identifiant pour la première fois des cellules cibles du virus. Leurs résultats, menés en collaboration avec des cliniciens de l'île de la Réunion, sont publiés dans PLoS Pathogens et dans PLoS ONE.

Le virus Chikungunya, découvert en Tanzanie en 1952, et la maladie qu'il provoque ont été jusqu'ici très peu étudiés. L'épidémie qui a sévit dans des îles de l'Océan Indien en 2005-2006 (270 000 cas) avait conduit à la mobilisation d'une douzaine d'équipes de l'Institut Pasteur à Paris, désormais engagées dans l'étude de cette maladie négligée. Des équipes pasteuriennes avaient notamment retracé l'histoire évolutive du virus Chikungunya dans l'Océan Indien, grâce au séquençage de plusieurs souches virales ayant circulé au cours de l'épidémie (voir communiqué du 23 mai 2006). Le Chikungunya a depuis provoqué une vaste épidémie en Inde, faisant entre 1,4 et 6,5 millions de cas entre 2005 et 2007, et touche actuellement le Gabon, où quelque 11 500 cas ont été répertoriés depuis mi-avril 2007.

La première question-clé pour l'étude de la pathogenèse de cette maladie porte sur le tropisme du virus: quelles sont les cellules qu'il infecte dans l'organisme ? L'étude aujourd'hui publiée visait à répondre à cette question. Elle a été menée par l'équipe d'Olivier Schwartz - Unité Virologie (CNRS URA 3015) à l'Institut Pasteur -, en collaboration avec plusieurs équipes de l'Institut Pasteur et du Groupe Hospitalier Sud Réunion.

Les chercheurs ont tout d'abord adapté des outils (cytométrie de flux, immunofluorescence, microscopie électronique...) permettant de visualiser et de quantifier le virus. Ils ont ainsi pu démontrer in vitro que celui-ci ne se multipliait pas dans les cellules sanguines circulantes (lymphocytes, monocytes), mais qu'il se répliquait dans les macrophages (cellules phagocytaires d'origine sanguine et localisées dans les tissus). Ces cellules pourraient donc être impliquées dans l'infection des tissus qu'on sait touchés par la maladie, comme les muscles et les articulations. Le virus infecte également la plupart des cellules dites "adhérentes": cellules endothéliales, cellules épithéliales, fibroblastes... Les chercheurs souhaitent aujourd'hui identifier les voies d'entrées du virus dans ces types cellulaires, et aussi mieux comprendre les interactions du virus avec le système immunitaire. Leur travail pourrait d'ores et déjà permettre de tester des médicaments en culture cellulaire, en vue de sélectionner ceux qui inhibent l'infection des cellules cibles.

Parallèlement, une autre étude menée par Pierre-Emmanuel Ceccaldi et Simona Ozden dans l'Unité Epidémiologie et physiopathologie des virus oncogènes à l'Institut Pasteur, dirigée par Antoine Gessain, en collaboration avec d'autres équipes de l'Institut Pasteur, de l'Institut de Myologie de Paris, et avec des cliniciens de Saint-Denis de la Réunion, a permis de montrer que, chez les personnes infectées, certaines cellules présentes dans le tissu musculaire sont des cibles du virus Chikungunya. Leur travail, récemment publié, s'appuie sur l'étude de biopsies de malades. Ils ont trouvé dans une biopsie prélevée en phase aiguë de la maladie chez un patient, et dans une autre prélevée à un stade plus tardif chez une autre patiente, que les cellules précurseurs des cellules musculaires – les cellules satellites – étaient infectées par le virus. De plus, ces cellules s'avèrent, en culture cellulaire, très permissives au virus. Les auteurs cherchent aujourd'hui à savoir si ces cellules ne joueraient pas un rôle de "réservoir" du virus, ce qui expliquerait les récidives des douleurs musculaires observées chez certains patients.

Ces premières étapes clés de l'étude du Chikungunya sont de nouveaux résultats - après le séquençage des virus de l'Océan Indien publié l'an dernier - de la forte mobilisation des chercheurs de l'Institut Pasteur, qui travaillent aussi notamment sur la transmission mère-enfant, la physiopathologie de la maladie, les relations entre le virus et les moustiques vecteurs, et séquencent actuellement des souches de virus qui circulent au Gabon.

Article de Technoscience du jeudi 5 juillet
Source CNRS

samedi, juin 09, 2007

THX1138

Un film réalisé par George Lucas lorsqu'il était étudiant , A voir ... et à revoir pour tout comprendre ...

vendredi, mai 18, 2007

Transformer les toits en panneaux solaires grâce à un spray !

Chaque jour, notre Terre reçoit une quantité d’énergie solaire suffisante pour couvrir sa consommation totale d’énergie pendant 27 ans ! Pourra-t-on un jour transformer, à l’aide d’un simple spray, une simple plaque d’acier sur un toit, en un panneau solaire. Oui, d’ici 5 ans, grâce aux recherches menées par la société Corus Colors, avec le concours de chercheurs britanniques des universités de Bath, Bangor, Swansea et de l’Imperial College de Londres.

Leur projet triennal, cofinancé par le ministère du commerce et de l’industrie, a pour objectif de concevoir un revêtement à cellules solaires nanocristallines à colorant, utilisable sur les toits des entrepôts et supermarchés. Ces cellules (appelées DSSC pour Dye-Sensitised Semi-conductor Cells) sont des nanostructures en oxyde de titane capables de convertir la lumière en électricité. Leur taille infime permettrait de les projeter en spray sur des feuilles d’acier.

Le recours aux DSSC présente plusieurs avantages. Celles-ci ne contiennent pas de silicium, un produit qui coûte cher. Elles ont, en outre, un très bon rendement sur une plage d’intensité lumineuse variable. L’intérêt principal de cette technique réside dans la possibilité d’équiper de grandes surfaces de toits disponibles. Les entrepôts, les usines ou les supermarchés sont fréquemment recouverts d’au moins 20 000 m2 d’acier. Ces surfaces permettraient, selon David Worsely, de l’université de Swansea, de générer des quantités raisonnables d’électricité, même en tenant compte du taux de conversion des DSSC, inférieur à celui des cellules photovoltaïques en silicium.

L’équipe envisage d’enduire directement les rouleaux d’acier grâce à des techniques déjà utilisées par Corus Colors pour les revêtements de bâtiments. Mais il faut, par exemple, s’assurer de la résistance du revêtement à la corrosion, et protéger la "peinture" des dégradations dues au rayonnement solaire.

A Londres, l’Imperial College s’intéresse depuis longtemps aux DSSC, co-inventées par certains de ses chercheurs. Cet institut sera chargé de les fabriquer, en collaboration avec l’université de Bath, en testant plusieurs combinaisons de nouveaux matériaux. La production de ce revêtement incombera ensuite à Corus Colors. Selon le chef de projet, Maarten Wijdekop, le produit devrait être commercialisé aux alentours de 2012.

Sachant qu’il existe environ 100 millions de m2 de toits recouverts de tôles d’acier et que la quantité moyenne d’énergie solaire reçue en Grande -Bretagne est de 900 kWh par mètre carré et par an, si le rendement de cet enduit solaire est de 6 %, ces 100 millions de m2 de toits pourraient produire 5400 GWh par an d’électricité solaire, soit plus de 5 % de toute l’électricité consommée annuellement en Grande-Bretagne.

source http://gow.epsrc.ac.uk/ViewGrant.aspx?GrantRef=EP/E03585X/1

dimanche, mai 06, 2007

La loi de Moore en 3D ? ? ?

IBM a annoncé une nouvelle percée dans la technologie d'empilement de puces 'chip stacking' en environnement de production, qui fait passer la microélectronique d'une technologie traditionnelle 2D à une technologie vraiment 3D.

Cette nouvelle technique permet à différents composants microélectroniques d'être assemblés directement les uns sur les autres grâce à de multiples trous ('vias') percés dans le silicium et remplis de métal. L'empilement réduit la longueur des fils d'interconnexions d'un facteur 1000 et multiplie le nombre de canaux de transmission inter-puces d'un facteur 100, ce qui permet aux différentes parties de la puce de communiquer beaucoup plus rapidement entre elles. Ceci devrait permettre, selon IBM, d'accélérer la loi de Moore au-delà des limites envisagées actuellement, et d'ouvrir la voie à de nouvelles familles de composants plus petits, plus rapides et moins consommateurs d'énergie.

Cette technique est le résultat de 10 années de recherche dans les laboratoires IBM. Elle est déjà utilisée dans les lignes de production d'IBM et les premiers produits disponibles aux consommateurs devraient apparaître en 2008, avec de premiers lots d'échantillons fin 2007.

Les premières applications verront le jour dans trois domaines:
- les communications sans fil, avec notamment des amplificateurs de puissance (+40% pour des produits Si-Ge) ;
- des processeurs de puissance, l'empilement permettant de placer la source de puissance plus près des différents coeurs des nouveaux processeurs multi-coeurs, augmentant ainsi la puissance disponible, la vitesse et la consommation d'énergie du processeur (jusqu'à 20%) ;
- enfin IBM est en train d'expérimenter cette technologie sur le processeur qui pilote l'ordinateur le plus puissant au monde: le superordinateur Blue Gene. L'objectif est d'empiler des composants à haute performance, des processeurs sur d'autres processeurs, ou des mémoires sur des processeurs. A cette fin, une SRAM utilisant la technologie d'empilement 3D est en cours de fabrication dans la ligne de production 300mm d'IBM utilisant la technologie 65nm.

C'est la cinquième percée majeure d'IBM en 5 mois, dans sa quête incessante de poursuite de la loi de Moore. En décembre, l'entreprise a annoncé la première puce 45nm utilisant la lithographie par immersion et les interconnections diélectriques 'ultra-low-k'. En janvier, elle annonçait simultanément avec Intel, la production de transistors avec grille métallique et diélectrique 'high-k'. En février, elle révélait une technologie de mémoire embarquée eDRAM montrant le temps d'accès le plus court jamais mesuré. Enfin, en mars, elle dévoilait un prototype d'émetteur/récepteur optique capable d'atteindre des vitesses 8 fois plus élevées que les composants actuels.

Source: BE Etats-Unis numéro 76 (27/04/2007) - Ambassade de France aux Etats-Unis / ADIT

dimanche, avril 22, 2007

L'Etat veut-il tuer Internet en France ?, par Philippe Jannet

Article parru dans le Monde du 20/04/2007 :

Discrètement, en marge de la campagne, le gouvernement prépare un décret qui, s'il était appliqué, tuerait l'Internet "made in France". En effet, sous prétexte de surveiller au plus près les internautes, un décret d'application de la loi sur la confiance dans l'économie numérique du 21 juin 2004, exige que les éditeurs de sites, les hébergeurs, les opérateurs de téléphonie fixe et mobile et les fournisseurs d'accès à Internet, conservent toutes les traces des internautes et des abonnés au mobile, pour les délivrer à la police judiciaire ou à l'Etat, sur simple demande.

u-delà du coût incroyable que cette conservation représenterait, cette mesure ne pourrait que déclencher une défiance immédiate des Français à l'égard de leur téléphone mobile ou fixe, comme à l'égard des acteurs français d'Internet, assassinant instantanément l'économie numérique française, pourtant décrite comme stratégique par nos chers candidats.

Le décret en préparation exprime le fantasme "Big Brother" : tout savoir sur tout et tous, même l'impossible. Selon ce texte, les opérateurs téléphoniques, les fournisseurs d'accès à Internet, les hébergeurs et les responsables de services en ligne (sites Web, blogs, etc.), devraient conserver pendant un an à leurs frais toutes les coordonnées et traces invisibles que laissent les utilisateurs lors d'un abonnement téléphonique ou à Internet, lors de leurs déplacements avec un téléphone allumé, lors de chaque appel ou de chaque connexion à Internet, de chaque diffusion ou consultation sur le Web d'un article, d'une photo, d'une vidéo, ou lors de chaque contribution à un blog.

En substance, devraient être conservés les mots de passe, "pseudos", codes d'accès confidentiels et autres identifiants, numéros de carte bancaire, détails de paiement, numéros de téléphone, adresses e-mail, adresses postales, le numéro de l'ordinateur ou du téléphone utilisé, le moyen d'accès à un réseau, les date et heure d'appel, de connexion et de chacune de leurs consultations ou contributions sur un site Internet.

A tant vouloir être exhaustif, le texte imposerait d'identifier quiconque, en France, aura mis en ligne, modifié ou supprimé une virgule dans son blog, un "chat", ou sur le Web. Techniquement, on peut, certes, tenter de savoir qui s'est connecté à un site et constater sur Internet ce qu'il diffuse à un instant donné.

Mais en cherchant à conserver la trace de la publication d'un contenu qui aura, par la suite, été retiré, le texte impose de facto de mémoriser systématiquement tout ce qui est mis en ligne, modifié et supprimé sur "l'Internet français". De l'avis unanime des spécialistes, c'est économiquement et techniquement impossible. Même les Etats-Unis de George W. Bush et leur "Patriot Act" post-11-Septembre n'ont jamais envisagé pareille conservation ou réglementation, qui soulèverait sans doute l'opinion publique américaine d'aujourd'hui, mais s'opère sans bruit en France.

Le coût, aussi bien pénal qu'économique, d'un tel dispositif serait colossal pour la France. En cas de résistance, ou juste de passivité, la sanction encourue est lourde : les fournisseurs d'accès à Internet ou les sites Internet français qui ne conserveraient pas toutes ces données seront passibles de 375 000 euros d'amende et leurs dirigeants, d'un an d'emprisonnement et 75 000 euros d'amende, sans compter la fermeture de l'entreprise, l'interdiction d'exercer une activité commerciale, etc.

Lors d'une réunion organisée en catimini le 8 mars 2007 par les ministères de l'intérieur et des finances - le ministère de la justice jouait, une nouvelle fois, les absents -, certains professionnels ont fait valoir, notamment, que cette conservation leur coûterait très cher en stockage informatique et en moyens humains. De plusieurs dizaines de milliers à plusieurs millions d'euros par an de perte nette.

Pourtant, la plupart des sites Web, les Web radios, les blogs, la vidéo à la demande ou mobile, sont encore en quête d'un modèle économique pérenne. Déjà insécurisée par la complexité des enjeux de propriété intellectuelle, l'économie numérique de demain - celle du contenu et pas seulement de l'accès - serait encore fragilisée par une telle surenchère réglementaire franco-française.

En imposant aux entreprises françaises d'être des auxiliaires de justice ou des "indics", l'Etat fragilise tout un pan de l'économie de demain et de la démocratie d'aujourd'hui, en favorisant qui plus est, la domination déjà outrancière des grands acteurs internationaux de l'Internet, qui ne seront pas impactés à l'étranger. Jusqu'alors, seuls les fournisseurs français d'accès à l'Internet et hébergeurs étaient soumis à cette exigence et l'Etat, qui avait promis des compensations financières aux coûts induits par une surveillance des moindres faits et gestes de leurs clients, met tant de mauvaise grâce à s'acquitter des indemnités dues que certains d'entre eux ont renoncé à en réclamer le règlement, préférant envisager la délocalisation pure et simple de leurs activités...

Ces menaces proférées par quelques poids lourds de l'Internet en France font sourire Bercy, qui semble n'avoir pas encore compris qu'Internet est un réseau mondial dont de nombreux prestataires peuvent s'établir et payer leurs impôts presque où bon leur semble.

Il reste que la confusion des genres est totale. Toutes les données conservées seraient accessibles à la police administrative (RG, DST, etc.) comme à la police judiciaire, pendant un an. Les réquisitions administratives pour la "prévention du terrorisme" seraient également conservées un an dans des fichiers tenus par les ministères de l'intérieur et de la défense. Les réponses à ces mêmes réquisitions - nos traces, donc - seraient, pour leur part, conservées pendant trois ans supplémentaires et communicables à la police judiciaire.

Ainsi, des données récoltées sur la base de requêtes administratives initialement motivées par la prévention du terrorisme pourraient se retrouver dans le dossier d'un juge d'instruction en charge d'une affaire de droit à l'image, de diffamation ou de contrefaçon, par exemple, sans que les personnes mises en cause par des traces informatiques vieilles de 4 ans, puissent connaître - ni contester - l'origine ou la pertinence de ces données, ni le contexte dans lequel elles avaient été recueillies, en dehors de toute procédure judiciaire, sans magistrat ni contradictoire, quatre ans auparavant.

vendredi, avril 06, 2007

Le TGV fait tomber un nouveau record



Une vitesse homologuée de 574,8 km/h : record battu, et largement, pour le TGV. La rame de l'exploit, baptisée "V150" - pour 150 mètres par seconde, soit 540 km/h - s'est élancée ce mardi à 13 heures depuis le point kilométrique 264 de la ligne à grande vitesse Est-européenne, dans le sens province-Paris, avant d'atteindre sa vitesse de pointe un quart d'heure plus tard, au point kilométrique 191. Le record précédent, 515,3 km/h, remontait à mai 1990.

Un exploit technique et industriel préparé depuis plusieurs mois avec une machine surpuissante. Peinte en noir, la "V150" avait été conçue spécialement : les deux motrices avaient vu leur puissance "gonflée", des moteurs supplémentaires avaient été répartis le long du train et les roues étaient plus grandes que sur un TGV normal, de façon à assurer de très hautes vitesses sans faire surchauffer les moteurs. Sur la ligne elle-même, la puissance électrique avait été fortement augmentée et la caténaire chargée d'alimenter le convoi renforcée, de même que le ballast.

Un commutateur moléculaire pour l'électronique

Une équipe de chercheurs germano-espagnols ont développé le plus petit commutateur électrique, au sein duquel le transmetteur de signal est une molécule.

Actuellement, l'objectif principal pour le développement des ordinateurs et autres appareils électroniques est: "de plus en plus petit, de plus en plus efficace". Aujourd'hui par exemple, la longueur d'un transistor en silicium ne dépasse pas 90nm et les futurs composants ne devraient pas être plus gros qu'une molécule. On parle alors "d'électronique moléculaire", à la frontière entre la physique quantique et l'électronique.

Le groupe de recherche, formé de jeunes chercheurs de Ratisbonne et de scientifiques de l'université de Madrid, a récemment réussi à simuler un circuit d'électronique moléculaire, dans lequel l'azobenzol (molécule organique) joue le rôle de commutateur électrique. La fondation Volkswagen soutient ce groupe de travail avec 960.000 euros.

Il existe différents isomères de l'azobenzol qui ont des propriétés différentes. Par exemple, ceux-ci réagissent différemment sous l'influence d'un champ électrique et c'est cette propriété que les chercheurs souhaitent exploiter en électronique moléculaire. Afin d'étudier les propriétés de conduction de la molécule d'azobenzol et de ses isomères, les physiciens de Ratisbonne effectuent des simulations informatiques complexes. Dans le modèle, la molécule est liée chimiquement à deux nanotubes métalliques qui agissent comme des nanoélectrodes. En appliquant une tension électrique, les charges peuvent alors traverser la molécule. Les simulations ont révélé qu'une modification de la structure moléculaire (induite par exemple par rayon laser de différentes longueurs d'onde) pourrait modifier complètement l'intensité du courant électrique et permettre ainsi de réaliser un interrupteur à l'échelle moléculaire. Ce phénomène est la conséquence des propriétés de l'azobenzol, qui sous l'action de la lumière polarisée vibre dans une seule direction.

Le Dr. Gianaurelio Cuniberti et son équipe projettent maintenant d'étudier l'efficacité et la stabilité de cet interrupteur moléculaire. Les résultats des premières expériences sont publiés dans la revue Nature Nanotechnology du mois de mars 2007.

Source: BE Allemagne numéro 326 (15/03/2007) - Ambassade de France en Allemagne / ADIT

dimanche, mars 25, 2007

A320 fantôme en Chine…

Alors que le constructeur AVIC 1 vient de déclarer qu’il pouvait mettre sur le marché un avion de ligne moderne dès les années 2010 – 2020, AIRBUS a aussitôt fait la relation avec l’étrange disparition d’un A320 en Chine. Il s’agit d’un appareil effectivement livré à Pékin, mais qui n’est jamais apparu dans la flotte d’aucune compagnie et dont il n’existe aucune trace de suivi technique, comme cela se pratique pour tous les avions. L’hypothèse la plus probable serait que cet A320 fantôme se trouve dans une discrète usine du pays pour y être démonté et étudié pièce par pièce.



Lu dans Air et Cosmos du 16 mars 2007

jeudi, mars 08, 2007

Un TGV de test aurait déjà franchi la barre des 550 km/h

Pour le moment, la nouvelle est seulement officieuse. La rame de TGV construite pour battre le record du monde de vitesse pour un train classique aurait déjà dépassé les 550 km/h sur la LGV Est. Selon la presse dont le journal "Le Parisien", le record aurait été battu par la rame spécialement construite à cet effet mardi, en atteignant 553 km/h. Les derniers chiffres font même état de 554,3 km/h.

Il semble donc que les ingénieurs n'auront aucun mal à battre officiellement le précédent record de vitesse en avril prochain (513 km/h). L'objectif officiel initial était de 540 km/h, mais on parle de plus en plus de 560 voire 570 km/h. Toutefois, la barre des 600 km/h semble toujours exclue. En service commercial, les convois à grande vitesse ne dépasseront pas les 320 km/h.

La rame d'essais de vitesse a été spécialement conçue à cet effet et se compose de deux motrices pour 3 voitures duplex. Ces tests ont pour but d'étudier le comportement des infrastructures, notamment les rails et les caténaires, dans des conditions extrêmes de vitesse. Les principales limites aux très grandes vitesses sur rail sont plus liées aux équipements qu'à des problèmes de puissance ou de traction.

mercredi, mars 07, 2007

samedi, mars 03, 2007

Le "Décibel d'Or" pour la technologie "Zero-Splice" d'Airbus

En décembre dernier, le prestigieux trophée de protection environnementale, le "Décibel d'Or", a été remis à l'avionneur européen Airbus. Sa technologie "Zero-Splice", dont il détient le brevet, a permis en effet une réduction du bruit au décollage qui atteint jusqu'à 0,4 EPNdB (Effetive Perceived Noise levels, soit le niveau effectif de bruit perçu), grâce à une réduction du niveau de pression acoustique (SPL) du bruit de la soufflante atteignant jusqu'à sept décibels.


Rappelons au passage que le bruit généré par la soufflante des moteurs représente presque la moitié du bruit produit à l'approche et au décollage. Le gain obtenu est d'autant plus important qu'il apporte à l'A380 un avantage de dix tonnes au décollage, qu'il s'agisse d'augmentation de rayon d'action ou de charge marchande.

C'est à la suite des travaux menés par Airbus concernant les méthodes de réduction du niveau sonore de la soufflante qu'il est apparu que les jonctions des panneaux acoustiques de la nacelle sont à l'origine d'une distorsion importante du bruit de la soufflante avant et rendent les traitements acoustiques moins efficaces. Aussi l'avionneur européen a-t-il conçu le revêtement de nacelle "Zero-Splice" sous forme d'une seule pièce de 360° en composite, comparable en taille à un fuselage d'A320.

Aujourd'hui, Airbus poursuit ses recherches sur les nacelles "moindre-bruit" et développe notamment le concept RAMSES (Reduced Acoustic Mode Scattering Engine System duct), pour lequel il détient également un brevet. Il s'agit alors d'étendre le principe "Zero-Splice" sur la totalité de l'entrée d'air, en vue d'obtenir une réduction sonore encore plus grande. Une technologie dont pourraient bénéficier les nacelles des futurs avions Airbus.

Source: BE France numéro 188 (22/02/2007) - ADIT

dimanche, février 18, 2007

Un ordinateur pour lire sur les lèvres

L'Université d'East Anglia au Royaume-Uni, sous la direction du Dr Richard Harvey, prépare des ordinateurs capables de lire sur les lèvres dans différentes langues.

L'équipe du Dr Harvey a récemment reçu une aide du conseil de recherche EPSRC (Engineering and Physical Sciences Research Council) de près de 400.000 livres (environ 600.000 euros) pour développer en trois ans un langage informatique indépendant de lecture sur les lèvres. Ce projet permettra d'implémenter le logiciel sur des caméras fixes telles que CCTV, Web Cam etc.

De nombreuses applications commerciales sont envisagées pour cette technologie: dans les voitures, par exemple, les systèmes de reconnaissance vocale deviennent défaillants dès que des bruits étrangers interfèrent par la fenêtre ouverte, etc.). Avec ce système, le bruit ne parasiterait plus la détection.

Il convient donc d'obtenir une image très précise du visage et plus précisément des lèvres. L'équipe du Dr Harvey s'est donc associée au département Centre for Vision, Speech, and Signal Processing (CVSSP) de l'Université de Surrey, dirigé par le professeur Richard Bowden, spécialisé dans la reconnaissance de forme sur les personnes.

La branche scientifique du Home Office (Ministère de l'intérieur britannique) espère travailler sur la possibilité d'utiliser cette technique pour lutter contre la criminalité. Le projet se déroulera sur trois ans, de mars 2007 à février 2010.

Source: BE Royaume-Uni numéro 73 (6/02/2007)

dimanche, février 04, 2007

Corot fin prêt: réussite du test de pointage de haute précision

Un mois après le lancement parfaitement réussi et deux semaines après la réalisation de la première image (voir notre news), les opérations critiques de vérification et de mise en configuration du satellite Corot ont toutes été menées avec succès par les équipes du CNES et des laboratoires associés du CNRS (Laboratoire d'Etudes Spatiales et d'Instrumentation en Astrophysique (Observatoire Paris Meudon) et le Laboratoire d'Astrophysique de Marseille (Observatoire Astronomique de Marseille Provence) .


Vue d'artiste du télescope Corot en situation

Elles se sont conclues par la mise en route d'un mode de pointage innovant qui utilise l'instrument lui-même comme un super senseur stellaire. Les premières performances relevées sont bien meilleures que les spécifications (moins de 0,5 secondes d'arc, soit environ un dix-millième de degré).

Le bon fonctionnement du satellite va donc permettre de démarrer très rapidement la première observation et ainsi de mettre l'ensemble du système Corot au service de la Science, en respectant les engagements du CNES tant sur le plan des performances techniques que sur celui du calendrier.

Source: ESA
Illustration: CNES - D. Ducros

dimanche, janvier 28, 2007

ATR vers une future génération de turbopropulseurs

ATR s’est choisi un leitmotiv : l’innovation. Lors de la présentation de ses résultats le 25 janvier, le constructeur franco-italien a de nouveau prouvé qu’il ne se reposait pas sur ses 60% de parts de marché. Au contraire, il a démontré qu’il se plaçait toujours dans une optique d’amélioration en continu. Il travaille sur une nouvelle cabine, une nouvelle avionique, une nouvelle motorisation voire, pourquoi pas, un tout nouvel appareil.

Les toutes dernières innovations ont été introduites il y a quelques semaines dans un appareil de Kingfisher Airlines. La compagnie indienne a reçu le premier turbopropulseur au monde équipé de l’éclairage par diodes électroluminescentes (LED) et d’un système de divertissement en vol (IFE). L’éclairage par LED est alors devenu le standard sur les ATR : tous les prochains turbopropulseurs seront dotés de ce système composé de quatre tubes de lumière, permettant de varier la luminosité dans la cabine, plus léger et plus économique que le système actuel. Le divertissement en vol restera en revanche en option.
Mais ATR travaille également sur un nouveau de concept de cabine qui devrait être présenté lors du prochain salon du Bourget au mois de juin et remplacera à terme l’actuelle cabine « Elégance ». Une nouvelle suite avionique devrait également voir le jour. Le but d’ATR est de proposer un cockpit dans l’air du temps, dans lequel toutes les informations s’affichent sur des écrans (Glass Cockpit et sacoches de vol électroniques).

Filippo Bagnato a également annoncé la certification prochaine, prévue pour le premier semestre 2007, d’une nouvelle motorisation : le PW127M de Pratt & Whitney. Il devrait offrir une poussée accrue de 5% et de meilleures performances par temps chaud, en haute altitude et pour les décollages sur pistes courtes.

Enfin, il a évoqué la nouvelle génération de turbopropulseurs. Elle devrait voir le jour vers 2015, vingt ans après le lancement des ATR 42-500 (1995) et 72-500 (1997). ATR souhaite en effet réduire l’écart technologique à venir entre ses appareils et les futurs monocouloirs des constructeurs Airbus et Boeing annoncés pour le milieu de la prochaine décennie.
source Aérocontact/Emilie Drab

jeudi, janvier 25, 2007

La NASA va enfin adopter le système métrique

La NASA a finalement accepté de lancer ses futures missions lunaires en utilisant le système métrique décimal. Les propres scientifiques de l'Agence ont enfin eu gain de cause alors qu'ils en faisaient la demande depuis qu'une erreur de calcul due à une confusion entre miles et kilomètres avait provoqué l'échec de la mission d'une sonde martienne.

L'espace est devenu un business international et la NASA indique que seuls les Etats-Unis, la Birmanie et le Libéria utilisent toujours les miles pour mesurer les distances. L'agence spatiale, après des entretiens avec ses homologues de 15 autres nations, a annoncé la semaine dernière que le futur projet lunaire serait réalisé en utilisant uniquement le système métrique (et les unités SI).

En 1999, la sonde Mars Climat orbiter avait atteint Mars, mais était entrée sur une orbite beaucoup trop basse et s'était écrasée dès son premier passage au-dessus de la face cachée de la planète. La NASA avait plus tard révélé que ses ingénieurs s'étaient embrouillés lors de la simple conversion d'unités métriques en unités impériales (américaines !) d'une information orbitale.

La NASA a commencé à utiliser les mesures métriques pour quelques missions dès 1990, mais pour la plus grande partie d'entre elles, les navettes spatiales ou l'ISS par exemple, les miles, livres et gallons sont toujours de mise.

"Mon unité impériale favorite est le slug. La puissance de lancement de la navette est mesurée en slug", ironise Ben Quine, professeur d'ingénierie spatiale de l'université d'York. (Le slug est défini comme étant la masse qui, soumise à une force d'une livre, reçoit une accélération d'un pied par seconde par seconde).

Selon lui, le changement ne sera pas facile pour les américains. "Mais tout le monde doit faire attention avec les unités lors des conversions." Cependant il pense qu'à la longue, les calculs seront facilités. "Le pied est défini d'après la taille du pied d'un des rois d'Angleterre. Je ne me souviens pas lequel. Ce n'est vraiment pas une bonne façon d'envoyer des gens dans l'espace que de se baser sur la taille du pied d'un roi mort."

Source: The Ottawa Citizen

lundi, janvier 01, 2007