vendredi, décembre 30, 2005

Le chocolat noir bon pour le cœur !

Voilà une étude dont les résultats réjouiront tous les amateurs de chocolat noir. Cette étude, publiée dans la très sérieuse revue « Heart » démontre en effet l’effet positif pour les artères des fumeurs de 40 grammes de chocolat noir comparé à celui de 40 grammes de chocolat blanc du même fabricant helvétique. Le chocolat peut accroître le risque cardiovasculaire à cause de ses effets sur le glucose (sucre), les lipides (graisses) et le poids corporel, ou au contraire avoir un potentiel positif pour la santé cardiovasculaire à cause de ses effets antioxydants, résument les chercheurs dans une "lettre scientifique".

Les flavonoïdes présents dans le chocolat noir mais pas dans le chocolat blanc ont des propriétés antioxydantes. Pour comparer les effets de chocolats noirs et blancs de même marque, ils ont enrôlé une vingtaine de fumeurs à titre de cobayes. Privés pendant vingt-quatre heures d’autres antioxydants (thé noir ou vert, oignons, pommes, choux, vin, produits à base de cacao), dix cobayes ont ingéré 40 grammes de chocolat noir (à 73 % de cacao) et dix autres ont savouré 40 grammes de chocolat blanc (4 % de cacao).

Bilan : le chocolat blanc n’a eu aucun effet sur les cellules tapissant les artères, les plaquettes intervenant dans la formation des caillots sanguins, ni sur les taux d’antioxydants contenus dans le sang. Le chocolat noir est sorti gagnant : des échographies-Doppler ont montré que le chocolat noir entraînait une amélioration de la circulation dans les artères deux heures après son ingestion et que cet effet positif se maintenait pendant huit heures. Le taux d’antioxydants présents dans le sang a augmenté. Les chercheurs estiment que les effets positifs constatés sont "très vraisemblablement" liés aux effets antioxydants du chocolat noir.

source : tregouet et http://heart.bmjjournals.com/cgi/content/extract/92/1/119?

samedi, décembre 24, 2005

jeudi, décembre 22, 2005

Star Wars et la physique: le sabre laser



La dénomination "sabre laser", prise au pied de la lettre, pose plusieurs problèmes.
Tout d'abord le laser se propage en ligne droite, à moins de subir une déflection au cours de sa trajectoire. Ainsi une lame laser ne devrait pas être visible. De même on ne voit le faisceau d'un pointeur laser que dans une atmosphère diffusante, où de minuscules poussières interagissent avec le faisceau et le réemmettent dans toutes les directions.
De plus, le faisceau laser n'est pas naturellement limité en taille. Il se propage en ligne droite jusqu'à être absorbé. Pour un combat dans un vaisseau spatial, les conséquences sont catastrophiques, chaque mouvement de lame provoquant le découpage intempestif de tout ce qui se trouve sur le chemin du faisceau, y compris la coque du vaisseau.. Limiter la taille de la lame requiert au moins l'utilisation d'un miroir réfléchissant en bout de course.
Une autre observation difficile à interpréter dans ce cadre est le "choc" produit par la rencontre de deux sabres. Les photons constituant un laser ne peuvent "s'entrechoquer" avec d'autres photons.


L'arme des Jedi évoquent en fait l'utilisation de plasma, plutôt que d'un laser. Un plasma, gaz chauffé à tel point que tous les atomes le composant sont séparés d'un ou plusieurs de leurs électrons, rayonne dans toutes les directions. Sa température fixe les caractéristiques du rayonnement émis, notamment sa couleur.
On utilise aujourd'hui des "torches plasma" pour la destruction de déchets ou la découpe de métal. Le plasma est alors un gaz ionisé sous l'effet d'un arc électrique, et atteint des températures de plusieurs milliers de degrés.
On peut modeler la forme du plasma à l'aide d'un champ magnétique: ce champ modifie les trajectoires des particules chargées constituant le plasma, et les confine dans une région de l'espace. C'est également le principe de confinement utilisé dans les tokamaks, pour réaliser la fusion nucléaire (dont le projet ITER sera la prochaine grande étape).

On peut ainsi réaliser un "sabre plasma" de belle allure, au pouvoir destructif important. On a en prime la possibilité de "chocs" entre sabres: de même que deux aimants peuvent se repousser sous l'effet de leurs champs magnétiques, on peut imaginer que le croisement de deux sabres soit rendu impossible par la présence d'un champ magnétique.

mercredi, décembre 21, 2005

Boeing: Le 747 nouveau est lancé

Comme prévu, Boeing a donné le coup d'envoi officiel d'une nouvelle famille de 747, en lançant mardi matin le 747-8, connu jusqu'à présent sous le nom de code 747 Advanced. La nouvelle gamme qui comprend deux variantes, Intercontinental et Freighter, plus longues que l'A380-800 d'Airbus, bénéficiera des avancées technologies développées pour le futur biréacteur moderne 787, d'où le nom du modèle -8.




Cette sixième déclinaison du quadriréacteur long-courrier conçu à la fin des années soixante sera équipée d'une voilure améliorée, d'un poste de pilotage modernisé mais aussi d'une motorisation unique acquise à General Electric et sa nouvelle gamme de réacteurs GEnx, soutenant un poids maximum au décollage de plus de 435 tonnes et répondant aux normes les plus avancées en matière de bruit. La version passagers ou Intercontinental est allongée de 3,6 mètres par rapport au 747-400, permettant l'aménagement de 34 sièges supplémentaires.

Capable de transporter 450 passagers en trois classes de service, il pourra franchir des étapes sans escale de 14 815 kilomètres. Avec une longueur de 75,3 mètres, le dérivé cargo ou Freighter deviendra le 747 le plus long jamais construit. Il emportera 140 tonnes de marchandises sur des liaisons directes de 8 275 kilomètres. Boeing promet également des coûts d'exploitation de 22% inférieurs à ceux de l'A380 cargo. La configuration définitive de la gamme sera fixée à la fin de l'année prochaine, avec une présentation prévue dans le courant du troisième trimestre 2008 et un premier vol dans les trois mois à suivre.
La certification et la mise en service sont attendues pour septembre 2009, date à laquelle l'un des deux clients de lancement Cargolux recevra le premier exemplaire d'une commande ferme portant sur dix de la version cargo. L'opérateur de fret luxembourgeois, qui exploite actuellement treize 747-400 standard confirme ainsi son intérêt dévoilé en juillet dernier, tout en prenant dix droits d'achat supplémentaires. Le feu vert industriel du programme s'accompagne également d'un achat de la compagnie japonaise Nippon Cargo Airlines pour huit 747-8 cargo fermes et de six en option. L'exploitant asiatique commencera à prendre livraison des long-courriers au cours du quatrième trimestre 2009. Il opère actuellement treize 747 d'ancienne génération et a acquis six 747-400 toujours en version cargo, dont le premier lui a été remis en juin. Les deux contrats représentent une valeur de 5 milliards de dollars, selon les prix catalogue du constructeur américain.

Boeing table sur un marché de 900 appareils sur les vingt prochaines années dans la catégorie de ses nouvelles propositions, sans préciser la part de marché qu'il compte s'approprier. De plus, les deux premières ventes annoncées semblent déjà enfermer le 747-8 dans un rôle spécifique de transporteur de fret, ce qu'est devenu le 747-400 en panne de commandes des dérivés passagers. D'ailleurs, l'avionneur prévoit que la flotte cargo mondiale de 65 tonnes et plus sera de 34% à l'horizon 2024.

En ce qui concerne les anciennes versions encore commercialisées du 747, les versions -400 et -400ER passagers et cargos, Boeing annonce qu'elles seront remisées dès le début des livraisons des nouveaux dérivés -8.

Source: Philippe Granger - Avions de ligne

lundi, décembre 19, 2005

La mémoire holographique sort des labos

La mémoire holographique va-t-elle enfin quitter le rayon des idées géniales et des curiosités techniques pour devenir la future technique de stockage, envoyant les CD ou DVD au pilon ? Pour la première fois depuis que des chercheurs planchent sur cette forme de mémoire en trois dimensions, une start-up américaine, InPhase Technologies, annonce la mise sur le marché d’un support à mémoire holographique pour la fin de l’année 2006. L’idée d’utiliser l’holographie pour stocker des informations remonte aux années 60. Les recherches se sont accélérées au début des années 90 lorsque les techniques actuelles de stockage ont commencé à montrer leurs limites. Sur la papier, la mémoire holographique bat les supports actuels à plate couture : le disque mis au point par InPhase Technologies peut stocker 60 fois plus d’informations qu’un DVD. Les données sont stockées 10 fois plus vite qu’avec un graveur actuel.

Alors que sur les CD ou les DVD les données sont gravées en deux dimensions, l’holographie utilise les trois dimensions. L’information n’est plus stockée sous forme de creux et de bosses mais à l’intérieur d’un cristal photosensible. L’écriture du disque se fait à l’aide de deux rayons lasers dont les interférences permettent d’inscrire un motif dans le cristal. Pour lire l’information, il suffit d’éclairer le cristal avec un rayon lumineux. En variant de façon très subtile l’inclinaison de ce faisceau, plusieurs images différentes peuvent être lues dans le cristal. D’où l’énorme capacité de stockage de l’holographie... et la difficulté à la mettre au point.

source : science et avenir

dimanche, décembre 18, 2005

la fin du silicium annoncée ?

Le silicium aurait-il vécu ? Impensable... et pourtant ! Intel vient d’annoncer avoir réussi à mettre au point un transistor informatique à partir d’un autre matériau que le traditionnel silicium et les résultats obtenus lui font dire qu’une nouvelle génération de composants électroniques pourrait voir le jour.

Indium Antimonium , ou InSb pour les amateurs de symboles, permet selon Intel "une réduction significative de la consommation d’énergie au niveau du transistor, accompagnée d’une substantielle amélioration des performances". On imagine sans peine les applications que pourrait trouver Intel à ces puces nouvelle génération : ordinateurs portables et appareils mobiles, pour lesquels concentration des performances et faible consommation énergétique constituent les principaux enjeux.

En réalité, l’InSb est déjà utilisé dans certains composants électroniques, notamment les amplificateurs radio ou les lasers à semi-conducteurs. Mais c’est la première fois que l’industrie parvient à réaliser un transistor si petit (85 nanomètres) à partir de ce matériau et surtout, c’est la première fois qu’elle met au point un composant basé sur l’InSb directement utilisable dans le domaine informatique et tout particulièrement pour la conception de microprocesseurs. "Les résultats de ces recherches nous rendent confiants quant à notre aptitude à suivre la Loi de Moore au-delà de 2015", affirme Ken David, directeur de la recherche sur les composants chez Intel.
source:l'atelier

samedi, décembre 17, 2005

Mona Lisa : l’énigmatique sourire percé à jour ?



Le mystérieux demi-sourire équivoque qui a intrigué les admirateurs de la Mona Lisa depuis plusieurs siècles n’est pas si ardu à interpréter, affirmaient hier des chercheurs.
Elle souriait sur la peinture parce qu’elle était heureuse, précisément à 83%, selon des experts de l’Université d’Amsterdam.

Dans ce qu’ils considèrent cependant comme une démonstration ludique de technologie plutôt qu’une expérience sérieuse, ces chercheurs ont numérisé une reproduction du chef-d’œuvre de Leonardo da Vinci et l’ont soumis à un programme ultramoderne de reconnaissance des émotions, développé en collaboration avec l’Université de l’Illinois.

Les résultats ont réparti ainsi ce que ressentait le sujet de la toile du maître : joie, 83%; dégoût, 9%; peur, 6%; colère, 2%. Moins d’un pour cent d’elle était au neutre, tandis qu’elle n’exprimait aucune surprise.

Da Vinci a commencé à peindre la toile en 1503; elle est actuellement accrochée à un mur du Louvre, à Paris.

Cette œuvre, connue aussi sous le nom de «Joconde», serait un portrait de l’épouse de Francesco del Giocondo. Le titre est un jeu de mots sur le nom du mari, signifiant également «la dame heureuse» en italien.

Harro Stokman, un professeur à l’Université d’Amsterdam qui a participé à l’expérience, a expliqué que les chercheurs étaient conscients de la nature plus ou moins scientifique des résultats, le programme n’étant pas conçu pour percevoir les émotions subtiles. Le logiciel n’a donc pu détecter quoi que ce soit de sexuel ou confirmer le mépris perçu par plusieurs dans les yeux de Mona Lisa.

Cette technologie est d’ailleurs conçue pour l’analyse de films et images numériques modernes, et les sujets analysés doivent d’abord être analysés dans un état neutre et sans émotions pour permettre au programme de détecter par la suite des émotions.

Le chercheur principal Nicu Sebe a relevé le défi avec beaucoup de sérieux, se servant des visages d’une dizaine de femmes méditerranéennes de l’époque afin de créer une image composite neutre. Il a ensuite comparé ce résultat au visage de la toile célèbre, attribuant ainsi une cote à six émotions distinctes, soit la joie, la surprise, la colère, le dégoût, la peur et la tristesse.

«Essentiellement, c’est comme appliquer une toile d’araignée sur le visage pour le fragmenter en toutes petites aires», explique Stokman. «Puis, il s’agit par exemple de détecter les infimes variations dans l’orientation des ailettes des narines ou la profondeur des rides autour des yeux.»

Stokman souligne qu’avec une lecture de 83%, il est clair que la joie était l’émotion principale du moment pour la jeune femme.

Des experts en biométrie n'ayant pas participé à l’expérience ont déclaré que les résultats étaient fort intéressants, même si leur valeur scientifique reste à démontrer.

«La technologie de reconnaissance du visage évolue rapidement, mais la reconnaissance des émotions est toujours au stade embryonnaire», précise Larry Hornak, directeur du Centre des technologies de l’identification à l’Université de West Virginia.

«Ils semblent tout de même s’être servis d’un jeu de données, aussi petit soit-il, ce qui est typique du travail réalisé dans un domaine relativement nouveau comme celui-ci. C’est un résultat intéressant», conclut-il.

Stokman est conscient que l’expérience de l’Université d’Amsterdam n’étaiera ni ne réfutera pas les théories controversées dont a fait l’objet la peinture du maître florentin. L’une de celles-ci avance que la toile est en fait un autoportrait de Leonardo en femme.

«Qui sait, peut-être que d’ici 30, 40 ou 50 ans, nous serons en mesure de dire ce que ressentait cette femme» évoque Stokman.

Hornak trouve l’idée fort intéressante. «Il est toujours amusant de mettre en pratique des technologies dans des domaines d’intérêt public, et parfois les résultats peuvent être tout à fait illuminants» dit-il. Jim Wayman, un chercheur en biométrie de l’Université d’État de San Jose, abonde en ce sens.

«C’est plus abracadabrant que scientifique, dit-il, mais cela divertit et ne fait de mal à personne.»

source : canoe sciences et tech

jeudi, décembre 15, 2005

BMW: le futur de l'automobile passe par la vapeur

Puisqu'une des solutions à l'actuel problème de l'énergie est d'en dépenser moins, louons la nouvelle invention de BMW pour améliorer le rendement énergétique des moteurs existants.

Le problème du moteur à combustion interne est qu'une grande partie de l'énergie disparaît sous forme de chaleur, en particulier via l'échappement et dans le circuit de refroidissement. Le système proposé par BMW consiste à récupérer cette chaleur et la recycler pour aider à la propulsion. Les tests au banc ont montré que sur un moteur 4 cylindres 1,8 litre, la consommation baissait de 15 % tandis que la puissance augmentait de 14 ch et le couple de 20 Nm grâce à ce que BMW appelle le "Turbosteamer", qu'on pourrait traduire par "Turbovaporisateur".

Le principe est celui du bon vieux moteur à vapeur. Les gaz d'échappement sont transférés dans un circuit primaire qui joue le rôle d'échangeur et vaporise le fluide contenu dans un second circuit. La pression générée est utilisée pour aider à la rotation du vilebrequin, et le reste de l'énergie est récupérée dans le circuit de refroidissement qui à son tour retourne dans le circuit principal. 80% de la chaleur est ainsi recyclée aux dires de BMW.

Le système tourne sur banc à l'état de prototype, et sa taille permet d'ores et déjà en théorie l'adaptation dans le compartiment moteur d'un 4 cylindres. Mais ne vous précipitez pas chez le concessionnaire: l'objectif annoncé est d'avoir un système prêt pour la production dans moins de dix ans, ce qui signifie qu'il reste encore pas mal de problèmes à régler.

BMW fut le premier constructeur européen à mettre sur le marché une voiture équipée d'un turbocompresseur, sera-t-il le premier à produire une voiture équipée d'un turbovaporisateur ?

Source: Le Blog Auto sous Licence Creative Commons by-sa

mardi, décembre 13, 2005

SALON AERONAUTIQUE DE DUBAI : ATR met Air Madagascar à l'honneur



C'est le nouvel appareil ATR72 aux couleurs d'Air Madagascar qui a été mis à l'honneur par la société ATR pendant le 9ème Salon aéronautique de Dubai.
En effet, c'est « Juliet Fox » qui est présent sur le tarmac, au milieu des autres appareils exposés dont le Boeing 777 et l'Airbus A380. Mais la hausse du prix du petrole aidant, l'ATR est une véritable vedette de ce
Salon vu sa consommation de carburant unanimement reconnue comme raisonnable.

Les clés de cet ATR72-500, le second acquis ce mois-ci par Air Madagascar, ont été symboliquement remises le 22 Novembre au Directeur général de la Compagnie malgache, Berend Bruns, et ce par le Président d'ATR,
Filippo Bagnato.

Immatriculé 5R-MJF, d'où son surnom de "Juliet Fox" au sein de la Compagnie, cet appareil flambant neuf porte donc à deux unités les appareils ATR72 qui vont être utilisés par Air Madagascar. Si le premier, "Juliet Echo" est opérationnel depuis le 19 Novembre, l'arrivée de Juliet Fox à Antananarivo est quant à elle programmée pour Mardi prochain. En effet, après sa présentation par ATR au Salon de Dubai, l'appareil retournera à Toulouse pour y subir les derniers tests avant son acceptation définitive par l'équipe de techniciens d'Air Madagascar conduite par le Chef de Departement de Maintenance industrielle, Jean-Charles Ranaivoson. Ce sont les Commandants Zafimanana et Lemena qui auront quant à eux l'honneur de diriger le convoyage de l'appareil vers sa future patrie.

D'une capacité de 70 places, les deux nouveaux appareils desserviront les réseaux intérieur et régional d'Air Madagascar. Ils sont équipés de sièges
en cuir, dont huit réservés à la classe business.

source : SOBIKA

lundi, décembre 12, 2005

Le lancement de Calipso attendu avec impatience par la communauté scientifique

Le lancement du satellite Calipso (Cloud-Aerosol Lidar and Infrared Pathfinder satellite Observation), une mission développée par la NASA en coopération avec le CNES, est désormais prévu pour mi-février 2006. Ceci porte le retard accumulé à près de deux ans par rapport aux plans initiaux.

Les scientifiques de grandes universités américaines impliquées dans le projet (Washington, Hampton, Colorado etc) s'impatientent. Des lancements pour le compte du Department of Defense sont tout d'abord passés en priorité sur le calendrier de tirs du site de Vandenberg (Californie). Après des difficultés techniques sur le satellite et le lanceur, la mission doit désormais faire face aux grèves de Boeing, l'industriel en charge du lancement, à une fermeture du site de Vandenberg jusqu'au 10 février, puis à des problèmes potentiels de priorité avec d'autres satellites gouvernementaux.

Grâce aux données fournies par Calipso, les chercheurs ont pour objectif de comprendre l'impact des nuages et des aérosols sur le réchauffement climatique de la Terre. Les technologies à bord, notamment le LiDAR (Light Detection and Ranging), permettront de créer les premières images en trois dimensions des nuages et des particules en suspension dans l'atmosphère. Certaines d'entre elles, réfléchissant le rayonnement solaire, contribuent à refroidir la planète, tandis que d'autres, absorbantes, pourraient accélérer le réchauffement. Une des questions posées est de savoir si ces phénomènes ont tendance à globalement accentuer ou compenser l'effet de serre.

Source: Etats-Unis Espace - bureau du CNES de l'Ambassade de France aux Etats-Unis

samedi, décembre 03, 2005

StarSight: des lampadaires solaires Wi-Fi




StarSight est un concept bien pensé mélangeant un éclairage urbain avec un panneau solaire et une borne Wi-Fi ou WiMAX. Le tout est gérable à distance, fournit de l'accès à Internet sans fil et peut même incorporer à sa base des chargeurs d'appareils en tous genres (lecteurs mp3, téléphones portables, ...).

Les concepteurs du projet, Kolam Partnership (Angleterre) et Nex-G (Singapour), indiquent un premier déploiement au Cameroun, permettant aux pays en voie de développement de bénéficier des dernières technologies en matière de réseaux sans fil d'accès à Internet.

Le Maroc, la Chine, l'Inde et même les highlands d'Ecosse seraient les prochains lieux à être équipés d'un tel système, qui pourrait en plus être utilisé pour les alertes de catastrophes naturelles, les pics de pollution et tout autre service.

source : canard wifi

en savoir plus : http://starsightproject.com/en/africa/index.php

dimanche, novembre 27, 2005

la France boucle sa tournée en beautée



Et de quatre. La France a battu l'Afrique du Sud 26-20 au Stade de France samedi soir et termine invaincue sa tournée de novembre après ses victoires sur l'Australie, le Canada et les Tonga. La seule équipe à avoir fait aussi bien est la Nouvelle-Zélande, auteur du deuxième grand chelem après ses quatre victoires dans les Iles britanniques. Les All Balcks, toujours aussi brillants et dominateurs, ont battu l'Ecosse 29-10 après avoir dominé l'Irlande, le Pays de Galles et l'Angleterre.
La France a ainsi entamé sa partie sur les chapeaux de roure en marquant deux essais de contre dans les dix premières minutes. Le talonneur du Stade Français, Dimitri Szarzewski fut ainsi le premier à aplatir dans l'en-but sud-africain. Avant d'être bientôt suivi par l'ouvreur de Toulouse Frédéric Michalak. Forts de cet avantage, les Français ont largement dominé la première mi-temps, avant de résister aux assauts des Springboks en seconde mi-temps. «Nous avons fait un match plein d'enthousiasme», a commenté l'arrière Thomas Castagneide, «Nous avons aussi montré que nous sommes au niveau des toutes meilleures équipes du monde".

article de libération du dimanche 27 novembre 05

samedi, novembre 26, 2005

L’homme bientôt dépassé par l’objet dans l’utilisation de l’Internet

Les objets vont devenir dans les prochaines années les premiers utilisateurs de l’Internet devant les humains, dans un "meilleur des mondes" fait de détecteurs électroniques qui suivront, via la toile, les mouvements des choses - et donc de leur propriétaire. Dans un rapport intitulé "L’Internet des objets", l’Union internationale des télécommunications (UIT) a présenté au Sommet mondial sur la société de l’information (SMSI) de Tunis la prochaine révolution technologique.

Dans ce monde orwellien, l’homme, l’objet, les appareils électroniques et les bases de données seront reliés entre eux par un Internet radicalement transformé. "La science-fiction devient lentement réalité dans un +internet des objets+ fondé sur un réseau de connexions omniprésentes", prévoit le rapport. "Nous entrons dans une nouvelle ère dans laquelle les ’utilisateurs’ de l’Internet se compteront en milliards, mais où les hommes seront peut-être une minorité". L’Internet compte actuellement 875 millions d’utilisateurs dans le monde, un chiffre qui devrait seulement doubler si l’homme en reste le principal vecteur. Mais les experts tablent sur des dizaines de milliards "d’utilisateurs", vivants et inanimés, dans les prochaines décennies.

Ces "internautes" seront liés entre eux par un réseau omniprésent, sans que quiconque doive allumer un ordinateur où que ce soit. Des appareils ménagers télécommandés par ordinateur ont déjà fait leur apparition, ainsi que des prototypes d’automobiles dotés de détecteurs qui permettent d’éviter les collisions. Des téléphones portables peuvent servir de billet de train électronique et la viande exportée par la Namibie, ainsi que des produits destinés au distributeur américain Wal-Mart sont équipés de puces qui permettent de les suivre à la trace.

A l’avenir, l’UIT annonce l’arrivée du réfrigérateur qui communique directement avec le supermarché du coin, le lave-linge avec la chemise, la puce sous-cutanée avec un appareil médical ou encore le stylo avec l’ordinateur. "Nous sommes en train de créer une intelligence qui donne un peu de vie aux objets et permet à ces choses de discuter derrière notre dos", résume John Gage, chercheur de la firme informatique américaine Sun Microsystems. De nouveaux détecteurs placés dans des objets en ligne pourront aussi "rassembler des données de l’extérieur et humaniser la technologie en complémentant, voire en remplaçant, la détection humaine", explique l’auteur du rapport, Lara Srivastava.

Le spécialiste américain en informatique, Nicholas Negroponte, a pris l’exemple d’une poignée de porte, qui, placée à l’entrée de la maison, s’ouvrirait toute seule dès l’arrivée du propriétaire chez lui, les bras chargés de provisions, mais se fermerait en revanche aux inconnus et irait jusqu’à "signer" les recommandés. "Cette poignée serait tellement intelligente qu’elle pourrait laisser sortir le chien mais ne le laisserait pas en ramener cinq autres à la maison", suggère M. Negroponte. "Les téléphones pourront se décrocher tous seuls, deviner si l’appel est ou non important, répondre comme un majordome anglais ou comme une secrétaire de direction et, le cas échéant, alerter la +chose+ la plus proche de vous pour vous prévenir discrètement", ajoute-t-il.

Toute cette évolution est rendue possible par l’apparition des puces équipées de fréquences radio (RFID) qui peuvent être détectées en temps réel. Elle pose d’évidents problèmes de protection de la vie privée et des libertés, d’autant que les puces RFID pourront équiper des passeports, surveiller les habitudes de consommation ou la circulation de l’argent.

dépêche AFP

jeudi, novembre 24, 2005

Des piles à combustible pour mieux transformer le charbon en électricité

L’organisme de recherche SRI International développe une technologie de piles à combustible au carbone direct qui permettrait de convertir plus efficacement le charbon en électricité. Le SRI (Menlo Park, Californie) affirme que sa technologie de piles à combustible au carbone direct peut convertir l’énergie chimique du charbon directement en électricité sans recourir à la gazéification.

Cette technologie serait deux fois plus efficace que les centrales au charbon d’aujourd’hui, en réduisant des émissions de dioxyde de carbone, selon le SRI. Elle produirait de l’électricité à un coût compétitif à partir d’une variété de combustibles, y compris le charbon, le coke, le goudron, la biomasse et les déchets organiques, selon l’organisme.

« Le système du SRI mêle les principales qualités de ces deux technologies éprouvées : les piles à combustible à oxyde solide et les piles à combustible à air de carbone en fusion », déclare-t-on. « Le procédé de conversion d’énergie en une seule étape propre et hautement efficace transforme directement l’énergie chimique du charbon pulvérisé (et d’autres combustibles contenant du carbone) en électricité via l’oxydation électrochimique du carbone. »

Les États-Unis, qui disposent de réserves de charbon considérables, continueront d’utiliser le charbon comme leur source principale d’électricité pendant de nombreuses années, selon le SRI. Toutefois, les centrales au charbon d’aujourd’hui convertissent le charbon en électricité avec une efficacité relativement faible. En outre, le charbon est une source d’émissions toxiques, de gaz à effet de serre et de lourds polluants métalliques lorsqu’il est utilisé dans des centrales électriques traditionnelles.

Pour que les États-Unis gagnent leur indépendance énergétique de manière économique et durable pour l’environnement, il est nécessaire de trouver un procédé propre, efficace et direct pour convertir le charbon en énergie électrique. « Une source d’énergie doit répondre à des critères stricts pour remplacer les centrales au charbon conventionnelles », a déclaré Lawrence Dubois, vice-président du SRI. « Le système de conversion doit utiliser des ressources domestiques économiques, avoir des coûts d’exploitation et un capital comparables ou inférieurs, offrir une meilleure efficacité et capturer en interne les produits d’oxydation de combustible pour atteindre un niveau zéro d’émission de gaz à effet de serre et de gaz toxiques. L’approche de piles à combustible au carbone direct innovante du SRI a le potentiel de répondre à tous ces critères exigeants. »

source EET et TREGOUET

mercredi, novembre 23, 2005

Rendre possible l'impossible: Un laser au silicium

Le silicium a fait son chemin dans bien des domaines, depuis les ordinateurs jusqu'aux appareils photo. Mais qu'en est-il d'un laser au silicium ? C'est physiquement irréalisable, du moins c'est ce que les scientifiques pensaient jusqu'à présent. Une équipe de recherche de l'Université Brown a conçu le premier laser directement élaboré à partir du silicium en modifiant la structure du cristal à l'aide d'une nouvelle technique à l'échelle nanométrique.

Depuis la création du premier laser fonctionnel, à partir d'un rubis en 1960, les scientifiques ont élaboré ces sources lumineuses à partir de substances s'étendant du néon au saphir. Le silicium, cependant, n'a jamais été considéré comme un candidat valable. Sa structure ne permettrait pas l'alignement requis des électrons pour que ce semi-conducteur puisse émettre de la lumière.

Mais l'équipe du professeur Jimmy Xu a rendu possible ce qui était tenu pour impossible. Les chercheurs y sont parvenus en modifiant la structure atomique du silicium elle-même. Cela a été accompli en forant des milliards de trous dans un petit fragment de silicium, en utilisant un gabarit nanométrique. Le résultat: une faible mais bien réelle émission laser. L'exploit est à la mesure de la réputation du professeur Xu, dont le Laboratoire des Technologies Emergentes est surnommé le Laboratoire des Technologies Impossibles.

Pour le moment, ce qui est devenu faisable n'est pas encore très pratique. Avant que ce laser au silicium ne devienne viable, il doit être rendu plus puissant et utilisable à température ambiante: une température de moins 200°C est actuellement nécessaire à son fonctionnement. Mais un matériau avec les propriétés électroniques du silicium et les propriétés optiques d'un laser trouverait des utilisations dans les domaines de l'électronique et des communications, en augmentant la rapidité et la puissance des ordinateurs ou des réseaux à fibres optiques.

Selon Xu, lorsque les lasers ont été inventés, ils ont été considérés comme la solution à un problème qui n'existait pas encore. Aujourd'hui les lasers sont utilisés dans les lecteurs de CD, les lecteurs de codes à barres aussi bien que pour la découpe de métaux ou encore en chirurgie. "Toute nouvelle découverte scientifique trouve souvent une application, il suffit d'attendre que les technologies se développent", remarque-t-il.


Vaincre l'impossible

L'émission de lumière depuis le silicium a toujours été considérée comme inaccessible en raison de la structure en cristal du silicium. Les électrons nécessaires pour l'effet laser ne sont pas produits suffisamment près les uns des autres. Les rapprocher exigerait le bon phonon "marieur", opérant avec précision au bon moment, au bon endroit, afin d'établir la connexion atomique.

Dans le passé, les scientifiques ont chimiquement modifié le silicium ou l'ont pulvérisé en poussière de particules pour produire une émission de lumière. Mais davantage de lumière était naturellement détruite que produite. Xu et son équipe ont essayé une nouvelle façon d'aborder le problème. Ils ont modifié la structure du cristal en lui retirant des atomes.

Pour cela, l'équipe a élaboré un gabarit, ou "masque", en aluminium anodisé, d'environ un millimètre carré, qui présentait des milliards de trous minuscules, de taille uniforme et parfaitement ordonnés. Placé au-dessus d'un fragment de silicium puis bombardé d'un faisceau d'ions, le masque a servi de pochoir, permettant de poinçonner précisément la matière et d'en extraire des atomes. Les atomes de silicium se sont alors réarrangés subtilement à proximité des trous ce qui a permis l'émission de lumière.

Le silicium a été testé à plusieurs reprises sur une période d'un an afin de s'assurer qu'il satisfaisait aux propriétés classiques d'un laser telles que le gain optique, l'étroitesse de l'étendue spectrale et autres.

Source: TECHNO SCIENCES and Brown University

mardi, novembre 22, 2005

EADS reçoit un prix pour le "nez artificiel hypersensible"

La Fédération des industries allemandes (BDI) a remis le Prix technologique de l'industrie de défense au Centre de Recherche Corporate (CRC) d'EADS en Allemagne, en récompense du développement d'un "nez artificiel" fonctionnant tel un senseur analytique capable de flairer les plus infimes quantités de substance dangereuse.Ce nez artificiel est extrêmement sélectif, sensible et tout aussi rapide à détecter des explosifs, stupéfiants et autres gaz toxiques. Contrairement aux limiers électroniques existants, ce système combine la technologie d'un spectromètre de mobilité ionique (IMS) à celle du faisceau laser.Les domaines d'application de cette nouvelle technologie comprennent la sûreté aéroportuaire, la qualité de l'air, les détecteurs de mine, les diagnostics médicaux, ainsi qu'un large éventail d'autres utilisations pratiques venant combler les lacunes de la simulation du sens olfactif. Les principaux travaux qui ont conduit à cette technologie ont été réalisés dans le cadre du projet MILAN (miniaturized laser ion mobility spectrometer for analysis), parrainé par le ministère fédéral allemand de l'Education et de la Recherche. Actuellement, la technologie d'EADS est en cours d'expérimentation au titre des "systèmes de détection de matières dangereuses" dans le cadre du projet de recherche communautaire SAFEE (Sûreté des aéronefs dans le futur environnement européen).Avec le spectromètre de mobilité ionique, les gaz émis en permanence par les substances chimiques tels que les explosifs ou les stupéfiants, sont aspirés par un instrument de mesure. Ces gaz sont ensuite ionisés au moyen de faisceaux laser et convertis en particules électriquement chargées. Deux miroirs, entre lesquels le faisceau laser se réfléchit à l'infini, accentuent la sensibilité du "nez". Grâce aux réfléchissements, un nombre bien plus grand de molécules de la substance examinée sont identifiées et le nez artificiel s'en trouve considérablement plus efficace. Les ions sont ensuite accélérés dans un champ magnétique, puis mesurés en fonction de leur vélocité à l'extrémité du champ magnétique. Les résultats des mesures fournissent ainsi "une empreinte" de la substance analysée. De cette façon, la présence de la substance recherchée dans l'échantillon peut être déterminée en une fraction de seconde. Il n'est alors pas nécessaire de générer un vide ou une préparation d'échantillon complexe pour l'analyse. "L'avantage considérable de ce procédé tient au fait qu'il fait appel aux faisceaux laser et non à une source radioactive, comme c'est généralement le cas", explique Johann Göbel responsable de l'équipe de recherche récompensée d'EADS. Cette nouvelle technologie permet d'effectuer une présélection en discriminant les substances inoffensives comme le parfum avant l'analyse proprement dite.Göbel travaille depuis environ trois ans sur ce projet avec ses collègues, et a déclaré, lors de remise du prix: "Nous sommes d'autant plus ravis de la reconnaissance du travail accompli jusqu'ici que les défis à surmonter étaient considérables. La prochaine étape consistera à améliorer la convivialité de ce système. Les chercheurs du CRC travaillent d'emblée sur une solution intégrée en accentuant l'automatisation et la lisibilité des résultats dans un format et une interface faciles d'emploi". De plus, les chercheurs veulent pousser encore plus loin la miniaturisation afin de permettre l'intégration dans des équipements portables, tout comme les détecteurs de métaux utilisés sur les aéroports. Göbel table sur une commercialisation de ce nez artificiel d'ici trois ans.Source: Communiqué de presse EADS

lundi, novembre 21, 2005

Des constructions intelligentes pour lutter contre les incendies

Les chercheurs du NIST (National Institute of Standards and Technology) à Washington étudient comment des systèmes "intelligents" de construction d’immeubles pourraient permettre aux sapeurs-pompiers et aux autres organismes de premiers secours de mieux répondre aux urgences et d’évaluer correctement les conditions des sinistres en temps réel. Un des problèmes principaux rencontrés par les secours est le manque d’information précise. Où se situe l’incendie dans la construction ? Quelle est son étendue ? Où sont situés les points d’accès ? Y a-t-il des produits chimiques inflammables entreposés à proximité ?
Le NIST étudie des standards (IBR : intelligent Building Response) qui permettront aux industriels d’élaborer des systèmes qui utiliseront divers types de réseaux de communication, y compris les réseaux sans fil et devront être capables de renvoyer des informations telles que les plans des étages et des données de capteurs de mouvement, de chaleur, biochimiques ou autres. Des caméras vidéo reliées directement au quartier général d’incendie devront pouvoir communiquer des informations détaillées de la scène du sinistre aux premiers secours.
Les sapeurs-pompiers utiliseront des ordinateurs portables pour suivre sur un plan l’évolution d’un incendie qui se développe, avant même d’atteindre les lieux. Leur écran les informera également sur certaines caractéristiques des bâtiments comme les ascenseurs, les points lumineux, les systèmes de lutte contre l’incendie ainsi que sur des données en temps réel comme la position des occupants et les conditions d’enfumage et de température.

dimanche, novembre 20, 2005

Paludisme : résultats prometteurs pour deux vaccins expérimentaux

Des résultats prometteurs ont été obtenus avec un prototype de vaccin contre le paludisme testé chez l’homme et mis au point par des chercheurs de l’Institut Pasteur (Paris), selon des tests préliminaires. Les travaux sur ce modèle de vaccin à base d’une molécule de synthèse dérivée d’une protéine du parasite, dénommée MSP3, sont parus dans la revue PLos Medicine. La plupart des candidats-vaccins contre le paludisme sont sélectionnés en fonction des réactions immunitaires qu’ils déclenchent chez l’animal, mais se sont souvent révélés décevants lors du passage aux essais cliniques chez l’homme. Pour contourner cette difficulté, l’équipe de Pierre Druilhe, de l’unité de Parasitologie Biomédicale à l’Institut Pasteur, a recherché directement chez des sujets naturellement immunisés, comme on en rencontre en zone d’endémie en Afrique et Asie, ce qui contribuait à leur protection contre le parasite.
Les chercheurs ont donc recherché, au sein de populations infectées par le paludisme, quels étaient les antigènes (protéines du parasite) déclenchant ces réactions de défenses immunitaires capables d’éliminer le parasite Plasmodium falciparum. En étudiant les protéines parasitaires reconnues par le sérum de ces sujets naturellement protégés, les chercheurs ont mis en évidence l’intérêt de l’antigène MSP3. Il existe en effet une très forte corrélation entre la présence d’anticorps dirigés contre cet antigène et la protection acquise par exposition naturelle à l’infection. L’essai clinique a montré que la vaccination à base de MSP3 induisait chez l’homme une production d’anticorps capables d’éliminer le parasite. Ces anticorps sont "aussi efficaces, ou plus efficaces", que ceux produits par des adultes africains naturellement protégés vivant en zone d’endémie.
Ce candidat-vaccin apparaît "dénué d’effets secondaires chez l’homme" et confère "des anticorps protecteurs de longue durée", notent les chercheurs. De plus, l’antigène MSP3 "ne présente pas de différences d’un parasite à l’autre qui permettraient à certains d’échapper aux anticorps induits par le vaccin", relèvent-ils.
Un autre candidat-vaccin contre le parasite du paludisme permet de protéger les enfants au moins 18 mois après l’injection, annoncent des chercheurs dans la revue médicale The Lancet. L’équipe du Pr Pedro Alonso, de l’université de Barcelone, confirme ainsi des résultats prometteurs obtenus l’année dernière auprès d’une cohorte de 2.000 enfants âgés de moins de cinq ans au Mozambique. Les jeunes enfants sont les principales victimes du paludisme.
Les essais ont montré que le vaccin (appelé RTS,S/AS02A) réduisait de 30 % la survenue d’une première crise de paludisme chez les enfants et réduisait de presque 58 % le risque d’une forme grave de la maladie comme le palu neurologique. Ce vaccin agit au cours de la première phase de reproduction du parasite dans l’organisme, avant qu’il envahisse les globules rouges. Il agit en se liant avec des protéines situées à la surface des cellules du parasite afin de prévenir le système immunitaire de l’arrivée d’un intrus.
Ces résultats "prometteurs", qui doivent être confirmés" par des essais complémentaires, laissent espérer qu’il sera bientôt possible de développer enfin un vaccin efficace contre ce fléau mondial, selon l’institut. Le paludisme tue un enfant toutes les 30 secondes en Afrique et au total entre 1 et 3 millions de personnes par an dans le monde, selon les estimations de l’OMS.

SOURCE :PLOS
Lancet

Quand l'électricité viendra des vagues

Le pendule et la cornemuse ! C'est en s'inspirant de ces deux instruments qu'Alain Clément, chercheur au Laboratoire de mécani­que des fluides de l'école centrale de Nantes, a conçu Searev (Système Electrique Autonome de Récupération de l'Energie des Vagues), une machine à transformer en électricité l'énergie des vagues. Un "gisement" potentiel de 2 500 watts par mètre carré, contre 400 pour l'éolien et 150 pour le solaire.
Le Pendule: il s'agit, en l'occurrence, d'un volant excentré fait d'un cylindre de béton à axe horizontal, de grand diamètre, dont la moitié supérieure est évidée. L'essentiel de la masse est donc concentrée dans la moitié basse. D'où l'effet pendule.
La cornemuse: des accumulateurs hydrauliques à haute pression, comme le sac d'air de l'instrument de musique, se remplissant par à-coups, mais se vidant en continu.
Le principe
Enfermé dans une coque totalement étanche – capable de faire sans dommage par mer extrême un tour complet – le pendule reste vertical tandis que les vagues font tanguer le flotteur. Les mouvements relatifs du pendule et du flotteur entraînent des pompes hydrauliques, qui chargent les accumulateurs à haute pression. Ces derniers livrent leur énergie à des moteurs hydrauliques, qui entraînent des générateurs d'électricité. Le tout est contrôlé, en temps réel, par "un système intelligent qui devrait multiplier, au moins par trois, l'énergie récupérée", estime Alain Clément.

"Le projet en est à la fin de la phase de R&D. Une maquette prototype au 1/12, complètement instrumentée, commencera ses essais dans notre bassin à vagues à la rentrée", précise le chercheur. Quant au "houlomoteur" grandeur réelle – 24 m sur 14, 1 000 tonnes, dont 400 pour le seul pendule –, il devrait atteindre une puissance de 500 kW électriques. Présenté au dernier Congrès mondial des énergies renouvelables à Aberdeen en Écosse, Searev a rencontré un vif succès.
Pour constituer une ferme houlomotrice, on ancrera, en formation serrée, par 30 à 50 m de fond, à 5 ou 10 km des côtes, une flotte de plusieurs dizaines de modules Searev soigneusement balisée pour ne pas gêner la navigation. En cas d'avarie à bord d'un des modules, les autres continueront à produire de l'électricité. Facile à décrocher et à remorquer, l'unité en avarie pourra être réparée dans un chantier naval portuaire, puis remise en place.
L'impact sur l'environnement ? Depuis la côte, la ferme houlomotrice, dont les flotteurs se trouvent au ras de l'eau, sera quasiment invisible, contrairement aux éoliennes en mer, une pollution visuelle qui déclenche des réactions de rejet de plus en plus nombreuses. Et bien sûr, pas de gaz à effet de serre...

Source: CNRS et techno sciences

samedi, novembre 19, 2005

Google teste un moteur de recherche sur le tourisme et envisage de louer des livres numériques

Google étudie un système de réservation de voyages qui permettra de mettre en contact les internautes et les agences de voyages en ligne offrant les meilleurs tarifs. Le premier moteur de recherche sur Internet a annoncé qu’il testait une nouvelle fonctionnalité qui le mettra en concurrence avec les moteurs de recherche spécialisés sur le voyage comme Sidestep et Kayak, qui passent au crible toutes les informations sur les réservations et les tarifs. Mais ce nouvel outil ne concurrencera pas directement les services proposés par des agences en ligne comme Expedia et Travelocity. "Il vous amène directement sur le site de voyages avec les informations de départ, d’arrivée et les dates indiquées. C’est une fonctionnalité très intéressante, a déclaré Lorraine Sileo, analyste au cabinet d’étude spécialisé sur les voyages PhocusWright, à propos de ce système.
"Google est vraiment en train de montrer quelle influence il a sur le voyage, en associant véritablement la recherche et l’achat", a-t-elle ajouté. Sur Google, les utilisateurs peuvent entrer des données spécifiques sur un vol entre deux localités. Le résultat de la recherche donne des liens qui pointent vers des sites offrant des informations tarifaires. Par exemple, une recherche sur Detroit et Miami mène à un lien sur Expedia.com, qui propose des informations sur les réservations et permet aux internautes d’acheter leurs billets. La nouvelle fonctionnalité de Google permet d’entrer ses dates de voyage avant même de lancer la recherche.
A l’inverse des agences de voyages en ligne comme Expedia et Travelocity, les moteurs de recherche dédiés au voyage ne vendent pas de billets. Ils permettent seulement d’identifier les meilleures prestations tarifaires et affichent les liens des sites web qui les commercialisent. Pour l’instant, le moteur de recherche de Google dédié aux voyages, qui est en version d’évaluation, ne fonctionne que sur certaines villes américaines.
Google vient par ailleurs d’annoncer son intention de proposer des livres récents "à louer" sur Internet ; Les livres numériques seraient consultables pendant une semaine, sans possibilité de les imprimer ou de les enregistrer, contre une somme représentant 10 % du prix de vente du livre, selon un éditeur dont le journal ne dévoile pas le nom.
L’éditeur trouve ce prix de location trop faible mais estime qu’il s’agit d’une opportunité importante de pénétrer le marché du livre numérique, selon le quotidien. "Google Print recherche de nouveaux modèles d’accès afin d’aider les auteurs et les éditeurs à vendre plus de livres en ligne mais nous n’avons rien à annoncer", a déclaré au journal un porte-parole de Google. Google a mis en oeuvre un autre projet, contesté, de numériser des millions de livres puisés dans de prestigieuses bibliothèques anglo-saxonnes afin de constituer une grande bibliothèque virtuelle. Le libraire à distance Amazon.com a récemment dévoilé son intention de vendre en ligne des ouvrages au format numérique, qui pourront être achetés à la page ou au chapitre.


SOURCE: REUTERS et TREGOUET

Reprise des mises à jour du blog

Bonjour à tous,
Ca fait une petite semaine que je n'ai pas mis à jour le blog , après cette semaine bien chargées je m'y remet
Bonne lecture
Mathias

dimanche, novembre 13, 2005

L'Airbus A380 fait sa tournée et son show en Asie et Australie

Le premier prototype volant de l'A380 immatriculé F-WWOW est en ce moment en Australie, après avoir passé une journée à Singapour, pour son premier voyage intercontinental. Le but principal de la mission est de tester la compatibilité des infrastructures aéroportuaires avec les dimensions du plus gros avion de ligne au monde.
L'A380 numéro 1 quitte Toulouse sous la pluie pour sa tournée Mais il s'agit aussi d'une tournée
marketing. L'A380 va en effet participer aux festivités du 85ème anniversaire de la compagnie australienne Qantas et permet à Airbus de montrer que son avion est prêt à parcourir le monde. La dimension marketing est d'ailleurs si importante que l'avion porte successivement les couleurs des différentes compagnies clientes des pays visités.




Certaines compagnies axent leur

stratégie marketing sur l'A380

Après Singapour et l'Australie, l'A380 fera étape à
Kuala Lumpur, en Malaisie, avant de revenir en France le 18 novembre. Il repartira le lendemain (après de nouveaux travaux de peinture ? ) pour Dubaï à l'occasion du Salon aéronautique international Dubaï Air Show. L'A380 devrait y être l'une des principales attractions.

Article issu de techno-science.net

mercredi, novembre 09, 2005

Le monde pourvu en énergie au moins jusqu’en 2030

Le monde, s’il poursuit sur la tendance actuelle, disposera d’assez de ressources énergétiques au moins jusqu’en 2030 malgré l’envolée prévisible de la demande, mais chaque maillon de la chaîne doit s’attendre à de gros efforts à la fois politiques et financiers, selon l’Agence internationale de l’énergie (AIE).

La demande énergétique mondiale va croître de plus de 50 % d’ici 2030, estime l’AIE dans son "World Energy Outlook 2005", un rapport présentant ses analyses et prévisions détaillées jusqu’en 2030. Les deux tiers de cette progression seront à mettre au compte des pays en développement.

La demande mondiale en 2030 atteindrait ainsi 16,3 milliards de tonnes d’équivalent pétrole (tep), selon ce "scénario de référence", basé sur l’hypothèse que les politiques énergétiques actuelles seront poursuivies sur la même voie. "Les ressources énergétiques sont suffisantes dans le monde pour faire face à la croissance de la demande d’énergie prévue dans le scénario de référence", souligne l’AIE, qui relève que "les réserves mondiales de pétrole dépassent actuellement la production cumulée d’ici à 2030".

Mais cela ne veut pas dire que tout se fera en douceur, prévient-elle. Selon ses calculs, quelque 17.000 milliards de dollars d’investissements seront nécessaires dans le secteur énergétique pour assurer l’approvisionnement. Or, leur financement dans les pays non membres de l’OCDE "constitue l’un des plus grands défis à relever que laissent présager nos projections", soulignent les auteurs. Les pays consommateurs sont également concernés dans la mesure où une montée en puissance de l’industrie du raffinage - dont les faiblesses ont largement contribué à l’envolée des cours depuis le début de l’année -, est "indispensable d’urgence à l’échelon mondial". Pour ce qui est des cours, l’AIE prévoit que les prix, après avoir atteint un pic à 65 dollars en septembre 2005 (prix moyen payé par ses pays membres), devraient refluer à 35 dollars en 2010 grâce à la mise en oeuvre de nouvelles capacités de production, avant de remonter à 39 dollars en 2030.

source :
Tregouet et AIE

lundi, novembre 07, 2005

Des écrans OLED qu'on imprime

La société anglaise Cambridge Display Technology vient de faire une démonstration de la production d'écrans à matrices actives de 14" d'un genre nouveau. Non seulement ces écrans sont basés sur la technologie OLED (des surfaces organiques dont les points s'éclairent pour former une image lorsqu'il sont soumis à un courant électrique), mais ils ont surtout été produits par une "imprimante".



Ecran OLED fabriqué par impression

Via une technique de type "impression à jet d'encre", des millions de minuscules gouttes de polymères sont apposées sur une surface conductrice, pour composer un écran fonctionnel.

Outre le fait que les écrans OLED ambitionnent de remplacer la plupart des écrans que nous utilisons actuellement (notamment les LCD), cette démonstration laisse présager d'une évolution majeure: la production industrialisée d'écrans de toute taille, éventuellement imprimés par "rouleaux".

Source: nanoblog sous Licence Creative Commons by-nd-nc
Illustration: Cambridge Display Technology

dimanche, novembre 06, 2005

Une nouvelle pile à combustible permettant d'en réduire considérablement le coût.



Une entreprise, ITM Power, située dans le comté de Cambridge, vient de créer une nouvelle membrane pour les piles à combustible PEMFC (Proton Exchange Membrane fuel Cell). Ces piles, fonctionnant au méthanol, utilisaient comme membrane du Nafion, qui coûte environ 500 dollars (environ 400 euros) par mètre carré.

Cependant, ITM Power a développé une membrane à base de polymère d'hydrocarbure, qui en plus d'avoir une conductivité ionique trois fois supérieure au Nafion, coûte seulement 5 dollars (environ 4 euros) par mètre carré. En outre, cette nouvelle membrane diminue les fuites transmembranaires de méthanol. Elle va permettre aux piles d'utiliser un milieu alcalin, qui produit une activité catalytique supérieure au milieu acide employé habituellement.

Le platine pourra ainsi être remplacé par du palladium en tant que catalyseur du côté du combustible, ce qui entraînera une diminution du prix de 25%. Cette pile, à la différence des piles à combustible conventionnelles, utilise deux liquides et ne nécessite pas d'air.


Le combustible employé est une solution de borohydrure de sodium, qui transporte 50% d'énergie en plus par kilogramme que le méthanol, et l'oxydant est du peroxyde d'hydrogène. Le fait que l'oxydant soit liquide permet d'ajuster des paramètres tels que l'hydratation, le pH et la conductivité ionique.

Les piles sont produites en utilisant le procédé "one-stop" d'ITM : les liquides sont versés dans un moule contenant la membrane et le catalyseur, puis l'ensemble est introduit dans une chambre à rayonnement gamma, ou les liquides se gélifient et restent élastiques. Ces piles sont moulées dans différentes formes et peuvent se courber pour s'adapter à n'importe quelle configuration, contrairement aux systèmes conventionnels. Ainsi le système peut être utilisé par les services d'urgences car il n'émet ni CO2 ni fumée contrairement aux piles classiques.

Comme elle est complètement hermétique, son usage peut être élargi pour des applications sous-marines et aéronautiques. D'après le Président d'ITM Power, Jim Heathcote, cet appareil peut produire continuellement 20 W de puissance pendant plus de trois jours, ce qui est le standard minimum pour les armées britannique et américaine. Ce système annonce peut être l'ère des piles à combustible accessible à tous car économiquement viable. "C'est un changement fondamental dans la conception des pile à combustible" estime le président Heathcote.

article issu du site achat-industriels.com

Les nanostructures vont faire exploser la capacité des disques durs

Aujourd’hui, la microélectronique peine à répondre aux besoins incessants de la société en terme de miniaturisation et d’augmentation de la capacité de stockage de l’information. Dans le futur, seule la nanoélectronique en sera capable. Cependant, elle nécessite de maîtriser la matière et ses propriétés physiques (magnétiques, électriques, optiques...) à l’échelle du nanomètre. Dans cette perspective, des chercheurs du CNRS et de l’Université Paris 7, en collaboration avec une équipe de l’Ecole polytechnique fédérale de Lausanne, viennent de démontrer les possibilités offertes par une nouvelle approche : l’auto-assemblage.

En travaillant sous vide et en se plaçant à une température donnée (-143°C), les chercheurs ont déposé des atomes de cobalt (qui se sont condensés à partir d’une phase gazeuse) sur des surfaces d’or cristallines. Les atomes de ces surfaces étant rangés selon un réseau régulier, les plots de quelques centaines d’atomes ainsi obtenus forment eux-mêmes un réseau régulier. Cette technique d’auto-assemblage consiste donc à laisser la nature fabriquer des nanostructures. Elle est également qualifiée de « bottom-up » (on part du « bas », c’est-à-dire de l’échelle nanométrique, pour obtenir « plus haut » des propriétés intéressantes à l’échelle macroscopique).

Comme les atomes déposés sont magnétiques, on obtient des réseaux de nanostructures qui repoussent les limites de la densité de stockage de l’information, telle qu’elle existe dans les disques durs. Actuellement, l’information est stockée dans une couche mince, constituée de petits grains d’un alliage à base de cobalt. Un bit occupe 1000 grains. Avec les réseaux de nanostructures magnétiques, on pourrait stocker un bit sur un seul grain. L’uniformité des propriétés magnétiques des plots et les couplages négligeables entre plots voisins permettent d’envisager l’écriture et la lecture d’un bit par plot. La densité des plots, de 4 000 milliards de bits par centimètre carré, représenterait un gain d’un facteur 200 par rapport aux densités d’enregistrement des meilleurs disques durs en démonstration actuellement (ce gain tient compte de l’espace entre les plots et de la taille des grains).

source CNRS

Ca ne s'arrange pas et les violences touchent Toulouse ainsi que d'autre régions

Ce "post" n'a rien a voir avec les sujets habituels de ce blog mais je trouve la situation assez inquiétante pour être évoquée ici :


MIDI-PYRÉNÉES. Une cinquantaine de tentatives d'incendies volontaires ont été recensées samedi soir dans l'agglomération toulousaine, dans les quartier de la Reynerie, du Mirail et à Empalot, dont 40 voitures brûlées vers minuit trente. A la même heure la police faisait état d'une dizaine d'interpellations parmi les petits groupes de jeunes auteurs de ces dégradations ou de jets de cailloux sur les forces de l'ordre. Une quinzaine de feux de poubelles ont été allumés, dont certains à proximité immédiate d'établissements publics, notamment un école maternelle et un collège du quartier du Mirail. Les devantures de quelques commerces ont été légèrement endommagées, et un début d'incendie a été maîtrisé en début de soirée dans une bibliothèque du quartier sensible de la Reynerie. Seul celui-ci avait été touché samedi, avec 7 incendies de voitures.

la totalité de l'article se trouve ici : CLIQUEZ ICI POUR ACCEDER A L'ARTICLE COMPLET SUR LE SITE "LEMONDE.FR"

samedi, novembre 05, 2005

Une caméra qui reconnaît le sexe et l’âge de la personne filmée

Le constructeur japonais de motos Yamaha Motor a dévoilé une caméra vidéo capable de reconnaître automatiquement le sexe de la personne filmée et de la classer parmi cinq tranches d’âge. "Ce système est parfaitement adapté au marketing", car il permettra par exemple de déterminer avec précision quel type de client fréquente un magasin, a expliqué Makoto Yoshida, chef de la division recherche avancée de Yamaha.

L’entreprise nippone a conçu ce système à partir d’une base de données composée de 10.000 portraits d’hommes et de femmes. Selon Yamaha, la caméra reconnaît dans 88 % des cas le sexe de la personne filmée (soit environ le même pourcentage que l’oeil humain, affirme le groupe), et sa tranche d’âge exacte dans 77 % des cas.

jeudi, novembre 03, 2005

Une tour solaire de 1000 mètres de haut !

La Tour Solaire, 1000 mètres de hauteur, est l'un des projets les plus ambitieux de la planète pour la production d'énergie alternative. C'est une usine d'énergie renouvelable qui fournit la même puissance qu'un petit réacteur nucléaire tout en étant plus sûr et plus propre.



Sa hauteur sera presque le double que la tour de CN au Canada (553 mètres). La tour solaire est creuse au milieu comme une cheminée. L'air sous le collecteur est chauffé par le Soleil et est dirigé vers le haut de la cheminée par convection, le déplacement de l'air permet à 32 turbines de produire de l'électricité. Son fonctionnement se base sur le principe simple: l'air chaud monte.

La tour pourrait produire environ 200 mégawatts, six fois moins qu'une centrale nucléaire moderne, mais assez pour fournir en électricité environ 200.000 logements.

C'est un projet incroyable mais réaliste. Les études de faisabilité par le bureau d'ingénieurs allemand SBP, basée à Stuttgart, arrivent à leur terme. Cette "Solar Tower" sera construite par l'entreprise EnviroMission dans le désert de la province australienne du New South Wells par. La production devrait commencer en 2010.

Le Soleil chauffe, grâce à l'effet de serre, la plate-forme à la base (d'un diamètre de 7 kilomètres). Si la température extérieure est de 30° C au sol (20°C à 1000 mètres d'altitude), elle atteint 70° C au pied de la cheminée. Le flux d'air dans la structure sera alors d'environ 15 mètres par seconde.

L'avantage principal de cette technologie est son prix, peu d'entretient, mécanique simple, gratuité des rayons du soleil. De plus comme le sol emmagasine de la chaleur le jour pour la redonner la nuit, le système est totalement opérationnel 24 heure sur 24. Le seul point noir est l'investissement de départ qui est d'environ 400 millions d'euros.

La "Solar Tower" fournirait un kilowatt/heure près d'un tiers moins cher que ceux fournis par les panneaux solaires, mais encore cinq fois plus cher que l'électricité au charbon produit actuellement en Australie. Les serres de verres pourraient être louées à des agriculteurs et des touristes pourraient visiter la tour, afin de réduire encore significativement le prix du kilowatt/heure.

Une première "Solar Tower" existe en Espagne, à 150 kilomètres au sud de Madrid, dans la région de la Mancha, patrie de Don Quichotte. Cette tour prototype, d'une hauteur de 194 mètres et réalisée avec des fonds du Ministère ouest-allemand de la recherche et de la technologie, a fonctionné entre 1981 et 1989. La puissance produite atteignait 50 kilowatts.

mercredi, novembre 02, 2005

L'anti-matière au labo



Que se produit-il quand deux atomes, l'un possédant un électron et l'autre sa contrepartie dans l'antimatière, appelé le positron, entrent en collision ? Les physiciens de l'Université de Californie de Riverside ont pu observer pour la première fois en laboratoire que les atomes d'antimatière, appelés atomes de positronium instables par nature, deviennent encore plus instables après la collision. Ils se détruisent les uns les autres, se transformant en rayonnement électromagnétique gamma.

"Nos recherches nous ont également donné le premier indice de la présence de molécules doubles de positronium, chacune d'entre-elles se composant de deux électrons et de deux positrons", fait remarquer Allen Mills, professeur de physique et directeur du projet. "Ce genre de couplage matière-antimatière n'a jamais été étudié jusqu'ici en laboratoire, et nos travaux préparent le terrain pour un nouveau domaine d'étude de ces propriétés".

Chaque particule de matière possède une antiparticule correspondante d'antimatière. Les électrons sont des particules chargées négativement qui entourent le noyau de chaque atome. Le positron est une antiparticule de même masse et de même valeur absolue de charge qu'un électron mais cette charge est positive. Quand la matière tel un électron et une quantité égale d'antimatière tel un positron se combinent, elles sont converties en particules énergétiques ou en rayonnement.

La durée de vie des positrons est généralement très courte parce qu'ils tendent à se combiner rapidement avec des électrons. Mais, en emmagasinant des positrons dans une "bouteille magnétique", les physiciens ont pu prolonger leur durée de vie et les accumuler par millions.

Lors de leurs expériences, les chercheurs de l'UCR produisaient les positrons à partir d'une forme radioactive de sodium. Ils ont déversé les positrons hors de la bouteille magnétique sur un minuscule point d'une cible constituée d'un mince fragment de silice poreuse. Les positrons se sont alors combinés avec des électrons pour former spontanément une concentration élevée d'atomes instables de positronium. Ces atomes nouvellement formés ont rapidement occupé les pores de la cible, et ont commencé à se heurter entre eux, en produisant de l'énergie sous forme de rayonnement gamma.

"C'est la première fois que l'on pouvait observer un ensemble d'atomes de positronium entrant en collision", indique Mills. "Nous savions que nous avions une accumulation dense de ces atomes parce que, étant ainsi si proches les uns des autres, ils s'annihilaient plus rapidement que lorsqu'ils sont libres".

Ces travaux ouvrent la voie à de futures expériences qui pourraient utiliser un laser à atomes de positronium pour rechercher des effets d'anti-gravité associés à l'antimatière et pour mesurer les propriétés du positronium avec une précision très élevée. "Jusqu'ici, nous n'avons que des présomptions sur la présence de molécules doubles de positronium dans nos expériences", ajoute Mills. "La prochaine étape sera de confirmer leur existence et de mesurer leurs propriétés".

source : University of California, Riverside et techno sciences

lundi, octobre 31, 2005

Le Japon teste avec succès la maquette du futur avion supersonique SST



L'agence aérospatiale japonaise JAXA a effectué le 10 octobre dernier le premier essai en vol réussi d'une maquette du SST (Supersonic Transport), successeur prévu du Concorde, un avion qui pourra voler à deux fois la vitesse du son. Il y a trois ans, un essai non-piloté semblable s'était terminé par un crash dans l'Outback australien.

Le modèle réduit développé par Mitsubishi Heavy Industries, long d'un peu moins de 12 mètres, a volé lundi dernier dans le ciel de Woomera en Australie du Sud. Le prototype en forme de flèche et sans moteur était propulsé par une fusée à combustible solide. Il a atteint une altitude de 19 kilomètres et après séparation la vitesse de mach 2, soit 2460 kilomètres par heure. Il est ensuite redescendu sur terre à l'aide d'un parachute.

Le programme, d'un coût de 10 millions de dollars, fait partie d'un projet visant à construire un avion supersonique d'une capacité de 300 places capable de relier Tokyo à Los Angeles en environ quatre heures et moins contraignant que Concorde au niveau bruit, consommation et pollution.

pour en savoir plus : Japan Aerospace Exploration Agency

"Technologies spatiales contre invasions de criquets"

Alors que des invasions massives de criquets pèlerins menacent les cultures de l’Afrique sahélienne, le CNES se mobilise et propose l’aide des technologies spatiales. Un suivi par satellite permettrait d’anticiper les déplacements d’essaims de criquets afin de prévenir ce fléau.



Les criquets pèlerins : fléau de l’Afrique

L’année 2004 a vu le retour d’un terrible fléau en Afrique : les invasions de criquets pèlerins dans les pays du Sahel.

Ces criquets traversent l’Afrique d’est en ouest, dévorant sur leur passage les cultures du Maghreb et des pays sahéliens. Un désastre agricole qui représente un vrai danger alimentaire et risque d’entraîner des famines.

Capable de se déplacer de 200 km par jour en se laissant porter par les vents, un essaim compte plusieurs milliards de criquets particulièrement voraces.

Chacun d’entre eux ingurgite 2 grammes de végétation par jour : à ce rythme, ce sont quelques 10 000 t de végétation qui disparaissent quotidiennement.

Face à ce danger alimentaire et humanitaire, le CNES avec ses filiales CLS et Novacom, a proposé au FAO* des outils permettant de suivre l’évolution des nuages de criquets par satellites.

Des satellites au secours des cultures africaines

Mais comment, concrètement, les technologies spatiales peuvent-elles être utiles dans le cas d’une invasion de criquets ?

Il faut d’abord comprendre que les conditions de propagation du criquet dépendent de la météorologie : la pluie, favorable aux récoltes, facilite l’éclosion des insectes, les sols sablonneux ou argileux et humides sont un terrain idéal pour la ponte, une végétation bien verte les amène à maturité…

Le procédé de prévention proposé par le CNES repose sur des systèmes d’alerte déclenchés en fonction des conditions climatiques, comme l’apparition de vent qui peut annoncer une arrivée de criquets. Grâce à une localisation en temps réel des essaims, les pays concernés peuvent prendre les mesures d’éradication nécessaires.

Un projet pilote a été mis en place par la FAO sous maîtrise du CNES en juillet dernier. Et l’expérience s’est révélée positive puisque la FAO souhaite mettre en place un projet opérationnel dans pas moins de 21 pays.

Un bel exemple d’ application des technologies spatiales au service d’une bonne cause : « la sécurité alimentaire, en permettant au pays infesté de mieux lutter contre ce fléau ailé !».


article trouvé sur le site du CNES -
-

Un nouveau Leica numérique

Le rêve de nombreux amateurs de photographie est de posséder un Leica , je connais la fabuleuse réputation des Leica mais je suis plutot de la génération "numérique" alors voici peut être le nouveau rêve du photographe des temps moderne.

Article issu du magazine Presence PC



Leica a créé la surprise ce matin en annonçant la commercialisation prochaine de son prochain appareil photo compact numérique, le Leica D-LUX 2. Vu de loin, l’appareil est très alléchant, et dispose d’une finition et d’un design qui font irrémédiablement penser à la série des boîtiers «M», devenus légendaires.

L’appareil a la particularité de pouvoir prendre des clichés sous plusieurs formats. Le photographe peut à loisir passer du format 16/9 (en 8 méga-pixels), au 4/3 (6 méga-pixels), en passant par le 2: 3 (24x36 en 7 méga-pixels). L’appareil n’a pas de viseur direct, ce qui constitue une petite révolution dans le monde de Leica, et dispose donc d’un écran LCD de 2,5’’ pour assurer le cadrage. L’optique est un zoom d’équivalence 28 mm-112 mm pour une ouverture de 2,8-4,9. Il va sans dire que le stabilisateur d’image fait parti du lot, qu’il est possible de débrayer l’appareil en mode manuel total, et bien sûr, qu’il peut enregistrer des images en format Jpeg, Raw et Tiff. Cerise sur le gâteau, l’appareil peut enregistrer des vidéos.

Reste la question épineuse du prix. Les amateurs de photographie auront remarqué au passage que cet appareil numérique est un clone du Panasonic Lumix LX1, qui présente les mêmes caractéristiques, sans toutefois présenter la même finition. De fait, on note que le LX1 est plus léger de 15 grammes que le Leica (tout du moins sur les données constructeur). Si Panasonic présente son appareil à environ 600 Euros, il faudra donc parier à un prix «made in Leica», supérieur de 100 à 200 Euros à celui du Panasonic. Certes, ce n’est qu’une spéculation, mais si cette estimation se révèle exacte, Leica devra se poser des questions quant à sa manière de prendre le tournant de la photographie numérique.

samedi, octobre 29, 2005

Comment le cerveau génère-t-il son horloge interne ?



Selon des scientifiques américains, le cerveau est une véritable "machine temporelle". Et comprendre comment le cerveau gère son temps est essentiel à la compréhension de toutes ses fonctions. Les horloges internes du cerveau coordonnent un vaste champ d'activités comme la communication, la coordination des mouvements ou l'alimentation.

Dans un article de "Nature Reviews Neuroscience" d'octobre 2005, les neurologistes Catalin Buhusi et Warren Meck de l'Université Duke à Durham en Caroline du Nord, décrivent l'état actuel des connaissances sur l'une des plus importantes mais mystérieuses horloges du cerveau, celle qui régit la synchronisation dans une échelle de temps qui s'étend de la seconde à la minute. Cette "synchronisation d'intervalle" occupe un domaine neurologique situé entre deux autres horloges, l'horloge circadienne liée au cycle jour-nuit de 24 heures, et l'horloge à l'échelle de la milliseconde qui contrôle la motricité ou la génération et l'identification de la parole.

La synchronisation d'intervalle est utilisée pour des tâches comme la marche, la manipulation d'objets, le suivi d'une conversation ou la perception des objets dans son environnement.

"Elle nous est utile pour comprendre l'ordre temporel des événements, par exemple lors d'une conversation" explique Meck. "Pour comprendre le discours, le cerveau non seulement doit traiter des intervalles de temps de l'ordre de la milliseconde impliqués dans l'attaque de la voix, mais également appréhender la durée des voyelles et des consonnes. En outre, pour répondre, il doit rythmer la parole, organiser les pensées avec cohérence et répondre de façon opportune. C'est là toute la synchronisation d'intervalle, et en fait il est difficile de trouver un quelconque processus comportemental complexe dans lequel elle ne soit pas impliquée".

Selon lui, le déchiffrement des mécanismes neuraux de telles horloges est sans doute plus fondamental à la compréhension du cerveau que, par exemple, le traitement neural de la position dans l'espace et du mouvement. Pour Buhusi, le temps est plus fondamental que l'espace, parce qu'on peut simplement fermer les yeux et revivre des événements à rebrousse-temps, ou se projeter dans l'avenir pour prévoir quelque chose, sans changer de position dans l'espace.

La compréhension du mécanisme de la synchronisation d'intervalle est très difficile parce qu'il est "amodal", selon les deux scientifiques. Cela signifie que son horloge est indépendante de tout sens, le toucher, la vue, l'audition, le goût ou l'odorat. Ainsi, elle ne peut pas être localisée dans un secteur déterminé du cerveau, comme peut l'être l'horloge circadienne, qui a des entrées claires situées dans la vision et qui déclenche l'émission cyclique des hormones circadiennes.

"Ce processus doit être distribué puisqu'il est capable intégrer les informations de tous les sens", indique Meck. "Mais surtout, comme il est impliqué dans l'apprentissage et la mémorisation, on pourrait penser que le temps n'est pas directement perçu, et que nous effectuons des discriminations temporelles par rapport à des souvenirs de durées antérieures. Cela rend le mécanisme de la synchronisation d'intervalle plus confus, allant jusqu'à faire douter qu'une horloge interne de la sorte puisse même exister".


Un pacemaker dans le cerveau ?

Dans les années 80 Meck et son équipe avaient proposé une théorie basée sur un modèle de "stimulateur-accumulateur". Quelque part dans le cerveau devait se trouver un stimulateur biologique indépendant qui émettait régulièrement des impulsions de synchronisation neurales, une espèce de "tic-tac". Les recherches plus récentes, menées par Meck et ses collègues de l'université Duke, ont conduit au développement d'un modèle de "détection de coïncidences" des oscillations de l'activité neurale impliquant une zone appelée le striatum. Le striatum est une partie de la structure de cerveau qui commande des fonctions de base du corps humain comme le mouvement.

Dans ce modèle, explique Buhusi, "chaque structure du cerveau contribue à sa propre résonance, et toutes ces oscillations sont surveillées et intégrées par les circuits "striataux". C'est comme un chef qui écoute son orchestre qui se compose de différents musiciens et qui, par le battement de sa baguette, synchronise l'ensemble de sorte que les auditeurs perçoivent une harmonie".

Ainsi, en quelque sorte, c'est le cerveau dans son ensemble qui est une machinerie complexe de synchronisation d'intervalle, dans laquelle les différentes structures occupées par leur propre charge neurale, produisent des résonances qui sont intégrées pour devenir les tops de l'horloge neurale.

Source: Duke University

vendredi, octobre 28, 2005

La musique douce réduit la tension artérielle



L’écoute d’une mélodie douce entraîne un ralentissement des rythmes cardiaque et respiratoire, et fait même chuter la tension artérielle, affirment des chercheurs italiens. Si différentes études avaient déjà démontré que la musique peut, par exemple, réduire le stress et même améliorer la performance athlétique, c’est la toute première fois que des chercheurs se penchent sur l’impact physiologique de différents types de musique. Les chercheurs, qui publient les résultats de leur étude dans l’édition courante du journal Heart, ont recruté 24 participants d’âges semblables, dont la moitié avait une formation musicale avancée. Les 12 autres participants ont formé le groupe témoin.
Tous ont dû écouter, pendant six minutes, des extraits de pièces aussi variées que la Neuvième symphonie de Beethoven, du raga (de la musique classique hindoue), les Red Hot Chili Peppers (un groupe contemporain), Vivaldi, de la musique techno et Anton Webern (un musicien allemand). L’écoute de musique rythmée a entraîné une accélération des rythmes respiratoire et cardiaque, tout comme une augmentation de la tension artérielle proportionnelle au tempo, et peut-être aussi à la complexité de la partition jouée. Le style ou même les préférences individuelles auraient eu moins d’impact. Lorsque la musique s’arrêtait, le tout redescendait pour atteindre des taux parfois inférieurs aux taux de départ.
La musique plus douce, elle, on s’en doute, a eu l’effet inverse. Elle a notamment entraîné une chute du rythme cardiaque. L’effet le plus prononcé a été obtenu avec le raga. Les participants ayant une formation musicale se sont aussi révélés être plus réceptifs à l’effet de la musique. Un effet relaxant similaire à celui provoqué par la musique douce a déjà été associé à des activités comme la lecture de poésie rythmique ou la récitation d’un mantra de yoga ou d’un rosaire.

source : passeport santé

jeudi, octobre 27, 2005

Vous pensez qu'une table à 4 pieds sur un sol irrégulier est forcément bancale ?

Je vous propose un article insolite qui m'a fait "sourire" parce que j'ai eu une longue discussion à ce sujet avec un collègue , l'étude complète se trouve à cette adresse :

http://xxx.arxiv.org/PS_cache/math-ph/pdf/0510/0510065.pdf

Si lorsque vous vous rendez au restaurant ou au café, la table que vous choisissez se trouve être toujours bancale, ne désespérez pas. Un physicien vient de démontrer que, dans des limites raisonnables, il est toujours possible de tourner la table jusqu'à une position où chacun de ses quatre pieds reste fermement fixé au sol.

André Martin a été incité à étudier le problème par l'instabilité notoire des tables de la cafétéria du CERN, le laboratoire européen de physique des particules à Genève, où il travaille sur des problèmes complexes dans le domaine de la physique des hautes énergies. Selon lui, quiconque déguste un café sur la terrasse découvre très vite que les tables ne reposent sur le sol que par trois pieds, de sorte que le plus léger contact renverse la boisson. À maintes reprises, Martin devait faire pivoter la table pour rechercher une position stable. "J'ai toujours pu en trouver une", dit-il, "et les gens sont souvent stupéfaits que cela fonctionne".

Il y a plus de dix ans, Martin a décidé de voir s'il pourrait trouver la preuve qu'un état stable existe toujours. En 1998, il a pensé avoir trouvé et a même présenté sa solution lors de cours d'été mais il n'en a jamais fait le compte-rendu et a découvert que de toute façon elle n'était pas tout a fait correcte. Aujourd'hui, Martin pense avoir une réponse plus solide, qu'il a d'ailleurs publiée (1). "J'ai eu la sensation que les mathématiciens étaient intéressés", explique-t-il.

Pour pouvoir décrire mathématiquement le problème, il a dû faire quelques hypothèses simplificatrices. Il n'a considéré que des tables de forme carrée avec un pied à chaque coin et a supposé que chaque pied touchait le sol en un seul point. Le sol lui-même, pour sa part, devait être plus favorable qu'il n'est souvent dans la nature, pouvant posséder de nombreuses aspérités mais devant être dépourvu de pentes raides ou de changement abrupt de hauteur: l'inclinaison entre deux points quelconques de la surface n'est jamais supérieure à 15°.

"Comparé avec la réalité, c'est très lisse" admet Martin. Mais il ajoute qu'une surface ordinaire mal nivelée ou une pelouse inégale satisferait ces hypothèses. Sous ces conditions, Martin a démontré qu'il y a toujours une façon de procéder pour que chacun des quatre pieds de la table soit en contact avec le sol. En général, cela ne laissera pas le plateau de la table parfaitement horizontal, mais la pente sera toujours relativement faible.

Martin soupçonne que sa solution puisse être étendue à des tables de forme non carrée si chacun des quatre pieds se trouve sur un cercle, mais il n'en a pas encore la preuve rigoureuse.

Savoir si son étude amènera plus de sérénité pendant les pauses-café du CERN est un autre problème: le sol semble à cette endroit trop irrégulier. "La difficulté avec cette terrasse est qu'il y a de l'herbe et des pavés", indique Martin.

source : NATURE et techno science

mercredi, octobre 26, 2005

Septembre, mois le plus chaud jamais enregistré sur la planète



Septembre a été le mois le plus chaud jamais enregistré sur la planète depuis que les températures sont prélevées scientifiquement en 1880, a indiqué le Centre national océanique et atmosphérique américain (NOAA). La température moyenne était de 0,63 degré Celsius (1,13 degré Fahrenheit) au-dessus de la moyenne, selon un communiqué du NOAA publié sur son site Internet. Il s’agissait du deuxième mois le plus chaud depuis septembre 2003 quand la température moyenne avait été de 0,57 Celsius (1,02 degré Fahrenheit) supérieure à la moyenne. Aux Etats-Unis, septembre 2005 n’a été que le quatrième mois le plus chaud depuis 1880 avec une température moyenne de 1,4 degré Celsius (2,6 degrés Fahrenheit) au-dessus de la moyenne.

La Louisiane, frappée par le cyclone Katrina le 29 août, a connu son mois de septembre le plus chaud depuis 111 ans et 27 autres Etats américains ont aussi enregistré des températures moyennes record ce même mois. Le 28 septembre, le Centre National américains sur les neiges et les (NSIDC), avait annoncé une forte réduction de la calotte glaciaire arctique pendant l’été 2005 et ce pour le quatrième été consécutif, un phénomène attribué au réchauffement du climat. "Etant donné le bas niveau record des glaces cette année à l’approche de la fin septembre, 2005 va presque certainement surpasser 2002 pour la plus faible superficie de glace dans l’Arctique depuis plus d’un siècle", avait alors déclaré Julienne Stroeven, une des scientifiques du NSIDC. Ces observations et mesures sont effectuées à l’aide de satellites de la Nasa, l’agence spatiale américaine. "A ce rythme, l’Arctique n’aura plus de glace pendant la saison d’été bien avant la fin de ce siècle", avait-elle ajouté.

source : NOAA sur ce site http://www.noaanews.noaa.gov/stories2005/s2521.htm

mardi, octobre 25, 2005

Une berline électrique roulant à 370 km/h



Dans le cadre de l'exposition automobile de Tokyo 2005, des chercheurs japonais ont dévoilé ce jeudi Eliica, la voiture berline électrique la plus rapide du monde, un prototype à huit roues doté d'une vitesse de pointe de 370 kilomètres par heure.

Cette version d'Eliica a été développée par des chercheurs de l'université Keio de Tokyo en collaboration avec des entreprises privées et du gouvernement japonais. Le véhicule possède une accélération lui permettant de passer de zéro à 100km/h en 4,2 secondes et d'atteindre 160 km/h en sept secondes. Chacune des huit roues possède son moteur, alimenté par des batteries ion-lithium.

Eliica a déjà commencé des essais sur route. Ses concepteurs projettent de produire le véhicule en petit nombre pour débuter. Bien que sa commercialisation ne soit prévue que pour dans quelques années, une centaine de clients potentiels seraient déjà intéressés, ceci malgré un prix de vente estimé à un peu plus de 200.000 euros.

sources : le quotidien auto , techno-sciences

lundi, octobre 24, 2005

Des cerf-volants pour voler l'énergie du vent

Vous trouverez tous les détails de ce projet : système de commande et même les équations sur le site http://www.sequoiaonline.com/KWG/htm/KITEbasicequations.htm



Le projet KiWiGen concerne un générateur éolien de 2000 tonnes distribuant 84 MW, c'est-à-dire la même puissance qu'une centrale nucléaire, pour des coûts moins importants et une même superficie.



Des experts de l'énergie comme Pineau d'Electricité de France, Van Sark de l'Université d'Utrecht, Mawsouf de l'Université du Caire, Ockels de l'Université de Delft, Mortimer de Scottish Power, Wim Turkenburg de la Commission Sources Renouvelables des Nations Unies et l'European Space Agency (pour une éventuelle utilisation sur Mars) affirment d'ailleurs que ce projet ne relève pas de l'utopie. En effet, au-delà de 500-600 mètres d'altitude, le vent est fort et constant, et un flux de vent, dont la puissance est équivalente à celle de 100.000 centrales nucléaires, souffle au-dessus de l'Europe. Toutefois le problème est de capturer cette puissance, d'où le projet Kite Wind Generator.

Le concepteur du projet KiWiGen est Massimo Ippolito, patron de Sequoia Automation à Chieri (près de Turin) passionné de "kite surfing", sport de glisse grâce à un cerf-volant de traction manoeuvré avec deux câbles et une planche de surf spéciale. Un des principaux produits de son entreprise est le capteur intelligent "SeTAC", un détecteur d'accélérations tri-axiales (capable de détecter les accélérations dans les trois directions) ayant les dimensions et le poids d'une boîte d'allumettes, caractéristiques qui le rendent unique au monde dans son genre et adapté à une multitude d'applications (décrites sur le site http://www.sequoiaonline.com).


Ippolito a conçu un système de cerfs-volants de puissance, à plusieurs ailes, qui, à environ 700 mètres d'altitude, actionnent à terre un générateur à axe vertical à travers des bras. Chaque cerf-volant sera équipé de deux SeTAC qui gouverneront, à travers un programme de contrôle, les continuelles variations d'orientation nécessaires pour lui conférer la portance maximale et lui faire suivre, toujours avec une portance positive, un parcours circulaire.

Les cerf-volants utilisés auront une superficie de quelques dizaines de mètre carré, un profil alaire rigide en arc et seront réalisés en polyéthylène alvéolaire. Au repos, les cerf-volants seront insérés dans des bras creux. Ce système pourra être activé soit en lançant, hors de son bras, un des cerf-volants qui se lèvera alors à la plus petite brise et commencera à faire tourner le système provoquant la sortie et le décollage des autres cerf-volants, soit en le faisant tourner avec l'alternateur qui jouera le rôle de moteur. Cette opération peut évidemment être réalisée en sens inverse quand il est nécessaire de rentrer les cerf-volants dans leurs bras respectifs pour l'arrêter.

La puissance du système sera fonction du diamètre. Ainsi, de manière indicative, un diamètre de 100 mètres équivaudra à un générateur de 0,5MW tandis qu'un diamètre de 200 mètres vaudra un générateur de 500MW.
Le coût de construction d'un KiWiGen d'un GigaWatt serait d'environ 80 millions d'euro, c'est-à-dire moins que celui d'une installation traditionnelle, tandis que le coût d'un MWh produit par ce système serait de seulement 1,5 euros. Ce système sera très certainement en synergie avec l'énergie photovoltaïque et ceci entre autres parce que l'excès d'énergie nocturne produite pourrait alimenter le procédé pour raffiner le silicium des cellules solaires.

Sources : Challenges , TUTTO SCIENCE , INFOS-INDUSTRIELLES

dimanche, octobre 23, 2005

La théorie des cordes fait vibrer un univers à 10 dimensions

Les lignes qui suivent sont à déconseiller aux esprits fragiles et aux âmes mal trempées. Il y est question d’un monde insaisissable et vertigineux, d’un univers aux dimensions multiples : 10 au bas mot, à moins que ce ne soit 11, ou même... 26 ! Inconcevable pour un cerveau normalement constitué. Pour le commun des mortels, il n’existe que quatre dimensions, trois spatiales et une temporelle. Encore percevons-nous volontiers le temps comme le faisait Newton, c’est-à-dire comme un paramètre absolu, un axe immuable. Nous savons bien sûr, depuis Einstein et la relativité générale, qu’espace et temps sont en réalité indissociables, que le temps est élastique et les longueurs contractables. Il n’empêche que le continuum espace-temps demeure, pour l’entendement ordinaire, un concept relativement flou...

Et voilà que les physiciens inventent de nouvelles dimensions, à en donner le tournis. Pour comprendre ce qui les amène à cette construction improbable, il faut rappeler que la physique moderne avance sur deux jambes. D’un côté, la relativité générale d’Einstein. Décrivant le comportement des corps soumis à la gravitation, ou gravité, elle s’applique à la structure à grande échelle de notre univers. A l’autre extrémité, la mécanique quantique rend compte du comportement des particules élémentaires à une échelle infinitésimale.

La mécanique quantique a donné naissance, dans les années 1970, à un superbe modèle, le "modèle standard". Il postule, vérifications expérimentales à l’appui, que l’univers est formé, en tout et pour tout, de 12 particules de matière, 6 quarks et 6 leptons, et de 4 particules porteuses de forces. Mais ce modèle n’intègre que trois de ces forces, celles qui interviennent à l’échelle atomique ou subatomique : la force électromagnétique liant les électrons aux noyaux et deux forces à l’oeuvre à l’intérieur des noyaux, la force faible et la force forte. Le modèle laisse de côté la quatrième force, la gravité, aux effets négligeables à l’échelle des particules élémentaires mais qui, aux échelles plus importantes, domine pourtant.

Jusqu’à présent, les physiciens n’ont pas réussi à faire marcher ces deux jambes du même pas. Si bien que leur représentation de l’Univers claudique. C’est ici qu’intervient la théorie des cordes, qui se propose de réconcilier relativité générale et mécanique quantique. De réaliser la "grande unification". Bref, de livrer la clé ultime de l’univers.

La porte a été entrouverte par l’Italien Gabriele Veneziano. C’était en 1968. Il travaillait alors sur les interactions nucléaires fortes. "Nous avons mis en évidence une propriété un peu bizarre, une dualité comparable à la double nature ondes et particules de certains constituants de la matière, relate-t-il. Et nous nous sommes aperçus que cette propriété supposait l’existence de particules dont le spectre d’excitation ressemblait au spectre de fréquences d’une corde musicale." La théorie des cordes était née. Elle allait connaître plusieurs rebondissements. A partir du milieu des années 1970, le succès du modèle standard l’éclipse. Seule une poignée de physiciens dans le monde continuent à s’y intéresser.

Par un renversement conceptuel dont la science est friande, la théorie des cordes effectuera un retour, non plus à partir de l’étude des interactions fortes, mais de la gravitation. Plus exactement, comme "théorie quantique de la gravitation". Elle suppose en effet l’existence de plusieurs particules de masse nulle, dont le graviton, lequel porterait la force de gravité jusqu’alors exclue du modèle standard. La jonction entre mécanique quantique et relativité était faite. "Le rêve poursuivi toute sa vie par Einstein, commente Gabriele Veneziano , - était - enfin réalisé."

La théorie des cordes suscite, à partir du milieu des années 1980, un engouement qui ne se démentira plus. Elle s’enrichira d’une théorie des supercordes. Et se déclinera en cinq versions, dont subsiste aujourd’hui une principale, dite théorie M, comme "mystère". Que dit cette théorie ? Que les constituants ultimes de la matière, les quarks ou, s’il en existe, des particules encore plus petites, ne ressemblent pas à des points, mais à des cordes vibrantes, c’est-à-dire à des objets unidimensionnels étendus dans l’espace, pouvant être ouverts ou fermés en boucle.

Inutile de chercher à voir ces vibrionnants choristes : la taille d’une corde serait de l’ordre de 10 puissance moins 34 mètre. Elles ne peuvent s’exprimer, disent les équations, que dans un univers comptant, au minimum, 6 dimensions spatiales supplémentaires par rapport aux 3 que nous connaissons. Ce qui porte à 10 le nombre de dimensions du monde des cordes. Certains physiciens en ajoutent une, ce qui mène à 11... C’est beaucoup, mais bien moins que les 26 dimensions un moment supposées, avant que la théorie des supercordes ne fusionne des cordes interagissant entre elles pour obtenir un nombre moins extravagant.

Comment se représenter l’inimaginable ? Pas question, ici, d’univers parallèles. Les dimensions supplémentaires s’apparenteraient plutôt, décrit Gabriele Veneziano, à des boucles microscopiques. Leur taille, qu’elle reste de l’ordre de celle des cordes elles-mêmes ou atteigne 1 millimètre, les rend inaccessibles à nos sens. Pour que nous percevions ces infimes circonvolutions de notre espace-temps, il faudrait être à leur échelle. Si spéculative soit-elle, la théorie des cordes séduit un nombre croissant de physiciens. Aujourd’hui, plusieurs milliers de "cordistes" sur la planète rêvent de valider ces hypothèses dans le nouveau grand collisionneur de particules du CERN de Genève ou en observant les traces d’un hypothétique pré-Big Bang, quand l’espace-temps avait peut-être la taille d’une corde. "Le modèle standard a mis des dizaines d’années avant d’être formalisé, dit Gabriele Veneziano. Patience !" Façon de donner du temps à l’espace-temps multidimensionnel.

article que j 'ai trouvé dans le monde du 13 octobre.

samedi, octobre 22, 2005

Lancement de la phase industrielle de l'Airbus A350



C'est maintenant officiel, l'Airbus A350, le concurrent direct du Boeing 787, est lancé. L'annonce faite ce jeudi concerne la phase de production industrielle de l'appareil. Airbus précise par la même occasion avoir engrangé 140 intentions d'achat pour son nouvel avion en provenance de neuf grandes compagnies aériennes, et que ce nombre devrait monter à 200 d'ici la fin de l'année.

Selon Gustav Humbert, le PDG d'Airbus, "avec ce nouvel appareil, la famille Airbus s'agrandit, et nous sommes en mesure de répondre à l'ensemble des besoins sur le marché long-courrier, avec l'A380 sur les vols entre plateformes aéroportuaires, l'A340 pour les lignes très long-courriers, l'A330 et maintenant le nouvel A350 sur les vols moyen à très long-courriers, tout en offrant une rentabilité opérationnelle et un confort inégalés".

La mise en service du premier Airbus A350 doit intervenir courant 2010, soit 2 ans après celle de l'appareil concurrent, le Boeing 787. Tout comme son concurrent, le dernier-né d'Airbus est un bimoteurs très long courrier de moyenne capacité. Il se déclinera en deux versions, l'A350-800 capable de transporter 253 passagers dans une configuration 3 classes sur 16 300 km et l'A350-900 pouvant quant à lui transporter 300 passagers également en 3 classes sur une distance de 13 900 km. En comparaison le Boeing 787 est un peu plus petit, il pourra transporter suivant ses versions entre 223 et 259 passagers sur des distances comprises entre 15 400 et 15 700 km.

Du coté de la motorisation, l'Airbus A350 est dans un premier temps proposé avec les réacteurs GEnx A1 de General Electric. Ce même type de réacteurs est proposé par Boeing sur ses 787. Rolls-Royce vient en outre d'annoncer la conception du Trent 1700, une évolution du Trent 1000 également proposé sur le Boeing 787. Le Trent 1700 sera spécialement optimisé pour le nouvel appareil d'Airbus mais ne sera pas disponible avant 2011.


Un contexte tendu entre l'Europe et les Etats-Unis

Le lancement de l'Airbus A350 était en suspend de l'autorisation des conseils d'administration d'EADS et de BAE Systems, co-actionnaires de l'avionneur européen. Il s'inscrit dans un contexte de fortes tensions entre l'Europe et les Etats-Unis au sujet des aides diverses perçues par les deux grands avionneurs Airbus et Boeing, chacun accusant l'autre de recevoir des aides illégales de la part de son/ses gouvernements respectifs, ce qui a abouti à une double plainte déposée auprès de l'Organisation Mondiale du Commerce (OMC).

Malgré les aides remboursables proposées par l'Allemagne, la France, le Royaume-Uni et l'Espagne pour la mise en oeuvre de l'A350, Airbus a choisi de financer seul son nouvel appareil, en tout cas dans un premier temps, afin d'adoucir les tensions. Le constructeur européen souhaite que Boeing fasse maintenant de même vis-à-vis de ses aides jugées illégales par Airbus.

source : techno science