vendredi, décembre 30, 2005
Le chocolat noir bon pour le cœur !
Les flavonoïdes présents dans le chocolat noir mais pas dans le chocolat blanc ont des propriétés antioxydantes. Pour comparer les effets de chocolats noirs et blancs de même marque, ils ont enrôlé une vingtaine de fumeurs à titre de cobayes. Privés pendant vingt-quatre heures d’autres antioxydants (thé noir ou vert, oignons, pommes, choux, vin, produits à base de cacao), dix cobayes ont ingéré 40 grammes de chocolat noir (à 73 % de cacao) et dix autres ont savouré 40 grammes de chocolat blanc (4 % de cacao).
Bilan : le chocolat blanc n’a eu aucun effet sur les cellules tapissant les artères, les plaquettes intervenant dans la formation des caillots sanguins, ni sur les taux d’antioxydants contenus dans le sang. Le chocolat noir est sorti gagnant : des échographies-Doppler ont montré que le chocolat noir entraînait une amélioration de la circulation dans les artères deux heures après son ingestion et que cet effet positif se maintenait pendant huit heures. Le taux d’antioxydants présents dans le sang a augmenté. Les chercheurs estiment que les effets positifs constatés sont "très vraisemblablement" liés aux effets antioxydants du chocolat noir.
source : tregouet et http://heart.bmjjournals.com/cgi/content/extract/92/1/119?
samedi, décembre 24, 2005
jeudi, décembre 22, 2005
Star Wars et la physique: le sabre laser
La dénomination "sabre laser", prise au pied de la lettre, pose plusieurs problèmes.
Tout d'abord le laser se propage en ligne droite, à moins de subir une déflection au cours de sa trajectoire. Ainsi une lame laser ne devrait pas être visible. De même on ne voit le faisceau d'un pointeur laser que dans une atmosphère diffusante, où de minuscules poussières interagissent avec le faisceau et le réemmettent dans toutes les directions.
De plus, le faisceau laser n'est pas naturellement limité en taille. Il se propage en ligne droite jusqu'à être absorbé. Pour un combat dans un vaisseau spatial, les conséquences sont catastrophiques, chaque mouvement de lame provoquant le découpage intempestif de tout ce qui se trouve sur le chemin du faisceau, y compris la coque du vaisseau.. Limiter la taille de la lame requiert au moins l'utilisation d'un miroir réfléchissant en bout de course.
Une autre observation difficile à interpréter dans ce cadre est le "choc" produit par la rencontre de deux sabres. Les photons constituant un laser ne peuvent "s'entrechoquer" avec d'autres photons.
L'arme des Jedi évoquent en fait l'utilisation de plasma, plutôt que d'un laser. Un plasma, gaz chauffé à tel point que tous les atomes le composant sont séparés d'un ou plusieurs de leurs électrons, rayonne dans toutes les directions. Sa température fixe les caractéristiques du rayonnement émis, notamment sa couleur.
On utilise aujourd'hui des "torches plasma" pour la destruction de déchets ou la découpe de métal. Le plasma est alors un gaz ionisé sous l'effet d'un arc électrique, et atteint des températures de plusieurs milliers de degrés.
On peut modeler la forme du plasma à l'aide d'un champ magnétique: ce champ modifie les trajectoires des particules chargées constituant le plasma, et les confine dans une région de l'espace. C'est également le principe de confinement utilisé dans les tokamaks, pour réaliser la fusion nucléaire (dont le projet ITER sera la prochaine grande étape).
On peut ainsi réaliser un "sabre plasma" de belle allure, au pouvoir destructif important. On a en prime la possibilité de "chocs" entre sabres: de même que deux aimants peuvent se repousser sous l'effet de leurs champs magnétiques, on peut imaginer que le croisement de deux sabres soit rendu impossible par la présence d'un champ magnétique.
mercredi, décembre 21, 2005
Boeing: Le 747 nouveau est lancé
Cette sixième déclinaison du quadriréacteur long-courrier conçu à la fin des années soixante sera équipée d'une voilure améliorée, d'un poste de pilotage modernisé mais aussi d'une motorisation unique acquise à General Electric et sa nouvelle gamme de réacteurs GEnx, soutenant un poids maximum au décollage de plus de 435 tonnes et répondant aux normes les plus avancées en matière de bruit. La version passagers ou Intercontinental est allongée de 3,6 mètres par rapport au 747-400, permettant l'aménagement de 34 sièges supplémentaires.
Capable de transporter 450 passagers en trois classes de service, il pourra franchir des étapes sans escale de 14 815 kilomètres. Avec une longueur de 75,3 mètres, le dérivé cargo ou Freighter deviendra le 747 le plus long jamais construit. Il emportera 140 tonnes de marchandises sur des liaisons directes de 8 275 kilomètres. Boeing promet également des coûts d'exploitation de 22% inférieurs à ceux de l'A380 cargo. La configuration définitive de la gamme sera fixée à la fin de l'année prochaine, avec une présentation prévue dans le courant du troisième trimestre 2008 et un premier vol dans les trois mois à suivre.
La certification et la mise en service sont attendues pour septembre 2009, date à laquelle l'un des deux clients de lancement Cargolux recevra le premier exemplaire d'une commande ferme portant sur dix de la version cargo. L'opérateur de fret luxembourgeois, qui exploite actuellement treize 747-400 standard confirme ainsi son intérêt dévoilé en juillet dernier, tout en prenant dix droits d'achat supplémentaires. Le feu vert industriel du programme s'accompagne également d'un achat de la compagnie japonaise Nippon Cargo Airlines pour huit 747-8 cargo fermes et de six en option. L'exploitant asiatique commencera à prendre livraison des long-courriers au cours du quatrième trimestre 2009. Il opère actuellement treize 747 d'ancienne génération et a acquis six 747-400 toujours en version cargo, dont le premier lui a été remis en juin. Les deux contrats représentent une valeur de 5 milliards de dollars, selon les prix catalogue du constructeur américain.
Boeing table sur un marché de 900 appareils sur les vingt prochaines années dans la catégorie de ses nouvelles propositions, sans préciser la part de marché qu'il compte s'approprier. De plus, les deux premières ventes annoncées semblent déjà enfermer le 747-8 dans un rôle spécifique de transporteur de fret, ce qu'est devenu le 747-400 en panne de commandes des dérivés passagers. D'ailleurs, l'avionneur prévoit que la flotte cargo mondiale de 65 tonnes et plus sera de 34% à l'horizon 2024.
En ce qui concerne les anciennes versions encore commercialisées du 747, les versions -400 et -400ER passagers et cargos, Boeing annonce qu'elles seront remisées dès le début des livraisons des nouveaux dérivés -8.
Source: Philippe Granger - Avions de ligne
lundi, décembre 19, 2005
La mémoire holographique sort des labos
Alors que sur les CD ou les DVD les données sont gravées en deux dimensions, l’holographie utilise les trois dimensions. L’information n’est plus stockée sous forme de creux et de bosses mais à l’intérieur d’un cristal photosensible. L’écriture du disque se fait à l’aide de deux rayons lasers dont les interférences permettent d’inscrire un motif dans le cristal. Pour lire l’information, il suffit d’éclairer le cristal avec un rayon lumineux. En variant de façon très subtile l’inclinaison de ce faisceau, plusieurs images différentes peuvent être lues dans le cristal. D’où l’énorme capacité de stockage de l’holographie... et la difficulté à la mettre au point.
source : science et avenir
dimanche, décembre 18, 2005
la fin du silicium annoncée ?
Indium Antimonium , ou InSb pour les amateurs de symboles, permet selon Intel "une réduction significative de la consommation d’énergie au niveau du transistor, accompagnée d’une substantielle amélioration des performances". On imagine sans peine les applications que pourrait trouver Intel à ces puces nouvelle génération : ordinateurs portables et appareils mobiles, pour lesquels concentration des performances et faible consommation énergétique constituent les principaux enjeux.
En réalité, l’InSb est déjà utilisé dans certains composants électroniques, notamment les amplificateurs radio ou les lasers à semi-conducteurs. Mais c’est la première fois que l’industrie parvient à réaliser un transistor si petit (85 nanomètres) à partir de ce matériau et surtout, c’est la première fois qu’elle met au point un composant basé sur l’InSb directement utilisable dans le domaine informatique et tout particulièrement pour la conception de microprocesseurs. "Les résultats de ces recherches nous rendent confiants quant à notre aptitude à suivre la Loi de Moore au-delà de 2015", affirme Ken David, directeur de la recherche sur les composants chez Intel.
source:l'atelier
samedi, décembre 17, 2005
Mona Lisa : l’énigmatique sourire percé à jour ?
Le mystérieux demi-sourire équivoque qui a intrigué les admirateurs de la Mona Lisa depuis plusieurs siècles n’est pas si ardu à interpréter, affirmaient hier des chercheurs.
Elle souriait sur la peinture parce qu’elle était heureuse, précisément à 83%, selon des experts de l’Université d’Amsterdam.
Dans ce qu’ils considèrent cependant comme une démonstration ludique de technologie plutôt qu’une expérience sérieuse, ces chercheurs ont numérisé une reproduction du chef-d’œuvre de Leonardo da Vinci et l’ont soumis à un programme ultramoderne de reconnaissance des émotions, développé en collaboration avec l’Université de l’Illinois.
Les résultats ont réparti ainsi ce que ressentait le sujet de la toile du maître : joie, 83%; dégoût, 9%; peur, 6%; colère, 2%. Moins d’un pour cent d’elle était au neutre, tandis qu’elle n’exprimait aucune surprise.
Da Vinci a commencé à peindre la toile en 1503; elle est actuellement accrochée à un mur du Louvre, à Paris.
Cette œuvre, connue aussi sous le nom de «Joconde», serait un portrait de l’épouse de Francesco del Giocondo. Le titre est un jeu de mots sur le nom du mari, signifiant également «la dame heureuse» en italien.
Harro Stokman, un professeur à l’Université d’Amsterdam qui a participé à l’expérience, a expliqué que les chercheurs étaient conscients de la nature plus ou moins scientifique des résultats, le programme n’étant pas conçu pour percevoir les émotions subtiles. Le logiciel n’a donc pu détecter quoi que ce soit de sexuel ou confirmer le mépris perçu par plusieurs dans les yeux de Mona Lisa.
Cette technologie est d’ailleurs conçue pour l’analyse de films et images numériques modernes, et les sujets analysés doivent d’abord être analysés dans un état neutre et sans émotions pour permettre au programme de détecter par la suite des émotions.
Le chercheur principal Nicu Sebe a relevé le défi avec beaucoup de sérieux, se servant des visages d’une dizaine de femmes méditerranéennes de l’époque afin de créer une image composite neutre. Il a ensuite comparé ce résultat au visage de la toile célèbre, attribuant ainsi une cote à six émotions distinctes, soit la joie, la surprise, la colère, le dégoût, la peur et la tristesse.
«Essentiellement, c’est comme appliquer une toile d’araignée sur le visage pour le fragmenter en toutes petites aires», explique Stokman. «Puis, il s’agit par exemple de détecter les infimes variations dans l’orientation des ailettes des narines ou la profondeur des rides autour des yeux.»
Stokman souligne qu’avec une lecture de 83%, il est clair que la joie était l’émotion principale du moment pour la jeune femme.
Des experts en biométrie n'ayant pas participé à l’expérience ont déclaré que les résultats étaient fort intéressants, même si leur valeur scientifique reste à démontrer.
«La technologie de reconnaissance du visage évolue rapidement, mais la reconnaissance des émotions est toujours au stade embryonnaire», précise Larry Hornak, directeur du Centre des technologies de l’identification à l’Université de West Virginia.
«Ils semblent tout de même s’être servis d’un jeu de données, aussi petit soit-il, ce qui est typique du travail réalisé dans un domaine relativement nouveau comme celui-ci. C’est un résultat intéressant», conclut-il.
Stokman est conscient que l’expérience de l’Université d’Amsterdam n’étaiera ni ne réfutera pas les théories controversées dont a fait l’objet la peinture du maître florentin. L’une de celles-ci avance que la toile est en fait un autoportrait de Leonardo en femme.
«Qui sait, peut-être que d’ici 30, 40 ou 50 ans, nous serons en mesure de dire ce que ressentait cette femme» évoque Stokman.
Hornak trouve l’idée fort intéressante. «Il est toujours amusant de mettre en pratique des technologies dans des domaines d’intérêt public, et parfois les résultats peuvent être tout à fait illuminants» dit-il. Jim Wayman, un chercheur en biométrie de l’Université d’État de San Jose, abonde en ce sens.
«C’est plus abracadabrant que scientifique, dit-il, mais cela divertit et ne fait de mal à personne.»
source : canoe sciences et tech
jeudi, décembre 15, 2005
BMW: le futur de l'automobile passe par la vapeur
Le problème du moteur à combustion interne est qu'une grande partie de l'énergie disparaît sous forme de chaleur, en particulier via l'échappement et dans le circuit de refroidissement. Le système proposé par BMW consiste à récupérer cette chaleur et la recycler pour aider à la propulsion. Les tests au banc ont montré que sur un moteur 4 cylindres 1,8 litre, la consommation baissait de 15 % tandis que la puissance augmentait de 14 ch et le couple de 20 Nm grâce à ce que BMW appelle le "Turbosteamer", qu'on pourrait traduire par "Turbovaporisateur".
Le principe est celui du bon vieux moteur à vapeur. Les gaz d'échappement sont transférés dans un circuit primaire qui joue le rôle d'échangeur et vaporise le fluide contenu dans un second circuit. La pression générée est utilisée pour aider à la rotation du vilebrequin, et le reste de l'énergie est récupérée dans le circuit de refroidissement qui à son tour retourne dans le circuit principal. 80% de la chaleur est ainsi recyclée aux dires de BMW.
Le système tourne sur banc à l'état de prototype, et sa taille permet d'ores et déjà en théorie l'adaptation dans le compartiment moteur d'un 4 cylindres. Mais ne vous précipitez pas chez le concessionnaire: l'objectif annoncé est d'avoir un système prêt pour la production dans moins de dix ans, ce qui signifie qu'il reste encore pas mal de problèmes à régler.
BMW fut le premier constructeur européen à mettre sur le marché une voiture équipée d'un turbocompresseur, sera-t-il le premier à produire une voiture équipée d'un turbovaporisateur ?
Source: Le Blog Auto sous Licence Creative Commons by-sa
mardi, décembre 13, 2005
SALON AERONAUTIQUE DE DUBAI : ATR met Air Madagascar à l'honneur
C'est le nouvel appareil ATR72 aux couleurs d'Air Madagascar qui a été mis à l'honneur par la société ATR pendant le 9ème Salon aéronautique de Dubai.
En effet, c'est « Juliet Fox » qui est présent sur le tarmac, au milieu des autres appareils exposés dont le Boeing 777 et l'Airbus A380. Mais la hausse du prix du petrole aidant, l'ATR est une véritable vedette de ce
Salon vu sa consommation de carburant unanimement reconnue comme raisonnable.
Les clés de cet ATR72-500, le second acquis ce mois-ci par Air Madagascar, ont été symboliquement remises le 22 Novembre au Directeur général de la Compagnie malgache, Berend Bruns, et ce par le Président d'ATR,
Filippo Bagnato.
Immatriculé 5R-MJF, d'où son surnom de "Juliet Fox" au sein de la Compagnie, cet appareil flambant neuf porte donc à deux unités les appareils ATR72 qui vont être utilisés par Air Madagascar. Si le premier, "Juliet Echo" est opérationnel depuis le 19 Novembre, l'arrivée de Juliet Fox à Antananarivo est quant à elle programmée pour Mardi prochain. En effet, après sa présentation par ATR au Salon de Dubai, l'appareil retournera à Toulouse pour y subir les derniers tests avant son acceptation définitive par l'équipe de techniciens d'Air Madagascar conduite par le Chef de Departement de Maintenance industrielle, Jean-Charles Ranaivoson. Ce sont les Commandants Zafimanana et Lemena qui auront quant à eux l'honneur de diriger le convoyage de l'appareil vers sa future patrie.
D'une capacité de 70 places, les deux nouveaux appareils desserviront les réseaux intérieur et régional d'Air Madagascar. Ils sont équipés de sièges
en cuir, dont huit réservés à la classe business.
source : SOBIKA
lundi, décembre 12, 2005
Le lancement de Calipso attendu avec impatience par la communauté scientifique
Les scientifiques de grandes universités américaines impliquées dans le projet (Washington, Hampton, Colorado etc) s'impatientent. Des lancements pour le compte du Department of Defense sont tout d'abord passés en priorité sur le calendrier de tirs du site de Vandenberg (Californie). Après des difficultés techniques sur le satellite et le lanceur, la mission doit désormais faire face aux grèves de Boeing, l'industriel en charge du lancement, à une fermeture du site de Vandenberg jusqu'au 10 février, puis à des problèmes potentiels de priorité avec d'autres satellites gouvernementaux.
Grâce aux données fournies par Calipso, les chercheurs ont pour objectif de comprendre l'impact des nuages et des aérosols sur le réchauffement climatique de la Terre. Les technologies à bord, notamment le LiDAR (Light Detection and Ranging), permettront de créer les premières images en trois dimensions des nuages et des particules en suspension dans l'atmosphère. Certaines d'entre elles, réfléchissant le rayonnement solaire, contribuent à refroidir la planète, tandis que d'autres, absorbantes, pourraient accélérer le réchauffement. Une des questions posées est de savoir si ces phénomènes ont tendance à globalement accentuer ou compenser l'effet de serre.
Source: Etats-Unis Espace - bureau du CNES de l'Ambassade de France aux Etats-Unis
samedi, décembre 03, 2005
StarSight: des lampadaires solaires Wi-Fi
StarSight est un concept bien pensé mélangeant un éclairage urbain avec un panneau solaire et une borne Wi-Fi ou WiMAX. Le tout est gérable à distance, fournit de l'accès à Internet sans fil et peut même incorporer à sa base des chargeurs d'appareils en tous genres (lecteurs mp3, téléphones portables, ...).
Les concepteurs du projet, Kolam Partnership (Angleterre) et Nex-G (Singapour), indiquent un premier déploiement au Cameroun, permettant aux pays en voie de développement de bénéficier des dernières technologies en matière de réseaux sans fil d'accès à Internet.
Le Maroc, la Chine, l'Inde et même les highlands d'Ecosse seraient les prochains lieux à être équipés d'un tel système, qui pourrait en plus être utilisé pour les alertes de catastrophes naturelles, les pics de pollution et tout autre service.
source : canard wifi
en savoir plus : http://starsightproject.com/en/africa/index.php
dimanche, novembre 27, 2005
la France boucle sa tournée en beautée
Et de quatre. La France a battu l'Afrique du Sud 26-20 au Stade de France samedi soir et termine invaincue sa tournée de novembre après ses victoires sur l'Australie, le Canada et les Tonga. La seule équipe à avoir fait aussi bien est la Nouvelle-Zélande, auteur du deuxième grand chelem après ses quatre victoires dans les Iles britanniques. Les All Balcks, toujours aussi brillants et dominateurs, ont battu l'Ecosse 29-10 après avoir dominé l'Irlande, le Pays de Galles et l'Angleterre.
La France a ainsi entamé sa partie sur les chapeaux de roure en marquant deux essais de contre dans les dix premières minutes. Le talonneur du Stade Français, Dimitri Szarzewski fut ainsi le premier à aplatir dans l'en-but sud-africain. Avant d'être bientôt suivi par l'ouvreur de Toulouse Frédéric Michalak. Forts de cet avantage, les Français ont largement dominé la première mi-temps, avant de résister aux assauts des Springboks en seconde mi-temps. «Nous avons fait un match plein d'enthousiasme», a commenté l'arrière Thomas Castagneide, «Nous avons aussi montré que nous sommes au niveau des toutes meilleures équipes du monde".
article de libération du dimanche 27 novembre 05
samedi, novembre 26, 2005
L’homme bientôt dépassé par l’objet dans l’utilisation de l’Internet
Dans ce monde orwellien, l’homme, l’objet, les appareils électroniques et les bases de données seront reliés entre eux par un Internet radicalement transformé. "La science-fiction devient lentement réalité dans un +internet des objets+ fondé sur un réseau de connexions omniprésentes", prévoit le rapport. "Nous entrons dans une nouvelle ère dans laquelle les ’utilisateurs’ de l’Internet se compteront en milliards, mais où les hommes seront peut-être une minorité". L’Internet compte actuellement 875 millions d’utilisateurs dans le monde, un chiffre qui devrait seulement doubler si l’homme en reste le principal vecteur. Mais les experts tablent sur des dizaines de milliards "d’utilisateurs", vivants et inanimés, dans les prochaines décennies.
Ces "internautes" seront liés entre eux par un réseau omniprésent, sans que quiconque doive allumer un ordinateur où que ce soit. Des appareils ménagers télécommandés par ordinateur ont déjà fait leur apparition, ainsi que des prototypes d’automobiles dotés de détecteurs qui permettent d’éviter les collisions. Des téléphones portables peuvent servir de billet de train électronique et la viande exportée par la Namibie, ainsi que des produits destinés au distributeur américain Wal-Mart sont équipés de puces qui permettent de les suivre à la trace.
A l’avenir, l’UIT annonce l’arrivée du réfrigérateur qui communique directement avec le supermarché du coin, le lave-linge avec la chemise, la puce sous-cutanée avec un appareil médical ou encore le stylo avec l’ordinateur. "Nous sommes en train de créer une intelligence qui donne un peu de vie aux objets et permet à ces choses de discuter derrière notre dos", résume John Gage, chercheur de la firme informatique américaine Sun Microsystems. De nouveaux détecteurs placés dans des objets en ligne pourront aussi "rassembler des données de l’extérieur et humaniser la technologie en complémentant, voire en remplaçant, la détection humaine", explique l’auteur du rapport, Lara Srivastava.
Le spécialiste américain en informatique, Nicholas Negroponte, a pris l’exemple d’une poignée de porte, qui, placée à l’entrée de la maison, s’ouvrirait toute seule dès l’arrivée du propriétaire chez lui, les bras chargés de provisions, mais se fermerait en revanche aux inconnus et irait jusqu’à "signer" les recommandés. "Cette poignée serait tellement intelligente qu’elle pourrait laisser sortir le chien mais ne le laisserait pas en ramener cinq autres à la maison", suggère M. Negroponte. "Les téléphones pourront se décrocher tous seuls, deviner si l’appel est ou non important, répondre comme un majordome anglais ou comme une secrétaire de direction et, le cas échéant, alerter la +chose+ la plus proche de vous pour vous prévenir discrètement", ajoute-t-il.
Toute cette évolution est rendue possible par l’apparition des puces équipées de fréquences radio (RFID) qui peuvent être détectées en temps réel. Elle pose d’évidents problèmes de protection de la vie privée et des libertés, d’autant que les puces RFID pourront équiper des passeports, surveiller les habitudes de consommation ou la circulation de l’argent.
dépêche AFP
jeudi, novembre 24, 2005
Des piles à combustible pour mieux transformer le charbon en électricité
Cette technologie serait deux fois plus efficace que les centrales au charbon d’aujourd’hui, en réduisant des émissions de dioxyde de carbone, selon le SRI. Elle produirait de l’électricité à un coût compétitif à partir d’une variété de combustibles, y compris le charbon, le coke, le goudron, la biomasse et les déchets organiques, selon l’organisme.
« Le système du SRI mêle les principales qualités de ces deux technologies éprouvées : les piles à combustible à oxyde solide et les piles à combustible à air de carbone en fusion », déclare-t-on. « Le procédé de conversion d’énergie en une seule étape propre et hautement efficace transforme directement l’énergie chimique du charbon pulvérisé (et d’autres combustibles contenant du carbone) en électricité via l’oxydation électrochimique du carbone. »
Les États-Unis, qui disposent de réserves de charbon considérables, continueront d’utiliser le charbon comme leur source principale d’électricité pendant de nombreuses années, selon le SRI. Toutefois, les centrales au charbon d’aujourd’hui convertissent le charbon en électricité avec une efficacité relativement faible. En outre, le charbon est une source d’émissions toxiques, de gaz à effet de serre et de lourds polluants métalliques lorsqu’il est utilisé dans des centrales électriques traditionnelles.
Pour que les États-Unis gagnent leur indépendance énergétique de manière économique et durable pour l’environnement, il est nécessaire de trouver un procédé propre, efficace et direct pour convertir le charbon en énergie électrique. « Une source d’énergie doit répondre à des critères stricts pour remplacer les centrales au charbon conventionnelles », a déclaré Lawrence Dubois, vice-président du SRI. « Le système de conversion doit utiliser des ressources domestiques économiques, avoir des coûts d’exploitation et un capital comparables ou inférieurs, offrir une meilleure efficacité et capturer en interne les produits d’oxydation de combustible pour atteindre un niveau zéro d’émission de gaz à effet de serre et de gaz toxiques. L’approche de piles à combustible au carbone direct innovante du SRI a le potentiel de répondre à tous ces critères exigeants. »
source EET et TREGOUET
mercredi, novembre 23, 2005
Rendre possible l'impossible: Un laser au silicium
Depuis la création du premier laser fonctionnel, à partir d'un rubis en 1960, les scientifiques ont élaboré ces sources lumineuses à partir de substances s'étendant du néon au saphir. Le silicium, cependant, n'a jamais été considéré comme un candidat valable. Sa structure ne permettrait pas l'alignement requis des électrons pour que ce semi-conducteur puisse émettre de la lumière.
Mais l'équipe du professeur Jimmy Xu a rendu possible ce qui était tenu pour impossible. Les chercheurs y sont parvenus en modifiant la structure atomique du silicium elle-même. Cela a été accompli en forant des milliards de trous dans un petit fragment de silicium, en utilisant un gabarit nanométrique. Le résultat: une faible mais bien réelle émission laser. L'exploit est à la mesure de la réputation du professeur Xu, dont le Laboratoire des Technologies Emergentes est surnommé le Laboratoire des Technologies Impossibles.
Pour le moment, ce qui est devenu faisable n'est pas encore très pratique. Avant que ce laser au silicium ne devienne viable, il doit être rendu plus puissant et utilisable à température ambiante: une température de moins 200°C est actuellement nécessaire à son fonctionnement. Mais un matériau avec les propriétés électroniques du silicium et les propriétés optiques d'un laser trouverait des utilisations dans les domaines de l'électronique et des communications, en augmentant la rapidité et la puissance des ordinateurs ou des réseaux à fibres optiques.
Selon Xu, lorsque les lasers ont été inventés, ils ont été considérés comme la solution à un problème qui n'existait pas encore. Aujourd'hui les lasers sont utilisés dans les lecteurs de CD, les lecteurs de codes à barres aussi bien que pour la découpe de métaux ou encore en chirurgie. "Toute nouvelle découverte scientifique trouve souvent une application, il suffit d'attendre que les technologies se développent", remarque-t-il.
Vaincre l'impossible
L'émission de lumière depuis le silicium a toujours été considérée comme inaccessible en raison de la structure en cristal du silicium. Les électrons nécessaires pour l'effet laser ne sont pas produits suffisamment près les uns des autres. Les rapprocher exigerait le bon phonon "marieur", opérant avec précision au bon moment, au bon endroit, afin d'établir la connexion atomique.
Dans le passé, les scientifiques ont chimiquement modifié le silicium ou l'ont pulvérisé en poussière de particules pour produire une émission de lumière. Mais davantage de lumière était naturellement détruite que produite. Xu et son équipe ont essayé une nouvelle façon d'aborder le problème. Ils ont modifié la structure du cristal en lui retirant des atomes.
Pour cela, l'équipe a élaboré un gabarit, ou "masque", en aluminium anodisé, d'environ un millimètre carré, qui présentait des milliards de trous minuscules, de taille uniforme et parfaitement ordonnés. Placé au-dessus d'un fragment de silicium puis bombardé d'un faisceau d'ions, le masque a servi de pochoir, permettant de poinçonner précisément la matière et d'en extraire des atomes. Les atomes de silicium se sont alors réarrangés subtilement à proximité des trous ce qui a permis l'émission de lumière.
Le silicium a été testé à plusieurs reprises sur une période d'un an afin de s'assurer qu'il satisfaisait aux propriétés classiques d'un laser telles que le gain optique, l'étroitesse de l'étendue spectrale et autres.
Source: TECHNO SCIENCES and Brown University
mardi, novembre 22, 2005
EADS reçoit un prix pour le "nez artificiel hypersensible"
lundi, novembre 21, 2005
Des constructions intelligentes pour lutter contre les incendies
Le NIST étudie des standards (IBR : intelligent Building Response) qui permettront aux industriels d’élaborer des systèmes qui utiliseront divers types de réseaux de communication, y compris les réseaux sans fil et devront être capables de renvoyer des informations telles que les plans des étages et des données de capteurs de mouvement, de chaleur, biochimiques ou autres. Des caméras vidéo reliées directement au quartier général d’incendie devront pouvoir communiquer des informations détaillées de la scène du sinistre aux premiers secours.
Les sapeurs-pompiers utiliseront des ordinateurs portables pour suivre sur un plan l’évolution d’un incendie qui se développe, avant même d’atteindre les lieux. Leur écran les informera également sur certaines caractéristiques des bâtiments comme les ascenseurs, les points lumineux, les systèmes de lutte contre l’incendie ainsi que sur des données en temps réel comme la position des occupants et les conditions d’enfumage et de température.
dimanche, novembre 20, 2005
Paludisme : résultats prometteurs pour deux vaccins expérimentaux
Les chercheurs ont donc recherché, au sein de populations infectées par le paludisme, quels étaient les antigènes (protéines du parasite) déclenchant ces réactions de défenses immunitaires capables d’éliminer le parasite Plasmodium falciparum. En étudiant les protéines parasitaires reconnues par le sérum de ces sujets naturellement protégés, les chercheurs ont mis en évidence l’intérêt de l’antigène MSP3. Il existe en effet une très forte corrélation entre la présence d’anticorps dirigés contre cet antigène et la protection acquise par exposition naturelle à l’infection. L’essai clinique a montré que la vaccination à base de MSP3 induisait chez l’homme une production d’anticorps capables d’éliminer le parasite. Ces anticorps sont "aussi efficaces, ou plus efficaces", que ceux produits par des adultes africains naturellement protégés vivant en zone d’endémie.
Ce candidat-vaccin apparaît "dénué d’effets secondaires chez l’homme" et confère "des anticorps protecteurs de longue durée", notent les chercheurs. De plus, l’antigène MSP3 "ne présente pas de différences d’un parasite à l’autre qui permettraient à certains d’échapper aux anticorps induits par le vaccin", relèvent-ils.
Un autre candidat-vaccin contre le parasite du paludisme permet de protéger les enfants au moins 18 mois après l’injection, annoncent des chercheurs dans la revue médicale The Lancet. L’équipe du Pr Pedro Alonso, de l’université de Barcelone, confirme ainsi des résultats prometteurs obtenus l’année dernière auprès d’une cohorte de 2.000 enfants âgés de moins de cinq ans au Mozambique. Les jeunes enfants sont les principales victimes du paludisme.
Les essais ont montré que le vaccin (appelé RTS,S/AS02A) réduisait de 30 % la survenue d’une première crise de paludisme chez les enfants et réduisait de presque 58 % le risque d’une forme grave de la maladie comme le palu neurologique. Ce vaccin agit au cours de la première phase de reproduction du parasite dans l’organisme, avant qu’il envahisse les globules rouges. Il agit en se liant avec des protéines situées à la surface des cellules du parasite afin de prévenir le système immunitaire de l’arrivée d’un intrus.
Ces résultats "prometteurs", qui doivent être confirmés" par des essais complémentaires, laissent espérer qu’il sera bientôt possible de développer enfin un vaccin efficace contre ce fléau mondial, selon l’institut. Le paludisme tue un enfant toutes les 30 secondes en Afrique et au total entre 1 et 3 millions de personnes par an dans le monde, selon les estimations de l’OMS.
SOURCE :PLOS
Lancet
Quand l'électricité viendra des vagues
Le Pendule: il s'agit, en l'occurrence, d'un volant excentré fait d'un cylindre de béton à axe horizontal, de grand diamètre, dont la moitié supérieure est évidée. L'essentiel de la masse est donc concentrée dans la moitié basse. D'où l'effet pendule.
La cornemuse: des accumulateurs hydrauliques à haute pression, comme le sac d'air de l'instrument de musique, se remplissant par à-coups, mais se vidant en continu.
Le principe
Enfermé dans une coque totalement étanche – capable de faire sans dommage par mer extrême un tour complet – le pendule reste vertical tandis que les vagues font tanguer le flotteur. Les mouvements relatifs du pendule et du flotteur entraînent des pompes hydrauliques, qui chargent les accumulateurs à haute pression. Ces derniers livrent leur énergie à des moteurs hydrauliques, qui entraînent des générateurs d'électricité. Le tout est contrôlé, en temps réel, par "un système intelligent qui devrait multiplier, au moins par trois, l'énergie récupérée", estime Alain Clément.
Pour constituer une ferme houlomotrice, on ancrera, en formation serrée, par 30 à 50 m de fond, à 5 ou 10 km des côtes, une flotte de plusieurs dizaines de modules Searev soigneusement balisée pour ne pas gêner la navigation. En cas d'avarie à bord d'un des modules, les autres continueront à produire de l'électricité. Facile à décrocher et à remorquer, l'unité en avarie pourra être réparée dans un chantier naval portuaire, puis remise en place.
L'impact sur l'environnement ? Depuis la côte, la ferme houlomotrice, dont les flotteurs se trouvent au ras de l'eau, sera quasiment invisible, contrairement aux éoliennes en mer, une pollution visuelle qui déclenche des réactions de rejet de plus en plus nombreuses. Et bien sûr, pas de gaz à effet de serre...
Source: CNRS et techno sciences
samedi, novembre 19, 2005
Google teste un moteur de recherche sur le tourisme et envisage de louer des livres numériques
"Google est vraiment en train de montrer quelle influence il a sur le voyage, en associant véritablement la recherche et l’achat", a-t-elle ajouté. Sur Google, les utilisateurs peuvent entrer des données spécifiques sur un vol entre deux localités. Le résultat de la recherche donne des liens qui pointent vers des sites offrant des informations tarifaires. Par exemple, une recherche sur Detroit et Miami mène à un lien sur Expedia.com, qui propose des informations sur les réservations et permet aux internautes d’acheter leurs billets. La nouvelle fonctionnalité de Google permet d’entrer ses dates de voyage avant même de lancer la recherche.
A l’inverse des agences de voyages en ligne comme Expedia et Travelocity, les moteurs de recherche dédiés au voyage ne vendent pas de billets. Ils permettent seulement d’identifier les meilleures prestations tarifaires et affichent les liens des sites web qui les commercialisent. Pour l’instant, le moteur de recherche de Google dédié aux voyages, qui est en version d’évaluation, ne fonctionne que sur certaines villes américaines.
Google vient par ailleurs d’annoncer son intention de proposer des livres récents "à louer" sur Internet ; Les livres numériques seraient consultables pendant une semaine, sans possibilité de les imprimer ou de les enregistrer, contre une somme représentant 10 % du prix de vente du livre, selon un éditeur dont le journal ne dévoile pas le nom.
L’éditeur trouve ce prix de location trop faible mais estime qu’il s’agit d’une opportunité importante de pénétrer le marché du livre numérique, selon le quotidien. "Google Print recherche de nouveaux modèles d’accès afin d’aider les auteurs et les éditeurs à vendre plus de livres en ligne mais nous n’avons rien à annoncer", a déclaré au journal un porte-parole de Google. Google a mis en oeuvre un autre projet, contesté, de numériser des millions de livres puisés dans de prestigieuses bibliothèques anglo-saxonnes afin de constituer une grande bibliothèque virtuelle. Le libraire à distance Amazon.com a récemment dévoilé son intention de vendre en ligne des ouvrages au format numérique, qui pourront être achetés à la page ou au chapitre.
SOURCE: REUTERS et TREGOUET
Reprise des mises à jour du blog
Ca fait une petite semaine que je n'ai pas mis à jour le blog , après cette semaine bien chargées je m'y remet
Bonne lecture
Mathias
dimanche, novembre 13, 2005
L'Airbus A380 fait sa tournée et son show en Asie et Australie
L'A380 numéro 1 quitte Toulouse sous la pluie pour sa tournée Mais il s'agit aussi d'une tournée marketing. L'A380 va en effet participer aux festivités du 85ème anniversaire de la compagnie australienne Qantas et permet à Airbus de montrer que son avion est prêt à parcourir le monde. La dimension marketing est d'ailleurs si importante que l'avion porte successivement les couleurs des différentes compagnies clientes des pays visités.
Certaines compagnies axent leur
Après Singapour et l'Australie, l'A380 fera étape à Kuala Lumpur, en Malaisie, avant de revenir en France le 18 novembre. Il repartira le lendemain (après de nouveaux travaux de peinture ? ) pour Dubaï à l'occasion du Salon aéronautique international Dubaï Air Show. L'A380 devrait y être l'une des principales attractions.
Article issu de techno-science.net
mercredi, novembre 09, 2005
Le monde pourvu en énergie au moins jusqu’en 2030
La demande énergétique mondiale va croître de plus de 50 % d’ici 2030, estime l’AIE dans son "World Energy Outlook 2005", un rapport présentant ses analyses et prévisions détaillées jusqu’en 2030. Les deux tiers de cette progression seront à mettre au compte des pays en développement.
La demande mondiale en 2030 atteindrait ainsi 16,3 milliards de tonnes d’équivalent pétrole (tep), selon ce "scénario de référence", basé sur l’hypothèse que les politiques énergétiques actuelles seront poursuivies sur la même voie. "Les ressources énergétiques sont suffisantes dans le monde pour faire face à la croissance de la demande d’énergie prévue dans le scénario de référence", souligne l’AIE, qui relève que "les réserves mondiales de pétrole dépassent actuellement la production cumulée d’ici à 2030".
Mais cela ne veut pas dire que tout se fera en douceur, prévient-elle. Selon ses calculs, quelque 17.000 milliards de dollars d’investissements seront nécessaires dans le secteur énergétique pour assurer l’approvisionnement. Or, leur financement dans les pays non membres de l’OCDE "constitue l’un des plus grands défis à relever que laissent présager nos projections", soulignent les auteurs. Les pays consommateurs sont également concernés dans la mesure où une montée en puissance de l’industrie du raffinage - dont les faiblesses ont largement contribué à l’envolée des cours depuis le début de l’année -, est "indispensable d’urgence à l’échelon mondial". Pour ce qui est des cours, l’AIE prévoit que les prix, après avoir atteint un pic à 65 dollars en septembre 2005 (prix moyen payé par ses pays membres), devraient refluer à 35 dollars en 2010 grâce à la mise en oeuvre de nouvelles capacités de production, avant de remonter à 39 dollars en 2030.
source : Tregouet et AIE
lundi, novembre 07, 2005
Des écrans OLED qu'on imprime
Ecran OLED fabriqué par impression
Via une technique de type "impression à jet d'encre", des millions de minuscules gouttes de polymères sont apposées sur une surface conductrice, pour composer un écran fonctionnel.
Outre le fait que les écrans OLED ambitionnent de remplacer la plupart des écrans que nous utilisons actuellement (notamment les LCD), cette démonstration laisse présager d'une évolution majeure: la production industrialisée d'écrans de toute taille, éventuellement imprimés par "rouleaux".
Source: nanoblog sous Licence Creative Commons by-nd-nc
Illustration: Cambridge Display Technology
dimanche, novembre 06, 2005
Une nouvelle pile à combustible permettant d'en réduire considérablement le coût.
Une entreprise, ITM Power, située dans le comté de Cambridge, vient de créer une nouvelle membrane pour les piles à combustible PEMFC (Proton Exchange Membrane fuel Cell). Ces piles, fonctionnant au méthanol, utilisaient comme membrane du Nafion, qui coûte environ 500 dollars (environ 400 euros) par mètre carré.
Cependant, ITM Power a développé une membrane à base de polymère d'hydrocarbure, qui en plus d'avoir une conductivité ionique trois fois supérieure au Nafion, coûte seulement 5 dollars (environ 4 euros) par mètre carré. En outre, cette nouvelle membrane diminue les fuites transmembranaires de méthanol. Elle va permettre aux piles d'utiliser un milieu alcalin, qui produit une activité catalytique supérieure au milieu acide employé habituellement.
Le platine pourra ainsi être remplacé par du palladium en tant que catalyseur du côté du combustible, ce qui entraînera une diminution du prix de 25%. Cette pile, à la différence des piles à combustible conventionnelles, utilise deux liquides et ne nécessite pas d'air.
Le combustible employé est une solution de borohydrure de sodium, qui transporte 50% d'énergie en plus par kilogramme que le méthanol, et l'oxydant est du peroxyde d'hydrogène. Le fait que l'oxydant soit liquide permet d'ajuster des paramètres tels que l'hydratation, le pH et la conductivité ionique.
Les piles sont produites en utilisant le procédé "one-stop" d'ITM : les liquides sont versés dans un moule contenant la membrane et le catalyseur, puis l'ensemble est introduit dans une chambre à rayonnement gamma, ou les liquides se gélifient et restent élastiques. Ces piles sont moulées dans différentes formes et peuvent se courber pour s'adapter à n'importe quelle configuration, contrairement aux systèmes conventionnels. Ainsi le système peut être utilisé par les services d'urgences car il n'émet ni CO2 ni fumée contrairement aux piles classiques.
Comme elle est complètement hermétique, son usage peut être élargi pour des applications sous-marines et aéronautiques. D'après le Président d'ITM Power, Jim Heathcote, cet appareil peut produire continuellement 20 W de puissance pendant plus de trois jours, ce qui est le standard minimum pour les armées britannique et américaine. Ce système annonce peut être l'ère des piles à combustible accessible à tous car économiquement viable. "C'est un changement fondamental dans la conception des pile à combustible" estime le président Heathcote.
article issu du site achat-industriels.com
Les nanostructures vont faire exploser la capacité des disques durs
En travaillant sous vide et en se plaçant à une température donnée (-143°C), les chercheurs ont déposé des atomes de cobalt (qui se sont condensés à partir d’une phase gazeuse) sur des surfaces d’or cristallines. Les atomes de ces surfaces étant rangés selon un réseau régulier, les plots de quelques centaines d’atomes ainsi obtenus forment eux-mêmes un réseau régulier. Cette technique d’auto-assemblage consiste donc à laisser la nature fabriquer des nanostructures. Elle est également qualifiée de « bottom-up » (on part du « bas », c’est-à-dire de l’échelle nanométrique, pour obtenir « plus haut » des propriétés intéressantes à l’échelle macroscopique).
Comme les atomes déposés sont magnétiques, on obtient des réseaux de nanostructures qui repoussent les limites de la densité de stockage de l’information, telle qu’elle existe dans les disques durs. Actuellement, l’information est stockée dans une couche mince, constituée de petits grains d’un alliage à base de cobalt. Un bit occupe 1000 grains. Avec les réseaux de nanostructures magnétiques, on pourrait stocker un bit sur un seul grain. L’uniformité des propriétés magnétiques des plots et les couplages négligeables entre plots voisins permettent d’envisager l’écriture et la lecture d’un bit par plot. La densité des plots, de 4 000 milliards de bits par centimètre carré, représenterait un gain d’un facteur 200 par rapport aux densités d’enregistrement des meilleurs disques durs en démonstration actuellement (ce gain tient compte de l’espace entre les plots et de la taille des grains).
source CNRS
Ca ne s'arrange pas et les violences touchent Toulouse ainsi que d'autre régions
MIDI-PYRÉNÉES. Une cinquantaine de tentatives d'incendies volontaires ont été recensées samedi soir dans l'agglomération toulousaine, dans les quartier de la Reynerie, du Mirail et à Empalot, dont 40 voitures brûlées vers minuit trente. A la même heure la police faisait état d'une dizaine d'interpellations parmi les petits groupes de jeunes auteurs de ces dégradations ou de jets de cailloux sur les forces de l'ordre. Une quinzaine de feux de poubelles ont été allumés, dont certains à proximité immédiate d'établissements publics, notamment un école maternelle et un collège du quartier du Mirail. Les devantures de quelques commerces ont été légèrement endommagées, et un début d'incendie a été maîtrisé en début de soirée dans une bibliothèque du quartier sensible de la Reynerie. Seul celui-ci avait été touché samedi, avec 7 incendies de voitures.
la totalité de l'article se trouve ici : CLIQUEZ ICI POUR ACCEDER A L'ARTICLE COMPLET SUR LE SITE "LEMONDE.FR"
samedi, novembre 05, 2005
Une caméra qui reconnaît le sexe et l’âge de la personne filmée
L’entreprise nippone a conçu ce système à partir d’une base de données composée de 10.000 portraits d’hommes et de femmes. Selon Yamaha, la caméra reconnaît dans 88 % des cas le sexe de la personne filmée (soit environ le même pourcentage que l’oeil humain, affirme le groupe), et sa tranche d’âge exacte dans 77 % des cas.
jeudi, novembre 03, 2005
Une tour solaire de 1000 mètres de haut !
Sa hauteur sera presque le double que la tour de CN au Canada (553 mètres). La tour solaire est creuse au milieu comme une cheminée. L'air sous le collecteur est chauffé par le Soleil et est dirigé vers le haut de la cheminée par convection, le déplacement de l'air permet à 32 turbines de produire de l'électricité. Son fonctionnement se base sur le principe simple: l'air chaud monte.
La tour pourrait produire environ 200 mégawatts, six fois moins qu'une centrale nucléaire moderne, mais assez pour fournir en électricité environ 200.000 logements.
C'est un projet incroyable mais réaliste. Les études de faisabilité par le bureau d'ingénieurs allemand SBP, basée à Stuttgart, arrivent à leur terme. Cette "Solar Tower" sera construite par l'entreprise EnviroMission dans le désert de la province australienne du New South Wells par. La production devrait commencer en 2010.
Le Soleil chauffe, grâce à l'effet de serre, la plate-forme à la base (d'un diamètre de 7 kilomètres). Si la température extérieure est de 30° C au sol (20°C à 1000 mètres d'altitude), elle atteint 70° C au pied de la cheminée. Le flux d'air dans la structure sera alors d'environ 15 mètres par seconde.
L'avantage principal de cette technologie est son prix, peu d'entretient, mécanique simple, gratuité des rayons du soleil. De plus comme le sol emmagasine de la chaleur le jour pour la redonner la nuit, le système est totalement opérationnel 24 heure sur 24. Le seul point noir est l'investissement de départ qui est d'environ 400 millions d'euros.
La "Solar Tower" fournirait un kilowatt/heure près d'un tiers moins cher que ceux fournis par les panneaux solaires, mais encore cinq fois plus cher que l'électricité au charbon produit actuellement en Australie. Les serres de verres pourraient être louées à des agriculteurs et des touristes pourraient visiter la tour, afin de réduire encore significativement le prix du kilowatt/heure.
Une première "Solar Tower" existe en Espagne, à 150 kilomètres au sud de Madrid, dans la région de la Mancha, patrie de Don Quichotte. Cette tour prototype, d'une hauteur de 194 mètres et réalisée avec des fonds du Ministère ouest-allemand de la recherche et de la technologie, a fonctionné entre 1981 et 1989. La puissance produite atteignait 50 kilowatts.
mercredi, novembre 02, 2005
L'anti-matière au labo
Que se produit-il quand deux atomes, l'un possédant un électron et l'autre sa contrepartie dans l'antimatière, appelé le positron, entrent en collision ? Les physiciens de l'Université de Californie de Riverside ont pu observer pour la première fois en laboratoire que les atomes d'antimatière, appelés atomes de positronium instables par nature, deviennent encore plus instables après la collision. Ils se détruisent les uns les autres, se transformant en rayonnement électromagnétique gamma.
"Nos recherches nous ont également donné le premier indice de la présence de molécules doubles de positronium, chacune d'entre-elles se composant de deux électrons et de deux positrons", fait remarquer Allen Mills, professeur de physique et directeur du projet. "Ce genre de couplage matière-antimatière n'a jamais été étudié jusqu'ici en laboratoire, et nos travaux préparent le terrain pour un nouveau domaine d'étude de ces propriétés".
Chaque particule de matière possède une antiparticule correspondante d'antimatière. Les électrons sont des particules chargées négativement qui entourent le noyau de chaque atome. Le positron est une antiparticule de même masse et de même valeur absolue de charge qu'un électron mais cette charge est positive. Quand la matière tel un électron et une quantité égale d'antimatière tel un positron se combinent, elles sont converties en particules énergétiques ou en rayonnement.
La durée de vie des positrons est généralement très courte parce qu'ils tendent à se combiner rapidement avec des électrons. Mais, en emmagasinant des positrons dans une "bouteille magnétique", les physiciens ont pu prolonger leur durée de vie et les accumuler par millions.
Lors de leurs expériences, les chercheurs de l'UCR produisaient les positrons à partir d'une forme radioactive de sodium. Ils ont déversé les positrons hors de la bouteille magnétique sur un minuscule point d'une cible constituée d'un mince fragment de silice poreuse. Les positrons se sont alors combinés avec des électrons pour former spontanément une concentration élevée d'atomes instables de positronium. Ces atomes nouvellement formés ont rapidement occupé les pores de la cible, et ont commencé à se heurter entre eux, en produisant de l'énergie sous forme de rayonnement gamma.
"C'est la première fois que l'on pouvait observer un ensemble d'atomes de positronium entrant en collision", indique Mills. "Nous savions que nous avions une accumulation dense de ces atomes parce que, étant ainsi si proches les uns des autres, ils s'annihilaient plus rapidement que lorsqu'ils sont libres".
Ces travaux ouvrent la voie à de futures expériences qui pourraient utiliser un laser à atomes de positronium pour rechercher des effets d'anti-gravité associés à l'antimatière et pour mesurer les propriétés du positronium avec une précision très élevée. "Jusqu'ici, nous n'avons que des présomptions sur la présence de molécules doubles de positronium dans nos expériences", ajoute Mills. "La prochaine étape sera de confirmer leur existence et de mesurer leurs propriétés".
source : University of California, Riverside et techno sciences
lundi, octobre 31, 2005
Le Japon teste avec succès la maquette du futur avion supersonique SST
L'agence aérospatiale japonaise JAXA a effectué le 10 octobre dernier le premier essai en vol réussi d'une maquette du SST (Supersonic Transport), successeur prévu du Concorde, un avion qui pourra voler à deux fois la vitesse du son. Il y a trois ans, un essai non-piloté semblable s'était terminé par un crash dans l'Outback australien.
Le modèle réduit développé par Mitsubishi Heavy Industries, long d'un peu moins de 12 mètres, a volé lundi dernier dans le ciel de Woomera en Australie du Sud. Le prototype en forme de flèche et sans moteur était propulsé par une fusée à combustible solide. Il a atteint une altitude de 19 kilomètres et après séparation la vitesse de mach 2, soit 2460 kilomètres par heure. Il est ensuite redescendu sur terre à l'aide d'un parachute.
Le programme, d'un coût de 10 millions de dollars, fait partie d'un projet visant à construire un avion supersonique d'une capacité de 300 places capable de relier Tokyo à Los Angeles en environ quatre heures et moins contraignant que Concorde au niveau bruit, consommation et pollution.
pour en savoir plus : Japan Aerospace Exploration Agency
"Technologies spatiales contre invasions de criquets"
Les criquets pèlerins : fléau de l’Afrique
L’année 2004 a vu le retour d’un terrible fléau en Afrique : les invasions de criquets pèlerins dans les pays du Sahel.
Ces criquets traversent l’Afrique d’est en ouest, dévorant sur leur passage les cultures du Maghreb et des pays sahéliens. Un désastre agricole qui représente un vrai danger alimentaire et risque d’entraîner des famines.
Capable de se déplacer de 200 km par jour en se laissant porter par les vents, un essaim compte plusieurs milliards de criquets particulièrement voraces.
Chacun d’entre eux ingurgite 2 grammes de végétation par jour : à ce rythme, ce sont quelques 10 000 t de végétation qui disparaissent quotidiennement.
Face à ce danger alimentaire et humanitaire, le CNES avec ses filiales CLS et Novacom, a proposé au FAO* des outils permettant de suivre l’évolution des nuages de criquets par satellites.
Des satellites au secours des cultures africaines
Mais comment, concrètement, les technologies spatiales peuvent-elles être utiles dans le cas d’une invasion de criquets ?
Il faut d’abord comprendre que les conditions de propagation du criquet dépendent de la météorologie : la pluie, favorable aux récoltes, facilite l’éclosion des insectes, les sols sablonneux ou argileux et humides sont un terrain idéal pour la ponte, une végétation bien verte les amène à maturité…
Le procédé de prévention proposé par le CNES repose sur des systèmes d’alerte déclenchés en fonction des conditions climatiques, comme l’apparition de vent qui peut annoncer une arrivée de criquets. Grâce à une localisation en temps réel des essaims, les pays concernés peuvent prendre les mesures d’éradication nécessaires.
Un projet pilote a été mis en place par la FAO sous maîtrise du CNES en juillet dernier. Et l’expérience s’est révélée positive puisque la FAO souhaite mettre en place un projet opérationnel dans pas moins de 21 pays.
Un bel exemple d’ application des technologies spatiales au service d’une bonne cause : « la sécurité alimentaire, en permettant au pays infesté de mieux lutter contre ce fléau ailé !».
article trouvé sur le site du CNES -
-
Un nouveau Leica numérique
Article issu du magazine Presence PC
Leica a créé la surprise ce matin en annonçant la commercialisation prochaine de son prochain appareil photo compact numérique, le Leica D-LUX 2. Vu de loin, l’appareil est très alléchant, et dispose d’une finition et d’un design qui font irrémédiablement penser à la série des boîtiers «M», devenus légendaires.
L’appareil a la particularité de pouvoir prendre des clichés sous plusieurs formats. Le photographe peut à loisir passer du format 16/9 (en 8 méga-pixels), au 4/3 (6 méga-pixels), en passant par le 2: 3 (24x36 en 7 méga-pixels). L’appareil n’a pas de viseur direct, ce qui constitue une petite révolution dans le monde de Leica, et dispose donc d’un écran LCD de 2,5’’ pour assurer le cadrage. L’optique est un zoom d’équivalence 28 mm-112 mm pour une ouverture de 2,8-4,9. Il va sans dire que le stabilisateur d’image fait parti du lot, qu’il est possible de débrayer l’appareil en mode manuel total, et bien sûr, qu’il peut enregistrer des images en format Jpeg, Raw et Tiff. Cerise sur le gâteau, l’appareil peut enregistrer des vidéos.
Reste la question épineuse du prix. Les amateurs de photographie auront remarqué au passage que cet appareil numérique est un clone du Panasonic Lumix LX1, qui présente les mêmes caractéristiques, sans toutefois présenter la même finition. De fait, on note que le LX1 est plus léger de 15 grammes que le Leica (tout du moins sur les données constructeur). Si Panasonic présente son appareil à environ 600 Euros, il faudra donc parier à un prix «made in Leica», supérieur de 100 à 200 Euros à celui du Panasonic. Certes, ce n’est qu’une spéculation, mais si cette estimation se révèle exacte, Leica devra se poser des questions quant à sa manière de prendre le tournant de la photographie numérique.
samedi, octobre 29, 2005
Comment le cerveau génère-t-il son horloge interne ?
Selon des scientifiques américains, le cerveau est une véritable "machine temporelle". Et comprendre comment le cerveau gère son temps est essentiel à la compréhension de toutes ses fonctions. Les horloges internes du cerveau coordonnent un vaste champ d'activités comme la communication, la coordination des mouvements ou l'alimentation.
Dans un article de "Nature Reviews Neuroscience" d'octobre 2005, les neurologistes Catalin Buhusi et Warren Meck de l'Université Duke à Durham en Caroline du Nord, décrivent l'état actuel des connaissances sur l'une des plus importantes mais mystérieuses horloges du cerveau, celle qui régit la synchronisation dans une échelle de temps qui s'étend de la seconde à la minute. Cette "synchronisation d'intervalle" occupe un domaine neurologique situé entre deux autres horloges, l'horloge circadienne liée au cycle jour-nuit de 24 heures, et l'horloge à l'échelle de la milliseconde qui contrôle la motricité ou la génération et l'identification de la parole.
La synchronisation d'intervalle est utilisée pour des tâches comme la marche, la manipulation d'objets, le suivi d'une conversation ou la perception des objets dans son environnement.
"Elle nous est utile pour comprendre l'ordre temporel des événements, par exemple lors d'une conversation" explique Meck. "Pour comprendre le discours, le cerveau non seulement doit traiter des intervalles de temps de l'ordre de la milliseconde impliqués dans l'attaque de la voix, mais également appréhender la durée des voyelles et des consonnes. En outre, pour répondre, il doit rythmer la parole, organiser les pensées avec cohérence et répondre de façon opportune. C'est là toute la synchronisation d'intervalle, et en fait il est difficile de trouver un quelconque processus comportemental complexe dans lequel elle ne soit pas impliquée".
Selon lui, le déchiffrement des mécanismes neuraux de telles horloges est sans doute plus fondamental à la compréhension du cerveau que, par exemple, le traitement neural de la position dans l'espace et du mouvement. Pour Buhusi, le temps est plus fondamental que l'espace, parce qu'on peut simplement fermer les yeux et revivre des événements à rebrousse-temps, ou se projeter dans l'avenir pour prévoir quelque chose, sans changer de position dans l'espace.
La compréhension du mécanisme de la synchronisation d'intervalle est très difficile parce qu'il est "amodal", selon les deux scientifiques. Cela signifie que son horloge est indépendante de tout sens, le toucher, la vue, l'audition, le goût ou l'odorat. Ainsi, elle ne peut pas être localisée dans un secteur déterminé du cerveau, comme peut l'être l'horloge circadienne, qui a des entrées claires situées dans la vision et qui déclenche l'émission cyclique des hormones circadiennes.
"Ce processus doit être distribué puisqu'il est capable intégrer les informations de tous les sens", indique Meck. "Mais surtout, comme il est impliqué dans l'apprentissage et la mémorisation, on pourrait penser que le temps n'est pas directement perçu, et que nous effectuons des discriminations temporelles par rapport à des souvenirs de durées antérieures. Cela rend le mécanisme de la synchronisation d'intervalle plus confus, allant jusqu'à faire douter qu'une horloge interne de la sorte puisse même exister".
Un pacemaker dans le cerveau ?
Dans les années 80 Meck et son équipe avaient proposé une théorie basée sur un modèle de "stimulateur-accumulateur". Quelque part dans le cerveau devait se trouver un stimulateur biologique indépendant qui émettait régulièrement des impulsions de synchronisation neurales, une espèce de "tic-tac". Les recherches plus récentes, menées par Meck et ses collègues de l'université Duke, ont conduit au développement d'un modèle de "détection de coïncidences" des oscillations de l'activité neurale impliquant une zone appelée le striatum. Le striatum est une partie de la structure de cerveau qui commande des fonctions de base du corps humain comme le mouvement.
Dans ce modèle, explique Buhusi, "chaque structure du cerveau contribue à sa propre résonance, et toutes ces oscillations sont surveillées et intégrées par les circuits "striataux". C'est comme un chef qui écoute son orchestre qui se compose de différents musiciens et qui, par le battement de sa baguette, synchronise l'ensemble de sorte que les auditeurs perçoivent une harmonie".
Ainsi, en quelque sorte, c'est le cerveau dans son ensemble qui est une machinerie complexe de synchronisation d'intervalle, dans laquelle les différentes structures occupées par leur propre charge neurale, produisent des résonances qui sont intégrées pour devenir les tops de l'horloge neurale.
Source: Duke University
vendredi, octobre 28, 2005
La musique douce réduit la tension artérielle
L’écoute d’une mélodie douce entraîne un ralentissement des rythmes cardiaque et respiratoire, et fait même chuter la tension artérielle, affirment des chercheurs italiens. Si différentes études avaient déjà démontré que la musique peut, par exemple, réduire le stress et même améliorer la performance athlétique, c’est la toute première fois que des chercheurs se penchent sur l’impact physiologique de différents types de musique. Les chercheurs, qui publient les résultats de leur étude dans l’édition courante du journal Heart, ont recruté 24 participants d’âges semblables, dont la moitié avait une formation musicale avancée. Les 12 autres participants ont formé le groupe témoin.
Tous ont dû écouter, pendant six minutes, des extraits de pièces aussi variées que la Neuvième symphonie de Beethoven, du raga (de la musique classique hindoue), les Red Hot Chili Peppers (un groupe contemporain), Vivaldi, de la musique techno et Anton Webern (un musicien allemand). L’écoute de musique rythmée a entraîné une accélération des rythmes respiratoire et cardiaque, tout comme une augmentation de la tension artérielle proportionnelle au tempo, et peut-être aussi à la complexité de la partition jouée. Le style ou même les préférences individuelles auraient eu moins d’impact. Lorsque la musique s’arrêtait, le tout redescendait pour atteindre des taux parfois inférieurs aux taux de départ.
La musique plus douce, elle, on s’en doute, a eu l’effet inverse. Elle a notamment entraîné une chute du rythme cardiaque. L’effet le plus prononcé a été obtenu avec le raga. Les participants ayant une formation musicale se sont aussi révélés être plus réceptifs à l’effet de la musique. Un effet relaxant similaire à celui provoqué par la musique douce a déjà été associé à des activités comme la lecture de poésie rythmique ou la récitation d’un mantra de yoga ou d’un rosaire.
source : passeport santé
jeudi, octobre 27, 2005
Vous pensez qu'une table à 4 pieds sur un sol irrégulier est forcément bancale ?
http://xxx.arxiv.org/PS_cache/math-ph/pdf/0510/0510065.pdf
Si lorsque vous vous rendez au restaurant ou au café, la table que vous choisissez se trouve être toujours bancale, ne désespérez pas. Un physicien vient de démontrer que, dans des limites raisonnables, il est toujours possible de tourner la table jusqu'à une position où chacun de ses quatre pieds reste fermement fixé au sol.
André Martin a été incité à étudier le problème par l'instabilité notoire des tables de la cafétéria du CERN, le laboratoire européen de physique des particules à Genève, où il travaille sur des problèmes complexes dans le domaine de la physique des hautes énergies. Selon lui, quiconque déguste un café sur la terrasse découvre très vite que les tables ne reposent sur le sol que par trois pieds, de sorte que le plus léger contact renverse la boisson. À maintes reprises, Martin devait faire pivoter la table pour rechercher une position stable. "J'ai toujours pu en trouver une", dit-il, "et les gens sont souvent stupéfaits que cela fonctionne".
Il y a plus de dix ans, Martin a décidé de voir s'il pourrait trouver la preuve qu'un état stable existe toujours. En 1998, il a pensé avoir trouvé et a même présenté sa solution lors de cours d'été mais il n'en a jamais fait le compte-rendu et a découvert que de toute façon elle n'était pas tout a fait correcte. Aujourd'hui, Martin pense avoir une réponse plus solide, qu'il a d'ailleurs publiée (1). "J'ai eu la sensation que les mathématiciens étaient intéressés", explique-t-il.
Pour pouvoir décrire mathématiquement le problème, il a dû faire quelques hypothèses simplificatrices. Il n'a considéré que des tables de forme carrée avec un pied à chaque coin et a supposé que chaque pied touchait le sol en un seul point. Le sol lui-même, pour sa part, devait être plus favorable qu'il n'est souvent dans la nature, pouvant posséder de nombreuses aspérités mais devant être dépourvu de pentes raides ou de changement abrupt de hauteur: l'inclinaison entre deux points quelconques de la surface n'est jamais supérieure à 15°.
"Comparé avec la réalité, c'est très lisse" admet Martin. Mais il ajoute qu'une surface ordinaire mal nivelée ou une pelouse inégale satisferait ces hypothèses. Sous ces conditions, Martin a démontré qu'il y a toujours une façon de procéder pour que chacun des quatre pieds de la table soit en contact avec le sol. En général, cela ne laissera pas le plateau de la table parfaitement horizontal, mais la pente sera toujours relativement faible.
Martin soupçonne que sa solution puisse être étendue à des tables de forme non carrée si chacun des quatre pieds se trouve sur un cercle, mais il n'en a pas encore la preuve rigoureuse.
Savoir si son étude amènera plus de sérénité pendant les pauses-café du CERN est un autre problème: le sol semble à cette endroit trop irrégulier. "La difficulté avec cette terrasse est qu'il y a de l'herbe et des pavés", indique Martin.
source : NATURE et techno science
mercredi, octobre 26, 2005
Septembre, mois le plus chaud jamais enregistré sur la planète
Septembre a été le mois le plus chaud jamais enregistré sur la planète depuis que les températures sont prélevées scientifiquement en 1880, a indiqué le Centre national océanique et atmosphérique américain (NOAA). La température moyenne était de 0,63 degré Celsius (1,13 degré Fahrenheit) au-dessus de la moyenne, selon un communiqué du NOAA publié sur son site Internet. Il s’agissait du deuxième mois le plus chaud depuis septembre 2003 quand la température moyenne avait été de 0,57 Celsius (1,02 degré Fahrenheit) supérieure à la moyenne. Aux Etats-Unis, septembre 2005 n’a été que le quatrième mois le plus chaud depuis 1880 avec une température moyenne de 1,4 degré Celsius (2,6 degrés Fahrenheit) au-dessus de la moyenne.
La Louisiane, frappée par le cyclone Katrina le 29 août, a connu son mois de septembre le plus chaud depuis 111 ans et 27 autres Etats américains ont aussi enregistré des températures moyennes record ce même mois. Le 28 septembre, le Centre National américains sur les neiges et les (NSIDC), avait annoncé une forte réduction de la calotte glaciaire arctique pendant l’été 2005 et ce pour le quatrième été consécutif, un phénomène attribué au réchauffement du climat. "Etant donné le bas niveau record des glaces cette année à l’approche de la fin septembre, 2005 va presque certainement surpasser 2002 pour la plus faible superficie de glace dans l’Arctique depuis plus d’un siècle", avait alors déclaré Julienne Stroeven, une des scientifiques du NSIDC. Ces observations et mesures sont effectuées à l’aide de satellites de la Nasa, l’agence spatiale américaine. "A ce rythme, l’Arctique n’aura plus de glace pendant la saison d’été bien avant la fin de ce siècle", avait-elle ajouté.
source : NOAA sur ce site http://www.noaanews.noaa.gov/stories2005/s2521.htm
mardi, octobre 25, 2005
Une berline électrique roulant à 370 km/h
Dans le cadre de l'exposition automobile de Tokyo 2005, des chercheurs japonais ont dévoilé ce jeudi Eliica, la voiture berline électrique la plus rapide du monde, un prototype à huit roues doté d'une vitesse de pointe de 370 kilomètres par heure.
Cette version d'Eliica a été développée par des chercheurs de l'université Keio de Tokyo en collaboration avec des entreprises privées et du gouvernement japonais. Le véhicule possède une accélération lui permettant de passer de zéro à 100km/h en 4,2 secondes et d'atteindre 160 km/h en sept secondes. Chacune des huit roues possède son moteur, alimenté par des batteries ion-lithium.
Eliica a déjà commencé des essais sur route. Ses concepteurs projettent de produire le véhicule en petit nombre pour débuter. Bien que sa commercialisation ne soit prévue que pour dans quelques années, une centaine de clients potentiels seraient déjà intéressés, ceci malgré un prix de vente estimé à un peu plus de 200.000 euros.
sources : le quotidien auto , techno-sciences
lundi, octobre 24, 2005
Des cerf-volants pour voler l'énergie du vent
Le projet KiWiGen concerne un générateur éolien de 2000 tonnes distribuant 84 MW, c'est-à-dire la même puissance qu'une centrale nucléaire, pour des coûts moins importants et une même superficie.
Des experts de l'énergie comme Pineau d'Electricité de France, Van Sark de l'Université d'Utrecht, Mawsouf de l'Université du Caire, Ockels de l'Université de Delft, Mortimer de Scottish Power, Wim Turkenburg de la Commission Sources Renouvelables des Nations Unies et l'European Space Agency (pour une éventuelle utilisation sur Mars) affirment d'ailleurs que ce projet ne relève pas de l'utopie. En effet, au-delà de 500-600 mètres d'altitude, le vent est fort et constant, et un flux de vent, dont la puissance est équivalente à celle de 100.000 centrales nucléaires, souffle au-dessus de l'Europe. Toutefois le problème est de capturer cette puissance, d'où le projet Kite Wind Generator.
Le concepteur du projet KiWiGen est Massimo Ippolito, patron de Sequoia Automation à Chieri (près de Turin) passionné de "kite surfing", sport de glisse grâce à un cerf-volant de traction manoeuvré avec deux câbles et une planche de surf spéciale. Un des principaux produits de son entreprise est le capteur intelligent "SeTAC", un détecteur d'accélérations tri-axiales (capable de détecter les accélérations dans les trois directions) ayant les dimensions et le poids d'une boîte d'allumettes, caractéristiques qui le rendent unique au monde dans son genre et adapté à une multitude d'applications (décrites sur le site http://www.sequoiaonline.com).
Ippolito a conçu un système de cerfs-volants de puissance, à plusieurs ailes, qui, à environ 700 mètres d'altitude, actionnent à terre un générateur à axe vertical à travers des bras. Chaque cerf-volant sera équipé de deux SeTAC qui gouverneront, à travers un programme de contrôle, les continuelles variations d'orientation nécessaires pour lui conférer la portance maximale et lui faire suivre, toujours avec une portance positive, un parcours circulaire.
Les cerf-volants utilisés auront une superficie de quelques dizaines de mètre carré, un profil alaire rigide en arc et seront réalisés en polyéthylène alvéolaire. Au repos, les cerf-volants seront insérés dans des bras creux. Ce système pourra être activé soit en lançant, hors de son bras, un des cerf-volants qui se lèvera alors à la plus petite brise et commencera à faire tourner le système provoquant la sortie et le décollage des autres cerf-volants, soit en le faisant tourner avec l'alternateur qui jouera le rôle de moteur. Cette opération peut évidemment être réalisée en sens inverse quand il est nécessaire de rentrer les cerf-volants dans leurs bras respectifs pour l'arrêter.
La puissance du système sera fonction du diamètre. Ainsi, de manière indicative, un diamètre de 100 mètres équivaudra à un générateur de 0,5MW tandis qu'un diamètre de 200 mètres vaudra un générateur de 500MW.
Le coût de construction d'un KiWiGen d'un GigaWatt serait d'environ 80 millions d'euro, c'est-à-dire moins que celui d'une installation traditionnelle, tandis que le coût d'un MWh produit par ce système serait de seulement 1,5 euros. Ce système sera très certainement en synergie avec l'énergie photovoltaïque et ceci entre autres parce que l'excès d'énergie nocturne produite pourrait alimenter le procédé pour raffiner le silicium des cellules solaires.
Sources : Challenges , TUTTO SCIENCE , INFOS-INDUSTRIELLES
dimanche, octobre 23, 2005
La théorie des cordes fait vibrer un univers à 10 dimensions
Et voilà que les physiciens inventent de nouvelles dimensions, à en donner le tournis. Pour comprendre ce qui les amène à cette construction improbable, il faut rappeler que la physique moderne avance sur deux jambes. D’un côté, la relativité générale d’Einstein. Décrivant le comportement des corps soumis à la gravitation, ou gravité, elle s’applique à la structure à grande échelle de notre univers. A l’autre extrémité, la mécanique quantique rend compte du comportement des particules élémentaires à une échelle infinitésimale.
La mécanique quantique a donné naissance, dans les années 1970, à un superbe modèle, le "modèle standard". Il postule, vérifications expérimentales à l’appui, que l’univers est formé, en tout et pour tout, de 12 particules de matière, 6 quarks et 6 leptons, et de 4 particules porteuses de forces. Mais ce modèle n’intègre que trois de ces forces, celles qui interviennent à l’échelle atomique ou subatomique : la force électromagnétique liant les électrons aux noyaux et deux forces à l’oeuvre à l’intérieur des noyaux, la force faible et la force forte. Le modèle laisse de côté la quatrième force, la gravité, aux effets négligeables à l’échelle des particules élémentaires mais qui, aux échelles plus importantes, domine pourtant.
Jusqu’à présent, les physiciens n’ont pas réussi à faire marcher ces deux jambes du même pas. Si bien que leur représentation de l’Univers claudique. C’est ici qu’intervient la théorie des cordes, qui se propose de réconcilier relativité générale et mécanique quantique. De réaliser la "grande unification". Bref, de livrer la clé ultime de l’univers.
La porte a été entrouverte par l’Italien Gabriele Veneziano. C’était en 1968. Il travaillait alors sur les interactions nucléaires fortes. "Nous avons mis en évidence une propriété un peu bizarre, une dualité comparable à la double nature ondes et particules de certains constituants de la matière, relate-t-il. Et nous nous sommes aperçus que cette propriété supposait l’existence de particules dont le spectre d’excitation ressemblait au spectre de fréquences d’une corde musicale." La théorie des cordes était née. Elle allait connaître plusieurs rebondissements. A partir du milieu des années 1970, le succès du modèle standard l’éclipse. Seule une poignée de physiciens dans le monde continuent à s’y intéresser.
Par un renversement conceptuel dont la science est friande, la théorie des cordes effectuera un retour, non plus à partir de l’étude des interactions fortes, mais de la gravitation. Plus exactement, comme "théorie quantique de la gravitation". Elle suppose en effet l’existence de plusieurs particules de masse nulle, dont le graviton, lequel porterait la force de gravité jusqu’alors exclue du modèle standard. La jonction entre mécanique quantique et relativité était faite. "Le rêve poursuivi toute sa vie par Einstein, commente Gabriele Veneziano , - était - enfin réalisé."
La théorie des cordes suscite, à partir du milieu des années 1980, un engouement qui ne se démentira plus. Elle s’enrichira d’une théorie des supercordes. Et se déclinera en cinq versions, dont subsiste aujourd’hui une principale, dite théorie M, comme "mystère". Que dit cette théorie ? Que les constituants ultimes de la matière, les quarks ou, s’il en existe, des particules encore plus petites, ne ressemblent pas à des points, mais à des cordes vibrantes, c’est-à-dire à des objets unidimensionnels étendus dans l’espace, pouvant être ouverts ou fermés en boucle.
Inutile de chercher à voir ces vibrionnants choristes : la taille d’une corde serait de l’ordre de 10 puissance moins 34 mètre. Elles ne peuvent s’exprimer, disent les équations, que dans un univers comptant, au minimum, 6 dimensions spatiales supplémentaires par rapport aux 3 que nous connaissons. Ce qui porte à 10 le nombre de dimensions du monde des cordes. Certains physiciens en ajoutent une, ce qui mène à 11... C’est beaucoup, mais bien moins que les 26 dimensions un moment supposées, avant que la théorie des supercordes ne fusionne des cordes interagissant entre elles pour obtenir un nombre moins extravagant.
Comment se représenter l’inimaginable ? Pas question, ici, d’univers parallèles. Les dimensions supplémentaires s’apparenteraient plutôt, décrit Gabriele Veneziano, à des boucles microscopiques. Leur taille, qu’elle reste de l’ordre de celle des cordes elles-mêmes ou atteigne 1 millimètre, les rend inaccessibles à nos sens. Pour que nous percevions ces infimes circonvolutions de notre espace-temps, il faudrait être à leur échelle. Si spéculative soit-elle, la théorie des cordes séduit un nombre croissant de physiciens. Aujourd’hui, plusieurs milliers de "cordistes" sur la planète rêvent de valider ces hypothèses dans le nouveau grand collisionneur de particules du CERN de Genève ou en observant les traces d’un hypothétique pré-Big Bang, quand l’espace-temps avait peut-être la taille d’une corde. "Le modèle standard a mis des dizaines d’années avant d’être formalisé, dit Gabriele Veneziano. Patience !" Façon de donner du temps à l’espace-temps multidimensionnel.
article que j 'ai trouvé dans le monde du 13 octobre.
samedi, octobre 22, 2005
Lancement de la phase industrielle de l'Airbus A350
C'est maintenant officiel, l'Airbus A350, le concurrent direct du Boeing 787, est lancé. L'annonce faite ce jeudi concerne la phase de production industrielle de l'appareil. Airbus précise par la même occasion avoir engrangé 140 intentions d'achat pour son nouvel avion en provenance de neuf grandes compagnies aériennes, et que ce nombre devrait monter à 200 d'ici la fin de l'année.
Selon Gustav Humbert, le PDG d'Airbus, "avec ce nouvel appareil, la famille Airbus s'agrandit, et nous sommes en mesure de répondre à l'ensemble des besoins sur le marché long-courrier, avec l'A380 sur les vols entre plateformes aéroportuaires, l'A340 pour les lignes très long-courriers, l'A330 et maintenant le nouvel A350 sur les vols moyen à très long-courriers, tout en offrant une rentabilité opérationnelle et un confort inégalés".
La mise en service du premier Airbus A350 doit intervenir courant 2010, soit 2 ans après celle de l'appareil concurrent, le Boeing 787. Tout comme son concurrent, le dernier-né d'Airbus est un bimoteurs très long courrier de moyenne capacité. Il se déclinera en deux versions, l'A350-800 capable de transporter 253 passagers dans une configuration 3 classes sur 16 300 km et l'A350-900 pouvant quant à lui transporter 300 passagers également en 3 classes sur une distance de 13 900 km. En comparaison le Boeing 787 est un peu plus petit, il pourra transporter suivant ses versions entre 223 et 259 passagers sur des distances comprises entre 15 400 et 15 700 km.
Du coté de la motorisation, l'Airbus A350 est dans un premier temps proposé avec les réacteurs GEnx A1 de General Electric. Ce même type de réacteurs est proposé par Boeing sur ses 787. Rolls-Royce vient en outre d'annoncer la conception du Trent 1700, une évolution du Trent 1000 également proposé sur le Boeing 787. Le Trent 1700 sera spécialement optimisé pour le nouvel appareil d'Airbus mais ne sera pas disponible avant 2011.
Un contexte tendu entre l'Europe et les Etats-Unis
Le lancement de l'Airbus A350 était en suspend de l'autorisation des conseils d'administration d'EADS et de BAE Systems, co-actionnaires de l'avionneur européen. Il s'inscrit dans un contexte de fortes tensions entre l'Europe et les Etats-Unis au sujet des aides diverses perçues par les deux grands avionneurs Airbus et Boeing, chacun accusant l'autre de recevoir des aides illégales de la part de son/ses gouvernements respectifs, ce qui a abouti à une double plainte déposée auprès de l'Organisation Mondiale du Commerce (OMC).
Malgré les aides remboursables proposées par l'Allemagne, la France, le Royaume-Uni et l'Espagne pour la mise en oeuvre de l'A350, Airbus a choisi de financer seul son nouvel appareil, en tout cas dans un premier temps, afin d'adoucir les tensions. Le constructeur européen souhaite que Boeing fasse maintenant de même vis-à-vis de ses aides jugées illégales par Airbus.
source : techno science