via Slate de vincent glad le 21/11/09

Google a finalement dévoilé cette semaine son futur système d'exploitation, Chrome OS. Largement inspiré de son navigateur Web Chrome, le logiciel est pour le moins minimaliste.

Il devrait être mis sur le marché fin 2010. Google affirme vouloir prendre son temps et permettre aux développeurs de programmer pour son système. C'est aussi la raison pour laquelle il a publié les codes sources de l'OS aujourd'hui et a annoncé travailler en étroite collaboration avec les fabricants d'ordinateurs. Acer et HP sont déjà de la partie.

Nous republions un article de Fahrad Manjoo publié en juillet qui prédisait un échec du système d'exploitation de Google.

 

Google a pris tout le monde de court la semaine dernière en annonçant officiellement son nouveau système d'exploitation basé sur le navigateur Chrome. Prévu pour 2010, il fonctionnera dans un premier temps uniquement sur les netbooks, puis sur n'importe quel ordinateur portable ou de bureau.

Le marché des OS manque cruellement de concurrence, et, à l'instar de la guerre des navigateurs Web, c'est aux utilisateurs que profite ce genre de compétition. Mais l'annonce de Google me laisse dubitatif. Plus que ça, même: je pense qu'un OS Google est voué à l'échec. Voici pourquoi.

Difficile de se mettre à Linux. L'OS Chrome sera basé sur Linux, un OS open-source, une sorte de chevalier blanc dont les geeks espèrent depuis longtemps qu'il signera purement et simplement l'arrêt de mort de Microsoft. Un paquet d'ingénieurs et d'entrepreneurs passionnés ont tenté de rendre Linux aussi séduisant que possible pour les gens «normaux», et ça n'a que moyennement marché. Et même Ubuntu, une version plus conviviale de Linux pré-installée sur quelques ordinateurs de grande marque, n'y a pas changé grand-chose. Linux représente actuellement une infime partie du marché des systèmes d'exploitation, et même ses supporters les plus actifs savent que rien n'y pourra changer.

Pourquoi Linux n'est-il pas à la hauteur de ses concurrents? L'OS manque cruellement de logiciels et de hardware compatibles. La plupart des programmes et des périphériques ne fonctionnent pas sous Linux, ou bien demandent beaucoup trop de temps et d'efforts de la part de l'utilisateur pour les rendre opérationnels.

Par exemple, Outlook, Word, Excel, iTunes, Photoshop et un paquet d'autres applications utilisées par les entreprises à travers le monde ne tournent pas sous Linux. Mettons que vous voulez synchroniser votre iPod Touch sur Ubuntu. Tout d'abord il vous faudra désinstaller «libgpod», installer ensuite «ipod-convenience» et «amarok» ou bien «gtkpod». Après ça, trouvez le système de fichiers de l'iPod pour accéder à la base de données et sa table de hachage; enfin, après avoir jailbreaké votre iPod (et donc annulé sa garantie), connectez-le en wireless à votre PC. Facile, hein?

On peut supposer que l'OS de Google encouragera les éditeurs et les constructeurs à rendre un plus grand nombre de leurs logiciel et de leur matériel compatible avec Linux, mais ça prendra du temps, et Google devra s'acharner pour convaincre les autres acteurs de l'industrie de coopérer. Quelques uns, notamment Apple et Microsoft, se montreront sans doute plus réticents que d'autres. Excel compatible avec Chrome OS, c'est pas demain la veille.

Nous ne sommes pas encore prêts à dépendre complètement du Web. Google soutient que ces histoires d'incompatibilité matérielle ne nuiront pas forcément au succès de Chrome OS. Leur argument principal est que dans un avenir très proche, tous nos programmes seront contenus dans notre navigateur. Optimisé pour le Web, l'OS de Google représente donc le futur.

Tout cela confirme une tendance observée par un grand nombre de spécialistes, dont mon collègue Chris Wilson: le Web est déjà devenu une sorte de système d'exploitation. J'ai déjà par le passé loué les mérites d'un «Web-OS  simplifié», et plus récemment, me suis réjoui qu'Android, l'OS mobile open-source de Google, soit enfin disponible sur netbook.

Mais il ne faut pas oublier que ces machines-là ont des limites. La plupart des gens qui achètent un netbook s'en servent comme d'un ordinateur secondaire, pour surfer sur le Web en regardant la télé ou envoyer des mails quand ils sont dans le taxi, mais pas pour cette activité sérieuse et assidue qu'on appelle travailler. Comme le fait remarquer Wilson, les applis Web ne sont pour le moment pas assez efficaces pour pouvoir espérer remplacer les logiciels classiques. Pour partager un document avec des amis je vais créer un Google Doc, mais pour écrire cet article j'ai ouvert Word. Et la plupart des collègues de Slate.com à qui j'ai posé la question font de même. Pas étonnant que Google Doc, bien que gratuit, ait beaucoup moins d'utilisateurs que Word.

Bien sûr, les applis Web continuent de s'améliorer, et peut-être utiliserons-nous bientôt une majorité de logiciels online. Mais, et c'est là où le bât blesse, étant donné que Chrome OS sera basé sur le navigateur éponyme, toutes les applis développées pour Chrome tourneront aussi parfaitement sur Windows et Mac OS, ce qui signifie que les ordinateurs de Microsoft et d'Apple seront par définition bien plus polyvalents que les machines équipées de Chrome: ils pourront faire tourner des applis Web et des programmes classiques et néanmoins indispensables à notre glorieux avenir de civilisation connectée, comme les logiciels de montage vidéo ou de Conception assistée par ordinateur (CAO).

via ReadWriteWeb French edition de Fabrice Epelboin le 18/07/09

Google Analytics est certes gratuit, mais c’est un logiciel propriétaire, ce qui veut dire que vous n’avez de rapports et des analyses que sur ce que Google juge utile. Sachant que ces rapports servent également, pour beaucoup d’utilisateurs, à surveiller d’autres service de Google, comme les AdSense, on imagine les limites que s’impose Google. Qui plus est, en utilisant Google Analytics, vous êtes contraint d’accepter les conditions d’utilisation de Google Analytics.

Piwik, lui, est open source, et se présente comme une alternative à Google Analytics. Il est en étroite relation avec OpenX, le serveur de publicité open source, lui même en concurrence avec Google Ad Manager (utilisé sur RWW US).

Alors qu’OpenX est sur le marché depuis un certain temps, et a attiré pas mal d’utilisateur à lui, Piwik est plus récent, et pour l’instant assez discret. Il a commencé sa carrière sous le nom de PHPMyVisites, et n’en est qu’à sa version 0.4.1, autant dire en beta, mais il évolue vite.

Cocorico, Piwik vient de France, et pour l’instant, se fait remarquer en Europe, mais également en Chine et au Japon. L’équipe de Piwik est composée d’employés de grande sociétés du monde de la technologie et du web.

Piwik tourne en PHP et a besoin de MySQL, un environnement des plus classiques. Il dispose de plugins, comme Wordpress, et c’est probablement là que le logiciel a un potentiel énorme. Même si la liste des plugins disponibles pour l’instant n’est pas encore très fournie, on y retrouve de quoi connecter Piwik à la plupart des CMS du marché, à l’exception notable de Wordpress. En dehors de cela, la liste est complète : Dotclear, Typo3, Joomla, Drupal, Habari, Spip, MediaWiki… (on se demande comment on a pu échapper à un plugin Wordpress).

Les solution Open Source attirent beaucoup d’utilisateurs quand la concurrence est chère ou limitée, mais Google Analytics est gratuit, et dès lors, il est difficile d’attirer les bloggeurs et les petites société de média. Par contre, pour les grande sociétés, qui utilisent déjà des solutions coûteuses comme Coremetrics, Omniture et Visual Sciences/Websitestory, l’alternative Piwik est plutôt intéressante.

Les grosses sociétés lisent les condition générales d’utilisation (si, si, il faut bien que cela soit lu par quelqu’un), et l’un des termes du contrat que propose Google a toutes les chances de faire fuir les gros acteurs du marché :

2. FRAIS ET SERVICES. (…) le Service est rendu gratuitement jusqu’à 5 millions de pages vues par mois et par compte, mais si vous avez une campagne Adwords active significative, il n’y a pas de limitation au nombre de pages vues.

Google peu changer ses tarifs et sa politique tarifaire pour le service à tout moment, en particulier, mais sans se limiter à celà, ajouter des coûts additionnels pour les données géographiques, l’importation de données en provenance de moteur  de recherche [indispensable pour faire du SEO/SEM], ou d’autres frais liés à Google, l’une de ses filiales ou un tiers pour l’inclusion de données dans les rapport fournis par le service.”

Dit autrement : évitez d’aller au delà de 5 millions de pages vues sans avoir une campagne Adsense en cours, c’est à dire sans payer Google. De quoi rendre mal à l’aise plus d’un grand média, mais c’est surtout le “peu changer ses tarifs et sa politique tarifaire” qui fera reculer la plupart d’entre eux.

Plus loin, dans les condition générales, vous trouverez…

DROITS ET PUBLICITE. Google peu garder et utiliser (…) l’information collectée par vos soins lors de l’utilisation du service. Google ne partagera pas cette information avec un tiers sauf si Google a (i) votre accord, (ii) une injonction de justice, si Google a de bonnes raisons de penser que c’est est en mesure de protéger les droits ou la sécurité de Google, de ses utilisateurs ou du public, ou (iii) si cela facilite, dans des circonstances limitées, le travail de certains services tiers agissant pour Google (e.g. facturation, stockage de données), dans ce cas, des limitations strictes sur le partage de ces données seront établies de façon à ce qu’elle ne servent qu’à cet usage”

En clair, Google a le droit d’utiliser vos données. Nous avons vécu pendant longtemps dans un monde où Microsoft et d’autres marchands de logiciels vendaient leurs produits tout en gardant un contrôle stricte dessus, mais sans pour autant détenir de droits sur les données qui nous produisions avec, Google a inversé cela. Il est ravi de vous offrir le logiciel, mais il peu faire ce qu’il veut des données que vous produisez avec. Cela ne pose pas de problème pour un particulier, ni même une petite entreprise, mais pour une grosse, c’est inacceptable.

Le point critique qui fait de Piwik un outils intéressant pour les grandes entreprises est clairement la propriété des données. C’est ce point qui en fait une véritable alternative à Google Analytics. Avec les réductions de budgets en cours un peu partout, en particulier dans les média, Piwik a toutes les chances de marquer des points dans les mois et années qui viennent.

Piwik, par ailleurs, travaille dur pour séduire les développeurs, et pour cela, ils ne se contentent pas d’être open source. Ils ont d’autres arguments : une API ouverte, une architecture de plugin, une couche d’abstraction des données (data abstraction layer), et pour le fun, un tableau de bord customisable.

Un répertoire de consultants spécialisés a même été ouvert récemment sur le site de Piwik, preuve s’il en est que le projet avance et qu’une entreprise qui voudrait se mettre à Piwik pourrait facilement trouver toute l’aide nécessaire.

(traduit d’un billet de Bernard Lunn)

A lire sur le même thème :

Share/Save/Bookmark

Related posts:

  1. Facebook et Adode lancent une librairie de composants open source pour aider au développement d’application sociales Beaucoup des applications disponibles dans Facebook ont été développées avec...
  2. Ce que Google donne, Google peut le reprendre ou la fermeture de Google Video, Notebook, Catalog Search, Jaiku et Dodgeball Un certain nombre de services Google ont annoncé mercredi leur...
  3. Le RSS pourrait devenir une technologie grand public grâce à Google La technologie RSS (Really Simple Syndication, qui se traduit littéralement...

La liste des entrées complémentaires est établie par le module d’extension YARPP.

via Le Monde.fr : à la Une le 18/07/09
Pour le philosophe, "il faut, de toute urgence, changer le nom" du PS, qui "est en train de perdre ce qui lui restait d'âme".

via Le Monde.fr : à la Une le 16/07/09
Un rapport officiel canadien reproche à Facebook de conserver indéfiniment les renseignements personnels de membres qui ont désactivé leur compte.

via Les dernières actualités de Futura-Sciences de webmaster@futura-sciences.com (Futura-Sciences) le 13/07/09
Des dizaines de centrales solaires tout autour du Sahara, qui enverraient une partie de leur électricité vers l'Europe : c'est le projet démesuré baptisé Desertec, lancé par des industriels allemands, qui se réunissent aujourd'hui.
L'Europe a besoin d'une énergie propre. Le Sahara brûle sous le soleil. Pourquoi ne pas capter là-bas les photons qui seraient utiles ici ? Sur cette idée est né le projet Desertec, qui réunit essentiellement des poids lourds de l'industrie et...

via Le Blog du Geek de Nicolas le 14/07/09
Voici une petite vidéo bien marrante que je viens de choper sur Youtube. Elle présente les régles à suivre sur Facebook d'une façon assez... spéciale lol

via ReadWriteWeb French edition de Fabrice Epelboin le 29/06/09

La semaine dernière, lors de la conférence SemTech, le grand rassemblement annuel des experts des technologies sémantiques, le New York Times a fait un annonce fracassante qui a été saluée par tous. Le Times publiera sous peu son corpus sous forme de ‘Linked Data’ (données liées), une méthode qui consiste à permettre aux données en rapport les unes avec les autres de se lier entre elles, là où il n’existait pas de lien auparavant.

Les données du Times rejoindront celle du Projet Gutenberg, une vaste bibliothèque de textes issus de livres du domaine public, de données administratives américaines, ainsi que de multiples données, essentielles du web sémantique.

Rob Larson et Even Sandhaus, du New York Times, ont annoncé leur intention de rendre accessibles des centaines de milliers de tags appliqués à des contenus remontant a 1851, soit l’essentiel des archives du Times. Ceci offrira aux développeurs des ressources d’une valeur inestimable pour créer des navigations à travers l’énorme catalogue de savoir et de contenus du Times, tout en liant celui-ci à tout un tas d’autres contenus sur le web.

Dans un intervention récente, Sandhaus du Time détaillait les processus de tagging du corpus du Times, que ce soit pour les articles en ligne ou sur papier.

“Il y a deux type de tagging en cours aujourd’hui au Times… Chaque jour, des indexeurs amènent leur papier et, article après articles, les associent à des mots clés pour en détermoiner le sujet, puis, ils en font un sommaire, manuellement. Un peu comme une liste issue de Google, mais avec du bois mort.

L’autre forme de tagging, c’est quand un article va de la salle de rédaction au web, ce process est réalisé par un ‘réalisateur’ qui enrichira l’article avec une multitude de contenus comme des images, du multimédia… et des mots clés. Contrairement aux indexeurs, qui réalisent ce travail à la main, les ‘réalisateurs’ sont aidés pour réaliser ce tagging par un système de classification automatique, qui leur suggère les tags à applquer, il ne leur reste plus qu’à approuver ou refuser les suggestion de la machine.

Lors de sa présentation la semaine dernière au SemTech, Larson a insisté sur l’importance que le Time accordait aux métadonnées :

“[les métadonnées] sont le fondement de ce que nous avons entrepris depuis longtemps. Nous pensons maîtriser aujourd’hui le sujet, mais notre contenu est encore isolé, comme sur une île… [aujourd’hui] nous annonçons notre intention de publier notre thesaurus et de le rendre accessible à tous, avec une licence qui permettra de l’utiliser et d’y contribuer… Le résultat attendu à terme est de permettre au Times d’entrer dans l’univers des données liées (Linked Data Cloud). Ceci est parfaitement cohérent avec notre stratégie d’ouverture (Open Strategy)… qui permet de faciliter l’usage d’extraits de nos données par ceux qui souhaitent les inclure dans leurs applications”.

Larson a comparé le corpus du Times à un gisement de données, ajoutant que l’API du journal fournissait les pelles et les pioches nécessaires à leur exploitation, les données liées (Linked Data) étant pour ainsi dire une carte du champ aurifère à explorer.

Construire une carte du savoir, destinée aussi bien à accéder aux connaissances du passé, qu’à explorer et mettre au point celles du futur, et la construire à l’aide d’un siècle et demi de connaissances accumulées dans les archives du Times : une stratégie pour le moins brillante de valorisation des archives, mais également un signal fort donné à l’industrie des contenus sur la valeur montante des métadonnées par rapport à celle, déclinante, des données et des contenus, sur laquelle l’économie de cette industrie repose encore aujourd’hui.

Ajoutez à tout cela l’annonce récente de CommonTag, un format universel et ouvert de tagging lancé par un consortium  mené par Yahoo!, qui - outre de le fait de ne pas inclure Reuters, ce qui d’un point de vue industriel est à souligner - propose d’un point de vue sémantique des passerelles linguistiques pour chaque tag : nous voilà avec, à portée de main, une carte du savoir pour ainsi dire universelle…. enfin… américaine, mais multilingue… subtile nuance.

Les conséquences du retard des pays non anglosaxon sur l’exploration des connaissances au XXIe siècle deviennent évidentes, mais au vu du retard accumulé, il n’y a aucun espoir d’alternative. En France, on croit encore dur comme fer que les contenus vont - par l’opération du Saint Esprit, sans doute - reprendre de la valeur un jour. En attendant, on les subventionne.

Les délais, les licences, les formats utilisés, ainsi qu’une quantité d’autres détails restent à préciser, et bien sûr, nous vous tiendrons au courant, tant ces éléments sont critiques pour estimer du potentiel de la démarche, mais ce nouveau pas du Times dans l’univers du web des données (et par ricochet du web sémantique), est une annonce stratégique d’une importance capitale qui laisse entrevoir la vision à long terme du groupe de presse US : devenir une partie importante de la carte du savoir. Reste à voir si le timing mortifère dans lequel se situe le Times lui permettra de négocier ce tournant et d’éviter le mur de la valorisation des contenus.

Qui plus est, cette annonce fait suite à celle d’un partenariat entre CNET et Reuters, consistant a publier, eux aussi, des données dans l’univers des données liées (Linked Data Cloud, désolé, ça se traduit mal).

On voit donc de plus en plus clairement se dessiner deux camps, regroupant des assemblages de media et de technologies. Reuters, lié stratégiquement, via Bit.ly, à Twitter dans l’exploration sémantique du temps réel, mais également à pas mal de média qui utilisent Calais, et dans l’autre camp le Times, ainsi que Yahoo! et CommonTag, misant sur les formats ouverts pour fédérer des communautés : des stratégies de bataille, pour le coup, assez classiques dans le secteur.

Pour être exhaustif, il convient de citer un troisième camp, constitué par ceux qui s’imaginent que fermer leurs portes les mettra à l’abri du Tsunami à venir, dans lequel le plus virulent est sans nul doute l’Associated Press, et qui risque de fédérer bon nombre de dinosaures nostalgiques, destinés à mourir dans la décénie à venir, faute d’avoir ne serait-ce que tenté de s’adapter au monde d’après la météorite du “web 3.0”, qui pointe son nez.

Il y a un mois, Richard MacManus, le fondateur de ReadWriteWeb dont les prédictions sont attendues chaque année comme celles d’une véritable pythie des temps modernes, annonçait que le temps des données liées était arrivé. Plus récemment, lors d’un bref passage à Paris, Richard me confiait à quel point les données liées (Linked Data) étaient sur le point de bouleverser de façon imminente le web tel que nous le connaissons, déjà, le Times et Reuters étaient au centre de nos conversations, posés comme exemples à suivre pour les média désireux de s’insérer durablement dans un avenir ou les metadonnées seraient aussi précieuses - voir plus - que les données (les contenus) l’ont été hier.

Données (contenus) et métadonnées (tags) sont dans un jeu de transfert de valeur et l’accélération de ce jeu de vases communicants va redéfinir dans les années à venir les pouvoirs et les empires dans l’industrie des contenus. A ce jeu, Reuters semble avoir le potentiel d’un Google, et le Times, malgré une situation financière critique, semble mettre en place une stratégie fine et visionnaire.

A lire sur le même thème :

Share/Save/Bookmark

No related posts.

Related posts brought to you by Yet Another Related Posts Plugin.

via ReadWriteWeb French edition de Fabrice Epelboin le 28/06/09

Les Données Liées (Linked Data) sont un projet officiel du W3C (l’organisme qui définit les standards du web). Le projet peut se définir comme l’utilisation du web pour relier des données en rapport les unes avec les autres qui n’auraient pas été liées auparavant, ou encore d’utiliser le web pour abaisser les barrières à l’entrée (les coûts, le temps) de la création de liens (par rapport à d’autres méthodes).

Tim Berner Lee décrit les données liées comme un mouvement venant de la base (la communauté) plutôt que quelque chose de décidé et d’appliqué en haut lieu. L’image ci dessus montre le nombre de groupes de données (data sets) qui participent au mouvement (et encore, cette représentation date de mars dernier). Les Données Liées augmentent à une vitesse impressionnante : pour vous donner une idée de la progression, le schéma ci dessous montre les groupes de données (data sets) qui étaient disponibles en mai 2007, soit 10 mois auparavant, vous noterez avec fierté la présente du Français Jamendo parmi les pionniers.

Les Données Liées en quelques mots

Dans un mémo du W3C publié par Tim Berners-Lee en juillet 2007, celui qui est l’inventeur du World Wide Web énonce quatre principes de base concernant les Données Liées, que Wikipedia paraphrase de la façon suivante :

  • Utilisez des URIs (identifiant unique de donnée - granulaire -, par opposition à une URL qui concerne une page - non granulaire) pour identifier les choses que vous voulez rendre disponible sur le web comme ressources de données.
  • Utilisez des adresses HTTP pour permettre de les localiser de d’accéder à leurs contenus.
  • Fournir des informations utiles sur la ressource (URI) quand on la consulte (‘dereference’ en anglais).
  • Y inclure des liens vers d’autres URIs en rapport avec la ressource consultée de façon à améliorer la découverte d’informations utiles.

C’est encore un peu technique, mais on peut le voir comme cela : les Données Liées vous permettent de découvrir, de vous connecter à, d’obtenir la description, et de réutiliser toute sortes de données. C’est aux données ce que le World Wide Web est aux documents des années 90.

linkeddata2

Nous avons évoqué le sujet des Données Liées à maintes reprises sur ReadWriteWeb, notamment en soulignant le fait que les Données Liées construisent et interconnectent des ontologies existantes.

Une ontologie, c’est, pour paraphraser Wikipédia, l’ensemble structuré des termes et des concepts représentant le sens d’un corpus d’informations, que ce soit par les métadonnées (…), ou les éléments d’un domaine de connaissances. L’ontologie constitue un modèle de données, représentatif d’un ensemble de concepts dans un domaine, mais également les relations entre ces concepts. Elle est employée pour raisonner à propos des objets du domaine concerné. Les ontologies représentent les connaissances sous forme d’assertion (sujet, prédicat, objet) qui décrivent la relation d’un objet à un autre : Les hommes sont mortels. Platon est un homme. Platon est mortel.

Reprenons : les Données Liées interconnectent donc de nombreuses ontologies. Les groupes de données (data sets) permettent ainsi d’y accéder et de rebondir sur d’autres groupes de données en passant par une (ou plusieurs) ontologie(s).

Alexander Korth qui écrit dans nos colonnes présentait récemment le potentiel que cela ouvrait (accrochez vos ceintures) :

“Le projet (Données Liées) est conçut sur les mêmes principes simples que le World Wide Web : simplicité, tolérance, conception modulaire et décentralisation. Le projet LOD (Linking Open Data), contient à ce jour plus de deux milliards de ‘RDF Triples’ (sujet, prédicat, objets), ce qui est une somme de connaissances considérable. Le nombre de groupes de données (data sets) participant au projet grandi à une vitesse considérable, et l’on peut accéder à ces groupes de données de diverses façon : avec un navigateur sémantique ou avec un moteur de recherche sémantique, par exemple.”

Un terreau fertile pour l’innovation

S’il ne fallait retenir qu’une seule chose de ce petit exercice de vulgarisation, et quitter cette page avec une idée sur les Données Liées, c’est que les données sont là pour être utilisées. Les Données Liées permettent aux données de s’ouvrir et de se relier, et permettent de construire des choses nouvelles par dessus. Lors de son intervention à TED, Tim Bernes-Lee décrivait les Données Liées comme des cartons pleins de données qui, une fois connectés à l’aide de standards ouverts, permettaient à l’innovation de fleurir.

(slide issue de la conférence TED de Tim Berner-Lee de février dernier)

Les Données Liées sont l’une des tendances les plus importantes du web d’aujourd’hui, même si elle ne se traduisent pas encore en services très visibles pour l’utilisateur de base, c’est l’un des terreau les plus fertiles du web, aussi riche en potentielles innovations que l’a été en son temps le World Wide Web qui proposait de relier les documents.

Pour terminer, je vous recommande de regarder cette conférence donnée par Tim Berner Lee, cela ne vous prendra qu’un petit quart d’heure, et les sous titres en Français sont disponibles. Vous n’avez aucune excuse. Demain, je continuerais en vous montrant comment les données liées sont au coeur de la stratégie des plus grands acteurs de l’industrie des contenus.


A lire sur le même thème :

Share/Save/Bookmark

No related posts.

Related posts brought to you by Yet Another Related Posts Plugin.

via Les dernières actualités de Futura-Sciences de webmaster@futura-sciences.com (Futura-Sciences) le 30/06/09
En 2012, Bertrand Piccard tentera de réaliser le tour complet de la planète dans un avion dont la seule source d'énergie est le Soleil. Le premier prototype, HB-SIA, servira aux essais préliminaires. Il vient d'être présenté. Le but ? Démontrer que l'énergie solaire peut être utilisée dans de nombreux domaines. « Plus personne ne pourra prétendre qu'on ne peut pas utiliser les énergies renouvelables pour les voitures, les chauffages, la climatisation ou l'industrie » martèle Bertran...