via GNT - actualités le 20/03/09
Avec le site Chrome Experiments, Google invite les utilisateurs à éprouver les capacités du moteur JavaScript V8 intégré à son navigateur Chrome via un panel d'applications originales à tester.

via Le Journal du Geek de Anh - NeoAngel le 20/03/09

C’est l’histoire d’un gars qui décroche un nouveau job chez Cisco mais qui n’était visiblement pas super motivé et qui le met sur son compte Twitter en mode public.

=> “Cisco just offered me a job! Now I have to weigh the utility of a fatty paycheck against the daily commute to San Jose and hating the work.”
(Cisco vient m’offrir un poste ! Maintenant je dois choisir entre un gros salaire et un boulot que je n’aime pas à San Jose)

Le hic, c’est qu’un des avocats de Cisco est tombé sur le twitt et forcément, il n’apprécie pas trop …

=> “Who is the hiring manager. I’m sure they would love to know that you will hate the work. We here at Cisco are versed in the web.”
(Qui est le recruteur. Je suis sûr qu’il va aimer apprendre que vous n’allez pas aimer votre travail. Nous, chez Cisco, sommes tournés vers le web)

twitter

La personne concernée a bien mis son compte en mode privé mais Twitter-Search permet de retrouver le twitt concerné … Bref, vous l’aurez compris, avec les nouveaux outils du web, faites attention à ce que vous dites, le monde n’a jamais été aussi petit depuis l’avènement du Web 2.0.

Partager : Facebook Wikio FR Netvibes Digg TwitThis del.icio.us Google blogmarks Technorati MySpace SphereIt Scoopeo Tumblr E-mail this story to a friend! Print this article!

Tags:,

Sur le même sujet :

via GNT - actualités le 19/03/09
Le récent bug de partage involontaire de fichiers de Google Documents sert d'alibi à une association américaine pour légitimer une enquête des autorités sur le respect de la vie privée par la firme de Mountain View avec ses multiples services en ligne.

via ReadWriteWeb French edition de Fabrice Epelboin le 30/01/09

Une conférence que Lawrence Lessig a donné récement qui le fait passer de l’évolution de la Culture (la fameuse ReadWriteCulture) à l’évolution de l’économie (son concept d’économie hybride), et, en passant par une analyse passionante et détaillée de la notion de confiance (une thématique ô combien discutée au sujet de la bloggosphère, mais qui va évidement bien au delà), arrive à une vision du futur de la gouvernance (dans une démocratie). Lessig ne croit pas que la solution ne soit que technologique, et sa vision va bien au delà.

C’est long (trois quart d’heure), et il faut s’accrocher, mais quiconque s’interesse à la politique en particulier et à la démocratie en générale se doit de regarder cette conférence. Evidemment, il vous faudra parler anglais, ces idées, si elles ont droit aux plus grands talk show américains, sont complètement absentes de la scène Française.

Le passage sur la confiance et la façon dont le gouvernement américain l’a détruite dans sa relation aux citoyens durant le XXe siècle ne peut faire que nous ramener au débat Français sur Hadopi. Lessig prend pour exemple une multitude de régulations (sur le plomb, le chrome et bien d’autres) qui, du fait de l’influence des lobbies, on causé des dégâts dramatiques dans la société américaine (et pas seulement). Hadopi ne sera certainement pas la dernière loi financée et influencée par les lobbies, mais elle sera certainement la première à couper, de façon définitive, une génération de son système de gouvernance et à éliminer toute idée de confiance à l’avenir. Quelque soient les débats à venir, le simple fait que le Sénat ait voté cette loi à l’unanimité sera ce qui restera dans l’Histoire et ce que retiendrons les génération qualifiées de Pirates. Corrompus ou influencés, l’effet sur la confiance sera le même.

Éteignez la télévision, ouvrez vos esprits, et regardez Internet, on y trouve des idées qui tardent trop à traverser l’Atlantique.


A lire sur le même thème :

via Les dernières actualités de Futura-Sciences de Futura-Sciences le 12/03/09
Des chercheurs de l’université de l’Alberta au Canada ont réalisé une percée impressionnante en nanotechnologie. Ils sont parvenus à construire l’équivalent d’une boîte quantique mais avec un seul atome. Jusque-là, il en fallait des milliers... Peut-être une voie vers des ordinateurs beaucoup plus petits et bien moins gourmands en énergie.
Robert A. Wolkow est un membre de l'Institut national de nanotechnologie (INNT) canadien. Lancé en 2001, cet institut de recherche pluridisciplinaire fait...

via FredCavazza.net de Frédéric CAVAZZA le 29/01/09

150 millions. C’est le nombre d’utilisateurs que Facebook devrait atteindre d’ici quelques mois (semaines ?). Vous pourriez penser que ce chiffre est encourageant et que nous avons enfin trouvé LA plateforme sociale ultime, je serais plutôt d’avis de se méfier de cette croissance (trop) rapide. Ma motivation pour écrire ce billet n’est pas de jouer une fois de plus au rabat-joie de service, mais plutôt de prendre le temps d’analyser la situation et d’évaluer le risque d’explosion en cours de vol de cette start-up.

Explosion en cours de vol ? Oui tout à fait car les temps sont rudes et que personne n’est à l’abri, même pas Google qui se voit contraint de fermer récemment un certain nombre de services. Start-up ? Oui tout à fait car Facebook est une société encore très jeune qui n’est pas à l’abri d’une fermeture pour manque de liquidité (il parrait que même l’état de  Californie a des difficultées de trésorerie en ce moment !).

Facebook est-il vraiment menacé de fermeture ?

Pourquoi parler de fermeture ? Tout simplement parce que Facebook perd encore de l’argent. Hors, plus de membres = plus de frais (bande passante, capacité de stockage et de traitement, salaires…). Là où ça devient inquiétant, c’est qu’au-delà d’un certain seuil les économies d’échelle ne fonctionnent plus : pour un certain volume de données à stocker / traiter (nous parlons de dizaines de millions de vidéos et de milliards de photos) les coûts sont exponentiels car la plateforme requiert des technologies et des compétences très rares.

J’ai déjà eu l’occasion de m’exprimer sur le problème de rentabilité de Facebook mais il semblerait que cela ne gène pas son jeune dirigeant qui est convaincu qu’augmenter le nombre d’utilisateurs va régler le problème. Certains pourraient appeler ça “avoir une vision ambitieuse” mais pour moi ça ressemble plus à une fuite en avant. Appliquer cette stratégie à un service tout récent et en pleine croissance comme Twitter n’est pas très problématique (ils n’ont pas beaucoup de charges / dette) ; mais le faire à beaucoup plus grande échelle et durant une période de crise est beaucoup plus inquiétant.

Inquiétant pour qui ? Inquiétant pour les utilisateurs dont les données personnelles pourraient être bradées à des marchands peu scrupuleux. Pour le moment ce scénario n’est pas envisagé par les fondateurs qui sont emplis de bonnes volontés, mais que se passera-t-il après la prochaine levée de fond lorsque les actionnaires prendront le pouvoir ? Ceux d’entre-vous qui ont connu la folie de la fin des années 90 se souviennent peut-être de ce qu’il est advenu de services comme Spray. Tristes souvenirs…

Inquiétant également pour les annonceurs qui ont investi beaucoup de temps, d’énergie et d’argent sur une plateforme qui va droit dans le mur. Si Facebook ferme ses portes, c’est tout un pan de votre stratégie de présence sur les médias sociaux qui s’effondre. Il faudra alors tout recommencer mais sur une autre plateforme sociale.

Mais assez parlé du scénario catastrophe, parlons plutôt des solutions.

Conseil N°1 : Un système de ciblage comportemental fiable

Ceux qui ont tenté l’expérience de communiquer sur Facebook vous le confirmeront : les taux de transformation sont très bas (moins de 0,1 %). Outre le problème de contexte d’usage (les utilisateurs sont avant tout sur Facebook pour draguer et pour déconner, pas pour cliquer sur de la pub), c’est le système de ciblage qui semble faire défaut. Quel dommage, surtout dans la mesure où le social graph est le trésor de guerre que Facebook fait miroiter aux annonceurs.

Face à cette incapacité à fournir ce qu’ils promettent, peut-être serait-il temps de changer de posture et d’adopter un système plus fiable. Wunderloop pourrait être un bon candidat, mais il en existe d’autres. L’idée serait de déployer un système de ciblage qui bénéficierait et pourrait faire bénéficier un réseau de sites et d’arrêter de faire cavalier seul.

Les utilisateurs de Facebook sont potentiellement de bons clients, encore faudrait-il pouvoir les reconnaître et les cibler en dehors de la plateforme. D’où le recours à une solution partagée qui permetttrait de capitaliser sur les profils des membres et sur leur comportement.

Conseil N°2 : Une standardisation technique

La plateforme Facebook repose aujourd’hui sur un langage propriétaire, le FBML. Même si ce dernier évolue dans le bon sens (plus d’ouverture) et plus rapidement que ses concurrents (notamment OpenSocial de Google dont la première version des spécifications était jugée plutôt décevante), force est de constater que l’avenir n’est pas à la multiplication des formats, mais plutôt à l’unification. La raison est toute simple : avec la crise et la compression des coûts, un annonceur / éditeur va rechigner à déployer plusieurs versions d’un même widget social.

Rejoindre des initiatives mutualisées comme OpenSocial ou DataPortability serait bénéfique aux annonceurs (dont les coûts de développement / maintenance seraient abaissés), aux utilisateurs (qui bénéficieraient de widgets socials universels) et aux équipes de Facebook qui pourraient se décharger d’une grosse partie du travail sur les autres membres du consortium.

Conseil N°3 : Une offre premium

Le modèle économique de Facebook est un problème récurrent car ils ne sont pas très clairs sur la façon dont ils gagnent de l’argent, alimentant ainsi les fantasmes d’exploitation abusive des données personnelles. Mais qui a dit qu’il n’était pas possible de facturer un ou des services ? Au vue de l’état d’addiction de certains membres il serait tout à fait possible d’envisager un modèle premium proche de ce que pratiquent d’autre plateformes : plus d’espace de stockage (façon FlickR), plus de visibilité (façon Badoo), pas de limitation sur le nombre de contacts (façon Highrise), pas de pub (façon Gamespot), débridage de fonctionnalités (façon Xanga ou Ning), un service de rencontre réservé à certaines catégories d’utilisateurs (façon Ulteem), une meilleure disponibilité de la plateforme (sur des serveurs à part)… Les possibilités sont nombreuses et elles pourraient être décuplées avec la mise en œuvre d’un système de micro-paiement ou avec la mise en place de partenariats plus forts avec d’autres services spécialisés (qui reverseraient une partie de la recette).

La justification de cette offre premium serait de proposer une expérience encore plus riche à des membres qui en demandent toujours plus. A partir du moment où cette offre ne bride pas l’utilisation de la plateforme mais permet de l’étendre, qui s’en plaindrait ?

Conseil N°4 : Des partenaires industriels et des appuis politiques

Avec une croissance aussi fulgurante (souvent au détriment de services plus anciens et payants comme Meetic ou CopainsD’avant), le moins que l’on puisse dire c’est que Facebook fait des jaloux, voir des ennemis. Je ne parle pas que des concurrents directs ( Friendster, Hi5…) mais plutôt de gros acteurs comme Google (cf. le deal avec Microsoft et la concurrence avec Orkut), Yahoo! (dont ils ont refusé l’offre pourtant généreuse à l’époque) ou encore Newscorp (qui se bat pour maintenir l’audience de MySpace).

Le problème c’est que dans ce milieu il n’est pas possible de faire cavalier seul bien longtemps. Pour pouvoir survivre en cette période de crise (dans laquelle nous venons à peine de rentrer) Facebook devra impérativement se trouver des partenaires industriels (pour l’aider dans sa croissance), des partenaires commerciaux (pourquoi pas de grosses agences comme Omnicom, WPP ou Publicis) et surtout des partenaires financiers capables de les aider dans les décisions stratégiques ou dans les négociations périlleuses.

Outre les acteurs du même secteur, ce sont les appuis politiques qui risquent également de manquer à Facebook. Si Google ne parvient pas à empêcher le bridage de ses services dans des pays comme la Chine ou la Turquie (respectivement pour le search et YouTube), comment Facebook y parviendrait-il ? Avec une audience dépassant les 30% dans certains pays il y a fort à parier que les gouvernements et parlements vont très rapidement s’intéresser de très près à ce phénomène. Et ce n’est très certainement pas un patron en tongs d’à peine 25 ans qui va les convaincre du bien fondé de ses ambitions. D’autant plus que le coup du p’tit jeune avec de drôles de chaussures qui veut changer le monde ne date pas dh’ier (qui se souvient de Jonas Birgersson et des ses rangers ?).

Conclusion

Voilà donc quelques pistes de réflexion qui permettrait à Facebook de se sortir d’une situation bien délicate, non pas qu’ils ont fait d’énormes erreurs de gestion ou de mauvais choix, mais plutôt que le marché risque de sanctionner durement une étoile qui ne va plus briller longtemps dans ce contexte d’hiver nucléaire (surtout aux Etats-Unis).

Le meilleur conseil que je pourrai donner aux annonceurs serait de bien prendre conscience de la fragilité de ce géant aux pieds d’argile. Si vous avez pris la décision d’investir les médias sociaux, il est impératif de ne pas mettre tous vos œufs dans le même panier et de diversifier votre présence et vos campagnes sur plusieurs “supports sociaux” (blogs, réseaux sociaux de niche, forum, micro-blog…) et de vous intéresser à la relève qui est déjà là ( imeem, Netlog, Buzznet…).

MàJ (03/02/2009) : Visiblement Facebook parle d’ouvrir très prochainement sa base de données aux annonceurs sous forme de questionnaires très ciblés (cf. Facebook Plans to Make Money by Selling Your Data).

via InternetActu.net de Hubert Guillaud le 23/01/09

En introduction à un dossier à paraître sur le papier contre l’électronique, il nous a semblé important de vous proposer à la lecture Is Google Making Us Stupid ?, l’article de Nicolas Carr, publié en juin 2008 dans la revue The Atlantic, et dont la traduction, réalisée par Penguin, Olivier et Don Rico, a été postée sur le FramaBlog en décembre. Dans cet article, Nicolas Carr (blog), l’auteur de Big Switch et de Does IT matter ?, que l’on qualifie de Cassandre des nouvelles technologies, parce qu’il a souvent contribué à un discours critique sur leur impact, part d’un constat personnel sur l’impact qu’à l’internet sur sa capacité de concentration pour nous inviter à réfléchir à l’influence des technologies sur notre manière de penser et de percevoir le monde. Rien de moins.

La couverture d'Atlantic de juillet-août 2008“Dave, arrête. Arrête, s’il te plaît. Arrête Dave. Vas-tu t’arrêter, Dave ?” Ainsi le super-ordinateur HAL suppliait l’implacable astronaute Dave Bowman dans une scène célèbre et singulièrement poignante à la fin du film de Stanley Kubrick 2001, l’odyssée de l’espace. Bowman, qui avait failli être envoyé à la mort, au fin fond de l’espace, par la machine détraquée, est en train de déconnecter calmement et froidement les circuits mémoires qui contrôlent son “cerveau” électronique. “Dave, mon esprit est en train de disparaître”, dit HAL, désespérément. “Je le sens. Je le sens.”

Moi aussi, je le sens. Ces dernières années, j’ai eu la désagréable impression que quelqu’un, ou quelque chose, bricolait mon cerveau, en reconnectait les circuits neuronaux, reprogrammait ma mémoire. Mon esprit ne disparaît pas, je n’irai pas jusque là, mais il est en train de changer. Je ne pense plus de la même façon qu’avant. C’est quand je lis que ça devient le plus flagrant. Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l’argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n’est plus que rarement le cas. Désormais, ma concentration commence à s’effilocher au bout de deux ou trois pages. Je m’agite, je perds le fil, je cherche autre chose à faire. J’ai l’impression d’être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une lutte.

Je crois savoir ce qui se passe. Cela fait maintenant plus de dix ans que je passe énormément de temps sur la toile, à faire des recherches, à surfer et même parfois à apporter ma pierre aux immenses bases de données d’Internet. En tant qu’écrivain, j’ai reçu le Web comme une bénédiction. Les recherches, autrefois synonymes de journées entières au milieu des livres et magazines des bibliothèques, s’effectuent désormais en un instant. Quelques recherches sur Google, quelques clics de lien en lien et j’obtiens le fait révélateur ou la citation piquante que j’espérais. Même lorsque je ne travaille pas, il y a de grandes chances que je sois en pleine exploration du dédale rempli d’informations qu’est le Web ou en train de lire ou d’écrire des e-mails, de parcourir les titres de l’actualité et les derniers billets de mes blogs favoris, de regarder des vidéos et d’écouter des podcasts ou simplement de vagabonder d’un lien à un autre, puis à un autre encore. (À la différence des notes de bas de page, auxquelles on les apparente parfois, les liens hypertextes ne se contentent pas de faire référence à d’autres ouvrages ; ils vous attirent inexorablement vers ces nouveaux contenus.)

Pour moi, comme pour d’autres, le Net est devenu un media universel, le tuyau d’où provient la plupart des informations qui passent par mes yeux et mes oreilles. Les avantages sont nombreux d’avoir un accès immédiat à un magasin d’information d’une telle richesse, et ces avantages ont été largement décrits et applaudis comme il se doit. “Le souvenir parfait de la mémoire du silicium”, a écrit Clive Thompson de Wired, “peut être une fantastique aubaine pour la réflexion.” Mais cette aubaine a un prix. Comme le théoricien des média Marshall McLuhan le faisait remarquer dans les années 60, les média ne sont pas uniquement un canal passif d’information. Ils fournissent les bases de la réflexion, mais ils modèlent également le processus de la pensée. Et il semble que le Net érode ma capacité de concentration et de réflexion. Mon esprit attend désormais les informations de la façon dont le Net les distribue : comme un flux de particules s’écoulant rapidement. Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la surface comme un pilote de jet-ski.

Je ne suis pas le seul. Lorsque j’évoque mes problèmes de lecture avec des amis et des connaissances, amateurs de littérature pour la plupart, ils me disent vivre la même expérience. Plus ils utilisent le Web, plus ils doivent se battre pour rester concentrés sur de longues pages d’écriture. Certains des bloggeurs que je lis ont également commencé à mentionner ce phénomène. Scott Karp, qui tient un blog sur les média en ligne, a récemment confessé qu’il avait complètement arrêté de lire des livres. “J’étais spécialisé en littérature à l’université et je passais mon temps à lire des livres”, écrit-il. “Que s’est-il passé ?” Il essaie de deviner la réponse : “Peut-être que je ne lis plus que sur Internet, non pas parce que ma façon de lire a changé (c’est à dire parce que je rechercherais la facilité), mais plutôt parce que ma façon de PENSER a changé ?”

Bruce Friedman, qui bloggue régulièrement sur l’utilisation des ordinateurs en médecine, décrit également la façon dont Internet a transformé ses habitudes intellectuelles. “J’ai désormais perdu presque totalement la capacité de lire et d’absorber un long article, qu’il soit sur le Web ou imprimé”, écrivait-il plus tôt cette année. Friedman, un pathologiste qui a longtemps été professeur l’école à de médecine du Michigan, a développé son commentaire lors d’une conversation téléphonique avec moi. Ses pensées, dit-il, ont acquis un style “staccato”, à l’image de la façon dont il scanne rapidement de petits passages de texte provenant de multiples sources en ligne. “Je ne peux plus lire Guerre et Paix, admet-il. “J’ai perdu la capacité de le faire. Même un billet de blog de plus de trois ou quatre paragraphes est trop long pour que je l’absorbe. Je l’effleure à peine.”

Les anecdotes par elles-mêmes ne prouvent pas grand chose. Et nous attendons encore des expériences neurologiques et psychologiques sur le long terme, qui nous fourniraient une image définitive sur la façon dont Internet affecte nos capacités cognitives. Mais une étude publiée récemment (.pdf) sur les habitudes de recherches en ligne, conduite par des spécialistes de l’université de Londres, suggère que nous assistons peut-être à de profonds changements de notre façon de lire et de penser. Dans le cadre de ce programme de recherche de cinq ans, ils ont examiné des traces informatiques renseignant sur le comportement des visiteurs de deux sites populaires de recherche, l’un exploité par la bibliothèque britannique et l’autre par un consortium éducatif anglais, qui fournissent un accès à des articles de journaux, des livres électroniques et d’autres sources d’informations écrites. Ils ont découvert que les personnes utilisant ces sites présentaient “une forme d’activité d’écrémage”, sautant d’une source à une autre et revenant rarement à une source qu’ils avaient déjà visitée. En règle générale, ils ne lisent pas plus d’une ou deux pages d’un article ou d’un livre avant de “bondir” vers un autre site. Parfois, ils sauvegardent un article long, mais il n’y a aucune preuve qu’ils y reviendront jamais et le liront réellement. Les auteurs de l’étude rapportent ceci :

“Il est évident que les utilisateurs ne lisent pas en ligne dans le sens traditionnel. En effet, des signes montrent que de nouvelles formes de “lecture” apparaissent lorsque les utilisateurs “super-naviguent” horizontalement de par les titres, les contenus des pages et les résumés pour parvenir à des résultats rapides. Il semblerait presque qu’ils vont en ligne pour éviter de lire de manière traditionnelle.”

Grâce à l’omniprésence du texte sur Internet, sans même parler de la popularité des textos sur les téléphones portables, nous lisons peut-être davantage aujourd’hui que dans les années 70 ou 80, lorsque la télévision était le média de choix. Mais il s’agit d’une façon différente de lire, qui cache une façon différente de penser, peut-être même un nouveau sens de l’identité. “Nous ne sommes pas seulement ce que nous lisons”, dit Maryanne Wolf, psychologue du développement à l’université Tufts et l’auteur de Proust et le Calamar : l’histoire et la science du cerveau qui lit. “Nous sommes définis par notre façon de lire.” Wolf s’inquiète que le style de lecture promu par le Net, un style qui place “l’efficacité” et “l’immédiateté” au-dessus de tout, puisse fragiliser notre capacité pour le style de lecture profonde qui a émergé avec une technologie plus ancienne, l’imprimerie, qui a permis de rendre banals les ouvrages longs et complexes. Lorsque nous lisons en ligne, dit-elle, nous avons tendance à devenir de “simples décodeurs de l’information”. Notre capacité à interpréter le texte, à réaliser les riches connexions mentales qui se produisent lorsque nous lisons profondément et sans distraction, reste largement inutilisée.

La lecture, explique Wolf, n’est pas une capacité instinctive de l’être humain. Elle n’est pas inscrite dans nos gènes de la même façon que le langage. Nous devons apprendre à nos esprits comment traduire les caractères symboliques que nous voyons dans un langage que nous comprenons. Et le médium ou toute autre technologie que nous utilisons pour apprendre et exercer la lecture joue un rôle important dans la façon dont les circuits neuronaux sont modelés dans nos cerveaux. Les expériences montrent que les lecteurs d’idéogrammes, comme les chinois, développent un circuit mental pour lire très différent des circuits trouvés parmi ceux qui utilisent un langage écrit employant un alphabet. Les variations s’étendent à travers de nombreuses régions du cerveau, incluant celles qui gouvernent des fonctions cognitives essentielles comme la mémoire et l’interprétation des stimuli visuels et auditifs. De la même façon, nous pouvons nous attendre à ce que les circuits tissés par notre utilisation du Net seront différents de ceux tissés par notre lecture des livres et d’autres ouvrages imprimés.

En 1882, Friedrich Nietzsche acheta une machine à écrire, une “Malling-Hansen Writing Ball” pour être précis. Sa vue était en train de baisser, et rester concentré longtemps sur une page était devenu exténuant et douloureux, source de maux de têtes fréquents et douloureux. Il fut forcé de moins écrire, et il eut peur de bientôt devoir abandonner. La machine à écrire l’a sauvé, au moins pour un temps. Une fois qu’il eut maîtrisé la frappe, il fut capable d’écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page.

Mais la machine eut un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. “Peut-être que, grâce à ce nouvel instrument, tu vas même obtenir un nouveau langage”, lui écrivit cet ami dans une lettre, notant que dans son propre travail ses “pensées sur la musique et le langage dépendaient souvent de la qualité de son stylo et du papier”.
“Tu as raison”, répondit Nietzsche , “nos outils d’écriture participent à l’éclosion de nos pensées”. Sous l’emprise de la machine, écrit le spécialiste allemand des médias Friedrich A. Kittler, la prose de Nietzsche “est passée des arguments aux aphorismes, des pensées aux jeux de mots, de la rhétorique au style télégraphique”.

Le cerveau est malléable presque à l’infini. On a longtemps cru que notre réseau mental, les connexions denses qui se forment parmi nos cent milliards et quelques de neurones, sont largement établis au moment où nous atteignons l’âge adulte. Mais des chercheurs du cerveau ont découvert que ce n’était pas le cas. James Olds, professeur de neurosciences qui dirige l’institut Krasnow pour l’étude avancée à l’université George Mason, dit que même l’esprit adulte “est très plastique”. Les cellules nerveuses rompent régulièrement leurs anciennes connexions et en créent de nouvelles. “Le cerveau”, selon Olds, “a la capacité de se reprogrammer lui-même à la volée, modifiant la façon dont il fonctionne.”

Lorsque nous utilisons ce que le sociologue Daniel Bell appelle nos “technologies intellectuelles”, les outils qui étendent nos capacités mentales plutôt que physiques, nous empruntons inéluctablement les qualités de ces technologies. L’horloge mécanique, qui est devenu d’utilisation fréquente au 14e siècle, fournit un exemple frappant. Dans Technique et Civilisation, l’historien et critique culturel Lewis Mumford décrit comment l’horloge “a dissocié le temps des évènements humains et a contribué à créer la croyance en un monde indépendant constitué de séquences mathématiquement mesurables”. La “structure abstraite du découpage du temps” est devenue “le point de référence à la fois pour l’action et les pensées”.

Le tic-tac systématique de l’horloge a contribué à créer l’esprit scientifique et l’homme scientifique. Mais il nous a également retiré quelque chose. Comme feu l’informaticien du MIT Joseph Weizenbaum l’a observé dans son livre de 1976, Le pouvoir de l’ordinateur et la raison humaine : du jugement au calcul, la conception du monde qui a émergé de l’utilisation massive d’instruments de chronométrage “reste une version appauvrie de l’ancien monde, car il repose sur le rejet de ces expériences directes qui formaient la base de l’ancienne réalité, et la constituaient de fait.” En décidant du moment auquel il faut manger, travailler, dormir et se lever, nous avons arrêté d’écouter nos sens et commencé à nous soumettre aux ordres de l’horloge.

Le processus d’adaptation aux nouvelles technologies intellectuelles est reflété dans les métaphores changeantes que nous utilisons pour nous expliquer à nous-mêmes. Quand l’horloge mécanique est arrivée, les gens ont commencé à penser que leur cerveau opérait “comme une horloge”. Aujourd’hui, à l’ère du logiciel, nous pensons qu’il fonctionne “comme un ordinateur”. Mais les changements, selon la neuroscience, dépassent la simple métaphore. Grâce à la plasticité de notre cerveau, l’adaptation se produit également au niveau biologique.

Internet promet d’avoir des effets particulièrement profonds sur la cognition. Dans un article publié en 1936 (.pdf), le mathématicien anglais Alan Turing a prouvé que l’ordinateur numérique, qui à l’époque n’existait que sous la forme d’une machine théorique, pouvait être programmé pour réaliser les fonctions de n’importe quel autre appareil traitant l’information. Et c’est ce à quoi nous assistons de nos jours. Internet, un système informatique d’une puissance inouïe, inclut la plupart de nos autres technologies intellectuelles. Il devient notre plan et notre horloge, notre imprimerie et notre machine à écrire, notre calculatrice et notre téléphone, notre radio et notre télévision.

Quand le Net absorbe un médium, ce médium est recréé à l’image du Net. Il injecte dans le contenu du médium des liens hypertextes, des pubs clignotantes et autres bidules numériques, et il entoure ce contenu avec le contenu de tous les autres média qu’il a absorbés. Un nouveau message e-mail, par exemple, peut annoncer son arrivée pendant que nous jetons un coup d’œil aux derniers titres sur le site d’un journal. Résultat : notre attention est dispersée et notre concentration devient diffuse.

L’influence du Net ne se limite pas aux bords de l’écran de l’ordinateur non plus. En même temps que l’esprit des gens devient sensible au patchwork disparate du médium Internet, les média traditionnels ont dû s’adapter aux nouvelles attentes de leur public. Les programmes de télévision ajoutent des textes défilants et des pubs qui surgissent, tandis que les magazines et les journaux réduisent la taille de leurs articles, ajoutent des résumés, et parsèment leurs pages de fragments d’information faciles à parcourir. Lorsque, au mois de mars de cette année, le New York Times a décidé de consacrer la deuxième et la troisième page de toutes ses éditions à des résumés d’articles, son directeur artistique, Tom Badkin, explique que les “raccourcis” donneront aux lecteurs pressés un “avant-goût” des nouvelles du jour, leur évitant la méthode “moins efficace” de tourner réellement les pages et de lire les articles. Les anciens média n’ont pas d’autre choix que de jouer suivant les règles du nouveau médium.

Jamais système de communication n’a joué autant de rôles différents dans nos vies, ou exercé une si grande influence sur nos pensées, que ne le fait Internet de nos jours. Pourtant, malgré tout ce qui a été écrit à propos du Net, on a très peu abordé la façon dont, exactement, il nous reprogramme. L’éthique intellectuelle du Net reste obscure.

À peu près au moment où Nietzsche commençait à utiliser sa machine à écrire, un jeune homme sérieux du nom de Frederick Winslow Taylor apporta un chronomètre dans l’aciérie Midvale de Philadelphie et entama une série d’expériences historique dont le but était d’améliorer l’efficacité des machinistes de l’usine. Avec l’accord des propriétaires de Midvale, il embaucha un groupe d’ouvriers, les fit travailler sur différentes machines de métallurgie, enregistra et chronométra chacun de leurs mouvements ainsi que les opérations des machines. En découpant chaque travail en une séquence de petites étapes unitaires et en testant les différentes façons de réaliser chacune d’entre elles, Taylor créa un ensemble d’instructions précises, un “algorithme”, pourrions dire de nos jours, décrivant comment chaque ouvrier devait travailler. Les employés de Midvale se plaignirent de ce nouveau régime strict, affirmant que cela faisait d’eux quelque chose d’à peine mieux que des automates, mais la productivité de l’usine monta en flèche.

Plus de cent ans après l’invention de la machine à vapeur, la révolution industrielle avait finalement trouvé sa philosophie et son philosophe. La chorégraphie industrielle stricte de Taylor, son “système” comme il aimait l’appeler, fut adoptée par les fabricants dans tout le pays et, avec le temps, dans le monde entier. À la recherche de la vitesse, de l’efficacité et de la rentabilité maximales, les propriétaires d’usine utilisèrent les études sur le temps et le mouvement pour organiser leur production et configurer le travail de leurs ouvriers. Le but, comme Taylor le définissait dans son célèbre traité de 1911, La direction des ateliers (le titre original The principles of scientific management pourrait être traduit en français par “Les principes de l’organisation scientifique”), était d’identifier et d’adopter, pour chaque poste, la “meilleure méthode” de travail et ainsi réaliser “la substitution graduelle de la science à la méthode empirique dans les arts mécaniques”. Une fois que le système serait appliqué à tous les actes du travail manuel, garantissait Taylor à ses émules, cela amènerait un remodelage, non seulement de l’industrie, mais également de la société, créant une efficacité parfaite utopique. “Dans le passé, l’homme était la priorité”, déclare-t-il, “dans le futur, la priorité, ce sera le système”.

Le système de Taylor, le taylorisme, est encore bien vivant ; il demeure l’éthique de la production industrielle. Et désormais, grâce au pouvoir grandissant que les ingénieurs informaticiens et les programmeurs de logiciel exercent sur nos vies intellectuelles, l’éthique de Taylor commence également à gouverner le royaume de l’esprit. Internet est une machine conçue pour la collecte automatique et efficace, la transmission et la manipulation des informations, et des légions de programmeurs veulent trouver “LA meilleure méthode”, l’algorithme parfait, pour exécuter chaque geste mental de ce que nous pourrions décrire comme “le travail de la connaissance”.

Le siège de Google, à Mountain View, en Californie, le Googleplex, est la Haute Église d’Internet, et la religion pratiquée en ses murs est le taylorisme. Google, selon son directeur-général Eric Schmidt, est “une entreprise fondée autour de la science de la mesure” et il s’efforce de “tout systématiser” dans son fonctionnement. En s’appuyant sur les téra-octets de données comportementales qu’il collecte à travers son moteur de recherche et ses autres sites, il réalise des milliers d’expériences chaque jour, selon le Harvard Business Review, et il utilise les résultats pour peaufiner les algorithmes qui contrôlent de plus en plus la façon dont les gens trouvent l’information et en extraient le sens. Ce que Taylor a fait pour le travail manuel, Google le fait pour le travail de l’esprit.

Google a déclaré que sa mission était “d’organiser les informations du monde et de les rendre universellement accessibles et utiles”. Cette société essaie de développer “le moteur de recherche parfait”, qu’elle définit comme un outil qui “comprendrait exactement ce que vous voulez dire et vous donnerait en retour exactement ce que vous désirez”. Selon la vision de Google, l’information est un produit comme un autre, une ressource utilitaire qui peut être exploitée et traitée avec une efficacité industrielle. Plus le nombre de morceaux d’information auxquels nous pouvons “accéder” est important, plus rapidement nous pouvons en extraire l’essence, et plus nous sommes productifs en tant que penseurs.

Où cela s’arrêtera-t-il ? Sergey Brin et Larry Page, les brillants jeunes gens qui ont fondé Google pendant leur doctorat en informatique à Stanford, parlent fréquemment de leur désir de transformer leur moteur de recherche en une intelligence artificielle, une machine comme HAL, qui pourrait être connectée directement à nos cerveaux. “Le moteur de recherche ultime est quelque chose d’aussi intelligent que les êtres humains, voire davantage”, a déclaré Page lors d’une conférence il y a quelques années. “Pour nous, travailler sur les recherches est un moyen de travailler sur l’intelligence artificielle.” Dans un entretien de 2004 pour Newsweek, Brin affirmait : “Il est certain que si vous aviez toutes les informations du monde directement fixées à votre cerveau ou une intelligence artificielle qui serait plus intelligente que votre cerveau, vous vous en porteriez mieux.” L’année dernière, Page a dit lors d’une convention de scientifiques que Google “essayait vraiment de construire une intelligence artificielle et de le faire à grande échelle.”

Une telle ambition est naturelle, et même admirable, pour deux mathématiciens prodiges disposant d’immenses moyens financiers et d’une petite armée d’informaticiens sous leurs ordres. Google est une entreprise fondamentalement scientifique, motivée par le désir d’utiliser la technologie, comme l’exprime Eric Schmidt, “pour résoudre les problèmes qui n’ont jamais été résolus auparavant”, et le frein principal à la réussite d’une telle entreprise reste l’intelligence artificielle. Pourquoi Brin et Page ne voudraient-ils pas être ceux qui vont parvenir à surmonter cette difficulté ?

Pourtant, leur hypothèse simpliste voulant que nous nous “porterions mieux” si nos cerveaux étaient assistés ou même remplacés par une intelligence artificielle, est inquiétante. Cela suggère que d’après eux l’intelligence résulte d’un processus mécanique, d’une suite d’étapes discrètes qui peuvent être isolés, mesurés et optimisés. Dans le monde de Google, le monde dans lequel nous entrons lorsque nous allons en ligne, il y a peu de place pour le flou de la réflexion. L’ambiguïté n’est pas un préliminaire à la réflexion mais un bogue à corriger. Le cerveau humain n’est qu’un ordinateur dépassé qui a besoin d’un processeur plus rapide et d’un plus gros disque dur.

L’idée que nos esprits doivent fonctionner comme des machines traitant des données à haute vitesse n’est pas seulement inscrite dans les rouages d’Internet, c’est également le business-model qui domine le réseau. Plus vous surfez rapidement sur le Web, plus vous cliquez sur des liens et visitez de pages, plus Google et les autres compagnies ont d’occasions de recueillir des informations sur vous et de vous nourrir avec de la publicité. La plupart des propriétaires de sites commerciaux ont un enjeu financier à collecter les miettes de données que nous laissons derrière nous lorsque nous voletons de lien en lien : plus y a de miettes, mieux c’est. Une lecture tranquille ou une réflexion lente et concentrée sont bien les dernières choses que ces compagnies désirent. C’est dans leur intérêt commercial de nous distraire.

Peut-être ne suis-je qu’un angoissé. Tout comme il y a une tendance à glorifier le progrès technologique, il existe la tendance inverse, celle de craindre le pire avec tout nouvel outil ou toute nouvelle machine. Dans le Phèdre de Platon, Socrate déplore le développement de l’écriture. Il avait peur que, comme les gens se reposaient de plus en plus sur les mots écrits comme un substitut à la connaissance qu’ils transportaient d’habitude dans leur tête, ils allaient, selon un des intervenants d’un dialogue, “arrêter de faire travailler leur mémoire et devenir oublieux.” Et puisqu’ils seraient capables de “recevoir une grande quantité d’informations sans instruction appropriée”, ils risquaient de “croire posséder une grande connaissance, alors qu’ils seraient en fait largement ignorants”. Ils seraient “remplis de l’orgueil de la sagesse au lieu de la sagesse réelle”. Socrate n’avait pas tort, les nouvelles technologies ont souvent les effets qu’il redoutait, mais il manquait de vision à long terme. Il ne pouvait pas prévoir les nombreux moyens que l’écriture et la lecture allaient fournir pour diffuser l’information, impulsant des idées fraîches et élargissant la connaissance humaine (voire la sagesse).

L’arrivée de l’imprimerie de Gutenberg, au XVe siècle, déclencha une autre série de grincements de dents. L’humaniste italien Hieronimo Squarciafico s’inquiétait que la facilité à obtenir des livres conduise à la paresse intellectuelle, rende les hommes “moins studieux” et affaiblisse leur esprit. D’autres avançaient que des livres et journaux imprimés à moindre coût allaient saper l’autorité religieuse, rabaisser le travail des érudits et des scribes, et propager la sédition et la débauche. Comme le professeur de l’université de New York, Clay Shirky, le remarque, “la plupart des arguments contre l’imprimerie était corrects et même visionnaires.” Mais, encore une fois, les prophètes de l’apocalypse ne pouvaient imaginer la myriade de bienfaits que le texte imprimé allait amener.

Alors certes, vous pouvez vous montrer sceptique vis-à-vis de mon scepticisme. Ceux qui considèrent les détracteurs d’Internet comme des béotiens technophobes ou passéistes auront peut-être raison, et peut-être que de nos esprits hyperactifs, gavés de données surgira un âge d’or de la découverte intellectuelle et de la sagesse universelle. Là encore, le Net n’est pas l’alphabet, et même s’il remplacera peut-être l’imprimerie, il produira quelque chose de complètement différent. Le type de lecture profonde qu’une suite de pages imprimées stimule est précieux, non seulement pour la connaissance que nous obtenons des mots de l’auteur, mais aussi pour les vibrations intellectuelles que ces mots déclenchent dans nos esprits. Dans les espaces de calme ouverts par la lecture soutenue et sans distraction d’un livre, ou d’ailleurs par n’importe quel autre acte de contemplation, nous faisons nos propres associations, construisons nos propres inférences et analogies, nourrissons nos propres idées. La lecture profonde, comme le défend Maryanne Wolf, est indissociable de la pensée profonde.

Si nous perdons ces endroits calmes ou si nous les remplissons avec du “contenu”, nous allons sacrifier quelque chose d’important non seulement pour nous même, mais également pour notre culture. Dans un essai récent, l’auteur dramatique Richard Foreman décrit de façon éloquente ce qui est en jeu :

“Je suis issu d’une tradition culturelle occidentale, pour laquelle l’idéal (mon idéal) était la structure complexe, dense et “bâtie telle une cathédrale” de la personnalité hautement éduquée et logique, un homme ou une femme qui transporte en soi-même une version unique et construite personnellement de l’héritage tout entier de l’occident. Mais maintenant je vois en nous tous (y compris en moi-même) le remplacement de cette densité interne complexe par une nouvelle sorte d’auto-évolution sous la pression de la surcharge d’information et la technologie de “l’instantanément disponible”.”

À mesure que nous nous vidons de notre “répertoire interne issu de notre héritage dense”, conclut Foreman, nous risquons de nous transformer en “crêpe humaine”, étalée comme un pâte large et fine à mesure que nous nous connectons à ce vaste réseau d’information accessible en pressant simplement sur une touche.”

Cette scène de 2001 : l’odyssée de l’espace me hante. Ce qui la rend si poignante, et si bizarre, c’est la réponse pleine d’émotion de l’ordinateur lors du démontage de son esprit : son désespoir à mesure que ses circuits s’éteignent les uns après les autres, sa supplication enfantine face à l’astronaute, “Je le sens, je le sens. J’ai peur.”, ainsi que sa transformation et son retour final à ce que nous pourrions appeler un état d’innocence. L’épanchement des sentiments de HAL contraste avec l’absence d’émotion qui caractérise les personnages humains dans le film, lesquels s’occupent de leur boulot avec une efficacité robotique. Leurs pensées et leurs actions semblent scénarisées, comme s’ils suivaient les étapes d’un algorithme. Dans le monde de 2001, les hommes sont devenus si semblables aux machines que le personnage le plus humain se trouve être une machine. C’est l’essence de la sombre prophétie de Kubrick : à mesure que nous nous servons des ordinateurs comme intermédiaires de notre compréhension du monde, c’est notre propre intelligence qui devient semblable à l’intelligence artificielle.

Nicolas Carr

Nous vous invitons à réagir à cet article sur le Framablog où la traduction a été originellement publiée.

cognition, mémoire

via Presse-Citron de Eric le 21/01/09

Nous l’avons vu récemment, la gestion de l’identité numérique commence au berceau, et les récents déboires d’un internaute ayant constaté à ses dépends que sur le web tout est public, sont là pour nous le rappeler une fois encore.

L’identité numérique reste un concept assez flou pour la plupart des internautes, or il est seulement question de contrôle de l’image et de la réputation, selon les mêmes règles que celles que nous appliquons dans notre vie courante, celle que l’on appelle la vraie vie.

Pas besoin d’être un expert, donc, pour observer ces 10 règles simples qui devraient normalement vous aider à mieux maîtriser votre image sur internet :

1 - Enregistrez vite votre nom de domaine.

Comme chacun possède sa carte d’identité, chaque internaute devrait avoir son propre nom de domaine sur internet, idéalement composé de son prénom et de son nom (même s’il est évident que cela n’est pas toujours possible), et si possible dans les principales extensions, de préférence sous la forme prenomnom.com ou prenom-nom.com (ou .fr ou .net ou autre). L’enregistrement d’un nom de domaine est aujourd’hui une formalité aussi simple que l’envoi d’un mail, et donc à la portée de tous. Les tarifs ont aussi considérablement baissé, et vous pouvez réserver un nom sur plusieurs années pour quelques dizaines d’euros. Pensez surtout à enregistrer celui de vos enfants, ça leur servira un jour.

Avantages : personne ne pourra vous subtiliser votre nom, et vous préparez le terrain pour une bon positionnement de celui-ci dans Google.

2 - Créez une page web personnelle avec les éléments positifs et publics de votre vie.

Tant qu’à avoir enregistré votre nom de domaine, autant capitaliser sur celui-ci en le faisant pointer sur votre CV simplifié, dans lequel vous consignez de façon claire et synthétique quelques trucs sur votre life : votre job, vos compétences, en restant très évasif, voire elliptique sur tout ce que vous considérez comme personnel (cette notion étant très variable selon les individus). Vous avez rarement l’occasion de parler de vous, c’est le moment : faites-vous briller. Avec modération et sans mentir, mais sans complexes non plus.

Avantages : alimenter en contenu et mettre régulièrement une page web à jour est très bon pour le référencement dans Google. Autant faire apparaître en premier dans les résultats un contenu qui vous appartient et sur lequel vous avez un total contrôle. N’ayez crainte, les hackers turcs s’intéressent rarement aux pages statiques en HTML simple.

3 - Créez-vous un pseudonyme facilement identifiable et utilisez toujours le même.

Vous participez, en toute transparence bien sûr, à des discussions, forums, commentaires sur les blogs, et pour les plus geeks, à Twitter et autres réseaux sociaux ? Si vous n’avez pas l’intention de tenir des propos compromettants (laissons cela aux trolls anonymes), renforcez votre identité numérique en utilisant un pseudo qui évoque directement votre vraie identité. Vous aurez tout à y gagner en matière de réputation, notamment si un futur employeur (ou une future conquête amoureuse) s’amuse à faire une recherche sur votre nom dans Google, sait-on jamais.

Avantages : vous pouvez retrouver plus facilement la trace de vos contributions sur le web, et montrer que vous dites des choses intelligentes, parfois. Cela peut également éviter qu’un usurpateur emprunte votre pseudo sur les forums qui vous tiennent à cœur.

4 - Faites des liens vers votre page perso.

Rappel technique pour les néophytes : plus une page web reçoit de liens en provenance d’autres sites, meilleures sont ses chances d’être bien positionnée dans les moteurs de recherche (avec quelques éléments de pondération toutefois). N’hésitez donc pas à essayer d’obtenir des liens d’autres sites vers votre page perso. Comment ? En demandant à des amis ayant déjà un site, mais aussi en n’oubliant pas de signer si possible toutes vos contributions avec l’adresse de votre site, que ce soit dans les forums ou les blogs. Attention à ne pas spammer en mettant des liens dans le corps du message, cela peut parfois être assez mal vu par certains modérateurs.

Avantages : vous augmentez la densité des liens pointant sur votre nom, et votre classement dans les moteurs. Du coup c’est votre contenu qui monte et qui peut finir par passer devant cette foutue page ou vous avez crié un jour de beuverie votre amour pour George Bush et qui depuis vous pourrit la vie en vous collant aux basques.

5 - Demandez un droit de rectification aux sites qui diffusent une mauvaise image de vous.

Opération délicate à manipuler avec beaucoup de diplomatie, voire une pointe d’humour, mais vous êtes dans votre droit le plus strict, celui de votre image personnelle. Si des propos, une photo ou une vidéo peu avantageux de vous sont diffusés sur un site, vous pouvez demander à ce que ce contenu soit retiré. Faites-le à l’amiable en évitant d’envoyer illico une armée de tueurs à gages ou un courrier de votre avocat. Avec les webmasters de bonne foi cela se passe généralement sans heurts. Si ce n’est pas le cas, alors vous pouvez utiliser une procédure plus contraignante, mais gare à l’effet rebond sur votre e-réputation : allez-y avec fermeté, mais courtoisie.

Avantages : vous pouvez au moins espérer désamorcer des conflits ou des malentendus par le dialogue, et en même temps montrer que vous entendez vous faire respecter.

6 - Demandez à Google de désindexer des pages portant atteinte à votre réputation.

Contrairement à une idée reçue, il y a des humains chez Google, et vous pouvez les contacter pour leur demander des choses, et leur signaler un contenu malveillant, notamment à votre encontre. Rien ne garantit que Google, qui est seul juge au final, ne s’exécute puisqu’il n’est pas responsable des contenus indexés, mais ça vaut toujours la peine de tenter le coup, même s’il faut pour cela s’adresser directement au service juridique de Google, à Mountain View, California, USA. N’attendez pas de miracles : au mieux Google supprimera la page en question de son index, ce qui est déjà énorme : une page non indexée est une page qui n’existe pratiquement plus.

Avantages : nettoyer un peu les casseroles qui traînent sur vous dans Google.

7 - Soyez vigilants sur le marquage de photos dans Facebook.

Le marquage (ou taggage) est une fonction dans Facebook qui consiste à mettre un nom sur un visage, tout simplement. Une fois une photo taggée avec votre nom, même compromettante, même publiée sans votre accord, même si ce n’est pas vous sur la photo, il sera très facile de vous retrouver. Pourtant, toute publication d’une photo incluant des personnes autres que celle publiant la photo devrait être soumise à autorisation préalable des personnes concernées. Votre seul recours est alors de supprimer le marquage vous concernant, ou de demander à la personne publiant cette photo de la supprimer. Pour cela il est indispensable de savoir si vous êtes marqué sur une photo et donc d’activer la notification dans votre profil (elle l’est par défaut)  : Paramètres > Compte > Notifications > Photos.

Avantages : éviter que votre futur employeur ne vous découvre ivre mort dormant dans votre vomi la veille d’un entretien d’embauche. Si si ça arrive.

8 - Utilisez des systèmes d’alerte sur mots-clés.

Le meilleur moyen de contrôler sa réputation et d’être informé sur ce qui se dit sur vous et de vous est encore de poser des micros et des caméras partout. Traduit en termes web, cela revient à souscrire à un système d’alertes comme Google Alerts par exemple : http://www.google.fr/alerts. Sur Google Alerts vous saisissez les mots-clés sur lesquels vous souhaitez être alertés ainsi que la fréquence des alertes, et vous recevrez celles-ci par email, avec les liens pointant directement sur les sites traitant les mots-clés en question. Redoutablement efficace en termes de surveillance, mais peut vite devenir pénible et intrusif. A utiliser avec parcimonie, sinon vous risquez de sombrer dans la paranoïa. C’est mauvais pour votre karma.

Avantages : vous avez d’un coup de très grandes oreilles.

9 - Vérifiez votre profil public sur Facebook.

Au-delà des réglages de confidentialité qu’il est vivement conseillé de paramétrer le plus finement possible en vous rendant dans Paramètres > Confidentialité, il existe dans Facebook deux fonctions très simples et assez rassurantes qui vous permettent de voir ce que voient les autres de vous. Tout d’abord ce que voient ceux qui ne sont pas inscrits sur Facebook, soit votre profil public tel qu’il est indexé dans les moteurs de recherche. Toujours dans Paramètres > Confidentialité, vous pouvez cocher la case en bas de page “Créer un profil public”. Copiez l’url de ce profil et collez-là dans un navigateur avec lequel vous n’êtes pas connecté à Facebook (ou déconnectez-vous) : vous verrez exactement ce que voit Google et les internautes de passage. Ensuite, une autre fonction vous permet de voir ce que voient cos amis, à savoir votre profil tel qu’ils le visualisent. Il suffit pour cela de vous rendre sur Paramètres > Confidentialité > Profil et de compléter le champ en haut marqué “Visualisez votre profil tel qu’il est vu par un(e) ami(e)” avec le nom d’un(e) ami(e), et vous verrez ce que voit l’ami(e) en question.

Avantages : vous montrez ce que vous voulez à qui vous voulez. Normalement.

10 - Pourquoi pas ouvrir un compte OpenID ?

OpenID kezako ? Reprenons un extrait de la définition qu’en donne Wikipedia : “système d’authentification décentralisé permet l’authentification unique, ainsi que le partage d’attributs. Il permet à un utilisateur de s’authentifier auprès de plusieurs sites (devant prendre en charge cette technologie) sans avoir à retenir un identifiant pour chacun d’eux mais en utilisant à chaque fois un unique identifiant OpenID”.

En résumé, OpenID permet théoriquement de bénéficier d’un identifiant unique et infalsifiable qui vous permet d’être connu et reconnu des sites qui ont adopté ce protocole. C’est gratuit et vous pouvez par exemple vous rendre sur OpenID France pour créer votre compte OpenID. Attention, certains diront qu’OpenID, en temps qu’outil centralisant vos données personnelles, pourrait constituer un mouchard très efficace en suivant à la trace votre activité sur le web. Je ne crois pas trop à cette version de la théorie du complot, d’autant que les sites qui acceptent l’identification par OpenID ne sont encore pas légion (et je me demande s’ils le seront un jour).

Avantages : identifiant unique et gain de temps.

Ces quelques conseils de bon sens ne s’adressent pas aux experts (le geek sait déjà tout cela mieux que moi et l’a mis en pratique depuis longtemps) mais à l’internaute lambda, pas forcément rompu aux arcanes et pièges du contrôle de la réputation sur internet. Ils n’ont non plus la prétention d’être exhaustifs, et toutes les suggestions venant compléter ce billet sont les bienvenues.

Pour en savoir plus sur l’identité numérique, je vous invite à consulter le billet, déjà ancien et plus technique, mais toujours d’actualité, de Fred Cavazza, sur le sujet.

Et maintenant vous n’avez plus d’excuse : protégez vos arrières.


Article original écrit par Eric et publié sur Presse-Citron, le 21/01/2009. | Lien direct vers cet article | Si vous lisez cet article dans son intégralité sur un autre site que Presse-Citron c'est qu'il a été reproduit illégalement et sans autorisation. Merci de le signaler à son auteur original en cliquant ici | © Presse-citron.net - 2009

via le blog sécurité de Philippe Maltere le 17/02/09

Ce n’est pas un retour à l’enfance que je vous propose, mais une nouvelle façon d’envisager la sécurité du poste de travail. En effet, les solutions de protection actuelles, si elles n’ont pas montrées leurs incompétences, n’ont pas non plus éblouies par leurs performances en matière de sécurité. Pourquoi, tout simplement, car ces solutions font appels pour travailler à une base de signature, qui par définition, si elle est même mis à jour toutes les 6 heures, sera toujours en retard sur l’actualité. Je sais, vous me direz, maintenant, ces solutions ont aussi un moteur heuristique… Simple saupoudrage marketing, ou effet cosmétique… Comme vous l’avez vu dans nos précédents messages, ce n’est presque que de la poudre aux yeux.

 

Alors, me direz vous on ne peut pas protéger efficacement un pc ? Oh, que si, la solution existe, elle existait même avant les solutions de sécurité, il s’agit de contrôler tous les processus permis à l’exécution, et son petit nom est " Host Intrusion Detection System " ou HIDS. Seulement voilà, si c’est la panacée, cette solution est aussi très difficile à mettre en place, car avoir idée de tous les processus d’une machine est couteux en énergie et en temps.

Alors c’est pas possible de sécuriser un pc ? A 100% non, par contre, des nouveaux produits commencent à apparaitre sur le marché qui partent du constat suivant : " comme une grande partie des attaques proviennent du web, et que la virtualisation est à la mode, virtualisons le navigateur ". Eh oui, c’est une très bonne idée, tout ce que l’utilisateur fera sur le web, sera dans une fenêtre virtuelle avec aucune interaction avec le système. Cette technologie d’abord poussée par des start-up, a été adoptée par les ténors de la sécurité qui ont sorti, ou vont sortir un produit de ce type.


Mais me direz vous, toutes les attaques ne proviennent pas seulement du web, mais aussi des mails, des vers (exploit d’une vulnérabilité système ou d’un logiciel). Alors votre virtualisation du navigateur cela ne sert pas pour ce type d’attaque ? C’est vrai, et c’est pour cela, que des produits de virtualisation du système entier commencent à bourgeonner. L’intérêt est, que quel que soit les manipulations faites par l’utilisateur, elles seront " effacées " au prochain reboot. Ces techniques pourraient être la fin des cauchemars des responsables micro.


Pour la bonne bouche, et pour justifier mon titre, il n’y a pas que la virtualisation, mais aussi le bac à sable. Le résultat est le même, mais on peut par ce principe isoler un programme spécifique (par exemple, oh malheur, faire un test de comportement d’un virus, ou un programme serbo croate qui semblait intéressant, mais qui n’offre pas toute la confiance nécessaire…). Il existe un programme pour faire cela dont la version gratuite est déjà assez élaborée, il s’agit de sandboxie. Ce n’est pas (encore)un programme permettant de gérer la sécurité d’un parc, mais je vous conseille vivement de l’avoir.

 FrontPageAnimation

Nous reviendrons avec Christophe R. tout au long de l’année sur ces différentes techniques de protection.