Archives de catégorie : Grandes Tendances

No Place to Hide – L’affaire Snowden par Greenwald

No Place To Hide BookJe viens de finir de lire ‘No Place to Hide’, un livre de Glenn Greenwald qui retrace l’épopée de Edward Snowden, le Whistle blower ou lanceur d’alertes qui est a l’origine des révélations de plusieurs programmes de surveillance de masse comme PRISM aux USA ou Tempora en Angleterre.
Greenwald, l’auteur de ce livre est le journaliste qui a travaillé avec Snowden afin de mettre en perspective les nombreux documents que l’ancien employé de la NSA et CIA a récupéré.
La première partie de ce livre est digne d’un roman de Tom Clancy: elle retrace la progression de Snowden au sein des services secrets américain, la facilité avec laquelle il a pu accéder et exporter ses informations classée top secret et enfin la fuite vers Hong-Kong puis la Russie. C’est clairement addictif et donne un exemple concret de l’espionnage moderne et du travail des services de renseignement aujourd’hui.
Le journaliste explique au passage les raisons qui ont poussé Snowden à agir, la difficulté de partager ses découvertes au grand public et l’importance des journaux/journalistes dans cette affaire.

La deuxième partie du livre est plus explicative sur les techniques de collecte d’information à grande échelle, les dangers de la surveillance et l’incapacité de nos démocraties/journalistes à demander des comptes aux gouvernements.
Le fond de cette partie est aussi passionnant que terrifiant: la démocratie demande des comptes et de la transparence aux dirigeants, elle offre aussi le respect de la vie privée à ces citoyens. Le point de Greenwald est qu’aujourd’hui la situation n’a jamais été aussi inversée.
Il note aussi que la surveillance des réseaux est nécessaire, mais elle doit être qualifiée et ciblée… ce qui est à l’opposé de la méthode actuelle ou les services secret se branchent sur les câbles sous-marins et espionnent tout ce qui y passe.
Je retiens que les commissions d’enquêtes ont révélés qu’aucune attaque anti-terroriste n’avait été empêchée grace a ce dispositif, et que le nombre d’américains qui meurent de terrorisme est équivalent à ceux qui meurent noyés dans leur baignoires. Ces pratiques, semble clairement disproportionnées.

L’élément à retenir, c’est que tout le monde est mouillé dans cette histoire: USA, Canada, Angleterre, Australie Nouvelle Zélande. La France procède de la même manière, mais nous ne sommes pas au courant. Le gène provient du poids des états-unis dans l’internet mondial. Il est probable que vos statuts Facebook soient dans une base de données des services secret américains.

Le plus inquiétant pour moi reste la manière dont les politiques et journalistes ont couvert cette affaire. On mesure une démocratie par la manière dont celle-ci traite ses adversaires. Dans le cas de Snowden, Manning, Assange ce n’est vraiment pas gagné.

La puissante TV trop oubliée: 2038 visites en moins d’une heure

visites en live sur mon blogEn validant un commentaire sur ce blog il y a une semaine, j’ai été surpris de constater que mon Analytics indiquait 1600 visites sur la journée. J’ai en moyenne 33 visiteurs uniques par jour, alors je n’ai pas compris quel était le ‘problème’.

Après une rapide analyse, j’ai remarqué que tout le trafic allait vers mon article LiFi du WiFi à travers des Leds et provenait des du moteur de recherche. J’ai donc demandé sur Facebook s’il avait eu un reportage sur cette technologie. J’ai rapidement eu l’information que LeWeb avait presenté la technologie et que surtout France2 en avait parlé à son 20h.

Pic de visites de 20h

J’avais donc ma raison, moi qui pensais que tout à coup j’étais une star de la blogosphère et que j’avais une audience de dingue 🙂 pour une prochaine. Cependant, je pense qu’il est intéressant d’analyser cette soudaine activité dans la mesure où nous avons une combinaison plutôt riche: TV + Blog + technologie peu connue.

Quelques éléments d’analyse

  • Double du trafic provenant des mobiles 30% versus 15 % d’habitude. La part d’iOS était deux fois plus importante que celle de Macintosh.
  • Le volume de visiteur a explosé au moment de la diffusion du reportage, ce qui illustre clairement que les gens regardaient la TV en même temps, une habitude du multi-écrans bien ancrée.
  • La principale requête est ‘lifi’ avec une position moyenne de 1.4 et un taux de clic de 46%. Je suis étonné d’être aussi bien placé sur une requête aussi générique. J’étais en moyenne à la position 3.4 sur cette même requête le mois dernier.
  • J’ai eu 2400 visiteurs uniques le lendemain versus 1999 la veille. C’est une surprise pour moi: les internautes ont donc continué à chercher des informations sur le sujet.
  • L’analyse en temps réel d’Analytics est franchement bien faite. C’est même assez addictif: voir les gens se connecter sur le site des différents coins du monde, consulter les pages et commenter.
  • Le niveau des commentaires n’est pas toujours très élevé: c’est la contre partie d’être diffusé à un horaire de grande écoute.
  • J’ai gagné 1,14 euros avec deux clics grâce à AdSense. C’est juste un test de mon côté; cela ne sert à rien, mais la différence volume/revenu est assez dingue.

Qu’en retenir

53 % des propriétaires de smartphone en France utilisent leur téléphone pour naviguer sur Internet tout en regardant la télévision.  Google/Ipsos

Comme nous l’expliquons souvent chez Google, le volume de trafic sur mobile et tablette augmente aux mêmes heures que la consommation de programme TV. Il est évident que ces nouveaux supports sont parfaits pour compléter une information délivrée en sens unique. La tendance ne peut que augmenter dans la mesure ou le taux de pénétration des smartphones en France est passé de 27% en 2011 à 38% en 2012.

En fin de compte, ces 6000 visites ne m’apportent pas grand-chose de nouveau. Je blog depuis bientôt 4 ans et j’ai franchement hésité à approuver certain commentaires pour cet article, ce qui ne m’est jamais arrivé avant. Je reste bluffé par le référencement de mes articles sur différent sujets, vu la petite taille de mon blog.

 

Online Marketing, chamboulement des règles du Tracking des internautes

Je souhaite revenir sur ce qu’il se passe dans le domaine de l’analyse du comportement des internautes. En effet, il y a beaucoup d’activité sur ce sujet en ce moment: les pouvoirs publique souhaitent l’insertion de Cookies en Opt-in; Mozilla travaille sur une requête Do Not Track; Microsoft propose une fonction de blocage de serveur publicitaire sur IE9 et le W3C essaye de coordonner le tout.

Bref, le web est décidément entrain de prendre un virage important: Loppsi, Acta, utilisation mobile, neutralité et publicité; tout est entrain d’être remis à plat. Je vous propose donc de revenir sur ce qu’il se passe au niveau de la publicité en-ligne.

Avant de plonger dans ce (trop) long article, petit rappel, un Cookie (ou Témoin) est un fichier texte déposé sur l’ordinateur d’un internaute à travers un navigateur suite à la demande d’un serveur. Ce petit fichier est aujourd’hui indispensable à la navigation sur Internet. Il est utilisé pour vous identifier sur un site, composer un panier; mais aussi de savoir si vous êtes déjà venu sur un site et donc de cibler des publicités. Tout cela se fait de manière complètement cachée pour l’internaute: et c’est bien la qu’est le problème.

Un débat nécessaire ?

Je pense que mettre le débat sur le devant de la scène est bénéfique pour l’internaute: trop peu de gens savent ce qu’il se passe sur internet et n’ont, en général, aucune idée que leur comportement de navigation est analysé. Il est donc important de rendre tout cela plus transparent et accessible pour l’utilisateur.

Exemple: Quand un webmaster souhaite savoir le nombre de visites sur son site, il ajoute une solution Analytics à son site. Google Analytics fournit par défaut avec le code de tracking, une notification pour prévenir l’internaute. Cependant, je n’en ai jamais vu sur un site; ceux-ci retirent cette notification volontairement. Dans ce cas, c’est à la charge du webmaster de notifier l’internaute de l’utilisation d’une solution Analytics… Clairement personne ne le fait !

Aussi, tous les navigateurs moderne (Firefox, Chrome et IE9)  proposent la possibilité de naviguer en mode « Anonyme » (généralement appelé Porn Mode). C’est souvent un nouvel onglet qui n’enregistre aucun cookie ou historique de navigation.

Cette solution est bien souvent la plus simple lorsque vous voulez naviguer sans laisser de trace, comme pour acheter un cadeau, ou visiter des sites destinés aux adultes uniquement. Cependant, inconvénient majeur, ce mode n’est vraiment pas pratique pour une utilisation intensive ou quotidienne.

Le remarketing, la goutte de trop…

En effet, avec l’apparition du Remarketing (ou retargeting) le ciblage publicitaire à passé un cap important: il est maintenant possible pour un annonceur d’adapter le ciblage des publicités en fonction des produits que vous avez ajouté à un panier, ou juste  regardé sur un site auparavant. Le pionnier du marché en France et Critéo; mais Google propose une solution très efficace en combinant AdWords et AdSense.

Ainsi, lorsque vous vous baladez sur le net les jours suivants; l’annonceur peut vous re-proposer les produits que vous aviez ajouté dans votre panier. Tout cela en étant sur un site qui n’as rien à voir. Google et Critéo offrent tous la possibilité de ne plus avoir ce type de pub; mais cela reste tout de même intrusif  et peut générer quelques surprise lorsqu’une autre personne (votre époux) utilise votre ordinateur et ne vois que de la pub pour des sextoys ou le cadeau dont il a tant rêvé pour son anniversaire.

La problématique est plus de trouver un consensus autour du ‘Do Not Track’…

One striking observation for most of these technologies is the relative simplicity of the technical approach, and the complexity of defining what the real meaning of « Do Not Track » is, on a global Internet.

En effet, comme l’explique le W3C, Worldwide Web Consortium, le sujet implique de nombreux acteurs de l’écosystème du Web: Vendeurs, propriétaires de sites web, défenseur de la vie privée et ceux qui utilisent le suivi des utilisateurs pour fournir leur services. Ainsi, trouver l’équilibre ne sera pas facile : une réglementation trop stricte pourrait impacter tout un écosystème, qui vis principalement grâce à la publicité; et une réglementation trop laxiste laisserai le champ libre aux débordements.

Je pense sincèrement que Mozilla sera une pièce maitre dans ce jeu. C’est en effet le seul navigateur à être (relativement) plus autonome que les autres. IE9 est passé d’un filtrage automatique à une activation manuelle; et il est peu probable que Chrome aille plus loin qu’une extension Do Not Track. Comme Chrome a poussé ses concurrents à plus de vitesse, Firefox peut rendre le tracking plus transparent en informant l’utilisateur des méthodes utilisées sur le site, et proposant des options adaptées (blocage complet ou partiel).

Quel impacte pour la publicité ?

Évidemment, tout dépendra des actions prises par les différents acteurs du débat. Il reste évidant que cela amènera plus de complexité dans les méthodes de tracking et il est probable que cela ne bénéficie pas à l’internaute. En effet, plus les réglementations seront strictes, plus les différents acteurs chercheront à les contourner.

Aussi, beaucoup d’agences innovantes ne peuvent utiliser que cette technologie. En effet, Google et autres géants du web ont d’autres solutions : des sites web important sur lesquels ils peuvent utiliser d’autres paramètres comme les requêtes de recherche, les informations volontairement rentrés sur les profils; et ainsi, proposer des publicités adaptées.

Il sera donc beaucoup plus dur pour les intermédiaires (petite régies, ou plateformes d’affiliation) de se positionner et résister. Ainsi c’est les gros acteurs qui sortiront leur épingle du jeu.

Facebook futur géant de la recherche sociale ?

Beaucoup de choses ont déjà été dites sur les annonces faites par le fondateur de Facebook lors de la conférence ‘f8’ regroupant les développeurs de l’entreprise. L’article du blog de référence ReadWriteWeb fait très bien le point sur les nouveautés proposées par Facebook, vous pouvez aussi lire la matrice de Jeremiah Owyang [eng].

Pour faire court, Mark Zuckerberg impose son réseau social comme la plateforme universelle pour gérer ses interactions sociales sur le Web. Le temps ou tout était personnel est donc bien fini : avec Facebook, qui dit social dit publique. Certaines conditions de partage ont encore changés et c’est loin d’être fini. Personnellement, je n’y vois pas d’inconvénients majeur : il est difficile d’obtenir des infos de son entourage, si on ne partage rien sois-même.

Le potentiel énorme de Facebook est dans la recommandation géo-localisée : on sent bien que c’est un enjeu capital. En effet tous les géants du web (Twitter, Facebook, Google) y ont un pied dedans mais ne sont pas pour autant des pros comme FourSquare ou Goala [eng]. FaceBook, avec une base de 400 million d’utilisateurs, a pris une longueur d’avance en proposant tous les outils pour que ses internautes recommandent à tour de bras (les ‘Likes’). De plus, le site à un avantage unique et important : des profiles avec une crédibilité béton. Si un ami à recommandé un site, vous êtes sur que c’est lui. Ainsi, le site pourrait, en quelques mois, proposer un service aussi puissant et crédible que Yelp.

Son problème majeur sera dans sa capacité à conserver, analyser et proposer une réponse pertinente à la requête de l’utilisateur. En quelque sorte, comment différencier le futile (95% de l’activité de Facebook) de l’important. C’est jusqu’à présent impossible : même Google ne sais pas évaluer la pertinence d’un tweet, autrement que par des mots clé. En fait la solution idéale serait de mixer un Facebook avec un moteur de recherche performant. Il est peu probable que Facebook en développe un en interne, peu probable qu’il signe avec Google et ………… mais attendez ! « Y’a pas un accord Facebook / Bing ? » Si, si.

Microsoft pourrait donc facilement donner une couche réellement sociale à son moteur de recherche. L‘idée est la : indexer, analyser le contenu pour restituer une réponse pertinente, c’est un boulot de moteur de recherche non ? Ce genre d’accord, même si loin d’être évidant, donnerait un sacré coup de pouce à Bing, qui à défaut d’être performant sur la recherche classique, serait en avance dans les recommandations sociales à travers l’insertion de celles-ci dans les pages de résultat. Ce serait cool non, en cherchant un restaurant d’avoir directement dans le moteurs les « Like » de ses amis !

Qu’en pensez vous ?

—-

Pour plus d’infos

Ceux qui ne supportent plus Facebook et veulent une alternative Libre, c’est le projet MOVIM

« Why f8 was good for the open web » sur O’Reilly Radar

Un FredCavazza plutôt sceptique (comme d’habitude avec FB) qui pari sur l’implosion à terme du site

SEO quoi de neuf ? Bilan Journées du Contenu Web

logo-seo-campDans le cadre des Journées du Contenu Web à Lille, l’Association du référencement SEO Camp a animé (ce matin) une table ronde afin de faire un point sur les avancées technologiques et markéting du référencement. Je vous propose ici un compte rendu de cette matinée forte intéressante. Un grand merci à tous les intervenants !

Rien de bien nouveau sur le Page Rank

Il était difficile de commencer cette matinée par autre chose que l’éternel Page Rank. Pour rappel le système mis en place par Google permet de noter de 0 à 10 la popularité d’une page web (et non d’un site). A l’origine ne calculant que le nombre de liens pointant vers une page, il est maintenant important de le placer dans un contexte global. Ainsi, l’historique, la qualité et la variété du nombre de liens sont aussi des critères important. De plus, il semblerait que la notion de « fraicheur » du lien soit maintenant mesurée : un lien récent aurait plus d’impact sur le court terme qu’un lien ancien.

Le plus intéressant reste la SEO Report Card, partagé par l’équipe de la SEO Camp et publié sur le WebMaster Central Blog de Google. Ce PDF est en fait un document (à l’origine) interne, auditant l’optimisation SEO des sites web des services Google. Étonnamment, le PageRank n’apparait nul part, les autres critères sont eux, bien présents.

La recherche universelle, toujours plus complète

Cette technologie permet d’afficher des cartes, vidéos et photos correspondant à votre requête au sein même de la page de résultat (le SERP). La recherche universelle est maintenant bien plus étendue et inclue les statuts Facebook, Twitter, les cours de la bourse, les horaires de cinéma, et toutes les autres sources d’informations que Google  juge pertinente. On retrouve ici la notion de fraîcheur de l’information avec les Hot Topics de Google Trends, ou pour la première fois Google modifie en live ses résultats.

Tweet en LiveCe n’est pas tout à fait nouveau, cependant, d’un point de vue SEO, cela confirme l’importance de travailler la variété des supports. D’autant plus que les liens sponsorisés ont tendances à s’y mélanger en s’ajoutant au Google Suggest, ou dans les résultats de Maps.

La géolocalisation : capitale et difficilement optimisable

Malheureusement méconnu des webmaster, le Local Business Center permet aux entreprises de gérer leur visibilité dans les services Google. En s’inscrivant, les annonceurs ont l’opportunité de contrôler les infos mises en avant dans Maps, mais aussi de faire des annonces Adwords géolocalisées, de mettre des photos et vidéos de leur entreprises ou modifier leur emplacement, modérer les avis etc…

Malheureusement d’un point de vue SEO technique il n’y a rien à optimiser, les seuls critères pris en compte sont les lieux, les catégories et le contenu. Le classement (a priori) est organisé de manière géographique, il est donc préférable d’avoir un pas de porte dans le 1er arrondissement de Paris, plutôt qu’a la défense. Faites attention à bien choisir des catégories représentatives de votre activité : il est inutile d’être trop gourmand.

La personnalisation des résultats

L’idée des moteurs est de proposer des résultats en SEO et SEM personnalisés en fonctions de vos habitudes de navigation et recherches. Aujourd’hui Google personnalise le résultat des pages en utilisant deux techniques : les cookies et l’historique web. Le cookie est un peu le meilleur amis des marketeurs et référenceurs: il permet de tracer (anonymement) l’internaute afin de remonter des données quantitatives sur son comportement. Inconvénient : il est limité dans le temps et n’est pas nominatif, de plus l’internaute peut les supprimer à tout moment.

Avec l’historique web, Google garde en mémoire votre historique et s’en sert pour proposer des résultats personnalisés en fonctions de vos sites favoris. Google a récemment ouvert cette fonction à l’ensemble des internautes par défaut. Ainsi tout le monde (loggé, ou non) est susceptible d’avoir des résultats à la carte. Suite à cette annonce, beaucoup ont crié à la mort du SEO (encore une fois).

Je pense que Google à surtout rendu un service aux agences, en donnant une excuse pour se concentrer plus sur le trafic provenant des moteurs, que sur un classement des positions. Aujourd’hui, la personnalisation ne concerne qu’un résultat sur toute la page. De plus, cela ne marchera que si Google est certain de la pertinence de sa personnalisation; sinon il ne changera rien. Les rapports de positionnement sont donc encore importants, mais à long terme, il est plus intéressant d’utiliser d’autres mesures.

Le temps de chargement des pages : surtout du bon sens

yslow-logo
Add-On FireFox Yslow de Yahoo

Cette mesure déjà très importante avec Adwords, semble se reporter (comme souvent) sur le SEO. Que ce soit ou niveau du Google Webmaster Tool ou de l’outil PageSpeed, Google donne de plus en plus d’informations et donc d’importance sur le temps de chargement d’une page. Ironiquement, le script de Google Analytics est souvent critiqué pour être trop long à charger (une alternative plus rapide est disponible).

C’est surtout du bon sens : devant l’abondance de choix sur certaines requêtes, Google à tout intérêt à choisir des sites qui chargent le plus vite possible. Il faut faire attention à différencier l’optimisation de chargement pour des robots et pour les internautes. Le premier est indispensable pour le référencement des pages, le deuxième est indispensable pour un taux de rebond acceptable. Comme souvent en référencement, il est indispensable de rendre la navigation agréable pour l’internaute, et donc, pour les robots (et non l’inverse).

Les réseaux sociaux, indispensables et compliqués

Intéressante mise en perspective de Philippe Yonnet (Aposition) sur la diversité des réseaux sociaux dans le monde (non Facebook n’est pas leader partout !). C’est une donnée importante, car cela indique que la concurrence est bien présente, et qu’il est plus que probable que FaceBook passe de mode. Cela indique aussi que nous sommes bien au delà d’une éventuelle mode, et que l’usage des plateformes sociales est maintenant bien ancré.

Cependant, les problématiques sont nombreuses et vont bien au-delà du SEO. Je retiens principalement le fait qu’avec les réseaux sociaux, l’entreprise ne possède pas ses données : ce qui est sur Facebook reste sur Facebook. Il est donc important de garder un site web comme plateforme d’échange principal.

Il est évidant que les réseaux sont maintenant une source de trafic considérable pour de nombreux sites, et que si l’investissement technique est souvent dérisoire, c’est surtout l’investissement humain et l’engagement de la marque qui est important. Ainsi, comme pour le SEO, le ROI est souvent sur du moyen long terme et difficilement attribuable. Il est donc important de bien choisir ses indices de performances : nombres de commentaires, de followers, de diffusion des informations sur la toile (backtweets).

Et Google dans tout ça ?

L’attitude de Google évolue : La montée en puissance des réseaux sociaux, et l’arrivée de Bing et son rapprochement avec Yahoo pourrait bien changer la donne aux US. Ainsi, l’interface de Google évolue beaucoup plus souvent qu’avant et innove beaucoup plus dans les fonctionnalités (Recherche universel, Social Circle…). Aussi, Roland Debrabant (Ad-référencement) souligne le fait que Google soit beaucoup plus présent au niveau commercial en proposant de l’aide et des coupons de réductions aux agences, pour les petits comptes. Le géant du web serait donc maintenant beaucoup plus actif en prospection et fidélisation, ce qui ne semblait pas être le cas avant.