Archives de catégorie : Grandes Tendances

SEO quoi de neuf ? Bilan Journées du Contenu Web

logo-seo-campDans le cadre des Journées du Contenu Web à Lille, l’Association du référencement SEO Camp a animé (ce matin) une table ronde afin de faire un point sur les avancées technologiques et markéting du référencement. Je vous propose ici un compte rendu de cette matinée forte intéressante. Un grand merci à tous les intervenants !

Rien de bien nouveau sur le Page Rank

Il était difficile de commencer cette matinée par autre chose que l’éternel Page Rank. Pour rappel le système mis en place par Google permet de noter de 0 à 10 la popularité d’une page web (et non d’un site). A l’origine ne calculant que le nombre de liens pointant vers une page, il est maintenant important de le placer dans un contexte global. Ainsi, l’historique, la qualité et la variété du nombre de liens sont aussi des critères important. De plus, il semblerait que la notion de « fraicheur » du lien soit maintenant mesurée : un lien récent aurait plus d’impact sur le court terme qu’un lien ancien.

Le plus intéressant reste la SEO Report Card, partagé par l’équipe de la SEO Camp et publié sur le WebMaster Central Blog de Google. Ce PDF est en fait un document (à l’origine) interne, auditant l’optimisation SEO des sites web des services Google. Étonnamment, le PageRank n’apparait nul part, les autres critères sont eux, bien présents.

La recherche universelle, toujours plus complète

Cette technologie permet d’afficher des cartes, vidéos et photos correspondant à votre requête au sein même de la page de résultat (le SERP). La recherche universelle est maintenant bien plus étendue et inclue les statuts Facebook, Twitter, les cours de la bourse, les horaires de cinéma, et toutes les autres sources d’informations que Google  juge pertinente. On retrouve ici la notion de fraîcheur de l’information avec les Hot Topics de Google Trends, ou pour la première fois Google modifie en live ses résultats.

Tweet en LiveCe n’est pas tout à fait nouveau, cependant, d’un point de vue SEO, cela confirme l’importance de travailler la variété des supports. D’autant plus que les liens sponsorisés ont tendances à s’y mélanger en s’ajoutant au Google Suggest, ou dans les résultats de Maps.

La géolocalisation : capitale et difficilement optimisable

Malheureusement méconnu des webmaster, le Local Business Center permet aux entreprises de gérer leur visibilité dans les services Google. En s’inscrivant, les annonceurs ont l’opportunité de contrôler les infos mises en avant dans Maps, mais aussi de faire des annonces Adwords géolocalisées, de mettre des photos et vidéos de leur entreprises ou modifier leur emplacement, modérer les avis etc…

Malheureusement d’un point de vue SEO technique il n’y a rien à optimiser, les seuls critères pris en compte sont les lieux, les catégories et le contenu. Le classement (a priori) est organisé de manière géographique, il est donc préférable d’avoir un pas de porte dans le 1er arrondissement de Paris, plutôt qu’a la défense. Faites attention à bien choisir des catégories représentatives de votre activité : il est inutile d’être trop gourmand.

La personnalisation des résultats

L’idée des moteurs est de proposer des résultats en SEO et SEM personnalisés en fonctions de vos habitudes de navigation et recherches. Aujourd’hui Google personnalise le résultat des pages en utilisant deux techniques : les cookies et l’historique web. Le cookie est un peu le meilleur amis des marketeurs et référenceurs: il permet de tracer (anonymement) l’internaute afin de remonter des données quantitatives sur son comportement. Inconvénient : il est limité dans le temps et n’est pas nominatif, de plus l’internaute peut les supprimer à tout moment.

Avec l’historique web, Google garde en mémoire votre historique et s’en sert pour proposer des résultats personnalisés en fonctions de vos sites favoris. Google a récemment ouvert cette fonction à l’ensemble des internautes par défaut. Ainsi tout le monde (loggé, ou non) est susceptible d’avoir des résultats à la carte. Suite à cette annonce, beaucoup ont crié à la mort du SEO (encore une fois).

Je pense que Google à surtout rendu un service aux agences, en donnant une excuse pour se concentrer plus sur le trafic provenant des moteurs, que sur un classement des positions. Aujourd’hui, la personnalisation ne concerne qu’un résultat sur toute la page. De plus, cela ne marchera que si Google est certain de la pertinence de sa personnalisation; sinon il ne changera rien. Les rapports de positionnement sont donc encore importants, mais à long terme, il est plus intéressant d’utiliser d’autres mesures.

Le temps de chargement des pages : surtout du bon sens

yslow-logo
Add-On FireFox Yslow de Yahoo

Cette mesure déjà très importante avec Adwords, semble se reporter (comme souvent) sur le SEO. Que ce soit ou niveau du Google Webmaster Tool ou de l’outil PageSpeed, Google donne de plus en plus d’informations et donc d’importance sur le temps de chargement d’une page. Ironiquement, le script de Google Analytics est souvent critiqué pour être trop long à charger (une alternative plus rapide est disponible).

C’est surtout du bon sens : devant l’abondance de choix sur certaines requêtes, Google à tout intérêt à choisir des sites qui chargent le plus vite possible. Il faut faire attention à différencier l’optimisation de chargement pour des robots et pour les internautes. Le premier est indispensable pour le référencement des pages, le deuxième est indispensable pour un taux de rebond acceptable. Comme souvent en référencement, il est indispensable de rendre la navigation agréable pour l’internaute, et donc, pour les robots (et non l’inverse).

Les réseaux sociaux, indispensables et compliqués

Intéressante mise en perspective de Philippe Yonnet (Aposition) sur la diversité des réseaux sociaux dans le monde (non Facebook n’est pas leader partout !). C’est une donnée importante, car cela indique que la concurrence est bien présente, et qu’il est plus que probable que FaceBook passe de mode. Cela indique aussi que nous sommes bien au delà d’une éventuelle mode, et que l’usage des plateformes sociales est maintenant bien ancré.

Cependant, les problématiques sont nombreuses et vont bien au-delà du SEO. Je retiens principalement le fait qu’avec les réseaux sociaux, l’entreprise ne possède pas ses données : ce qui est sur Facebook reste sur Facebook. Il est donc important de garder un site web comme plateforme d’échange principal.

Il est évidant que les réseaux sont maintenant une source de trafic considérable pour de nombreux sites, et que si l’investissement technique est souvent dérisoire, c’est surtout l’investissement humain et l’engagement de la marque qui est important. Ainsi, comme pour le SEO, le ROI est souvent sur du moyen long terme et difficilement attribuable. Il est donc important de bien choisir ses indices de performances : nombres de commentaires, de followers, de diffusion des informations sur la toile (backtweets).

Et Google dans tout ça ?

L’attitude de Google évolue : La montée en puissance des réseaux sociaux, et l’arrivée de Bing et son rapprochement avec Yahoo pourrait bien changer la donne aux US. Ainsi, l’interface de Google évolue beaucoup plus souvent qu’avant et innove beaucoup plus dans les fonctionnalités (Recherche universel, Social Circle…). Aussi, Roland Debrabant (Ad-référencement) souligne le fait que Google soit beaucoup plus présent au niveau commercial en proposant de l’aide et des coupons de réductions aux agences, pour les petits comptes. Le géant du web serait donc maintenant beaucoup plus actif en prospection et fidélisation, ce qui ne semblait pas être le cas avant.

Aux Armes Citoyens !

Je vous livre en retard mon dernier billet, trop long et probablement trop large. Malgré ces quelques défauts, il est l’un des billets les plus long et plus engagé de ce blog, car il représente les peurs et menaces que je ressens de plus en plus grande, contre un média qui représente ce que l’homme a fait de mieux en terme de liberté d’expression.

Internet a chamboulé notre manière de vivre, de consommer. Cela a été possible notamment grâce a des principes fondateurs pour lesquels de nombreuses personnes se battent : la liberté d’expression, l’interopérabilité, l’open source, la neutralité du net, etc etc…Tous ces combats nous permettent de profiter du net tel qu’on le connait aujourd’hui : créatif, riche & dynamique ; certains diront incontrôlable (oh mon dieu !).

Serions-nous en train de vivre la fin d’une ère du web ? Une ère ou, à partir d’une connexion internet, n’importe qui dans le monde était libre de publier, commenter, surfer, partager de la culture, avec tous ses confrères humains gratuitement ? Vu les derniers événements, les blogueurs et autres internautes chevronnés sentent  la tempête de la répression se lever et déraciner un à un les principes fondateurs du net.

Mais quels sont les problèmes ? Quelles sont/seront les conséquences ? Devons-nous nous révolter et nous battre ? Si oui, comment ? Ce billet est l’occasion de partager mon point de vue avec vous et, par la même occasion, faire mon devoir civique de défense de l’internet auquel je crois : Riche et Universel. Amen !

Les problèmes

L'Accord Commercial Anti-Contrefaçon
L'Accord Commercial Anti-Contrefaçon

Les producteurs et éditeurs de contenu : La culture en est l’exemple parfait. La musique, le cinéma, la presse et maintenant les livres, qui avec la dématérialisation de leur biens se voient privés des bénéfices liés à la fabrication et la distribution de supports. Ce dernier devenant forcément inutile avec le numérique. Il semblait logique de payer les frais de fabrication et distribution du CD, livre ou DVD, mais maintenant que le cout de ces 2 étapes tend vers le 0, à quoi bon ? Les différentes maisons n’ont toujours pas compris cette réalité et, plutôt que de s’adapter, font depuis plusieurs années maintenant un lobbying de fous pour restreindre et contrôler l’échange de fichier en ligne : Fermeture de nombreux sites P2P, loi Olivennes, Hadopi, et la mise en place de l’ACTA. Les éditeurs vont bientôt rejoindre le clan, car il est attaqué par de nouveaux acteurs (le Kindle d’Amazon et l’iPad d’Apple). C’était plus que prévisible non ? Pourquoi l’industrie n’as t’elle rien faite ? Les maisons d’éditions auraient pu se regrouper et définir un format et support propre non ? C’est trop facile de se plaindre des Google/Apple et autres acteurs du numériques.

Les Vices : le net est en effet victime de son excès de liberté et catalyse tous les vices du monde. Les politiques, la presse et les journaux TV adorent diaboliser le Net, car attention Internet est une poubelle qu’il faut contrôler. Le web serait donc responsable de la pornographie, la violence, la drogue, les suicides, la prostitution, bref… c’était bien mieux avant. Beaucoup espèrent que la Loi d’Orientation et de Programmation pour la Performance de Sécurité Intérieur (LOPPSI) pourra contrôler cela  : en filtrant le net, en surveillant les emails, les échanges il sera plus facile de supprimer ces contenus. Qui a dit Big Brother gouvernemental, ou surveiller pour mieux régner ? Je reviens seulement sur l’argument que je vois revenir le plus souvent, étant le plus horrible : la pédo-criminalité. Je vous invite à réfléchir en lisant deux articles que vous ne verrez jamais dans la presse qui défendent que les pédophiles eux aussi sont pour la Loppsi, ainsi que le courageux article de Guillaume Champeau : Et si le filtrage du Web encourageait la PédoCriminalité ?

Les Politiques : En théorie, le web est apolitique : il ne dépend pas des politiques des gouvernements. Les lobbies et autres pressions sociales face aux vices ont eu raison de cette période, qui est aujourd’hui terminée. Par exemple le gouvernement Italien projette de rendre Youtube responsable responsable du contenu publié sur le site. Aujourd’hui, la responsabilité du contenu publié incombe à l’éditeur et non à l’hébergeur. En inversant ce principe, les politiques et lobbys règleront (soi-disant) tous les Vices du web. Ainsi les Youtube, WordPress, et même Facebook se verront obligés de limiter grandement le contenu publié sur leurs plateformes : le cout de modération serait bien trop élevé pour les plateformes. Au-delà de faire retourner le Web 2.0 au Web 1.0, c’est surtout une atteinte sans précédent à la liberté d’expression.

Come and See Our Latest RestrictionL’arrivée des MarketPlaces : En fait, le danger, c’est la généralisation des marketplace intégrée, l’endroit unique où l’on peut acheter et télécharger et installer des applications. C’est un point de contrôle stratégique, la pomme étant libre de modifier ou même refuser une application. Le refus de Google Voice en est l’exemple type. Amazon n’est pas un meilleur exemple avec la suppression automatique et à distance des versions de 1984 d’Orwell (tout un symbole) téléchargés sur les Kindle. L’iPad enfonce le clou dans la mesure où ces dangers sont portés sur ordinateur, et qu’il est probable de voir apparaitre l’AppStore sur tous les portables Apple la solution étant plus pratique et intuitive. Le slogan de la Free Software Foundation synthétise bien le problème : iPad is iBad for Freedom !

Au-delà du controle des entreprises sur les applications, les MarketPlaces représentent un autre problème : l’interopérabilité. Aujourd’hui il y a sept OS différents dans les téléphones, et il faut développer une version différente pour chaque système. Ainsi, les applications représentent un retour en arrière sans précédent en termes d’interopérabilité.

Les Solutions :

L’éducation et l’encadrement avant tout : Il est important d’expliquer aux enfants que le contenu produit sur le Web ne se fait pas tout seul : des gens y travaillent, et que si le contenu est accessible gratuitement c’est qu’il y a une contrepartie notamment dans la collection d’informations personnelles. Evidemment, les parents n’ont pas forcément conscience de cela, l’état doit ici jouer son rôle, et communiquer sur ce sujet. Les enfants doivent aussi comprendre que si ils téléchargent de la culture en ligne illégalement, c’est répréhensible, et ils doivent rémunérer l’artiste d’une manière ou d’une autre, en allant au concerts ou préférant des solutions légales tel que Deezer ou Spotify.

Aussi, il faut adapter l’éducation à l’utilisation des nouvelles technologies. On explique bien aux enfants qu’il ne faut pas monter dans la voiture d’inconnus. Il semble donc logique d’expliquer pourquoi le web est génial, mais aussi pourquoi il peut être dangereux. On ne laisse pas un enfant avec un PC et une TV seul dans sa chambre : il a besoin d’être accompagné pour comprendre comment identifier un site ou un comportement à risque. En gros le PC doit être dans le salon, et les parents doivent vérifier ce que fait l’enfant, et en parler souvent avec lui. Si les parents ne peuvent pas être tout le temps derrière l’enfant, il existe des tonnes de logiciels qui permettront de limiter l’utilisation du PC.

L’arrivée de l’HTML 5 : Les capacités accrues de cette version de l’html seront suffisantes pour développer des applications Web-Only. Ainsi, Google a développé Voice en HTML5 réglant ainsi le problème de censure d’Apple et celui de l’interopérabilité. Cette piste est donc à suivre, et est une solution plus que crédible pour les futurs services mobile.

Le libre : Si les producteurs ne trouvent pas d’accord (encore faut-il de la concurrence), Bruxelles et autres régulations doivent imposer un format unique et sans DRM, et Libre. Les majors ont compris que les DRM musicaux bloquaient le développement des solutions, l’édition ne doit pas reproduire la même erreur.

Conclusion

Logo Quadrature du NetAux armes citoyens, tout n’est pas perdu ! Cependant, il faut se battre pour garder un web libre et dynamique. J’ai probablement oublié des centaines de menaces, n’hésitez pas à en rajouter dans les commentaires.

Pour contribuer, n’hésitez pas à faire un tour sur le site de la Quadrature du net est une organisation de défense des droits et libertés des citoyens sur Internet. L’organisation propose une page complète pour participer à la lutte contre l’ACTA, LOPPSI et autres atteintes aux libertés du net.

Entrons nous dans une nouvelle phase du Web?

J’ai dernièrement cette vague impression que nous entrons dans une nouvelle phase du Web : Un Google trop omniprésent, le web sur mobile qui remet les grands principes du net en question, le déréférencement des sites… Autant de signes qui bout-à-bout indiquent des nouveaux usages et possiblement une nouvelle phase de notre bon vieux web.

Google, la lassitude s’installe ?

Google propose des produits de qualité, bien fait, ergonomique, stable tout comme Apple finalement. Mais le plus intéressant, c’est que presque tout est gratuit ! Pourquoi ? Avec son modèle, Google est sur de nous faire revenir sur ses services, et ainsi, voir sa pub. C’est diablement efficace et intelligent.

Cependant, Google fait face à un défaut qu’il lui sera difficile de surpasser : son omniprésence. On avait l’habitude de comparer Google à un Microsoft du Web; mais aujourd’hui cette comparaison semble fade tant l’entreprise s’est immiscé dans chaque marchés relatifs au web -de près ou de loin-. On a comme le sentiment de tout faire « Google » et c’est un peu étouffant.  A mettre tous ces oeufs dans le même panier, l’addition de l’omelette risque d’être salée le jour ou Google dérape. Comme le dit ici le directeur du Search de Microsoft :

« Se passer de Google, c’est aussi difficile qu’arrêter de fumer »

Malheureusement, je ne vois pas de concurrents susceptibles de me faire changer de services mise à part…. Microsoft, un comble !

Une guerre des plateformes, tuant l’interopérabilité

L’arrivée du Web Mobile change la donne en termes de consommation du Net. La guerre que se jouent les fabricants de téléphone pour imposer leurs OS en est un parfait exemple. Que ce soit les fabricants de téléphone, ou les géants de l’informatique, la bataille est rude avec 7 systèmes d’exploitation actuellement en place. Combinons à ça la multiplicité des formats, des technologies et vous comprenez bien que l’interopérabilité n’est plus vraiment en place sur le Net.

Les dangers sont réels, d’autant plus que certains fabricants comme Apple se réservent le droit de validation ou non des applications développées par la communauté. Certains parlent même d’une grave erreur d’Apple, qui irrite de plus en plus les développeurs. En effet, une application développée pour l’iPhone ne sera pas compatible pour Android, ou Ovi (de Nokia). J’en suis même à vouloir acheter un HTC sous Android, juste par principe (si vous avez des conseils!). C’est un véritable danger dans la mesure où il est probable que les Smartphones ou autres iTab, soient le support principal de consommation du Net de demain. Et si ce web est construit comme il l’est aujourd’hui, c’est la fin de l’interopérabilité.

Tim O’Reilly parle même d’une guerre de l’internet ou des sites comme Facebook reconstruisent un web interne, en aspirant le contenu des sites et bloquant les liens externes. Ce qui est sur Facebook, reste sur Facebook : il est impossible d’en sortir le contenu.

Une enchère au référencement ?

Toujours dans cette guerre Un sujet encore plus grave, reste probablement le pavé dans la marre lancé par Murdoch à propos du référencement des sites de NewsCorp. Le magnat à récemment annoncé qu’il interdirait le référencement du Wall Street Journal (WSJ) par Google. Il serait capable de négocier l’exclusivité du référencement avec Bing, le nouveau moteur de Microsoft. L’accord serait possible tant les deux partis s’y retrouvent : financièrement pour le WSJ, et en génération de trafic pour Bing.

Quel danger ? Dans la mesure où c’est juste le WSJ, c’est dérisoire. D’autres sites se feront une joie de la place laissée dans Google. Cependant, il ne faudrait pas que l’idée ce généralise, cela compartimenterai l’accès aux sites. Ainsi, l’index proposé ne serait plus identique d’un moteur de recherche à l’autre. Ce serait un pas en arrière énorme et une guerre complétement inutile d’un point de vue de l’internaute.

Enfin…

Cette guerre se joue dans les hautes sphères, il faut donc espérer que les grands acteurs feront attention à respecter ces principes. Le web est une chose en évolution permanente, rien n’est définitif; mais il faut se battre qu’il reste universel et accessible à tous !