Archives par mot-clé : Referencement

La puissante TV trop oubliée: 2038 visites en moins d’une heure

visites en live sur mon blogEn validant un commentaire sur ce blog il y a une semaine, j’ai été surpris de constater que mon Analytics indiquait 1600 visites sur la journée. J’ai en moyenne 33 visiteurs uniques par jour, alors je n’ai pas compris quel était le ‘problème’.

Après une rapide analyse, j’ai remarqué que tout le trafic allait vers mon article LiFi du WiFi à travers des Leds et provenait des du moteur de recherche. J’ai donc demandé sur Facebook s’il avait eu un reportage sur cette technologie. J’ai rapidement eu l’information que LeWeb avait presenté la technologie et que surtout France2 en avait parlé à son 20h.

Pic de visites de 20h

J’avais donc ma raison, moi qui pensais que tout à coup j’étais une star de la blogosphère et que j’avais une audience de dingue 🙂 pour une prochaine. Cependant, je pense qu’il est intéressant d’analyser cette soudaine activité dans la mesure où nous avons une combinaison plutôt riche: TV + Blog + technologie peu connue.

Quelques éléments d’analyse

  • Double du trafic provenant des mobiles 30% versus 15 % d’habitude. La part d’iOS était deux fois plus importante que celle de Macintosh.
  • Le volume de visiteur a explosé au moment de la diffusion du reportage, ce qui illustre clairement que les gens regardaient la TV en même temps, une habitude du multi-écrans bien ancrée.
  • La principale requête est ‘lifi’ avec une position moyenne de 1.4 et un taux de clic de 46%. Je suis étonné d’être aussi bien placé sur une requête aussi générique. J’étais en moyenne à la position 3.4 sur cette même requête le mois dernier.
  • J’ai eu 2400 visiteurs uniques le lendemain versus 1999 la veille. C’est une surprise pour moi: les internautes ont donc continué à chercher des informations sur le sujet.
  • L’analyse en temps réel d’Analytics est franchement bien faite. C’est même assez addictif: voir les gens se connecter sur le site des différents coins du monde, consulter les pages et commenter.
  • Le niveau des commentaires n’est pas toujours très élevé: c’est la contre partie d’être diffusé à un horaire de grande écoute.
  • J’ai gagné 1,14 euros avec deux clics grâce à AdSense. C’est juste un test de mon côté; cela ne sert à rien, mais la différence volume/revenu est assez dingue.

Qu’en retenir

53 % des propriétaires de smartphone en France utilisent leur téléphone pour naviguer sur Internet tout en regardant la télévision.  Google/Ipsos

Comme nous l’expliquons souvent chez Google, le volume de trafic sur mobile et tablette augmente aux mêmes heures que la consommation de programme TV. Il est évident que ces nouveaux supports sont parfaits pour compléter une information délivrée en sens unique. La tendance ne peut que augmenter dans la mesure ou le taux de pénétration des smartphones en France est passé de 27% en 2011 à 38% en 2012.

En fin de compte, ces 6000 visites ne m’apportent pas grand-chose de nouveau. Je blog depuis bientôt 4 ans et j’ai franchement hésité à approuver certain commentaires pour cet article, ce qui ne m’est jamais arrivé avant. Je reste bluffé par le référencement de mes articles sur différent sujets, vu la petite taille de mon blog.

 

SEO quoi de neuf ? Bilan Journées du Contenu Web

logo-seo-campDans le cadre des Journées du Contenu Web à Lille, l’Association du référencement SEO Camp a animé (ce matin) une table ronde afin de faire un point sur les avancées technologiques et markéting du référencement. Je vous propose ici un compte rendu de cette matinée forte intéressante. Un grand merci à tous les intervenants !

Rien de bien nouveau sur le Page Rank

Il était difficile de commencer cette matinée par autre chose que l’éternel Page Rank. Pour rappel le système mis en place par Google permet de noter de 0 à 10 la popularité d’une page web (et non d’un site). A l’origine ne calculant que le nombre de liens pointant vers une page, il est maintenant important de le placer dans un contexte global. Ainsi, l’historique, la qualité et la variété du nombre de liens sont aussi des critères important. De plus, il semblerait que la notion de « fraicheur » du lien soit maintenant mesurée : un lien récent aurait plus d’impact sur le court terme qu’un lien ancien.

Le plus intéressant reste la SEO Report Card, partagé par l’équipe de la SEO Camp et publié sur le WebMaster Central Blog de Google. Ce PDF est en fait un document (à l’origine) interne, auditant l’optimisation SEO des sites web des services Google. Étonnamment, le PageRank n’apparait nul part, les autres critères sont eux, bien présents.

La recherche universelle, toujours plus complète

Cette technologie permet d’afficher des cartes, vidéos et photos correspondant à votre requête au sein même de la page de résultat (le SERP). La recherche universelle est maintenant bien plus étendue et inclue les statuts Facebook, Twitter, les cours de la bourse, les horaires de cinéma, et toutes les autres sources d’informations que Google  juge pertinente. On retrouve ici la notion de fraîcheur de l’information avec les Hot Topics de Google Trends, ou pour la première fois Google modifie en live ses résultats.

Tweet en LiveCe n’est pas tout à fait nouveau, cependant, d’un point de vue SEO, cela confirme l’importance de travailler la variété des supports. D’autant plus que les liens sponsorisés ont tendances à s’y mélanger en s’ajoutant au Google Suggest, ou dans les résultats de Maps.

La géolocalisation : capitale et difficilement optimisable

Malheureusement méconnu des webmaster, le Local Business Center permet aux entreprises de gérer leur visibilité dans les services Google. En s’inscrivant, les annonceurs ont l’opportunité de contrôler les infos mises en avant dans Maps, mais aussi de faire des annonces Adwords géolocalisées, de mettre des photos et vidéos de leur entreprises ou modifier leur emplacement, modérer les avis etc…

Malheureusement d’un point de vue SEO technique il n’y a rien à optimiser, les seuls critères pris en compte sont les lieux, les catégories et le contenu. Le classement (a priori) est organisé de manière géographique, il est donc préférable d’avoir un pas de porte dans le 1er arrondissement de Paris, plutôt qu’a la défense. Faites attention à bien choisir des catégories représentatives de votre activité : il est inutile d’être trop gourmand.

La personnalisation des résultats

L’idée des moteurs est de proposer des résultats en SEO et SEM personnalisés en fonctions de vos habitudes de navigation et recherches. Aujourd’hui Google personnalise le résultat des pages en utilisant deux techniques : les cookies et l’historique web. Le cookie est un peu le meilleur amis des marketeurs et référenceurs: il permet de tracer (anonymement) l’internaute afin de remonter des données quantitatives sur son comportement. Inconvénient : il est limité dans le temps et n’est pas nominatif, de plus l’internaute peut les supprimer à tout moment.

Avec l’historique web, Google garde en mémoire votre historique et s’en sert pour proposer des résultats personnalisés en fonctions de vos sites favoris. Google a récemment ouvert cette fonction à l’ensemble des internautes par défaut. Ainsi tout le monde (loggé, ou non) est susceptible d’avoir des résultats à la carte. Suite à cette annonce, beaucoup ont crié à la mort du SEO (encore une fois).

Je pense que Google à surtout rendu un service aux agences, en donnant une excuse pour se concentrer plus sur le trafic provenant des moteurs, que sur un classement des positions. Aujourd’hui, la personnalisation ne concerne qu’un résultat sur toute la page. De plus, cela ne marchera que si Google est certain de la pertinence de sa personnalisation; sinon il ne changera rien. Les rapports de positionnement sont donc encore importants, mais à long terme, il est plus intéressant d’utiliser d’autres mesures.

Le temps de chargement des pages : surtout du bon sens

yslow-logo
Add-On FireFox Yslow de Yahoo

Cette mesure déjà très importante avec Adwords, semble se reporter (comme souvent) sur le SEO. Que ce soit ou niveau du Google Webmaster Tool ou de l’outil PageSpeed, Google donne de plus en plus d’informations et donc d’importance sur le temps de chargement d’une page. Ironiquement, le script de Google Analytics est souvent critiqué pour être trop long à charger (une alternative plus rapide est disponible).

C’est surtout du bon sens : devant l’abondance de choix sur certaines requêtes, Google à tout intérêt à choisir des sites qui chargent le plus vite possible. Il faut faire attention à différencier l’optimisation de chargement pour des robots et pour les internautes. Le premier est indispensable pour le référencement des pages, le deuxième est indispensable pour un taux de rebond acceptable. Comme souvent en référencement, il est indispensable de rendre la navigation agréable pour l’internaute, et donc, pour les robots (et non l’inverse).

Les réseaux sociaux, indispensables et compliqués

Intéressante mise en perspective de Philippe Yonnet (Aposition) sur la diversité des réseaux sociaux dans le monde (non Facebook n’est pas leader partout !). C’est une donnée importante, car cela indique que la concurrence est bien présente, et qu’il est plus que probable que FaceBook passe de mode. Cela indique aussi que nous sommes bien au delà d’une éventuelle mode, et que l’usage des plateformes sociales est maintenant bien ancré.

Cependant, les problématiques sont nombreuses et vont bien au-delà du SEO. Je retiens principalement le fait qu’avec les réseaux sociaux, l’entreprise ne possède pas ses données : ce qui est sur Facebook reste sur Facebook. Il est donc important de garder un site web comme plateforme d’échange principal.

Il est évidant que les réseaux sont maintenant une source de trafic considérable pour de nombreux sites, et que si l’investissement technique est souvent dérisoire, c’est surtout l’investissement humain et l’engagement de la marque qui est important. Ainsi, comme pour le SEO, le ROI est souvent sur du moyen long terme et difficilement attribuable. Il est donc important de bien choisir ses indices de performances : nombres de commentaires, de followers, de diffusion des informations sur la toile (backtweets).

Et Google dans tout ça ?

L’attitude de Google évolue : La montée en puissance des réseaux sociaux, et l’arrivée de Bing et son rapprochement avec Yahoo pourrait bien changer la donne aux US. Ainsi, l’interface de Google évolue beaucoup plus souvent qu’avant et innove beaucoup plus dans les fonctionnalités (Recherche universel, Social Circle…). Aussi, Roland Debrabant (Ad-référencement) souligne le fait que Google soit beaucoup plus présent au niveau commercial en proposant de l’aide et des coupons de réductions aux agences, pour les petits comptes. Le géant du web serait donc maintenant beaucoup plus actif en prospection et fidélisation, ce qui ne semblait pas être le cas avant.

Les problématiques du référencement

Suite de la première partie de mon rapport de césure sur le référencement.

Une évangélisation encore inégale

Comme le dit Philippe Yonnet (directeur d’Aposition et du SEO-camp) (Stratégies, 2009). :

La phase d’évangélisation est terminée. Pure players et grands comptes créent des cellules internes et recrutent des experts. Désormais, tous les appels d’offres concernant Internet comprennent un paragraphe sur le référencement naturel ou payant.

Même si, en effet, le terme « référencement » est maintenant connu par les grands comptes; la valeur ajoutée et définition du métier de référenceur est encore inconnue de nombreuses PME. Il est surtout difficile pour les plus petits comptes de faire la différence entre l’agence de communication -qui créé le site-, l’hébergeur, et le référenceur. La frontière n’est en effet pas évidente tant le référencement fait souvent appel à ces deux entités pour les optimisations. Pour compliquer le tout, souvent, les agences de communication incluent dans leurs offres des prestations de référencement plus ou moins efficaces.

Une fois le cadre de la prestation défini avec le client, un autre problème apparait : la différence entre visibilité et trafic. Comme je l’avais expliqué plus haut : pour certains sites -comme les sites éditoriaux- le trafic est primordial. Ainsi, beaucoup de clients optimisent leur référencement en pensant que cela leur générera du trafic supplémentaire. Même si c’est souvent le cas, il arrive que certains clients soient déçus des prestations car elles ne génèrent pas le trafic espéré. Le référencement n’est qu’une partie du mix marketing, il arrive qu’un site soit dans une niche trop étroite pour générer un trafic suffisant. Il arrive aussi que le contenu des pages proposées aux internautes ne soit pas assez qualitatif, et ne fidélise pas l’internaute.

Un marché dépendant d’un acteur majeur

Le marché du référencement français est intéressant car nous ne travaillons quasiment que sur un moteur. Avec 90% de l’ensemble des recherches françaises, Google est en situation de monopole. Même si Yahoo et Microsoft fusionnent leurs moteurs ils ne dépasseraient pas les 10% de PdM.

Ainsi, notre référence quotidienne est Google qui -malgré son leadership- reste le plus performant et le plus dynamique. L’avantage principal de cette situation est de concentrer les optimisations sur les critères définis par Google et ainsi gagner en productivité.

Cependant, ce monopole signifie que les référenceurs et webmasters sont complètement dépendants du bon vouloir de Google. Il arrive trop fréquemment qu’un site voie son trafic divisé par 2 ou 3 à cause d’une perte de positionnement, ou de mauvaises optimisations sur Google. Les enjeux sont donc énormes et nous devons veiller constamment à ce que les pratiques de référencement appliquées soient en phase avec les recommandations officielles de Google.

Ainsi, beaucoup de veille et de laboratoires sont nécessaires pour constamment suivre les évolutions du SERP de Google.

Parts marché moteurs recherche

Une course à la taille pour exister

Etre positionné sur des expressions très concurrentielles et générant du trafic devient petit à petit un véritable challenge. Les pure players et leaders des différents marchés ont bien compris l’intérêt d’être bien positionné sur ces requêtes et optimisent depuis maintenant plusieurs années leurs sites afin d’obtenir et conserver ces positions.

Ainsi, le haut des premières pages sur Google est souvent trusté par les mêmes acteurs : PriceMinister, Amazon, Ebay, pour le B2C ; Auféminin, Doctissimo, Plurielles pour les sites éditoriaux et tant d’autres.

La raison est simple, ces sites répondent aux trois critères du référencement naturel : accessibilité, pertinence et surtout popularité. Ces sites ont souvent plus de 10 ans, et ont eu le temps d’accumuler une popularité souvent impossible à dépasser du fait de leur spécialisation.

Pour donner un exemple : si un nouveau blog se spécialise sur la vente de chaussures en ligne, il sera quasiment impossible d’être positionné dans les premières positions de Google sur la requête « chaussures femme ». La problématique est la même sur des secteurs très concurrentiels comme l’assurance, l’immobilier, la santé, la banque…

Ce problème est relié au précédant : l’hégémonie de Google dans la recherche. Avec Google qui truste 90% de la recherche, le nombre de personne sur le podium des premières positions est forcément limité.

De l’avenir des moteurs de recherche ?

Comment les agences de référencement, dont la valeur ajoutée est l’optimisation de la visibilité des entreprises dans Google, vont suivre le changement des technologies de recherches ?

Google a fêté ce septembre, 11 ans d’existence. Si Google est toujours l’une des solutions les plus efficaces pour trouver des infos sur le net, d’autres modèles se dessinent petit à petit. Si l’empire de Google s’est construit en 10 ans, il est probable que les technologies utilisées pour la recherche d’information dans 10 ans seront différentes. Par exemple, je suis convaincu qu’une piste d’évolution soit un filtrage humain du bruit, réalisé avec les « like » ou « J’aime » des internautes sur des contenus publiés par les internautes blog / micro-blogging (comme Twitter). Avec un volume suffisamment important, ces résultats pourraient être préférés par les moteurs, rendant caduque toute optimisation SEO classique.

Le référencement en quelques mots

Suite à ma césure chez AD référencement et chez Europcar International, j’ai réalisé un rapport de stage sur le référencement. Ayant eu une très bonne évaluation, je préfère partager les partis les plus intéressante plutôt que de le laisser dormir dans mon PC. J’espère que vous trouverez cela intéressant.

Le secteur étant jeune et dynamique technologiquement, il est difficile de trouver une définition précise et stable du référencement. Historiquement, c’est la soumission d’une adresse de site web à un moteur de recherche, afin que celui-ci l’explore et le référence dans ses bases. Aujourd’hui, les technologies et services proposés vont bien au delà d’une simple inscription dans les moteurs et les agences de référencement se vendent comme des spécialistes de la visibilité dans les moteurs de recherche.

L’intérêt pour les entreprises

Le référencement est directement lié au financement de nombreux sites sur la toile : Comment un site éditorial gagne t’il de l’argent dans la mesure où son contenu est accessible gratuitement. En général, il se rémunère par la vente d’espace publicitaire à des annonceurs : plus son trafic va être important, plus les publicités vont être vues et plus il pourra vendre cher ses espaces. Ainsi pour les sites éditoriaux, il est capital de générer un maximum de visites par jour.

Pour des sites marchands, le volume est moins important que la qualité. L’idée est de ramener un maximum de personnes susceptibles d’acheter les produits ou biens proposés. Ainsi, le travail est plus précis et plus complexe.

Pour répondre à ces problématiques, les entreprises doivent se tourner vers des professionnels qui l’aideront à optimiser son site pour satisfaire leurs objectifs de trafic.

Pour avoir une idée, le graphique ci-dessous représente la répartition des sources de visites d’un ensemble de sites E-commerce. (source Xiti Monitor)

Visites par type d'accès

On remarque que les moteurs de recherche représentent la plus grosse part, avec 33% des visites, suivi de près par l’accès direct (32,5%). Par expérience, il arrive souvent qu’un site éditorial génère l’ensemble de ses visites, plus de 90%, uniquement par les moteurs. Les marges de progrès sont donc importantes, d’autant plus que les agences maitrisent aussi des échanges avec les sites influents et les liens sponsorisés. Les équipes marketing ont bien compris ce potentiel et font donc appel à des agences de référencement, afin de générer plus de visites en jouant sur les différentes sources de trafic.

Les méthodes utilisés

Le secteur propose en général deux méthodes pour améliorer la visibilité d’un site : le SEO pour Search Engine Optimization aussi appelé référencement naturel, la méthode consistant à optimiser le site pour le faire remontrer ‘naturellement’ dans les moteurs ; et le SEM pour Search Engine Marketing (maladroitement traduit Référencement Payant), qui consiste en l’achat d’espace publicitaire dans les moteurs.

L’objectif idéal pour l’entreprise étant d’apparaitre dans les premières positions sur les expressions qui caractérisent leurs produits. Par exemple, pour un site qui propose des recettes de cuisine, il faut être dans les premiers résultats de Google sur la requête « recettes » ou « recettes de cuisine ». Evidemment, plus les expressions sont recherchées et génèrent du trafic, plus elles sont concurrentielles et plus c’est difficile.

Le référencement naturel

Le référencement naturel (SEO) regroupe l’ensemble des méthodes d’optimisations qui concerne directement le site. Ainsi, même s’il n’en porte pas le nom il s’avère en général plutôt couteux car il demande beaucoup de ressources en développement et intégration. De plus il faut souvent toucher à la structure même du site, ce qui se traduit par des process plus longs.

Malgré ces inconvénients, le SEO est une source de trafic pérenne et finalement peu couteuse, si le client est prêt à investir sur une période suffisante.

Pour être bien référencé (naturellement), un site doit répondre impérativement à trois critères : L’accessibilité, la pertinence et la popularité :

Ces trois critères sont complémentaires et se travaillent en phases successives.

L’accessibilité est primordiale, dans la mesure où pour de nombreux sites (notamment les sites vitrines) la technologie utilisée ne peut pas être interprétée par les robots des moteurs, car le code n’est pas accessible (Flash, Images). Ce manque d’accessibilité rend le référencement quasiment impossible. La pertinence est l’étape suivante : elle permet de s’assurer que le contenu du site soit bien mis en avant sur les pages de résultats des moteurs. Enfin, la popularité intervient plus en finition. Elle part du principe que pour être positionnée dans les premiers résultats des moteurs, une page (ou site) doit avoir de nombreux liens qui pointent vers celle-ci. Plus il y a de liens vers cette page, plus elle sera populaire et remontera dans les résultats.

Le référencement payant

Le référencement payant, que l’on appelle couramment SEM, consiste en l’achat d’espace publicitaire sur les moteurs de recherche, afin d’y promouvoir des liens sponsorisés.

Les liens sont en général situés sur le haut et le coté droit de la page de résultats.

Google Adwords

Google monopolisant le marché de la recherche sur le net, sa plateforme de vente et gestion de liens sponsorisés AdWords apparait logiquement en première position, loin devant Yahoo et MSN (qui ont signé un partenariat créant maintenant Bing).

Le principe de fonctionnement est simple : l’annonceur est facturé à chaque fois qu’un internaute clique sur l’une de ses publicités. Plus le mot clé -sur lequel l’annonce est affichée- est recherché, plus l’enchère sera élevée. L’annonceur mettant l’enchère la plus haute aura son annonce (ou lien sponsorisé) placé plus haut dans la page.

De nombreux critères rentrent en jeux dans la définition d’une enchère pour un mot clé : qualité des annonces,  des mots clés choisis, de la page de destination sur le site… cela demande donc de l’expérience et du suivi quotidien. Ainsi, même si cela correspond à de la publicité,  les agences de référencement se sont spécialisées dans ce domaine car le métier est étroitement lié aux techniques du référencement naturel.

La suite de mon rapport : les problématiques du référencement

Entrons nous dans une nouvelle phase du Web?

J’ai dernièrement cette vague impression que nous entrons dans une nouvelle phase du Web : Un Google trop omniprésent, le web sur mobile qui remet les grands principes du net en question, le déréférencement des sites… Autant de signes qui bout-à-bout indiquent des nouveaux usages et possiblement une nouvelle phase de notre bon vieux web.

Google, la lassitude s’installe ?

Google propose des produits de qualité, bien fait, ergonomique, stable tout comme Apple finalement. Mais le plus intéressant, c’est que presque tout est gratuit ! Pourquoi ? Avec son modèle, Google est sur de nous faire revenir sur ses services, et ainsi, voir sa pub. C’est diablement efficace et intelligent.

Cependant, Google fait face à un défaut qu’il lui sera difficile de surpasser : son omniprésence. On avait l’habitude de comparer Google à un Microsoft du Web; mais aujourd’hui cette comparaison semble fade tant l’entreprise s’est immiscé dans chaque marchés relatifs au web -de près ou de loin-. On a comme le sentiment de tout faire « Google » et c’est un peu étouffant.  A mettre tous ces oeufs dans le même panier, l’addition de l’omelette risque d’être salée le jour ou Google dérape. Comme le dit ici le directeur du Search de Microsoft :

« Se passer de Google, c’est aussi difficile qu’arrêter de fumer »

Malheureusement, je ne vois pas de concurrents susceptibles de me faire changer de services mise à part…. Microsoft, un comble !

Une guerre des plateformes, tuant l’interopérabilité

L’arrivée du Web Mobile change la donne en termes de consommation du Net. La guerre que se jouent les fabricants de téléphone pour imposer leurs OS en est un parfait exemple. Que ce soit les fabricants de téléphone, ou les géants de l’informatique, la bataille est rude avec 7 systèmes d’exploitation actuellement en place. Combinons à ça la multiplicité des formats, des technologies et vous comprenez bien que l’interopérabilité n’est plus vraiment en place sur le Net.

Les dangers sont réels, d’autant plus que certains fabricants comme Apple se réservent le droit de validation ou non des applications développées par la communauté. Certains parlent même d’une grave erreur d’Apple, qui irrite de plus en plus les développeurs. En effet, une application développée pour l’iPhone ne sera pas compatible pour Android, ou Ovi (de Nokia). J’en suis même à vouloir acheter un HTC sous Android, juste par principe (si vous avez des conseils!). C’est un véritable danger dans la mesure où il est probable que les Smartphones ou autres iTab, soient le support principal de consommation du Net de demain. Et si ce web est construit comme il l’est aujourd’hui, c’est la fin de l’interopérabilité.

Tim O’Reilly parle même d’une guerre de l’internet ou des sites comme Facebook reconstruisent un web interne, en aspirant le contenu des sites et bloquant les liens externes. Ce qui est sur Facebook, reste sur Facebook : il est impossible d’en sortir le contenu.

Une enchère au référencement ?

Toujours dans cette guerre Un sujet encore plus grave, reste probablement le pavé dans la marre lancé par Murdoch à propos du référencement des sites de NewsCorp. Le magnat à récemment annoncé qu’il interdirait le référencement du Wall Street Journal (WSJ) par Google. Il serait capable de négocier l’exclusivité du référencement avec Bing, le nouveau moteur de Microsoft. L’accord serait possible tant les deux partis s’y retrouvent : financièrement pour le WSJ, et en génération de trafic pour Bing.

Quel danger ? Dans la mesure où c’est juste le WSJ, c’est dérisoire. D’autres sites se feront une joie de la place laissée dans Google. Cependant, il ne faudrait pas que l’idée ce généralise, cela compartimenterai l’accès aux sites. Ainsi, l’index proposé ne serait plus identique d’un moteur de recherche à l’autre. Ce serait un pas en arrière énorme et une guerre complétement inutile d’un point de vue de l’internaute.

Enfin…

Cette guerre se joue dans les hautes sphères, il faut donc espérer que les grands acteurs feront attention à respecter ces principes. Le web est une chose en évolution permanente, rien n’est définitif; mais il faut se battre qu’il reste universel et accessible à tous !