Archives de catégorie : Grandes Tendances

Les Nouvelles Banques pour Particuliers

Les financements dans le domaine de la FinTech est en train d’exploser notamment en Europe, ou le nombre nouveaux services mélangeant Finance et Technologie est hallucinant.

En ce limitant à la banque de détail, nous pouvons lister Monzo, Revolut, N26, Monese, Loot, Curve et tant d’autres. Le concept est simple : le service fournit une carte Mastercard prépayée que vous pouvez recharger directement à partir de l’application iOS ou Android.

Les avantages sont nombreux :

  • Nativement mobile, tout se gère sur l’application: changer son PIN, gérer ses dépenses, faire des virements etc. Il n’y a même pas de sites internet.
  • Dès que vous payez quelque-chose, le montant apparait directement dans l’application. C’est tout bête, surprenant et magique.
  • Il n’y a pas de frais de retrait ni de frais de change lors de paiements à l’étranger.
  • Le support est intégré dans l’application, ou directement sur Twitter.

Sur tous ces éléments, les banques traditionnelles ne sont pas vraiment au point et on se demande sincèrement pourquoi.

Comment ces services gagnent-ils de l’argent ?

  • A court terme le financement se fait par les investisseurs.
  • A moyen terme les services payant a plus forte valeurs seront offerts. Revolut propose déjà un abonnement Premium payant ou des services aux entreprises par exemple.
  • A long terme: the winner takes it all. Il est logique qu’une banque traditionnelle rachète ou intègre ses services.

Il n’y aura pas de la place pour tout le monde, il parait inévitable que ces services fusionnent ou ferment à moyen terme.

La stratégie est la même pour tous: offrir les services bancaires que l’on connait tous, avec une jolie couche technologique. Le succès, lui, se jugera sur l’exécution: qui offrira le meilleur service le plus rapidement à un maximum de personnes.

Services Premium de Revolut

Les banques peuvent rattraper leur retard technologique, mais ces services se voient comme un service mondial: tous offres déjà leurs services a plusieurs pays en même temps et ça.. c’est beaucoup plus compliqué à imiter. C’est pour moi la différence principale: si je change de pays demain, je garde la même banque… it’s priceless.

Personnellement, je mise sur Revolut: c’est de loin la meilleure application, leur support est réactif, efficace et ont déjà le plus d’utilisateurs actifs.  Si vous voyagez prochainement, prenez en une maintenant !

A noter : ces services sont encore en Beta, donc il faut tout de même garder une autre carte au cas ou.

No Place to Hide – L’affaire Snowden par Greenwald

No Place To Hide BookJe viens de finir de lire ‘No Place to Hide’, un livre de Glenn Greenwald qui retrace l’épopée de Edward Snowden, le Whistle blower ou lanceur d’alertes qui est a l’origine des révélations de plusieurs programmes de surveillance de masse comme PRISM aux USA ou Tempora en Angleterre.
Greenwald, l’auteur de ce livre est le journaliste qui a travaillé avec Snowden afin de mettre en perspective les nombreux documents que l’ancien employé de la NSA et CIA a récupéré.
La première partie de ce livre est digne d’un roman de Tom Clancy: elle retrace la progression de Snowden au sein des services secrets américain, la facilité avec laquelle il a pu accéder et exporter ses informations classée top secret et enfin la fuite vers Hong-Kong puis la Russie. C’est clairement addictif et donne un exemple concret de l’espionnage moderne et du travail des services de renseignement aujourd’hui.
Le journaliste explique au passage les raisons qui ont poussé Snowden à agir, la difficulté de partager ses découvertes au grand public et l’importance des journaux/journalistes dans cette affaire.

La deuxième partie du livre est plus explicative sur les techniques de collecte d’information à grande échelle, les dangers de la surveillance et l’incapacité de nos démocraties/journalistes à demander des comptes aux gouvernements.
Le fond de cette partie est aussi passionnant que terrifiant: la démocratie demande des comptes et de la transparence aux dirigeants, elle offre aussi le respect de la vie privée à ces citoyens. Le point de Greenwald est qu’aujourd’hui la situation n’a jamais été aussi inversée.
Il note aussi que la surveillance des réseaux est nécessaire, mais elle doit être qualifiée et ciblée… ce qui est à l’opposé de la méthode actuelle ou les services secret se branchent sur les câbles sous-marins et espionnent tout ce qui y passe.
Je retiens que les commissions d’enquêtes ont révélés qu’aucune attaque anti-terroriste n’avait été empêchée grace a ce dispositif, et que le nombre d’américains qui meurent de terrorisme est équivalent à ceux qui meurent noyés dans leur baignoires. Ces pratiques, semble clairement disproportionnées.

L’élément à retenir, c’est que tout le monde est mouillé dans cette histoire: USA, Canada, Angleterre, Australie Nouvelle Zélande. La France procède de la même manière, mais nous ne sommes pas au courant. Le gène provient du poids des états-unis dans l’internet mondial. Il est probable que vos statuts Facebook soient dans une base de données des services secret américains.

Le plus inquiétant pour moi reste la manière dont les politiques et journalistes ont couvert cette affaire. On mesure une démocratie par la manière dont celle-ci traite ses adversaires. Dans le cas de Snowden, Manning, Assange ce n’est vraiment pas gagné.

La puissante TV trop oubliée: 2038 visites en moins d’une heure

visites en live sur mon blogEn validant un commentaire sur ce blog il y a une semaine, j’ai été surpris de constater que mon Analytics indiquait 1600 visites sur la journée. J’ai en moyenne 33 visiteurs uniques par jour, alors je n’ai pas compris quel était le ‘problème’.

Après une rapide analyse, j’ai remarqué que tout le trafic allait vers mon article LiFi du WiFi à travers des Leds et provenait des du moteur de recherche. J’ai donc demandé sur Facebook s’il avait eu un reportage sur cette technologie. J’ai rapidement eu l’information que LeWeb avait presenté la technologie et que surtout France2 en avait parlé à son 20h.

Pic de visites de 20h

J’avais donc ma raison, moi qui pensais que tout à coup j’étais une star de la blogosphère et que j’avais une audience de dingue 🙂 pour une prochaine. Cependant, je pense qu’il est intéressant d’analyser cette soudaine activité dans la mesure où nous avons une combinaison plutôt riche: TV + Blog + technologie peu connue.

Quelques éléments d’analyse

  • Double du trafic provenant des mobiles 30% versus 15 % d’habitude. La part d’iOS était deux fois plus importante que celle de Macintosh.
  • Le volume de visiteur a explosé au moment de la diffusion du reportage, ce qui illustre clairement que les gens regardaient la TV en même temps, une habitude du multi-écrans bien ancrée.
  • La principale requête est ‘lifi’ avec une position moyenne de 1.4 et un taux de clic de 46%. Je suis étonné d’être aussi bien placé sur une requête aussi générique. J’étais en moyenne à la position 3.4 sur cette même requête le mois dernier.
  • J’ai eu 2400 visiteurs uniques le lendemain versus 1999 la veille. C’est une surprise pour moi: les internautes ont donc continué à chercher des informations sur le sujet.
  • L’analyse en temps réel d’Analytics est franchement bien faite. C’est même assez addictif: voir les gens se connecter sur le site des différents coins du monde, consulter les pages et commenter.
  • Le niveau des commentaires n’est pas toujours très élevé: c’est la contre partie d’être diffusé à un horaire de grande écoute.
  • J’ai gagné 1,14 euros avec deux clics grâce à AdSense. C’est juste un test de mon côté; cela ne sert à rien, mais la différence volume/revenu est assez dingue.

Qu’en retenir

53 % des propriétaires de smartphone en France utilisent leur téléphone pour naviguer sur Internet tout en regardant la télévision.  Google/Ipsos

Comme nous l’expliquons souvent chez Google, le volume de trafic sur mobile et tablette augmente aux mêmes heures que la consommation de programme TV. Il est évident que ces nouveaux supports sont parfaits pour compléter une information délivrée en sens unique. La tendance ne peut que augmenter dans la mesure ou le taux de pénétration des smartphones en France est passé de 27% en 2011 à 38% en 2012.

En fin de compte, ces 6000 visites ne m’apportent pas grand-chose de nouveau. Je blog depuis bientôt 4 ans et j’ai franchement hésité à approuver certain commentaires pour cet article, ce qui ne m’est jamais arrivé avant. Je reste bluffé par le référencement de mes articles sur différent sujets, vu la petite taille de mon blog.

 

Online Marketing, chamboulement des règles du Tracking des internautes

Je souhaite revenir sur ce qu’il se passe dans le domaine de l’analyse du comportement des internautes. En effet, il y a beaucoup d’activité sur ce sujet en ce moment: les pouvoirs publique souhaitent l’insertion de Cookies en Opt-in; Mozilla travaille sur une requête Do Not Track; Microsoft propose une fonction de blocage de serveur publicitaire sur IE9 et le W3C essaye de coordonner le tout.

Bref, le web est décidément entrain de prendre un virage important: Loppsi, Acta, utilisation mobile, neutralité et publicité; tout est entrain d’être remis à plat. Je vous propose donc de revenir sur ce qu’il se passe au niveau de la publicité en-ligne.

Avant de plonger dans ce (trop) long article, petit rappel, un Cookie (ou Témoin) est un fichier texte déposé sur l’ordinateur d’un internaute à travers un navigateur suite à la demande d’un serveur. Ce petit fichier est aujourd’hui indispensable à la navigation sur Internet. Il est utilisé pour vous identifier sur un site, composer un panier; mais aussi de savoir si vous êtes déjà venu sur un site et donc de cibler des publicités. Tout cela se fait de manière complètement cachée pour l’internaute: et c’est bien la qu’est le problème.

Un débat nécessaire ?

Je pense que mettre le débat sur le devant de la scène est bénéfique pour l’internaute: trop peu de gens savent ce qu’il se passe sur internet et n’ont, en général, aucune idée que leur comportement de navigation est analysé. Il est donc important de rendre tout cela plus transparent et accessible pour l’utilisateur.

Exemple: Quand un webmaster souhaite savoir le nombre de visites sur son site, il ajoute une solution Analytics à son site. Google Analytics fournit par défaut avec le code de tracking, une notification pour prévenir l’internaute. Cependant, je n’en ai jamais vu sur un site; ceux-ci retirent cette notification volontairement. Dans ce cas, c’est à la charge du webmaster de notifier l’internaute de l’utilisation d’une solution Analytics… Clairement personne ne le fait !

Aussi, tous les navigateurs moderne (Firefox, Chrome et IE9)  proposent la possibilité de naviguer en mode « Anonyme » (généralement appelé Porn Mode). C’est souvent un nouvel onglet qui n’enregistre aucun cookie ou historique de navigation.

Cette solution est bien souvent la plus simple lorsque vous voulez naviguer sans laisser de trace, comme pour acheter un cadeau, ou visiter des sites destinés aux adultes uniquement. Cependant, inconvénient majeur, ce mode n’est vraiment pas pratique pour une utilisation intensive ou quotidienne.

Le remarketing, la goutte de trop…

En effet, avec l’apparition du Remarketing (ou retargeting) le ciblage publicitaire à passé un cap important: il est maintenant possible pour un annonceur d’adapter le ciblage des publicités en fonction des produits que vous avez ajouté à un panier, ou juste  regardé sur un site auparavant. Le pionnier du marché en France et Critéo; mais Google propose une solution très efficace en combinant AdWords et AdSense.

Ainsi, lorsque vous vous baladez sur le net les jours suivants; l’annonceur peut vous re-proposer les produits que vous aviez ajouté dans votre panier. Tout cela en étant sur un site qui n’as rien à voir. Google et Critéo offrent tous la possibilité de ne plus avoir ce type de pub; mais cela reste tout de même intrusif  et peut générer quelques surprise lorsqu’une autre personne (votre époux) utilise votre ordinateur et ne vois que de la pub pour des sextoys ou le cadeau dont il a tant rêvé pour son anniversaire.

La problématique est plus de trouver un consensus autour du ‘Do Not Track’…

One striking observation for most of these technologies is the relative simplicity of the technical approach, and the complexity of defining what the real meaning of « Do Not Track » is, on a global Internet.

En effet, comme l’explique le W3C, Worldwide Web Consortium, le sujet implique de nombreux acteurs de l’écosystème du Web: Vendeurs, propriétaires de sites web, défenseur de la vie privée et ceux qui utilisent le suivi des utilisateurs pour fournir leur services. Ainsi, trouver l’équilibre ne sera pas facile : une réglementation trop stricte pourrait impacter tout un écosystème, qui vis principalement grâce à la publicité; et une réglementation trop laxiste laisserai le champ libre aux débordements.

Je pense sincèrement que Mozilla sera une pièce maitre dans ce jeu. C’est en effet le seul navigateur à être (relativement) plus autonome que les autres. IE9 est passé d’un filtrage automatique à une activation manuelle; et il est peu probable que Chrome aille plus loin qu’une extension Do Not Track. Comme Chrome a poussé ses concurrents à plus de vitesse, Firefox peut rendre le tracking plus transparent en informant l’utilisateur des méthodes utilisées sur le site, et proposant des options adaptées (blocage complet ou partiel).

Quel impacte pour la publicité ?

Évidemment, tout dépendra des actions prises par les différents acteurs du débat. Il reste évidant que cela amènera plus de complexité dans les méthodes de tracking et il est probable que cela ne bénéficie pas à l’internaute. En effet, plus les réglementations seront strictes, plus les différents acteurs chercheront à les contourner.

Aussi, beaucoup d’agences innovantes ne peuvent utiliser que cette technologie. En effet, Google et autres géants du web ont d’autres solutions : des sites web important sur lesquels ils peuvent utiliser d’autres paramètres comme les requêtes de recherche, les informations volontairement rentrés sur les profils; et ainsi, proposer des publicités adaptées.

Il sera donc beaucoup plus dur pour les intermédiaires (petite régies, ou plateformes d’affiliation) de se positionner et résister. Ainsi c’est les gros acteurs qui sortiront leur épingle du jeu.

Facebook futur géant de la recherche sociale ?

Beaucoup de choses ont déjà été dites sur les annonces faites par le fondateur de Facebook lors de la conférence ‘f8’ regroupant les développeurs de l’entreprise. L’article du blog de référence ReadWriteWeb fait très bien le point sur les nouveautés proposées par Facebook, vous pouvez aussi lire la matrice de Jeremiah Owyang [eng].

Pour faire court, Mark Zuckerberg impose son réseau social comme la plateforme universelle pour gérer ses interactions sociales sur le Web. Le temps ou tout était personnel est donc bien fini : avec Facebook, qui dit social dit publique. Certaines conditions de partage ont encore changés et c’est loin d’être fini. Personnellement, je n’y vois pas d’inconvénients majeur : il est difficile d’obtenir des infos de son entourage, si on ne partage rien sois-même.

Le potentiel énorme de Facebook est dans la recommandation géo-localisée : on sent bien que c’est un enjeu capital. En effet tous les géants du web (Twitter, Facebook, Google) y ont un pied dedans mais ne sont pas pour autant des pros comme FourSquare ou Goala [eng]. FaceBook, avec une base de 400 million d’utilisateurs, a pris une longueur d’avance en proposant tous les outils pour que ses internautes recommandent à tour de bras (les ‘Likes’). De plus, le site à un avantage unique et important : des profiles avec une crédibilité béton. Si un ami à recommandé un site, vous êtes sur que c’est lui. Ainsi, le site pourrait, en quelques mois, proposer un service aussi puissant et crédible que Yelp.

Son problème majeur sera dans sa capacité à conserver, analyser et proposer une réponse pertinente à la requête de l’utilisateur. En quelque sorte, comment différencier le futile (95% de l’activité de Facebook) de l’important. C’est jusqu’à présent impossible : même Google ne sais pas évaluer la pertinence d’un tweet, autrement que par des mots clé. En fait la solution idéale serait de mixer un Facebook avec un moteur de recherche performant. Il est peu probable que Facebook en développe un en interne, peu probable qu’il signe avec Google et ………… mais attendez ! « Y’a pas un accord Facebook / Bing ? » Si, si.

Microsoft pourrait donc facilement donner une couche réellement sociale à son moteur de recherche. L‘idée est la : indexer, analyser le contenu pour restituer une réponse pertinente, c’est un boulot de moteur de recherche non ? Ce genre d’accord, même si loin d’être évidant, donnerait un sacré coup de pouce à Bing, qui à défaut d’être performant sur la recherche classique, serait en avance dans les recommandations sociales à travers l’insertion de celles-ci dans les pages de résultat. Ce serait cool non, en cherchant un restaurant d’avoir directement dans le moteurs les « Like » de ses amis !

Qu’en pensez vous ?

—-

Pour plus d’infos

Ceux qui ne supportent plus Facebook et veulent une alternative Libre, c’est le projet MOVIM

« Why f8 was good for the open web » sur O’Reilly Radar

Un FredCavazza plutôt sceptique (comme d’habitude avec FB) qui pari sur l’implosion à terme du site