Archive for the 'Stratégie' Category

Chrome: offensive du Web ou offensive contre le Web?

3 septembre 2008

La blogosphère techno aurait-elle oublié ce qu’elle doit au Web? Dans le déluge d’article qui accompagne la sortie de Chrome, j’en vois beaucoup pour s’enflammer à tout va, beaucoup pour buzzer à perdre haleine, bien peu pour se poser quelques questions sur les directions que Google veut faire prendre au Web.

On parle beaucoup de Web OS, de concurrence avec Microsoft, de terminaux Web resserés, et certes, tout ce qu’on en dit est souvent vrai, mais on semble oublier qu’avec un navigateur Web, c’est peut-être avant tout au Web que Google est en train de s’attaquer… et que peut-être le mot s’attaquer n’est pas à prendre ici au figuré:

  • En mettant en avant ses propres contenus (les suggestions de recherches) lorsque l’utilisateur entre une adresse dans la barre URL, Google tente ni plus ni moins d’altérer la nature des déplacements sur le Web. Il essaye de substituer son propre recensement, sa propre mise en forme, son propre classement à ce que les utilisateurs du Web ont patiemment constitué. Il ne le fait pas sur son site – ce qui est bien son droit, et d’ailleurs son métier- il le fait dans ce que l’utilisateur considère -à tord ou à raison- comme sa propriété.
  • En intégrant le déplacement sur le Web (la barre URL) , le déplacement sur ses propres sites (la barre Google et bientôt se autres fonctionnalités) et l’outil qui permet de se déplacer (le navigateur), Google se glisse dans une des principales zones d’indépendance des pouvoirs du Web: il mêle délibéremment la fenêtre de liberté qu’est le navigateur avec son propre index et ses propres bases de données.
  • En établissant une communication systématique entre un navigateur qui abrite les données intimes des internautes, des sites battis autour de gigantesques outils de traitement de données et des activités publicitaires qui sont au fond le cœur de son métier, Google s’immisce enfin dans un espace où la confiance est une radicale nécessité…

Il faut bien l’écrire: si Google n’établit pas de séparation entre la fenêtre qu’il ouvre sur le Web et les outils qu’il y propose… la confiance sera de moins en moins méritée.

Internet et l’avenir du modèle de gratuité

12 décembre 2007

Pour les médias de l’internet, le modèle économique de gratuité est-il le seul pérenne? Les alternatives sont-elles viables? Différents modèles pourront-ils coexister? Questions fort débattues, mais pour lesquelles l’analyse des modèles économiques des vieux médias me parait assez capable de produire quelques nouveaux éclairages. L’alternative entre offres payantes et gratuites est une constante de leur histoire, et les modèles économiques de gratuité y sont depuis longtemps stabilisés.

Télévision et radios se sont orientées vers des modèles de gratuité en raison de la nature bien particulière de leur structure de coûts. Pour ces médias, le coût de production et de diffusion d’un bien est indépendant du nombre d’utilisateurs -en jargon d’affaire, c’est un pur coût fixe-. En situation de concurrence, rien n’empêche l’un des protagonistes d’abaisser son prix de vente pour supplanter ses rivaux en audience. Cela affectera immédiatement son chiffre d’affaire, mais sera probablement compensé par un public étendu et donc par des revenus publicitaires accrus.

Indépendamment des revenus payants et de la publicité, l’audience est toujours la clé du succès d’un média. Elle lui permet de rassembler des équipes plus qualifiées, accroit sa notoriété, lui apporte prestige, reconnaissance et influence. La concurrence effrainée pour l’audience amenant naturellement à la gratuité, on comprend que radios et télévisions se soient le plus souvent engagées dans cette voie. Les services payants n’y ont pas complètement disparus, mais ils se sont concentrés sur des publics spécialisés.

Les entreprises internet possèdent la même structure de coût que les radios et les télévisions. Il n’est donc pas étonnant qu’elles aient été jusqu’ici plongées dans un état de relative gratuité – celle-ci ne concerne d’ailleurs pas les marchands de biens physiques, pour lesquels internet n’est qu’un canal commercial, mais l’essentiel des activités proprement médiatiques du réseau: la réalisation, le partage, l’édition de contenus écrits, audios ou vidéos -.

Avec la nouvelle génération d’internet, deux facteurs sont pourtant susceptibles de remettre en cause ce modèle

  • La composante sociale du web 2.0. A la différence d’un simple contenu médiatique, un réseau social n’est pas replicable et ne peut donc faire l’objet d’une concurrence frontale (voir la loi des medias sociaux)
  • La composante participative du web 2.0. En produisant leurs contenus, les internautes deviennent plus exigeants et plus sélectifs vis-à-vis de leurs outils de production. Ils sont susceptibles de payer pour assurer la qualité de leurs propres création (voir la dynamique des contenus amateurs et professionels). Il suffit de penser aux offres payantes des plateformes de blogs et des différents services attachés.

Jusqu’à présent, la stratégie de Google à largement limité l’effet de ces tendances. Conscient que sa position centrale tient à la prééminence des revenus publicitaires – non sans paradoxe – et donc au modèle de gratuité, le géant d’internet a systématiquement développé des offres gratuites pour concurrencer tout nouveau produit internet susceptible d’échapper à la gratuité.

Les efforts quelque peu prédateurs du plus célèbre moteur de recherche du web – et surtout de sa première régie publicitaire – suffiront-ils à enrayer l’arrivée à maturité de la nouvelle génération d’internet? Il est permis d’en douter.

Le web perdra-t-il sa dynamique d’ouverture et de partage avec le développement de contenus payants? C’est presque inimaginable.

Le développement de l’internet social et participatif produit trop de richesses nouvelles et de manière trop décentralisée pour qu’un système de rémunération direct de ces richesses ne se puisse développer, et donc que le modèle actuel d’apparente gratuité y demeure hégémonique.

Les véritables questions portent donc sur le tempo et sur la nature des systèmes de rémunération qui s’ajouteront au modèle de gratuité. Nul doute qu’ils ne préservent l’ouverture du web, car c’est la condition même de leur succès. Nul doute qu’ils ne fassent eux-même l’objet d’une grande créativité.

Vers un internet réunifié?

6 novembre 2007

La deuxième génération d’internet a d’emblé présenté un ensemble de règles, d’usages et de techniques partagées, mais elle a produit des ensembles de réseaux bien distincts, qui constituent autant de continents séparés.

Si l’on brossait une cartographie rapide du web 2.0, on trouverait d’un coté les communautés propriétaires gérées par les sites de réseaux sociaux. Les MySpace et les Facebook organisent la mise en relation d’utilisateurs à l’intérieur de frontières bien gardées, selon des règles communes, avec des moyens partagés. Chaque réseau constitue une ile ou un continent jalousement gardé par son propriétaire, à la fois soucieux d’accroitre sa population et de l’inciter à produire et à consommer sur place.

De l’autre coté de la carte se développent les communautés libres de la blogosphère. Les liens sont établis librement entre petits propriétaires indépendants. Une foule de fournisseurs de services assure la cohérence relative de l’ensemble: outils d’édition et de mesure, annuaires, gadgets, sources de revenus divers.  Les fournisseurs le plus puissants -Google, Technorati,…- y disposent d’une influence certaine, mais aucun n’est à même d’imposer ses principes face cette myriade de micro-communautés et aux innombrables liens qui la traversent. Le développement n’y obéit à aucune règle ni hiérarchie, soutenu seulement par le foisonnement des initiatives individuelles et l’extraordinaire vitesse de transmission des idées nouvelles.

Je mettrais temporairement de coté l’étonnante contrée des Wikis où se trouve à la fois la foisonnante liberté de la blogosphère et une logique communautaire extrême, qui pousse les individus à s’effacer derrière les œuvres et les projets.

Le développement séparé de ces nouveaux continents de l’internet ne doit pas masquer leur origine commune. Tous partagent les traits fondamentaux du web 2.0: l’abolition des frontières entre producteurs et utilisateurs, la constitution systématique de communautés de participants, la distribution horizontale des contenus au sein de ces communautés, l’amélioration permanente des contenus au dépend de la notion de produit fini,… Selon le lieu d’où l’on parle, la blogosphère n’est qu’un réseau social ouvert, ou les sites sociaux ne sont que des blogosphères fermées. Comme il est classique en théorie des organisations, chaque mode de fonctionnement présente ses propres avantages concurrentiels: d’un coté la simplicité d’accès et la cohérence des fonctionnalités, de l’autre la puissance technologique et la liberté d’innover.

Après des années de dérives des continents, deux événements annoncent une nouvelle évolution. En investissant dans Facebook pour un montant sans commune mesure avec la valeur de l’entreprise, Microsoft à validé l’ambition de son fondateur: intégrer l’essentiel des réseaux sociaux du web au sein d’une unique plateforme -la sienne-. A cet impérialisme radical, Google vient de répondre par le développement d’un langage partagé entre réseaux sociaux fermés. Opensocial établit un pont entre tous les rivaux de Facebook; si le projet réussit, il abaissera de fait les frontières de chacune de ces communautés privées.

Si l’ambition de Facebook parait démesurée – je n’imagine ni les bloggeurs accepter un tel maître ni les réseaux spécialisés se fondre dans une plateforme unique -, si le projet de Google risque de se heurter aux propres intérêts de la firme, les deux stratégies mènent directement à l’ouverture des réseaux sociaux propriétaires. Pour des raisons offensives comme défensives, chacun des petits états du web 2.0 devra s’allier avec ses pairs, partager les standards, les règles, les ressources.

Exemple aujourd’hui minoritaire de micro-états confédérés, la blogosphère pourrait être le modèle d’un internet réunifié.

Guerre des médias sociaux: et le vainqueur est…

24 octobre 2007

My Space? Trop tard… Facebook? Beaucoup y croient encore… 

Au fond… Faut-il qu’il y ait un vainqueur? En d’autres termes, les médias sociaux, comme les sites internet de la première génération, sont-ils nécessairement voués à la  loi du « Winner takes all »?

A première vue, les mêmes causes semblent engendrer les mêmes effets: les coûts de développement d’un site sont des coûts fixes, indépendants du nombre d’utilisateurs; le meilleur site devrait donc drainer inexorablement la totalité des clients, segment après segment, en dévorant peu à peu ses concurrents.

Dans cette perspective, la guerre des médias sociaux devient une question essentiellement technique: qui parvient à produire la meilleure interface et à l’adapter le plus rapidement? C’est la vision d’Arrington et de trés nombreux bloggeurs, présentée dans la synthèse de Julien Jacob ou, avec une distance certaine, dans celle de Jean-Marie Le Ray. Elle entraine une conséquence inévitable: la convergence de tous les sites vers un réseau social unique. Facebook tiendrait donc la corde…

Il se pourrait néanmoins qu’en développant cette vision mieux qu’aucun autre, Facebook ait sutout popularisé une illusion: l’homogénéité des liens sociaux. L’image du « graphe social », où les liens entre individus se résument à des segments, pour éclairante qu’elle soit, masque la profonde différence de nature entre ces segments. 

Les liens entre amis (très proches), bons copains (un peu plus éloignés), collègues, bloggueurs, anciens d’une même université, tous ces liens ne diffèrent pas seulement par leur intensité, pas seulement non plus par la quantité d’information échangée. Ils diffèrent par les règles de la relation, par la manière d’interagir et d’échanger. Non seulement on ne se dit pas la même chose, mais on ne se le dit pas de la même manière. A l’extrême, on n’assume pas la même identité selon le type de réseau auquel on est confronté.

Que chacun réfléchisse à la différence entre ses relations familiales et amicales: il se rendra compte qu’il n’y a pas de réseau social unique, ou plutôt que cette idée est dépourvue de sens pratique. Bien plus, nous sommes tous dotés de réseaux sociaux distincts, qui peuvent parfois se croiser, jamais se superposer. Nous appartenons simultanément à des communautés familiales, amicales, professionnelles, et nous présentons des identités distintes pour chacune d’entre elles.

C’est peut-être une véritable loi des réseaux sociaux qu’il convient maintenant d’énoncer: chaque type de réseau social est pourvu de ses propres règles et de sa propre identité.

La conséquence en est claire: chaque type de réseau requiert son propre média social, son propre type d’interface et donc un sîte adapté.

Le succès de Facebook provient du choix d’un type de réseau particulièrement répendu: les amitiés de fac et celles qui leur ressemblent. A terme, les règles et le mode de fonctionnement de ce type de réseau ne pourra cependant convenir aux autres. Pour ne prendre qu’un exemple: le système de traçabilité, moteur du succès de Facebook dans un contexte informel, est largement inacceptable dans un contexte professionnel.  Linked-in ne se trouvera pas dépossédé de ses bataillons de cadres, en tout cas pas au profit d’un site où les liens privés sont aussi visibles que dans Facebook. Pour reprendre la typologie de Nicolas Cynober, on pourrait dire que les médias sociaux sont nécessairement verticaux.

Dans la guerre des médias sociaux, le vainqueur semble donc être… La diversité.

La nature communautaire du web 2.0 génère et impose ce foisonnement de sîtes et de réseaux. Elle pourrait bien lui permettre de durer.

Stratégies web: de la croissance au foisonnement

23 octobre 2007

Parmi les multiples caractéristiques prétées au web 2.0 (ou au 3.0, voire au 4.0… selon les modes du moment) , je n’ai pas encore vu de définition fondée sur les stratégies d’entreprises. Il y a pourtant une différence majeure entre les types d’avantages concurrentiels des sites de la nouvelle vague et ceux de leurs ainés -par avantage concurrentiel, j’entends des capacités propres à une entreprises, pérennes au fil du temps, suffisamment difficile à répliquer pour résister à la concurrence et assurer une croissance profitable-.

Les avantages concurrentiels obtenus par les sites du premier web furent essentiellement des avantages de coût, alors que les entreprises web 2.0 ont pour la première fois la possibilité de développer des avantages intrinsèquement lié à leur produit, c’est-à-dire des avantages de revenus. 

Les premiers Yahoo, Amazon ou AOL (je parle du portail) proposaient des services que tout site concurrent pouvait répliquer. Un tel effort était potentiellement très couteux, rarement profitable, mais constituait une menace permanente au sein de chaque catégorie de site. Dans ce contexte, la seule orientation valable était une stratégie d’abaissement du coût de développement des sites. Comme ces coûts sont presque toujours fixes, c’est-à-dire indépendant de l’usage et du nombre de clients, les grandes lignes des stratégies concurrentielles se trouvaient naturellement tracées. Il fallait accroitre le nombre de clients pour abaisser les coûts unitaires, cela jusqu’à l’élimination des concurrents. Comme dans d’autres industries de très forts coûts fixes (électricité, compagnie aériennes…), seul un très petit nombre d’acteurs survivaient par marché. A terme, sans  rupture technologique ou changement conceptuel, le plus gros aurait fini par écraser tous ses adversaires dans toutes les catégories de services… 

Les sites 2.0 ont tous une propriété commune, qui empêche définitivement ce scénario. Ils s’appuient sur des réseaux sociaux, avantages concurrentiels non réplicables, qui plus est avantages de revenus. Voila sept ans, un investisseur fou aurait pu dépenser des fortunes pour reconstruire exactement l’interface d’Amazon – la compétence de son fondateur le prédisposait néanmoins à l’emporter: c’était un financier et non un ingénieur-. Aujourd’hui, la capitalisation de Microsoft ne suffirait pas à reproduire les liens sociaux gérés par Face Book! Que l’on me comprenne bien, Microsoft pourrait reproduire les applications de Face Book, éventuellement convaincre ses abonnés actuels de s’inscrire à un service presque identique… Ce serait horriblement couteux mais insuffisant: les connexions  établies entre abonnés seraient perdus en cours de tentative.

Les sites qui entretiennent une communauté active possèdent donc tous un avantage concurrentiel intrinsèque. Cela ne signifie pas qu’ils peuvent tous être rentable, mais cela signifie que leur stratégie ne doit pas être nécessairement similaire à celle des sîtes 1.0. Toutes choses égales par ailleurs, ils ne doivent pas nécessaire croitre et éliminer leurs concurrents pour durer.   Cela ouvre d’autres questions comme, celle de la convergence entre réseaux sociaux –et je reviendrai très bientôt sur ce point- mais justifie largement la floraison de sites actuels.

Au contraire de son ainée la myriade de startup 2.0 pourrait ne pas beaucoup croitre… mais peut-être mieux durer

Google: voie royale ou reflux annoncé?

20 octobre 2007

Google annonce 46% de profits supplémentaires au troisième trimestre et tout l’internet bruisse de ses perspectives de développement illimiteés.

Pourtant, si à force d’acquisitions Google a fini par accumuler les fonctionnalités 2.0, l’essentiel de ses revenus et la totalité de ses profits proviennent d’un moteur de recherche qui ne représente en rien l’avenir du Net. Le classement des sites y est numérique, non sémantique. Les critères y sont fixés a priori par quelques individus, non muris au sein d’une communauté. Le service n’y demande ni participation, ni amélioration, ni discussion… Le couronnement financier de Google prélude peut-être un reflux annoncé, celui où l’authentique mouvement 2.0 finirait par l’emporter.