La révolution des contenus en ligne

Publié le 18 avril 2011
13 min

J’ai participé il y a près de deux semaines à la Conférence organisée par le groupe CCM-Benchmark intitulée « La révolution des contenus en ligne »:http://www.benchmark.fr/catalogue/forum/programme/483-forum-la-revolution-des-contenus-en-ligne/.
Il y était beaucoup questions des médias, avec beaucoup de gens des médias d’ailleurs. Mais comme nous l’avions illustré lors des 15mn chrono des dernières Rencontres du etourisme institutionnel, c’est toujours intéressant de se frotter à d’autres points de vue, d’autres secteurs. Voici donc mon compte-rendu, pardonnez la forme peut-être un peu brute de décoffrage, et les nombreux anglicismes, néologismes, qui sont légion dans ce type de cénacle.

Contenus digitaux : les nouveaux modèles de production

La première table-ronde abordait d’ailleurs le cas des agences de presse 2.0, avec Citizenside et DemandMedia qui rémunèrent pour l’un les internautes (seuls 3% des contenus validés sont vendus, le dernier gros coup en date étant la vidéo de John Galliano tenant des propos antisémites), pour l’autre 13000 freelanceurs.
Les Echos nous faisait part de leur difficulté à faire écrire les journalistes pour le web. La fusion des rédactions web et papier l’année dernière a constitué une véritable révolution, nécessitant un nouvel accord sur les droits d’auteur et un avenant au contrat pour tous les journalistes. L’objectif n’est plus le bouclage de la première le soir, mais de couvrir toute l’actualité au long de la journée pour boucler le soir. Un article a maintenant trois ou quatre vies : l’édition web de 9h, la mise à jour dans la journée, une édition plus réduite pour le mobile, et l’édition papier du lendemain.
Les Echos utilisent de plus en plus le contenu des lecteurs, et à terme, ils estiment que l’UGC pourrait constituer 25% des articles !

Pour tous ces acteurs de la presse, Facebook et Twitter sont d’énormes leviers de recrutement. Le Facebook Connect constitue également une révolution, permet la mise en avant des commentaires, l’utilisation de la viralité. Quand on partage un lien sur Facebook, on a en moyenne trois amis qui vont venir sur ce site.
Aux Echos, les journalistes surveillent Twitter pour trouver des infos, puis travaillent ensuite à la visibilité, à la promotion de leurs propres articles. Un Community Manager a été recruté pour gérer la présence des Echos en ligne dans la globalité, mais aussi pour sensibiliser l’ensemble des équipes.

Séverine Philardeau, de Tripadvisor, intervenait également sur cette table-ronde; Elle rappelait tout d’abord quelques chiffres impressionnants : 2M de visiteurs uniques par mois en France, 45M d’avis et d’opinions, 21 contributions/mn.
Une équipe de modération relit les contenus qui ont été identifiés comme inappropriés par leurs filtres, et modérés par la communauté qui signalent les contenus.
Elle reconnaît volontiers qu’il s’agit avant tout au service des consommateurs, au détriment parfois de la relation avec les hôteliers. Une division spécifique pour eux a été récemment créée, avec des webinars, des offres spécifiques, …et un processus d’éducation pour que les gérants répondent aux critiques de façon positive.

S’adapter à la mise à jour « Panda » de Google

Jérome Spiral, d’Aposition Isobar, nous a ensuite fait un retour sur l’update Google Panda. Vous avez probablement lu de nombreuses infos sur le sujet (notamment le « billet de Pierre Croizet »:https://etourisme.info/article/1342/attention-au-coup-de-bambou-voici-google-panda ici-même ou les publications sur mon « Scoop.it dédié à Google »:http://www.scoop.it/t/google-et-le-tourisme).
Caffeine faisant remonter encore plus de contenus dans Google, mais notamment du « mauvais », Google a décidé de faire du ménage. Jérôme Spiral évoquait notamment des questionnaires adressés par google aux internautes (« Laisseriez-vous votre n° de carte bleue sur ce site ? », « Donneriez-vous à vos enfants des médicaments achetés sur ce site ? » « Est-ce un site de référence ? », « Y a-t-il trop de publicités ? », …) et a essayé de traduire tout cela dans son algorithme. Mission apparemment réussie puisque 84% des sites critiqués auraient été impactés !
Google cherche donc à pénaliser les contenus sans valeur ajoutée, générés automatiquement ou occasionnant une mauvaise expérience visiteur.
Il va donc falloir :
* disposer de contenus de qualité, avec de l’éditorial et de l’exclusif, du multimédia.
* optimiser les critères d’usages : Google cherche à savoir si les internautes sont satisfaits de leur expérience, et s’appuiera notamment sur le taux de rebond, le nombre de pages vues, et le parcours des internautes en sortie de sites (départ vers un site de confiance, vers un site de mauvaise qualité ou retour sur Google).
* maximiser les signaux sociaux : le nombre de « like », demain de +1, de retweet, le partage de vos url dans les réseaux sociaux, la reprise de commentaires dans vos propres pages etles interactions ainsi suscitées démontreront à Google que les internautes plébiscitent, ou non, votre site et ses contenus. Une pierre de plus dans le jardin de ceux qui ne croient pas nécessaire d’investir les réseaux sociaux…
* gérer avec parcimonie les éventuelles publicités : elles ne doivent pas être intrusives, être facilement identifiables, et il doit y avoir plus de contenu naturel que de publicité sur chacune des pages de votre site (attention notamment aux pages quasi-vides de contenus qui ne respecteraient pas ce critère et pourraient pénaliser l’ensemble du site). De plus, le fait que ces publicités renvient vers des sites de confiance, ou à l’inverse vers des sites de mauvaise qualité vous impactera directement !

Le TrustRank devient donc un élément capital, et il apparaît clairement que cela va favoriser les marques connues.
J’ai interrogé notre spécialiste sur la cas particulier des acteurs du tourisme institutionnel qui mutualisait leurs données dans des bases pour utiliser les mêmes sources, et l’éventuelle pénalisation de google.
Sa réponse a été claire : la reprise de flux XML va être pénalisée. Il va falloir ajouter de l’éditorial pour se différencier des autres sites. Malgré tout, le caractère « officiel » des institutionnels leur confère un statut quasi-automatique de site de référence qui pourrait contrebalancer ce souci.
A priori, pour avoir des flux XML non pénalisants, il faut donc être une marque reconnue et disposer d’un site de référence, avec de l’accès direct important, un faible taux de rebond, et de nombreuses pages visitées. Si en plus vous prenez la peine d’ajouter un peu d’éditorial, vous pourriez au contraire devenir les gagnants de cette mise à jour !
A suivre très prochainement… on compte sur vous pour des retours chiffrés !

Des sites de questions / réponses aux plates-formes d’experts

Mathieu Bruc avait récemment anticipé dans « un billet »:https://www.etourisme.info/article/1350/vous-etes-venus-avec-vos-questions-je-suis-venu-avec-mes-reponses la table-ronde suivante, portant sur les sites de Questions/Réponses et plates-formes d’experts.

Yahoo QR vient du besoin de donner des éléments complémentaires aux résultats bruts du moteur de recherche. le site français cumule 5 millions de visiteurs uniques par mois. Au niveau mondial, c’est 2 questions et 8 réponses par seconde !
Deux principales questions ont été abordées :
* faut-il rémunérer ou non les experts ? Chez Comment ça marche, la réponse apportées par les membres eux-mêmes a été négative, de peur que la communauté en soit dénaturée ; chez Yahoo, on applique une « gamification » (joli néologisme au passage) à la Foursquare avec des badges, chez Overblog/Wikio, on rémunère, ce qui explique une exigence de contribution d’experts, voire des sanctions ; chacun son modèle donc !
* anonymat ou pas ? Certaines questions ne seraient pas soulevées sans être caché derrière un pseudonyme, un avatar, alors même que ce sont celles qui soulèvent le plus d’échanges ; par contre, dès que l’on rentre dans le technique, l’informatique, on privilégiera des experts reconnus.
Les participants semblaient d’ailleurs partagés sur l’arrivée de Facebook dans ce secteur, qui par cette absence d’anonymat devrait passer à côté de tous les aspects sentimentalo-médicaux personnels. De plus, mes « amis » ne sont pas forcément experts dans les matières sur lesquelles je sollicitent des réponses.
Tous estimait également que le succès de Quora serait probablement difficile à reproduire sur d’autres sujets que IT, dans la mesure où c’est l’agglomération dès le départ de grands noms de la Silicon Valley qui a motivé les membres à se montrer sous leur meilleur jour; Il sera probablement plus compliqué de fédérer des communautés moins versée dans le web, comme des médecins ou spécialistes du bricolage, jardinage…

Recherche sociale : la force du « like » par rapport au « link »

L’intervention suivante traitait de la force du « link » (Google) par rapport au « like » (Facebook).
Le Like serait finalement un link renforcé, où les amis jouent le rôle de filtre de recherche et force de recommandation.
L’intervenant a notamment mis en avant la grande perméabilité entre le SEO (Search Engine Optimization) et le SMO (Social Media Optimization). La connexion émotionnelle, expérientielle devient la plus importante, et on parle alors de ROI non plus comme Return on Investment mais comme Return on Influence.
Une nouvelle expression toujours anglophone, le « linkbaiting », qui est la pêche aux liens qui sont notamment postés chez Facebook et twitter; Ils ne participent pas directement au SEO dans la mesure où de nombreux contenus Facebook sont en accès restreints, que les liens twitter sont en no-follow (mention spécifique pour les moteurs de recherhce), mais contribuent au buzz qui générera des liens sur des sites plus SEO friendly (forums, blogs), et participent à la bonne gestion de la e-réputation, prise en compte par google.
L’intervanant insistait notamment sur des contenus à fort potentiel social :
* les classements, les Top et Flop,
* les « petites phrases »,
* les études, les enquêtes,
* les bestiaires, les contenus à fort potentiel zygomatiques.
un des exemples cités fût la campagne Tipp-ex sur Youtube, avec ses 42 scénario différents, qui a généré :
* 1 tweet par sec pendant les 10 premières heures.
* 1 million de streaming en 36h
* 500 000 « Partager sur FB »
* Référence dans plus de 1000 blogs.
* et à l’arrivée, +30% de chiffrte d’affaires par rapport à l’année précédente !

Social curation

La curation était le thème de l’intervention suivante, mais là aussi, « Jean-Luc a déjà fait le travail sur le blog »:https://www.etourisme.info/article/1284/le-veilleur-nouveau-est-arrive ! je retiendrai tout de même la définition de Guillaume Décugis, assimilant le curateur à un rédacteur en chef, dont tous les internautes publiant du contenu en ligne constitueraient les potentiels journalistes.

Transformer sa présence éditoriale sur Facebook en un modèle gagnant / gagnant

Julien Codorniou, de Facebook France,a beaucoup insisté sur le social graph insiffisamment exploité en Europe selon lui. Les américains et notamment les acteurs du ecommerce y ont recours, avec notamment la page Amazon, qui me propose des articles en fonction de mes goûts et intérêts déclarés dans le social graph, les anniversaires de mes amis, … Et des taux de transformation extrêmement élevés !
Selon Julien Codorniou, contrairement à ce que l’on pourrait penser, l’indicateur n°1 de la performance est l’envoi de clics vers les partenaires.

L’open graph tagging est un outil très intéressant : à chaque nouvel article sur un sujet particulier, cela vient se mettre sur mon mur car je suis abonné à la fan page spécifique. L’expérience est ainsi personnalisée. Par exemple, le journal La Républica a des fan pages pour chaque équipe de foot, et chaque nouvel article concernant l’équipe à laquelle je suis abonné viendra impacté mon mur.
Côté petites news intéressantes :
* Les Facebook credits (monnaie virtuelle) vont arriver en France très prochainement.
* Facebook veut tuer la mosaïque de la TV. On aura des recommandations selon le social graph. Clickr.com est un programme tv qui affiche le programme selon votre social graph.
* Un bouton « like » seul intégré à un site produira un indice 100 visites, tandis qu’un bouton « like » avec les photos donnera 125 !

TF1, qui travaille avec FB depuis 2008, est venue témoigner de son expérience. Ses objectifs : accroitre l’audience en allant la chercher là où elle est, viraliser, notamment sur les contenus vidéos, et in fine engager les consommateurs pour les fidéliser et leur proposer de nouvelles expériences.
Un hub de fan page est dédié aux programmes, à des déclinaisons de social gaming, avec 38 fanpages, notamment sur la telerealite, les series us et françaises.
Le cas type : Secret Story, qui est le carton d’audience sur le digital, avec 1,7 millions de fans, une trentaine de posts par jour et une conversation entretenue avec les fans.
L’appli « Le plus grand quizz de France » a obtenu 1,5 millions de joueurs en moins de 15 jours.
Entre 1 à 5% du trafic de TF1 provient de FB, ils souhaitent l’augmenter pour atteindre 10-15%.
Tripadvisor a fait remarquer à Julien Codorniou que selon ses développeurs, c’était une vraie galère de travailler avec les API de Facebook qui changent sans arrêt (tiens donc, c’est étonnant !). Il a acquiescé en signalent que Facebook travaillait beacoup à l’amélioration de leurs produits ce qui peut produire une certaine instabilité qui ne durerait pas, et que surtout, on manquait encore d’un véritable écosystème de SSII réellement compétentes en la matière. Bon là, de toute façon, je crois que ce n’est plus dans nos moyens…

Les sites de contenus face au défi des tablettes tactiles

France24, Le monde Interactif, le Parisien et le Musée du Quai Branly témoignaient ensuite quant à leur expérimentation d’appli sur iPad. Pas grand-chose à en retenir, si ce n’est que tous constataient des usages surtout le matin et le soir apres 22h, ainsi que le dimanche, ce qui en fait plus une machine de salon qu’un outil en mobilité.
J’ai eu l’outrecuidance de leur faire remarquer que leurs appli ne tiraient guère parti de l’ergonomie de l’iPad, et s’apparentait plus à des sites web portés sur iPad (pourquoi ne pas avoir fait fait une webapp finalement ?) en demandant si cela était une question de moyens ou de compétences des développeurs ? Le DG du Monde interactif m’a renvoyé dans mes 22 arguant du fait que leurs lecteurs souhaitaient accéder le plus vite possible aux contenus, que Flipboard (que je citais en exemple), n’avait pas à payer pour produire les contenus. Il a fini par avouer malgré tout que certains de leurs concurrents anglo-saxons avaient développé des applis superbes…mais qu’elles représentaient à elles-seules le budget annuel du Monde interactif ! Ah…d’accord !
Cette fois-ci, c’est pierre Eloy qui va aborder ce sujet, si tout va bien jeudi matin, avec notamment une appli spécifiquement étudiée pour les Jetsetters du etourisme !

Contenus mobiles et contextualisation

Bruno Caillet, de l’agence de « design relationnel » Le Hub nous a enfin entretenu de la conceptualisation des contenus mobiles.
Une intervention conceptuelle et brillante, illustrée de cas concrets en développement.
Selon lui, il faut tenir compte de ce qui se passe en temps réel, et c’est au contenu de s’adapter au comportement de l’usager.
Il convient de recueillir et qualifier l’information, de les animer, et surtout de partager une expérience pour capter, expérimenter et fidéliser.
Le monde n’a jamais produit autant de contenus, et donc pourquoi et comment et comment produire de l’information singularisée.
En mobilité, la prime va au jeu, à l’information pratique et à l’interaction sociale.
Les usagers veulent prévoir, d’informer, se lier, avoir des services. Ce doit être un jeu dans le sens contribution, immixtion, égocentrisme de l’information.
Ce que l’on cherche, c’est un programme compagnon, qui puisse produire de la serendipidité.
L’appli parfaite est donc une sorte de « Doudou », de super héros de l’enfance.
Une approche continue, de l’hyper local, l’information qui fait sens sur un territoire donné.
Le service par excellence selon lui, c’est FourSquare : approche ludique, réseau social, immédiateté et geolocalisation.

Le projet « Ma Microplanete » a pour objectif de lutter contre les problèmes d’engorgement des transports publics en Île de france. On pourrait fluidifier l’ensemble des réseaux en baissant de 3 à 5% les flux. Presque personne parmi les utilisateurs réguliers n’utilise le calcul d’itinéraire, et les algorithme basent leur calculs sur le temps, et non sur le confort. L’idée est donc de privilégier cette notion de confort, avec un apport ludique, un système de points, de bonifications, des détours vers des POI qui seront gratifiés. Le tourisme s’impacte directement dans les déplacements quotidiens.
Plus l’impact est fort dans le réel, plus l’impact et les téléchargements sont importants.

Ma conclusion

En conclusion, je relève que de très gros acteurs du secteur des médias sembent à peu près autant déboussolés que nous autres : leurs importants moyens financiers n’y font rien, il s’agit bien de stratégie, de compréhension et de ressources humaines !
Enfin, la plupart des sujets novateurs de cette conférence sont traités régulièrement au sein de ce blog, alors permettez une petite séance d’autocongratulation entre vos 12 serviteurs, autant d’apôtres à votre service !

PS : remerciement à Séverine Philardeau, de Tripadvisor, qui m’a fait bénéficier de son invitation gratuite en tant qu’intervenant (;D, et un petit coucou à Maud qui déploie en ce moment même l’antenne de Hong-Kong !

Je partage l'article
Voir les commentaires
0
386 articles
Ludovic a démarré sa carrière en Auvergne, à l’Agence Régionale de Développement, puis dans un cabinet conseil sur les stratégies TIC des collectivités locales. Il a rejoint en 2002 l’Ardesi Midi-Pyrénées (Agence du Numérique) et a plus particulièrement en charge le tourisme et la culture. C'est dans ce cadre qu'il lance les Rencontres Nationales du etourisme institutionnel dont il organisera les six premières éditions à Toulouse. À son compte depuis [...]
Voir les 0 commentaires

Les commentaires sont fermés.

Également sur etourisme.info