Une musique de fond qui interroge, des arbitrages budgétaires à venir. Tentons d’y voir plus clair.
Ce n’est pas la première fois qu’on nous annonce la fin imminente de quelque chose dans le numérique. En 2017, j’intervenais dans un atelier des #ET13 titré « j’abandonne mon site internet », sur fond de Web 2.0 et réseaux sociaux. En 2018, #deleteFacebook allait tuer lesdits réseaux sociaux. On attend encore la révolution du web3, sans oublier le Metaverse, la mort de Google et j’en passe.
Aujourd’hui, remplacés par l’IA et son lot de prophéties, les sites web seraient condamnés. On entend même certains experts recommander, et pas que sur LinkedIN, de se désengager des sites web, d’abandonner les projets de refonte en cours. Une posture probablement irresponsable et irrationnelle.
Curieux paradoxe : si les acteurs de l’IA prévoyaient la mort des sites web, pourquoi investissent-ils massivement dans ce qui permet de les afficher ? Comet de Perplexity, Atlas d’OpenAI… les navigateurs sont loin d’être morts pour eux.
Alors pendant que certaines voix affirment avec force que « le game est plié », je vous propose de prendre le temps d’y réfléchir un peu plus sérieusement. Pas de certitudes définitives, pas de prédictions péremptoires. Juste une tentative d’analyse posée, avec les données qu’on a aujourd’hui, et quelques questions qui méritent d’être posées.
Commençons par déconstruire la question elle-même.
De quoi parle-t-on vraiment ?
« Site web », ça veut dire quoi exactement ? Je propose de distinguer trois couches – ce n’est qu’une grille de lecture possible, pas une vérité, mais elle aide à structurer la réflexion.
La couche informationnelle : les contenus eux-mêmes (textes, photos, vidéos, données SIT). C’est le trésor de guerre des destinations. Personne ne dit que les destinations n’auront plus rien à raconter. Au contraire, l’expertise territoriale devient plus précieuse que jamais. Cette couche reste centrale, voire devient plus critique.
La couche technique : comment ces contenus sont stockés et structurés (CMS, bases de données, architecture, sémantique, SIT). La structuration des données va devoir évoluer pour être « lisible » par les machines, pas juste les humains. Le SIT lui aussi devra évoluer pour mieux alimenter les IA en informations structurées. Cette couche va certainement devoir s’adapter, en profondeur.
La couche interface : comment les humains y accèdent (pages web, navigation, UX/UI). La façon dont on accède aux contenus va probablement changer. Moins de navigation directe sur un site, plus de consommation via IA, assistants vocaux, interfaces conversationnelles. Cette couche devrait connaître de grandes évolutions.
Alors au lieu de conjecturer sur « les sites web vont-ils mourir ? » (dans l’entièreté de leur 3 couches donc), je vous propose plutôt de nous questionner sur la pertinence de leurs contenus, leur structuration, et leur mode d’accès et de consultation.
Une hypothèse de travail : trois piliers à explorer
Avant d’examiner ce qui se passe réellement du coté des sites web, posons une hypothèse. Parce qu’au fond, l’IA a besoin de contenus. De bons contenus. De contenus fiables, structurés, exclusifs. Des contenus experts. Et 3 choses semblent déterminer si nos contenus vont être valorisés par les IA ou noyés dans la masse générique. Rien ne dit que cette grille tiendra dans le temps, mais elle aide à s’y retrouver pour l’instant.
L’expertise territoriale exclusive
Concrètement, qu’est-ce que ça pourrait vouloir dire ? Référencer l’exhaustivité de l’offre dans un SIT en ajoutant le tampon « information officielle » ? C’est un point de départ. Un point de départ pour lequel l’IA apporte d’ailleurs de grands axes d’optimisation, mais ce n’est pas le sujet ici. Mais un point de départ qui ne suffira probablement pas pour influencer les IA.
L’expertise territoriale exclusive, ce serait surtout de raconter son territoire, sa destination, de manière incarnée, vécue, ancrée. De manière résolument différente, d’une manière que seule l’hyperproximité autorise. D’aller au contact, à la rencontre des acteurs, les interviewer, leur donner la parole, humaniser. D’être toujours à l’affût des meilleures propositions, des meilleures adresses. Pas les plus connues, pas forcément les plus grosses. Les meilleures, selon sa propre vision du territoire.
Sur un site web, ça se traduirait par exemple par :
- des interviews, témoignages d’acteurs locaux, portraits
- des contenus qui révèlent des lieux, des adresses, des pratiques méconnues
- un angle éditorial singulier qui ne ressemble pas aux autres destinations
- une mise à jour régulière reflétant une veille terrain active
- une capacité à raconter le « pourquoi » et le « comment », pas juste le « quoi »
Mais l’expertise ne se cultive pas depuis un bureau. Elle se vit sur le terrain. Et c’est précisément là que l’IA pourrait servir en interne, pour libérer du temps (moins de saisie SIT, production de contenus de base simplifiée, traitement des tâches à faible valeur…) et permettre aux équipes de retourner sur le terrain, rencontrer les acteurs, tester, vivre ce qu’elles racontent.
Le paradoxe : pour alimenter les IA, il faut probablement plus d’humain, surtout pas moins.
Question d’introspection collective : Nos contenus apportent-ils quelque chose que seuls nous pouvons dire ? Ou répétons-nous ce que disent les guides généralistes, les plateformes, les influenceurs ?
L’alignement stratégique
L’IA semble détecter les incohérences. Notre stratégie parle de tourisme durable ? Nos contenus web valorisent-ils réellement les mobilités douces, les hébergements éco-responsables ? Nous prônons l’accessibilité avec un label Destination Pour Tous ? Notre stratégie de contenus est-elle réellement inclusive et représentative ? Nous parlons de régénération ? Quelle place dans nos contenus web pour convaincre, embarquer dans la démarche ? Juste un reportage sur l’opération « plages propres » du printemps dernier ?
Dans les faits, beaucoup de sites se ressemblent. Et je ne parle pas de leur design, mais de leur style éditorial. Contenus pour valoriser, faire briller, attirer, séduire. Contenus convenus, parfois mous qui ne sont pas à la hauteur des enjeux, voire pire, « contenus SEO » censés générer du trafic. Or, le site doit refléter la stratégie touristique et la promesse client pour être crédible. Ce qui est unique, cohérent, aligné a des chances d’être cité. Ce qui est générique et contradictoire risque d’être fondu dans la masse.
Et l’alignement va probablement au-delà du discours éditorial. Un site qui parle de tourisme responsable mais qui n’est lui-même ni accessible (RGAA), ni éco-conçu (RGESN), ni respectueux des données personnelles (RGPD), n’est pas aligné. Les IA, entraînées à reconnaître la qualité et la fiabilité des sources, pourraient sanctionner ces incohérences. Un site conforme aux standards, c’est un site que les IA pourraient davantage valoriser.
A surveiller :
- La cohérence entre documents stratégiques et ligne éditoriale web
- La hiérarchie des contenus qui reflète les priorités territoriales
- La présence mesurable des thématiques stratégiques dans les contenus (pas juste dans une rubrique isolée)
- La conformité aux standards : accessibilité (RGAA), éco-conception (RGESN), données personnelles (RGPD)
Question d’introspection collective : Nos contenus incarnent-ils vraiment notre stratégie territoriale ? Si nous parlons de tourisme durable dans nos documents de stratégie, valorisons-nous réellement les pratiques responsables dans nos contenus web ? Et notre site lui-même est-il à la hauteur de nos ambitions ?
La puissance de la marque territoriale
Pas la marque publicitaire : campagnes, slogans, notoriété achetée. L’IA n’a probablement pas grand-chose à faire d’un slogan qui claque, d’une personnalité de marque travaillée en agence. Mais la marque d’influence : celle qui est citée, relayée, recommandée spontanément. Celle qui fait autorité.
Pour les IA, l’autorité compte. Un contenu publié par une source reconnue, citée ailleurs, relayée par d’autres acteurs… a plus de poids qu’un contenu isolé, même de qualité équivalente. En tant qu’acteurs publics du tourisme, nous bénéficions d’une autorité institutionnelle reconnue par Google (moins d’impact des updates, tolérance au duplicate content). Cette autorité pourrait jouer aussi avec les IA. À condition de bien l’exploiter. Et à condition que cette légitimité institutionnelle soit confortée par une vraie conformité aux standards de qualité web.
Comment l’évaluer ?
- Des backlinks de qualité (médias, blogs spécialisés, autres institutions) et certainement pas des liens « achetés »
- Des reprises de nos contenus ou de nos données par d’autres acteurs
- Des citations dans des articles, guides, études sectorielles
- Des partenariats et co-productions éditoriales avec des acteurs reconnus
- Une présence dans les conversations professionnelles (colloques, formations, réseaux)
Question d’introspection collective : Sommes-nous cités, relayés par d’autres ? Notre marque circule-t-elle au-delà de nos propres canaux ? Ou sommes-nous uniquement visibles via nos campagnes payantes ? Exploitons-nous notre autorité institutionnelle, ou la laissons-nous en friche ?
Ce que les observations nous apprennent
Maintenant, confrontons cette hypothèse à ce qui se passe réellement.
Mais d’abord, un rappel : le parcours client a toujours été complexe et fragmenté. Inspiration, recherche, comparaison, décision, réservation, expérience, partage. À chaque étape, des dizaines de points de contact possibles : réseaux sociaux, plateformes OTA, avis clients, bouche-à-oreille, offices physiques… Les sites web des destinations n’ont jamais été le seul canal. L’IA s’insère dans cet écosystème déjà éclaté. Elle ne le remplace pas. Elle le transforme.
Parmi toutes les propositions d’IA, 2 menacent le plus directement nos sites de destinations, mais avec des impacts très différents.
Les moteurs de recherche augmentés : la menace la plus sérieuse
Google avec ses AI Overviews, Perplexity… Ces moteurs répondent directement dans la page de résultats, synthétisent plusieurs sources, proposent des réponses structurées. Moins besoin de cliquer sur plusieurs sites pour comparer. C’est certainement ici que la menace pour l’audience des sites web est la plus sérieuse.
En France, AI Overviews n’est pas déployé, bloqué par un contentieux sur les droits voisins qui devrait bien sauter d’un jour à l’autre. Mais ailleurs en Europe (Allemagne, Italie, Espagne, Suisse) et dans le monde, les données commencent à parler. La baisse de trafic fait froid dans le dos : entre -17% et -79% selon les secteurs. Les recherches « zero-click » (celles qui ne génèrent aucun clic) sont passées de 56% à 69% entre mi-2024 et mi-2025.
La grosse question : est-ce structurel ou temporaire ? Général ou sectoriel ? Dépendant de quels facteurs ? Est-ce que, par exemple, les sites impactés produisaient du contenu générique facilement synthétisable, tandis que ceux qui résistent proposent de la vraie valeur ajoutée ? Probable. Mais on ne sait pas encore. Les données sont trop récentes et partielles.
Si AI Overviews débarque en France (très probable dans les semaines / mois à venir), nous devrons être prêts. D’où l’intérêt de travailler dès maintenant sur ces trois piliers – même si l’avenir pourrait démentir cette intuition.
Les chatbots conversationnels : impact encore flou, voire inexistant
ChatGPT, Claude, Mistral, Gemini… Ils aident à la planification, au brainstorming, aux questions générales. Et leur usage explose : OpenAI revendique 800 millions d’utilisateurs hebdomadaires de ChatGPT et traiterait plus d’1 milliard de requêtes par jour. Mais quel impact sur le trafic des sites web ? Voilà qui est intéressant. Si ces chatbots remplaçaient massivement la consultation de sites web, on devrait observer une corrélation inverse : leur usage explose, les audiences web s’effondrent. Or s’il semble bien qu’un certain nombre de sites soient en souffrance depuis 12/24 mois, ce n’est d’une part pas nécessairement lié à l’IA (coucou les mises à jour Google), et ce n’est surtout pas généralisé.
Pour ce que ça vaut, j’observe un certain nombre de destinations qui ont depuis plusieurs années misé sur l’expertise territoriale et les contenus à forte valeur ajoutée, enregistrer des progressions annuelle allant jusqu’à +55% ! Coïncidence ? Causalité ? Est-ce qu’une éventuelle baisse liée à l’IA est largement compensée par un référencement naturel encore très largement prioritaire ? Impossible à affirmer avec certitude à ce stade. Mais cette corrélation va dans le sens de l’hypothèse posée.
Paradoxe supplémentaire : quand il y a du trafic identifié depuis ChatGPT (encore très marginal, mais mesurable), il convertit souvent mieux que le trafic organique classique.
Alors, les chatbots remplacent-ils la visite de sites web ? Ou autre chose ? La recherche Google ? Les forums ? Les discussions avec des proches ou les réseaux sociaux pour choisir une destination ? Probablement un mix. Mais une chose se dessine : les sites qui misent sur la qualité ne souffrent pas, au contraire.
L’usage réel de l’IA dans la préparation de voyages
Au-delà des chiffres alarmistes sortis de leur contexte sur LinkedIn, regardons ce que disent vraiment les études sur les usages.
Étude Omio NowNext 2024 : 44% des voyageurs envisageaient utiliser l’IA pour la planification et la recherche de voyages. Mais ce n’était qu’une intention, et ça, ce n’est jamais précisé dans les relais.
Étude KAYAK-Ipsos 2025 : 33% des Français ont déjà utilisé l’IA pour planifier leurs vacances. Dans le détail, seulement 11% l’utilisent régulièrement, 25% occasionnellement.
Étude Opinium pour Amadeus 2025 : Un tiers des Français (34%) s’appuient sur leurs proches pour trouver des idées de destination, alors que l’usage des outils d’IA générative reste marginal : 7% en 2024, 8% en 2025. Une progression d’un seul point. L’étude Omio NowNext 2025 annonce des chiffres similaires.
Et pour toutes ces études, l’usage de l’IA n’est jamais présenté comme une démarche exclusive, rien n’est dit sur le fait qu’ils utilisent l’IA à la place des sites web ou en complément d’autres sources.
Ce qu’on peut retenir : l’usage de l’IA dans la préparation de voyages progresse, c’est indéniable. Mais on est très loin d’un grand remplacement des autres points de contact. Les recommandations de proches, les réseaux sociaux, les sites web… tout ça coexiste, dans des proportions fortement génération-dépendantes.
Et la mesure dans tout ça ?
Si nos contenus sont de plus en plus consommés via des IA plutôt que via des visites directes de sites, comment mesurer notre impact ? Question ouverte, sans réponse claire aujourd’hui.
Les métriques classiques (même les plus avancées) deviennent moins fiables. Un contenu peut être très cité par les IA sans générer de trafic direct mesurable, ni la moindre conversion.
Quelques pistes à explorer collectivement, même imparfaites :
- Mentions dans les réponses IA : interroger régulièrement les principaux chatbots et moteurs augmentés sur notre destination, analyser la fréquence et la qualité des citations de nos contenus. Limites : chronophage, outils balbutiants, extrême volatilité des résultats…
- Tracking des referrers spécifiques : ChatGPT, Perplexity et autres laissent quelques traces identifiables dans les analytics. Limite : données très partielles et facilement biaisées
- Qualité des synthèses IA : nos données sont-elles reprises fidèlement ? nos angles éditoriaux conservés ? notre expertise reconnue ? Limite : évaluation subjective, difficilement quantifiable, pas de benchmark sectoriel
- Backlinks et citations externes : l’autorité de marque reste mesurable via les mentions sur d’autres sites, réseaux sociaux, presse. Limite : métrique classique SEO qui n’a rien de spécifique à l’IA, ne mesure pas l’influence dans les réponses IA elles-mêmes.
- Engagement qualitatif : durée de session, profondeur de navigation, conversions sur les quelques visiteurs qui arrivent (potentiellement plus qualifiés). Limite : ne fonctionne que si le volume de trafic reste suffisant pour être statistiquement significatif.
- Analyse des logs serveur : piste technique sur laquelle nous sommes en train d’investir avec mon équipe, pour identifier les patterns de crawling et d’accès par les IA en amont des analytics classiques. Limite : nécessite des compétences pointues en analyse de logs, gros volumes de données, interprétation complexe.
Aucune de ces métriques n’est parfaite. Aucune ne remplace les KPI classiques. Mais elles dessinent les contours d’une mesure d’influence plutôt que d’une mesure d’audience brute. Pour l’instant, acceptons l’incertitude et testons. Les outils viendront, les données en partie partagées par les plateformes, probablement d’ici quelques mois.
Alors, que retenir ?
Je ne crois pas, vraiment, que l’IA « tue » les sites web en bloc, en tous cas pas à court terme. A plus long terme, qui sait avec quelles interfaces les humains interagiront… En attendant, l’IA, ou plutôt certains outils d’IA, transforment leur rôle, leur fonction, peut-être leur forme. Mais le contenu reste central, seule la façon dont on y accède évolue.
Si on reprend les trois couches distinguées au début, elles n’ont probablement pas le même avenir. La couche informationnelle (les contenus eux-mêmes) devient plus critique que jamais. C’est elle qui sera citée, synthétisée, recommandée par les IA. La couche technique (comment on structure ces contenus) va devoir évoluer pour être lisible par les machines autant que par les humains. Travail sur la sémantique, les données structurées, l’interopérabilité. La couche interface (comment on y accède) va certainement changer de visage, avec des sites qui devront servir deux publics à la fois : les humains qui naviguent et les machines qui indexent.
2 impacts IA très différents se dessinent :
- AI Overviews et moteurs augmentés : menace sérieuse et avérée là où ils sont déployés, avec des baisses de trafic significatives. Impact direct sur l’audience. A surveiller de très près dans les mois qui viennent, je vous recommanderais volontiers de prévoir de quoi réagir (temps, budgets) courant 2026
- Chatbots conversationnels : usage en forte croissance, mais impact négatif sur les sites web non démontré, et probablement très limité. Au contraire, les sites misant sur l’expertise et la qualité continuent de progresser. Impact à surveiller, mais pas à craindre à court terme.
Face à cette transformation, 3 pistes semblent se dessiner pour nous, acteurs du tourisme territorial :
- Miser davantage sur l’expertise territoriale. Libérer du temps en interne grâce à l’IA, et investir dans des contenus incarnés et singuliers. C’est une hypothèse de travail, qu’on peut challenger, mais qui semble tenir la route pour l’instant, et qui à minima porte clairement ses fruits en SEO.
- Chercher à mieux aligner contenus et stratégie. Si notre stratégie parle de durabilité, d’accessibilité, de régénération… nos contenus devraient l’incarner. Vraiment. Pas dans une rubrique isolée, mais dans toute notre ligne éditoriale. Cette cohérence devrait aller jusqu’aux fondations techniques : comment prôner la responsabilité avec un site inaccessible, énergivore ou peu respectueux des données ?
- Construire / Renforcer une autorité de marque au-delà des campagnes publicitaires. Être cités, relayés, recommandés. Pas pour briller, mais pour peser. L’autorité institutionnelle dont nous bénéficions est un atout. Reste à l’exploiter.
Peut-être que l’avenir démentira ces intuitions. Peut-être que d’autres facteurs joueront davantage. Mais pour l’instant, face à l’incertitude, ces trois pistes offrent au moins une grille de lecture pour orienter nos actions.
Ce qu’on ne sait pas, et il faut l’accepter : la vitesse et l’amplitude réelles de ces changements. Les nouveaux usages qui vont émerger. On navigue en eaux troubles, et l’humilité s’impose.
Mais au fond, la question de départ était peut-être mal posée. Plutôt que de se demander « les sites vont-ils mourir ? », la vraie question est ailleurs : les contenus de nos sites de destination ont-ils encore quelque chose d’utile et de singulier à apporter ?
Si oui, alors peu importe le canal par lequel ils seront consommés – page web, réponse IA, assistant vocal. Le contenu restera.
Si non, alors le problème n’est peut-être pas l’IA.