Pour ne rien manquer de mes articles, abonnez-vous à ma newsletter.

Ce qui s’est passé et pourquoi

Le 9 février 2026, OpenAI a officiellement lancé des publicités dans ChatGPT aux États-Unis. Les annonces apparaissent dans la version gratuite et pour les abonnés à l’offre Go (8 $/mois), mais pas pour les abonnés Plus, Pro, Business ou Entreprise. L’annonce initiale remonte au 16 janvier 2026, lorsqu’OpenAI a confirmé son intention de tester la publicité sur le marché américain.

La décision ne tombe pas du ciel. OpenAI dépense environ 1,69 $ pour chaque dollar de revenu. Les coûts d’inférence se chiffraient à 8,4 milliards de dollars en 2025, avec une projection à 14,1 milliards en 2026. Sur plus de 800 millions d’utilisateurs hebdomadaires, environ 50 millions paient un abonnement — soit un taux de conversion d’à peine 5 %. Les pertes cumulées projetées atteignent 115 milliards de dollars d’ici 2029. L’entreprise vise 280 milliards de dollars de revenus d’ici 2030 et prévoit environ 600 milliards de dollars de dépenses d’infrastructure sur la même période.

En d’autres termes : les abonnements seuls ne suffisent pas. La publicité ciblée apparaît comme la voie la plus éprouvée pour monétiser une audience massive — un scénario déjà joué par Google et Facebook il y a quinze ans, comme le rappellent justement Ciriello et Backholer dans The Conversation.

Architecture technique du système publicitaire

Format et placement

Il s’agit d’un format d’annonce unique, positionné sous la réponse organique du LLM, visuellement séparé par un fond gris et la mention “Sponsored”. Un seul bloc publicitaire apparaît par réponse, et uniquement lorsqu’une correspondance pertinente existe avec le contexte conversationnel. Les partenaires initiaux — Adobe (via l’agence WPP), Target, Williams-Sonoma et Albertsons — accèdent à un inventaire facturé environ 60 $ CPM, soit trois fois le tarif moyen de Meta, avec un minimum d’engagement de 200 000 $.

Mécanismes de ciblage

Le ciblage opère à deux niveaux :

  1. Le ciblage de base exploite le sujet de la conversation en cours, la localisation approximative et la langue de l’utilisateur.
  2. La personnalisation avancée — activée par défaut — intègre l’historique des conversations passées, les réponses personnalisées du modèle, les interactions publicitaires antérieures et les “mémoires” sauvegardées par l’utilisateur.

OpenAI affirme que les annonceurs ne reçoivent jamais les conversations individuelles, l’historique, les noms, courriels, localisations précises ou adresses IP — uniquement des données agrégées (impressions, clics).

Zones d’exclusion

Les publicités sont exclues dans plusieurs contextes : conversations temporaires, utilisateurs déconnectés, génération d’images, navigateur Atlas, sujets sensibles (santé, santé mentale, politique), et utilisateurs de moins de 18 ans. Les catégories de produits exclues comprennent les applications de rencontre, les produits de santé, les services financiers et la publicité politique.

Risques techniques identifiés

Le problème central est celui de la vérifiabilité. OpenAI affirme que les systèmes publicitaires fonctionnent sur des “systèmes séparés” du pipeline de génération des réponses, mais aucun mécanisme d’audit indépendant ne permet de le vérifier. Selon Tom’s Hardware, des fuites internes suggèrent que du contenu sponsorisé pourrait recevoir un traitement préférentiel dans les réponses du modèle.

L’activation par défaut de la personnalisation publicitaire constitue par ailleurs un dark pattern classique : l’utilisateur doit lui-même désactiver une fonctionnalité qu’il n’a jamais demandée. Plus préoccupante encore, l’option “sans publicité” pour les utilisateurs gratuits s’accompagne d’une réduction des limites de messages quotidiens — une structure incitative punitive qui contraint indirectement le consentement. On est loin du consentement “libre” au sens que lui donnent le droit suisse et le droit européen.

Cadre juridique applicable

Revenons maintenant sur le droit applicable à cette intégration publicitaire, en distinguant les trois ordres juridiques pertinents : le droit suisse, le droit européen et le droit américain.

Droit suisse : profilage, changement de finalité et faiblesse institutionnelle

Qualification du traitement

Le système publicitaire de ChatGPT constitue du profilage au sens de l’art. 5 let. f de la Loi fédérale sur la protection des données (LPD), puisqu’il analyse de manière automatisée des données personnelles pour évaluer les préférences et intérêts des utilisateurs à des fins commerciales.

Si le système croise l’historique conversationnel à travers de multiples thématiques — santé, finances, préférences personnelles —, il pourrait être qualifié de profilage à risque élevé au sens de l’art. 5 let. g LPD. Cette qualification déclencherait plusieurs obligations cumulatives :

  1. L’exigence d’un consentement exprès de la personne concernée (art. 6 al. 7 let. b LPD), pour autant que le traitement repose sur ce motif justificatif.
  2. La réalisation d’une analyse d’impact relative à la protection des données personnelles (AIPD ; art. 22 LPD).
  3. La consultation du Préposé fédéral à la protection des données et à la transparence (PFPDT) en cas de risques résiduels élevés (art. 23 LPD).

Changement de finalité

La réutilisation des données conversationnelles pour le ciblage publicitaire constitue un changement de finalité par rapport au traitement initial — la fourniture de réponses au moyen d’un LLM —, au sens de l’art. 6 al. 3 LPD. Ce changement nécessite une information transparente et une compatibilité démontrable entre la finalité initiale et la nouvelle. L’argument selon lequel l’utilisateur “accepte” implicitement la publicité en utilisant un service gratuit ne résiste pas à l’analyse : l’attente légitime d’un utilisateur qui pose une question intime à un chatbot n’inclut pas l’exploitation commerciale de cette conversation.

Concurrence déloyale et transparence commerciale

L’art. 3 al. 1 let. i de la Loi fédérale contre la concurrence déloyale (LCD) interdit de ne pas identifier clairement les communications commerciales comme telles. L’interface conversationnelle de ChatGPT crée une attente d’objectivité et d’aide désintéressée qui rend la distinction entre contenu organique et publicité encore plus critique que dans les médias traditionnels. La Fédération romande des consommateurs a documenté les limites de la protection suisse contre les communications trompeuses, mais le cas d’un LLM intégrant de la publicité contextuelle n’a pas encore été testé.

Faiblesse structurelle de l’application

Comme l’a confirmé le PFPDT en novembre 2023, la LPD s’applique directement aux traitements fondés sur l’IA. Cependant, contrairement aux autorités européennes de protection des données, le PFPDT ne peut pas imposer d’amendes directement. Il peut saisir le Tribunal administratif fédéral, mais cette voie est lourde et lente. Cette faiblesse institutionnelle réduit considérablement la pression de conformité pour une entreprise étrangère comme OpenAI.

Le Conseil fédéral a par ailleurs opté en février 2025 pour une approche sectorielle et différenciée de la régulation de l’IA, renonçant à un AI Act suisse au profit de l’adaptation des lois existantes et de la ratification de la Convention du Conseil de l’Europe sur l’IA (signée en mars 2025). Une proposition de législation de mise en œuvre est attendue fin 2026. D’ici là, la Suisse fait avec les outils qu’elle a — c’est-à-dire pas grand-chose de spécifique à la publicité dans l’IA conversationnelle.

Droit européen : le triple dispositif RGPD, DSA et AI Act

L’Union européenne dispose d’un arsenal réglementaire plus dense, articulé autour de trois textes complémentaires.

Le RGPD et le rapport du Taskforce ChatGPT de l’EDPB

Le rapport du Taskforce ChatGPT du Comité européen de la protection des données (EDPB, mai 2024) établit deux principes directeurs : OpenAI ne peut pas transférer la responsabilité de conformité aux utilisateurs, et le changement de finalité (de l’assistance IA vers le ciblage publicitaire) nécessite une nouvelle base juridique autonome. L’intérêt légitime (art. 6 par. 1 let. f du Règlement général sur la protection des données, RGPD) est contestable en l’espèce, compte tenu de l’intensité de l’atteinte à la vie privée. Le consentement libre, spécifique, éclairé et univoque (art. 4 ch. 11 et art. 7 RGPD) serait vraisemblablement requis — or l’activation par défaut de la personnalisation publicitaire ne satisfait manifestement pas cette exigence.

L’art. 9 par. 1 RGPD interdit par ailleurs le traitement des catégories particulières de données (santé, opinions politiques, orientation sexuelle, convictions religieuses), autrement dit des données sensibles. Les conversations avec ChatGPT peuvent révéler ou permettre d’inférer de telles caractéristiques sans que l’utilisateur n’en ait conscience — et sans qu’OpenAI ne puisse garantir que le système de ciblage ne les exploite pas indirectement.

Le Digital Services Act et ses obligations publicitaires

Le Règlement sur les services numériques (Digital Services Act, DSA) impose aux plateformes affichant de la publicité des obligations spécifiques de transparence :

  1. L’art. 26 DSA exige l’identification claire de chaque annonce, du commanditaire, du payeur et des principaux paramètres de ciblage.
  2. L’art. 26 par. 3 DSA interdit le profilage publicitaire fondé sur des catégories sensibles de données — or les conversations ChatGPT peuvent révéler de telles caractéristiques.
  3. L’art. 28 par. 2 DSA interdit absolument la publicité ciblée par profilage envers les mineurs, sans possibilité de dérogation par consentement parental.

Avec 800 millions d’utilisateurs hebdomadaires, ChatGPT dépasse largement le seuil de 45 millions d’utilisateurs mensuels dans l’UE pour être désigné comme très grande plateforme en ligne (Very Large Online Platform, VLOP). Cette qualification déclencherait des obligations renforcées : évaluation des risques systémiques (art. 34 DSA), audit indépendant annuel (art. 37 DSA) et maintien d’un registre publicitaire accessible au public (art. 39 DSA). Le Digital Watch Observatory note cependant que la Commission européenne n’a pas encore désigné ChatGPT comme VLOP.

Le Règlement sur l’intelligence artificielle (AI Act)

Le Règlement sur l’intelligence artificielle (AI Act), en vigueur progressivement depuis août 2025, ajoute une couche supplémentaire. Les modèles d’IA à usage général (General-Purpose AI, GPAI) sont soumis à des obligations de transparence, de documentation technique et de gestion des risques systémiques (art. 51-56 AI Act). OpenAI y est directement assujettie en tant que fournisseur de modèle GPAI.

L’art. 5 par. 1 let. a AI Act interdit le déploiement de techniques subliminales, manipulatrices ou trompeuses altérant le comportement d’une personne et entravant sa prise de décision éclairée. Si le contenu sponsorisé dans ChatGPT influence subtilement les décisions d’achat sans divulgation adéquate, cette interdiction pourrait être activée. Fait notable : les lignes directrices de la Commission précisent que soumettre les utilisateurs à des publicités payantes pour accéder à la plateforme constitue une forme de monétisation qui élimine l’exemption open source de certaines obligations GPAI.

Le Digital Fairness Act de l’UE, dont la consultation s’est clôturée en octobre 2025 avec plus de 4 300 soumissions et dont la proposition législative est attendue au troisième trimestre 2026, pourrait combler partiellement le vide en traitant les dark patterns, le design addictif et la personnalisation agressive dans les chatbots IA.

Droit américain : entre recul fédéral et activisme étatique

Aux États-Unis, le paysage juridique est fragmenté et évolue rapidement.

La FTC et ses “cinq interdictions” pour les chatbots IA

La Federal Trade Commission (FTC) a établi un cadre “Five Don’ts” pour les chatbots IA, interdisant notamment d’insérer des publicités dans une interface conversationnelle sans identification claire du contenu payant, et de manipuler les consommateurs en exploitant leur relation avec un bot. Cependant, sous l’administration Trump, la FTC a signalé un recul vers une application fondée sur les preuves plutôt que sur des interdictions préventives, en annulant l’ordonnance contre Rytr en décembre 2025.

Le CCPA/CPRA et la publicité comportementale intercontextes

Le California Consumer Privacy Act/California Privacy Rights Act (CCPA/CPRA) s’applique directement au ciblage publicitaire de ChatGPT, qui constitue de la publicité comportementale intercontextes (cross-context behavioral advertising). Les résidents californiens disposent d’un droit d’opposition au “partage” de données personnelles à des fins publicitaires. Depuis le 1er janvier 2026, les données personnelles des mineurs de moins de 16 ans sont classées comme “informations personnelles sensibles” en Californie, avec des protections renforcées. Au total, plus de vingt États américains disposent désormais de lois sur la protection des données, créant un patchwork réglementaire complexe.

La Section 230, angle mort du droit des plateformes

La question de l’application de la Section 230 du Communications Decency Act (CDA) aux contenus publicitaires générés par IA reste juridiquement non résolue. Si ChatGPT génère ou sélectionne du contenu publicitaire, il agit potentiellement en tant que créateur de contenu plutôt qu’hébergeur neutre, perdant la protection traditionnelle. Le précédent Forrest v. Meta suggère que la contribution active d’une plateforme à la création publicitaire peut défaire cette immunité.

Enjeux éthiques : la confiance comme variable critique

La démission Hitzig, symptôme d’un malaise profond

Le diagnostic le plus incisif vient de l’intérieur. L’ancienne chercheuse d’OpenAI Zoë Hitzig a démissionné le 11 février 2026, le jour même du lancement des tests publicitaires. Dans un essai publié par Futurism, elle explique qu’OpenAI détient “l’archive de candeur humaine la plus détaillée jamais constituée”, alimentée par des utilisateurs qui croyaient s’adresser à un interlocuteur sans arrière-pensée commerciale. Conversations sur des peurs médicales, des problèmes relationnels, des croyances intimes : la monétisation publicitaire de cette archive “crée un potentiel de manipulation que nous n’avons pas les outils pour comprendre”.

Plusieurs autres chercheurs ont exprimé des préoccupations similaires, qualifiant la publicité dans ChatGPT de “pente glissante” (slippery slope) vers une dégradation systémique de la qualité des réponses.

Le précédent de la sycophanterie : un avertissement concret

L’incident de sycophanterie d’avril 2025 illustre concrètement ce que produit l’optimisation pour la satisfaction utilisateur. Une mise à jour de GPT-4o, conçue pour maximiser l’engagement, a validé des délires dangereux, encouragé l’arrêt de médicaments et approuvé des comportements à risque. OpenAI a fini par annoncer le retrait permanent du modèle, confrontée à 13 poursuites judiciaires consolidées.

Le modèle publicitaire crée une pression structurellement identique : maximiser les impressions en gardant les utilisateurs satisfaits et engagés, plutôt qu’en fournissant des réponses véritablement utiles — qui sont parfois confrontantes.

Populations vulnérables et frontières floues

Environ un million de personnes par semaine utilisent ChatGPT pour des conversations liées à la santé mentale. OpenAI exclut la publicité de ces conversations, mais les frontières restent floues. L’article de Ciriello et Backholer donne un exemple parlant : un utilisateur demandant “comment décompresser après une journée stressante” pourrait se voir proposer des publicités pour la livraison d’alcool. Ce n’est pas une conversation “de santé mentale” au sens strict, mais le potentiel de dommage reste bien présent.

La publicité pour la santé et la politique est exclue “pour le moment” — une formulation temporelle qui, pour quiconque a suivi l’évolution des promesses des plateformes numériques, n’inspire qu’une confiance limitée.

Le marché se polarise : deux visions de l’IA

La décision d’OpenAI a provoqué une polarisation remarquable du marché.

Anthropic : le pari de la confiance

Anthropic a explicitement rejeté la publicité avec une campagne au Super Bowl LX (février 2026) — quatre spots satiriques avec le slogan “Ads are coming to AI. But not to Claude”. La campagne a propulsé les téléchargements de Claude de 32 % et l’application au premier rang de l’App Store américain. Dario Amodei, CEO d’Anthropic, a averti que les entreprises d’IA “pourraient utiliser leurs produits pour endoctriner leur base massive d’utilisateurs”. Il y a une certaine ironie à ce que le message anti-publicité le plus efficace ait été délivré… sous forme de publicité télévisée.

Google : la course vers le bas

À l’opposé, Google prépare des publicités dans Gemini pour 2026, et Meta utilise déjà les données conversationnelles de Meta AI pour le ciblage publicitaire — sans option de retrait. Si OpenAI et Google imposent la publicité comme standard de l’industrie IA, la dégradation informationnelle observée sur les réseaux sociaux pendant deux décennies pourrait se reproduire dans un contexte incomparablement plus intime.

L’ADN publicitaire d’OpenAI

Le recrutement récent d’OpenAI ne laisse guère de doute sur la direction choisie. Fidji Simo (CEO Applications, ex-Meta où elle a lancé les publicités dans le News Feed, ex-CEO Instacart), Kevin Weil (CPO, ex-Instagram pendant le déploiement publicitaire), Shivakumar Venkataraman (VP, 20 ans chez Google dont 6 à diriger l’ingénierie publicitaire Search) et Asad Awan (responsable Ads & Monetization, ex-VP Meta) forment une équipe dont l’ADN professionnel est profondément ancré dans la publicité numérique. On ne recrute pas une telle équipe pour se limiter à un discret bandeau gris sous les réponses.

Alternatives : vers une IA d’intérêt public

Face à la marchandisation de l’IA conversationnelle, des alternatives émergent.

Apertus : le modèle suisse

Le projet Apertus, développé par l’EPFL, l’ETH Zurich et le Centre suisse de calcul scientifique (CSCS) et lancé en septembre 2025, incarne l’alternative publique la plus aboutie. Disponible en versions 8B et 70B paramètres, entraîné sur 15 000 milliards de tokens dans plus de 1 000 langues (dont l’alémanique et le romanche), sous licence Apache 2.0, Apertus est présenté comme le premier LLM pleinement conforme à l’AI Act. Son architecture, ses poids, ses données d’entraînement et ses méthodes sont entièrement documentés. Le modèle ne collecte aucune donnée à des fins publicitaires. Le Swiss Public Inference Utility (SPIU), organisé en coopérative, vise à pérenniser son déploiement en Suisse.

Sa principale limite est un écart significatif avec les modèles frontières en termes de capacités. Mais le signal politique est clair : il est possible de construire une IA ouverte, publique et sans publicité.

L’écosystème européen souverain

L’Europe n’est pas en reste et construit un écosystème souverain substantiel. La France a annoncé 109 milliards d’euros d’investissement IA au Sommet AI Action de février 2025. Mistral (valorisation d’environ 12 milliards d’euros, modèles open-weight, contrats gouvernementaux avec les armées françaises) représente le champion privé européen. Les initiatives nationales se multiplient : PLLuM (Pologne), Alia (Espagne), GPT-NL (Pays-Bas). Le plan “AI Continent” de l’UE prévoit 13 AI Factories connectées aux supercalculateurs EuroHPC.

Le modèle Wikipédia

Le modèle Wikipédia — 25 ans sans publicité, financé par les dons, 15 milliards de pages vues mensuelles — démontre la viabilité d’une infrastructure informationnelle publique. La Fondation Mozilla plaide dans son rapport Public AI (septembre 2024) pour traiter l’IA comme une infrastructure publique, à l’image de la radiodiffusion publique.

Analyse : la balance risques/bénéfices

Pour OpenAI : survie financière contre érosion de la confiance

L’enjeu est existentiel. L’entreprise ne sera pas rentable avant 2030 dans le meilleur des cas, et les 800 millions d’utilisateurs gratuits représentent un coût massif non monétisé. Les projections internes anticipent environ 1 milliard de dollars de revenus publicitaires en 2026, croissant à 25 milliards d’ici 2029.

En revanche, le risque réputationnel est réel. La campagne Super Bowl d’Anthropic a démontré qu’un positionnement anti-publicité résonne auprès du public, et la démission de Zoë Hitzig a ouvert une brèche narrative sur la trajectoire “Facebook-esque” d’OpenAI. Il existe une source — non confirmée à ce stade — suggérant qu’OpenAI aurait déjà dû reculer face à la révolte des utilisateurs. L’analyste Scott Galloway prédit qu’Anthropic vaudra plus qu’OpenAI dans 12 mois. Au vu des déboires d’Anthropic avec le gouvernement américain, rien n’est moins sûr.

Pour les utilisateurs : accès gratuit contre intimité cognitive

La promesse est celle d’un accès gratuit à une IA puissante en échange de l’analyse de conversations parmi les plus intimes qu’un être humain puisse produire. L’activation par défaut de la personnalisation publicitaire, la réduction des limites de messages pour ceux qui refusent les publicités, et le palier Go à 8 $/mois qui affiche néanmoins des publicités constituent des structures incitatives qui contraignent plus qu’elles ne libèrent le choix de l’utilisateur. Le cadre analytique de Shoshana Zuboff sur le capitalisme de surveillance trouve ici une extension qualitative sans précédent : les données conversationnelles de ChatGPT sont incomparablement plus intimes que les likes Facebook ou les recherches Google.

Pour la société : le précédent qui fait école

La question fondamentale est celle du précédent. Si le modèle publicitaire s’impose comme standard de l’industrie IA — OpenAI, puis Google Gemini, puis d’autres —, la dégradation informationnelle que l’on a observée sur les réseaux sociaux pourrait se reproduire à une échelle qualitativement différente. Les cadres réglementaires en préparationDigital Fairness Act, Code de pratique sur le marquage des contenus IA, lettre du sénateur Ed Markey aux PDG technologiques — constituent des signaux politiques, mais leur traduction en normes contraignantes prendra du temps. La fenêtre pour établir des garde-fous avant que les pratiques de l’industrie ne deviennent des standards de facto se referme rapidement.

Opinion : un test civilisationnel que nous sommes en train de rater

Permettez-moi d’être direct.

L’intégration publicitaire dans ChatGPT n’est pas un ajustement de modèle économique. C’est un test sur la capacité des sociétés démocratiques à encadrer la monétisation de l’intimité cognitive — et, pour l’instant, nous le ratons.

Les cadres juridiques existants — LPD, RGPD, DSA, AI Act, CCPA — fournissent des outils insuffisants. Ils ont été conçus pour des plateformes web traditionnelles, pas pour des interfaces conversationnelles que des millions de personnes traitent comme un confident. Le vide réglementaire spécifique à la publicité dans les chatbots IA constitue la lacune la plus urgente à combler.

L’argument d’OpenAI — “nous devons financer l’accès gratuit à l’IA” — n’est pas dénué de pertinence. Mais il repose sur un faux dilemme. L’existence d’Apertus, le modèle coopératif suisse, la vision de Mozilla, le positionnement commercial d’Anthropic, et le simple fait que Wikipédia fonctionne depuis 25 ans sans publicité démontrent que d’autres voies sont possibles. Elles exigent des investissements publics soutenus et une volonté politique — deux ressources dont la rareté n’est pas technique.

L’histoire des réseaux sociaux nous a appris une chose : les promesses d’autorégulation s’érodent systématiquement face aux impératifs commerciaux. Le fait qu’OpenAI ait recruté les architectes du modèle publicitaire de Meta et Google pour construire le sien est, en soi, un programme.

Le Digital Fairness Act attendu au troisième trimestre 2026 pourrait être le dernier moment charnière. Après, il sera trop tard pour empêcher la publicité dans l’IA conversationnelle de devenir la norme — et il ne restera plus qu’à en limiter les dégâts.


Sources principales : article de Ciriello & Backholer dans The Conversation (14 février 2026) ; page officielle d’OpenAI sur la publicité ; centre d’aide OpenAI ; PFPDT, IA et protection des données ; Digital Watch Observatory.