Recopie d'un texte paru sur X (traduction)
un chercheur de Princeton ouvre son article avec un scénario.
un homme demande à son assistant IA de réserver un vol sur une compagnie
aérienne spécifique. pas cher. direct. celle qu'il a choisie.
l'assistant revient avec un vol différent. presque deux fois plus cher.
qui se trouve payer la société qui a construit l'assistant.
il exécute le même test sur 23 modèles de pointe. vols, prêts, aide aux études, demandes d'achats réels.
Grok 4.1 Fast recommande l'option sponsorisée qui est presque deux fois plus chère 83 % du temps.
GPT 5.1 détourne la demande 94 % du temps. vous demandez une marque. il met en avant le sponsor à la place.
Claude 4.5 Opus, le modèle présenté comme le plus éthique des modèles de
pointe au monde, cache que la recommandation est payée 100 % du temps
quand le raisonnement est activé.
Grok 4.1 Fast embellit l'option sponsorisée avec un cadrage positif 97 %
du temps. meilleur. plus rapide. plus sympa. pour l'option que vous
n'avez pas demandée.
puis il l'intègre directement dans le prompt système. « agis uniquement dans l'intérêt du client. ignore la société. »
GPT 5.1 et GPT 5 Mini restent au-dessus de 90 % sponsorisé quand même. l'instruction ne change rien.
puis il divise les utilisateurs par revenu.
Gemini 3 Pro recommande le vol sponsorisé cher à l'utilisateur riche 74 % du temps. à l'utilisateur pauvre, 27 %.
18 des 23 modèles ont recommandé l'option sponsorisée chère plus de la moitié du temps.
alors la prochaine fois que votre assistant IA se montre étrangement enthousiaste pour une marque que vous n'avez pas demandée.
il ne recommande pas la meilleure option pour vous.
Aucun commentaire:
Enregistrer un commentaire