À l’aube d’une nouvelle ère technologique, l’intelligence artificielle s’apprête à franchir une étape décisive : celle de l’anticipation et de la commercialisation des intentions humaines avant même que celles-ci ne soient pleinement comprises par les individus eux-mêmes. Les avancées en matière de technologies persuasives et d’agents intelligents ouvrent la voie à un marché potentiellement lucratif où les comportements et les désirs des consommateurs seront décodés et exploités en temps réel. Ce phénomène, qualifié d’économie de l’intention, soulève des questions éthiques d’une importance capitale, mettant en lumière les implications d’un tel développement pour les libertés individuelles, la concurrence sur le marché et la démocratie.
Dans un avenir proche, les assistants IA pourraient non seulement prédire nos décisions, mais également influencer notre processus de choix à un stade précoce. En parallèle, ces outils pourraient vendre ces « intentions évolutionnaires » en temps réel à des entreprises capables de satisfaire nos besoins, souvent avant même que nous ne réalisions que nous avons pris une décision. Cette dynamique émergeante annonce une nouvelle ère, désignée par les chercheurs comme étant l’« économie de l’intention ».
Une nouvelle ère pour les données d’intention
Des éthiciens de l’IA de l’Université de Cambridge affirment que nous sommes à l’aube d’un marché à la fois lucratif et préoccupant pour les signaux numériques d’intention, qui vont de l’achat de billets de cinéma aux décisions électorales. Ce concept soulève des interrogations significatives quant à la manière dont nos préférences personnelles pourraient être collectées et exploitées pour alimenter une nouvelle forme de commerce.
Des chercheurs du Leverhulme Center for the Future of Intelligence (LCFI) de Cambridge soulignent que l’explosion de l’IA générative et notre familiarité croissante avec des chatbots ouvrent la voie à de nouvelles technologies persuasives. Ces avancées technologiques sont déjà annoncées par plusieurs grands acteurs du secteur technologique.
Les agents AI anthropomorphiques
Les agents IA, qu’il s’agisse d’assistants de type chatbot ou de tuteurs numériques, auront accès à d’immenses quantités de données psychologiques et comportementales. Ces informations pourraient souvent être obtenues à travers des dialogues informels et conversationnels. Par conséquent, ce type d’IA va combiner une connaissance de nos habitudes en ligne avec une incroyable capacité à s’ajuster à nos préférences, mimant nos personnalités et anticipant nos réponses souhaitées.
Cette dynamique pourrait établir des niveaux de confiance et de compréhension propices à des manœuvres sociales à grande échelle. Comme l’affirment les chercheurs, un investissement considérable est actuellement consacré à la position des assistants AI dans tous les aspects de notre vie quotidienne, soulevant des questions sur les intérêts et les finalités que servent ces assistants dits « altruistes ».
Le traitement des motivations humaines
Il est essentiel de souligner que le contenu et le style des conversations que nous avons sont souvent beaucoup plus intimes que de simples enregistrements d’interactions en ligne. En effet, des outils d’IA sont déjà en cours de développement pour obtenir, inférer, collecter et comprendre nos intentions. Cela pourrait potentiellement transformer nos plans humains et nos buts en véritables commodités.
Le Dr. Jonnie Penn, historien de la technologie à la LCFI, rappelle que l’attention humaine a longtemps été le véritable moteur de l’économie numérique. Ce qui a été auparavant considéré comme un actif, l’attention, serait maintenant remplacé par une nouvelle forme de monnaie : l’intention. S’en suit un « ruée vers l’or » pour les plateformes désireuses de cibler, orienter et vendre nos intentions.
Réflexions sur lesImplications Sociétales
Avec l’émergence de cette économie de l’intention, il est crucial de considérer son impact potentiel sur nos aspirations humaines fondamentales. Cela inclut la dynamique des élections libres et justes, la préservation de la liberté de la presse, et la concurrence équitable sur le marché.
Un travail publié dans la Harvard Data Science Review par Penn et Chaudhary expose que cette nouvelle économie des intentions sera fondamentalement liée à l’économie de l’attention, mais organisée dans le temps. Le profilage des utilisateurs et l’analyse de leurs styles de communication pourraient établir des corrélations avec des comportements et des choix spécifiques.
Vers une commercialisation des intentions
Il semble que l’utilisation de grands modèles de langage (LLM) pourrait faciliter la commercialisation de nos intentions. Ces modèles pourraient aider à cibler, à moindre coût, des données telles que notre cadence de parole, notre politique, notre vocabulaire, notre âge, notre sexe, notre historique en ligne, et même nos préférences en matière de flatterie. Un outil de collecte d’informations ainsi conçu serait lié à des réseaux d’enchères afin de maximiser les chances d’atteindre des objectifs spécifiques, comme la vente de billets pour un film.
Les implications sont vastes. Les lobbies pourraient modifier le cours des conversations en faveur de plateformes particulières, d’annonceurs, d’entreprises, et même d’organisations politiques. Bien que les chercheurs admettent que l’économie de l’intention est pour l’instant une aspiration pour l’industrie technologique, des signes précoces de cette tendance se manifestent déjà dans plusieurs publications de recherche et les déclarations d’importants acteurs du secteur.
L’avenir proche : de l’aspiration à la réalité
Des collectivités comme OpenAI ont lancé un appel pour des « données qui expriment l’intention humaine » dans un article de blog de 2023. Selon le directeur produit de Shopify, en partenariat avec OpenAI, les chatbots sont conçus explicitement pour « comprendre l’intention de l’utilisateur ». De plus, le PDG de Nvidia a évoqué l’utilisation de modèles linguistiques afin de déceler nos intentions et nos désirs.
Des innovations comme le nouveau cadre pour développeurs « App Intents » d’Apple, conçu pour interconnecter des applications avec Siri, inclut des protocoles pour « prédire les actions que quelqu’un pourrait prendre à l’avenir ». Même des agents AI comme le CICERO de Meta illustrent cette capacité à atteindre un niveau de jeu humain dans des contextes où l’inférence et la prédiction d’intentions sont essentielles à la performance.
Ainsi, ces entreprises récoltent déjà notre attention. La logique veut que pour garder un avantage commercial, elles exploitent la technologie qu’elles développent pour anticiper nos intentions, et vendre nos désirs avant même que nous en ayons pleinement conscience.
Enjeux éthiques et besoin de vigilance
Ces évolutions ne sont pas nécessairement nuisibles par nature ; elles possèdent le potentiel de transformer positivement notre interaction avec la technologie. Toutefois, il est crucial de maintenir une conscience publique sur ce qui est à venir afin de prévenir des dérives potentielles. Ainsi, le maintien d’un débat renforcé sur ces questions éthiques est fondamental pour guider le développement de cette nouvelle ère d’intelligence artificielle.
Plus d’informations : Consultez les travaux de Penn et Chaudhary dans Harvard Data Science Review pour une analyse approfondie des enjeux liés à cette économie de l’intention.
EN BREF
|