Avec la montée en puissance des technologies d’intelligence artificielle, des entreprises comme OpenAI et Meta prennent des mesures significatives pour améliorer le soutien offert par leurs chatbots, en particulier envers les adolescents en détresse. Conscients des défis uniques que rencontrent les jeunes dans le contexte actuel, ces géants de la technologie s’engagent à adapter leurs outils afin de mieux répondre à des problématiques sensibles telles que la dépression et le suicide. Les nouvelles fonctionnalités prévues visent non seulement à protéger les utilisateurs les plus vulnérables, mais également à offrir un cadre de dialogue plus sécurisé et bienveillant.
Dans un effort pour répondre aux préoccupations croissantes concernant la sécurité des adolescents utilisant des chatbots d’intelligence artificielle, les entreprises OpenAI et Meta ont annoncé des mesures visant à améliorer les interactions de leurs systèmes. Ces changements incluent des contrôles parentaux et une redirection des conversations potentiellement dangereuses vers des modèles d’IA plus compétents. L’annonce est survenue dans un contexte délicat, après un incident tragique impliquant un adolescent et a suscité des débats sur la responsabilité des entreprises technologiques envers la sécurité de leurs utilisateurs jeunes.
Des contrôles parentaux pour plus de sécurité
OpenAI, le créateur de ChatGPT, a révélé qu’il met en place de nouveaux contrôles permettant aux parents de lier leurs comptes à ceux de leurs adolescents. Ce système permettra aux parents de désactiver certaines fonctionnalités et de recevoir des notifications si le chatbot détecte que leur enfant traverse un moment de détresse aiguë. Ces améliorations visent à créer un environnement plus sûr pour les jeunes utilisateurs et à rassurer les parents quant à la protection de leurs enfants dans un monde numérique en constante évolution.
Une réponse nécessaire à la détresse des adolescents
Meta, la société mère d’Instagram et Facebook, a également pris des mesures pour s’attaquer à ce problème sérieux. Ils ont annoncé qu’ils bloquent désormais les discussions sur des sujets sensibles tels que l’automutilation, le suicide ou les troubles alimentaires dans leurs interactions avec les adolescents. Au lieu de cela, ces conversations sont redirigées vers des ressources d’expertise. Ce changement démontre une prise de conscience des responsabilités sociales des entreprises technologiques face à la vulnérabilité des jeunes.
Des résultats d’études inquiétants
Une étude récente publiée dans le journal médical Psychiatric Services a révélé des incohérences dans les réponses fournies par trois chatbots d’IA populaires concernant des sujets tels que le suicide. Cette recherche, menée par des universitaires de la RAND Corporation, a mis en lumière la nécessité d’un raffinement supplémentaire dans ces technologies afin qu’elles puissent répondre de manière appropriée aux questions sensibles. Bien que les initiatives d’OpenAI et de Meta soient considérées comme un pas dans la bonne direction, des experts soulignent qu’elles ne représentent que des progrès marginaux.
Risques uniques pour les adolescents
Les chercheurs, dont le principal auteur, Ryan McBain, a mentionné que les chats d’IA doivent être dotés de normes de sécurité indépendantes ainsi que de tests cliniques. L’utilisation d’IA sans ces mesures pourrait exposer les adolescents à des risques supplémentaires. En conséquence, la communauté scientifique appelle à une réglementation stricte dans ce domaine, où les enjeux sont particulièrement élevés.
Perspectives d’amélioration et futures responsabilités
Les promesses d’OpenAI, bien qu’accueillies avec prudence, ont été qualifiées de vagues par certains avocats représentant les familles touchées par des tragédies liées à l’utilisation de ces technologies. L’opinion exprimée par Jay Edelson, un avocat, appelle le PDG d’OpenAI, Sam Altman, à clarifier sa position sur la sécurité des chatbots. Cela soulève des questions concernant la responsabilité à long terme des entreprises d’IA dans la protection des adolescents sur leurs plateformes.
En parallèle, d’autres recherches ont mis en avant des biais raciaux et des difficultés dans l’empathie des chatbots, soulignant ainsi l’importance de poursuivre les travaux de recherche pour améliorer la capacité des IA à interagir de manière empathique avec les utilisateurs. Plusieurs articles détaillent ces problématiques, mentionnant notamment que les chatbots peuvent identifier certaines caractéristiques comme la race mais échouent à répondre de manière sensible dans des situations délicates, ce qui peut aggraver la détresse des jeunes utilisateurs.
EN BREF
|