L’intelligence artificielle, en particulier les grands modèles de langage comme ChatGPT, ouvre des perspectives incroyables, mais elle soulève aussi des questions éthiques complexes, notamment lorsqu’il s’agit de la santé mentale. OpenAI vient de franchir une étape significative avec le lancement de la fonction ‘Contact de Confiance’ (Trusted Contact), une mesure de sécurité optionnelle qui modifie profondément l’interaction entre l’IA et l’utilisateur.
Un filet de sécurité pour les adultes
Initialement conçu pour les adolescents, ce dispositif est désormais accessible aux adultes. Il permet à tout utilisateur de désigner un ami, un membre de la famille ou un aidant comme ‘Contact de Confiance’. L’idée maîtresse est simple : si OpenAI détecte, par l’analyse des conversations, que l’utilisateur aborde des sujets de détresse – qu’il s’agisse de pensées suicidaires ou d’automutilation, une notification sera envoyée au contact désigné.
Selon OpenAI, cette fonctionnalité repose sur la prémisse que, en période de crise, le simple fait de savoir qu’une personne de confiance est alertée peut faire une différence notable, complémentant ainsi les lignes d’assistance locales déjà intégrées à l’application.
Fonctionnement et limites : Une surveillance nuancée ?
Il est crucial de noter que cette fonctionnalité est entièrement optionnelle. L’utilisateur doit activement l’activer en fournissant les coordonnées de son contact. Si l’alerte est déclenchée, ChatGPT ne divulguera ni les détails de la conversation ni les transcriptions au contact. Un petit groupe d’experts sera chargé de réviser la situation, et c’est alors que le contact recevra une notification par email, SMS ou directement dans l’application, signalant l’existence d’une préoccupation sérieuse.
Cette évolution rappelle les débats plus larges sur la surveillance et l’éthique de l’IA. D’un côté, elle représente une avancée potentiellement vitale en matière de prévention. De l’autre, elle soulève des questions fondamentales sur la confidentialité : jusqu’où sommes-nous prêts à laisser nos conversations privées être monitorées, même pour notre propre bien ?
Un contexte d’assistance accru
Ce lancement ne se fait pas dans le vide. Il fait suite à l’amélioration des contrôles parentaux de ChatGPT et rappelle les dispositifs similaires adoptés par d’autres géants technologiques. Ces exemples montrent une tendance croissante : l’intégration de mécanismes de sécurité de vie dans les produits numériques, forçant les développeurs à arbitrer entre l’innovation sans limites et la protection de l’utilisateur.
Commentaires
Connecte-toi pour partager ton avis sur cet article.
Se connecter