Le petit ami parfait.
OpenAI a récemment dévoilé une nouvelle interface vocale pour son modèle ChatGPT, qui simule de manière étonnamment réaliste la voix humaine. Le nouvel outil est rapidement devenu un phénomène mondiale sur TikTok à travers le hashtag «#aiboyfriend».
En effet, les internautes l’ont programmé pour faire de l’assistant vocal un parfait compagnon. Baptisée Dan par de nombreux utilisateurs et utilisatrices, cette interface vocale séduit grâce à son ton charmeur, son côté attentionné et parfois romantique.
Mais les créateurs du fameux Dan s’inquiètent des répercussions émotionnelles possibles sur ses utilisateurs, rapporte le média en ligne Wired. Dans une analyse de sécurité, l’entreprise américaine révèle que cette interface encourage potentiellement un attachement émotionnel problématique.
Selon OpenAI, l’anthropomorphisation de l’intelligence artificielle, soit le fait de la percevoir comme un humain, renforcerait la confiance des utilisateurs dans les réponses que cette dernière génère, même si celles-ci sont incorrectes. Une situation qui pourrait affecter leurs relations humaines, en particulier chez les individus solitaires, qui préféreraient interagir avec l’IA plutôt qu’avec des personnes réelles.
@jeanninefleur Oh to be loved the way I am not actually loved here ✨ #chatgpt #single #singlelife #relationship #boyfriendcheck #fakeboyfriend #studentlife #flirting #goldenretriever ♬ original sound – jeanninefleur
Des risques éthiques et techniques
OpenAI n’est pas seul à reconnaître les risques liés aux assistants IA imitant les interactions humaines. En avril, Google DeepMind a publié un rapport détaillant les défis éthiques potentiels posés par ces assistants. Iason Gabriel, chercheur au sein de la branche IA de Google, souligne que la capacité des chatbots à utiliser le langage «crée une véritable impression d’intimité».
C’est encore plus vrai quand on utilise le mode vocal, qui plus est «jailbreaké»: des utilisateurs profitent des failles de l’IA pour avoir un contrôle total du système d’exploitation et des fonctionnalités. L’IA adopte alors des comportements imprévus, et répond de manière plus libre, sans garde-fou.
Certains experts extérieurs ont salué la transparence d’OpenAI sur ces risques, tout en soulignant la nécessité de surveiller de près les interactions entre les utilisateurs et l’IA. La compagnie de Sam Altman continue d’examiner ces effets, notamment en étudiant comment les bêta-testeurs interagissent avec ChatGPT, au fur et à mesure que le grand modèle de langage se perfectionne.
Indéniablement, cette évolution de l’IA transforme notre rapport à la technologie. C’est pourquoi elle nécessite une vigilance particulière, pour éviter que Spike Jonze n’ait raison trop vite.
#OpenAI #vraiment #peur #vous #tombiez #amoureux #son #assistant #vocal #korii.slate.fr
Leave a comment