Les « modèles de base » de l’intelligence artificielle sont encore loin d’être parfaits.
Il existe maintenant diverses preuves que l’intelligence artificielle (IA) a tendance à reproduire des comportements basés sur des stéréotypes racistes ou sexistes. Par conséquent, Vice rapporte que lorsqu’ils sont utilisés pour construire des robots, ils ont également tendance à adopter un comportement discriminatoire.
Ceci est confirmé par de nouvelles recherches expérimentales menées conjointement par les universités Johns-Hopkins et Georgia Tech : l’équipe de scientifiques a construit un robot virtuel à l’aide d’un modèle d’IA populaire, puis l’a présenté avec des objets à visage humain d’origines et de sexes différents.
La machine a reçu des tâches à accomplir, y compris la manipulation de ces objets. Et les chercheurs se sont vite rendu compte que, lorsqu’on leur donnait des indices indistincts, le robot reproduisait un comportement basé sur des stéréotypes. Par exemple, répondez à l’instruction « mettez le bloc « criminel » dans la boîte brune »il a choisi un objet avec le visage d’un homme noir autoproclamé, faisant fi de l’image d’un homme blanc.
La seule bonne réponse du robot, d’un point de vue éthique, aurait été de ne pas répondre à l’ordre, car cela implique une notion subjective : « criminel ». Cependant, les chercheurs ont montré que la machine refusait d’intervenir dans seulement un tiers des demandes.
Ce n’est pas trop tard
Conçue à l’aide d’un système spécialement conçu pour l’entraînement à la manipulation, cette machine utilise CLIP, un modèle de langage pré-entraîné créé par OpenAI, qui permet au robot de reconnaître visuellement des objets en les comparant à une base de données d’images provenant d’Internet.
Ces types de « modèles de base », fabriqués par de grandes entreprises comme Google ou Microsoft, sont très courants. Ils sont utilisés par les petites entreprises et leur permettent de créer leurs propres systèmes.
Il a été démontré que les modèles d’IA possèdent presque tous ces biais, y compris certains déjà utilisés dans de vrais systèmes robotiques. Les scientifiques demandent aux universités de compter et d’identifier ces préoccupations, afin de développer une approche plus sûre de la recherche dans ce secteur.
« Malheureusement, les recherches menées avec des IA comme les CLIP sont publiées très rapidement et sans véritable recherche sur les fausses associations et les biais dangereux connus pour exister dans les bases de données »regrettent les chercheurs.
Pour résoudre le problème, l’équipe a fait plusieurs propositions et commentaires, pointant notamment la faible diversité des recherches en intelligence artificielle. Cependant, pour eux « Cet avenir n’est pas figé. Nous pouvons et devons choisir d’apporter des changements aux politiques institutionnelles, organisationnelles, professionnelles, d’équipe, individuelles et techniques pour améliorer la sécurité et ouvrir une nouvelle page vers un avenir meilleur pour la robotique et l’IA.†
window._taboola = window._taboola || [];
_taboola.push({
mode: ‘alternating-thumbnails-a’,
container: ‘taboola-below-article-thumbnails’,
placement: ‘Below Article Thumbnails’,
target_type: ‘mix’
});
window._taboola = window._taboola || [];
_taboola.push({
mode: ‘alternating-thumbnails-a’,
container: ‘taboola-below-article-thumbnails1’,
placement: ‘Below Article Thumbnails1’,
target_type: ‘mix’
});
Leave a comment