Alice Coucke – Senior Machine Learning Scientist chez Snips

Qui ? Alice Coucke

Mission ? Senior Machine Learning Scientist chez Snips

La Phrase ?  » Il est fondamental que les chercheurs.ses en intelligence artificielle veillent à travailler de manière transdisciplinaire et multiculturelle. »

Vous êtes diplômée de l’Ecole Normale Supérieure, comment décririez-vous cette formation ?

Je suis physicienne de formation et ai étudié pendant six années à l’École Normale Supérieure à Paris. L’ENS délivre une formation « par la recherche » très particulière, peu importe la carrière professionnelle choisie ensuite par les étudiants. Elle valorise également la liberté intellectuelle et l’interdisciplinarité. Je m’y suis passionnée pour des sujets très divers, en très grande liberté, en me concentrant sur l’approfondissement de mes connaissances plutôt que sur les débouchés de carrière et c’est quelque chose qui a été très important pour moi a posteriori. 

Comme 80% des étudiants à l’ENS, j’ai commencé une thèse de doctorat que j’ai vécue comme l’aboutissement de ma formation. Je ne regrette pas une seconde d’avoir pris ce temps-là pour moi, même si aujourd’hui j’ai quitté le monde académique. Faire un doctorat, c’est devenir expert.e dans un domaine et repousser les limites de la connaissance sur un sujet donné. C’est à la fois très dur et très gratifiant ; on y apprend énormément sur soi. Les entreprises s’en rendent compte et le doctorat est extrêmement valorisé dans le domaine de l’intelligence artificielle.

Pouvez-vous nous dire ce qu’est le métier de Senior Machine Learning Scientist ? Qu’est-ce qui vous a amené à vous intéresser à l’Intelligence Artificielle ?

Je me suis d’abord passionnée pour la physique théorique parce que j’appréciais particulièrement le côté très mathématique et abstrait de cette branche de la physique. Cependant, j’ai assez vite eu envie d’étudier des objets plus tangibles que les trous noir et surtout j’ai ressenti le besoin de voir des applications plus directes à mon travail. La physique statistique – ou l’étude de systèmes comportant un grand nombre d’objets – semblait faite pour moi, appliquant de belles théories mathématiques à des sujets plus concrets comme les réseaux d’interactions ou la biologie. C’est en travaillant sur des problèmes d’apprentissage statistique en génomique que j’ai « rencontré » l’intelligence artificielle.

Aujourd’hui, je suis « senior machine learning scientist » chez Snips, une start-up parisienne qui développe une plateforme de reconnaissance vocale. J’ai commencé par travailler sur la compréhension automatique du langage naturel, et j’y ai d’ailleurs trouvé énormément de similarités avec les séquences de protéines que j’avais étudiées en thèse : on peut les voir comme des mots, mais dans un alphabet différent, celui des acides aminés. Mon travail consiste à garder un pied dans le monde académique en suivant l’état de l’art dans le domaine de la reconnaissance vocale tout en relevant les défis posés par l’application pratique et directe de ces méthodes dans notre produit. 

Pouvez-vous nous expliquer ce que sont les biais cognitifs et en quoi ils sont dangereux ?

Il faut savoir que les données sont un élément central de l’intelligence artificielle. Pour entraîner des algorithmes de deep learning (apprentissage profond) il en faut d’énormes quantités — des millions de photos d’êtres humains pour un algorithme de reconnaissance faciale, par exemple. Mais ces données ont tout pouvoir : l’IA est aussi intelligente que la data sur laquelle elle a été entraînée. Si un jeu de données contient des biais, alors l’algorithme les reproduira. Par exemple, il a été montré que les algorithmes de reconnaissance faciale — très bons en général — voient leur performance varier fortement selon la catégorie de population concernée. Selon une étude de la chercheuse Joy Buolamwini du MIT, on passe de moins d’1% d’erreur pour les hommes blancs à 35% de mauvaise classification pour les femmes noires. Et ce n’est pas parce que l’IA est devenue raciste subitement, mais parce que les jeux de données utilisés pour entraîner ces algorithmes reproduisent les biais sexistes et racistes de la société : la sous-représentation des femmes en général et des femmes noires en particulier.

Comme le souligne Fei-Fei Li chercheuse en IA à l’université de Stanford, l’IA, peut-être plus que les autres technologies, reflète les gens qui l’ont construite. Et c’est aussi pour cela qu’il est fondamental que les chercheurs.ses en intelligence artificielle veillent à travailler de manière transdisciplinaire et multiculturelle.

Alice Coucke a participé au 5ème Rendez-Vous de l’Inspiration organisé par Brains Agency et labellisé par Les Femmes de l’ESR. Vous pouvez retrouver son intervention :