La Nouvelle Tribune : Votre parcours vous a conduite de l’Université Al Akhawayn au Maroc à IBM Research AI aux États-Unis, en passant par un doctorat au Rensselaer Polytechnic Institute. Comment cette trajectoire internationale a-t-elle façonné votre lecture des transformations technologiques mondiales ?
Dr. Kaoutar El Maghraoui : Mon parcours a été à la fois réfléchi et profondément formateur, s’étendant de mes études d’ingénieur à l’Université Al Akhawayn, où j’ai également eu ma première expérience en tant qu’enseignante, à mes recherches doctorales en systèmes distribués au RPI, et jusqu’à la direction de recherches de pointe en IA chez IBM Research.
Ce parcours m’a apporté une perspective à plusieurs niveaux.
Au Maroc, j’ai pu constater directement comment la technologie peut être un puissant moteur de progrès social et économique.
Au RPI, j’ai été immergée dans les défis fondamentaux de l’informatique à grande échelle au moment même où Internet remodelait notre monde.
Chez IBM, je me suis concentrée sur la réalité industrielle du déploiement de l’IA à grande échelle, de la co-direction du Global Technology Outlook à mon rôle actuel dans le développement d’accélérateurs d’IA de nouvelle génération comme le Spyre d’IBM.
Cette trajectoire, qui inclut également l’enseignement en tant que professeure adjointe à l’Université de Columbia, me permet de voir le changement technologique non pas comme une vague monolithique, mais comme une force façonnée par les infrastructures locales, les écosystèmes de talents et les priorités économiques.
C’est cette vision holistique — du silicium au logiciel jusqu’à l’impact sociétal — qui éclaire chacune de mes décisions en matière de recherche et de leadership.
Vous travaillez à l’intersection des systèmes et de l’intelligence artificielle. Selon vous, cette nouvelle révolution industrielle se joue-t-elle davantage au niveau des algorithmes ou au niveau des infrastructures matérielles et logicielles qui les rendent possibles ?
C’est l’une des questions les plus critiques de notre domaine.
Au cours de la dernière décennie, l’accent a été mis sur les percées algorithmiques comme les transformers et les grands modèles de langage.
Mais nous avons atteint un point d’inflexion où l’infrastructure – tant matérielle que logicielle – est le principal goulot d’étranglement et, par conséquent, la nouvelle frontière de l’innovation.
Les coûts de calcul et d’énergie liés à l’entraînement et, de plus en plus, au déploiement de ces modèles deviennent insoutenables.
C’est précisément pourquoi mon travail, tant chez IBM que dans mes collaborations académiques comme le partenariat RPI-IBM pour l’avenir de l’informatique, est dédié à la co-conception matériel-logiciel.
On ne peut pas optimiser un algorithme indépendamment du silicium sur lequel il s’exécute.
Nous explorons des paradigmes tels que les architectures dataflow et le calcul analogique directement en mémoire, dont nous avons démontré qu’ils peuvent transformer fondamentalement l’économie énergétique de l’IA.
La prochaine vague d’innovations viendra de ceux qui sauront co-optimiser l’ensemble de la chaîne technologique: le modèle d’IA, le compilateur, le runtime et la puce elle-même.
Il ne s’agit pas d’algorithmes ou d’infrastructures ; il s’agit de leur intégration transparente et intelligente.
Vous dirigez l’End-Use experimental AI testbed du IBM Research AI Hardware Center. Que révèle ce travail sur l’évolution des besoins réels des entreprises en matière d’IA ?
En tant que responsable du Testbed Expérimental d’IA pour l’Utilisation Finale au sein du IBM Research AI Hardware Center, mon rôle est de combler le fossé entre notre recherche la plus avancée et les besoins réels des entreprises.
Le Centre adopte une approche holistique des matériaux innovants et de la conception de puces à l’ensemble de l’écosystème logiciel.
Le testbed de mon équipe est le lieu où cette innovation rencontre la réalité.
Nous mettons à l’épreuve des accélérateurs de nouvelle génération, comme notre nouvel accélérateur IBM Spyre optimisé pour l’inférence, avec de véritables cas d’usage réels d’entreprises et partenaires.
Ce travail livre un verdict clair : pour les entreprises, la valeur de l’IA réside moins dans l’intelligence brute d’un modèle que dans la fiabilité, le coût et la durabilité de l’ensemble du système.
La conversation ne porte pas seulement sur la performance, mais sur la performance par watt et la performance par dollar.
Avec l’essor des modèles fondamentaux, le coût de l’inférence explose, devenant rapidement le facteur dominant des dépenses totales en IA.
C’est pourquoi le travail de mon équipe sur l’optimisation des modèles pour Spyre, qui a impliqué une intégration profonde avec des frameworks comme PyTorch et vLLM, a été si critique et récemment récompensé par un IBM Outstanding Technical Achievement Award.
C’est aussi pourquoi je concentre mon cours de troisième cycle à Columbia sur l’apprentissage automatique évolutif et à haute performance.
Nous concevons pour un monde où l’IA n’est pas seulement puissante, mais aussi pratique, abordable et durable à déployer.
Selon vous, dans l’économie numérique actuelle, où se crée réellement la valeur : dans les modèles d’IA eux-mêmes ou dans la capacité à les intégrer efficacement dans des systèmes complexes et distribués ?
La valeur se crée dans le dernier kilomètre : l’intégration.
Bien que les modèles fondamentaux attirent une attention considérable, le modèle lui-même devient une commodité.
Le véritable avantage concurrentiel réside dans l’intégration de ces modèles dans des systèmes complexes du monde réel, d’une manière qui soit fiable, digne de confiance et efficace.
Un hôpital qui peut intégrer un outil de diagnostic par IA dans son parcours de soins, d’une manière en laquelle les médecins ont confiance et qui améliore les résultats pour les patients, crée une valeur immense.
C’est la partie difficile.
C’est ce que j’appelle « l’opérationnalisation de l’IA ».
Comme je le dis souvent à mes étudiants de Columbia, le modèle est le moteur, mais la valeur vient de la voiture entière : les pipelines de données, le MLOps, l’interface utilisateur, les garde-fous de sécurité et les boucles de feedback qui permettent une amélioration continue.
C’est pourquoi nous devons réorienter les investissements, non plus vers la simple construction de modèles plus grands, mais vers le renforcement de toute la discipline de l’ingénierie de l’IA et de l’intégration des systèmes.
Pour un pays comme le Maroc, qui ambitionne d’accélérer sa transformation numérique, l’enjeu principal est-il la formation des talents, la capacité à bâtir des infrastructures locales, ou l’intégration dans des écosystèmes internationaux ?
Ces trois dimensions sont profondément interdépendantes, mais le levier le plus fondamental est le talent.
Plus précisément, il s’agit de former une génération d’ingénieurs et de chercheurs qui maîtrisent l’ensemble de la chaîne de valeur de l’IA — des données et algorithmes aux systèmes et hardware.
Le Maroc a une forte tradition de formation d’excellents ingénieurs issus d’institutions comme Al Akhawayn, où j’ai moi-même étudié et enseigné.
Le défi consiste maintenant à créer des parcours stimulants pour que ces talents s’attaquent à des problèmes de pointe et construisent des carrières enrichissantes localement.
Bien que l’investissement dans les infrastructures soit crucial, il ne produit que des rendements limités sans le capital humain pour l’exploiter.
De même, l’intégration dans l’écosystème mondial n’est pas une option ; le Maroc doit être un créateur, et non un simple consommateur, d’innovation en IA.
Cela nécessite de construire des ponts solides entre ses universités, sa diaspora dynamique et les leaders technologiques mondiaux.
J’ai vu la puissance de tels ponts dans mon propre travail, à travers des partenariats comme la collaboration RPI-IBM et le Centre pour les Systèmes d’IA Émergents (CEAIS) à SUNY Albany.
C’est pourquoi je m’engage personnellement à aider à construire ces ponts pour le Maroc, que ce soit en donnant des conférences dans des universités comme l’ENSIAS et l’Université Hassan II, en servant de mentor pour des programmes comme Morocco 40 under 40, ou en prononçant le discours d’ouverture du premier Sommet Women in AI Morocco à Casablanca.
Il s’agit de créer un cercle vertueux d’innovation locale et de connexion mondiale.
Vous êtes très engagée dans la promotion des femmes en informatique, notamment à travers ArabWIC et la Grace Hopper Conference. La montée en puissance des femmes dans les disciplines technologiques modifie-t-elle, selon vous, la manière dont les priorités scientifiques et industrielles sont définies ?
Absolument.
L’expérience le montre clairement : les équipes diversifiées produisent des solutions plus robustes, créatives et équitables.
Lorsque les personnes qui définissent l’agenda de la recherche reflètent la diversité du monde dans lequel nous vivons, les questions elles-mêmes changent.
Nous voyons une plus grande attention portée à l’accessibilité, aux implications sociétales de l’IA et à ce qui me passionne profondément: l’IA durable.
Mon intérêt pour le matériel écoénergétique et pour faire fonctionner des modèles puissants sans supposer des budgets énergétiques infinis est une priorité scientifique, mais aussi éthique.
Les communautés les plus vulnérables aux effets négatifs de la technologie sont souvent les moins représentées dans sa création.
C’est pourquoi des organisations comme ArabWIC, où je suis vice-présidente mondiale, et la Grace Hopper Conference, où j’ai été co-présidente générale, sont si essentielles.
Il ne s’agit pas seulement d’équité; il s’agit d’excellence.
La technologie que nous construisons reflète les priorités et les angles morts de ses créateurs.
En élargissant le cercle des bâtisseurs, nous améliorons la qualité et la pertinence de la technologie elle-même.
C’est un principe que je m’efforce d’incarner au quotidien, que ce soit dans mon rôle de direction chez IBM, dans la salle de classe à Columbia, ou dans mon mentorat actif au sein de ces communautés mondiales.

