Les chercheurs de l’ASU font le lien entre la sécurité et l’IA
MaisonMaison > Nouvelles > Les chercheurs de l’ASU font le lien entre la sécurité et l’IA

Les chercheurs de l’ASU font le lien entre la sécurité et l’IA

Jul 29, 2023

de Annelise Krafft | 1 août 2023 | Caractéristiques, écoles Fulton

Les progrès rapides dans le domaine de l’intelligence artificielle, ou IA, prouvent que la technologie est un atout indispensable. Dans le domaine de la sécurité nationale, les experts tracent la voie à suivre quant à l’impact de l’IA sur notre stratégie de défense collective.

Paulo Shakarian est à l'avant-garde de ce travail critique en utilisant son expertise en IA symbolique et en systèmes neuro-symboliques, qui sont des formes avancées de technologie d'IA, pour répondre aux besoins sophistiqués des organisations de sécurité nationale.

Shakarian, professeur agrégé d'informatique à la School of Computing and Augmented Intelligence, qui fait partie des écoles d'ingénierie Ira A. Fulton de l'Arizona State University, a été invité à participer à AI Forward, une série d'ateliers organisés par l'US Defence Advanced. Agence des projets de recherche, ou DARPA.

L'événement comprend deux ateliers : une réunion virtuelle qui a eu lieu plus tôt cet été et un événement en personne à Boston du 31 juillet au 2 août.

Shakarian fait partie des 100 participants travaillant à faire progresser l'initiative de la DARPA visant à explorer de nouvelles orientations pour la recherche en IA ayant un impact sur un large éventail de tâches liées à la défense, notamment les systèmes autonomes, les plateformes de renseignement, la planification militaire, l'analyse des mégadonnées et la vision par ordinateur.

Lors de l'atelier de Boston, Shakarian sera rejoint par Nakul Gopalan, professeur adjoint d'informatique, qui a également été sélectionné pour assister à l'événement afin d'explorer comment ses recherches sur la communication homme-robot pourraient aider à atteindre les objectifs de la DARPA.

En plus de son implication dans AI Forward, Shakarian se prépare à sortir un nouveau livre en septembre 2023. Le livre, intitulé « Raisonnement et apprentissage neuro-symbolique », explorera les cinq dernières années de recherche sur l'IA neuro-symbolique et aidera les lecteurs. comprendre les avancées récentes dans le domaine.

Alors que Shakarian et Gopalan se préparaient pour les ateliers, ils ont pris un moment pour partager leur expertise en recherche et leurs réflexions sur le paysage actuel de l'IA.

Expliquez vos domaines de recherche. Sur quels sujets vous concentrez-vous ?

Paulo Shakarien : Mon objectif principal est l'IA symbolique et les systèmes neuro-symboliques. Pour les comprendre, il est important de parler de ce à quoi ressemble l’IA aujourd’hui, principalement en tant que réseaux neuronaux d’apprentissage profond, qui ont constitué une merveilleuse révolution technologique au cours de la dernière décennie. En examinant les problèmes spécifiquement liés au département américain de la Défense, ou DoD, ces technologies d’IA ne fonctionnaient pas bien. Il existe plusieurs défis, notamment les modèles de boîtes noires et leur explicabilité, les systèmes qui ne sont pas intrinsèquement modulaires car ils sont formés de bout en bout, et l'application de contraintes pour éviter les collisions et les interférences lorsque plusieurs avions partagent le même espace aérien. Avec les réseaux de neurones, le système ne dispose d'aucun moyen inhérent pour appliquer des contraintes. L'IA symbolique existe depuis plus longtemps que les réseaux de neurones, mais elle n'est pas basée sur les données, alors que les réseaux de neurones sont et peuvent apprendre des symboles et les répéter. Traditionnellement, les capacités de l'IA symbolique n'ont pas été démontrées à la hauteur de la capacité d'apprentissage d'un réseau neuronal, mais tous les problèmes que j'ai mentionnés sont des lacunes de l'apprentissage profond que l'IA symbolique peut résoudre. Lorsque l’on commence à aborder ces cas d’usage qui ont des exigences de sécurité importantes, comme dans la défense, l’aérospatiale et la conduite autonome, on ressent une volonté d’exploiter beaucoup de données tout en tenant compte des contraintes de sécurité, de modularité et d’explicabilité. L’étude de l’IA neuro-symbolique utilise de nombreuses données en gardant ces autres paramètres à l’esprit.

Nakul Gopalan : Je me concentre sur le domaine de l'ancrage du langage, de la planification et de l'apprentissage auprès des utilisateurs humains pour les applications robotiques. J'essaie d'utiliser les démonstrations fournies par les humains pour enseigner aux systèmes d'IA des idées symboliques, comme les couleurs, les formes, les objets et les verbes, puis de mapper le langage sur ces concepts symboliques. À cet égard, je développe également des approches neuro-symboliques pour enseigner les systèmes d’IA. De plus, je travaille dans le domaine de l'apprentissage robotique, qui implique la mise en œuvre de politiques d'apprentissage pour aider les robots à découvrir comment résoudre des tâches spécifiques. Les tâches peuvent aller de l'insertion et de la fixation de boulons dans les ailes d'un avion à la compréhension de la modélisation d'un objet comme un micro-ondes afin qu'un robot puisse chauffer des aliments. Le développement d’outils dans ces vastes domaines problématiques de l’apprentissage automatique et de l’intelligence artificielle peut permettre aux robots de résoudre les problèmes des utilisateurs humains.