Cette semaine, des chercheurs ont découvert une méthode d’IA qui pourrait permettre aux attaquants de suivre les mouvements de robots télécommandés, même si les communications des robots sont cryptées de bout en bout. Les co-auteurs, qui sont de l’Université de Strathclyde à Glasgow, ont déclaré que leur étude montre que l’application des meilleures pratiques de cyber sécurité ne suffit pas pour arrêter les attaques contre les systèmes autonomes.
Le contrôle à distance, ou téléopération, promet de permettre aux opérateurs de contrôler à distance un ou plusieurs robots dans une gamme d’environnements. Des startups comme Pollen Robotics, Beam et Tortoise ont démontré l’utilité des robots téléopérés dans les épiceries, les hôpitaux et les bureaux.
D’autres entreprises développent des robots télécommandés pour des tâches telles que l’enlèvement de bombes ou l’arpentage de sites à haut rayonnement. Mais de nouvelles recherches montrent que la téléopération, même lorsqu’elle est supposée “sûre”, est risquée car elle est vulnérable à la surveillance.
Dans un article, les co-auteurs de Strathclyde décrivent comment ils utilisent un réseau de neurones pour obtenir des informations sur les opérations effectuées par un robot télécommandé. Après avoir collecté des échantillons du trafic protégé par TLS entre le robot et le contrôleur et effectué une analyse, ils ont constaté que le réseau de neurones identifie le mouvement environ 60% du temps, ainsi que les “opérations de stockage” (par exemple, la prise de colis) avec une “exactitude élevée”.
Une nouvelle étude de chercheurs de Google et de l’Université du Michigan est alarmante d’une manière moins immédiate. Elle a examiné les relations des gens avec les systèmes alimentés par l’IA dans les pays où la législation est faible et “l’optimisme national” pour l’IA.
Le travail a sondé les utilisateurs indiens “financièrement stressés” de plateformes de prêt instantané qui ciblent les emprunteurs avec des prêts déterminés par l’IA de modélisation des risques. Selon les co-auteurs, les utilisateurs se sentaient redevables des “bénédictions” des prêts instantanés et de l’obligation d’accepter des conditions strictes, de partager des données sensibles et de payer des frais élevés. Les chercheurs affirment que les résultats illustrent la nécessité d’une plus grande “responsabilité algorithmique”, en particulier en ce qui concerne l’IA dans les services financiers.
“Nous soutenons que la responsabilité est façonnée par l’équilibre des pouvoirs entre la plate-forme et l’utilisateur, et exhortons les décideurs à adopter une approche purement technique pour promouvoir la responsabilité algorithmique”, ont-ils écrit.
“Au lieu de cela, nous appelons à des interventions situationnelles qui responsabilisent les utilisateurs, permettent une transparence significative, reconfigurent les relations concepteur-utilisateur et incitent les praticiens à s’engager dans une réflexion critique vers une responsabilité plus large”.
Le contrôle à distance, ou téléopération, promet de permettre aux opérateurs de contrôler à distance un ou plusieurs robots dans une gamme d’environnements. Des startups comme Pollen Robotics, Beam et Tortoise ont démontré l’utilité des robots téléopérés dans les épiceries, les hôpitaux et les bureaux.
D’autres entreprises développent des robots télécommandés pour des tâches telles que l’enlèvement de bombes ou l’arpentage de sites à haut rayonnement. Mais de nouvelles recherches montrent que la téléopération, même lorsqu’elle est supposée “sûre”, est risquée car elle est vulnérable à la surveillance.
Dans un article, les co-auteurs de Strathclyde décrivent comment ils utilisent un réseau de neurones pour obtenir des informations sur les opérations effectuées par un robot télécommandé. Après avoir collecté des échantillons du trafic protégé par TLS entre le robot et le contrôleur et effectué une analyse, ils ont constaté que le réseau de neurones identifie le mouvement environ 60% du temps, ainsi que les “opérations de stockage” (par exemple, la prise de colis) avec une “exactitude élevée”.
Une nouvelle étude de chercheurs de Google et de l’Université du Michigan est alarmante d’une manière moins immédiate. Elle a examiné les relations des gens avec les systèmes alimentés par l’IA dans les pays où la législation est faible et “l’optimisme national” pour l’IA.
Le travail a sondé les utilisateurs indiens “financièrement stressés” de plateformes de prêt instantané qui ciblent les emprunteurs avec des prêts déterminés par l’IA de modélisation des risques. Selon les co-auteurs, les utilisateurs se sentaient redevables des “bénédictions” des prêts instantanés et de l’obligation d’accepter des conditions strictes, de partager des données sensibles et de payer des frais élevés. Les chercheurs affirment que les résultats illustrent la nécessité d’une plus grande “responsabilité algorithmique”, en particulier en ce qui concerne l’IA dans les services financiers.
“Nous soutenons que la responsabilité est façonnée par l’équilibre des pouvoirs entre la plate-forme et l’utilisateur, et exhortons les décideurs à adopter une approche purement technique pour promouvoir la responsabilité algorithmique”, ont-ils écrit.
“Au lieu de cela, nous appelons à des interventions situationnelles qui responsabilisent les utilisateurs, permettent une transparence significative, reconfigurent les relations concepteur-utilisateur et incitent les praticiens à s’engager dans une réflexion critique vers une responsabilité plus large”.