Accueil Sécurité Comment le robot sophia d'Arabie saoudite soulève-t-il de nouvelles questions effrayantes sur la cybersécurité?

Comment le robot sophia d'Arabie saoudite soulève-t-il de nouvelles questions effrayantes sur la cybersécurité?

Anonim

Q:

Comment le robot "Sophia" d'Arabie saoudite soulève-t-il de nouvelles questions effrayantes sur la cybersécurité?

UNE:

L'une des nouvelles technologies d'intelligence artificielle les plus en vogue est un robot grandeur nature conçu pour ressembler et agir comme une femme.

Son nom est Sophia et elle est produite par Hanson Robotics, une société basée à Hong Kong. Pourquoi est-elle le robot d'Arabie saoudite? Parce que cet État du Golfe a donné à Sophia un droit humain clé: le droit à la citoyenneté.

Cela fait beaucoup de manchettes et déclenche toutes sortes de débats sur la vitesse à laquelle l'intelligence artificielle va et pourquoi nous devrions nous en soucier. L'un des grands problèmes est la cybersécurité - comment le domaine de la cybersécurité s'adaptera-t-il à ces types de nouvelles technologies?

Sophia et les technologies similaires posent des problèmes de cybersécurité clés que nous n'avons pas abordés auparavant. Voici quelques-unes des choses auxquelles les professionnels et les experts devraient penser lorsqu'ils inaugurent des robots qui nous ressemblent, parlent et agissent comme nous.

En général, la nouvelle interface robotique réaliste est plus sophistiquée que ce à quoi nous étions habitués dans le passé, et cela signifie une gamme de nouveaux problèmes de cybersécurité. Dans le monde de la technologie, les gens parlent d'avoir une «surface d'attaque mince», par exemple, dans une configuration d'hyperviseur ou intégrée à la sécurité côté serveur. Un robot qui marche et qui parle, en revanche, est une surface d'attaque très épaisse - car les interfaces sont sophistiquées, il existe de nombreuses façons pour les pirates et les mauvais acteurs d'exploiter les vulnérabilités.

Un type très spécifique de problème de cybersécurité est en quelque sorte mélangé à une variété de problèmes sociaux - on pourrait l'appeler le «syndrome de l'imposteur», bien que ce terme ait été couramment utilisé pour décrire le fonctionnement sournois de scientifiques des données illégitimes.

Quoi que vous l'appeliez, le problème est que, comme l'intelligence artificielle imite certains humains avec plus de succès, il sera de plus en plus difficile de s'assurer que nous ne sommes pas soumis à des tromperies extrêmement élaborées qui nous font remettre en question la vérité. Vous pouvez déjà voir des exemples de personnes utilisant de toutes nouvelles technologies pour imiter des politiciens célèbres, comme dans cette vidéo de Barack Obama mettant en vedette le comédien Jordan Peele. Le problème des imposteurs ne fera que croître et se développer à mesure que l'intelligence artificielle nous ouvrira de nouvelles fenêtres sur les pensées et les comportements de l'ingénierie inverse.

De plus, en général, ces nouvelles interfaces et capacités vont intensifier la course aux armements déjà en cours entre les professionnels de la sécurité et les pirates. James Maude écrit à ce sujet dans un article sur Xconomy, appelant l'IA une «épée à double tranchant» pour la cybersec, et soulignant qu'en général, attaquer est moins coûteux que défendre et noter les préoccupations concernant la confidentialité et la sécurité. Extrapolez certains de ces arguments au robot IA, et vous pouvez voir comment la force et les capacités entraînent un danger et un besoin de discipline.

Un autre gros nouveau problème avec Sophia et les robots mobiles est qu'ils sont en mouvement.

Nous nous sommes habitués à des technologies comme Watson d'IBM qui effectuent un travail cognitif de très haut niveau tout en restant assis dans un centre de données ou dans une structure matérielle stationnaire. C'est à cela que nous sommes habitués - des premiers mainframes aux ordinateurs portables d'aujourd'hui, nous utilisons tous du matériel stationnaire. Nous avons maintenant des téléphones portables, mais ce sont essentiellement des ordinateurs de poche. Les ordinateurs robotiques sensibles sont incroyablement différents. Ce sont des pièces mobiles autonomes qui peuvent être militarisées par des parties malveillantes. Un article de Reuters examinant la vitesse de résolution des problèmes de cybersécurité des robots montre comment, par exemple, les robots peuvent «faire des embardées» ou se déplacer rapidement et de manière inappropriée pour potentiellement causer des dommages.

En fin de compte, Sophia et des robots comme elle soulèvent une multitude de problèmes de cybersécurité et d'autres préoccupations. Comment distinguerons-nous une activité légitime d'une activité trompeuse et illégitime lorsque l'interface n'est pas un réseau connecté numériquement, mais un matériel mobile qui peut nous faire croire qu'il agit de manière humaine? Traverser ce pont nécessitera d'énormes quantités de travail technologique et éthique pour s'assurer que les humains gardent les rênes et que nous utilisons ces technologies très puissantes pour le bien civique.

Comment le robot sophia d'Arabie saoudite soulève-t-il de nouvelles questions effrayantes sur la cybersécurité?