Il a souvent été réfléchi que nous “ne savons pas avec quelles armes sera menée la Troisième Guerre mondiale, mais la Quatrième Guerre mondiale sera menée avec des bâtons et des pierres.” La citation, souvent attribuée à tort à Albert Einstein, spécule sur les conséquences dévastatrices des conflits futurs et le rôle potentiel de la technologie dans la guerre. Dans le cas du conflit entre le Hamas et les Forces de Défense d’Israël (FDI) le 7 octobre, il est devenu évident que même les technologies les plus avancées ne pouvaient pas empêcher la violence. Les membres du Hamas ont utilisé des moyens non conventionnels pour briser les barrières et mener des attaques, utilisant des mitrailleuses, des couteaux et le feu.
Uri Eliabayev, consultant en IA et organisateur de la plus grande communauté d’apprentissage automatique et d’apprentissage profond d’Israël sur Facebook, a souligné qu’AI seul ne peut pas contrer les actions de milliers d’individus engagés dans la guerre. Les FDI ont appris une leçon difficile sur les limites de l’IA dans les scénarios de combat directs. Dans des situations où les ennemis utilisent des méthodes telles que des tunnels et des parapentes pour s’infiltrer dans une région, la technologie ne peut servir que de outil supplémentaire sur le champ de bataille. Alors que les algorithmes peuvent analyser et suivre des informations, ils ne peuvent pas empêcher les balles de causer des dommages.
De plus, la poursuite de la guerre impliquait une dimension numérique, car les acteurs en ligne, souvent appelés “guerriers du clavier”, travaillaient sans relâche pour diffuser de la désinformation. Ils ont téléchargé des images sans rapport provenant de différentes zones de conflit et remis en question l’authenticité des photographies. Par exemple, la congressiste américaine Ilhan Omar a participé à la diffusion d’images fausses attribuant à tort la mort d’enfants à Israël, alors qu’en réalité, ces événements s’étaient produits une décennie plus tôt lors du conflit syrien sous la présidence de Bachar al-Assad. Cette situation met en évidence l’utilisation de la désinformation comme outil dans les conflits modernes.
“Un autre moment ayant semé le chaos en ligne s’est produit lorsque Israël a été contraint de publier des images graphiques de la mort d’enfants en raison de la méfiance du public à l’égard des déclarations. L’image a été diffusée par le commentateur conservateur Ben Shapiro, mais la plateforme de médias sociaux X avait incorrectement ajouté une « Note de la communauté » suggérant que les images étaient générées par l’IA. Cette situation a mis en évidence un incident où Israël a dû faire face à la difficulté de partager des images de victimes d’enfants en raison du scepticisme du public, avec une plateforme de médias sociaux ajoutant à la confusion en mentionnant de manière erronée que les images étaient générées par l’IA.
L’histoire montre qu’il n’est pas nécessaire de recourir à l’IA pour propager la désinformation. Des images recyclées de conflits et des outils comme Photoshop suffisent à falsifier des preuves et à déformer des récits. En conséquence, l’IA peut trouver sa plus grande utilité en temps de guerre, non pas pour causer des dommages, mais pour promouvoir la paix.
Selon Eliabayev, de nombreuses applications des modèles d’IA au sein de la communauté visent à développer des projets bénéfiques en période de conflit. Plusieurs initiatives utilisent désormais l’IA de diverses manières, en particulier pour surveiller et lutter contre la désinformation sur Internet.
L’IA a déjà démontré son efficacité dans l’identification des fausses nouvelles ou des médias manipulés. L’analyse et la numérisation en temps réel d’images peuvent contribuer à réduire la propagation de fausses informations. Compte tenu de la diffusion par le Hamas de ses actions, les technologies avancées peuvent utiliser des outils de reconnaissance faciale pour identifier les visages des victimes kidnappées et tenter de déterminer leur emplacement ou leur état physique.
En Israël, des efforts déterminés sont déployés par des passionnés de technologie et des entreprises pour exploiter l’IA à ces fins. Ces initiatives incluent la plateforme Swords of Steel, qui aide les familles à rechercher leurs proches disparus, et le service Remember710, qui traduit les témoignages personnels de l’hébreu à l’anglais et les présente sous forme de récits générés par l’IA. De plus, une autorisation est accordée aux porte-parole des FDI ou au ministère des Affaires étrangères pour accéder à ces témoignages et partager les récits des victimes, que ce soit de manière anonyme ou ouverte.
Les événements récents ont souligné les limites de la défense intelligente face à des armes simples, et l’intelligence artificielle peine à suivre la désinformation authentique. À mesure que les conséquences de la guerre se propagent en ligne et ailleurs, le rôle de l’IA évolue pour se concentrer sur sa valeur en matière de protection et de défense, plutôt que sur son utilisation au combat.”
Laisser un commentaire