Les systèmes d’intelligence artificielle doivent présenter “des garanties en béton” pour éviter un “désastre”, estime Stuart Russell, codirecteur de l’Association internationale pour une IA sûre et éthique (IASEAI), alors que Google semble être revenu sur sa promesse de ne pas utiliser cette technologie à des fins militaires.A Paris jeudi pour des rencontres scientifiques en amont du sommet de Paris sur l’IA les 10 et 11 février, le professeur en informatique à l’université californienne de Berkeley s’est entretenu avec l’AFP. C’est regrettable. La raison pour laquelle ils avaient mis en place cette politique est précisément parce que leurs propres employés craignaient que leur travail soit utilisé dans des armes pour identifier, mais aussi tuer des gens.Aujourd’hui, Google semble prêt à passer outre l’avis de ses salariés et aussi d’une grande majorité du public, qui s’oppose également à l’utilisation de l’IA dans les armes. Le marché militaire de l’IA est minuscule par rapport à celui des consommateurs et des entreprises. Donc il ne s’agit pas vraiment de gagner de l’argent, mais plutôt d’améliorer leur position vis-à-vis du gouvernement américain.On peut supposer que ce n’est pas une coïncidence si ce changement de politique intervient alors que la nouvelle administration a supprimé toutes les réglementations sur l’IA mises en place sous Biden et qu’elle met désormais l’accent sur son utilisation à des fins militaires. Les petits systèmes d’armement automatisés — principalement des drones ou des armes pilotées à distance — représentent le plus grand danger. Comme ils sont petits et peu chers, des entités non étatiques, comme un groupe terroriste par exemple, peuvent les acheter en quantité et les utiliser pour perpétrer des massacres. Ces armes peuvent être utilisées de manière particulièrement dangereuse si on leur demande de tuer toute personne correspondant à une description particulière, qui peut être liée à l’âge, au genre ou à un groupe ethnique. Je pense que l’Ukraine a été un accélérateur dans le sens où le fait qu’il y ait un conflit a forcé ces systèmes d’armes à évoluer très rapidement.Il est tout à fait possible que le prochain conflit majeur soit mené en grande partie avec des armes autonomes, qui ne sont actuellement pas réglementées. Donc on ne peut qu’imaginer le genre de dévastation et les impacts horribles sur les civils qui pourraient en résulter.Aujourd’hui, environ 75 pays ont mis au point ou utilisent des armes pilotées à distance et je pense que la plupart d’entre eux sont en train de réfléchir à la manière de les convertir en armes entièrement autonomes. Mais d’un autre côté, plus de 100 pays ont déjà déclaré leur opposition à ce type d’armes et je pense qu’il y a de bonnes chances que nous obtenions la majorité nécessaire à l’Assemblée générale des Nations unies pour adopter une résolution demandant leur interdiction. Les gouvernements doivent exiger des garanties en béton, sous la forme de preuves statistiques ou mathématiques, qui peuvent être évaluées et vérifiées avec soin. Car le risque, c’est l’extinction de l’humanité qui pourrait résulter de systèmes d’IA beaucoup plus intelligents, et donc beaucoup plus capables d’influencer le monde, que nous. Sans ça, on court droit au désastre.
Thu, 06 Feb 2025 13:50:20 GMT