L’IA dangereuse avec laquelle la Chine est capable de détecter les crimes et les manifestations avant qu’ils ne se produisent

Temps de lecture : 4 minutes

Mise à jour le 30 juin, 2022 par Metaverse

Selon ‘The New York Times’, la technologie utiliserait de grandes bases de données sur les citoyens du pays qui seraient soutenues par des systèmes de surveillance établis par l’État dans les espaces publics
Juan Ignacio Rouyet, professeur universitaire d’intelligence artificielle, souligne dans une conversation avec ABC que l’utilisation de ces systèmes menace “la liberté et la vie privée” des citoyens.

L’intelligence artificielle est capable de choses merveilleuses ; cependant, lorsqu’il est utilisé à des fins de surveillance de la population – même à des fins de sécurité – il peut finir par devenir une menace pour la vie privée et la liberté elle-même. Selon ‘ The New York Times ‘, la Chine étudie le développement et la mise en œuvre de nouvelles technologies dans les espaces publics qui permettraient à l’Etat de prévoir la commission de crimes et la tenue de manifestations .

Le tout, grâce à l’exploitation d’une multitude de données récoltées sur les habitudes de ses 1,4 milliard de citoyens et à l’utilisation d’outils de reconnaissance faciale, en vogue dans le pays depuis plusieurs années.

Grâce à cet outil, l’État chinois a pu détecter, par exemple, que trois personnes ayant un casier judiciaire se promènent ensemble dans un quartier de Pékin.

Il serait également possible de suivre les mouvements des militants qui ont participé à des manifestations ou des personnes souffrant d’un problème mental. C’est-à-dire qu’au moment où l’intelligence artificielle détecte un comportement suspect chez un individu, quelque chose qui sort de sa routine, elle peut avertir les autorités afin qu’elles enquêtent sur l’éventuelle commission d’un crime.

Selon les médias américains, l’Etat asiatique étudie depuis longtemps la mise en place de cette technologie. En outre, cela servirait surtout à contrôler non seulement les criminels potentiels, mais aussi les groupes vulnérables, tels que les immigrants, les minorités ethniques et les personnes souffrant de certains types de troubles mentaux. Cependant, les documents consultés par le ‘Times’ suggèrent que cette IA serait prête à ne pas surveiller certaines personnes, en particulier les fonctionnaires de l’État.

Cela peut vous intéresser :   Le forfait mobile pas cher de Free fait son retour : 90 Go à 10,99€

Actuellement, le système est développé par la startup chinoise Megvi i , dont le fondateur et directeur exécutif, Yin Qi, avait allumé l’ampoule en 2017, lorsqu’il s’est demandé ce qui se passerait si quelqu’un créait une intelligence artificielle capable de détecter les crimes avant cela ils étaient commis.

“Ce serait terrifiant s’il y avait vraiment des gens qui regardaient derrière la caméra, mais il y a un système derrière”, a déclaré Yin aux médias d’État de l’État asiatique il y a quelque temps. “C’est comme le moteur de recherche que nous utilisons tous les jours pour naviguer sur Internet : c’est très neutre. C’est censé être quelque chose de bienveillant.” De plus, il a souligné que, grâce à l’utilisation d’un tel système de surveillance, “les méchants n’auraient nulle part où se cacher”.

Dans les documents examinés par le ‘Times’, il est montré comment les solutions de Megvii sont capables de développer, à partir de zéro, de gros fichiers contenant des informations sur les citoyens chinois qui se retrouvent entre les mains de la police. Ceux-ci stockeraient, entre autres, “des visages, des photos, des voitures et des dossiers d’incidents”.

Bien que la technologie ne soit pas opérationnelle pour le moment, la Chine dispose déjà de solutions similaires développées par d’autres sociétés ; parmi eux, un système capable de prédire la réalisation de protestations sociales qui, dans ce cas, aurait été développé par la société Hikvision.

Plus précisément, ce système collecte des données sur les pétitionnaires chinois – des personnes essayant de déposer des plaintes contre des fonctionnaires locaux auprès des autorités supérieures – et les évalue en fonction de la probabilité qu’ils se rendent à Pékin. À l’avenir, les données seront utilisées pour former des modèles d’apprentissage automatique, selon un document d’acquisition.

Contre la liberté et la vie privée

L’utilisation de la technologie pour contrôler la population n’est pas nouvelle en Chine. L’État est en tête lorsqu’il s’agit d’utiliser la reconnaissance faciale dans les lieux publics. Les experts s’inquiètent également de l’utilisation qui peut être faite de ces outils comme mesure de contrôle à l’encontre des minorités installées dans le pays.

Cela peut vous intéresser :   Pegasus n'est pas le seul, ils découvrent un nouveau virus que les gouvernements utilisent pour espionner les citoyens européens

Concernant l’utilisation de nouveaux systèmes intelligents pour la prédiction de la criminalité, Juan Ignacio Rouyet, professeur d’intelligence artificielle et de robotique à l’Université internationale de La Rioja (UNIR), souligne deux grands dangers, en conversation avec ABC. « Il ne fait aucun doute que l’utilisation d’une telle IA affecte la vie privée des gens. Des données sont collectées dans lesquelles se mêlent des informations issues de la sphère publique, à travers les caméras que l’État a installées dans les rues, et aussi dans la sphère privée. La vie privée de la personne est totalement bafouée », souligne l’expert.

“Le deuxième risque est qu’ils sapent l’idée de base de la liberté individuelle. Dans le sens où un individu peut avoir pensé à commettre une illégalité, mais, le moment venu, il est toujours possible qu’il change d’avis. L’IA fonctionne avec des probabilités en fonction d’événements passés, mais, évidemment, elle peut faire des erreurs », poursuit-il.

Précisément, les experts de l’IA et les juristes du numérique attirent l’attention depuis des années sur les dangers de biais dans l’utilisation de systèmes de ce type. Aussi en ce qui concerne les éventuelles implications judiciaires, que ce qu’une machine peut dire sur le comportement d’une personne peut avoir à l’avenir.

Contrairement à la Chine, l’Union européenne cherche depuis un certain temps un moyen de réglementer l’utilisation de l’IA, en particulier celle qui peut être la plus dangereuse pour l’utilisateur. En mai dernier, le Parlement européen a approuvé une graduation des systèmes qui utilisent cette technologie , dans laquelle il est précisé dans quelles situations et qui peut recourir à son utilisation en fonction du risque.

Metaverse
Écolo-engagée, amoureuse de la communication 2.0. Je suis chargée de marketing digital. Ma passion depuis toujours : l’écriture ! Ce métier s’est donc manifesté comme une évidence. Depuis mon plus jeune âge, j’adore enquêter, trouver des informations que d’autres n’ont pas, et la lecture tient également une place importante dans mon cœur. Passionné depuis toute petite par l’écriture et de nature très curieuse, je m’intéresse à tous les sujets !