La question de l’IA est sur toutes les lèvres depuis un peu plus d’un an désormais. Dans le cadre de la sécurité, les collectivités locales et les entreprises se penchent sérieusement sur le sujet, mais la technologie de l’Intelligence Artificielle a beau être en pleine expansion, elle est encore jeune, faillible, et elle laisse parfois soupçonneux… Alors, que faut-il savoir à son sujet en matière de vidéosurveillance ? Que change-t-elle, qu’apporte-t-elle, et quelles sont ses limites ?
L’enjeu de la réglementation
L’une des premières choses à prendre en considération est sa réglementation, qui manque encore de clarté. Un décret signé le 28 août 2023 établi une liste exhaustive des événements pour lesquels un traitement algorithmique serait autorisé et sous certaines conditions strictes. On a pu en voir une application avec l’usage de “caméras augmentées” pendant la Coupe du Monde de rugby, qui feront leur réapparition pour les Jeux Olympiques de Paris pour cet été 2024. Certains acteurs de la sécurité voient cette réglementation comme un progrès, mais cette dernière suscite également des inquiétudes. Quel sera l’impact de l’IA sur les libertés publiques et individuelles, sur la collecte de données personnelles ? Jusqu’où vont les possibilités qu’on leur accorde ?
Certes, les avantages en renfort de sécurité des IA sont nombreux : la détection d’incidents ou la réduction du temps de réaction, pour ne citer qu’eux. Toutefois, les algorithmes restent affectés par des biais cognitifs et des limites techniques, et sont influencés par les préjugés de leurs programmeurs. C’est ce qu’ont prouvé des expériences menées aux USA et en Israël. Ainsi, le problème reste le même qu’avec la surveillance humaine : faire confiance en l’IA implique de faire confiance en son programmeur, mais quid de ses failles et de ses biais personnels ? Il faut donc rester vigilant face à l’expansion des systèmes de reconnaissance faciale et biométrique.
Une réelle efficacité de l’IA pour la vidéosurveillance ?
À l’heure actuelle, on surestime certainement l’efficacité des algorithmes. C’est la qualité de la formation des opérateurs de sécurité qui en décidera de la majeure partie. Sans oublier le respect des réglementations en vigueur, comme le RGPD, et celui des préoccupations éthiques et sociales que soulève la démocratisation de ces technologies. L’usage des IA nécessite donc un déploiement équilibré entre l’humain et la machine, l’un complétant les capacités de l’autre et vice-versa.
Des exemples sur le terrain tendent à prouver qu’aujourd’hui, les algorithmes sont efficaces pour du comptage, ainsi que détecter des entrées à contresens ou des franchissements de zones interdites ; les fausses alarmes y sont peu nombreuses. À l’inverse, pour repérer une personne au sol ou détecter le port d’une arme chez un individu, la fiabilité est encore très douteuse.
Aujourd’hui, l’IA ne sait pas encore traiter des données complexes, et des différences de résultats notables se distinguent entre les conditions réelles et l’entraînement. Pour l’heure, en matière de vidéosurveillance, l’utilisation des algorithmes doit se faire dans un cadre strict et dans des situations de force majeure. L’IA dans la vidéosurveillance représente aujourd’hui 1% des solutions déployées dans le monde ; c’est bien plus son utilisation à des fins marketing et sur les réseaux sociaux qui devrait inquiéter dans l’immédiat. Pour votre usage personnel ou domestique, en matière de détection, les résultats sont cependant assez probants, mais les coûts très élevés pour de telles machines sont encore dissuasifs.