Tirer le meilleur parti de très peu : améliorer la formation à l’IA pour les séries temporelles de capteurs de bord


Des ingénieurs de l’Institut de technologie de Tokyo (Tokyo Tech) ont démontré une approche informatique simple pour améliorer la façon dont les classificateurs d’intelligence artificielle, tels que les réseaux de neurones, peuvent être formés sur la base de quantités limitées de données de capteurs. Les applications émergentes de l’Internet des objets nécessitent souvent des appareils de pointe capables de classer de manière fiable les comportements et les situations en fonction de séries chronologiques. Cependant, les données de formation sont difficiles et coûteuses à acquérir. L’approche proposée promet d’augmenter considérablement la qualité de la formation des classificateurs, presque sans frais supplémentaires.

Ces derniers temps, la perspective de disposer d’un grand nombre de capteurs de l’Internet des objets (IoT) surveillant discrètement et avec diligence d’innombrables aspects des activités humaines, naturelles et des machines a gagné du terrain. Alors que notre société devient de plus en plus avide de données, les scientifiques, les ingénieurs et les stratèges espèrent de plus en plus que les informations supplémentaires que nous pouvons tirer de cette surveillance omniprésente amélioreront la qualité et l’efficacité de nombreux processus de production, ce qui se traduira également par une meilleure durabilité.

Le monde dans lequel nous vivons est incroyablement complexe, et cette complexité se reflète dans une multitude de variables que les capteurs IoT peuvent être conçus pour surveiller. Certains sont naturels, comme la quantité de lumière solaire, l’humidité ou le mouvement d’un animal, tandis que d’autres sont artificiels, par exemple, le nombre de voitures traversant une intersection ou la contrainte appliquée à une structure suspendue comme un pont. Ce que ces variables ont toutes en commun, c’est qu’elles évoluent au fil du temps, créant ce que l’on appelle des séries chronologiques, et que des informations significatives devraient être contenues dans leurs changements incessants. Dans de nombreux cas, les chercheurs sont intéressés à classer un ensemble de conditions ou de situations prédéterminées en fonction de ces changements temporels, afin de réduire la quantité de données et de faciliter leur compréhension. Par exemple, la mesure de la fréquence d’apparition d’une condition ou d’une situation particulière sert souvent de base pour détecter et comprendre l’origine des dysfonctionnements, des augmentations de la pollution, etc.

Certains types de capteurs mesurent des variables qui en elles-mêmes changent très lentement dans le temps, comme l’humidité. Dans de tels cas, il est possible de transmettre chaque lecture individuelle via un réseau sans fil à un serveur cloud, où l’analyse de grandes quantités de données agrégées a lieu. Cependant, de plus en plus d’applications nécessitent de mesurer des variables qui évoluent assez rapidement, comme les accélérations suivant le comportement d’un animal ou l’activité quotidienne d’une personne. Étant donné que de nombreuses lectures par seconde sont souvent nécessaires, il devient peu pratique ou impossible de transmettre les données brutes sans fil, en raison des limitations de l’énergie disponible, des charges de données et, dans les endroits éloignés, de la bande passante. Pour contourner ce problème, les ingénieurs du monde entier recherchent depuis longtemps des moyens intelligents et efficaces d’extraire les aspects de l’analyse des données du cloud vers les nœuds de capteurs eux-mêmes. Ceci est souvent appelé intelligence artificielle de pointe ou IA de pointe. De manière générale, l’idée est d’envoyer sans fil non pas les enregistrements bruts, mais les résultats d’un algorithme de classification recherchant des conditions ou des situations d’intérêt particulières, résultant en une quantité beaucoup plus limitée de données de chaque nœud.

Il y a cependant de nombreux défis à relever. Certains sont physiques et découlent de la nécessité d’installer un bon classificateur dans ce qui est généralement un espace et un poids plutôt limités, et de le faire fonctionner souvent avec une très petite quantité d’énergie afin d’obtenir une longue durée de vie de la batterie. « De bonnes solutions d’ingénierie à ces exigences émergent chaque jour, mais le véritable défi qui retient de nombreuses solutions du monde réel est en fait un autre. La précision de la classification n’est souvent tout simplement pas suffisante, et la société a besoin de réponses fiables pour commencer à faire confiance à une technologie », déclare le Dr Hiroyuki Ito, responsable de l’unité Nano Sensing où l’étude a été menée. « De nombreuses applications exemplaires de l’intelligence artificielle telles que les voitures autonomes ont montré que la qualité d’un classificateur artificiel dépend fortement de la qualité des données utilisées pour l’entraîner. Mais, le plus souvent, les données des séries chronologiques des capteurs sont vraiment exigeant et coûteux à acquérir sur le terrain. Par exemple, en ce qui concerne la surveillance du comportement du bétail, pour l’acquérir, les ingénieurs doivent passer du temps dans les fermes, instrumenter les vaches individuelles et demander à des experts d’annoter patiemment leur comportement sur la base de séquences vidéo « , ajoute le co-auteur Dr Korkut Kaan Tokgoz, anciennement membre de la même unité de recherche et maintenant avec l’Université Sabanci en Turquie.

En raison du fait que les données de formation sont si précieuses, les ingénieurs ont commencé à chercher de nouvelles façons de tirer le meilleur parti d’une quantité de données, même assez limitée, disponible pour former des dispositifs d’IA de pointe. Une tendance importante dans ce domaine consiste à utiliser des techniques connues sous le nom d' »augmentation des données », dans lesquelles certaines manipulations, jugées raisonnables sur la base de l’expérience, sont appliquées aux données enregistrées afin d’essayer d’imiter la variabilité et l’incertitude qui peuvent être rencontrées dans des applications réelles. « Par exemple, dans nos travaux précédents, nous avons simulé la rotation imprévisible d’un collier contenant un capteur d’accélération autour du cou d’une vache surveillée, et avons constaté que les données supplémentaires générées de cette manière pouvaient réellement améliorer les performances de la classification comportementale », explique Mme Chao Li, doctorante et auteure principale de l’étude [1]. « Cependant, nous avons également réalisé que nous avions besoin d’une approche beaucoup plus générale pour augmenter les séries chronologiques des capteurs, une approche qui pourrait en principe être utilisée pour tout type de données et ne pas faire d’hypothèses spécifiques sur les conditions de mesure. De plus, dans des situations réelles, il y a en fait deux problèmes, liés mais distincts. Le premier est que la quantité globale de données d’entraînement est souvent limitée. Le second est que certaines situations ou conditions se produisent beaucoup plus fréquemment que d’autres, ce qui est inévitable. Par exemple, les vaches passent naturellement beaucoup plus de temps à se reposer ou à ruminer qu’à boire. Pourtant, mesurer avec précision les comportements les moins fréquents est tout à fait essentiel pour juger correctement de l’état de bien-être d’un animal. Une vache qui ne boit pas succombera sûrement, même si la précision de la classification de la consommation d’alcool peut avoir une faible impact sur les approches de formation courantes en raison de sa rareté. C’est ce qu’on appelle le problème du déséquilibre des données », ajoute-t-elle.

Les recherches informatiques menées par les chercheurs de Tokyo Tech et initialement ciblées sur l’amélioration du suivi du comportement des bovins offrent une solution possible à ces problèmes, en combinant deux approches très différentes et complémentaires. La première est connue sous le nom d’échantillonnage, et consiste à extraire des « bribes » de séries temporelles correspondant aux conditions à classer toujours à partir d’instants différents et aléatoires. Le nombre d’extraits extraits est ajusté avec soin, en veillant à ce que l’on se retrouve toujours avec approximativement le même nombre d’extraits pour tous les comportements à classer, qu’ils soient courants ou rares. Il en résulte un ensemble de données plus équilibré, ce qui est nettement préférable comme base pour former tout classificateur tel qu’un réseau de neurones. Parce que la procédure est basée sur la sélection de sous-ensembles de données réelles, elle est sûre en termes d’éviter la génération des artefacts qui peuvent provenir de la synthèse artificielle de nouveaux extraits pour compenser les comportements moins représentés. La seconde est connue sous le nom de données de substitution et implique une procédure numérique très robuste pour générer, à partir de n’importe quelle série chronologique existante, un nombre quelconque de nouvelles qui préservent certaines caractéristiques clés, mais qui sont complètement non corrélées. « Cette combinaison vertueuse s’est avérée très importante, car l’échantillonnage peut entraîner de nombreuses duplications des mêmes données, alors que certains comportements sont trop rares par rapport à d’autres. Les données de substitution ne sont jamais les mêmes et évitent ce problème, qui peut affecter très négativement le processus de formation. Et un aspect clé de ce travail est que l’augmentation des données est intégrée au processus de formation, de sorte que différentes données sont toujours présentées au réseau tout au long de sa formation », explique M. Jim Bartels, co-auteur et doctorant à l’unité.

Les séries temporelles de substitution sont générées en brouillant complètement les phases d’un ou plusieurs signaux, les rendant ainsi totalement méconnaissables lorsque leurs changements dans le temps sont pris en compte. Cependant, la distribution des valeurs, l’autocorrélation et, s’il y a plusieurs signaux, l’intercorrélation, sont parfaitement préservées. « Dans un autre travail précédent, nous avons constaté que de nombreuses opérations empiriques telles que l’inversion et la recombinaison des séries chronologiques contribuaient en fait à améliorer la formation. Comme ces opérations modifient le contenu non linéaire des données, nous avons par la suite estimé que le type de caractéristiques linéaires qui sont conservées pendant la substitution génération sont probablement la clé de la performance, du moins pour l’application de la reconnaissance du comportement des vaches sur laquelle je me concentre », explique encore Mme Chao Li [2]. « La méthode des séries temporelles de substitution provient d’un tout autre domaine, à savoir l’étude de la dynamique non linéaire dans des systèmes complexes comme le cerveau, pour lesquels de telles séries temporelles sont utilisées pour aider à distinguer le comportement chaotique du bruit. En rassemblant nos différentes expériences, nous s’est vite rendu compte qu’ils pouvaient également être utiles pour cette application », ajoute le Dr Ludovico Minati, deuxième auteur de l’étude et également membre de la Nano Sensing Unit. « Cependant, une prudence considérable est nécessaire car il n’y a jamais deux scénarios d’application identiques, et ce qui est vrai pour la série chronologique reflétant les comportements des vaches peut ne pas être valable pour d’autres capteurs surveillant différents types de dynamique. Dans tous les cas, l’élégance de la proposition méthode est qu’elle est assez essentielle, simple et générique. Il sera donc facile pour d’autres chercheurs de l’essayer rapidement sur leurs problèmes spécifiques », ajoute-t-il.

A l’issue de cet entretien, l’équipe explique que ce type de recherche s’appliquera en premier lieu à l’amélioration de la classification des comportements bovins, à laquelle elle était initialement destinée et sur laquelle l’unité mène des recherches pluridisciplinaires en partenariat avec d’autres universités et entreprises. « L’un de nos principaux objectifs est de démontrer avec succès une grande précision sur un petit appareil peu coûteux qui peut surveiller une vache tout au long de sa vie, permettant une détection précoce de la maladie et donc réellement améliorant non seulement le bien-être des animaux mais aussi l’efficacité et la durabilité de l’élevage,  » conclut le Dr Hiroyuki Ito. La méthodologie et les résultats sont rapportés dans un article récent publié dans la revue Capteurs IEEE [3].

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*