Images annotées extraites du flux vidéo des caméras de circulation

Images extraites des captations des caméras d'observation routière accompagnées d’annotations pour la segmentation sémantique et pour la détection d’objets.

Pour la segmentation sémantique, chaque image de circulation source est accompagnée d’une image contenant la segmentation sémantique. La segmentation comporte 13 classes: poteaux, panneaux de signalisation, véhicules, végétation, terre-pleins, bâtiments, espaces privés, trottoirs, voies, piétons, structures, construction, néant.

Pour la détection d’objets, un fichier .xml contenant la localisation des objets (i.e. cadre englobant) est fourni avec chaque image de circulation. L’annotation comporte 5 classes: véhicules, piétons, objets de construction, cyclistes et autobus.

Données et ressources (2)

Fiche descriptive du jeu de données

Organisation Ville de Montréal
Catégories Transport
Étiquettes Algorithme
Apprentissage automatique
Apprentissage profond
Deep learning
Intelligence artificielle
Machine learning
Mobilité
Recherche
Segmentation
Trame urbaine
Licence Attribution (CC-BY 4.0)
Responsable Service des technologies de l'information
Courriel donneesouvertes@montreal.ca
Fréquence de mise à jour Non planifié
Couverture géographique Territoire de la ville de Montréal
Couverture temporelle
Informations complémentaires

Les images sources sont tirées des flux d’images publics des caméras d'observation routière. Ces caméras sont installées dans le but premier d’aider les opérateurs du CGMU dans leur gestion de la circulation. Pour assurer le respect de la vie privée de nos citoyens, elles sont ajustées pour ne pas pouvoir capter les visages ni les plaques d’immatriculations des véhicules. Les images sont aussi publiées à des intervalles de 5 minutes. Si on arrivait malgré ces précautions à identifier un véhicule ou une personne par sa couleur ou les vêtements portés, il ne serait pas possible de suivre ses déplacements. Les images ont été captées entre mai et juillet 2019. La date (UTC) ainsi que l’identifiant de la caméra sont indiqués à même l’image de circulation. Les mêmes images sources sont incluses dans les deux ensembles de données publiés afin d’avoir 2 archives complètes pouvant être exploitées, sans interdépendance, pour l'entraînement de modèles de segmentation sémantique ou de détection d’objets.

Images annotées pour la segmentation sémantique

Chaque pixel des images sources est classifié selon 13 classes: voie, trottoir, terre-plein, végétation, panneaux de signalisation (incluant les feux), les poteaux, les objets de construction (ex.: les cônes), les bâtiments, les structures (ex.: un pont), les terrains privés, les piétons et les véhicules (incluant les vélos) et le néant (classe fourre-tout pour tout ce qui ne ne fait pas partie des 12 autres classes, comme le cie). La classe des terrains privés a préséance sur les autres classes, par exemple une voiture dans un stationnement privé ne sera pas identifiée comme faisant partie de la classe véhicule, mais bien de celle des terrains privés. Voir le dictionnaire de données (fichier classes.json) pour la correspondance au code de couleur. Les données sont fournies sous la forme de 2 répertoires et un dictionnaire compressés dans une archive: JPEGImages: images de circulation source (.jpeg) Semantic: images annotées (.png). * classes.json: dictionnaire des classes de segmentation .(json)

Images annotées pour la détection d’objets

Liste d’objets d’intérêt contenues dans une image, classifiés et accompagnés de leur cadre englobants. Les 5 classes d’objets considérées dans ce jeu de données sont : véhicules, piétons, objets de construction, cyclistes et autobus. La classe cycliste inclut uniquement une personne sur un vélo (ou une trottinette/monocycle/vélo électrique), elle exclut donc les vélos seuls et les personnes marchant à côté de leur vélo. Tous les autres modes de transports motorisés sont classés comme véhicules ou autobus. Cet ensemble de donnée est une archive, organisée selon le format standardisé d’annotation Pascal VOC, qui comprend 3 répertoires: - JPEGImages: images de circulation source (.jpeg) - Annotations: annotations (.xml), incluant les attributs suivants: - filename: nom de l’image annotée - size: la hauteur et la largeur de l’image en nombre de pixels, ainsi que la profondeur (i.e. 3 puisque l’image est de type RGB) - Il y a ensuite autant d’étiquettes object qu’il y a d’objets d’intérêt dans l’image, avec les étiquettes suivantes: - name: la classe de l’objet (vehicle, pedestrian, construction, cyclist, bus) - bnbox: la localisation du cadre autour de l’objet, sous la forme de deux coordonnées (le coin supérieur gauche - xmin, ymin, et le coin inférieur droit - xmax, ymax) - ImageSets: contient différents fichiers .txt contenant la liste des images composant les ensembles d’entraînement, de validation et de test.

Processus d’annotation

Chacune des annotations (segmentation sémantique et pour détection) est associée à l’une des images sources. Le libellé de l’image est le même que celui de sa source.

L’annotation d’images est un processus long et laborieux qui a nécessité un effort collectif et un logiciel spécialisé.

Pour la segmentation sémantique, la Ville a fait appel à une firme externe spécialisée pour réaliser l’exercice en limitant le nombre d’images au strict minimum jugé nécessaire (presque 10 000). Pour l’annotation de type détection d’objets, la Ville a procédé à l’annotation à l’interne avec un petit groupe de candidats volontaires.

Pour la détection d’objets, la Ville a procédé à l’annotation à l’interne avec un petit groupe de candidats volontaires. Le processus d’annotation a été initié par une extraction automatique des cadres englobants (bounding boxes) à partir des annotations de segmentation sémantique. Le code permettant cette extraction est publié sur la forge GitHub de la Ville.

Un processus de vérification a été mis en place à l’interne afin de valider la qualité et de rectifier l’information au besoin. Malgré ce processus, étant donné la quantité d’image et les ressources restreintes, il est possible que certaines imperfections soient encore présentes dans les annotations.

Source (URL)
Respect des lignes directrices 95.0%
Dernière modification (métadonnées ou ressources) 2021-04-01 17:00 EDT
Diffusion initiale 2020-10-26 14:37 EDT
Identifiant 3c30b818-3cd9-4877-8273-600a2ee80b05