FR3015096A1 - Systeme et procede de suivi d'objets mouvants et de personnes permettant d'en retracer l'itineraire sur une carte - Google Patents

Systeme et procede de suivi d'objets mouvants et de personnes permettant d'en retracer l'itineraire sur une carte Download PDF

Info

Publication number
FR3015096A1
FR3015096A1 FR1302919A FR1302919A FR3015096A1 FR 3015096 A1 FR3015096 A1 FR 3015096A1 FR 1302919 A FR1302919 A FR 1302919A FR 1302919 A FR1302919 A FR 1302919A FR 3015096 A1 FR3015096 A1 FR 3015096A1
Authority
FR
France
Prior art keywords
person
detected
cloud
route
commonly called
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1302919A
Other languages
English (en)
Inventor
Jean Emmanuel Orfevre
Alexandre Orfevre
Pierre Yves Dupont
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rizze SAS
Original Assignee
Rizze SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rizze SAS filed Critical Rizze SAS
Priority to FR1302919A priority Critical patent/FR3015096A1/fr
Priority to BR102014031307A priority patent/BR102014031307A2/pt
Publication of FR3015096A1 publication Critical patent/FR3015096A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles

Abstract

La présente invention concerne un système et un procédé permettant le suivi des objets et des personnes à partir de données vidéo. Le système est composé d'un réseau de caméras vidéo, d'une plate-forme en nuage (communément appelée cloud) auxquelles les caméras sont connectées par une connexion sans fil de type Wi-Fi, 3G, 4G, d'un appareil mobile équipé d'un appareil vidéo et d'une console de supervision. Le Système selon l'invention permet de mettre en commun plusieurs flux vidéo provenant de diverses caméras de surveillance quadrillant un espace déterminé, afin de reconnaître un objet qui traverse le champ de vision de ces différentes caméras, de générer des mots-clés relatifs au déplacement de l'objet (ou au comportement pour les personnes), d'afficher des alertes sur les écrans des différents dispositifs en fonction de ces mots-clés et de visualiser l'itinéraire de cet objet retracé automatiquement sur une carte.

Description

-1- La présente invention concerne les domaines techniques de la surveillance vidéo et des procédés de suivi de formes reconnues automatiquement sur un flux vidéo.
Il existe plusieurs technologies automatisées de surveillance permettant de détecter et/ou de suivre (tracking) un objet. Ces procédés se basent sur deux types de technologies: les radars et les flux vidéo. Les systèmes reposant sur les radars fonctionnent comme suit: un capteur émet un signal radar sur un objet, le signal rebondit sur l'objet et revient vers le capteur. En fonction du temps que le signal réalise ce va-et-vient, un calcul de la distance de l'objet par rapport à l'émetteur radar est effectué. Grâce à ces radars, il est possible de calculer des données relatives à la présence, la position de l'objet, et/ou sa vitesse. L'inconvénient principal de cette technologie est qu'elle ne donne aucune indication visuelle sur l'objet (couleur, marque d'un véhicule par exemple); de plus, si plusieurs objets sont détectés dans un même espace, ce type de technologie ne permet pas d'identifier ces objets ni de les distinguer, et il n'est pas possible de corréler les positions.
La technologie LADAR utilise la technologie du faisceau laser pour déterminer la forme d'un objet, mais n'offre toujours aucun moyen d'obtenir des indications précises sur les caractéristiques visuelles de l'objet détecté, ni sur son itinéraire.
Le deuxième type de technologie disponible est la vidéo. Plus précise que le radar (car elle permet de donner des détails visuels de l'objet: couleur, forme par exemple), elle utilise des programmes et des algorithmes de détection des formes. De nombreuses inventions relatives à la détection et au suivi automatisé et basés sur des données vidéo ne concernent qu'une caméra, ou plusieurs caméras affectées à la surveillance d'une seule surface, ce qui restreint les surfaces de surveillance. Ces inventions ne permettent pas non plus de retracer l'itinéraire d'un objet sur une carte. - 2 - Le système selon l'invention remédie aux problèmes techniques cités précédemment en fournissant un outil de détection et de suivi d'un ou plusieurs objets, basé sur un assemblage de flux vidéo transmis par un réseau de caméras, ce qui permet de couvrir une surface de surveillance vidéo étendue, de retracer l'itinéraire de cet objet ou de cette personne à partir du déplacement de ou des objets ou du ou des comportements des personnes détectés par le boîtier et des coordonnées de l'emplacement des caméras, ainsi que des images horodatées prises par ces caméras. Enfin, le système selon l'invention permet de disposer d'un espace de stockage permettant de stocker un nombre indéfini de données. DESCRIPTION DE L'INVENTION. La présente invention concerne un système et un procédé permettant le suivi des objets et des personnes. Le 15 système est composé d'un réseau de caméras vidéo reliées entre elles, d'un appareil mobile équipé d'un appareil vidéo, d'une plate-forme en nuage (communément appelée Cloud) et d'une console d'administration. Le Système selon l'invention permet de mettre en commun plusieurs flux 20 vidéo provenant de diverses caméras de surveillance vidéo quadrillant un espace déterminé, afin de reconnaître un objet qui traverse le champ de vision de ces différentes caméras, de générer des mots-clés relatifs au déplacement de l'objet (ou au comportement pour les personnes), d'afficher des alertes sur les écrans des différents dispositifs en fonction de ces mots-clés et de visualiser 25 l'itinéraire de cet objet retracé automatiquement sur une carte. Les dessins annexés illustrent l'invention: La figure 1 représente l'ensemble de caméras de vidéo-surveillance (1) 30 détectant pour la première fois un objet (de type véhicule) et transférant les informations extraites de la scène au SIC (3) du Cloud (2) pour y créer une nouvelle donnée. - 3 - La figure 2 représente la génération d'alertes par le SIC (3) du Cloud (2) en cas de mouvement prohibé. La figure 3 représente la réponse du SIC (3) du Cloud (2) à une requête s formulée à partir d'un dispositif portatif (5). La figure 4 représente l'affichage du plan global et du plan plus précis sur l'écran de la console d'administration (4). 10 L'invention fonctionne de la façon suivante: soit un ensemble de caméras reliées à un boîtier électronique (1) qui filment chacune en continu un segment différent de la surface totale à surveiller. Ce boîtier électronique peut avoir une communication filaire ou non avec les caméras. Dès que le boîtier détecte la présence d'un objet dans le champ de vision de la caméra, il 15 enregistre le segment de vidéo sur le moyen de stockage du boîtier. Les informations concernant l'heure, le lieu, la caméra concernée, le type d'objet, le temps que cet objet met pour effectuer le mouvement, entre autres, sont enregistrés par le boîtier. Le boîtier effectue également un calcul des multiples positions de l'objet mouvant ou de la personne. La fin de l'enregistrement par 20 l'ensemble de surveillance vidéo (1) concerné s'effectue lorsque l'objet ou la personne n'est plus en mouvement, ou qu'il n'est plus dans le champ de la caméra. Sur ces images vidéo, les algorithmes de vision sont joués afin de déterminer la nature de la forme détectée (objet mouvant ou personne), par le biais de masques. Si un véhicule (par exemple) est détecté, les algorithmes de 25 vision permettent d'enregistrer le mouvement (si le véhicule va à gauche, à droite...). S'il s'agit de personnes, des algorithmes de comportement du boîtier permettent une détection automatique les comportements dits "anormaux". En fonction du type d'objet, des mots-clés sont attribués à divers mouvements ou comportements détectés; ainsi est annotée la scène enregistrée par les 30 ensembles de vidéo-surveillance (1). -4- Les images traitées par le boîtier ainsi que les informations extraites de la vidéo telles que les différentes positions de l'objet ou de la personne, la couleur, la forme, le déplacement (circule vers la droite, circule vers la gauche, effectue un demi-tour, zigzague, effectue un arrêt, stationne... etc.), le comportement (marche lentement, s'arrête, court...), les informations sur l'heure, la date, les coordonnées GPS sont transmises au Cloud (2) via une communication sans fil de type Wi-Fi, 3G, 4G. Une fois transmises, ces données stockées provisoirement sur le boîtier sont automatiquement effacées, afin de libérer de la mémoire utile à de nouveaux enregistrements.
Sur le Système Informatique Central (ou SIC) (3) du Cloud (2) sont configurés au préalable, et pour chaque zone, les mots-clés relatifs aux comportements prohibés ou considérés comme notoires. Exemple indicatif: dans une zone dans laquelle le sens de circulation est unique, vers la droite, la configuration sera réalisée de telle manière que les mots-clés déclenchant une alerte sont: "vient de la droite", "va vers la gauche", "zigzag", "demi-tour", "stationnement"... il est possible de configurer le système afin qu'une alerte soit générée lorsqu'un véhicule s'arrête, ou qu'une personne marche lentement, entre autres.
Dans le cas d'une situation problématique ou notoire, le SIC (3) du Cloud (2) envoie une alerte aux différents dispositifs (console d'administration (4), dispositifs portatifs de type Smartphone, tablette, PDA notamment) (5): les écrans affichent l'image capturée de l'objet, le ou les mots-clés caractérisant l'action de l'objet, l'heure, la date à laquelle le comportement a été détecté, ainsi qu'une carte sur laquelle figurent des points retraçant l'itinéraire de l'objet détecté. Cette liste n'est pas limitative. Lorsqu'un objet mobile ou une personne est détectée pour la première 30 fois, le Cloud (2) lui attribue un identifiant par défaut et unique, ce qui permet notamment de distinguer différents objets sur un même flux. Une nouvelle donnée est ainsi créée sur le Cloud (2) comportant la date, l'heure, la zone de - 5 - détection, l'image ainsi que les caractéristiques de l'objet en mouvement ou de la personne dans la zone concernée. La présente invention possède la particularité que si plusieurs objets 5 mobiles possédant les mêmes caractéristiques sont détectés, une vérification de la cohérence des trajectoires est vérifiée pour éviter une confusion, sur le fondement de données telles que les zones dans lesquelles ces véhicules ont été détectés, l'heure et la date de ces détections, la coïncidence entre les comportements (sortie de la zone). En cas d'incohérence par rapport à ces 10 critères, le Cloud (2) conclura que les véhicules sont différents, et ne confondra pas leurs itinéraires. Il en va de même pour les personnes détectées (personnes portant les mêmes vêtements). Deux plans sur lesquels l'itinéraire de l'objet ou de la personne est 15 retracé à partir des indications GPS transmises par les ensembles de vidéo surveillance sont visualisables sur les écrans des différents dispositifs: un plan global quadrillé avec, pour chaque case, une indication fléchée des zones par lesquelles un objet sélectionné a transité; un plan plus détaillé avec un retraçage annoté (mots-clés relatifs aux mouvements ou comportements de 20 l'itinéraire de l'objet ou de la personne de façon plus précise à l'intérieur d'une zone particulière). L'itinéraire peut être également généré sur requête sur les différents dispositifs de surveillance (console d'administration (4), dispositifs portatifs (5)).
25 Les images des objets ou individus détectés sont également visualisables par requête formulée depuis la console d'administration (4) ou un dispositif portatif (5). Les critères de recherche sont, entre autres, la date, l'heure, les zones dans lesquelles l'objet ou l'individu a été détecté, le type d'objet détecté (4 roues, 2 roues; personne par exemple). La réponse à la requête s'affiche sur 30 l'écran du dispositif à partir duquel la requête a été formulée sous forme d'image de l'objet mobile ou de la personne sur laquelle les informations textuelles sont affichées. - 6 - Le Système selon l'invention fournit donc un moyen automatisé de surveillance vidéo permettant de détecter et de suivre un objet mobile ou une personne dans un espace étendu, d'afficher des alertes en cas de déplacement ou de comportement configuré comme anormal ou notoire, ainsi que de générer s des requêtes pour retracer l'itinéraire et afficher les informations relatives à un objet mobile ou un individu déterminé.

Claims (9)

  1. REVENDICATIONS1) Procédé de suivi d'un objet ou d'une personne et de visualisation sur une carte de l'itinéraire de cet objet ou de cette personne, à partir du déplacement 5 d'un objet ou du comportement de la personne caractérisé en ce qu'il comporte: a) une reconnaissance d'un objet mouvant ou du comportement d'une personne, détecté sur les images obtenues à partir de l'assemblage de flux vidéo transmis par un réseau de caméras de vidéo-surveillance (1) reliées par des moyens filaires ou non à des boîtiers électroniques de traitement d'images; b) un transfert des images traitées ainsi que les données extraites de ces images par le boîtier électronique vers un Système informatique central (3) sur une plate-forme en nuage, communément appelée Cloud (2), par le biais d'une communication sans fil de type Wi-Fi, 3G, 4G; c) une configuration des mots-clés relatifs aux mouvements des objets 15 ou des comportements des personnes sur le Système informatique central (3) sur la plate-forme en nuage, communément appelée Cloud (2). d) une vérification de la cohérence des trajectoires des objets ou des personnes par Système informatique central (3) sur la plate-forme en nuage, communément appelée Cloud (2), 20 e) un déclenchement et un envoi d'alertes à un dispositif portatif (5) et/ ou une console d'administration (4) via une connexion internet sans fil de type Wi-Fi, 3G ou 4G; f) un retraçage de l'itinéraire de l'objet ou de la personne. 25
  2. 2) Procédé selon la revendication 1, caractérisé en ce que la détection et la reconnaissance par le boîtier électronique de la nature de la forme détectée, est réalisé par les algorithmes de vision.
  3. 3) Procédé selon l'une quelconque des revendications précédentes, caractérisé 30 en ce que la vérification de la cohérence des trajectoires par la plate-forme en nuage, communément appelée Cloud (2) consiste en: a) la détection de plusieurs véhicules ou personnes possédant les mêmes caractéristiques;- 8 - b) la vérification de la cohérence du mouvement sur la base de données; c) la vérification horodatée des zones dans lesquelles ces véhicules ont été détectés; d) la contestation de l'identité/ égalité /cohérence sur les véhicules pour relier les différentes positions sur la carte.
  4. 4) Procédé selon la revendication 3, caractérisé en ce que lorsque la vérification de la cohérence indique une incohérence, la plate-forme en nuage, communément appelée Cloud (2), en conclue que les objets mouvants ou les 10 personnes sont différents, et ne confond pas leurs itinéraires.
  5. 5) Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que la plate-forme en nuage, communément appelée Cloud (2), attribue un identifiant par défaut et unique lorsqu'un objet mouvant ou une personne est 15 détectée pour la première fois.
  6. 6) Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que le retraçage de l'itinéraire comprend les étapes suivantes: a) détermination du positionnement des objets détectés grâce aux 20 coordonnées GPS de la caméra; b) assemblage de toutes les informations sur le positionnement d'objet ou de personne; c) ces informations jouées sur la carte; d) traçage de l'itinéraire de l'objet à partir des points générés sur la carte. 25
  7. 7) Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que le retraçage de l'itinéraire consiste en la visualisation: a) d'une carte globale de l'espace à surveiller, de l'itinéraire emprunté par l'objet détecté et des points reliés représentant les coordonnées GPS de 30 l'objet ou de la personne détectée transmises par les ensembles de vidéo surveillance (1) à la plate-forme en nuage, communément appelée Cloud (2) et affichés sur les écrans de la console d'administration (4) et des dispositifs portatifs (5).- 9 - b) d'une carte plus locale retraçant l'itinéraire des mouvements de l'objet ou de la personne dans chaque zone.
  8. 8) Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que l'itinéraire peut être généré sur requête sur les consoles d'administration (4) ou les dispositifs portatifs (5) à partir de critères de recherche tels que, entre autres, la date, l'heure, les zones dans lesquelles l'objet ou l'individu a été détecté, le type d'objet détecté (4 roues, 2 roues, une personne par exemple).
  9. 9) Procédé selon la revendication 8, caractérisé en ce que la réponse à la requête s'affiche sur l'écran du dispositif à partir duquel la requête a été formulée sous forme d'image de l'objet mouvant ou de la personne sur laquelle les informations textuelles sont affichées.
FR1302919A 2013-12-12 2013-12-12 Systeme et procede de suivi d'objets mouvants et de personnes permettant d'en retracer l'itineraire sur une carte Withdrawn FR3015096A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1302919A FR3015096A1 (fr) 2013-12-12 2013-12-12 Systeme et procede de suivi d'objets mouvants et de personnes permettant d'en retracer l'itineraire sur une carte
BR102014031307A BR102014031307A2 (pt) 2013-12-12 2014-12-12 sistema e processo de rastreamento de objetos em movimento e de pessoas permitindo de retraçar o itinerário em um mapa

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1302919A FR3015096A1 (fr) 2013-12-12 2013-12-12 Systeme et procede de suivi d'objets mouvants et de personnes permettant d'en retracer l'itineraire sur une carte

Publications (1)

Publication Number Publication Date
FR3015096A1 true FR3015096A1 (fr) 2015-06-19

Family

ID=51014310

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1302919A Withdrawn FR3015096A1 (fr) 2013-12-12 2013-12-12 Systeme et procede de suivi d'objets mouvants et de personnes permettant d'en retracer l'itineraire sur une carte

Country Status (2)

Country Link
BR (1) BR102014031307A2 (fr)
FR (1) FR3015096A1 (fr)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003003309A1 (fr) * 2001-06-29 2003-01-09 Honeywell International, Inc. Procede de monitorage d'un objet en mouvement et systeme correspondant
EP1486928A2 (fr) * 2003-06-12 2004-12-15 Redflex Traffic Systems PTY LTD. Système automatique de surveillance et de rapport d'infractions au code de la route
WO2007118272A1 (fr) * 2006-04-13 2007-10-25 Curtin University Of Technology Observateur virtuel
US20090135007A1 (en) * 2007-10-04 2009-05-28 Donovan John J Alerting system for safety, security, and business productivity having alerts weighted by attribute data
WO2013113521A1 (fr) * 2012-02-03 2013-08-08 Robert Bosch Gmbh Dispositif d'évaluation pour un système de surveillance ainsi que système de surveillance équipé dudit dispositif d'évaluation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003003309A1 (fr) * 2001-06-29 2003-01-09 Honeywell International, Inc. Procede de monitorage d'un objet en mouvement et systeme correspondant
EP1486928A2 (fr) * 2003-06-12 2004-12-15 Redflex Traffic Systems PTY LTD. Système automatique de surveillance et de rapport d'infractions au code de la route
WO2007118272A1 (fr) * 2006-04-13 2007-10-25 Curtin University Of Technology Observateur virtuel
US20090135007A1 (en) * 2007-10-04 2009-05-28 Donovan John J Alerting system for safety, security, and business productivity having alerts weighted by attribute data
WO2013113521A1 (fr) * 2012-02-03 2013-08-08 Robert Bosch Gmbh Dispositif d'évaluation pour un système de surveillance ainsi que système de surveillance équipé dudit dispositif d'évaluation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YI-LING CHEN ET AL: "Intelligent Urban Video Surveillance System for Automatic Vehicle Detection and Tracking in Clouds", ADVANCED INFORMATION NETWORKING AND APPLICATIONS (AINA), 2013 IEEE 27TH INTERNATIONAL CONFERENCE ON, IEEE, 25 March 2013 (2013-03-25), pages 814 - 821, XP032426246, ISBN: 978-1-4673-5550-6, DOI: 10.1109/AINA.2013.23 *

Also Published As

Publication number Publication date
BR102014031307A2 (pt) 2015-10-06

Similar Documents

Publication Publication Date Title
Chang et al. Argoverse: 3d tracking and forecasting with rich maps
US11443555B2 (en) Scenario recreation through object detection and 3D visualization in a multi-sensor environment
JP6821762B2 (ja) 畳み込みニューラルネットワークを利用してpoi変化を検出するためのシステムおよび方法
US20200401617A1 (en) Visual positioning system
US20190050711A1 (en) Method, storage medium and electronic device for detecting vehicle crashes
US20170132806A1 (en) System and method for augmented reality and virtual reality applications
TWI451283B (zh) 事故資訊整合及管理系統及其相關事故資訊整合及管理方法
CN104103030B (zh) 图像分析方法、照相机装置、控制装置及控制方法
US11046340B2 (en) Vegetation detection and alert system for a railway vehicle
KR102193950B1 (ko) 센서를 이용하여 획득한 공간 정보를 활용하는 차량 및 센싱 장치, 그리고 이를 위한 서버
EP3593324B1 (fr) Détection et cartographie de cible
Wang et al. Automated road sign inventory system based on stereo vision and tracking
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
KR102092392B1 (ko) 실 공간에서 관심지점 관련 정보를 자동으로 수집 및 업데이트하는 방법 및 시스템
US20150009327A1 (en) Image capture device for moving vehicles
JP2012163495A (ja) センサ統合システム及びセンサ統合方法
JP7343054B2 (ja) 位置推定方法、位置推定装置、および位置推定プログラム
KR20200013155A (ko) 관심 영역 변화를 검출하는 방법 및 시스템
EP3506166A1 (fr) Prédiction de déplacement et de topologie pour un réseau de caméras
RU2742582C1 (ru) Система и способ отображения движущихся объектов на карте местности
KR102106029B1 (ko) 간판 검출 성능 향상을 위한 방법 및 시스템
KR102226372B1 (ko) 다수 카메라와 라이다 센서 융합을 통한 객체 추적 시스템 및 방법
KR102189926B1 (ko) 관심 영역 변화를 검출하는 방법 및 시스템
FR3015096A1 (fr) Systeme et procede de suivi d'objets mouvants et de personnes permettant d'en retracer l'itineraire sur une carte
JP6509546B2 (ja) 画像検索システム及び画像検索方法

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

CA Change of address

Effective date: 20170307

PLFP Fee payment

Year of fee payment: 5

ST Notification of lapse

Effective date: 20190906

RN Application for restoration

Effective date: 20191114

IC Decision of the director general to declare irreceivable or to reject an appeal

Effective date: 20200709