FR3079924A1 - Suivi par geolocalisation - Google Patents

Suivi par geolocalisation Download PDF

Info

Publication number
FR3079924A1
FR3079924A1 FR1853124A FR1853124A FR3079924A1 FR 3079924 A1 FR3079924 A1 FR 3079924A1 FR 1853124 A FR1853124 A FR 1853124A FR 1853124 A FR1853124 A FR 1853124A FR 3079924 A1 FR3079924 A1 FR 3079924A1
Authority
FR
France
Prior art keywords
target
history data
targets
geolocation
point history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1853124A
Other languages
English (en)
Other versions
FR3079924B1 (fr
Inventor
Alexandre BERTON
Christophe FAUCONNET
Bruno PIRES
Nicolas ROSSIGNOL
Frederic Derouineau
David LENOT
Giovanni TACCORI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Genetec Inc
Original Assignee
Genetec Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Genetec Inc filed Critical Genetec Inc
Priority to FR1853124A priority Critical patent/FR3079924B1/fr
Priority to US16/042,560 priority patent/US10908298B2/en
Publication of FR3079924A1 publication Critical patent/FR3079924A1/fr
Application granted granted Critical
Publication of FR3079924B1 publication Critical patent/FR3079924B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/421Determining position by combining or switching between position solutions or signals derived from different satellite radio beacon positioning systems; by combining or switching between position solutions or signals derived from different modes of operation in a single system
    • G01S19/426Determining position by combining or switching between position solutions or signals derived from different satellite radio beacon positioning systems; by combining or switching between position solutions or signals derived from different modes of operation in a single system by combining or switching between position solutions or signals derived from different modes of operation in a single system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/422Technical drawings; Geographical maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

Les données d'historiques de points de la cible de géolocalisation sont traitées en recevant des données d'historiques de points de la cible de géolocalisation de source d'une pluralité de cibles à partir d'au moins un dispositif de géolocalisation, en analysant les données d'historiques de points de la cible pour détecter quand les données d'historiques de points d'une des cibles sont susceptibles de représenter une même cible physique, et générant des données d'historiques de points de la cible modifiées pour représenter une seule cible en utilisant une fusion des données d'historiques de points de l'une des cibles et des données d'historiques de points de l'autre des cibles lorsqu'elles sont susceptibles de représenter la même cible physique. La fourniture de données d'historiques de points de la cible fusionnées et/ou séparées améliore la capacité d'un utilisateur à surveiller les données d'historiques de points de la cible du dispositif de géolocalisation.

Description

POURSUITE PAR LA GÉOLOCALISATION
Domaine technique [001] Cette demande de brevet est liée au suivi d'objets ou de personnes (cibles) en utilisant les données de géolocalisation et le traitement de données de géolocalisation.
Etat de la technique [002] Les systèmes de géolocalisation tels que récepteurs GPS, détecteurs radar, systèmes de localisation laser, caméras, détecteurs d'intrusion de câbles enterrés, capteurs de mouvement passif ou actif, etc. sont capables de fournir des données de suivi d'objets ou de personnes. Les systèmes ou dispositifs de géolocalisation prennent généralement des lectures à des intervalles fréquents et ces systèmes fournissent souvent un identifiant (ID) et des données de chemin concernant une cible à partir des lectures. De tels dispositifs de géolocalisation sont connus pour ne pas lire continuellement des cibles, et il arrive qu'une cible ne soit pas détectée par le dispositif, et donc le dispositif peut détecter le mouvement d'une cible comme la détection d'un certain nombre de cibles au cours du temps. Ceci est représenté schématiquement sur le côté gauche de la figure 1 sur les dessins annexés dans lesquels le mouvement d'une cible apparaît comme quatre cibles dans le temps.
[003] Pour l'opérateur utilisant un tel système, il est possible de considérer la possibilité que les différentes cibles détectées puissent être la même cible. Pour un opérateur, il faut considérer plusieurs différentes sources d'informations dans un système de sécurité pour déterminer si ce qui est présenté doit être considéré comme une menace ou non, la capacité d'examiner les données de parcours afin de déterminer précisément si une ou plusieurs cibles ont été détectées est compromise.
[004] De plus, les données de géolocalisation relatives aux cibles provenant de plusieurs systèmes seront signalées par chaque système comme des cibles distinctes. Bien que ces données d'historique de points de chaque cible » puissent être affichées ensemble sur un affichage commun de carte, une certaine confusion règne parfois quand il s'agit de savoir si certaines cibles de différents systèmes représentent la présence de plusieurs cibles (pouvant-être une signalisation d’une menace) ou simplement une seule cible (pouvant-être une signalisation d'aucune menace).
Exposé de l’invention [005] Le demandeur a découvert que le traitement des données d'historique de points de la cible du dispositif de géolocalisation pour fournir des historiques de points de la cible fusionnés et/ou séparés améliore la capacité d'un utilisateur à surveiller des historiques de point de la cible du dispositif de géolocalisation.
[006] Dans certains modes de réalisation, un procédé de traitement des données d’historique de points de la cible du dispositif de géolocalisation comprend la réception des données d’historique de points de la cible de géolocalisation de sur une pluralité de cibles à partir d'au moins un dispositif de géolocalisation, l'analyse des données d'historique de points de la cible pour détecter quand l'historique de points d'une cible et l’historique de points d’une autre cible sont susceptibles de représenter une même cible physique, et la génération d'un historique de points de la cible modifiée pour représenter une seule cible en fusionnant les historiques de points d'une des cibles et de l’historique de points de l'autre des cibles lorsqu'ils sont susceptibles de représenter la même cible physique.
[007] Dans certains modes de réalisation, un procédé d'affichage des données d’historique de points de la cible du dispositif de géolocalisation comprend la réception des données d'historique de points de géolocalisation de la source sur une pluralité de cibles provenant au moins d'un dispositif de géolocalisation, et la génération, pour un dispositif d'affichage, de données d'images représentatives d'une aire géographique, lesdites données d'image d'affichage contenant des données de l'indication de l’historique de points de cible correspondant auxdites données de géolocalisation de source pour chacune de ladite pluralité de cibles, lesdites données d'indication de l’historique de points de cible représentant lesdites données de l’historique de points de cible de géolocalisation de source pour lesdites cibles étant fusionnées en un historique de points de la cible commune lorsque l'historique de points de cible de desdites cibles indique la probabilité de représenter la même cible physique.
[008] Il sera apprécié qu'un tel procédé d'affichage des données d’historique de points de la cible du dispositif de géolocalisation peut être intégré dans une interface utilisateur d'un système de surveillance. Or, dans certains modes de réalisation, une mémoire lisible par ordinateur non transitoire stockant des instructions qui, lorsqu'elles sont exécutées par un processeur, réalisent le procédé d'affichage des données d’historique de points de la cible du dispositif de géolocalisation comprenant la réception des d'historiques de points de la cible de géolocalisation de source sur une pluralité de cibles provenant au moins d'un dispositif de géolocalisation, et la génération, pour un dispositif d'affichage, des données d'images représentatives d'une aire géographique, lesdites données d'image d'affichage contenant des données de l'indication de l’historique de points de la cible correspondant auxdites données de géolocalisation de source pour chacune de ladite pluralité de cibles, lesdites données d'indication de l'historique de points de la cible représentant lesdites données de l’historique de points de la cible de géolocalisation de source pour lesdites cibles étant fusionnées en un historique de points de la cible commune lorsque l'historique de points de la cible de desdites cibles indique la probabilité de représenter la même cible physique.
[009] Les données d'indication d’historique de points de cible peuvent comprendre un codage visuel pour indiquer quand un parcours a été fusionné par rapport au parcours source original, par exemple par couleur, taille, forme des points ou des lignes représentant le parcours, et par exemple avec la partie du parcours fusionné joignant deux historiques de points de cible de source étant visuellement codés. Les étiquettes de texte peuvent également être utilisées pour désigner des historiques de points de cibles fusionnées, soit en tant que marqueurs permanents, soit en tant que marqueurs qui apparaissent lorsqu'un curseur est placé sur l’historique fusionné ou la zone de fusion. Les symboles peuvent également être utilisés pour désigner des historiques de points de cible fusionnés. Lorsque des historiques de points de cible sont fusionnés à partir de dispositifs de géolocalisation hétérogènes, il est possible de fournir dans le codage visuel quel dispositif a fourni les données des historiques de points de la cible, en particulier lorsque plusieurs dispositifs sont actifs dans la même zone.
[0010] Il sera également apprécié qu'une interface utilisateur peut permettre à un utilisateur, qui est en désaccord avec une fusion automatique ou qui préfère simplement surveiller un parcours d'une cible avec des données brutes, de sélectionner un historique de points de la cible fusionnée et de fournir une entrée pour afficher l'historique fusionné dans son état original, en séparant des sources de données d’historique de points de cible.
[0011] Il sera également apprécié qu'une interface utilisateur peut permettre à un utilisateur, qui croit que deux sources d'historique de points de la cible appartiennent à une même cible physique, de sélectionner deux sources d'historique de points de cible et de fournir une entrée pour les fusionner et les afficher comme des historiques de points de cible fusionnés.
Description sommaire des dessins [0012] L'invention sera mieux comprise à l'aide de la description détaillée qui suit de modes de réalisation de l'invention en référence aux dessins annexés dans lesquels:
[0013] La figure 1 est une illustration schématique d'une carte de couverture d'un dispositif de géolocalisation 1 avant d'appliquer un mode de réalisation décrit cidessous du côté gauche dans lequel quatre historiques de points de cibles discrètes sont affichés et après application d'un mode de réalisation décrit ci-dessous du côté droit dans lequel un seul historique de points de cible continue est affiché;
[0014] La figure 2 est une illustration schématique des points de données du parcours d'une cible d’ID # 1 qui termine en montrant les autres points de données manquants et une zone de localisation projetée pour la cible # 1 si elle avait continué dans la même direction et vitesse au moment où une nouvelle cible est géolocaliséé comme cible # 2;
[0015] La figure 3 est une illustration schématique d’une carte de couverture pour chacun des deux dispositifs de géolocalisation 1 et 2 avant d'appliquer un mode de réalisation décrit ci-dessous sur le côté supérieur dans lequel deux historiques de points de cible discrets sont affichés et après application d'un mode de réalisation décrit cidessous du côté inférieur dans lequel un seul historique de points de cible continue est affiché couvrant les cartes de couverture des deux dispositifs;
[0016] La figure 4 est une illustration schématique d'une carte de couverture pour chacun des deux dispositifs de géolocalisation 1 et 2 selon un mode de réalisation décrit ci-dessous dans lequel deux historiques de points de cible initialement affichés sont considérés comme étant le même historique de points de cible commençant à un premier point dans le temps où seulement un historique de points de cible est affiché, et une fois que l’on trouve que les deux historiques se divergent, deux historiques de points de cible sont ensuite affichés;
[0017] La figure 5 est un schéma de principe d’un processeur de données d’historique de points de cible selon un mode de réalisation avec un dispositif d'affichage recevant les données d’historiques de points de cibles fusionnées ou défusionnées;
[0018] La figure 6 est un organigramme des étapes impliquées dans la fusion d'un historique de points de cible interrompue donnée un identifiant d'un dispositif de géolocalisation et une nouvelle historique de points de cible avec un autre identifiant du même dispositif de géolocalisation dans une seule historique de points de cible;
[0019] La figure 7 est un organigramme des étapes impliquées dans la fusion et la séparation des historiques de points de cible à partir de différents dispositifs de géolocalisation;
[0020] La figure 8 est un schéma de principe d'un processeur de données d’historique de points de cible selon un autre mode de réalisation avec un dispositif d’affichage recevant les données d’historiques fusionnées ou séparées et une interface utilisateur pour définir des angles morts et pour une séparation manuelle d’historiques de points de la cible fusionnés; et [0021] La figure 9 est un organigramme des étapes impliquées dans la fusion des historiques de points de cible interrompus avec un ID provenant d'un dispositif de géolocalisation et une nouvelle historique de points de cible avec un autre ID provenant du même dispositif de géolocalisation dans une seule historique de points de cible.
Description détaillée [0022] L’expression données d’historique de points de cible de géolocalisation de source telle qu'utilisée ici est destinée à signifier les données produites à partir d'un dispositif de géolocalisation autour d'une cible physique détectée. Ces données consistent fondamentalement en des coordonnées simples, cependant, dans de nombreux cas, les dispositifs de géolocalisation produisent des métadonnées qui relient une pluralité de coordonnées détectées dans un ensemble de données qui identifie l'historique des points d'une cible, et peuvent donc être considérés comme l'historique des données de géolocalisation pour la cible. Les données d’historique de points de cible de géolocalisation de source peuvent inclure un identifiant d'une cible, normalement un identifiant arbitraire. Le dispositif de géolocalisation peut, par exemple, produire soit la localisation prochaine d'une cible seule avec l'identifiant associé pour permettre au système d'affichage d'ajouter la localisation suivante à l'affichage de l’historique des points de cible, soit il peut produire tout l'historique des points de la cible avec l'identifiant de sorte que le système d'affichage puisse remplacer l'ancien historique par la nouvelle historique. L'expression données d’historique de points de cible est utilisée pour désigner des données de géolocalisation concernant une cible qui sont fusionnées à partir de deux ou plusieurs événements de données de géolocalisation de source, provenant du même dispositif de géolocalisation ou de différents dispositifs de géolocalisation, séparées suivant un processus de fusion ou non modifiées à partir des données d’historique de points de la cible de géolocalisation de source.
[0023] Les coordonnées GPS peuvent être agrégées à partir de divers systèmes tels que des radars, des lasers, des caméras, des systèmes d'intrusion filaire, et plus globalement tout système capable de fournir des coordonnées géoréférencées, pour générer des cibles sur des cartes.
[0024] Un des problèmes avec les systèmes conventionnels est que chaque système génère pour la même cible physique (exemple un piéton, une voiture ...) un identifiant unique et des coordonnées GPS plus ou moins fiables selon le système. Cela signifie dans l'exemple d’un piéton détecté à la fois par trois systèmes différents que nous aurons trois identifiants et trois coordonnées GPS différentes et donc trois cibles sur la carte pour le même piéton (voir le scénario de la figure 1).
[0025] Le deuxième problème est de pouvoir suivre une cible à travers un autre système lorsque le premier système de détection de la cible n'est plus capable de suivre (hors de son champ de surveillance, derrière un mur...) tant qu'il est visible dans le domaine de la détection / surveillance d'un autre système (voir le scénario de la figure 3).
[0026] Un autre problème est que, en fonction de la fiabilité du système, la même cible physique peut être momentanément perdue et générer ainsi une nouvelle identification. Ceci est exprimé visuellement par une succession de cibles au lieu de n'en représenter qu'une seule (voir le scénario de la figure 4).
[0027] La figure 1 montre schématiquement à gauche un affichage d'écran de la géolocalisation conventionnelle montrant des historiques de points de cible d'un seul dispositif 1, et à droite un affichage d'écran d'un mode de réalisation de l'invention dans lequel la fusion d’historiques de points de cible est appliquée. Dans l'exemple de la figure 1, la collecte périodique des données de position de géolocalisation de la cible a été interrompue trois fois. Chaque historique de points de cible peut être codé en couleur, étiqueté ou autrement identifié pour indiquer qu'elle est séparée des autres ou avec son ID de cible. Lorsque les historiques de points de la cible sont fusionnés, ce codage ou ce marquage peut être le même que l’historique original de points de la cible auquel d'autres historiques de points de la cible sont fusionnés, ou un codage ou une étiquette entièrement différente peut être utilisé pour indiquer que l’historique des points de la cible est le résultat d'un processus de fusion.
[0028] Comme illustré schématiquement sur la figure 2, les données d’historique de points de la cible pour une cible identifiée par # 1 contiennent périodiquement des points de données de localisation qui sont ajoutés à l'ensemble des données d’historique, et comme illustré peut être assez régulier en fonction du fonctionnement des dispositifs de géolocalisation. Lorsque la détection de la cible est entravée par des conditions physiques, la détection est interrompue. Le dispositif 1 considère que l’historique des points de la cible de l'ID n ° 1 est terminée lorsque tout autre point de données à proximité du dernier point de données ne parvient pas à être détecté dans une période de temps prévue.
[0029] Comme on le comprendra, ceci représente un algorithme intelligent capable d'agréger les coordonnées GPS de différents systèmes tels que des radars, des lasers, des caméras, et plus généralement de tous les systèmes capables de fournir des coordonnées géoréférencées pour fusionner les cibles entre les différents systèmes. L'objectif est de fournir à l'utilisateur final la source de données la plus simple et la plus fiable possible.
[0030] L'algorithme est également capable d'annuler une fusion de données d’historique de points de la cible si la fusion est finalement reconnue par l'algorithme comme fausse. Cette annulation se fait sans perte de données puisque la totalité des points de chaque cible peut être restaurée.
[0031] Un algorithme de comparaison de cible peut être décrit comme suit :
[0032] Soit C1 la cible 1 déjà présente dans le système pour laquelle nous avons à partir d’au moins deux points calculé une direction (Angle) ainsi qu’une vitesse, et C2 la cible 2 dont nous recevons un nouveau point à un instant T.
[0033] 1) Calcul de la direction (appelé ici D1.2) entre le dernier point de C1 et celui de C2 reçu à l’instant T.
[0034] 2) Vérification que la direction D1.2 est dans la direction moyenne des derniers points de C1.
[0035] Si la tolérance est dépassée, il n’y a pas d’auto fusion possible.
[0036] 3) Calcul du pourcentage de précision de D1.2 par rapport à la médiane des derniers points de C1. Ce pourcentage est appelé %angle.
[0037] 4) En fonction de la vitesse moyenne des derniers points de D1 nous déterminons une vitesse VM1 afin de connaître la distance possible qu’a pu parcourir la cible entre le dernier point de C1 et celui de C2 reçu à l’instant T. (Ex : si C1 allait à 50km/h et que C2 arrive 1,5 s après le dernier point de C1, cela revient à 50 km/h en 1,5 s soit environ 20,8 m.
[0038] 5) Détermination de la distance réelle entre le dernier point de C1 et celui de
C2.
[0039] Vérification que la distance réelle précédemment calculée est dans la tolérance de la distance possible parcourue. La tolérance est un pourcentage dépendant de la vitesse de la cible (plus la cible est rapide plus la tolérance est importante) [0040] Si la tolérance est dépassée, il n’y a pas d’auto fusion possible.
[0041] 6) Calcul du pourcentage de précision entre la distance réelle entre les deux points et la distance possible calculée. Ce pourcentage est appelé %distance.
[0042] 7) Si %angle et %distance sont suffisamment élevée l’auto fusion est générée.
[0043] 8) Si une cible C2 était fusionnée à une cible C1 et que les étapes 2 ou 5 ne sont pas correctes, l’auto fusion est automatiquement annulée par l’algorithme.
[0044] Il sera plus apprécié que plus le dispositif ou le système de géolocalisation est précis, plus les tolérances seront petites.
[0045] Comme illustré sur la figure 2, dans un mode de réalisation, la vitesse et la direction de la cible n ° 1 sont déterminées et extrapolées à partir du dernier point ou des derniers points. L'extrapolation peut être linéaire ou non linéaire, et l'accélération ou la décélération de la cible peut également être impliquée au lieu d'utiliser une vitesse simple de la cible obtenue à partir des deux ou plusieurs derniers points de données. Lorsque le premier point de données d'une nouvelle cible, par exemple n ° 2, du dispositif 1 est détecté, dans ce mode de réalisation, il est déterminé si la projection ou la prédiction de la localisation prévue de la cible n ° 1, dans une zone de tolérance, correspond au nouveau point de données de la cible # 2. Dans ce cas, les données d’historique de points de la cible n ° 2 peuvent être fusionnées dans les données de la cible n ° 1 et faire apparaître la poursuite de la cible n ° 1 sur l'affichage d'un système de surveillance. Facultativement, il est possible d'attendre un second point de données (ou même plus) de la cible # 2 (non représentée sur la figure 2) pour confirmer que la cible # 2 à la même direction et vitesse, dans les tolérances, que la cible # 1 à son interruption avant de fusionner les données de la cible n ° 2 dans les données de la cible n ° 1.
[0046] La tolérance utilisée peut être définie par un opérateur ou configurée dans le logiciel. Typiquement, elle sera basée sur la précision connue du dispositif de géolocalisation dans la mesure de la position d'une cible. Cette précision peut être déterminée expérimentalement à partir du système installé ou défini par le fabricant. La précision de localisation aura un impact sur le calcul de la vitesse et de la direction de la piste qui se termine, car cela est basé sur deux points ou plus à partir des données de la cible. La tolérance peut ainsi dépendre de l’historique des points d'une cible et/ou du taux de détection de la localisation et peut être variable d'une cible à l'autre en utilisant le même dispositif de géolocalisation. Ainsi, la prédiction de la position actuelle de la cible dont la trajectoire est terminée sera une zone beaucoup plus grande que celle définie par l'exactitude immédiate de la localisation de la position du dispositif, et même si elle peut être une simple zone circulaire ou polygonale, elle peut également une zone frustro-conique comme illustré sur la figure 2. Les données de tolérance peuvent également être définies par l'opérateur ou configurées dans le logiciel comme inférieures ou supérieures à ce qui est dérivé de la précision de localisation du dispositif, par exemple il peut s'agir d'une zone fixe la localisation prévue.
[0047] Alors que sur la figure 1, les données de géolocalisation sont obtenues à partir d’un seul dispositif ou système, il est également courant de combiner les informations d'un certain nombre de dispositifs de géolocalisation qui ont des zones de recouvrement chevauchantes comme illustré sur la figure 3. Dans certains cas, le premier dispositif de géolocalisation peut ne pas détecter les cibles dans des zones situées dans sa zone de couverture plus large, tandis qu'un second dispositif peut détecter la cible dans ces zones. Cela peut arriver à cause de murs ou d'autres obstacles. Il est donc important de combiner les informations de suivi provenant de divers dispositifs de géolocalisation (dans certains cas en utilisant différentes modalités de localisation) pour assurer un suivi efficace des cibles.
[0048] Comme illustré sur la figure 3, les historiques des points d'une cible passant de gauche à droite détectés par chaque dispositif ont une zone où la cible est détectée par les deux dispositifs. La fusion de l'apparence des deux cibles séparées en une seule cible géolocalisée permet une amélioration significative de la surveillance des cibles. Il est bien sûr important d'avoir confiance que les deux cibles identifiées par chaque dispositif se rapportent à la même cible. La fusion de données de l'historique de points d'une cible dans les données de l’historique de points d'une autre cible peut impliquer de s’assurer que la direction, la vitesse et éventuellement les données d'accélération correspondent aux tolérances entre les deux dispositifs.
[0049] Comme illustré sur la figure 4, il est possible que deux cibles détectées par deux dispositifs ou plus suivent un parcours identique ou similaire sur une période de temps tel qu'il semble que les deux cibles soient en fait une cible unique et doivent être fusionnées. Lorsqu'une cible est détectée par deux dispositifs de géolocalisation, tels que le dispositif 1 et le dispositif 2, la méthode de combinaison ou de fusion des données de l’historique des points de la cible de chaque dispositif pour montrer à l'utilisateur un seul historique de points de la cible n'arrête pas la surveillance de chaque ensemble de données afin de garantir que toute divergence dans les données des points de cible de chaque dispositif passe rapidement à une présentation en tant que deux ensembles de données de points de cibles distincts. À cet égard, il est possible pendant le temps que les deux ensembles de données de points de la cible ont été fusionnés de montrer une seule cible qui est soit prise à partir d'un dispositif, l'autre dispositif ou une moyenne des deux dispositifs. Cependant, lorsqu'il est décidé que la fusion doit être annulée ou séparée, les données affichées peuvent retourner à l'affichage de deux historiques de points de cibles distincts, y compris les parties séparées de la partie récente qui se chevauchait presque des deux cibles.
[0050] Sur la figure 5, il est montré un schéma de principe d'un appareil qui fusionne ou sépare les sources des données d’historiques de points de la cible. Le bloc peut représenter des modules logiciels d'un programme informatique exécuté sur une plateforme informatique ayant un processeur et une mémoire qui effectue la méthode de fusion ou séparation des sources des données d’historiques de points de la cible pour l'affichage. Le dispositif 1 et le dispositif 2 sont inclus dans le diagramme de la figure 5 en tant qu'exemples des sources de données de l’historique des points des cibles. On notera que certains modes de réalisation peuvent fonctionner à partir d'une source unique de données de géolocalisation, tandis que d'autres peuvent combiner des données provenant d'un grand nombre de dispositifs.
[0051] À titre d'exemple, non limitatif de dispositifs de géolocalisation, les systèmes radar de surveillance tels que ceux de SpotterRF, NavTech, Axis et Rockwell Collins, les systèmes de détection de présence laser tels que ceux d'Optex, les capteurs périmétriques enterrés tels que ceux provenant de Future Fiber Technologies, des systèmes de caméra d'analyse vidéo intelligente (IVA) qui effectuent des suivis tels que le système Bosch IVA, et des détecteurs de présence de véhicules tels que ceux d'Optex.
[0052] Il sera apprécié que certains de ces dispositifs peuvent typiquement fournir une lecture de localisation unique d'une cible. Par conséquent, les données de l'historique des points de la cible peuvent comprendre une seule localisation et la fusion de telles données avec les données provenant d'autres dispositifs peut assurer une continuité dans le suivi d'une cible.
[0053] Le dispositif 1 est illustré schématiquement comme ayant un détecteur qui fournit des événements de mesure de localisation dans le temps. Une fonction de suivi de cible dans le dispositif 1 peut déterminer si un événement est suffisamment proche dans l'espace et le temps d'un événement précédent pour déterminer qu'il appartient à une cible reconnue. Pour aider à cette détermination, une mémoire des localisations de cibles reconnues peut être fournie et utilisée par le module de suivi de cible.
[0054] La fonction centrale de l'appareil représenté sur la figure 5 est le module de fusion / séparation de cible 20. Il reçoit les données d’historiques des points de toutes les cibles de tous les dispositifs de géolocalisation et décide de la fusion et de la séparation de ces données avant que les données de géolocalisation doivent être émises. Comme décrit ci-dessus, cette décision peut être prise en utilisant une variété de critères, et des modules sont fournis pour supporter les décisions prises par le module 20.
[0055] Le vecteur de direction des cibles est calculé dans le module 12. Le vecteur de direction peut être calculé comme une ligne droite ou comme une courbe basée sur des points passés. Le calculateur de vitesse 14 peut calculer une vitesse fixe ou il peut inclure une accélération. Des tolérances pour la direction et la vitesse peuvent également être calculées pour le parcours cible lorsque ces tolérances ne sont pas fixées.
[0056] Le module 16 est le détecteur d'interruption / de démarrage de l’historique des points de la cible et il identifie lorsque les données de l'historique des points pour une cible ne sont pas mises à jour avec un nouveau point comme le ferait normalement le dispositif, de sorte que l'ID du parcours cible est terminé. Ce marquage ou étiquetage des données de parcours des cibles est utile pour le module 20, ainsi que pour le module 18 qui effectue la prédiction d'une localisation de cible en fonction d'un ID qui s'est terminé.
[0057] Le module 20 peut alors fusionner le parcours interrompu d'une cible détectée depuis un dispositif de géolocalisation avec son nouveau parcours, de sorte que les mêmes données du parcours cible soient étendues et sorties pour être affichées sous forme de carte ou sous toute autre forme appropriée. Les étapes impliquées dans cette fusion sont illustrées sur la figure 6, à savoir:
recevoir et enregistrer l'ID des données d’historique de points de cible de source et la localisation actuelle ou l'ID et l'ensemble des localisations;
calculer le vecteur de direction et la vitesse actuelle à partir d'au moins la dernière localisation et la localisation actuelle;
déterminer le taux de mise à jour des données d’historique de points de cible et déterminer si le parcours est interrompu par manque de mise à jour des données d’historique de points de cible en temps opportun pour un ID;
prédire la localisation actuelle du parcours interrompu pour un ID à partir du vecteur de direction et le calcul de la vitesse actuelle; et pour le nouvel ID de parcours, déterminer si sa première localisation se situe dans la tolérance de mesure de la localisation actuelle prévue du parcours interrompu et, si oui, afficher la nouvelle source des données du parcours comme suite de données du parcours interrompu en utilisant son ID au lieu d'un nouveau parcours, sinon un nouveau parcours avec un nouvel ID;
[0058] Lorsqu'un utilisateur peut défusionner manuellement l’historique de points de la cible affichée, il peut également être utile d'afficher des informations concernant les conditions de fusion. Par exemple, la zone prédite, par exemple dans un affichage cartographique, dans laquelle l'historique de points de cible interrompu devrait être trouvé au moment où le nouvel historique de points de cible est apparu, similaire à ce qui est montré sur la figure 2, peut être présenté sur l'écran 22. Cette présentation peut éventuellement être supprimée à un moment donné après l'opération de fusion pour réduire la quantité d'informations sur l'affichage.
[0059] Comme mentionné précédemment, le module 20 détermine également quand les valeurs de position actuelles, les directions et les valeurs de vitesse pour deux ensembles de données de cible ou plus provenant de différents dispositifs de géolocalisation sont suffisamment proches pour croire qu'ils appartiennent à la même cible. Dans ce cas, les sources des données de l'historique de points des cibles sont fusionnées en un seul ensemble de données de cible fusionné. Il sera apprécié qu'il est possible de ne considérer que la localisation, sans tenir compte des valeurs de direction et de vitesse pour fusionner les données de parcours provenant de différents dispositifs. [0060] Si de tels ensembles de données de cible fusionnés ne commencent jamais à diverger de sorte que la fusion des ensembles de données de cible doit être annulée, le module 20 peut revenir à fournir deux ensembles de données de cible séparés pour les deux cibles. Les étapes de cette fusion et séparation sont illustrées à la figure 7, à savoir:
recevoir et enregistrer des données d’historique de points de cible de source à partir de différents dispositifs;
comparer des données d’historique de points de cible de différents dispositifs pour voir s'ils observent la même cible et si deux parcours correspondent à la même cible, afficher un ID unique et des données d’historique de points de cible associées pour la cible, et afficher des ID et des données d’historique de points de cible différents pour chaque cible; et comparer des données d’historique de points de cible de différents dispositifs qui semblent être la même cible, vérifier s'il y a divergence dans leurs parcours, et s'il y a divergence, commencer à produire l'une des cibles comme un nouvel ID et l'ensemble de données d’historique de points de cible;
[0061] Dans la description ci-dessus, la fusion et la séparation des données d’historiques de points des cibles sont effectuées sans règles spécifiques établies pour le type de dispositif de géolocalisation ou la localisation dans la zone de couverture d'un dispositif. Il sera apprécié que le module 20 puisse invoquer des règles pour décider de la fusion ou de la séparation des données d’historiques de points des cibles en fonction de la localisation. Un exemple est quand un système de suivi radar au sol est disposé de telle sorte qu'il ne peut pas détecter des objets derrière un mur ou un bâtiment. De tels angles morts entraîneraient normalement l'interruption du suivi d'un objet, de telle sorte que les données de parcours se termineront lorsqu'une cible entre dans l'angle mort et qu'un nouveau chemin commencera lorsque la cible quittera l'angle mort.
[0062] Dans le mode de réalisation de la figure 8, l'appareil est représenté comme comprenant une interface utilisateur 24 pour permettre à un opérateur de sélectionner un parcours cible fusionné et de faire fusionner le parcours cible fusionné si l'opérateur trouve que la fusion ( le processus de la figure 7) ne convient pas. Comme décrit cidessus, l'affichage des parcours cibles peut être codé en couleur ou autrement indiqué visuellement sur l'affichage comme étant fusionné de sorte que l'opérateur peut facilement percevoir si un chemin cible est le résultat de la fusion. On notera que le module 24 peut être une interface indépendante implémentant dans un logiciel ou une fonction dans une interface de surveillance de géolocalisation existante.
[0063] Le module 20 peut utiliser la vitesse et la direction avant d'entrer dans l'angle mort pour déterminer si une cible s'est probablement déplacée dans un angle mort. Dans ce cas, une interface utilisateur 26 pour définir les zones d'angles morts peut être prévue. Alternativement, il serait possible d'analyser l'historique de points de la cible pour déterminer les zones d'angle mort sans une spécification d'utilisateur. Les spécifications de zone d'angle mort sont stockées dans la mémoire 28 et utilisées par le module de prédiction 18' qui délivre pour des cibles supposées être dans un angle une localisation estimée du parcours interrompu de la cible comme étant dans une zone entourant l'angle mort. Cette localisation prédite est fixe et peut rester pour n'importe quel temps prédéterminé désiré. Ce paramètre de temps peut être défini par l'utilisateur avec le module 26 ou encore il peut être déterminé à partir de l'analyse de données historiques.
[0064] Le module 20 se comporte alors sensiblement comme il l'a fait avec le module 18 lorsqu'il reçoit une entrée du module 18', et effectue une fusion comme décrite ci-dessus. Il sera apprécié que, si une cible effectue une action d'arrêt et de démarrage dans l'angle mort, la fusion sera toujours possible, car elle ne dépend pas du fait de continuer à la même vitesse et direction. Il sera apprécié que le module 18' a une règle qui s'applique à l'angle mort qui prédit une localisation à n'importe quelle extrémité possible de l'angle mort pour une cible qui s'est déplacée dans l'angle mort. L'interface 26 peut spécifier des détails de toutes les règles appropriées. Ainsi, toute nouvelle cible apparaissant à une extrémité de l'angle mort peut être considérée par le module 20 comme une extension de l'ensemble de données du parcours de la cible qui s'est déplacée dans l'angle mort.
[0065] Comme il sera apprécié, le module de prédiction 18' peut être configuré avec la connaissance des zones de point mort associées aux divers dispositifs de géolocalisation. Une telle configuration spécifique à un dispositif peut être réalisée en utilisant une interface d'administrateur ou d'opérateur 26. Le module 18' peut également fonctionner avec les capacités de prédiction basées sur le mouvement du module 18 lorsqu'une cible n'est pas dans un angle mort.
[0066] Les étapes de cette fusion et séparation sont illustrées sur la figure 9, à savoir:
recevoir et enregistrer l'ID des données d’historique de points de cible de source et la localisation actuelle ou l'ID et l'ensemble des localisations;
calculer le vecteur de direction et la vitesse actuelle à partir d'au moins la dernière localisation et la localisation actuelle;
déterminer le taux de mise à jour des données d’historique de points de cible et déterminer si le parcours est interrompu par manque de mise à jour des données d’historique de points de cible en temps opportun pour un ID;
prédire la localisation actuelle du parcours interrompu pour un ID à partir du vecteur de direction et le calcul de la vitesse actuelle;
déterminer si la localisation actuelle prévue est dans une zone de l'angle mort définie; et déterminer si le nouveau parcours commence à proximité de la zone définie de l'angle mort et, si oui, fusionner les nouvelles données d’historique de la cible avec les données d’historique de la cible prévues dans la zone l'angle mort;
[0067] Lorsqu'un utilisateur peut séparer manuellement le parcours de la cible affiché, il peut également être utile d'afficher des informations concernant les conditions de fusion. La zone de périmètre d'angle mort, par exemple dans un affichage de carte, dans laquelle le parcours interrompu de la cible devrait être trouvé, au moment où le nouveau parcours de la cible est apparu, peut être présentée sur l'écran 22. Cette présentation peut inclure une indication de la durée pendant laquelle la cible était dans la zone de l'angle et, facultativement, elle peut être retirée à un moment donné après l'opération de fusion pour réduire la quantité d'informations sur l'affichage. De telles informations peuvent être utiles pour guider l'opérateur dans la décision de rejeter l'opération de fusion automatique donnée qui a été effectuée.

Claims (22)

1. Procédé mis en œuvre par ordinateur pour traiter des données d’historique de points de la cible à partir d’un ou plusieurs dispositifs de géolocalisation, le procédé comprenant:
recevoir des données d’historique de points de la cible de géolocalisation de source concernant une pluralité de cibles à partir d'au moins un dispositif de géolocalisation;
analyser lesdites données d’historique de points de la cible de géolocalisation de source pour détecter lorsque lesdites données d’historique de points de la cible de géolocalisation de source provenant de l'une desdites cibles et de la dite géolocalisation de desdites données d’historique de points de la cible de géolocalisation de source d'une autre géolocalisation de source desdites cibles sont susceptibles de représenter une même cible physique; et générer des données d’historique de points de la cible modifiées pour représenter une seule cible en utilisant une fusion desdites données d’historique de points de la cible de géolocalisation de source provenant d'une desdites cibles et desdites données d’historique de points de la cible de géolocalisation de source provenant de ladite autre desdites cibles lorsqu'elles sont susceptibles de représenter la même cible physique.
2. Procédé selon la revendication 1, dans lequel ladite analyse comprend:
déterminer quand lesdites données d’historiques de points de la cible provenant de ladite une desdites cibles se terminent;
déterminer une direction et une vitesse de ladite une desdites cibles à une extrémité de son parcours à partir desdites données d’historiques de points de la cible provenant de ladite une desdites cibles;
déterminer un point dans le temps lorsque lesdites données d’historiques de points de la cible provenant de ladite autre desdites cibles commencent;
prédire une localisation de ladite une desdites cibles à partir de ladite vitesse et de ladite direction audit instant dans le temps;
déterminer que lesdites données d’historiques de points de la cible d'une desdites cibles et lesdites données d’historiques de points de la cible d'une autre desdites cibles sont susceptibles de représenter une même cible physique lorsque ladite localisation prédite est proche d'une position de ladite autre desdites cibles lorsque lesdites données d’historiques de points de la cible de l'autre desdites cibles commencent.
3. Procédé selon la revendication 2, dans lequel ladite prédiction comprend le calcul des tolérances associées audit au moins un dispositif de géolocalisation pour ladite localisation, et ladite détermination comprend l'utilisation de ladite localisation caractérisée par lesdites tolérances.
4. Procédé selon la revendication 2, dans lequel ladite détermination comprend l'utilisation de ladite localisation caractérisée par des tolérances prédéterminées associées audit au moins un dispositif de géolocalisation.
5. Procédé selon l'une quelconque des revendications 1 à 4, dans lequel ladite analyse comprend:
collecter une définition d'une ou plusieurs zones d'angle mort pour ledit au moins un dispositif de géolocalisation;
déterminer, lorsque lesdites données d’historiques de points de la cible provenant de ladite une desdites cibles se termine, s'il est probable que ladite une desdites cibles est entrée dans une zone donnée de ladite une ou desdites plusieurs zones d'angle mort;
déterminer, lorsque lesdites données d’historiques de points de la cible provenant de ladite autre desdites cibles commencent, si une localisation initiale de ladite autre cible est proche d'un périmètre de ladite zone donnée d'angle mort; et déterminer que lesdites données d’historiques de points de la cible provenant de l'une desdites cibles et desdites données d’historiques de points de la cible d'une autre desdites cibles sont susceptibles de représenter une même cible physique lorsque ladite position initiale de ladite autre cible est proche d'un périmètre de ladite zone donnée d'angle mort.
6. Procédé selon la revendication 5, dans lequel ladite collecte comprend la collecte d'une entrée d'utilisateur pour créer ladite définition d'une zone ou d’un périmètre pour ladite une ou plusieurs zones d'angle mort et le stockage de ladite définition dans la mémoire.
7. Procédé selon l'une quelconque des revendications 1 à 6, dans lequel la réception de données d’historiques de points de la cible de géolocalisation comprend la réception desdites données d’historiques de points de la cible de géolocalisation provenant d'au moins deux dispositifs de géolocalisation, et ladite analyse consiste à déterminer quand lesdites données d’historiques de points de la cible d'une desdites cibles proviennent d'au moins lesdits dispositifs de géolocalisation et lesdites données d’historiques de points de la cible provenant d'une autre desdites cibles provenant d'un second desdits dispositifs de géolocalisation suivent dans les tolérances entre elles de manière à être considérées comme susceptibles de représenter une même cible physique.
8. Procédé selon la revendication 7, dans lequel ladite analyse comprend en outre la détermination lorsque lesdites données d’historiques de points de la cible de l'une desdites cibles dudit premier desdits dispositifs de géolocalisation et desdites données d’historiques de points de la cible provenant de ladite autre desdites cibles provient dudit second desdits dispositifs de géolocalisation ne suivent plus les tolérances entre elles de manière à être considérées comme susceptibles de représenter une cible physique différente, et ladite génération de données d’historiques de points de la cible modifiées comprend en outre la sortie de données d’historiques de points de la cible modifiées pour représenter des données d’historiques de points de la cible séparées pour ladite une desdites cibles dudit premier desdits dispositifs de géolocalisation et de ladite autre desdites cibles à partir dudit second desdits dispositifs de géolocalisation.
9. Procédé selon l'une quelconque des revendications 1 à 8, comprenant en outre l'acceptation d'une entrée d’utilisateur pour annuler ladite génération des données d’historiques de points de la cible modifiées pour représenter une seule cible en utilisant une fusion desdites données de chemin de ladite une desdites cibles et desdites données de chemin provenant de ladite autre desdites cibles et retourner à la sortie de données de chemin modifiées pour représenter des données de chemin cible séparées pour ladite une desdites cibles et lesdites données d’historiques de points de la cible provenant de ladite autre desdites cibles.
10. Procédé implémenté par ordinateur pour traiter des données d’historiques de points de la cible à partir de dispositifs de géolocalisation pour affichage sur un dispositif d'affichage, comprenant le traitement de données d’historiques de points de la cible à partir de dispositifs de géolocalisation selon l'une quelconque des revendications 1 à 9.
11. Procédé selon la revendication 10, dans lequel ledit affichage comprend la fourniture d'une identification associée à l'affichage de données d’historiques de points de la cible, dans lequel lesdites données d’historiques de points de la cible représentent des données d’historiques de points de la cible fusionnées ou des données d’historiques de points de la cible non fusionnées.
12. Procédé selon la revendication 10 ou 11, dans lequel ledit affichage comprend le marquage sur une carte graphique d'une localisation desdites une ou plusieurs zones de l'angle mort.
13. Procédé selon l'une quelconque des revendications 10 à 12, dans lequel ledit affichage comprend le marquage sur une carte graphique d'une zone correspondant à ladite localisation de ladite une desdites cibles à partir de ladite vitesse et de ladite direction audit instant en fonction desdites prédictions et desdites tolérances .
14. Mémoire lisible par ordinateur stockant des instructions d'ordinateur pour amener un ordinateur à exécuter le procédé selon l'une quelconque des revendications 1 à 13.
15. Appareil pour traiter des données d’historiques de points de la cible à partir de dispositifs de géolocalisation, l'appareil comprenant:
un calculateur de vecteur de direction recevant des données d’historiques de points de la cible de géolocalisation de source à propos d'une pluralité de cibles à partir d'au moins un dispositif de géolocalisation et fournissant un vecteur de direction pour lesdites données d’historiques de points de la cible pour chacune de ladite pluralité de cibles;
un calculateur de vitesse recevant lesdites données d’historiques de points de la cible de géolocalisation de source et fournissant une valeur de vitesse pour lesdites données de chemin pour chacune de ladite pluralité de cibles;
un analyseur de fusion du parcours de la cible recevant ledit vecteur directionnel, ladite valeur de vitesse et lesdites données d’historiques de points de la cible de géolocalisation de source et fournissant des données d’historiques de points de la cible de géolocalisation modifiées, dans lequel lesdites données d’historiques de points de la cible de géolocalisation modifiée représentent une seule cible utilisant une fusion desdites données d’historiques de points de la cible de ladite une desdites cibles et desdites données d’historiques de points de la cible provenant de ladite autre desdites cibles lorsqu'elles sont susceptibles de représenter la même cible physique.
16. Appareil selon la revendication 15, comprenant en outre un détecteur d'interruption / de démarrage d’historiques de points de la cible recevant lesdites données d’historiques de points de la cible de géolocalisation de source et fournissant un signal représentant l'extrémité de parcours de la cible ou le début dudit analyseur de fusion.
17. Appareil selon la revendication 15 ou 16, comprenant en outre un module de prédiction d’historiques de points de la cible recevant lesdites données d’historiques de points de la cible de géolocalisation de source et fournissant audit analyseur de fusion une localisation prédite de l'une desdites cibles à partir de ladite valeur de vitesse et dudit vecteur directionnel à un moment donné.
18. Appareil selon la revendication 17, dans lequel ledit module de prédiction du parcours de la cible reçoit une définition d'une ou plusieurs zones de l'angle mort pour l'un desdits au moins un dispositif de géolocalisation et fournit audit analyseur de fusion une localisation prédite de ladite une desdites cibles comme étant à proximité d'un périmètre de l'une desdites zones de l'angle mort lorsque ledit vecteur de direction et ladite valeur de vitesse suggèrent qu'un chemin cible est entré dans ladite une desdites zones d'angle mort.
19. Appareil selon la revendication 18, comprenant en outre une interface utilisateur configurée pour collecter une sélection d'utilisateur desdites une ou plusieurs zones d'angle mort.
20. Appareil selon l’une quelconque des revendications 15 à 19, comprenant en outre un dispositif d'affichage recevant lesdites données d’historiques de points de la cible de géolocalisation modifiées et fournissant un affichage de celles-ci pour un utilisateur.
21. Appareil selon l'une quelconque des revendications 15 à 20, comprenant en outre une interface utilisateur configurée pour collecter une sélection d'utilisateur d'un parcours de la cible donné, dans lequel ledit analyseur de fusion reçoit ladite sélection d'utilisateur dudit chemin cible donné et traite lesdites données d’historiques de points de la cible de géolocalisation modifiées pour représenter des cibles séparées pour ledit parcours cible donné lorsque ledit parcours donné de la cible est une fusion.
22. Appareil selon l'une quelconque des revendications 15 à 21, comprenant un processeur et des instructions de stockage de mémoire lisibles non transitoires qui, lorsqu'elles sont traitées par ledit processeur, amènent ledit appareil à exécuter le procédé selon l'une quelconque des revendications 1 à 14.
FR1853124A 2018-04-10 2018-04-10 Suivi par geolocalisation Active FR3079924B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1853124A FR3079924B1 (fr) 2018-04-10 2018-04-10 Suivi par geolocalisation
US16/042,560 US10908298B2 (en) 2018-04-10 2018-07-23 Tracking using geolocation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1853124A FR3079924B1 (fr) 2018-04-10 2018-04-10 Suivi par geolocalisation
FR1853124 2018-04-10

Publications (2)

Publication Number Publication Date
FR3079924A1 true FR3079924A1 (fr) 2019-10-11
FR3079924B1 FR3079924B1 (fr) 2021-10-29

Family

ID=63080041

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1853124A Active FR3079924B1 (fr) 2018-04-10 2018-04-10 Suivi par geolocalisation

Country Status (2)

Country Link
US (1) US10908298B2 (fr)
FR (1) FR3079924B1 (fr)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230007926A1 (en) * 2021-07-09 2023-01-12 Genetec Europe Computer-assisted wait time estimation
US20230089124A1 (en) * 2021-09-20 2023-03-23 DC-001, Inc. dba Spartan Radar Systems and methods for determining the local position of a vehicle using radar

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070129892A1 (en) * 2005-10-14 2007-06-07 Brian Smartt System and method for identifying road features
US20080291278A1 (en) * 2005-04-05 2008-11-27 Objectvideo, Inc. Wide-area site-based video surveillance system
US20090210147A1 (en) * 2008-02-20 2009-08-20 Nokia Corporation Method, Apparatus and Computer Program Product for Map Generation Using Perpendicular Projection to Merge Data
CN103575279A (zh) * 2013-11-04 2014-02-12 成都金本华科技股份有限公司 基于模糊信息的航迹关联方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9128185B2 (en) * 2012-03-15 2015-09-08 GM Global Technology Operations LLC Methods and apparatus of fusing radar/camera object data and LiDAR scan points
JP6150418B2 (ja) * 2012-04-27 2017-06-21 古野電気株式会社 情報表示装置、魚群探知機及び情報表示方法
KR102551099B1 (ko) * 2017-01-13 2023-07-05 엘지이노텍 주식회사 어라운드뷰 제공장치, 제공방법 및 이를 구비한 차량
US10921437B2 (en) * 2017-07-13 2021-02-16 Databuoy Corporation Object tracking in an area of distributed sensors
US10656245B2 (en) * 2017-09-05 2020-05-19 Valeo Radar Systems, Inc. Automotive radar sensor blockage detection using adaptive overlapping visibility

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080291278A1 (en) * 2005-04-05 2008-11-27 Objectvideo, Inc. Wide-area site-based video surveillance system
US20070129892A1 (en) * 2005-10-14 2007-06-07 Brian Smartt System and method for identifying road features
US20090210147A1 (en) * 2008-02-20 2009-08-20 Nokia Corporation Method, Apparatus and Computer Program Product for Map Generation Using Perpendicular Projection to Merge Data
CN103575279A (zh) * 2013-11-04 2014-02-12 成都金本华科技股份有限公司 基于模糊信息的航迹关联方法及系统

Also Published As

Publication number Publication date
FR3079924B1 (fr) 2021-10-29
US20190310380A1 (en) 2019-10-10
US10908298B2 (en) 2021-02-02

Similar Documents

Publication Publication Date Title
US11906312B2 (en) Localizing transportation requests utilizing an image based transportation request interface
EP3372975B1 (fr) Detection de fuite pour des reseaux de distribution de fluide utilisant une imagerie hyperspectrale
US20190095877A1 (en) Image recognition system for rental vehicle damage detection and management
US11087292B2 (en) Analyzing images and videos of damaged vehicles to determine damaged vehicle parts and vehicle asymmetries
US20190385121A1 (en) Trip inferences and machine learning to optimize delivery times
US8526677B1 (en) Stereoscopic camera with haptic feedback for object and location detection
US10731995B2 (en) Generating a road network from location data
US11676303B2 (en) Method and apparatus for improved location decisions based on surroundings
US20170217433A1 (en) Tracking objects within a dynamic environment for improved localization
US9870511B2 (en) Method and apparatus for providing image classification based on opacity
US11039044B2 (en) Target detection and mapping using an image acqusition device
CN111602138B (zh) 基于人工神经网络的物体检测的系统及方法
US11656365B2 (en) Geolocation with aerial and satellite photography
WO2015150129A1 (fr) Procede de geo-localisation de l'environnement d'un porteur
FR3079924A1 (fr) Suivi par geolocalisation
US11645789B2 (en) Map driven augmented reality
US20180245941A1 (en) User-Friendly Navigation System
US20160050283A1 (en) System and Method for Automatically Pushing Location-Specific Content to Users
US11656089B2 (en) Map driven augmented reality
EP2984639B1 (fr) Dispositif et procede de suivi 3d video d'objets d'interêt
US9692867B2 (en) Event accessory item location
FR3059768B1 (fr) Procede et dispositif de recherche d’information concernant des points d’interet depuis un vehicule
WO2014162091A1 (fr) Procédé et système d'assistance à la gestion de tâches et à la navigation
WO2017097585A1 (fr) Procede et dispositif d'affichage de donnees pour systeme de depouillement de donnees sonar
FR2926143A1 (fr) Procede de veille et de detection de cibles, notamment mobiles, pour une plate-forme et dispositif mettant en oeuvre un tel procede

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20191011

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7