FR3091356A1 - Capteur actif, système d’identification d’objet, véhicule et feu de véhicule - Google Patents
Capteur actif, système d’identification d’objet, véhicule et feu de véhicule Download PDFInfo
- Publication number
- FR3091356A1 FR3091356A1 FR1915483A FR1915483A FR3091356A1 FR 3091356 A1 FR3091356 A1 FR 3091356A1 FR 1915483 A FR1915483 A FR 1915483A FR 1915483 A FR1915483 A FR 1915483A FR 3091356 A1 FR3091356 A1 FR 3091356A1
- Authority
- FR
- France
- Prior art keywords
- light
- image
- active sensor
- sensor
- identification system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000000523 sample Substances 0.000 claims abstract description 19
- 230000000295 complement effect Effects 0.000 claims description 3
- 230000000712 assembly Effects 0.000 claims 1
- 238000000429 assembly Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 17
- 230000007613 environmental effect Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000010420 art technique Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/0017—Devices integrating an element dedicated to another function
- B60Q1/0023—Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/02—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
- B60Q1/04—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/4865—Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
- G01S7/4866—Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak by fitting a model or function to the received signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/72—Combination of two or more compensation controls
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
- Fire-Detection Mechanisms (AREA)
Abstract
CAPTEUR ACTIF, SYSTÈME D’IDENTIFICATION D’OBJET, VÉHICULE ET FEU DE VÉHICULE L’invention concerne un capteur actif (70) qui inclut un élément de projection de lumière (72) configuré pour émettre une lumière de sonde et un capteur d’image (74). Le capteur actif (70) est configuré pour obtenir une première image (IMGa) dans un état d’émission de lumière de l’élément de projection de lumière et une deuxième image (IMGb) dans un état de non–émission de lumière de l’élément de projection de lumière (72). La deuxième image (IMGb) peut être utilisée pour corriger la première image (IMGa). Figure pour l’abrégé : Fig. 1.
Description
Description
Titre de l’invention : CAPTEUR ACTIF, SYSTÈME D’IDENTIFICATION D’OBJET, VÉHICULE ET FEU DE VÉHICULE
Domaine technique
[0001] La présente invention se rapporte à un système d’identification d’objet.
Art antérieur
[0002] Un système d’identification d’objet configuré pour détecter une position et un type d’un objet autour d’un véhicule est utilisé pour une conduite automatique ou une commande automatique sur une distribution de lumière d’un projecteur. Le système d’identification d’objet inclut un capteur et un dispositif de traitement configuré pour analyser une sortie du capteur. Le capteur est sélectionné parmi un appareil de prise de vues, un LiDAR (détection et télémétrie par ondes lumineuses, détection et télémétrie par capture par ondes laser), un radar à ondes millimétriques, un sonar à ultrasons et analogues, tout en tenant compte des utilisations, de la précision nécessaire et du coût.
[0003] En guise de capteur, un capteur passif et un capteur actif sont possibles. Le capteur passif est configuré pour détecter une lumière émise à partir un objet ou une lumière réfléchie à partir d’une lumière d’environnement par un objet, et le capteur lui-même n’émet pas de lumière. En revanche, le capteur actif est configuré pour émettre une lumière de sonde vers un objet et pour détecter une lumière réfléchie de celle-ci. Le capteur actif inclut principalement un élément de projection de lumière (dispositif d’éclairage) configuré pour émettre une lumière vers un objet et un capteur d’image configuré pour recevoir une lumière réfléchie à partir de l’objet. Le capteur actif est avantageux par rapport au capteur passif en ce que le capteur actif peut améliorer la résistance contre les perturbations par la combinaison d’une longueur d’onde de la lumière de sonde et d’une région de longueur d’onde de sensibilité du capteur d’image. Les documents JP-A-2009-257983 et WO2017/110413 décrivent des techniques de l’état de l’art associé.
[0004] Le capteur actif embarqué est utilisé à l’extérieur. Comme les longueurs d’onde de la lumière solaire vont de l’ultraviolet à l’infrarouge, qui se superposent à la longueur d’onde de la lumière de sonde, cela signifie que la lumière solaire devient la perturbation du capteur actif. De plus, un spectre de la lumière solaire, c’est-à-dire une intensité de composantes de perturbation, change au cours du temps.
[0005] Un système d’identification d’objet inclut un classificateur configuré pour recevoir une image de sortie du capteur actif et pour classifier une position et un type (catégorie) d’un objet contenu dans l’image de sortie. Le classificateur possède un modèle qui est généré par apprentissage machine à l’aide de données d’apprentissage (données d’entraînement) d’un nombre énorme d’images préparées à l’avance.
[0006] Dans le système d’identification d’objet, afin d’atteindre un taux d’identification élevé que ce soit le jour ou la nuit, il est nécessaire d’utiliser, en tant que données d’apprentissage, des images capturées sous divers environnements d’éclairement. Exposé de l’invention
[0007] De ce fait, la présente invention a été réalisée au vu des circonstances susmentionnées, et un aspect de la présente invention concerne un capteur actif ayant une résistance au bruit améliorée. Un autre aspect de la présente invention améliore un taux d’identification d’un système d’identification d’objet utilisant le capteur actif ou réduit un coût d’apprentissage.
[0008] Selon un mode de réalisation, la présente invention concerne un capteur actif. Le capteur actif inclut un élément de projection de lumière configuré pour émettre une lumière de sonde et un capteur d’image. Le capteur actif est configuré pour obtenir une première image dans un état d’émission de lumière de l’élément de projection de lumière et une deuxième image dans un état de non-émission de lumière de l’élément de projection de lumière. La deuxième image peut être utilisée pour corriger la première image.
[0009] D’après la configuration susmentionnée, le capteur actif peut améliorer la résistance au bruit.
L’invention sera bien comprise et ses avantages seront mieux compris à la lecture de la description détaillée qui suit. La description se rapporte aux dessins indiqués ciaprès et qui sont donnés à titre d’exemples.
Brève description des dessins
[0010] [fig.l] La figure 1 est un schéma fonctionnel d’un système d’identification d’objet selon un premier mode de réalisation.
[fig.2] La figure 2 est un chronogramme pour illustrer des opérations du système d’identification d’objet représenté sur la figure 1.
[fig.3] La figure 3 est un chronogramme pour illustrer des opérations du système d’identification d’objet selon un mode de réalisation modifié 1.1.
[fig.4] La figure 4 est un chronogramme pour illustrer des opérations du système d’identification d’objet selon un mode de réalisation modifié 1.2.
[fig.5] La figure 5 est un schéma fonctionnel d’un système d’identification d’objet selon un deuxième mode de réalisation.
[fig.6] La figure 6 est un chronogramme pour illustrer des opérations du système d’identification d’objet représenté sur la figure 5.
[fig.7] La figure 7 illustre un système d’identification d’objet selon un troisième mode de réalisation.
[fig.8] La figure 8 illustre les opérations d’un appareil de prise de vues à déclenchement.
[fig.9A-9B] Les figures 9A et 9B illustrent une pluralité d’images obtenues par l’appareil de prise de vues à déclenchement.
[fig. 10] La figure 10 est un diagramme de forme d’onde d’opération du système d’identification d’objet représenté sur la figure 7.
[fig.ll] La figure 11 illustre une automobile ayant un système d’identification d’objet, [fig. 12] La figure 12 est un schéma fonctionnel illustrant un feu de véhicule ayant un système d’identification d’objet.
Description des modes de réalisation
[0011] (Aperçu des modes de réalisation)
Un mode de réalisation décrit ici se rapporte à un capteur actif. Le capteur actif inclut un élément de projection de lumière configuré pour émettre une lumière de sonde et un capteur d’image. Le capteur actif est configuré pour obtenir une première image dans un état d’émission de lumière de l’élément de projection de lumière et une deuxième image dans un état de non-émission de lumière de l’élément de projection de lumière. La deuxième image peut être utilisée pour corriger la première image.
[0012] La deuxième image contenant uniquement du bruit de perturbation est obtenue dans l’état de non-émission de lumière de la lumière de sonde par l’élément de projection de lumière, et tout en calculant une différence par rapport à la première image contenant le bruit de perturbation et une composante de la lumière de sonde, une influence du bruit de perturbation peut être réduite, de sorte que la résistance au bruit peut être améliorée.
[0013] Un ensemble de l’élément de projection et du capteur d’image peut être fourni en deux ensembles, et une longueur d’onde peut être différente entre les deux ensembles.
[0014] Les deux ensembles peuvent être configurés pour fonctionner d’une manière complémentaire. Par conséquent, une fréquence de trames (ou fréquence d’images) peut être améliorée.
[0015] En variante, un seul des deux ensembles peut être autorisé à fonctionner. Par exemple, un ensemble parmi les deux ensembles X et Y dans lequel un taux d’identification d’un classificateur est plus élevé, peut être sélectionné et autorisé à fonctionner, conformément à un état (c’est-à-dire, un spectre) d’une lumière de l’environnement.
[0016] Le capteur actif peut en outre inclure un contrôleur configuré pour commander une temporisation (un timing) d’émission de lumière de l’élément de projection de lumière et une temporisation d’exposition à la lumière du capteur d’image.
[0017] Le capteur actif peut inclure un appareil de prise de vues à déclenchement configuré pour définir une pluralité de plages dans une direction de profondeur et obtenir une pluralité d’images correspondant à la pluralité de plages par le changement d’une différence de temps entre l’émission de lumière et la capture d’image pour chacune des plages.
[0018] La deuxième image peut être obtenue pour chaque plage. Ainsi, la précision peut être améliorée.
[0019] En variante, une deuxième image commune peut être utilisée pour toutes les plages. Dans ce cas, la baisse de la fréquence de trames peut être supprimée.
[0020] L’élément de projection de lumière peut être configuré pour émettre (délivrer en sortie) une lumière infrarouge ou une lumière ultraviolette.
[0021] Un autre mode de réalisation décrit ici se rapporte à un système d’identification d’objet. Le système d’identification d’objet peut inclure le capteur actif, et un dispositif de traitement arithmétique configuré pour identifier un type d’un objet sur la base d’une image obtenue par le capteur actif.
[0022] Un autre mode de réalisation décrit ici se rapporte à un feu de véhicule comprenant le système d’identification d’objet.
[0023] Un autre mode de réalisation décrit ici se rapporte à un véhicule comprenant le système d’identification d’objet.
[0024] Selon la configuration susmentionnée, le bruit de perturbation contenu dans les données d’image à entrer dans le classificateur est grandement réduit. Cela signifie qu’une influence du bruit de perturbation sur un modèle du classificateur est réduite. Par conséquent, la main-d’œuvre, le temps et les coûts à consommer pour la collecte de données d’apprentissage peuvent être réduits.
[0025] (Modes de réalisation)
Ci-dessous, les modes de réalisation de la présente invention seront décrits en référence aux dessins. Les éléments constitutifs, organes et traitements identiques ou équivalents représentés dans les dessins respectifs sont désignés par les mêmes signes de référence et les descriptions dupliquées sont omises lorsqu’approprié. Les modes de réalisation sont donnés à titre d’exemple et ne limitent pas l’invention. Toutes les caractéristiques décrites dans les modes de réalisation et leurs combinaisons ne peuvent pas être considérées comme étant nécessairement essentielles à l’invention.
[0026] (Premier mode de réalisation)
La figure 1 est un schéma fonctionnel d’un système d’identification d’objet selon un premier mode de réalisation. Le système d’identification d’objet 10 est monté sur un véhicule tel qu’une automobile et une motocyclette et est configuré pour déterminer un type (catégorie) d’un objet OBJ autour du véhicule.
[0027] Le système d’identification d’objet 10 inclut un capteur actif 70 et un dispositif de traitement arithmétique 40. Le capteur actif 70 est configuré pour émettre une lumière de sonde L1 en direction de l’objet OBJ et pour capturer une lumière réfléchie L2 réfléchie par l’objet OBJ. Le dispositif de traitement arithmétique 40 est configuré pour traiter une image de sortie du capteur actif 70 pour déterminer une position et un type (catégorie) de l’objet OBJ.
[0028] Le capteur actif 70 inclut un élément de projection de lumière 72, un capteur d’image 74, un contrôleur 76 et une unité de correction 78. L’élément de projection de lumière 72 est configuré pour émettre la lumière de sonde L1 à l’avant du véhicule, en synchronisation avec un signal de temporisation de projection de lumière SI appliqué par le contrôleur 76. La lumière de sonde L1 est de préférence une lumière infrarouge ou une lumière ultraviolette mais ne s’y limite pas. Par exemple, une lumière visible ayant une longueur d’onde prédéterminée peut également être viable.
[0029] Le capteur d’image 74 possède une sensibilité à la même longueur d’onde que la lumière de sonde L1 et est configuré pour capturer la lumière réfléchie (lumière de retour) L2 réfléchie par l’objet OBJ. Le capteur d’image 74 peut réaliser une commande d’exposition à la lumière en synchronisation avec un signal de temporisation de capture S2 appliqué par le contrôleur 76 et est configuré pour générer une image IMG. Une image obtenue dans un état d’émission de lumière de l’élément de projection de lumière 72 est appelée première image IMGa, et une image obtenue dans un état de non-émission de lumière de l’élément de projection de lumière 72 est appelée deuxième image IMGb pour les distinguer. Le contrôleur 76 est configuré pour commander la temporisation d’émission de lumière de l’élément de projection de lumière 72 et la temporisation d’exposition à la lumière du capteur d’image 74.
[0030] Comme le système d’identification d’objet 10 est utilisé à l’extérieur, non seulement la lumière de sonde L1 mais également une lumière (lumière d’environnement) L3 provenant du soleil et d’un éclairage urbain est rayonnée vers l’objet OBJ. Par conséquent, une lumière L4 réfléchie à partir de la lumière d’environnement L3 par l’objet OBJ est incidente sur le capteur d’image 74. De plus, la lumière d’environnement L3 peut être directement incidente sur le capteur d’image 74 en fonction d’une direction du capteur d’image 74. Par conséquent, lorsqu’un spectre de la lumière d’environnement L3 se superpose à une longueur d’onde de sensibilité du capteur d’image 74, la lumière d’environnement L3 devient un bruit de perturbation.
[0031] Afin de réduire une influence de la lumière d’environnement L3, le système d’identification d’objet 10 possède les fonctions suivantes.
[0032] Le capteur actif 70 est configuré pour réaliser deux fois une capture d’image tout en commutant l’élément de projection de lumière 72 entre l’état d’émission de lumière et l’état de non-émission de lumière, et pour obtenir la première image IMGa dans l’état d’émission de lumière et la deuxième image IMGb dans l’état de non-émission de lumière. La première image IMGa peut être corrigée à l’aide de la deuxième image
IMGb. Dans le premier mode de réalisation, la correction est réalisée par l’unité de correction 78 ménagée dans le capteur actif 70.
[0033] Pour simplifier la description, il est ici supposé que l’exposition du capteur d’image 74 est la même entre le moment de la capture de la première image IMGa et le moment de la capture de la deuxième image IMGb. L’exposition est déterminée sur la base d’une relation entre une vitesse d’obturation, une ouverture de diaphragme et une sensibilité du capteur d’image. Dans ce cas, l’unité de correction 78 est configurée pour soustraire une valeur de pixel d’un pixel correspondant de la deuxième image IMGb pour chaque pixel de la première image IMGa pour générer une troisième image IMGc ayant les valeurs de pixel après la soustraction.
[0034] Le dispositif de traitement arithmétique 40 peut être mis en œuvre dans une combinaison d’un processeur (matériel) tel qu’une CPU (unité centrale de traitement), une MPU (unité de micro-traitement) et un micro-ordinateur et d’un programme logiciel à exécuter par le processeur (matériel). Le dispositif de traitement arithmétique 40 peut être une combinaison d’une pluralité de processeurs. En variante, le dispositif de traitement arithmétique 40 peut être constitué uniquement du matériel.
[0035] Un classificateur 42 du dispositif de traitement arithmétique 40 est configuré pour recevoir la troisième image IMGc en tant qu’entrée et pour déterminer la position et le type de l’objet OBJ contenu dans celle-ci. Le classificateur 42 est mis en œuvre sur la base d’un modèle généré par l’apprentissage machine. Un algorithme du classificateur 42 n’est pas particulièrement limité mais les algorithmes YOLO (pour « You Only Look Once » en anglais, signifiant « on ne regarde qu’une fois ») et SSD (pour « Single Shot MultiBox Detector » en anglais, signifiant « détecteur à boîtes multiples à une seule prise »), R-CNN (pour « Region-based Convolutional Neural Network » en anglais, signifiant « réseau neuronal à convolution basé sur la région »), SPPnet (pour « Spatial Pyramid Pooling » en anglais, signifiant « regroupement pyramidal spatial »), R-CNN plus rapide, DSSD (SSD à déconvolution), R-CNN à masque et analogues peuvent être adoptés. En variante, des algorithmes à développer à l’avenir peuvent également être adoptés.
[0036] La configuration du système d’identification d’objet 10 est telle que décrite ci-dessus. Par la suite, les opérations de celui-ci seront décrites. La figure 2 est un chronogramme pour illustrer des opérations du système d’identification d’objet 10 représenté sur la figure 1.
[0037] Au cours d’une période de trame TFRAme, le signal de temporisation de projection de lumière SI possède une durée haute et une durée basse. La durée haute est une durée d’émission de lumière de l’élément de projection de lumière 72, et la durée basse est une durée de non-émission de lumière de l’élément de projection de lumière 72.
[0038] Le signal de temporisation de capture S2 devient haut pour chacune de la durée haute et de la durée basse du signal de temporisation de projection de lumière SI, et la capture par le capteur d’image 74 est ainsi ordonnée. Une vitesse d’obturateur (temps d’exposition à la lumière) Tsl dans l’état d’émission de lumière et une vitesse d’obturateur Ts2 dans l’état de non-émission de lumière peuvent être identiques ou différentes l’une de l’autre.
[0039] A partir du capteur d’image 74, la première image IMGa et la deuxième image IMGb sont délivrées en sortie de manière alternée. Lorsqu’une paire de deux images IMGa et IMGb sont obtenues, la première image IMGa est corrigée à l’aide de la deuxième image IMGb. Cette correction peut être réalisée le plus simplement par soustraction des valeurs de pixels et est exprimée telle que IMGa - IMGb. Ensuite, l’image IMGc après la correction est délivrée en sortie à chaque période de trame TFRAME.
[0040] Les opérations du système d’identification d’objet 10 sont telles que décrites ci-dessus. Par la suite, les avantages de celles-ci seront décrits.
La première image IMGa capturée dans l’état d’émission de lumière de la lumière de sonde LI contient la lumière réfléchie L2 et le bruit de perturbation (les composantes L3 et L4 de la lumière d’environnement). En revanche, la deuxième image IMGb capturée dans l’état de non-émission de lumière de la lumière de sonde LI contient uniquement le bruit de perturbation. Par conséquent, lorsqu’une différence de celles-ci est prise, l’influence du bruit de perturbation peut être réduite et la résistance au bruit peut être améliorée.
[0041] Par ailleurs, dans la technique de l’état de l’art associé, comme les données d’image entrées dans le classificateur ayant appris 42 contiennent le bruit de perturbation issu de la lumière d’environnement, il est nécessaire que le classificateur 42 possède une capacité de déterminer avec précision l’objet OBJ, quelle que soit une quantité du bruit de perturbation. Par conséquent, pour l’apprentissage machine du classificateur 42, il est nécessaire de collecter des images (données d’apprentissage) capturées tout en changeant un éclairement et une température de couleur de la lumière d’environnement.
[0042] Au contraire, lorsque le capteur actif 70 du premier mode de réalisation est utilisé, le bruit de perturbation contenu dans les données d’image à entrer dans le classificateur 42 est grandement réduit. Cela signifie qu’une influence du bruit de perturbation sur le modèle du classificateur 42 est réduite. Par conséquent, la main-d’œuvre, le temps et les coûts à consommer pour la collecte des données d’apprentissage peuvent être réduits.
[0043] Par la suite, des modes de réalisation modifiés du premier mode de réalisation seront décrits.
[0044] (Mode de réalisation modifié 1.1)
La figure 3 est un chronogramme pour illustrer des opérations du système d’identification d’objet 10 selon un mode de réalisation modifié 1.1. Dans le mode de réalisation modifié 1.1, la deuxième image IMGb dans l’état de non-émission de lumière est d’abord obtenue et la première image IMGa dans l’état d’émission de lumière est ensuite obtenue.
[0045] (Mode de réalisation modifié 1.2)
Dans le premier mode de réalisation, la deuxième image IMGb est obtenue à chaque fois que la première image IMGa est obtenue. Cependant, la présente invention n’est pas limitée à cela. La figure 4 est un chronogramme pour illustrer des opérations du système d’identification d’objet selon un mode de réalisation modifié 1.2. Dans le mode de réalisation modifié 1.2, la deuxième image IMGb pour la correction est capturée une fois pour plusieurs trames (ici, cinq trames). Selon le mode de réalisation modifié 1.2, la période de trame peut être raccourcie comparativement au mode de réalisation représenté sur la figure 2.
[0046] (Mode de réalisation modifié 1.3)
En variante, les images obtenues par la réalisation de la capture d’image plus d’une fois dans l’état de non-émission de lumière peuvent être moyennées (ou additionnées) pour générer la deuxième image IMGb.
[0047] (Mode de réalisation modifié 1.4)
Dans le premier mode de réalisation, le capteur actif 70 inclut l’unité de correction 78. Cependant, la présente invention n’est pas limitée à cela. Le capteur actif 70 peut être configuré pour délivrer en sortie une paire de la première image IMGa et de la deuxième image IMGb, et la fonction de l’unité de correction 78 peut être exécutée par le dispositif de traitement arithmétique 40.
[0048] (Mode de réalisation modifié 1.5)
Dans l’état d’émission de lumière et l’état de non-émission de lumière, l’exposition du capteur d’image 74 peut être différente. Dans ce cas, la première image IMGa et la deuxième image IMGb peuvent être sensibilisées ou désensibilisées par un traitement d’image de sorte que l’exposition devient identique, et le traitement de soustraction peut être exécuté dans un état dans lequel l’exposition devient identique.
[0049] (Deuxième mode de réalisation)
La figure 5 est un schéma fonctionnel d’un système d’identification d’objet 10A selon un deuxième mode de réalisation. Le système d’identification d’objet 10A inclut le dispositif de traitement arithmétique 40 et un capteur actif 70A. Le capteur actif 70A inclut deux ensembles X et Y, chacun incluant l’élément de projection de lumière 72 et le capteur d’image 74. Dans le premier ensemble X et le second ensemble Y, les longueurs d’onde sont différentes les unes des autres. Dans le premier ensemble X, l’élément de projection de lumière 72x est configuré pour émettre une lumière de sonde ayant une première longueur d’onde À! et le capteur d’image 74x est sensible à la première longueur d’onde À! mais est insensible à une seconde longueur d’onde Àu. Dans le second ensemble Y, l’élément de projection de lumière 72y est configuré pour émettre une lumière de sonde ayant une seconde longueur d’onde Àu et le capteur d’image 74y est sensible à la seconde longueur d’onde λπ mais est insensible à la première longueur d’onde Àb
[0050] La figure 6 est un chronogramme pour illustrer des opérations du système d’identification d’objet 10A représenté sur la figure 5. Les deux ensembles fonctionnent d’une manière complémentaire. Spécifiquement, l’état d’émission de lumière du premier ensemble X est l’état de non-émission de lumière du second ensemble Y, et l’état de non-émission de lumière du premier ensemble X est l’état d’émission de lumière du second ensemble Y. Ainsi, deux images IMGc peuvent être obtenues pendant une période de fonctionnement (période de trame) TFRAMF de chaque ensemble, de sorte que la fréquence de trames effective peut être augmentée.
[0051] Entre-temps, un seul des deux ensembles X et Y peut être sélectionné et autorisé à fonctionner. Par exemple, un ensemble dans lequel le taux d’identification du classificateur 42 est supérieur peut être sélectionné parmi les deux ensembles X et Y et autorisé à fonctionner, en correspondance avec l’état (spectre) de la lumière d’environnement.
[0052] (Troisième mode de réalisation)
La figure 7 illustre un système d’identification d’objet 10C selon un troisième mode de réalisation. Un capteur actif 70C est un appareil de prise de vues à déclenchement. Une pluralité de N (N > 2) plages RNGi à RNGn est définie dans une direction de profondeur, et la capture d’image est réalisée à chaque plage par l’appareil de prise de vues à déclenchement 70C. Les plages adjacentes les unes aux autres peuvent se superposer dans la direction de profondeur au niveau d’une limite entre celles-ci.
[0053] Le contrôleur 76 est configuré pour changer une différence de temps entre la projection de lumière par l’élément de projection de lumière 72 et l’exposition à la lumière du capteur d’image 74 à chaque plage RNG par le changement du signal de temporisation de projection de lumière SI et du signal de temporisation de capture S2. L’appareil de prise de vues à déclenchement 70C est configuré pour générer une pluralité de premières images IMGai à IMGaN correspondant à la pluralité de plages RNGi à RNGn. Dans la i-ème première image IMGa;, seul un objet contenu dans la plage correspondante RNGi est capturé.
[0054] La figure 8 illustre les opérations de l’appareil de prise de vues à déclenchement 70C. La figure 8 illustre une situation où la i-ème plage RNGi est mesurée. L’élément de projection de lumière 72 émet une lumière pendant la durée d’émission de lumière Xi du temps t0 à tb en synchronisation avec le signal de temporisation de projection de lumière SI. Sur la partie supérieure, un diagramme d’un faisceau de lumière dans lequel l’axe horizontal indique le temps et la ligne verticale indique une distance est représenté. Une distance de l’appareil de prise de vues à déclenchement 70C à une limite immédiatement avant la plage RNG; est désignée par dM1Ni, et une distance à une limite interne de la plage RNG; est désignée par dMAXi.
[0055] Un temps d’aller-retour TM1Ni après qu’une lumière partant de l’élément de projection de lumière 72 à un certain temps a atteint la distance dM1Ni jusqu’à ce que sa lumière réfléchie retourne vers le capteur d’image 74 est comme suit.
TM1Ni = 2 x dM1Ni/c, où c est la vitesse de la lumière.
[0056] De manière similaire, un temps d’aller-retour TMAXi après qu’une lumière partant de l’élément de projection de lumière 72 à un certain temps a atteint la distance dMAXi jusqu’à ce que sa lumière réfléchie retourne vers le capteur d’image 74 est comme suit :
TMAXi = 2 X dyIAXl/C
[0057] Lorsqu’il est destiné à capturer uniquement l’objet OBJ contenu dans la plage RNGi, le contrôleur 76 génère le signal de temporisation de capture S2 afin de démarrer l’exposition à la lumière au temps t2 = L + TMINi, et d’achever l’exposition à la lumière au temps t3 = ti + Tma». Ceci représente une opération d’exposition à la lumière.
[0058] Lors de la capture de la i-ème plage RNGi, une pluralité d’expositions à la lumière peut également être réalisées. Dans ce cas, le contrôleur 76 peut répéter une pluralité des opérations d’exposition à la lumière avec une durée prédéterminée τ2.
[0059] Les figures 9A et 9B illustrent une pluralité d’images obtenues par l’appareil de prise de vues à déclenchement 70C. Dans l’exemple de la figure 9A, un objet (piéton) OBJ2 est présent dans la plage RNG2, et un objet (véhicule) OBJ3 est présent dans la plage RNG3. La figure 9B illustre une pluralité de premières images IMGai à IMGa3 obtenues dans la situation de la figure 9A. Lors de la capture de l’image IMGah comme le capteur d’image est exposé à la lumière uniquement par la lumière réfléchie provenant de la plage RNGi, aucun objet n’est capturé dans l’image IMGai.
[0060] Lors de la capture de l’image IMGa2, comme le capteur d’image est exposé à la lumière uniquement par la lumière réfléchie provenant de la plage RNG2, seul l’objet OBJ2 est capturé dans l’image IMGa2. De manière similaire, lors de la capture de l’image IMGa3, comme le capteur d’image est exposé à la lumière uniquement par la lumière réfléchie provenant de la plage RNG3, seul l’objet OBJ3 est capturé dans l’image IMGa3. De cette manière, l’appareil de prise de vues à déclenchement 70C peut capturer séparément l’objet à chaque plage.
[0061] La configuration du système d’identification d’objet 10C est telle que décrite ci-dessus. Par la suite, les opérations de celui-ci seront décrites. La figure 10 est un diagramme de forme d’onde de fonctionnement du système d’identification d’objet
10C représenté sur la figure 7. Dans la figure 10, la deuxième image IMGb est d’abord capturée par l’une et est partagée dans la pluralité de plages. Entre-temps, la deuxième image IMGb peut être capturée à chaque plage.
[0062] La figure 11 illustre une automobile ayant le système d’identification d’objet 10. L’automobile 300 possède des projecteurs 302L et 302R. Le système d’identification d’objet 10 est fourni dans au moins l’un des projecteurs 302L et 302R. Le projecteur 302 est situé à une extrémité avant d’une carrosserie de véhicule et est le plus avantageux comme emplacement de fourniture du capteur actif 70 lors de la capture d’un objet aux environs.
[0063] La figure 12 est un schéma fonctionnel illustrant un feu de véhicule 200 incluant un système d’identification d’objet 210. Le feu de véhicule 200 constitue un système de feu 310, conjointement avec une unité de commande électronique, ECU, côté véhicule 304. Le feu de véhicule 200 inclut une source de lumière 202, un circuit d’éclairage 204 et un système optique 206. Le feu de véhicule 200 inclut en outre un système d’identification d’objet 210. Le système d’identification d’objet 210 correspond au système d’identification d’objet 10 décrit ci-dessus et inclut le capteur actif 70 et le dispositif de traitement arithmétique 40.
[0064] Des informations concernant l’objet OBJ détecté par le dispositif de traitement arithmétique 40 peuvent également être utilisées pour la commande de distribution de lumière du feu de véhicule 200. Spécifiquement, une ECU côté feu 208 est configurée pour générer un motif de distribution de lumière approprié sur la base des informations concernant le type et la position de l’objet OBJ générées par le dispositif de traitement arithmétique 40. Ue circuit d’éclairage 204 et le système optique 206 sont configurés pour fonctionner de sorte que le motif de distribution de lumière généré par l’ECU côté feu 208 soit obtenu.
[0065] Par ailleurs, des informations concernant l’objet OBJ détecté par le dispositif de traitement arithmétique 40 peuvent être transmises à l’ECU côté véhicule 304. L’ECU côté véhicule peut être configurée pour réaliser une conduite automatique, sur la base des informations correspondantes.
[0066] Bien que la présente invention ait été décrite à l’aide des expressions spécifiques en référence aux modes de réalisation, les modes de réalisation illustrent simplement un aspect du principe et de l’application du concept inventif de la présente invention. Les modes de réalisation peuvent être modifiés et peuvent être changés en termes d’agencement sans s’écarter de l’esprit de la présente invention définie dans les revendications.
Claims (1)
-
Revendications [Revendication 1] Capteur actif (70) comprenant : un élément de projection de lumière (72) configuré pour émettre une lumière de sonde ; et un capteur d’image (74), dans lequel le capteur actif (70) est configuré pour obtenir une première image (IMGa) dans un état d’émission de lumière de l’élément de projection de lumière (72) et une deuxième image (IMGb) dans un état de non-émission de lumière de l’élément de projection de lumière (72), et dans lequel la deuxième image (IMGb) peut être utilisée pour corriger la première image (IMGa). [Revendication 2] Capteur actif (70) selon la revendication 1, dans lequel un ensemble de l’élément de projection de lumière (72) et du capteur d’image (74) est fourni en deux ensembles, et une longueur d’onde est différente entre les deux ensembles. [Revendication 3] Capteur actif (70) selon la revendication 2, dans lequel les deux ensembles sont configurés pour fonctionner d’une manière complémentaire. [Revendication 4] Capteur actif (70) selon l’une quelconque des revendications 1 à 3, comprenant en outre : un contrôleur (76) configuré pour commander une temporisation d’émission de lumière de l’élément de projection de lumière (72) et une temporisation d’exposition à la lumière du capteur d’image (74). [Revendication 5] Capteur actif (70) selon l’une quelconque des revendications 1 à 4, dans lequel le capteur actif (70) inclut un appareil de prise de vues à déclenchement (70C) configuré pour définir une pluralité de plages (RNGi - RNGn) dans une direction de profondeur et obtenir une pluralité d’images (IMGai - IMGaN) correspondant à la pluralité de plages, en changeant une différence de temps entre l’émission de lumière et la capture d’image pour chacune des plages. [Revendication 6] Capteur actif (70) selon la revendication 5, dans lequel la deuxième image (IMGb) est obtenue de manière commune pour la pluralité de plages (RNGi - RNGn). [Revendication 7] Capteur actif selon la revendication 5, dans lequel la deuxième image (IMGb) est obtenue pour chacune des plages. [Revendication 8] Capteur actif selon l’une quelconque des revendications 1 à 7, dans lequel une longueur d’onde de la lumière de sonde est infrarouge ou ultraviolette. [Revendication 9] Système d’identification (10, 210) d’objet comprenant : le capteur actif (70) selon l’une quelconque des revendications 1 à 8 ; et un dispositif de traitement arithmétique (40) configuré pour identifier un type d’un objet sur la base d’une image obtenue par le capteur actif (70). [Revendication 10] Feu de véhicule (200) comprenant le système d’identification (210) d’objet selon la revendication 9. [Revendication 11] Véhicule (300) comprenant le système d’identification d’objet (10) selon la revendication 9. 1/7
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018244919A JP7252755B2 (ja) | 2018-12-27 | 2018-12-27 | アクティブセンサ、物体識別システム、車両、車両用灯具 |
JP2018-244919 | 2018-12-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3091356A1 true FR3091356A1 (fr) | 2020-07-03 |
FR3091356B1 FR3091356B1 (fr) | 2022-04-29 |
Family
ID=71079576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1915483A Active FR3091356B1 (fr) | 2018-12-27 | 2019-12-23 | Capteur actif, système d’identification d’objet, véhicule et feu de véhicule |
Country Status (5)
Country | Link |
---|---|
US (1) | US11303817B2 (fr) |
JP (1) | JP7252755B2 (fr) |
CN (1) | CN111398975B (fr) |
DE (1) | DE102019220058A1 (fr) |
FR (1) | FR3091356B1 (fr) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021193645A1 (fr) * | 2020-03-24 | 2021-09-30 | ||
CN113076943A (zh) * | 2021-02-23 | 2021-07-06 | 海南快停科技有限公司 | 一种基于车牌特征识别的摄像功能 |
WO2023224077A1 (fr) * | 2022-05-18 | 2023-11-23 | 株式会社小糸製作所 | CAMÉRA ToF, SYSTÈME DE DÉTECTION POUR VÉHICULE ET MONTURE DE PHARE DE VÉHICULE |
Family Cites Families (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7019275B2 (en) * | 1997-09-16 | 2006-03-28 | Gentex Corporation | Moisture sensor and windshield fog detector |
US6876392B1 (en) * | 1998-12-22 | 2005-04-05 | Matsushita Electric Industrial Co., Ltd. | Rangefinder for obtaining information from a three-dimensional object |
FR2815914B1 (fr) * | 2000-10-27 | 2003-01-03 | Valeo Vision | Dispositif de correction automatique de l'orientation en site d'un projecteur de vehicule automobile |
AU2003214595A1 (en) * | 2002-03-07 | 2003-09-16 | Yechezkal Evan Spero | Enhanced vision for driving |
JP2003329773A (ja) * | 2002-05-10 | 2003-11-19 | Hitachi Ltd | 複数の距離検知センサを設置した車両制御装置 |
JP2004144512A (ja) * | 2002-10-22 | 2004-05-20 | Denso Corp | 乗員検知システム |
FR2857463B1 (fr) * | 2003-07-11 | 2005-09-02 | Valeo Vision | Systeme de vision nocturne a infrarouge, en couleur. |
JP4309728B2 (ja) * | 2003-09-17 | 2009-08-05 | パナソニック株式会社 | 監視用ビデオカメラ |
US7319805B2 (en) * | 2003-10-06 | 2008-01-15 | Ford Motor Company | Active night vision image intensity balancing system |
JP2006011671A (ja) | 2004-06-24 | 2006-01-12 | Alpine Electronics Inc | 車載周辺状況検出装置 |
JP4595135B2 (ja) | 2004-10-07 | 2010-12-08 | 株式会社メガチップス | 距離測定システムおよび距離測定方法 |
US20060228003A1 (en) * | 2005-04-06 | 2006-10-12 | Silverstein D A | Method and apparatus for detection of optical elements |
US20090309710A1 (en) * | 2005-04-28 | 2009-12-17 | Aisin Seiki Kabushiki Kaisha | Vehicle Vicinity Monitoring System |
US9330324B2 (en) * | 2005-10-11 | 2016-05-03 | Apple Inc. | Error compensation in three-dimensional mapping |
JP4730267B2 (ja) * | 2006-07-04 | 2011-07-20 | 株式会社デンソー | 車両用視界状況判定装置 |
US7579593B2 (en) * | 2006-07-25 | 2009-08-25 | Panasonic Corporation | Night-vision imaging apparatus, control method of the same, and headlight module |
JP4315175B2 (ja) * | 2006-08-10 | 2009-08-19 | 日産自動車株式会社 | 光検出方法および光検出装置 |
JP5112702B2 (ja) * | 2007-01-16 | 2013-01-09 | 富士フイルム株式会社 | 撮影装置および方法並びにプログラム |
DE102008006973B4 (de) * | 2007-02-02 | 2017-03-02 | Denso Corporation | Projektor und Bildaufnahmevorrichtung |
EP2150437B1 (fr) * | 2007-04-30 | 2014-06-18 | Mobileye Technologies Limited | Détection d'obstruction arrière |
FR2919727B1 (fr) * | 2007-08-03 | 2010-07-30 | Valeo Vision | Procede de detection par un vehicule d'un phenomene perturbateur de visibilite |
JP4640404B2 (ja) * | 2007-11-22 | 2011-03-02 | トヨタ自動車株式会社 | 車両運転者状態検出装置 |
JP2009257983A (ja) | 2008-04-18 | 2009-11-05 | Calsonic Kansei Corp | 車両用距離画像データ生成装置および車両用距離画像データの生成方法 |
JP2009257981A (ja) * | 2008-04-18 | 2009-11-05 | Calsonic Kansei Corp | 車両用距離画像データ生成装置 |
JP2009257982A (ja) * | 2008-04-18 | 2009-11-05 | Calsonic Kansei Corp | 車両用距離画像データ生成装置 |
JP2009282906A (ja) * | 2008-05-26 | 2009-12-03 | Calsonic Kansei Corp | 車両用距離画像データ生成装置 |
JP2010272067A (ja) * | 2009-05-25 | 2010-12-02 | Hitachi Automotive Systems Ltd | 画像処理装置 |
JP5431810B2 (ja) * | 2009-07-03 | 2014-03-05 | 株式会社豊田中央研究所 | 画像センサとその画像センサに用いられる受光装置 |
US20110187878A1 (en) * | 2010-02-02 | 2011-08-04 | Primesense Ltd. | Synchronization of projected illumination with rolling shutter of image sensor |
JP5629521B2 (ja) | 2010-07-29 | 2014-11-19 | パナソニック株式会社 | 障害物検知システム及び方法、障害物検知装置 |
WO2012017559A1 (fr) * | 2010-08-06 | 2012-02-09 | トヨタ自動車株式会社 | Dispositif et procédé de commande de la distribution de lumière pour véhicule |
US9204129B2 (en) * | 2010-09-15 | 2015-12-01 | Perceptron, Inc. | Non-contact sensing system having MEMS-based light source |
WO2012064520A1 (fr) * | 2010-11-12 | 2012-05-18 | 3M Innovative Properties Company | Dispositif d'affichage par projection interactif préservant la polarisation |
US8938099B2 (en) * | 2010-12-15 | 2015-01-20 | Canon Kabushiki Kaisha | Image processing apparatus, method of controlling the same, distance measurement apparatus, and storage medium |
US20130258108A1 (en) * | 2010-12-24 | 2013-10-03 | Hitachi, Ltd. | Road Surface Shape Recognition System and Autonomous Mobile Apparatus Using Same |
JP2012189535A (ja) * | 2011-03-14 | 2012-10-04 | Ihi Corp | 植生検出装置及び植生検出方法 |
EP2698777B1 (fr) * | 2011-04-13 | 2016-04-13 | Toyota Jidosha Kabushiki Kaisha | Dispositif de reconnaissance d'objet périphérique monté sur véhicule et dispositif d'assistance à la conduite utilisant celui-ci |
JP5366028B2 (ja) * | 2011-08-25 | 2013-12-11 | 株式会社デンソー | 顔画像撮像装置 |
US8744763B2 (en) * | 2011-11-17 | 2014-06-03 | Honeywell International Inc. | Using structured light to update inertial navigation systems |
US8844802B2 (en) * | 2011-12-20 | 2014-09-30 | Eastman Kodak Company | Encoding information in illumination patterns |
JP2013156109A (ja) * | 2012-01-30 | 2013-08-15 | Hitachi Ltd | 距離計測装置 |
JP5984409B2 (ja) * | 2012-02-03 | 2016-09-06 | キヤノン株式会社 | 三次元計測システム及び方法 |
JP5615862B2 (ja) * | 2012-03-07 | 2014-10-29 | クラリオン株式会社 | 車両周囲監視装置 |
JP6008148B2 (ja) * | 2012-06-28 | 2016-10-19 | パナソニックIpマネジメント株式会社 | 撮像装置 |
WO2014070448A1 (fr) * | 2012-10-31 | 2014-05-08 | Tk Holdings, Inc. | Système et procédé de détection de trajectoire de véhicule |
JP2014122847A (ja) * | 2012-12-21 | 2014-07-03 | Olympus Corp | 画像補正装置、画像補正プログラム、画像補正方法 |
JP5853947B2 (ja) * | 2012-12-27 | 2016-02-09 | 株式会社デンソー | 暗視装置 |
US20140247349A1 (en) * | 2013-03-04 | 2014-09-04 | GM Global Technology Operations LLC | Integrated lighting, camera and sensor unit |
US9041914B2 (en) * | 2013-03-15 | 2015-05-26 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
US9978148B2 (en) * | 2013-04-26 | 2018-05-22 | Panasonic Intellectual Property Corporation Of America | Motion sensor apparatus having a plurality of light sources |
US10313599B2 (en) * | 2013-07-01 | 2019-06-04 | Panasonic Intellectual Property Corporation Of America | Motion sensor device having plurality of light sources |
US20150109444A1 (en) * | 2013-10-22 | 2015-04-23 | GM Global Technology Operations LLC | Vision-based object sensing and highlighting in vehicle image display systems |
JP6447516B2 (ja) * | 2013-12-27 | 2019-01-09 | ソニー株式会社 | 画像処理装置、および画像処理方法 |
JP6183238B2 (ja) * | 2014-02-06 | 2017-08-23 | 株式会社Jvcケンウッド | 撮像装置及び撮像装置の制御方法 |
JP6340477B2 (ja) * | 2015-03-26 | 2018-06-06 | 富士フイルム株式会社 | 距離画像取得装置及び距離画像取得方法 |
WO2016156149A1 (fr) * | 2015-03-31 | 2016-10-06 | Sony Corporation | Système d'imagerie utilisant une lumière structurée pour une récupération de profondeur |
CN107428287B (zh) * | 2015-04-10 | 2021-06-29 | 麦克赛尔株式会社 | 影像投射装置 |
JP2017020873A (ja) * | 2015-07-09 | 2017-01-26 | キヤノン株式会社 | 被計測物の形状を計測する計測装置 |
US10645309B2 (en) * | 2015-11-06 | 2020-05-05 | Intel Corporation | Systems, methods, and apparatuses for implementing maximum likelihood image binarization in a coded light range camera |
CN108369089B (zh) * | 2015-11-25 | 2020-03-24 | 三菱电机株式会社 | 3维图像测量装置及方法 |
CN108431631A (zh) | 2015-12-21 | 2018-08-21 | 株式会社小糸制作所 | 车辆用图像获取装置、控制装置、包括了车辆用图像获取装置或控制装置的车辆和车辆用图像获取方法 |
EP3205540A1 (fr) * | 2016-02-09 | 2017-08-16 | Continental Automotive GmbH | Dispositif d'assistance au conducteur et procede destine a assister un conducteur de vehicule lors du guidage d'un vehicule |
US10761195B2 (en) * | 2016-04-22 | 2020-09-01 | OPSYS Tech Ltd. | Multi-wavelength LIDAR system |
JP6796653B2 (ja) * | 2016-09-15 | 2020-12-09 | 株式会社小糸製作所 | センサシステム |
US10712561B2 (en) * | 2016-11-04 | 2020-07-14 | Microsoft Technology Licensing, Llc | Interference mitigation via adaptive depth imaging |
JP6922187B2 (ja) * | 2016-11-08 | 2021-08-18 | 株式会社リコー | 測距装置、監視カメラ、3次元計測装置、移動体、ロボット及び光源駆動条件設定方法 |
CN108616726A (zh) * | 2016-12-21 | 2018-10-02 | 光宝电子(广州)有限公司 | 基于结构光的曝光控制方法及曝光控制装置 |
JP6981775B2 (ja) * | 2017-05-09 | 2021-12-17 | 株式会社キーエンス | 画像検査装置および画像検査方法 |
US10726569B2 (en) * | 2017-05-16 | 2020-07-28 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium |
-
2018
- 2018-12-27 JP JP2018244919A patent/JP7252755B2/ja active Active
-
2019
- 2019-12-18 DE DE102019220058.3A patent/DE102019220058A1/de active Pending
- 2019-12-23 FR FR1915483A patent/FR3091356B1/fr active Active
- 2019-12-25 CN CN201911353833.5A patent/CN111398975B/zh active Active
- 2019-12-26 US US16/727,045 patent/US11303817B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
DE102019220058A1 (de) | 2020-07-02 |
CN111398975A (zh) | 2020-07-10 |
JP7252755B2 (ja) | 2023-04-05 |
CN111398975B (zh) | 2023-12-05 |
JP2020106376A (ja) | 2020-07-09 |
US11303817B2 (en) | 2022-04-12 |
US20200213499A1 (en) | 2020-07-02 |
FR3091356B1 (fr) | 2022-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BE1022486B1 (fr) | Un systeme d'appareil de prise de vues tof et une methode pour mesurer une distance avec le systeme | |
FR3091356A1 (fr) | Capteur actif, système d’identification d’objet, véhicule et feu de véhicule | |
EP3803682B1 (fr) | Reconnaissance d'objet à l'aide d'un appareil photo multispectral et de profondeur | |
JP6333238B2 (ja) | カメラ及び照明を用いたガラス面の雨滴検出 | |
US20230179841A1 (en) | Gating camera | |
BRPI1107116A2 (pt) | determinação de um número total de pessoas em uma imagem ir obtida através de um sistema de formação de imagem ir | |
CN109426818B (zh) | 用于识别视线外对象的装置 | |
US10996169B2 (en) | Multi-spectral fluorescent imaging | |
WO2019062430A1 (fr) | Système et procédé d'acquisition d'informations de profondeur, module d'appareil de prise de vues et dispositif électronique | |
US20170018114A1 (en) | Video imaging to assess specularity | |
TW202021340A (zh) | 用於相機之紅外光預閃光 | |
JPWO2020066236A1 (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
US11353564B2 (en) | Disturbance light identifying apparatus, disturbance light separating apparatus, disturbance light identifying method, and disturbance light separating method | |
FR2783931A1 (fr) | Appareil de mesure de distance | |
EP3073441B1 (fr) | Procédé de correction d'une image d'au moins un objet présenté à distance devant un imageur et éclairé par un système d'éclairage et système de prise de vues pour la mise en oeuvre dudit procédé | |
JP7151676B2 (ja) | 物体認識装置及び物体認識プログラム | |
WO2021199225A1 (fr) | Système de traitement d'informations, système de capteur, procédé de traitement d'informations et programme | |
JP7103324B2 (ja) | 物体認識用異常検出装置及び物体認識用異常検出プログラム | |
WO2020195755A1 (fr) | Système d'imagerie de mesure de distance, procédé d'imagerie de mesure de distance et programme | |
EP3926529A1 (fr) | Systèmes et méthodes de détermination d'un nombre de personnes dans un véhicule | |
WO2021015208A1 (fr) | Capteur actif, caméra de déclenchement, automobile et monture de lampe de véhicule | |
WO2023286542A1 (fr) | Dispositif de détection d'objet et procédé de détection d'objet | |
FR3141788A1 (fr) | Système de surveillance volumétrique d’un espace et programme d’ordinateur correspondant. | |
FR3097975A1 (fr) | Procede et dispositif de telemetrie passive par traitement d'image | |
WO2024081491A1 (fr) | Détection active de profondeur |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20211022 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |