FR3091356A1 - Capteur actif, système d’identification d’objet, véhicule et feu de véhicule - Google Patents

Capteur actif, système d’identification d’objet, véhicule et feu de véhicule Download PDF

Info

Publication number
FR3091356A1
FR3091356A1 FR1915483A FR1915483A FR3091356A1 FR 3091356 A1 FR3091356 A1 FR 3091356A1 FR 1915483 A FR1915483 A FR 1915483A FR 1915483 A FR1915483 A FR 1915483A FR 3091356 A1 FR3091356 A1 FR 3091356A1
Authority
FR
France
Prior art keywords
light
image
active sensor
sensor
identification system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1915483A
Other languages
English (en)
Other versions
FR3091356B1 (fr
Inventor
Kensuke Arai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Manufacturing Co Ltd
Original Assignee
Koito Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Manufacturing Co Ltd filed Critical Koito Manufacturing Co Ltd
Publication of FR3091356A1 publication Critical patent/FR3091356A1/fr
Application granted granted Critical
Publication of FR3091356B1 publication Critical patent/FR3091356B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0017Devices integrating an element dedicated to another function
    • B60Q1/0023Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • G01S7/4866Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak by fitting a model or function to the received signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Fire-Detection Mechanisms (AREA)

Abstract

CAPTEUR ACTIF, SYSTÈME D’IDENTIFICATION D’OBJET, VÉHICULE ET FEU DE VÉHICULE L’invention concerne un capteur actif (70) qui inclut un élément de projection de lumière (72) configuré pour émettre une lumière de sonde et un capteur d’image (74). Le capteur actif (70) est configuré pour obtenir une première image (IMGa) dans un état d’émission de lumière de l’élément de projection de lumière et une deuxième image (IMGb) dans un état de non–émission de lumière de l’élément de projection de lumière (72). La deuxième image (IMGb) peut être utilisée pour corriger la première image (IMGa). Figure pour l’abrégé : Fig. 1.

Description

Description
Titre de l’invention : CAPTEUR ACTIF, SYSTÈME D’IDENTIFICATION D’OBJET, VÉHICULE ET FEU DE VÉHICULE
Domaine technique
[0001] La présente invention se rapporte à un système d’identification d’objet.
Art antérieur
[0002] Un système d’identification d’objet configuré pour détecter une position et un type d’un objet autour d’un véhicule est utilisé pour une conduite automatique ou une commande automatique sur une distribution de lumière d’un projecteur. Le système d’identification d’objet inclut un capteur et un dispositif de traitement configuré pour analyser une sortie du capteur. Le capteur est sélectionné parmi un appareil de prise de vues, un LiDAR (détection et télémétrie par ondes lumineuses, détection et télémétrie par capture par ondes laser), un radar à ondes millimétriques, un sonar à ultrasons et analogues, tout en tenant compte des utilisations, de la précision nécessaire et du coût.
[0003] En guise de capteur, un capteur passif et un capteur actif sont possibles. Le capteur passif est configuré pour détecter une lumière émise à partir un objet ou une lumière réfléchie à partir d’une lumière d’environnement par un objet, et le capteur lui-même n’émet pas de lumière. En revanche, le capteur actif est configuré pour émettre une lumière de sonde vers un objet et pour détecter une lumière réfléchie de celle-ci. Le capteur actif inclut principalement un élément de projection de lumière (dispositif d’éclairage) configuré pour émettre une lumière vers un objet et un capteur d’image configuré pour recevoir une lumière réfléchie à partir de l’objet. Le capteur actif est avantageux par rapport au capteur passif en ce que le capteur actif peut améliorer la résistance contre les perturbations par la combinaison d’une longueur d’onde de la lumière de sonde et d’une région de longueur d’onde de sensibilité du capteur d’image. Les documents JP-A-2009-257983 et WO2017/110413 décrivent des techniques de l’état de l’art associé.
[0004] Le capteur actif embarqué est utilisé à l’extérieur. Comme les longueurs d’onde de la lumière solaire vont de l’ultraviolet à l’infrarouge, qui se superposent à la longueur d’onde de la lumière de sonde, cela signifie que la lumière solaire devient la perturbation du capteur actif. De plus, un spectre de la lumière solaire, c’est-à-dire une intensité de composantes de perturbation, change au cours du temps.
[0005] Un système d’identification d’objet inclut un classificateur configuré pour recevoir une image de sortie du capteur actif et pour classifier une position et un type (catégorie) d’un objet contenu dans l’image de sortie. Le classificateur possède un modèle qui est généré par apprentissage machine à l’aide de données d’apprentissage (données d’entraînement) d’un nombre énorme d’images préparées à l’avance.
[0006] Dans le système d’identification d’objet, afin d’atteindre un taux d’identification élevé que ce soit le jour ou la nuit, il est nécessaire d’utiliser, en tant que données d’apprentissage, des images capturées sous divers environnements d’éclairement. Exposé de l’invention
[0007] De ce fait, la présente invention a été réalisée au vu des circonstances susmentionnées, et un aspect de la présente invention concerne un capteur actif ayant une résistance au bruit améliorée. Un autre aspect de la présente invention améliore un taux d’identification d’un système d’identification d’objet utilisant le capteur actif ou réduit un coût d’apprentissage.
[0008] Selon un mode de réalisation, la présente invention concerne un capteur actif. Le capteur actif inclut un élément de projection de lumière configuré pour émettre une lumière de sonde et un capteur d’image. Le capteur actif est configuré pour obtenir une première image dans un état d’émission de lumière de l’élément de projection de lumière et une deuxième image dans un état de non-émission de lumière de l’élément de projection de lumière. La deuxième image peut être utilisée pour corriger la première image.
[0009] D’après la configuration susmentionnée, le capteur actif peut améliorer la résistance au bruit.
L’invention sera bien comprise et ses avantages seront mieux compris à la lecture de la description détaillée qui suit. La description se rapporte aux dessins indiqués ciaprès et qui sont donnés à titre d’exemples.
Brève description des dessins
[0010] [fig.l] La figure 1 est un schéma fonctionnel d’un système d’identification d’objet selon un premier mode de réalisation.
[fig.2] La figure 2 est un chronogramme pour illustrer des opérations du système d’identification d’objet représenté sur la figure 1.
[fig.3] La figure 3 est un chronogramme pour illustrer des opérations du système d’identification d’objet selon un mode de réalisation modifié 1.1.
[fig.4] La figure 4 est un chronogramme pour illustrer des opérations du système d’identification d’objet selon un mode de réalisation modifié 1.2.
[fig.5] La figure 5 est un schéma fonctionnel d’un système d’identification d’objet selon un deuxième mode de réalisation.
[fig.6] La figure 6 est un chronogramme pour illustrer des opérations du système d’identification d’objet représenté sur la figure 5.
[fig.7] La figure 7 illustre un système d’identification d’objet selon un troisième mode de réalisation.
[fig.8] La figure 8 illustre les opérations d’un appareil de prise de vues à déclenchement.
[fig.9A-9B] Les figures 9A et 9B illustrent une pluralité d’images obtenues par l’appareil de prise de vues à déclenchement.
[fig. 10] La figure 10 est un diagramme de forme d’onde d’opération du système d’identification d’objet représenté sur la figure 7.
[fig.ll] La figure 11 illustre une automobile ayant un système d’identification d’objet, [fig. 12] La figure 12 est un schéma fonctionnel illustrant un feu de véhicule ayant un système d’identification d’objet.
Description des modes de réalisation
[0011] (Aperçu des modes de réalisation)
Un mode de réalisation décrit ici se rapporte à un capteur actif. Le capteur actif inclut un élément de projection de lumière configuré pour émettre une lumière de sonde et un capteur d’image. Le capteur actif est configuré pour obtenir une première image dans un état d’émission de lumière de l’élément de projection de lumière et une deuxième image dans un état de non-émission de lumière de l’élément de projection de lumière. La deuxième image peut être utilisée pour corriger la première image.
[0012] La deuxième image contenant uniquement du bruit de perturbation est obtenue dans l’état de non-émission de lumière de la lumière de sonde par l’élément de projection de lumière, et tout en calculant une différence par rapport à la première image contenant le bruit de perturbation et une composante de la lumière de sonde, une influence du bruit de perturbation peut être réduite, de sorte que la résistance au bruit peut être améliorée.
[0013] Un ensemble de l’élément de projection et du capteur d’image peut être fourni en deux ensembles, et une longueur d’onde peut être différente entre les deux ensembles.
[0014] Les deux ensembles peuvent être configurés pour fonctionner d’une manière complémentaire. Par conséquent, une fréquence de trames (ou fréquence d’images) peut être améliorée.
[0015] En variante, un seul des deux ensembles peut être autorisé à fonctionner. Par exemple, un ensemble parmi les deux ensembles X et Y dans lequel un taux d’identification d’un classificateur est plus élevé, peut être sélectionné et autorisé à fonctionner, conformément à un état (c’est-à-dire, un spectre) d’une lumière de l’environnement.
[0016] Le capteur actif peut en outre inclure un contrôleur configuré pour commander une temporisation (un timing) d’émission de lumière de l’élément de projection de lumière et une temporisation d’exposition à la lumière du capteur d’image.
[0017] Le capteur actif peut inclure un appareil de prise de vues à déclenchement configuré pour définir une pluralité de plages dans une direction de profondeur et obtenir une pluralité d’images correspondant à la pluralité de plages par le changement d’une différence de temps entre l’émission de lumière et la capture d’image pour chacune des plages.
[0018] La deuxième image peut être obtenue pour chaque plage. Ainsi, la précision peut être améliorée.
[0019] En variante, une deuxième image commune peut être utilisée pour toutes les plages. Dans ce cas, la baisse de la fréquence de trames peut être supprimée.
[0020] L’élément de projection de lumière peut être configuré pour émettre (délivrer en sortie) une lumière infrarouge ou une lumière ultraviolette.
[0021] Un autre mode de réalisation décrit ici se rapporte à un système d’identification d’objet. Le système d’identification d’objet peut inclure le capteur actif, et un dispositif de traitement arithmétique configuré pour identifier un type d’un objet sur la base d’une image obtenue par le capteur actif.
[0022] Un autre mode de réalisation décrit ici se rapporte à un feu de véhicule comprenant le système d’identification d’objet.
[0023] Un autre mode de réalisation décrit ici se rapporte à un véhicule comprenant le système d’identification d’objet.
[0024] Selon la configuration susmentionnée, le bruit de perturbation contenu dans les données d’image à entrer dans le classificateur est grandement réduit. Cela signifie qu’une influence du bruit de perturbation sur un modèle du classificateur est réduite. Par conséquent, la main-d’œuvre, le temps et les coûts à consommer pour la collecte de données d’apprentissage peuvent être réduits.
[0025] (Modes de réalisation)
Ci-dessous, les modes de réalisation de la présente invention seront décrits en référence aux dessins. Les éléments constitutifs, organes et traitements identiques ou équivalents représentés dans les dessins respectifs sont désignés par les mêmes signes de référence et les descriptions dupliquées sont omises lorsqu’approprié. Les modes de réalisation sont donnés à titre d’exemple et ne limitent pas l’invention. Toutes les caractéristiques décrites dans les modes de réalisation et leurs combinaisons ne peuvent pas être considérées comme étant nécessairement essentielles à l’invention.
[0026] (Premier mode de réalisation)
La figure 1 est un schéma fonctionnel d’un système d’identification d’objet selon un premier mode de réalisation. Le système d’identification d’objet 10 est monté sur un véhicule tel qu’une automobile et une motocyclette et est configuré pour déterminer un type (catégorie) d’un objet OBJ autour du véhicule.
[0027] Le système d’identification d’objet 10 inclut un capteur actif 70 et un dispositif de traitement arithmétique 40. Le capteur actif 70 est configuré pour émettre une lumière de sonde L1 en direction de l’objet OBJ et pour capturer une lumière réfléchie L2 réfléchie par l’objet OBJ. Le dispositif de traitement arithmétique 40 est configuré pour traiter une image de sortie du capteur actif 70 pour déterminer une position et un type (catégorie) de l’objet OBJ.
[0028] Le capteur actif 70 inclut un élément de projection de lumière 72, un capteur d’image 74, un contrôleur 76 et une unité de correction 78. L’élément de projection de lumière 72 est configuré pour émettre la lumière de sonde L1 à l’avant du véhicule, en synchronisation avec un signal de temporisation de projection de lumière SI appliqué par le contrôleur 76. La lumière de sonde L1 est de préférence une lumière infrarouge ou une lumière ultraviolette mais ne s’y limite pas. Par exemple, une lumière visible ayant une longueur d’onde prédéterminée peut également être viable.
[0029] Le capteur d’image 74 possède une sensibilité à la même longueur d’onde que la lumière de sonde L1 et est configuré pour capturer la lumière réfléchie (lumière de retour) L2 réfléchie par l’objet OBJ. Le capteur d’image 74 peut réaliser une commande d’exposition à la lumière en synchronisation avec un signal de temporisation de capture S2 appliqué par le contrôleur 76 et est configuré pour générer une image IMG. Une image obtenue dans un état d’émission de lumière de l’élément de projection de lumière 72 est appelée première image IMGa, et une image obtenue dans un état de non-émission de lumière de l’élément de projection de lumière 72 est appelée deuxième image IMGb pour les distinguer. Le contrôleur 76 est configuré pour commander la temporisation d’émission de lumière de l’élément de projection de lumière 72 et la temporisation d’exposition à la lumière du capteur d’image 74.
[0030] Comme le système d’identification d’objet 10 est utilisé à l’extérieur, non seulement la lumière de sonde L1 mais également une lumière (lumière d’environnement) L3 provenant du soleil et d’un éclairage urbain est rayonnée vers l’objet OBJ. Par conséquent, une lumière L4 réfléchie à partir de la lumière d’environnement L3 par l’objet OBJ est incidente sur le capteur d’image 74. De plus, la lumière d’environnement L3 peut être directement incidente sur le capteur d’image 74 en fonction d’une direction du capteur d’image 74. Par conséquent, lorsqu’un spectre de la lumière d’environnement L3 se superpose à une longueur d’onde de sensibilité du capteur d’image 74, la lumière d’environnement L3 devient un bruit de perturbation.
[0031] Afin de réduire une influence de la lumière d’environnement L3, le système d’identification d’objet 10 possède les fonctions suivantes.
[0032] Le capteur actif 70 est configuré pour réaliser deux fois une capture d’image tout en commutant l’élément de projection de lumière 72 entre l’état d’émission de lumière et l’état de non-émission de lumière, et pour obtenir la première image IMGa dans l’état d’émission de lumière et la deuxième image IMGb dans l’état de non-émission de lumière. La première image IMGa peut être corrigée à l’aide de la deuxième image
IMGb. Dans le premier mode de réalisation, la correction est réalisée par l’unité de correction 78 ménagée dans le capteur actif 70.
[0033] Pour simplifier la description, il est ici supposé que l’exposition du capteur d’image 74 est la même entre le moment de la capture de la première image IMGa et le moment de la capture de la deuxième image IMGb. L’exposition est déterminée sur la base d’une relation entre une vitesse d’obturation, une ouverture de diaphragme et une sensibilité du capteur d’image. Dans ce cas, l’unité de correction 78 est configurée pour soustraire une valeur de pixel d’un pixel correspondant de la deuxième image IMGb pour chaque pixel de la première image IMGa pour générer une troisième image IMGc ayant les valeurs de pixel après la soustraction.
[0034] Le dispositif de traitement arithmétique 40 peut être mis en œuvre dans une combinaison d’un processeur (matériel) tel qu’une CPU (unité centrale de traitement), une MPU (unité de micro-traitement) et un micro-ordinateur et d’un programme logiciel à exécuter par le processeur (matériel). Le dispositif de traitement arithmétique 40 peut être une combinaison d’une pluralité de processeurs. En variante, le dispositif de traitement arithmétique 40 peut être constitué uniquement du matériel.
[0035] Un classificateur 42 du dispositif de traitement arithmétique 40 est configuré pour recevoir la troisième image IMGc en tant qu’entrée et pour déterminer la position et le type de l’objet OBJ contenu dans celle-ci. Le classificateur 42 est mis en œuvre sur la base d’un modèle généré par l’apprentissage machine. Un algorithme du classificateur 42 n’est pas particulièrement limité mais les algorithmes YOLO (pour « You Only Look Once » en anglais, signifiant « on ne regarde qu’une fois ») et SSD (pour « Single Shot MultiBox Detector » en anglais, signifiant « détecteur à boîtes multiples à une seule prise »), R-CNN (pour « Region-based Convolutional Neural Network » en anglais, signifiant « réseau neuronal à convolution basé sur la région »), SPPnet (pour « Spatial Pyramid Pooling » en anglais, signifiant « regroupement pyramidal spatial »), R-CNN plus rapide, DSSD (SSD à déconvolution), R-CNN à masque et analogues peuvent être adoptés. En variante, des algorithmes à développer à l’avenir peuvent également être adoptés.
[0036] La configuration du système d’identification d’objet 10 est telle que décrite ci-dessus. Par la suite, les opérations de celui-ci seront décrites. La figure 2 est un chronogramme pour illustrer des opérations du système d’identification d’objet 10 représenté sur la figure 1.
[0037] Au cours d’une période de trame TFRAme, le signal de temporisation de projection de lumière SI possède une durée haute et une durée basse. La durée haute est une durée d’émission de lumière de l’élément de projection de lumière 72, et la durée basse est une durée de non-émission de lumière de l’élément de projection de lumière 72.
[0038] Le signal de temporisation de capture S2 devient haut pour chacune de la durée haute et de la durée basse du signal de temporisation de projection de lumière SI, et la capture par le capteur d’image 74 est ainsi ordonnée. Une vitesse d’obturateur (temps d’exposition à la lumière) Tsl dans l’état d’émission de lumière et une vitesse d’obturateur Ts2 dans l’état de non-émission de lumière peuvent être identiques ou différentes l’une de l’autre.
[0039] A partir du capteur d’image 74, la première image IMGa et la deuxième image IMGb sont délivrées en sortie de manière alternée. Lorsqu’une paire de deux images IMGa et IMGb sont obtenues, la première image IMGa est corrigée à l’aide de la deuxième image IMGb. Cette correction peut être réalisée le plus simplement par soustraction des valeurs de pixels et est exprimée telle que IMGa - IMGb. Ensuite, l’image IMGc après la correction est délivrée en sortie à chaque période de trame TFRAME.
[0040] Les opérations du système d’identification d’objet 10 sont telles que décrites ci-dessus. Par la suite, les avantages de celles-ci seront décrits.
La première image IMGa capturée dans l’état d’émission de lumière de la lumière de sonde LI contient la lumière réfléchie L2 et le bruit de perturbation (les composantes L3 et L4 de la lumière d’environnement). En revanche, la deuxième image IMGb capturée dans l’état de non-émission de lumière de la lumière de sonde LI contient uniquement le bruit de perturbation. Par conséquent, lorsqu’une différence de celles-ci est prise, l’influence du bruit de perturbation peut être réduite et la résistance au bruit peut être améliorée.
[0041] Par ailleurs, dans la technique de l’état de l’art associé, comme les données d’image entrées dans le classificateur ayant appris 42 contiennent le bruit de perturbation issu de la lumière d’environnement, il est nécessaire que le classificateur 42 possède une capacité de déterminer avec précision l’objet OBJ, quelle que soit une quantité du bruit de perturbation. Par conséquent, pour l’apprentissage machine du classificateur 42, il est nécessaire de collecter des images (données d’apprentissage) capturées tout en changeant un éclairement et une température de couleur de la lumière d’environnement.
[0042] Au contraire, lorsque le capteur actif 70 du premier mode de réalisation est utilisé, le bruit de perturbation contenu dans les données d’image à entrer dans le classificateur 42 est grandement réduit. Cela signifie qu’une influence du bruit de perturbation sur le modèle du classificateur 42 est réduite. Par conséquent, la main-d’œuvre, le temps et les coûts à consommer pour la collecte des données d’apprentissage peuvent être réduits.
[0043] Par la suite, des modes de réalisation modifiés du premier mode de réalisation seront décrits.
[0044] (Mode de réalisation modifié 1.1)
La figure 3 est un chronogramme pour illustrer des opérations du système d’identification d’objet 10 selon un mode de réalisation modifié 1.1. Dans le mode de réalisation modifié 1.1, la deuxième image IMGb dans l’état de non-émission de lumière est d’abord obtenue et la première image IMGa dans l’état d’émission de lumière est ensuite obtenue.
[0045] (Mode de réalisation modifié 1.2)
Dans le premier mode de réalisation, la deuxième image IMGb est obtenue à chaque fois que la première image IMGa est obtenue. Cependant, la présente invention n’est pas limitée à cela. La figure 4 est un chronogramme pour illustrer des opérations du système d’identification d’objet selon un mode de réalisation modifié 1.2. Dans le mode de réalisation modifié 1.2, la deuxième image IMGb pour la correction est capturée une fois pour plusieurs trames (ici, cinq trames). Selon le mode de réalisation modifié 1.2, la période de trame peut être raccourcie comparativement au mode de réalisation représenté sur la figure 2.
[0046] (Mode de réalisation modifié 1.3)
En variante, les images obtenues par la réalisation de la capture d’image plus d’une fois dans l’état de non-émission de lumière peuvent être moyennées (ou additionnées) pour générer la deuxième image IMGb.
[0047] (Mode de réalisation modifié 1.4)
Dans le premier mode de réalisation, le capteur actif 70 inclut l’unité de correction 78. Cependant, la présente invention n’est pas limitée à cela. Le capteur actif 70 peut être configuré pour délivrer en sortie une paire de la première image IMGa et de la deuxième image IMGb, et la fonction de l’unité de correction 78 peut être exécutée par le dispositif de traitement arithmétique 40.
[0048] (Mode de réalisation modifié 1.5)
Dans l’état d’émission de lumière et l’état de non-émission de lumière, l’exposition du capteur d’image 74 peut être différente. Dans ce cas, la première image IMGa et la deuxième image IMGb peuvent être sensibilisées ou désensibilisées par un traitement d’image de sorte que l’exposition devient identique, et le traitement de soustraction peut être exécuté dans un état dans lequel l’exposition devient identique.
[0049] (Deuxième mode de réalisation)
La figure 5 est un schéma fonctionnel d’un système d’identification d’objet 10A selon un deuxième mode de réalisation. Le système d’identification d’objet 10A inclut le dispositif de traitement arithmétique 40 et un capteur actif 70A. Le capteur actif 70A inclut deux ensembles X et Y, chacun incluant l’élément de projection de lumière 72 et le capteur d’image 74. Dans le premier ensemble X et le second ensemble Y, les longueurs d’onde sont différentes les unes des autres. Dans le premier ensemble X, l’élément de projection de lumière 72x est configuré pour émettre une lumière de sonde ayant une première longueur d’onde À! et le capteur d’image 74x est sensible à la première longueur d’onde À! mais est insensible à une seconde longueur d’onde Àu. Dans le second ensemble Y, l’élément de projection de lumière 72y est configuré pour émettre une lumière de sonde ayant une seconde longueur d’onde Àu et le capteur d’image 74y est sensible à la seconde longueur d’onde λπ mais est insensible à la première longueur d’onde Àb
[0050] La figure 6 est un chronogramme pour illustrer des opérations du système d’identification d’objet 10A représenté sur la figure 5. Les deux ensembles fonctionnent d’une manière complémentaire. Spécifiquement, l’état d’émission de lumière du premier ensemble X est l’état de non-émission de lumière du second ensemble Y, et l’état de non-émission de lumière du premier ensemble X est l’état d’émission de lumière du second ensemble Y. Ainsi, deux images IMGc peuvent être obtenues pendant une période de fonctionnement (période de trame) TFRAMF de chaque ensemble, de sorte que la fréquence de trames effective peut être augmentée.
[0051] Entre-temps, un seul des deux ensembles X et Y peut être sélectionné et autorisé à fonctionner. Par exemple, un ensemble dans lequel le taux d’identification du classificateur 42 est supérieur peut être sélectionné parmi les deux ensembles X et Y et autorisé à fonctionner, en correspondance avec l’état (spectre) de la lumière d’environnement.
[0052] (Troisième mode de réalisation)
La figure 7 illustre un système d’identification d’objet 10C selon un troisième mode de réalisation. Un capteur actif 70C est un appareil de prise de vues à déclenchement. Une pluralité de N (N > 2) plages RNGi à RNGn est définie dans une direction de profondeur, et la capture d’image est réalisée à chaque plage par l’appareil de prise de vues à déclenchement 70C. Les plages adjacentes les unes aux autres peuvent se superposer dans la direction de profondeur au niveau d’une limite entre celles-ci.
[0053] Le contrôleur 76 est configuré pour changer une différence de temps entre la projection de lumière par l’élément de projection de lumière 72 et l’exposition à la lumière du capteur d’image 74 à chaque plage RNG par le changement du signal de temporisation de projection de lumière SI et du signal de temporisation de capture S2. L’appareil de prise de vues à déclenchement 70C est configuré pour générer une pluralité de premières images IMGai à IMGaN correspondant à la pluralité de plages RNGi à RNGn. Dans la i-ème première image IMGa;, seul un objet contenu dans la plage correspondante RNGi est capturé.
[0054] La figure 8 illustre les opérations de l’appareil de prise de vues à déclenchement 70C. La figure 8 illustre une situation où la i-ème plage RNGi est mesurée. L’élément de projection de lumière 72 émet une lumière pendant la durée d’émission de lumière Xi du temps t0 à tb en synchronisation avec le signal de temporisation de projection de lumière SI. Sur la partie supérieure, un diagramme d’un faisceau de lumière dans lequel l’axe horizontal indique le temps et la ligne verticale indique une distance est représenté. Une distance de l’appareil de prise de vues à déclenchement 70C à une limite immédiatement avant la plage RNG; est désignée par dM1Ni, et une distance à une limite interne de la plage RNG; est désignée par dMAXi.
[0055] Un temps d’aller-retour TM1Ni après qu’une lumière partant de l’élément de projection de lumière 72 à un certain temps a atteint la distance dM1Ni jusqu’à ce que sa lumière réfléchie retourne vers le capteur d’image 74 est comme suit.
TM1Ni = 2 x dM1Ni/c, où c est la vitesse de la lumière.
[0056] De manière similaire, un temps d’aller-retour TMAXi après qu’une lumière partant de l’élément de projection de lumière 72 à un certain temps a atteint la distance dMAXi jusqu’à ce que sa lumière réfléchie retourne vers le capteur d’image 74 est comme suit :
TMAXi = 2 X dyIAXl/C
[0057] Lorsqu’il est destiné à capturer uniquement l’objet OBJ contenu dans la plage RNGi, le contrôleur 76 génère le signal de temporisation de capture S2 afin de démarrer l’exposition à la lumière au temps t2 = L + TMINi, et d’achever l’exposition à la lumière au temps t3 = ti + Tma». Ceci représente une opération d’exposition à la lumière.
[0058] Lors de la capture de la i-ème plage RNGi, une pluralité d’expositions à la lumière peut également être réalisées. Dans ce cas, le contrôleur 76 peut répéter une pluralité des opérations d’exposition à la lumière avec une durée prédéterminée τ2.
[0059] Les figures 9A et 9B illustrent une pluralité d’images obtenues par l’appareil de prise de vues à déclenchement 70C. Dans l’exemple de la figure 9A, un objet (piéton) OBJ2 est présent dans la plage RNG2, et un objet (véhicule) OBJ3 est présent dans la plage RNG3. La figure 9B illustre une pluralité de premières images IMGai à IMGa3 obtenues dans la situation de la figure 9A. Lors de la capture de l’image IMGah comme le capteur d’image est exposé à la lumière uniquement par la lumière réfléchie provenant de la plage RNGi, aucun objet n’est capturé dans l’image IMGai.
[0060] Lors de la capture de l’image IMGa2, comme le capteur d’image est exposé à la lumière uniquement par la lumière réfléchie provenant de la plage RNG2, seul l’objet OBJ2 est capturé dans l’image IMGa2. De manière similaire, lors de la capture de l’image IMGa3, comme le capteur d’image est exposé à la lumière uniquement par la lumière réfléchie provenant de la plage RNG3, seul l’objet OBJ3 est capturé dans l’image IMGa3. De cette manière, l’appareil de prise de vues à déclenchement 70C peut capturer séparément l’objet à chaque plage.
[0061] La configuration du système d’identification d’objet 10C est telle que décrite ci-dessus. Par la suite, les opérations de celui-ci seront décrites. La figure 10 est un diagramme de forme d’onde de fonctionnement du système d’identification d’objet
10C représenté sur la figure 7. Dans la figure 10, la deuxième image IMGb est d’abord capturée par l’une et est partagée dans la pluralité de plages. Entre-temps, la deuxième image IMGb peut être capturée à chaque plage.
[0062] La figure 11 illustre une automobile ayant le système d’identification d’objet 10. L’automobile 300 possède des projecteurs 302L et 302R. Le système d’identification d’objet 10 est fourni dans au moins l’un des projecteurs 302L et 302R. Le projecteur 302 est situé à une extrémité avant d’une carrosserie de véhicule et est le plus avantageux comme emplacement de fourniture du capteur actif 70 lors de la capture d’un objet aux environs.
[0063] La figure 12 est un schéma fonctionnel illustrant un feu de véhicule 200 incluant un système d’identification d’objet 210. Le feu de véhicule 200 constitue un système de feu 310, conjointement avec une unité de commande électronique, ECU, côté véhicule 304. Le feu de véhicule 200 inclut une source de lumière 202, un circuit d’éclairage 204 et un système optique 206. Le feu de véhicule 200 inclut en outre un système d’identification d’objet 210. Le système d’identification d’objet 210 correspond au système d’identification d’objet 10 décrit ci-dessus et inclut le capteur actif 70 et le dispositif de traitement arithmétique 40.
[0064] Des informations concernant l’objet OBJ détecté par le dispositif de traitement arithmétique 40 peuvent également être utilisées pour la commande de distribution de lumière du feu de véhicule 200. Spécifiquement, une ECU côté feu 208 est configurée pour générer un motif de distribution de lumière approprié sur la base des informations concernant le type et la position de l’objet OBJ générées par le dispositif de traitement arithmétique 40. Ue circuit d’éclairage 204 et le système optique 206 sont configurés pour fonctionner de sorte que le motif de distribution de lumière généré par l’ECU côté feu 208 soit obtenu.
[0065] Par ailleurs, des informations concernant l’objet OBJ détecté par le dispositif de traitement arithmétique 40 peuvent être transmises à l’ECU côté véhicule 304. L’ECU côté véhicule peut être configurée pour réaliser une conduite automatique, sur la base des informations correspondantes.
[0066] Bien que la présente invention ait été décrite à l’aide des expressions spécifiques en référence aux modes de réalisation, les modes de réalisation illustrent simplement un aspect du principe et de l’application du concept inventif de la présente invention. Les modes de réalisation peuvent être modifiés et peuvent être changés en termes d’agencement sans s’écarter de l’esprit de la présente invention définie dans les revendications.

Claims (1)

  1. Revendications [Revendication 1] Capteur actif (70) comprenant : un élément de projection de lumière (72) configuré pour émettre une lumière de sonde ; et un capteur d’image (74), dans lequel le capteur actif (70) est configuré pour obtenir une première image (IMGa) dans un état d’émission de lumière de l’élément de projection de lumière (72) et une deuxième image (IMGb) dans un état de non-émission de lumière de l’élément de projection de lumière (72), et dans lequel la deuxième image (IMGb) peut être utilisée pour corriger la première image (IMGa). [Revendication 2] Capteur actif (70) selon la revendication 1, dans lequel un ensemble de l’élément de projection de lumière (72) et du capteur d’image (74) est fourni en deux ensembles, et une longueur d’onde est différente entre les deux ensembles. [Revendication 3] Capteur actif (70) selon la revendication 2, dans lequel les deux ensembles sont configurés pour fonctionner d’une manière complémentaire. [Revendication 4] Capteur actif (70) selon l’une quelconque des revendications 1 à 3, comprenant en outre : un contrôleur (76) configuré pour commander une temporisation d’émission de lumière de l’élément de projection de lumière (72) et une temporisation d’exposition à la lumière du capteur d’image (74). [Revendication 5] Capteur actif (70) selon l’une quelconque des revendications 1 à 4, dans lequel le capteur actif (70) inclut un appareil de prise de vues à déclenchement (70C) configuré pour définir une pluralité de plages (RNGi - RNGn) dans une direction de profondeur et obtenir une pluralité d’images (IMGai - IMGaN) correspondant à la pluralité de plages, en changeant une différence de temps entre l’émission de lumière et la capture d’image pour chacune des plages. [Revendication 6] Capteur actif (70) selon la revendication 5, dans lequel la deuxième image (IMGb) est obtenue de manière commune pour la pluralité de plages (RNGi - RNGn). [Revendication 7] Capteur actif selon la revendication 5, dans lequel la deuxième image (IMGb) est obtenue pour chacune des plages.
    [Revendication 8] Capteur actif selon l’une quelconque des revendications 1 à 7, dans lequel une longueur d’onde de la lumière de sonde est infrarouge ou ultraviolette. [Revendication 9] Système d’identification (10, 210) d’objet comprenant : le capteur actif (70) selon l’une quelconque des revendications 1 à 8 ; et un dispositif de traitement arithmétique (40) configuré pour identifier un type d’un objet sur la base d’une image obtenue par le capteur actif (70). [Revendication 10] Feu de véhicule (200) comprenant le système d’identification (210) d’objet selon la revendication 9. [Revendication 11] Véhicule (300) comprenant le système d’identification d’objet (10) selon la revendication 9.
    1/7
FR1915483A 2018-12-27 2019-12-23 Capteur actif, système d’identification d’objet, véhicule et feu de véhicule Active FR3091356B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018244919A JP7252755B2 (ja) 2018-12-27 2018-12-27 アクティブセンサ、物体識別システム、車両、車両用灯具
JP2018-244919 2018-12-27

Publications (2)

Publication Number Publication Date
FR3091356A1 true FR3091356A1 (fr) 2020-07-03
FR3091356B1 FR3091356B1 (fr) 2022-04-29

Family

ID=71079576

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1915483A Active FR3091356B1 (fr) 2018-12-27 2019-12-23 Capteur actif, système d’identification d’objet, véhicule et feu de véhicule

Country Status (5)

Country Link
US (1) US11303817B2 (fr)
JP (1) JP7252755B2 (fr)
CN (1) CN111398975B (fr)
DE (1) DE102019220058A1 (fr)
FR (1) FR3091356B1 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021193645A1 (fr) * 2020-03-24 2021-09-30
CN113076943A (zh) * 2021-02-23 2021-07-06 海南快停科技有限公司 一种基于车牌特征识别的摄像功能
WO2023224077A1 (fr) * 2022-05-18 2023-11-23 株式会社小糸製作所 CAMÉRA ToF, SYSTÈME DE DÉTECTION POUR VÉHICULE ET MONTURE DE PHARE DE VÉHICULE

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7019275B2 (en) * 1997-09-16 2006-03-28 Gentex Corporation Moisture sensor and windshield fog detector
US6876392B1 (en) * 1998-12-22 2005-04-05 Matsushita Electric Industrial Co., Ltd. Rangefinder for obtaining information from a three-dimensional object
FR2815914B1 (fr) * 2000-10-27 2003-01-03 Valeo Vision Dispositif de correction automatique de l'orientation en site d'un projecteur de vehicule automobile
AU2003214595A1 (en) * 2002-03-07 2003-09-16 Yechezkal Evan Spero Enhanced vision for driving
JP2003329773A (ja) * 2002-05-10 2003-11-19 Hitachi Ltd 複数の距離検知センサを設置した車両制御装置
JP2004144512A (ja) * 2002-10-22 2004-05-20 Denso Corp 乗員検知システム
FR2857463B1 (fr) * 2003-07-11 2005-09-02 Valeo Vision Systeme de vision nocturne a infrarouge, en couleur.
JP4309728B2 (ja) * 2003-09-17 2009-08-05 パナソニック株式会社 監視用ビデオカメラ
US7319805B2 (en) * 2003-10-06 2008-01-15 Ford Motor Company Active night vision image intensity balancing system
JP2006011671A (ja) 2004-06-24 2006-01-12 Alpine Electronics Inc 車載周辺状況検出装置
JP4595135B2 (ja) 2004-10-07 2010-12-08 株式会社メガチップス 距離測定システムおよび距離測定方法
US20060228003A1 (en) * 2005-04-06 2006-10-12 Silverstein D A Method and apparatus for detection of optical elements
US20090309710A1 (en) * 2005-04-28 2009-12-17 Aisin Seiki Kabushiki Kaisha Vehicle Vicinity Monitoring System
US9330324B2 (en) * 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
JP4730267B2 (ja) * 2006-07-04 2011-07-20 株式会社デンソー 車両用視界状況判定装置
US7579593B2 (en) * 2006-07-25 2009-08-25 Panasonic Corporation Night-vision imaging apparatus, control method of the same, and headlight module
JP4315175B2 (ja) * 2006-08-10 2009-08-19 日産自動車株式会社 光検出方法および光検出装置
JP5112702B2 (ja) * 2007-01-16 2013-01-09 富士フイルム株式会社 撮影装置および方法並びにプログラム
DE102008006973B4 (de) * 2007-02-02 2017-03-02 Denso Corporation Projektor und Bildaufnahmevorrichtung
EP2150437B1 (fr) * 2007-04-30 2014-06-18 Mobileye Technologies Limited Détection d'obstruction arrière
FR2919727B1 (fr) * 2007-08-03 2010-07-30 Valeo Vision Procede de detection par un vehicule d'un phenomene perturbateur de visibilite
JP4640404B2 (ja) * 2007-11-22 2011-03-02 トヨタ自動車株式会社 車両運転者状態検出装置
JP2009257983A (ja) 2008-04-18 2009-11-05 Calsonic Kansei Corp 車両用距離画像データ生成装置および車両用距離画像データの生成方法
JP2009257981A (ja) * 2008-04-18 2009-11-05 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP2009257982A (ja) * 2008-04-18 2009-11-05 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP2009282906A (ja) * 2008-05-26 2009-12-03 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP2010272067A (ja) * 2009-05-25 2010-12-02 Hitachi Automotive Systems Ltd 画像処理装置
JP5431810B2 (ja) * 2009-07-03 2014-03-05 株式会社豊田中央研究所 画像センサとその画像センサに用いられる受光装置
US20110187878A1 (en) * 2010-02-02 2011-08-04 Primesense Ltd. Synchronization of projected illumination with rolling shutter of image sensor
JP5629521B2 (ja) 2010-07-29 2014-11-19 パナソニック株式会社 障害物検知システム及び方法、障害物検知装置
WO2012017559A1 (fr) * 2010-08-06 2012-02-09 トヨタ自動車株式会社 Dispositif et procédé de commande de la distribution de lumière pour véhicule
US9204129B2 (en) * 2010-09-15 2015-12-01 Perceptron, Inc. Non-contact sensing system having MEMS-based light source
WO2012064520A1 (fr) * 2010-11-12 2012-05-18 3M Innovative Properties Company Dispositif d'affichage par projection interactif préservant la polarisation
US8938099B2 (en) * 2010-12-15 2015-01-20 Canon Kabushiki Kaisha Image processing apparatus, method of controlling the same, distance measurement apparatus, and storage medium
US20130258108A1 (en) * 2010-12-24 2013-10-03 Hitachi, Ltd. Road Surface Shape Recognition System and Autonomous Mobile Apparatus Using Same
JP2012189535A (ja) * 2011-03-14 2012-10-04 Ihi Corp 植生検出装置及び植生検出方法
EP2698777B1 (fr) * 2011-04-13 2016-04-13 Toyota Jidosha Kabushiki Kaisha Dispositif de reconnaissance d'objet périphérique monté sur véhicule et dispositif d'assistance à la conduite utilisant celui-ci
JP5366028B2 (ja) * 2011-08-25 2013-12-11 株式会社デンソー 顔画像撮像装置
US8744763B2 (en) * 2011-11-17 2014-06-03 Honeywell International Inc. Using structured light to update inertial navigation systems
US8844802B2 (en) * 2011-12-20 2014-09-30 Eastman Kodak Company Encoding information in illumination patterns
JP2013156109A (ja) * 2012-01-30 2013-08-15 Hitachi Ltd 距離計測装置
JP5984409B2 (ja) * 2012-02-03 2016-09-06 キヤノン株式会社 三次元計測システム及び方法
JP5615862B2 (ja) * 2012-03-07 2014-10-29 クラリオン株式会社 車両周囲監視装置
JP6008148B2 (ja) * 2012-06-28 2016-10-19 パナソニックIpマネジメント株式会社 撮像装置
WO2014070448A1 (fr) * 2012-10-31 2014-05-08 Tk Holdings, Inc. Système et procédé de détection de trajectoire de véhicule
JP2014122847A (ja) * 2012-12-21 2014-07-03 Olympus Corp 画像補正装置、画像補正プログラム、画像補正方法
JP5853947B2 (ja) * 2012-12-27 2016-02-09 株式会社デンソー 暗視装置
US20140247349A1 (en) * 2013-03-04 2014-09-04 GM Global Technology Operations LLC Integrated lighting, camera and sensor unit
US9041914B2 (en) * 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9978148B2 (en) * 2013-04-26 2018-05-22 Panasonic Intellectual Property Corporation Of America Motion sensor apparatus having a plurality of light sources
US10313599B2 (en) * 2013-07-01 2019-06-04 Panasonic Intellectual Property Corporation Of America Motion sensor device having plurality of light sources
US20150109444A1 (en) * 2013-10-22 2015-04-23 GM Global Technology Operations LLC Vision-based object sensing and highlighting in vehicle image display systems
JP6447516B2 (ja) * 2013-12-27 2019-01-09 ソニー株式会社 画像処理装置、および画像処理方法
JP6183238B2 (ja) * 2014-02-06 2017-08-23 株式会社Jvcケンウッド 撮像装置及び撮像装置の制御方法
JP6340477B2 (ja) * 2015-03-26 2018-06-06 富士フイルム株式会社 距離画像取得装置及び距離画像取得方法
WO2016156149A1 (fr) * 2015-03-31 2016-10-06 Sony Corporation Système d'imagerie utilisant une lumière structurée pour une récupération de profondeur
CN107428287B (zh) * 2015-04-10 2021-06-29 麦克赛尔株式会社 影像投射装置
JP2017020873A (ja) * 2015-07-09 2017-01-26 キヤノン株式会社 被計測物の形状を計測する計測装置
US10645309B2 (en) * 2015-11-06 2020-05-05 Intel Corporation Systems, methods, and apparatuses for implementing maximum likelihood image binarization in a coded light range camera
CN108369089B (zh) * 2015-11-25 2020-03-24 三菱电机株式会社 3维图像测量装置及方法
CN108431631A (zh) 2015-12-21 2018-08-21 株式会社小糸制作所 车辆用图像获取装置、控制装置、包括了车辆用图像获取装置或控制装置的车辆和车辆用图像获取方法
EP3205540A1 (fr) * 2016-02-09 2017-08-16 Continental Automotive GmbH Dispositif d'assistance au conducteur et procede destine a assister un conducteur de vehicule lors du guidage d'un vehicule
US10761195B2 (en) * 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
JP6796653B2 (ja) * 2016-09-15 2020-12-09 株式会社小糸製作所 センサシステム
US10712561B2 (en) * 2016-11-04 2020-07-14 Microsoft Technology Licensing, Llc Interference mitigation via adaptive depth imaging
JP6922187B2 (ja) * 2016-11-08 2021-08-18 株式会社リコー 測距装置、監視カメラ、3次元計測装置、移動体、ロボット及び光源駆動条件設定方法
CN108616726A (zh) * 2016-12-21 2018-10-02 光宝电子(广州)有限公司 基于结构光的曝光控制方法及曝光控制装置
JP6981775B2 (ja) * 2017-05-09 2021-12-17 株式会社キーエンス 画像検査装置および画像検査方法
US10726569B2 (en) * 2017-05-16 2020-07-28 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
DE102019220058A1 (de) 2020-07-02
CN111398975A (zh) 2020-07-10
JP7252755B2 (ja) 2023-04-05
CN111398975B (zh) 2023-12-05
JP2020106376A (ja) 2020-07-09
US11303817B2 (en) 2022-04-12
US20200213499A1 (en) 2020-07-02
FR3091356B1 (fr) 2022-04-29

Similar Documents

Publication Publication Date Title
BE1022486B1 (fr) Un systeme d'appareil de prise de vues tof et une methode pour mesurer une distance avec le systeme
FR3091356A1 (fr) Capteur actif, système d’identification d’objet, véhicule et feu de véhicule
EP3803682B1 (fr) Reconnaissance d'objet à l'aide d'un appareil photo multispectral et de profondeur
JP6333238B2 (ja) カメラ及び照明を用いたガラス面の雨滴検出
US20230179841A1 (en) Gating camera
BRPI1107116A2 (pt) determinação de um número total de pessoas em uma imagem ir obtida através de um sistema de formação de imagem ir
CN109426818B (zh) 用于识别视线外对象的装置
US10996169B2 (en) Multi-spectral fluorescent imaging
WO2019062430A1 (fr) Système et procédé d'acquisition d'informations de profondeur, module d'appareil de prise de vues et dispositif électronique
US20170018114A1 (en) Video imaging to assess specularity
TW202021340A (zh) 用於相機之紅外光預閃光
JPWO2020066236A1 (ja) 奥行取得装置、奥行取得方法およびプログラム
US11353564B2 (en) Disturbance light identifying apparatus, disturbance light separating apparatus, disturbance light identifying method, and disturbance light separating method
FR2783931A1 (fr) Appareil de mesure de distance
EP3073441B1 (fr) Procédé de correction d'une image d'au moins un objet présenté à distance devant un imageur et éclairé par un système d'éclairage et système de prise de vues pour la mise en oeuvre dudit procédé
JP7151676B2 (ja) 物体認識装置及び物体認識プログラム
WO2021199225A1 (fr) Système de traitement d'informations, système de capteur, procédé de traitement d'informations et programme
JP7103324B2 (ja) 物体認識用異常検出装置及び物体認識用異常検出プログラム
WO2020195755A1 (fr) Système d'imagerie de mesure de distance, procédé d'imagerie de mesure de distance et programme
EP3926529A1 (fr) Systèmes et méthodes de détermination d'un nombre de personnes dans un véhicule
WO2021015208A1 (fr) Capteur actif, caméra de déclenchement, automobile et monture de lampe de véhicule
WO2023286542A1 (fr) Dispositif de détection d'objet et procédé de détection d'objet
FR3141788A1 (fr) Système de surveillance volumétrique d’un espace et programme d’ordinateur correspondant.
FR3097975A1 (fr) Procede et dispositif de telemetrie passive par traitement d'image
WO2024081491A1 (fr) Détection active de profondeur

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20211022

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5