FR3081226A1 - Dispositif de génération de données de capteur - Google Patents
Dispositif de génération de données de capteur Download PDFInfo
- Publication number
- FR3081226A1 FR3081226A1 FR1905136A FR1905136A FR3081226A1 FR 3081226 A1 FR3081226 A1 FR 3081226A1 FR 1905136 A FR1905136 A FR 1905136A FR 1905136 A FR1905136 A FR 1905136A FR 3081226 A1 FR3081226 A1 FR 3081226A1
- Authority
- FR
- France
- Prior art keywords
- sensor
- data
- area
- camera
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims description 51
- 238000001514 detection method Methods 0.000 claims description 14
- 230000003287 optical effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/161—Decentralised systems, e.g. inter-vehicle communication
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4811—Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Atmospheric Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Measuring Fluid Pressure (AREA)
Abstract
D ispositif de génération de données de capteur Une interface d'entrée (11) est configurée pour recevoir au moins un signal de capteur correspondant à des informations de l'extérieur du véhicule détectées par au moins un capteur. Un processeur (12) est configuré pour, sur la base du signal de capteur, générer : des premières données correspondant à des premières informations détectées dans une première zone ; et des deuxièmes données correspondant à des deuxièmes informations détectées dans une deuxième zone située à l'extérieur de la première zone. Une interface de sortie (13) est configurée pour sortir les premières données et les deuxièmes données de manière indépendante les unes des autres. Figure pour l’abrégé : Fig. 1.
Description
Titre de l’invention : DISPOSITIF DE GÉNÉRATION DE DONNÉES DE CAPTEUR
Domaine technique [0001] La présente invention concerne un dispositif de génération de données de capteur conçu pour être monté sur un véhicule.
Art antérieur [0002] Le document de brevet 1 présente une caméra conçue pour être montée sur un véhicule. La caméra sert en tant qu'exemple d'un capteur. Une image de l'extérieur du véhicule acquise par la caméra est utilisée pour commander la technologie d'assistance.
[0003] Dans la configuration décrite dans le document de brevet 1, une partie d'une image acquise par la caméra est extraite et est utilisée pour être affichée sur un dispositif d'affichage installé dans un compartiment du véhicule.
Document de l’art antérieur
Document de brevet [0004] Document de brevet 1 : publication de brevet japonais n° 2017-034615A.
Exposé de l'invention [0005] L'objet actuellement présenté est destiné à utiliser des informations acquises par un capteur monté sur un véhicule d’une manière plus efficace.
[0006] Afin de satisfaire à la demande décrite ci-dessus, un aspect illustratif de l'objet actuellement présenté propose un dispositif de génération de données de capteur conçu pour être monté sur un véhicule, comprenant :
une interface d'entrée configurée pour recevoir au moins un signal de capteur correspondant à des informations de l'extérieur du véhicule détectées par au moins un capteur ;
un processeur configuré pour, sur la base du signal de capteur, générer : des premières données correspondant à des premières informations détectées dans une première zone ; et des deuxièmes données correspondant à des deuxièmes informations détectées dans une deuxième zone située à l'extérieur de la première zone ; et une interface de sortie configurée pour sortir les premières données et les deuxièmes données de manière indépendante les unes des autres.
[0007] On peut dire que les premières informations détectées dans la première zone ont une plus grande nécessité en tant qu'informations utilisées pour l’assistance à la conduite que les deuxièmes détectées dans la deuxième zone située à l'extérieur de la première zone. Non seulement les premières données correspondant à ces premières informations, mais également les deuxièmes données correspondant aux deuxièmes in formations qui peuvent être détectées par le capteur, mais dont la nécessité est relativement faible, peuvent être sorties selon les besoins, moyennant quoi les informations acquises par le capteur monté sur le véhicule peuvent être utilisées d'une manière plus efficace tout en supprimant la charge associée à la communication de données.
[0008] Afin de satisfaire à la demande décrite ci-dessus, un aspect illustratif de l'objet actuellement présenté propose un dispositif de génération de données de capteur conçu pour être monté sur un véhicule, comprenant :
une interface d'entrée configurée pour recevoir au moins un signal de capteur correspondant à des informations de l'extérieur du véhicule détectées par au moins un capteur ;
un processeur configuré pour, sur la base du signal de capteur, générer : des premières données correspondant à des premières informations détectées dans une première zone comprenant une position de référence de détection du capteur ; et des deuxièmes données correspondant à des deuxièmes informations détectées dans une deuxième zone ne comprenant pas la position de référence de détection ; et une interface de sortie configurée pour sortir les premières données et les deuxièmes données de manière indépendante les unes des autres.
[0009] On peut dire que les premières informations détectées dans la première zone comprenant la position de référence de détection du capteur ont une plus grande nécessité en tant qu'informations utilisées pour l’assistance à la conduite que les deuxièmes informations détectées dans la deuxième zone ne comprenant pas la position de référence de détection du capteur. Non seulement les premières données correspondant à ces premières informations, mais également les deuxièmes données correspondant aux deuxièmes informations qui peuvent être détectées par le capteur, mais dont la nécessité est relativement faible, peuvent être sorties selon les besoins, moyennant quoi les informations acquises par le capteur monté sur le véhicule peuvent être utilisées d'une manière plus efficace tout en supprimant la charge associée à la communication de données.
[0010] Chacun des dispositifs de génération de données de capteur ci-dessus peut être configuré de sorte que le processeur soit configuré pour générer les deuxièmes données de manière à inclure des informations associées à au moins l'un d’un traitement de reconnaissance, d’un traitement de détermination, et d’un traitement d'analyse effectués en relation avec les deuxièmes informations.
[0011] C'est à dire que le dispositif de génération de données de capteur n'effectue pas au moins l'un du traitement de reconnaissance, du traitement de détermination, et du traitement d'analyse en relation avec les premières données, et donne la priorité à la rapidité d’une entité à laquelle le traitement basé sur les premières données ayant une plus grande nécessité est confié. En limitant l'objet du traitement ci-dessus aux deuxièmes informations, il est possible d’obtenir des informations qui peuvent compléter le traitement effectué dans cette entité tout en supprimant une augmentation de la charge de traitement du processeur.
[0012] Dans ce cas, chacun des dispositifs de génération de données de capteur ci-dessus peut être configuré de sorte que les deuxièmes données comprennent des informations d'alerte qui sont basées sur les deuxièmes informations.
[0013] Conformément à une telle configuration, il est possible d'amener un dispositif qui a reçu les deuxièmes données à effectuer de préférence le traitement d'évitement de danger sur la base des informations d'alerte.
[0014] Dans ce cas, chacun des dispositifs de génération de données de capteur ci-dessus peut être configuré de sorte que :
le processeur soit configuré pour surveiller un changement temporel d'une position d'une référence agencée dans la deuxième zone ; et les deuxièmes données comprennent des informations de décalage du capteur qui sont basées sur le changement temporel.
[0015] Conformément à une telle configuration, il est possible d'amener un dispositif qui a reçu les deuxièmes données à reconnaître l'écart de position du capteur. Par exemple, lorsque la quantité d'écart de position du capteur indiquée par les informations de décalage dépasse une valeur prédéterminée, le dispositif peut effectuer un traitement pour notifier à l'utilisateur la nécessité de corriger la position de référence de détection du capteur. La correction de la position de référence de détection du capteur peut être effectuée mécaniquement ou électroniquement par le dispositif.
[0016] Chacun des dispositifs de génération de données de capteur ci-dessus peut être configuré de sorte que le processeur soit configuré pour surveiller un changement temporel d'une position d'une référence agencée dans la deuxième zone, et pour changer une position de la première zone sur la base du changement temporel.
[0017] Conformément à une telle configuration, il est possible d'automatiser la correction de la position de référence de détection du capteur tout en supprimant une augmentation de la charge de traitement dans le dispositif pour recevoir les deuxièmes données.
[0018] Chacun des dispositifs de génération de données de capteur ci-dessus peut être configuré de sorte que :
ledit au moins un capteur comprenne un premier capteur et un deuxième capteur ; et le processeur associé à un capteur du premier capteur et du deuxième capteur soit configuré pour agrandir la première zone dudit un capteur sur la base d’informations indiquant une anomalie de l'autre capteur du premier capteur et du deuxième capteur.
[0019] Conformément à une telle configuration, lorsqu'une anomalie quelconque se produit dans un capteur, il est possible d'effectuer un traitement pour compenser l’insuffisance par l'autre capteur.
[0020] Chacun des dispositifs de génération de données de capteur ci-dessus peut être configuré de sorte que :
ledit au moins un capteur comprenne un premier capteur et un deuxième capteur ; une priorité soit attribuée conformément à une position dans une zone sensible du premier capteur et une position dans une zone sensible du deuxième capteur ; et le processeur soit configuré pour générer les premières données et les deuxièmes données de manière à inclure des informations indiquant la priorité.
[0021] Conformément à une telle configuration, il est possible d'introduire une pondération conformément aux priorités dans au moins l'un du traitement de reconnaissance, du traitement de détermination, et du traitement d'analyse exécuté dans un dispositif pour recevoir les premières données et les deuxièmes données.
[0022] Chacun des dispositif de génération de données de capteur ci-dessus peut être configuré de sorte qu'une fréquence de génération des deuxièmes données soit inférieure à une fréquence de génération des premières données.
[0023] En réduisant la fréquence de génération des deuxièmes données correspondant aux deuxièmes informations ayant une nécessité relativement faible, la charge de traitement du processeur peut être réduite. De plus, la charge associée à la communication des deuxièmes données sorties de l'interface de sortie peut être réduite.
[0024] Chacun des dispositifs de génération de données de capteur ci-dessus peut être configuré de sorte que ledit au moins un capteur comprenne au moins l'un d'un capteur LiDAR, d'une caméra, et d'un capteur à ondes millimétriques.
[0025] Tel qu'utilisée ici, l’expression « assistance à la conduite » signifie la commande du traitement qui effectue au moins partiellement au moins l'une d’une opération de conduite (opération de braquage, accélération, décélération), d'une surveillance d'un environnement de conduite, et d'une sauvegarde d'une opération de conduite. C'est à dire qu'elle comprend non seulement la prise en charge partielle de la conduite telle qu'une fonction de freinage pour éviter une collision et une fonction d'assistance pour le maintien dans la voie, mais également une opération de conduite entièrement automatisée.
Brève description des dessins [0026] [fig.l] La figure 1 illustre un exemple d'un système de capteur comprenant un dispositif de génération de données de capteur selon un mode de réalisation.
[0027] [fig.2] La figure 2 illustre un organigramme de fonctionnement du système de capteur illustré sur la Eig. 1.
[0028] [fig.3] La figure 3 illustre une opération du système de capteur illustré sur la Eig. 1.
[0029] [fig.4] La figure 4 illustre une opération du système de capteur illustré sur la Eig. 1.
[0030] [fig.5] La figure 5 illustre un autre exemple d'un système de capteur comprenant le dispositif de génération de données de capteur illustré sur la Fig. 1.
[0031] [fig.6] La figure 6 illustre une opération du système de capteur illustré sur la Fig. 5.
[0032] [fig.7] La figure 7 illustre un autre exemple d'un système de capteur comprenant le dispositif de génération de données de capteur illustré sur la Fig. 1.
Description des modes de réalisation [0033] Des exemples de modes de réalisation vont être décrits ci-dessous en détail avec référence aux dessins joints. Sur chacun des dessins utilisés dans les descriptions qui suivent, l'échelle est changée de manière appropriée afin de faire en sorte que chacun des éléments ait une taille reconnaissable.
[0034] La Fig. 1 illustre schématiquement une configuration fonctionnelle d'un dispositif de génération de données de capteur 1 selon un mode de réalisation. Le dispositif de génération de données de capteur 1 est monté sur un véhicule. Le dispositif de génération de données de capteur 1 constitue un système de capteur avec une caméra 100 et un dispositif de commande 200 monté sur le véhicule.
[0035] La caméra 100 est un dispositif pour acquérir une image de l'extérieur du véhicule. La caméra 100 peut être disposée à un emplacement approprié à l'intérieur ou à l'extérieur d'un compartiment du véhicule. La caméra 100 est configurée pour sortir un signal de caméra S correspondant à l'image acquise. Une image à l'extérieur du véhicule est un exemple des informations de l'extérieur du véhicule. L'acquisition de l'image est un exemple de la détection des informations. La caméra 100 est un exemple du capteur. Le signal de caméra S est un exemple du signal de capteur.
[0036] Le dispositif de génération de données de capteur 1 comprend une interface d'entrée
11. Le signal de caméra S sorti de la caméra 100 est appliqué à l'interface d'entrée 11.
[0037] Le dispositif de génération de données de capteur 1 comprend en outre un processeur
12, une interface de sortie 13, et un bus de communication 14. L'interface d'entrée 11, le processeur 12, et l'interface de sortie 13 peuvent échanger des signaux et des données par l'intermédiaire du bus de communication 14. Le processeur 12 est configuré pour exécuter le traitement illustré sur la Fig. 2.
[0038] D'abord, le processeur 12 acquiert le signal de caméra S appliqué à l'interface d'entrée 11 (ETAPE1). L'expression « acquérir le signal de caméra S » signifie que le signal de caméra S appliqué à l'interface d'entrée 11 est mis dans une condition dans laquelle le traitement qui sera décrit ultérieurement puisse être exécuté au moyen d'une configuration de circuit appropriée.
[0039] Le processeur 12 génère ensuite des premières données DI sur la base du signal de caméra S (ETAPE2). Comme illustré sur la Fig. 3A, une zone de capacité de capture d’image A0 de la caméra 100 comprend une première zone Al et une deuxième zone A2. La première zone Al est une zone comprenant une position correspondant à un axe optique Αχ de la caméra 100. La deuxième zone A2 est une zone située à l'extérieur de la première zone Al. La deuxième zone A2 est une zone qui ne comprend pas une position correspondant à l'axe optique Ax de la caméra 100. Les premières données DI sont des données correspondant à la première image II incluse dans la première zone AL La position correspondant à l'axe optique Ax de la caméra 100 est un exemple de la position de référence de détection du capteur. La première image II est un exemple des premières informations.
[0040] Ensuite, comme illustré sur la Fig. 2, le processeur 12 amène l'interface de sortie 13 à sortir les premières données DI (ETAPE3). Les premières données DI sorties sont transmises au dispositif de commande 200.
[0041] Le dispositif de commande 200 est un dispositif configuré pour être capable d'effectuer au moins l'un d’un traitement de reconnaissance, d’un traitement de détermination, et d’un traitement d'analyse en relation avec au moins les premières données DI. Par exemple, le dispositif de commande 200 peut analyser la première image II illustrée sur la Fig. 3A sur la base des premières données DI pour reconnaître la présence d’un véhicule V arrivant ou d'un piéton W.
[0042] Ensuite, comme illustré sur la Fig. 2, le processeur 12 détermine si la génération des deuxièmes données D2 est nécessaire (ETAPE4). Les deuxièmes données D2 sont des données correspondant à la deuxième image 12 incluse dans la deuxième zone A2. La deuxième image 12 est un exemple des deuxièmes informations. Lorsqu'il est déterminé que la génération des deuxièmes données D2 n'est pas nécessaire (N à ΓΕΤΑΡΕ4), le traitement se termine.
[0043] S'il est déterminé que la génération des deuxièmes données D2 est nécessaire (O à ΓΕΤΑΡΕ4), le processeur 12 génère les deuxièmes données D2 sur la base du signal de caméra S (ETAPE5).
[0044] Ensuite, le processeur 12 amène l'interface de sortie 13 à sortir les deuxièmes données D2 (ETAPE6). Après la sortie des deuxièmes données D2, le traitement se termine. Les deuxièmes données D2 sorties sont transmises au dispositif de commande 200. Les deuxièmes données D2 sont soumises à un traitement prédéterminé dans le dispositif de commande 200.
[0045] C'est à dire que l'interface de sortie 13 est configurée pour être capable de sortir de manière indépendante les premières données DI et les deuxièmes données D2 de manière indépendante les unes des autres.
[0046] On peut dire que la première image II de la première zone Al comprenant la position correspondant à l'axe optique Ax de la caméra 100 a une plus grande nécessité en tant qu'informations utilisées pour l’assistance à la conduite que la deuxième image 12 de la deuxième zone A2 située à l'extérieur de la première zone AL Non seulement les premières données DI correspondant à la première image II, mais également les deuxièmes données D2 correspondant à la deuxième image 12 que la caméra 100 est capable d'acquérir, mais dont la nécessité est relativement faible, peuvent être sorties selon les besoins, moyennant quoi les informations acquises par la caméra 100 peuvent être utilisées d'une manière plus efficace tout en supprimant la charge associée à la communication de données.
[0047] A ΓΕΤΑΡΕ5 illustrée sur la Fig. 2, le processeur 12 peut générer les deuxièmes données D2 en ajoutant des informations associées à au moins l'une de la reconnaissance, de la détermination, et de l'analyse en relation avec la deuxième image 12.
[0048] Par exemple, comme illustré sur la Fig. 3B, lorsque le piéton W est situé dans la deuxième zone A2, le dispositif de commande 200 ne peut pas reconnaître le piéton W par le traitement basé sur les premières données DI correspondant à la première image II. Cependant, si le processeur 12 reconnaît le piéton W sur la base de la deuxième image 12 et ajoute les informations associées à la reconnaissance aux deuxièmes données D2, le dispositif de commande 200 recevant les deuxièmes données D2 peuvent reconnaître le piéton W.
[0049] C'est à dire que le dispositif de génération de données de capteur 1 n'effectue pas au moins l'un du traitement de reconnaissance, du traitement de détermination, et du traitement d'analyse en relation avec les premières données Dl, et donne la priorité à la rapidité du dispositif de commande 200 auquel le traitement basé sur les premières données Dl ayant une nécessité plus grande est confié. En limitant l'objet du traitement ci-dessus à la deuxième image 12, il est possible d’obtenir des informations qui peuvent compléter le traitement effectué dans le dispositif de commande 200 tout en supprimant une augmentation de la charge de traitement du processeur 12.
[0050] Dans cet exemple, à ΓΕΤΑΡΕ5 illustrée sur la Fig. 2, le processeur 12 peut ajouter des informations d'alerte basées sur la deuxième image 12 aux deuxièmes données D2. Par exemple, lorsqu'il est déterminé que le piéton W situé dans la deuxième zone A2 reconnue par le traitement du processeur 12 est sur le point d'entrer davantage sur la chaussée, le processeur 12 peut ajouter des informations d'alerte aux deuxièmes données D2. C'est à dire que les deuxièmes données D2 peuvent comprendre des informations d'alerte basées sur la deuxième image 12.
[0051] Conformément à une telle configuration, il est possible d'amener le dispositif de commande 200 qui a reçu les deuxièmes données D2 à effectuer de préférence le traitement d'évitement de danger sur la base des informations d'alerte.
[0052] Comme illustré sur la Fig. 4A, une référence R peut être agencée dans la deuxième zone A2. Fa référence R peut être n'importe quel objet ou marque dont une image peut être capturée par la caméra 100 et dont la position ne change pas. En tant que référence R, une partie de la carrosserie du véhicule peut être illustrée. Dans ce cas, le processeur 12 peut être configuré pour surveiller la position de la référence R par un traitement de reconnaissance d'image.
[0053] Dans le temps, au moins l'une de la position et de l'attitude de la caméra 100 par rapport à la carrosserie du véhicule peut changer. En conséquence, par exemple, comme illustré sur la Fig. 4B, la zone de capacité de capture d’image AO s'écarte dans une direction vers le haut à droite par rapport à la position initiale qui est indiquée par des traits en pointillés, et la position de la référence R dans la deuxième zone A2 est déplacée dans une direction vers le bas à gauche. Dans cet exemple, à ΓΕΤΑΡΕ5 illustrée sur la Fig. 2, le processeur 12 peut ajouter des informations de décalage de la caméra 100 aux deuxièmes données D2 basées sur le changement temporel de la position de la référence R. C'est à dire que les deuxièmes données D2 peuvent comprendre les informations de décalage de la caméra 100 basées sur le changement temporel de la position de la référence R.
[0054] Conformément à une telle configuration, il est possible d'amener le dispositif de commande 200 qui a reçu les deuxièmes données D2 à reconnaître l'écart de position de la caméra 100. Par exemple, lorsque la quantité d'écart de position de la caméra 100 indiquée par les informations de décalage dépasse une valeur prédéterminée, le dispositif de commande 200 peut effectuer un traitement pour notifier à l'utilisateur la nécessité de corriger la position de référence de formation d'image de la caméra 100. La position de référence de formation d'image de la caméra 100 peut être corrigée mécaniquement.
[0055] Lorsque la position de la première zone Al extraite de la zone de capacité de capture d’image A0 peut être changée électroniquement, c'est-à-dire qu'une dite visée électronique est possible, le dispositif de commande 200 peut changer la position de la première zone Al dans la zone de capacité de capture d’image A0 sur la base des informations de décalage incluses dans les deuxièmes données D2. Dans le cas de l'exemple illustré sur la Fig. 4B, la position de la première zone Al actuelle indiquée par des traits pleins est changée en la position d'origine de la première zone Al indiquée par des traits mixtes. Dans ce cas, la correction de la position de référence de formation d'image de la caméra 100 peut être automatisée.
[0056] En variante, le processeur 12 peut changer la position de la première zone Al dans la zone de capacité de capture d’image A0.
[0057] Dans ce cas, il est possible d'automatiser la correction de la position de référence de formation d'image de la caméra 100 tout en supprimant une augmentation de la charge de traitement dans le dispositif de commande 200.
[0058] La figure 5 illustre une autre configuration d'un système de capteur utilisant le dispositif de génération de données de capteur 1. Dans cet exemple, le dispositif de génération de données de capteur 1 constitue un système de capteur avec une première caméra 101, une deuxième caméra 102, et le dispositif de commande 200 monté sur le véhicule.
[0059] La première caméra 101 et la deuxième caméra 102 sont des dispositifs pour acquérir des images de l'extérieur du véhicule. La première caméra 101 et la deuxième caméra 102 peuvent être disposées à des emplacements appropriés à l'intérieur ou à l'extérieur d'un compartiment du véhicule.
[0060] La première caméra 101 est configurée pour sortir un premier signal de caméra SI correspondant à l'image acquise. La deuxième caméra 102 est configurée pour sortir un deuxième signal de caméra S2 correspondant à l'image acquise. La première caméra 101 est un exemple du premier capteur. La deuxième caméra 102 est un exemple du deuxième capteur. Chacun du premier signal de caméra SI et du deuxième signal de caméra S2 est un exemple du signal de capteur.
[0061] Comme illustré sur la Lig. 5 et la Lig. 6A, une première zone Al et une deuxième zone A2 sont prévues pour chacune de la première caméra 101 et de la deuxième caméra 102. La première zone Al de la première caméra 101 indiquée par des traits pleins comprend une position correspondant à un axe optique Axl de la première caméra 101. La deuxième zone A2 de la première caméra 101 indiquée par des traits pleins est une zone située à l'extérieur de la première zone Al de la première caméra 101. La deuxième zone A2 de la première caméra 101 ne comprend pas une position correspondant à l'axe optique Axl de la première caméra 101. La première zone Al de la deuxième caméra 102 indiquée par des traits mixtes comprend une position correspondant à un axe optique Ax2 de la deuxième caméra 102. La deuxième zone A2 de la deuxième caméra 102 indiquée par des traits en pointillés est une zone située à l'extérieur de la première zone Al de la deuxième caméra 102. La deuxième zone A2 de la deuxième caméra 102 ne comprend pas une position correspondant à l'axe optique Ax2 de la deuxième caméra 102.
[0062] Comme dans l'exemple décrit avec référence à la Lig. 4A, la référence R peut être agencée dans chaque deuxième zone A2 de la première caméra 101 et de la deuxième caméra 102. Le processeur 12 peut être configuré pour surveiller une position de chaque référence R par un traitement de reconnaissance d'image.
[0063] L'image dans chaque zone de capacité de capture d’image A0 change d'un moment à un autre, mais la position et l'aspect de la référence R en fait ne change pas. Par conséquent, l’indication qu’une image de chaque référence R est capturée normalement ou non peut constituer des informations pour déterminer si, oui ou non, la caméra surveillant la référence R fonctionne normalement. Lorsque le processeur 12 détermine qu'une image d’une référence R n'a pas été capturée avec succès, il détermine qu'une erreur s'est produite dans une caméra surveillant la référence R. Dans ce cas, le processeur 12 agrandit la première zone Al de l'autre caméra.
[0064] Par exemple, lorsqu'il est déterminé qu’une image de la référence R agencée dans la deuxième zone A2 de la première caméra 101 illustrée sur la Fig. 6A ne peut pas être capturée normalement, le processeur 12 agrandit la première zone Al de la deuxième caméra 102 indiquée par les traits mixtes comme illustré sur la Fig. 6B. Sur le dessin, l'agrandissement est effectué jusqu'à ce qu'une périphérie de la première zone Al de la deuxième caméra 102 coïncide avec une périphérie d'origine de la deuxième zone de la deuxième caméra 102 indiquée par les traits en pointillés.
[0065] Conformément à une telle configuration, lorsqu'une anomalie quelconque se produit dans l'une des deux caméras constituant le système de capteur, il est possible d'effectuer un traitement pour compenser l’insuffisance par l'autre caméra.
[0066] Dans l'exemple illustré sur la Fig. 5, la première caméra 101 et la deuxième caméra 102 sont toutes deux connectées à un dispositif de génération de données de capteur 1 unique. Cet exemple est utile lorsque la première caméra 101 et la deuxième caméra 102 sont montées dans une position spécifique dans un véhicule en tant que module de capteur unique logé dans un logement commun.
[0067] La Fig. 7 montre un autre mode de réalisation dans lequel un système de capteur est configuré par un premier dispositif de génération de données de capteur IA, un deuxième dispositif de génération de données de capteur IB, la première caméra 101, la deuxième caméra 102, et le dispositif de commande 200. La configuration de chacun du premier dispositif de génération de données de capteur IA et du deuxième dispositif de génération de données de capteur IB est identique à la configuration du dispositif de génération de données de capteur décrit ci-dessus. La première caméra 101 est connectée au premier dispositif de génération de données de capteur IA. La deuxième caméra 102 est connectée au deuxième dispositif de génération de données de capteur IB. Les premières données DI et les deuxièmes données D2 sorties de l'interface de sortie 13 de chacun du premier dispositif de génération de données de capteur IA et du deuxième dispositif de génération de données de capteur IB sont transmises au dispositif de commande 200 commun. Ce mode de réalisation est utile lorsqu'un premier module de capteur comprenant la première caméra 101 et le premier dispositif de génération de données de capteur IA et un deuxième module de capteur comprenant la deuxième caméra 102 et le deuxième dispositif de génération de données de capteur IB sont montés à deux emplacements distants dans le véhicule.
[0068] Dans cet exemple, lors de la détermination d'une erreur de la première caméra 101, le processeur 12 du premier dispositif de génération de données de capteur IA transmet les informations indiquant l'erreur au deuxième dispositif de génération de données de capteur IB par l'intermédiaire de l'interface de sortie 13. Les informations sont appliquées à l'interface d'entrée 11 du deuxième dispositif de génération de données de capteur IB. De manière similaire, lors de la détermination de l'erreur de la deuxième caméra 102, le processeur 12 du deuxième dispositif de génération de données de capteur IB transmet les informations indiquant l'erreur au premier dispositif de génération de données de capteur IA par l'intermédiaire de l'interface de sortie 13. Les informations sont appliquées à l'interface d'entrée 11 du premier dispositif de génération de données de capteur IA.
[0069] Lorsque le processeur 12 du deuxième dispositif de génération de données de capteur IB acquiert les informations indiquant l'anomalie de la première caméra 101, le processeur 12 exécute un traitement pour agrandir la première zone Al de la deuxième caméra 102. De manière similaire, lorsque le processeur 12 du premier dispositif de génération de données de capteur IA acquiert les informations indiquant l'anomalie de la deuxième caméra 102, le processeur 12 exécute un traitement pour agrandir la première zone Al de la première caméra 101.
[0070] Dans l'exemple illustré sur la Lig. 5, la zone de capacité de capture d’image A0 de la première caméra 101 recouvre partiellement la zone de capacité de capture d’image A0 de la deuxième caméra 102. En conséquence, une zone Ail, une zone A12, et une zone A22 sont définies. La zone Ail est une zone où la première zone Al de la première caméra 101 et la première zone Al de la deuxième caméra 102 se superposent. La zone A12 est une zone où la première zone Al d'une caméra et la deuxième zone A2 de l'autre caméra se superposent. La zone A22 est une zone où la deuxième zone A2 de la première caméra 101 et la deuxième zone A2 de la deuxième caméra 102 se superposent.
[0071] Dans ce cas, des priorités peuvent être attribuées conformément aux positions de la première zone Al de la première caméra 101, de la deuxième zone A2 de la première caméra 101, de la première zone Al de la deuxième caméra 102, et de la deuxième zone A2 de la deuxième caméra 102.
[0072] Par exemple, une priorité S est attribuée à la première zone Ail. Une priorité A est attribuée à la première zone Al de chaque caméra. Une priorité B est attribuée à la zone A12. Une priorité C est attribuée à la deuxième zone A22. Une priorité D est attribuée à la deuxième zone A2 de chaque caméra. La priorité S est supérieure à la priorité A. La priorité A est supérieure à la priorité B. La priorité B est supérieure à la priorité C. La priorité C est supérieure à la priorité D.
[0073] Le processeur 12 peut être configuré pour générer les premières données DI et les deuxièmes données D2 de manière à inclure des informations indiquant la priorité. Par exemple, des informations indiquant la priorité S sont ajoutées aux premières données DI correspondant à l'image incluse dans la première zone Ail. Des informations indiquant la priorité D sont ajoutées aux deuxièmes données D2 correspondant à l'image incluse dans la deuxième zone A2 de la deuxième caméra 102.
[0074] Conformément à une telle configuration, il est possible d'introduire une pondération conformément aux priorités dans au moins l'un du traitement de reconnaissance, du traitement de détermination, et du traitement d'analyse exécuté dans le dispositif de commande 200. En tant qu'exemple, lorsque des données indiquant des informations en conflit sont entrées, les données auxquelles des informations indiquant une priorité plus élevée sont jointes peuvent être traitées de préférence. En tant qu'autre exemple, la configuration peut être telle que les données avec une priorité plus faible nécessitent davantage d'entrées de données répétitives pour confirmer l'existence d'un fait.
[0075] Une telle configuration est également applicable au système de capteur illustré sur la Fig. 7. C'est à dire que le processeur 12 du premier dispositif de génération de données de capteur IA peut générer les premières données DI et les deuxièmes données D2 de manière à inclure les informations indiquant la priorité attribuée conformément à la position dans la zone de capacité de capture d’image AO de la première caméra 101. De manière similaire, le processeur 12 du deuxième dispositif de génération de données de capteur IB peut générer les premières données DI et les deuxièmes données D2 de manière à inclure les informations indiquant la priorité attribuée conformément à la position dans la zone de capacité de capture d’image A0 de la deuxième caméra 102.
[0076] ΕΈΤΑΡΕ5 des deuxièmes données D2 illustrée sur la Fig. 2 peut être effectuée à chaque fois que les premières données DI sont générées. Cependant, il est préférable que la fréquence à laquelle les deuxièmes données D2 sont générées soit inférieure à la fréquence à laquelle les premières données DI sont générées.
[0077] En réduisant la fréquence de génération des deuxièmes données D2 correspondant à la deuxième image 12 ayant une nécessité relativement faible, la charge de traitement du processeur 12 peut être réduite. De plus, la charge associée à la communication des deuxièmes données D2 sorties de l'interface de sortie 13 peut être réduite.
[0078] Les fonctions du processeur 12 décrites ci-dessus peuvent être effectuées par un microprocesseur d'usage général fonctionnant conjointement avec une mémoire d'usage général. Une CPU, une MPU, et une GPU peuvent être illustrées en tant que microprocesseur d'usage général. Le microprocesseur d'usage général peut comprendre de multiples noyaux de processeur. Une ROM et une RAM peuvent être illustrées en tant que mémoire d'usage général. La ROM peut mémoriser un programme pour exécuter le traitement décrit ci-dessus. Le programme peut comprendre un programme d'intelligence artificiel. Un exemple du programme d'intelligence artificiel peut comprendre un réseau neuronal appris avec un apprentissage profond. Le microprocesseur d'usage général peut spécifier au moins une partie du programme mémorisé dans la ROM, charger le programme dans la RAM, et exécuter le traitement décrit cidessus en coopération avec la RAM. En variante, les fonctions du processeur 12 décrites ci-dessus peuvent être effectuées par un circuit intégré dédié tel qu'un microcontrôleur, un FGPA, et un ASIC.
[0079] Les modes de réalisation ci-dessus sont simplement des exemples pour faciliter la compréhension de l'essentiel de l'objet actuellement présenté. La configuration conformément à chacun des modes de réalisation ci-dessus peut être modifiée ou améliorée de manière appropriée sans s'écarter de l'essentiel de l'objet actuellement présenté.
[0080] Dans chacun des exemples ci-dessus, la première zone Al entière est entourée par la deuxième zone A2, de sorte que la deuxième zone A2 est située à l'extérieur de la première zone Al. Cependant, la deuxième zone A2 peut être positionnée de manière à être en contact avec au moins une partie de la périphérie de la première zone Al tant que la deuxième zone A2 a une partie plus près de la périphérie de la zone de capacité de capture d’image A0 que la première zone Al.
[0081] La génération des deuxièmes données D2 n'est pas nécessairement effectuée sur la deuxième zone A2 entière. C'est à dire que les deuxièmes données D2 peuvent être générées en tant que données correspondant à la deuxième image 12 incluse dans au moins une partie de la deuxième zone A2.
[0082] La caméra 100, la première caméra 101, et la deuxième caméra 102 décrites cidessus peuvent être remplacées par un capteur LiDAR (Light Detection and Ranging) ou un capteur à ondes millimétriques, respectivement.
[0083] Le capteur LiDAR peut avoir une configuration pour émettre une lumière non visible et une configuration pour détecter la lumière renvoyée en conséquence de la réflexion de la lumière non visible par au moins un objet existant à l'extérieur du véhicule. Selon les besoins, le capteur LiDAR peut comprendre un dispositif de balayage qui balaye la lumière non visible pour changer la direction d'émission de lumière (c’est-à-dire, la direction de détection). Par exemple, la lumière infrarouge ayant une longueur d'onde de 905 nm est utilisée en tant que lumière non visible.
[0084] Le capteur LiDAR peut obtenir la distance jusqu'à l'objet associé à la lumière renvoyée, par exemple, sur la base de la période de temps de l'instant auquel la lumière non visible est émise dans une certaine direction jusqu'à l'instant auquel la lumière renvoyée est détectée. En outre, en accumulant ces données de distance en association avec la position de détection, il est possible d'obtenir des informations quant à la forme de l'objet associé à la lumière renvoyée. En plus ou en variante, des informations quant à un attribut tel que le matériau de l'objet associé à la lumière renvoyée peuvent être obtenues sur la base de la différence de longueur d'onde entre la lumière émise et la lumière renvoyée.
[0085] Le capteur à ondes millimétriques peut avoir une configuration pour transmettre une onde millimétrique et une configuration pour recevoir une onde réfléchie en conséquence de la réflexion de l'onde millimétrique par un objet existant à l'extérieur du véhicule. Des exemples de fréquences de l'onde millimétrique comprennent 24
GHz, 26 GHz, 76 GHz, 79 GHz, etc. Le capteur à ondes millimétriques peut obtenir la distance jusqu'à l'objet associé à l'onde réfléchie, par exemple, sur la base de la période de temps de l'instant auquel l'onde millimétrique est transmise dans une certaine direction jusqu'à l'instant auquel l'onde réfléchie est reçue. En outre, en accumulant ces données de distance en association avec la position de détection, il est possible d'obtenir des informations quant à la forme de l'objet associé à l'onde réfléchie.
[0086] La présente demande est basée sur la demande de brevet japonais ri 2018-095396 déposée le 17 mai 2018.
Claims (1)
-
Revendications [Revendication 1] Dispositif de génération de données de capteur (1) conçu pour être monté sur un véhicule, comprenant : une interface d'entrée (11) configurée pour recevoir au moins un signal de capteur correspondant à des informations de l'extérieur du véhicule détectées par au moins un capteur ; un processeur (12) configuré pour, sur la base du signal de capteur, générer : des premières données correspondant à des premières informations détectées dans une première zone ; et des deuxièmes données correspondant à des deuxièmes informations détectées dans une deuxième zone située à l'extérieur de la première zone ; et une interface de sortie (13) configurée pour sortir les premières données et les deuxièmes données de manière indépendante les unes des autres. [Revendication 2] Dispositif de génération de données de capteur (1) conçu pour être monté sur un véhicule, comprenant : une interface d'entrée (11) configurée pour recevoir au moins un signal de capteur correspondant à des informations de l'extérieur du véhicule détectées par au moins un capteur ; un processeur (12) configuré pour, sur la base du signal de capteur, générer : des premières données correspondant à des premières informations détectées dans une première zone comprenant une position de référence de détection du capteur ; et des deuxièmes données correspondant à des deuxièmes informations détectées dans une deuxième zone ne comprenant pas la position de référence de détection ; et une interface de sortie (13) configurée pour sortir les premières données et les deuxièmes données de manière indépendante les unes des autres. [Revendication 3] Dispositif de génération de données de capteur (1) selon la revendication 1 ou 2, dans lequel le processeur (12) est configuré pour générer les deuxièmes données de manière à inclure des informations associées à au moins l'un d’un traitement de reconnaissance, d’un traitement de détermination, et d’un traitement d'analyse effectué en relation avec les deuxièmes informations. [Revendication 4] Dispositif de génération de données de capteur (1) selon la revendication 3, dans lequel les deuxièmes données comprennent des informations d'alerte qui sont basées sur les deuxièmes informations. [Revendication 5] Dispositif de génération de données de capteur (1) selon la revendication 3 ou 4, dans lequel le processeur (12) est configuré pour surveiller un changement temporel d'une position d'une référence agencée dans la deuxième zone ; et dans lequel les deuxièmes données comprennent des informations de décalage du capteur qui sont basées sur le changement temporel. [Revendication 6] Dispositif de génération de données de capteur (1) selon la revendication 1 ou 2, dans lequel le processeur (12) est configuré pour surveiller un changement temporel d'une position d'une référence agencée dans la deuxième zone, et pour changer une position de la première zone sur la base du changement temporel. [Revendication 7] Dispositif de génération de données de capteur (1) selon l'une quelconque des revendications 1 à 6, dans lequel ledit au moins un capteur comprend un premier capteur et un deuxième capteur ; et dans lequel le processeur (12) associé à un capteur du premier capteur et du deuxième capteur est configuré pour agrandir la première zone dudit un capteur sur la base d’informations indiquant une anomalie de l'autre capteur du premier capteur et du deuxième capteur. [Revendication 8] Dispositif de génération de données de capteur (1) selon l'une quelconque des revendications 1 à 6, dans lequel ledit au moins un capteur comprend un premier capteur et un deuxième capteur ; dans lequel une priorité est attribuée conformément à une position dans une zone sensible du premier capteur et une position dans une zone sensible du deuxième capteur ; et dans lequel le processeur (12) est configuré pour générer les premières données et les deuxièmes données de manière à inclure des informations indiquant la priorité. [Revendication 9] Dispositif de génération de données de capteur (1) selon l'une quelconque des revendications 1 à 8, dans lequel une fréquence de génération des deuxièmes données est inférieure à une fréquence de génération des premières données. [Revendication 10] Dispositif de génération de données de capteur (1) selon l'une quelconque des revendications 1 à 9, dans lequel ledit au moins un capteur comprend au moins l'un d'un capteur LiDAR, d’une caméra, et d’un capteur à ondes millimétriques.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018095396A JP7203512B2 (ja) | 2018-05-17 | 2018-05-17 | センサデータ生成装置 |
JP2018-095396 | 2018-05-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3081226A1 true FR3081226A1 (fr) | 2019-11-22 |
FR3081226B1 FR3081226B1 (fr) | 2021-05-14 |
Family
ID=68419364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1905136A Active FR3081226B1 (fr) | 2018-05-17 | 2019-05-16 | Dispositif de génération de données de capteur |
Country Status (5)
Country | Link |
---|---|
US (1) | US11508074B2 (fr) |
JP (1) | JP7203512B2 (fr) |
CN (1) | CN110505577B (fr) |
DE (1) | DE102019207094A1 (fr) |
FR (1) | FR3081226B1 (fr) |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10105863A (ja) * | 1996-09-26 | 1998-04-24 | Oki Electric Ind Co Ltd | 走行路情報収集装置 |
US7720580B2 (en) * | 2004-12-23 | 2010-05-18 | Donnelly Corporation | Object detection system for vehicle |
JP4459144B2 (ja) * | 2005-09-26 | 2010-04-28 | アルパイン株式会社 | 車両用画像表示装置 |
JP4557041B2 (ja) * | 2008-04-18 | 2010-10-06 | 株式会社デンソー | 車両用画像処理装置 |
JP5616531B2 (ja) | 2011-09-21 | 2014-10-29 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP5633503B2 (ja) | 2011-11-29 | 2014-12-03 | 株式会社リコー | 画像処理システム、画像処理システムを備えた車両、画像処理方法及びプログラム |
JP6429452B2 (ja) * | 2013-11-22 | 2018-11-28 | ルネサスエレクトロニクス株式会社 | 車載用画像処理装置及び半導体装置 |
KR101579098B1 (ko) * | 2014-05-23 | 2015-12-21 | 엘지전자 주식회사 | 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량 |
JP2017034615A (ja) | 2015-08-06 | 2017-02-09 | 株式会社Jvcケンウッド | 車両用表示装置及び表示方法 |
JP6511015B2 (ja) * | 2016-05-25 | 2019-05-08 | 株式会社ミツバ | 車両モニタシステム |
FR3052252B1 (fr) | 2016-06-07 | 2019-05-10 | Thales | Equipement optronique de vision pour un vehicule terrestre |
US10679505B2 (en) * | 2018-02-22 | 2020-06-09 | Alstom Transport Technologies | Automatic vehicle control apparatus able to determine track occupancy of a vehicle, and corresponding method for automatically controlling the vehicle |
EP3617941A1 (fr) * | 2018-08-30 | 2020-03-04 | Panasonic Intellectual Property Corporation of America | Appareil de traitement d'information et procédé de traitement d'information |
-
2018
- 2018-05-17 JP JP2018095396A patent/JP7203512B2/ja active Active
-
2019
- 2019-05-14 US US16/411,743 patent/US11508074B2/en active Active
- 2019-05-14 CN CN201910396966.4A patent/CN110505577B/zh active Active
- 2019-05-16 DE DE102019207094.9A patent/DE102019207094A1/de active Pending
- 2019-05-16 FR FR1905136A patent/FR3081226B1/fr active Active
Also Published As
Publication number | Publication date |
---|---|
CN110505577B (zh) | 2021-07-23 |
JP2019200649A (ja) | 2019-11-21 |
US11508074B2 (en) | 2022-11-22 |
JP7203512B2 (ja) | 2023-01-13 |
CN110505577A (zh) | 2019-11-26 |
DE102019207094A1 (de) | 2019-11-21 |
US20190355133A1 (en) | 2019-11-21 |
FR3081226B1 (fr) | 2021-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190291743A1 (en) | Advanced driver assistance systems test-interface for automated driving sensors | |
WO2020031970A1 (fr) | Dispositif de traitement d'informations, procédé de traitement d'informations et programme | |
US20170115396A1 (en) | Object detection system | |
JP5018653B2 (ja) | 画像識別装置 | |
CN107894243A (zh) | 用于对监测区域进行光学检测的光电传感器和方法 | |
JP2020153797A (ja) | 検出装置、測距装置、検出方法、プログラム、移動体 | |
JP2013258596A (ja) | 撮像装置 | |
FR3081135A1 (fr) | Système de capteur et procédé d’inspection de celui–ci | |
FR3091356A1 (fr) | Capteur actif, système d’identification d’objet, véhicule et feu de véhicule | |
JP2016171509A (ja) | キャリブレーション装置 | |
FR3081226A1 (fr) | Dispositif de génération de données de capteur | |
CN114514565A (zh) | 物体识别装置和物体识别程序 | |
CN108366210B (zh) | 一种无人机及无人机控制方法 | |
JP6204844B2 (ja) | 車両のステレオカメラシステム | |
WO2023286542A1 (fr) | Dispositif de détection d'objet et procédé de détection d'objet | |
US20220196841A1 (en) | Object recognition abnormality detection apparatus, object recognition abnormality detection program product, and object recognition abnormality detection method | |
CN112789515B (zh) | 测距系统、校准方法、程序和电子设备 | |
CN112034432B (zh) | 一种雷达目标聚类方法以及相关装置 | |
JP7014680B2 (ja) | 注視対象物検知装置、注視対象物検知方法、およびプログラム | |
KR102299793B1 (ko) | 운전지원장치 및 운전지원방법 | |
EP2595089B1 (fr) | Système d'assistance au conducteur et procédé pour véhicule à moteur | |
WO2020075496A1 (fr) | Dispositif de mesure de distance et procédé de détection | |
CN113849485B (zh) | 用于模式切换的大数据应用系统 | |
JP5024161B2 (ja) | 顔位置推定装置 | |
JP2024043269A (ja) | 処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20200925 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |