FR3125150A1 - Procédé d’étiquetage d’une image 3D - Google Patents

Procédé d’étiquetage d’une image 3D Download PDF

Info

Publication number
FR3125150A1
FR3125150A1 FR2107380A FR2107380A FR3125150A1 FR 3125150 A1 FR3125150 A1 FR 3125150A1 FR 2107380 A FR2107380 A FR 2107380A FR 2107380 A FR2107380 A FR 2107380A FR 3125150 A1 FR3125150 A1 FR 3125150A1
Authority
FR
France
Prior art keywords
image
point
depth
coordinates
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2107380A
Other languages
English (en)
Other versions
FR3125150B1 (fr
Inventor
Lucien Garcia
Thomas Meneyrol
Spencer DANNE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive France SAS
Original Assignee
Continental Automotive France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive France SAS filed Critical Continental Automotive France SAS
Priority to FR2107380A priority Critical patent/FR3125150B1/fr
Priority to PCT/EP2022/068379 priority patent/WO2023280745A1/fr
Priority to CN202280048444.5A priority patent/CN117677985A/zh
Publication of FR3125150A1 publication Critical patent/FR3125150A1/fr
Application granted granted Critical
Publication of FR3125150B1 publication Critical patent/FR3125150B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Procédé d’étiquetage d’une image 3D (I2) d’une scène acquise par un capteur 3D comprenant :- la réception : d’une image 2D (I1) de la même scène acquise par une caméra, des coordonnées, sur l’image 2D, d’un ensemble de pixels (PZ1) délimitant la zone d’intérêt (Z1), et d’un point de référence (PR) appartenant à la zone d’intérêt (Z1), etla détermination de la profondeur du point de référence (pr) dans un repère associé à la caméra, - l’attribution aux pixels délimitant la zone d’intérêt (Z1) sur l’image 2D (I1) d’une profondeur correspondant à la profondeur du point de référence (pr), - le calcul des coordonnées, dans l’image 3D (I2), des pixels (PZ2) délimitant la zone d’intérêt (Z2) à partir des coordonnées des pixels (PZ1) délimitant la zone d’intérêt (Z1) dans l’image 2D (I1) et de la profondeur (pr) attribuée aux pixels délimitant la zone d’intérêt. Figure de l’abrégé : Figure 1

Description

Procédé d’étiquetage d’une image 3D
La présente divulgation relève du domaine de l’étiquetage de zones d’intérêt dans des images 3D obtenues à l’aide de capteurs 3D LIDAR, RADAR ou de caméras temps de vol (« Time of Flight » en anglais).
Il est connu d’étiqueter, c’est-à-dire d’identifier, dans une scène acquise par un capteur 3D d’un véhicule, différentes zones d’intérêt pouvant par exemple révéler la présence d’un objet particulier ou d’un obstacle dans l’environnement du véhicule. Cet étiquetage est fait de manière manuelle en demandant à un opérateur d’identifier, dans chaque image 3D, la zone d’intérêt. Les zones d’intérêt identifiées par l’opérateur servent ensuite de référence pour la validation d’algorithmes de détection automatique et pour la constitution d’une base d’apprentissage permettant de développer des algorithmes de détection par apprentissage automatique (« machine learning » en anglais).
Il n’est cependant pas aisé, pour l’opérateur, d’identifier les zones d’intérêt dans les images 3D. En effet, les images 3D comprennent, pour chaque pixel de l’image, une information relative à une distance entre le point de mesure et le capteur qui n’est pas facile à interpréter par l’œil humain, plus habitué à interpréter des images acquises par des caméras. En effet, les couleurs des pixels des images 3D correspondent à des distances alors que, dans les images 2D, la couleur des pixels correspond aux couleurs réelles des objets présents dans la scène. De plus, les points de mesure obtenus avec des capteurs 3D sont en général plus espacés qu’avec une caméra standard. Ainsi, l’étiquetage de zones d’intérêt dans une image 3D est plus complexe et moins fiable qu’avec une image 2D. Il existe donc un besoin de trouver un moyen permettant d’étiqueter de manière plus fiable des zones d’intérêt dans des images 3D.
Résumé
La présente demande vient améliorer la situation en proposant un moyen permettant d’identifier, de manière fiable des zones d’intérêt au sein d’images 3D, notamment avec une meilleure précision.
Il est proposé un procédé d’étiquetage d’une image 3D d’une scène acquise par un capteur 3D comprenant l’identification d’au moins une zone d’intérêt dans l’image 3D, le procédé étant mis en œuvre par un calculateur et comprenant :
- une étape de réception :
* d’une image 2D de la même scène acquise par une caméra,
* des coordonnées, sur l’image 2D, d’un ensemble de pixels délimitant la zone d’intérêt,
* des coordonnées, sur l’image 2D, d’un point de référence appartenant à la zone d’intérêt, et
* de données relatives à la position et à l’orientation relatives de la caméra par rapport au capteur 3D,
- une étape de détermination de la profondeur du point de référence dans un repère associé à la caméra, ladite étape comprenant :
* à partir des coordonnées du point de référence dans l’image 2D, la détermination des coordonnées en deux dimensions d’une pluralité de premiers points dans l’image 3D, chaque premier point correspondant à une position possible du point de référence dans l’image 3D,
* l’obtention, pour chaque premier point, d’une troisième coordonnée de profondeur par rapport au capteur 3D,
* pour chaque premier point de l’image 3D, l’obtention des coordonnées du point correspondant dans l’image 2D, à partir de la coordonnée de profondeur du premier point,
la sélection, dans l’image 2D, du premier point le plus proche du point de référence, et,
* l’attribution au point de référence d’une profondeur correspondant à la profondeur du premier point sélectionné,
- une étape d’attribution aux pixels délimitant la zone d’intérêt sur l’image 2D d’une profondeur correspondant à la profondeur attribuée au point de référence,
- une étape de calcul des coordonnées, dans l’image 3D, des pixels délimitant la zone d’intérêt à partir des coordonnées des pixels délimitant la zone d’intérêt dans l’image 2D et de la profondeur attribuée aux pixels délimitant la zone d’intérêt.
Selon un autre aspect, il est proposé un programme informatique comportant des instructions pour la mise en œuvre de tout ou partie d’un procédé tel que défini dans les présentes lorsque ce programme est exécuté par un calculateur. Selon un autre aspect, il est proposé un support d’enregistrement non transitoire, lisible par un ordinateur, sur lequel est enregistré un tel programme.
Les caractéristiques exposées dans les paragraphes suivants peuvent, optionnellement, être mises en œuvre, indépendamment les unes des autres ou en combinaison les unes avec les autres :
Dans un mode de réalisation, la détermination des coordonnées en deux dimensions de la pluralité de premiers points dans l’image 3D comprend :
- l’attribution, au point de référence, d’une profondeur maximale,
- l’attribution, au point de référence, d’une profondeur minimale,
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point le plus éloigné correspondant au point de référence auquel on a attribué la profondeur maximale,
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point le plus proche correspondant au point de référence auquel on a attribué la profondeur minimale, et
- la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point se trouvant entre le premier point le plus proche et le premier point le plus éloigné.
Dans un mode de réalisation, la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point se trouvant entre le premier point le plus proche et le premier point le plus éloigné comprend la détermination de coordonnées en deux dimensions d’au moins un point se trouvant, dans l’image 3D, sur un segment reliant le premier point le plus éloigné et le premier point le plus proche.
Dans un mode de réalisation, la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point se trouvant entre le premier point le plus proche et le premier point le plus éloigné comprend :
- l’attribution, au point de référence, d’au moins une profondeur intermédiaire comprise entre la profondeur maximale et la profondeur minimale, et
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point correspondant au point de référence auquel on a attribué la profondeur intermédiaire.
Dans un mode de réalisation, la détermination des coordonnées en deux dimensions de la pluralité de premiers points dans l’image 3D comprend :
- l’attribution, au point de référence, d’une profondeur de l’une d’une profondeur minimale ou maximale,
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point d’extrémité correspondant au point de référence auquel on a attribué l’une d’une profondeur minimale ou maximale, et
- le calcul, à partir de la résolution horizontale du capteur 3D et de la distance entre le capteur 3D et la caméra, d’une disparité maximale correspondant à un nombre maximal de pixels sur l’image 3D séparant le premier point d’extrémité et un point sur l’image 3D correspondant au point de référence auquel on a attribué l’autre de la profondeur minimale ou maximale,
- la détermination des coordonnées en deux dimensions de chaque point de l’image 3D compris entre le premier point d’extrémité et un point séparé latéralement du premier point d’extrémité de la disparité maximale.
Dans un mode de réalisation, l’ensemble de pixels délimitant la zone d’intérêt sur l’image 2D comprend quatre pixels délimitant un rectangle.
Dans un mode de réalisation, la zone d’intérêt, dans l’image 2D, présente une forme géométrique prédéterminée et le procédé comprend en outre une étape de définition d’une zone d’intérêt dans l’image 3D présentant la même forme géométrique que la zone d’intérêt dans l’image 2D.
Le procédé d’étiquetage décrit ci-dessus peut trouver à s’appliquer notamment lors de la constitution d’une base de données d’apprentissage ou la validation d’algorithmes de détection automatique de zones d’intérêt dans des images 3D.
Selon l’invention, des opérateurs peuvent identifier une zone pertinente d’une image 2D prise par une caméra, par exemple une zone correspondant à un piéton ou à un véhicule, à l’aide d’un rectangle par exemple et créer des images de référence. Le procédé décrit ci-dessus peut alors être utilisé pour déterminer une zone de l’image de référence correspondante dans des données acquises par des capteurs 3D, i.e. aptes à déterminer une distance entre le capteur et le point considéré. On peut ainsi constituer une base d’apprentissage pour des algorithmes d’apprentissage destinés à repérer des objets, tels que des piétons ou des véhicules, par exemple. Par ailleurs, lorsque des algorithmes permettant de repérer des objets dans des données acquises par des capteurs 3D ont déjà été développés, le procédé décrit ci-dessus peut être mis en œuvre pour comparer les zones détectées par l’algorithme avec les zones correspondant aux objets identifiés par les opérateurs à l’aide des images prises par les caméras. Cette comparaison permet d’évaluer les performances de l’algorithme de détection.
D’autres caractéristiques, détails et avantages apparaîtront à la lecture de la description détaillée ci-après, et à l’analyse des dessins annexés, sur lesquels :
Fig. 1
illustre de manière schématique une image 3D et une image 2D d’une même scène acquise respectivement par un capteur 3D et une caméra au même instant.
Fig. 2
illustre un procédé d’étiquetage d’une image 3D selon un mode de réalisation.
Fig. 3
illustre de manière schématique le système utilisé pour l’acquisition des images 2D et 3D et différents repères et annotations.
Fig. 4
illustre certains des points utilisés par le procédé d’étiquetage selon un mode de réalisation de l’invention.
Fig. 5
illustre l’algorithme de Bresenham utilisé dans le procédé selon une variante de réalisation.

Claims (9)

  1. Procédé d’étiquetage d’une image 3D (I2) d’une scène acquise par un capteur 3D (C3D) comprenant l’identification d’au moins une zone d’intérêt (Z2) dans l’image 3D, le procédé étant mis en œuvre par un calculateur et comprenant :
    - une étape de réception (S100) :
    * d’une image 2D (I1) de la même scène acquise par une caméra (CAM),
    * des coordonnées, sur l’image 2D, d’un ensemble de pixels (PZ1) délimitant la zone d’intérêt (Z1),
    * des coordonnées (uPR, vPR), sur l’image 2D, d’un point de référence (PR) appartenant à la zone d’intérêt (Z1), et
    * de données relatives à la position et à l’orientation relatives de la caméra par rapport au capteur 3D (TR12),
    - une étape de détermination de la profondeur du point de référence dans un repère associé à la caméra (S200), ladite étape comprenant :
    * à partir des coordonnées du point de référence dans l’image 2D, la détermination des coordonnées en deux dimensions d’une pluralité de premiers points (P1,i) dans l’image 3D, chaque premier point (P1,i) correspondant à une position possible du point de référence dans l’image 3D,
    * l’obtention, pour chaque premier point (P1,i), d’une troisième coordonnée de profondeur (pi) par rapport au capteur 3D,
    * pour chaque premier point (P1,i) de l’image 3D, l’obtention des coordonnées (u1i, v1i) du point correspondant (P2,i) dans l’image 2D, à partir de la coordonnée de profondeur (pi) du premier point (P1,i),
    * la sélection, dans l’image 2D, du premier point le plus proche du point de référence, et,
    * l’attribution au point de référence (PR) d’une profondeur (pr) correspondant à la profondeur (pi) du premier point sélectionné,
    - une étape d’attribution (S300) aux pixels (PZ1) délimitant la zone d’intérêt (Z1) sur l’image 2D (I1) d’une profondeur correspondant à la profondeur attribuée au point de référence (pr),
    - une étape de calcul (S400) des coordonnées, dans l’image 3D, des pixels (PZ2) délimitant la zone d’intérêt (Z2) à partir des coordonnées des pixels (PZ1) délimitant la zone d’intérêt (Z1) dans l’image 2D et de la profondeur (pr) attribuée aux pixels délimitant la zone d’intérêt.
  2. Procédé selon la revendication précédente, dans lequel :
    - la détermination des coordonnées en deux dimensions de la pluralité de premiers points dans l’image 3D comprend :
    * l’attribution, au point de référence (PR), d’une profondeur maximale (dmax),
    * l’attribution, au point de référence, d’une profondeur minimale (dmin),
    * le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point le plus éloigné (P1,1) correspondant au point de référence auquel on a attribué la profondeur maximale (PA),
    * le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point le plus proche (P1,n) correspondant au point de référence auquel on a attribué la profondeur minimale (PB), et
    * la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point (P1,i) se trouvant entre le premier point le plus proche (P1,n) et le premier point le plus éloigné (P1,1).
  3. Procédé selon la revendication précédente, dans lequel la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point (P1,i) se trouvant entre le premier point le plus proche (P1,n) et le premier point le plus éloigné (P1,1) comprend la détermination de coordonnées en deux dimensions d’au moins un point (P1,i) se trouvant, dans l’image 3D, sur un segment reliant le premier point le plus éloigné (P1,1) et le premier point le plus proche (P1,n).
  4. Procédé selon la revendication 2, dans lequel la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point (P1,i) se trouvant entre le premier point le plus proche (P1,n) et le premier point le plus éloigné (P1,1) comprend :
    - l’attribution, au point de référence (PR), d’au moins une profondeur intermédiaire (pi) comprise entre la profondeur maximale (dmax) et la profondeur minimale (dmin), et
    - le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point (P1,i) correspondant au point de référence (PR) auquel on a attribué la profondeur intermédiaire (pi).
  5. Procédé selon la revendication 1, dans lequel la détermination des coordonnées en deux dimensions de la pluralité de premiers points dans l’image 3D (P1,i) comprend :
    - l’attribution, au point de référence (PR), d’une profondeur de l’une d’une profondeur minimale (dmin) ou maximale (dmax),
    - le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point d’extrémité (P1,1) correspondant au point de référence auquel on a attribué l’une d’une profondeur minimale ou maximale, et
    - le calcul, à partir de la résolution horizontale du capteur 3D et de la distance entre le capteur 3D et la caméra, d’une disparité maximale correspondant à un nombre maximal de pixels (pixmax) sur l’image 3D séparant le premier point d’extrémité (P1,1) et un point sur l’image 3D correspondant au point de référence auquel on a attribué l’autre de la profondeur minimale ou maximale (P1,n),
    - la détermination des coordonnées en deux dimensions de chaque point de l’image 3D (P1,i) compris entre le premier point d’extrémité (P1,1) et un point séparé latéralement du premier point d’extrémité de la disparité maximale (P1,n).
  6. Procédé selon l’une quelconque des revendications précédentes, dans lequel l’ensemble de pixels délimitant la zone d’intérêt (Z1) sur l’image 2D comprend quatre pixels (PZ1) délimitant un rectangle.
  7. Procédé selon l’une quelconque des revendications précédentes, dans lequel la zone d’intérêt, dans l’image 2D, présente une forme géométrique prédéterminée et le procédé comprend en outre une étape (S500) de définition d’une zone d’intérêt (R) dans l’image 3D présentant la même forme géométrique que la zone d’intérêt dans l’image 2D.
  8. Programme informatique comportant des instructions pour la mise en œuvre du procédé selon l’une des revendications 1 à 7 lorsque ce programme est exécuté par un calculateur.
  9. Support d’enregistrement non transitoire lisible par un ordinateur sur lequel est enregistré un programme pour la mise en œuvre du procédé selon l’une des revendications 1 à 7 lorsque ce programme est exécuté par un calculateur.
FR2107380A 2021-07-08 2021-07-08 Procédé d’étiquetage d’une image 3D Active FR3125150B1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR2107380A FR3125150B1 (fr) 2021-07-08 2021-07-08 Procédé d’étiquetage d’une image 3D
PCT/EP2022/068379 WO2023280745A1 (fr) 2021-07-08 2022-07-04 Procede d'etiquetage d'une image 3d sur base de projection épipolaire
CN202280048444.5A CN117677985A (zh) 2021-07-08 2022-07-04 用于标记对极投影3d图像的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2107380A FR3125150B1 (fr) 2021-07-08 2021-07-08 Procédé d’étiquetage d’une image 3D
FR2107380 2021-07-08

Publications (2)

Publication Number Publication Date
FR3125150A1 true FR3125150A1 (fr) 2023-01-13
FR3125150B1 FR3125150B1 (fr) 2023-11-17

Family

ID=77021645

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2107380A Active FR3125150B1 (fr) 2021-07-08 2021-07-08 Procédé d’étiquetage d’une image 3D

Country Status (3)

Country Link
CN (1) CN117677985A (fr)
FR (1) FR3125150B1 (fr)
WO (1) WO2023280745A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150172715A1 (en) * 2012-07-09 2015-06-18 Nippon Telegraph And Telephone Corporation Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program, and recording media
WO2017216465A1 (fr) * 2016-06-14 2017-12-21 Continental Automotive France Procédé et dispositif de traitement d'images acquises par une caméra d'un véhicule automobile
FR3083352A1 (fr) * 2018-06-29 2020-01-03 Continental Automotive France Procede et dispositif de detection rapide de structures repetitives dans l'image d'une scene routiere
US20200210726A1 (en) * 2018-12-28 2020-07-02 Nvidia Corporation Distance to obstacle detection in autonomous machine applications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150172715A1 (en) * 2012-07-09 2015-06-18 Nippon Telegraph And Telephone Corporation Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program, and recording media
WO2017216465A1 (fr) * 2016-06-14 2017-12-21 Continental Automotive France Procédé et dispositif de traitement d'images acquises par une caméra d'un véhicule automobile
FR3083352A1 (fr) * 2018-06-29 2020-01-03 Continental Automotive France Procede et dispositif de detection rapide de structures repetitives dans l'image d'une scene routiere
US20200210726A1 (en) * 2018-12-28 2020-07-02 Nvidia Corporation Distance to obstacle detection in autonomous machine applications

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Algorithm for Computer Control of a Digital Plotter", JACK E. BRESENHAM, IBM SYSTEMS JOURNAL, vol. 4, no. 1, 1965, pages 25 - 30

Also Published As

Publication number Publication date
CN117677985A (zh) 2024-03-08
WO2023280745A1 (fr) 2023-01-12
FR3125150B1 (fr) 2023-11-17

Similar Documents

Publication Publication Date Title
US12002269B2 (en) Vehicle feature acquisition method and device
US10909395B2 (en) Object detection apparatus
WO2020104423A1 (fr) Procédé et appareil de fusion de données de données lidar et de données d'image
KR102103944B1 (ko) 모노카메라를 이용한 자율주행 차량의 거리 및 위치 추정 방법
US20080118149A1 (en) Method and apparatus for partitioning an object from an image
US10872246B2 (en) Vehicle lane detection system
CN103765439A (zh) 用于环境表示的方法
Petrovai et al. A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices
CN108319931B (zh) 一种图像处理方法、装置及终端
US11513211B2 (en) Environment model using cross-sensor feature point referencing
JP2023029441A (ja) 計測装置、計測システムおよび車両
CN111191481B (zh) 车辆识别方法及系统
US20200372264A1 (en) Image-based road cone recognition method and appartus, storage medium, and vehicle
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
CN113950020A (zh) 用于自主车辆的车辆共乘定位和乘客识别
FR3125150A1 (fr) Procédé d’étiquetage d’une image 3D
KR102195040B1 (ko) 이동식 도면화 시스템 및 모노카메라를 이용한 도로 표지 정보 수집 방법
JP2005084012A (ja) 肌形状計測方法及び肌形状計測装置
KR20160063039A (ko) 3차원 데이터를 이용한 도로 인식 방법
CN110852278B (zh) 地面标识线识别方法、设备及计算机可读存储介质
JP2001108434A (ja) 距離測定方法及び距離測定装置
US20210329219A1 (en) Transfer of additional information among camera systems
CN114762019A (zh) 摄像机系统
JP2023061621A (ja) 画像処理装置
FR3052560B1 (fr) Systeme embarque et procede de determination d'une position relative

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20230113

PLFP Fee payment

Year of fee payment: 3