FR3125150A1 - Procédé d’étiquetage d’une image 3D - Google Patents
Procédé d’étiquetage d’une image 3D Download PDFInfo
- Publication number
- FR3125150A1 FR3125150A1 FR2107380A FR2107380A FR3125150A1 FR 3125150 A1 FR3125150 A1 FR 3125150A1 FR 2107380 A FR2107380 A FR 2107380A FR 2107380 A FR2107380 A FR 2107380A FR 3125150 A1 FR3125150 A1 FR 3125150A1
- Authority
- FR
- France
- Prior art keywords
- image
- point
- depth
- coordinates
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000002372 labelling Methods 0.000 title claims abstract description 10
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 238000004590 computer program Methods 0.000 claims description 2
- 239000003550 marker Substances 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Procédé d’étiquetage d’une image 3D (I2) d’une scène acquise par un capteur 3D comprenant :- la réception : d’une image 2D (I1) de la même scène acquise par une caméra, des coordonnées, sur l’image 2D, d’un ensemble de pixels (PZ1) délimitant la zone d’intérêt (Z1), et d’un point de référence (PR) appartenant à la zone d’intérêt (Z1), etla détermination de la profondeur du point de référence (pr) dans un repère associé à la caméra, - l’attribution aux pixels délimitant la zone d’intérêt (Z1) sur l’image 2D (I1) d’une profondeur correspondant à la profondeur du point de référence (pr), - le calcul des coordonnées, dans l’image 3D (I2), des pixels (PZ2) délimitant la zone d’intérêt (Z2) à partir des coordonnées des pixels (PZ1) délimitant la zone d’intérêt (Z1) dans l’image 2D (I1) et de la profondeur (pr) attribuée aux pixels délimitant la zone d’intérêt. Figure de l’abrégé : Figure 1
Description
La présente divulgation relève du domaine de l’étiquetage de zones d’intérêt dans des images 3D obtenues à l’aide de capteurs 3D LIDAR, RADAR ou de caméras temps de vol (« Time of Flight » en anglais).
Il est connu d’étiqueter, c’est-à-dire d’identifier, dans une scène acquise par un capteur 3D d’un véhicule, différentes zones d’intérêt pouvant par exemple révéler la présence d’un objet particulier ou d’un obstacle dans l’environnement du véhicule. Cet étiquetage est fait de manière manuelle en demandant à un opérateur d’identifier, dans chaque image 3D, la zone d’intérêt. Les zones d’intérêt identifiées par l’opérateur servent ensuite de référence pour la validation d’algorithmes de détection automatique et pour la constitution d’une base d’apprentissage permettant de développer des algorithmes de détection par apprentissage automatique (« machine learning » en anglais).
Il n’est cependant pas aisé, pour l’opérateur, d’identifier les zones d’intérêt dans les images 3D. En effet, les images 3D comprennent, pour chaque pixel de l’image, une information relative à une distance entre le point de mesure et le capteur qui n’est pas facile à interpréter par l’œil humain, plus habitué à interpréter des images acquises par des caméras. En effet, les couleurs des pixels des images 3D correspondent à des distances alors que, dans les images 2D, la couleur des pixels correspond aux couleurs réelles des objets présents dans la scène. De plus, les points de mesure obtenus avec des capteurs 3D sont en général plus espacés qu’avec une caméra standard. Ainsi, l’étiquetage de zones d’intérêt dans une image 3D est plus complexe et moins fiable qu’avec une image 2D. Il existe donc un besoin de trouver un moyen permettant d’étiqueter de manière plus fiable des zones d’intérêt dans des images 3D.
Résumé
La présente demande vient améliorer la situation en proposant un moyen permettant d’identifier, de manière fiable des zones d’intérêt au sein d’images 3D, notamment avec une meilleure précision.
Il est proposé un procédé d’étiquetage d’une image 3D d’une scène acquise par un capteur 3D comprenant l’identification d’au moins une zone d’intérêt dans l’image 3D, le procédé étant mis en œuvre par un calculateur et comprenant :
- une étape de réception :
* d’une image 2D de la même scène acquise par une caméra,
* des coordonnées, sur l’image 2D, d’un ensemble de pixels délimitant la zone d’intérêt,
* des coordonnées, sur l’image 2D, d’un point de référence appartenant à la zone d’intérêt, et
* de données relatives à la position et à l’orientation relatives de la caméra par rapport au capteur 3D,
- une étape de détermination de la profondeur du point de référence dans un repère associé à la caméra, ladite étape comprenant :
* à partir des coordonnées du point de référence dans l’image 2D, la détermination des coordonnées en deux dimensions d’une pluralité de premiers points dans l’image 3D, chaque premier point correspondant à une position possible du point de référence dans l’image 3D,
* l’obtention, pour chaque premier point, d’une troisième coordonnée de profondeur par rapport au capteur 3D,
* pour chaque premier point de l’image 3D, l’obtention des coordonnées du point correspondant dans l’image 2D, à partir de la coordonnée de profondeur du premier point,
la sélection, dans l’image 2D, du premier point le plus proche du point de référence, et,
* l’attribution au point de référence d’une profondeur correspondant à la profondeur du premier point sélectionné,
- une étape d’attribution aux pixels délimitant la zone d’intérêt sur l’image 2D d’une profondeur correspondant à la profondeur attribuée au point de référence,
- une étape de calcul des coordonnées, dans l’image 3D, des pixels délimitant la zone d’intérêt à partir des coordonnées des pixels délimitant la zone d’intérêt dans l’image 2D et de la profondeur attribuée aux pixels délimitant la zone d’intérêt.
- une étape de réception :
* d’une image 2D de la même scène acquise par une caméra,
* des coordonnées, sur l’image 2D, d’un ensemble de pixels délimitant la zone d’intérêt,
* des coordonnées, sur l’image 2D, d’un point de référence appartenant à la zone d’intérêt, et
* de données relatives à la position et à l’orientation relatives de la caméra par rapport au capteur 3D,
- une étape de détermination de la profondeur du point de référence dans un repère associé à la caméra, ladite étape comprenant :
* à partir des coordonnées du point de référence dans l’image 2D, la détermination des coordonnées en deux dimensions d’une pluralité de premiers points dans l’image 3D, chaque premier point correspondant à une position possible du point de référence dans l’image 3D,
* l’obtention, pour chaque premier point, d’une troisième coordonnée de profondeur par rapport au capteur 3D,
* pour chaque premier point de l’image 3D, l’obtention des coordonnées du point correspondant dans l’image 2D, à partir de la coordonnée de profondeur du premier point,
la sélection, dans l’image 2D, du premier point le plus proche du point de référence, et,
* l’attribution au point de référence d’une profondeur correspondant à la profondeur du premier point sélectionné,
- une étape d’attribution aux pixels délimitant la zone d’intérêt sur l’image 2D d’une profondeur correspondant à la profondeur attribuée au point de référence,
- une étape de calcul des coordonnées, dans l’image 3D, des pixels délimitant la zone d’intérêt à partir des coordonnées des pixels délimitant la zone d’intérêt dans l’image 2D et de la profondeur attribuée aux pixels délimitant la zone d’intérêt.
Selon un autre aspect, il est proposé un programme informatique comportant des instructions pour la mise en œuvre de tout ou partie d’un procédé tel que défini dans les présentes lorsque ce programme est exécuté par un calculateur. Selon un autre aspect, il est proposé un support d’enregistrement non transitoire, lisible par un ordinateur, sur lequel est enregistré un tel programme.
Les caractéristiques exposées dans les paragraphes suivants peuvent, optionnellement, être mises en œuvre, indépendamment les unes des autres ou en combinaison les unes avec les autres :
Dans un mode de réalisation, la détermination des coordonnées en deux dimensions de la pluralité de premiers points dans l’image 3D comprend :
- l’attribution, au point de référence, d’une profondeur maximale,
- l’attribution, au point de référence, d’une profondeur minimale,
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point le plus éloigné correspondant au point de référence auquel on a attribué la profondeur maximale,
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point le plus proche correspondant au point de référence auquel on a attribué la profondeur minimale, et
- la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point se trouvant entre le premier point le plus proche et le premier point le plus éloigné.
- l’attribution, au point de référence, d’une profondeur maximale,
- l’attribution, au point de référence, d’une profondeur minimale,
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point le plus éloigné correspondant au point de référence auquel on a attribué la profondeur maximale,
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point le plus proche correspondant au point de référence auquel on a attribué la profondeur minimale, et
- la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point se trouvant entre le premier point le plus proche et le premier point le plus éloigné.
Dans un mode de réalisation, la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point se trouvant entre le premier point le plus proche et le premier point le plus éloigné comprend la détermination de coordonnées en deux dimensions d’au moins un point se trouvant, dans l’image 3D, sur un segment reliant le premier point le plus éloigné et le premier point le plus proche.
Dans un mode de réalisation, la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point se trouvant entre le premier point le plus proche et le premier point le plus éloigné comprend :
- l’attribution, au point de référence, d’au moins une profondeur intermédiaire comprise entre la profondeur maximale et la profondeur minimale, et
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point correspondant au point de référence auquel on a attribué la profondeur intermédiaire.
- l’attribution, au point de référence, d’au moins une profondeur intermédiaire comprise entre la profondeur maximale et la profondeur minimale, et
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point correspondant au point de référence auquel on a attribué la profondeur intermédiaire.
Dans un mode de réalisation, la détermination des coordonnées en deux dimensions de la pluralité de premiers points dans l’image 3D comprend :
- l’attribution, au point de référence, d’une profondeur de l’une d’une profondeur minimale ou maximale,
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point d’extrémité correspondant au point de référence auquel on a attribué l’une d’une profondeur minimale ou maximale, et
- le calcul, à partir de la résolution horizontale du capteur 3D et de la distance entre le capteur 3D et la caméra, d’une disparité maximale correspondant à un nombre maximal de pixels sur l’image 3D séparant le premier point d’extrémité et un point sur l’image 3D correspondant au point de référence auquel on a attribué l’autre de la profondeur minimale ou maximale,
- la détermination des coordonnées en deux dimensions de chaque point de l’image 3D compris entre le premier point d’extrémité et un point séparé latéralement du premier point d’extrémité de la disparité maximale.
- l’attribution, au point de référence, d’une profondeur de l’une d’une profondeur minimale ou maximale,
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point d’extrémité correspondant au point de référence auquel on a attribué l’une d’une profondeur minimale ou maximale, et
- le calcul, à partir de la résolution horizontale du capteur 3D et de la distance entre le capteur 3D et la caméra, d’une disparité maximale correspondant à un nombre maximal de pixels sur l’image 3D séparant le premier point d’extrémité et un point sur l’image 3D correspondant au point de référence auquel on a attribué l’autre de la profondeur minimale ou maximale,
- la détermination des coordonnées en deux dimensions de chaque point de l’image 3D compris entre le premier point d’extrémité et un point séparé latéralement du premier point d’extrémité de la disparité maximale.
Dans un mode de réalisation, l’ensemble de pixels délimitant la zone d’intérêt sur l’image 2D comprend quatre pixels délimitant un rectangle.
Dans un mode de réalisation, la zone d’intérêt, dans l’image 2D, présente une forme géométrique prédéterminée et le procédé comprend en outre une étape de définition d’une zone d’intérêt dans l’image 3D présentant la même forme géométrique que la zone d’intérêt dans l’image 2D.
Le procédé d’étiquetage décrit ci-dessus peut trouver à s’appliquer notamment lors de la constitution d’une base de données d’apprentissage ou la validation d’algorithmes de détection automatique de zones d’intérêt dans des images 3D.
Selon l’invention, des opérateurs peuvent identifier une zone pertinente d’une image 2D prise par une caméra, par exemple une zone correspondant à un piéton ou à un véhicule, à l’aide d’un rectangle par exemple et créer des images de référence. Le procédé décrit ci-dessus peut alors être utilisé pour déterminer une zone de l’image de référence correspondante dans des données acquises par des capteurs 3D, i.e. aptes à déterminer une distance entre le capteur et le point considéré. On peut ainsi constituer une base d’apprentissage pour des algorithmes d’apprentissage destinés à repérer des objets, tels que des piétons ou des véhicules, par exemple. Par ailleurs, lorsque des algorithmes permettant de repérer des objets dans des données acquises par des capteurs 3D ont déjà été développés, le procédé décrit ci-dessus peut être mis en œuvre pour comparer les zones détectées par l’algorithme avec les zones correspondant aux objets identifiés par les opérateurs à l’aide des images prises par les caméras. Cette comparaison permet d’évaluer les performances de l’algorithme de détection.
D’autres caractéristiques, détails et avantages apparaîtront à la lecture de la description détaillée ci-après, et à l’analyse des dessins annexés, sur lesquels :
Fig. 1
Fig. 2
Fig. 3
Fig. 4
Fig. 5
Claims (9)
- Procédé d’étiquetage d’une image 3D (I2) d’une scène acquise par un capteur 3D (C3D) comprenant l’identification d’au moins une zone d’intérêt (Z2) dans l’image 3D, le procédé étant mis en œuvre par un calculateur et comprenant :
- une étape de réception (S100) :
* d’une image 2D (I1) de la même scène acquise par une caméra (CAM),
* des coordonnées, sur l’image 2D, d’un ensemble de pixels (PZ1) délimitant la zone d’intérêt (Z1),
* des coordonnées (uPR, vPR), sur l’image 2D, d’un point de référence (PR) appartenant à la zone d’intérêt (Z1), et
* de données relatives à la position et à l’orientation relatives de la caméra par rapport au capteur 3D (TR12),
- une étape de détermination de la profondeur du point de référence dans un repère associé à la caméra (S200), ladite étape comprenant :
* à partir des coordonnées du point de référence dans l’image 2D, la détermination des coordonnées en deux dimensions d’une pluralité de premiers points (P1,i) dans l’image 3D, chaque premier point (P1,i) correspondant à une position possible du point de référence dans l’image 3D,
* l’obtention, pour chaque premier point (P1,i), d’une troisième coordonnée de profondeur (pi) par rapport au capteur 3D,
* pour chaque premier point (P1,i) de l’image 3D, l’obtention des coordonnées (u1i, v1i) du point correspondant (P2,i) dans l’image 2D, à partir de la coordonnée de profondeur (pi) du premier point (P1,i),
* la sélection, dans l’image 2D, du premier point le plus proche du point de référence, et,
* l’attribution au point de référence (PR) d’une profondeur (pr) correspondant à la profondeur (pi) du premier point sélectionné,
- une étape d’attribution (S300) aux pixels (PZ1) délimitant la zone d’intérêt (Z1) sur l’image 2D (I1) d’une profondeur correspondant à la profondeur attribuée au point de référence (pr),
- une étape de calcul (S400) des coordonnées, dans l’image 3D, des pixels (PZ2) délimitant la zone d’intérêt (Z2) à partir des coordonnées des pixels (PZ1) délimitant la zone d’intérêt (Z1) dans l’image 2D et de la profondeur (pr) attribuée aux pixels délimitant la zone d’intérêt. - Procédé selon la revendication précédente, dans lequel :
- la détermination des coordonnées en deux dimensions de la pluralité de premiers points dans l’image 3D comprend :
* l’attribution, au point de référence (PR), d’une profondeur maximale (dmax),
* l’attribution, au point de référence, d’une profondeur minimale (dmin),
* le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point le plus éloigné (P1,1) correspondant au point de référence auquel on a attribué la profondeur maximale (PA),
* le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point le plus proche (P1,n) correspondant au point de référence auquel on a attribué la profondeur minimale (PB), et
* la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point (P1,i) se trouvant entre le premier point le plus proche (P1,n) et le premier point le plus éloigné (P1,1). - Procédé selon la revendication précédente, dans lequel la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point (P1,i) se trouvant entre le premier point le plus proche (P1,n) et le premier point le plus éloigné (P1,1) comprend la détermination de coordonnées en deux dimensions d’au moins un point (P1,i) se trouvant, dans l’image 3D, sur un segment reliant le premier point le plus éloigné (P1,1) et le premier point le plus proche (P1,n).
- Procédé selon la revendication 2, dans lequel la détermination des coordonnées en deux dimensions, dans l’image 3D, d’au moins un premier point (P1,i) se trouvant entre le premier point le plus proche (P1,n) et le premier point le plus éloigné (P1,1) comprend :
- l’attribution, au point de référence (PR), d’au moins une profondeur intermédiaire (pi) comprise entre la profondeur maximale (dmax) et la profondeur minimale (dmin), et
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point (P1,i) correspondant au point de référence (PR) auquel on a attribué la profondeur intermédiaire (pi). - Procédé selon la revendication 1, dans lequel la détermination des coordonnées en deux dimensions de la pluralité de premiers points dans l’image 3D (P1,i) comprend :
- l’attribution, au point de référence (PR), d’une profondeur de l’une d’une profondeur minimale (dmin) ou maximale (dmax),
- le calcul de coordonnées en deux dimensions, dans l’image 3D, d’un premier point d’extrémité (P1,1) correspondant au point de référence auquel on a attribué l’une d’une profondeur minimale ou maximale, et
- le calcul, à partir de la résolution horizontale du capteur 3D et de la distance entre le capteur 3D et la caméra, d’une disparité maximale correspondant à un nombre maximal de pixels (pixmax) sur l’image 3D séparant le premier point d’extrémité (P1,1) et un point sur l’image 3D correspondant au point de référence auquel on a attribué l’autre de la profondeur minimale ou maximale (P1,n),
- la détermination des coordonnées en deux dimensions de chaque point de l’image 3D (P1,i) compris entre le premier point d’extrémité (P1,1) et un point séparé latéralement du premier point d’extrémité de la disparité maximale (P1,n). - Procédé selon l’une quelconque des revendications précédentes, dans lequel l’ensemble de pixels délimitant la zone d’intérêt (Z1) sur l’image 2D comprend quatre pixels (PZ1) délimitant un rectangle.
- Procédé selon l’une quelconque des revendications précédentes, dans lequel la zone d’intérêt, dans l’image 2D, présente une forme géométrique prédéterminée et le procédé comprend en outre une étape (S500) de définition d’une zone d’intérêt (R) dans l’image 3D présentant la même forme géométrique que la zone d’intérêt dans l’image 2D.
- Programme informatique comportant des instructions pour la mise en œuvre du procédé selon l’une des revendications 1 à 7 lorsque ce programme est exécuté par un calculateur.
- Support d’enregistrement non transitoire lisible par un ordinateur sur lequel est enregistré un programme pour la mise en œuvre du procédé selon l’une des revendications 1 à 7 lorsque ce programme est exécuté par un calculateur.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2107380A FR3125150B1 (fr) | 2021-07-08 | 2021-07-08 | Procédé d’étiquetage d’une image 3D |
PCT/EP2022/068379 WO2023280745A1 (fr) | 2021-07-08 | 2022-07-04 | Procede d'etiquetage d'une image 3d sur base de projection épipolaire |
CN202280048444.5A CN117677985A (zh) | 2021-07-08 | 2022-07-04 | 用于标记对极投影3d图像的方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2107380A FR3125150B1 (fr) | 2021-07-08 | 2021-07-08 | Procédé d’étiquetage d’une image 3D |
FR2107380 | 2021-07-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3125150A1 true FR3125150A1 (fr) | 2023-01-13 |
FR3125150B1 FR3125150B1 (fr) | 2023-11-17 |
Family
ID=77021645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2107380A Active FR3125150B1 (fr) | 2021-07-08 | 2021-07-08 | Procédé d’étiquetage d’une image 3D |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN117677985A (fr) |
FR (1) | FR3125150B1 (fr) |
WO (1) | WO2023280745A1 (fr) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150172715A1 (en) * | 2012-07-09 | 2015-06-18 | Nippon Telegraph And Telephone Corporation | Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program, and recording media |
WO2017216465A1 (fr) * | 2016-06-14 | 2017-12-21 | Continental Automotive France | Procédé et dispositif de traitement d'images acquises par une caméra d'un véhicule automobile |
FR3083352A1 (fr) * | 2018-06-29 | 2020-01-03 | Continental Automotive France | Procede et dispositif de detection rapide de structures repetitives dans l'image d'une scene routiere |
US20200210726A1 (en) * | 2018-12-28 | 2020-07-02 | Nvidia Corporation | Distance to obstacle detection in autonomous machine applications |
-
2021
- 2021-07-08 FR FR2107380A patent/FR3125150B1/fr active Active
-
2022
- 2022-07-04 WO PCT/EP2022/068379 patent/WO2023280745A1/fr active Application Filing
- 2022-07-04 CN CN202280048444.5A patent/CN117677985A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150172715A1 (en) * | 2012-07-09 | 2015-06-18 | Nippon Telegraph And Telephone Corporation | Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program, and recording media |
WO2017216465A1 (fr) * | 2016-06-14 | 2017-12-21 | Continental Automotive France | Procédé et dispositif de traitement d'images acquises par une caméra d'un véhicule automobile |
FR3083352A1 (fr) * | 2018-06-29 | 2020-01-03 | Continental Automotive France | Procede et dispositif de detection rapide de structures repetitives dans l'image d'une scene routiere |
US20200210726A1 (en) * | 2018-12-28 | 2020-07-02 | Nvidia Corporation | Distance to obstacle detection in autonomous machine applications |
Non-Patent Citations (1)
Title |
---|
"Algorithm for Computer Control of a Digital Plotter", JACK E. BRESENHAM, IBM SYSTEMS JOURNAL, vol. 4, no. 1, 1965, pages 25 - 30 |
Also Published As
Publication number | Publication date |
---|---|
CN117677985A (zh) | 2024-03-08 |
WO2023280745A1 (fr) | 2023-01-12 |
FR3125150B1 (fr) | 2023-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12002269B2 (en) | Vehicle feature acquisition method and device | |
US10909395B2 (en) | Object detection apparatus | |
WO2020104423A1 (fr) | Procédé et appareil de fusion de données de données lidar et de données d'image | |
KR102103944B1 (ko) | 모노카메라를 이용한 자율주행 차량의 거리 및 위치 추정 방법 | |
US20080118149A1 (en) | Method and apparatus for partitioning an object from an image | |
US10872246B2 (en) | Vehicle lane detection system | |
CN103765439A (zh) | 用于环境表示的方法 | |
Petrovai et al. | A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices | |
CN108319931B (zh) | 一种图像处理方法、装置及终端 | |
US11513211B2 (en) | Environment model using cross-sensor feature point referencing | |
JP2023029441A (ja) | 計測装置、計測システムおよび車両 | |
CN111191481B (zh) | 车辆识别方法及系统 | |
US20200372264A1 (en) | Image-based road cone recognition method and appartus, storage medium, and vehicle | |
US10789727B2 (en) | Information processing apparatus and non-transitory recording medium storing thereon a computer program | |
CN113950020A (zh) | 用于自主车辆的车辆共乘定位和乘客识别 | |
FR3125150A1 (fr) | Procédé d’étiquetage d’une image 3D | |
KR102195040B1 (ko) | 이동식 도면화 시스템 및 모노카메라를 이용한 도로 표지 정보 수집 방법 | |
JP2005084012A (ja) | 肌形状計測方法及び肌形状計測装置 | |
KR20160063039A (ko) | 3차원 데이터를 이용한 도로 인식 방법 | |
CN110852278B (zh) | 地面标识线识别方法、设备及计算机可读存储介质 | |
JP2001108434A (ja) | 距離測定方法及び距離測定装置 | |
US20210329219A1 (en) | Transfer of additional information among camera systems | |
CN114762019A (zh) | 摄像机系统 | |
JP2023061621A (ja) | 画像処理装置 | |
FR3052560B1 (fr) | Systeme embarque et procede de determination d'une position relative |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20230113 |
|
PLFP | Fee payment |
Year of fee payment: 3 |