ES2704077T3 - Procedimiento de discriminación y de identificación de objetos de una escena por procesamiento de imagen en 3D - Google Patents

Procedimiento de discriminación y de identificación de objetos de una escena por procesamiento de imagen en 3D Download PDF

Info

Publication number
ES2704077T3
ES2704077T3 ES15820476T ES15820476T ES2704077T3 ES 2704077 T3 ES2704077 T3 ES 2704077T3 ES 15820476 T ES15820476 T ES 15820476T ES 15820476 T ES15820476 T ES 15820476T ES 2704077 T3 ES2704077 T3 ES 2704077T3
Authority
ES
Spain
Prior art keywords
volume
optimized
cloud
intensity
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15820476T
Other languages
English (en)
Inventor
Stefan Berechet
Ion Berechet
Jean-Baptiste Bellet
Gérard Berginc
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Universite de Lorraine
Sispia SARL
Original Assignee
Thales SA
Universite de Lorraine
Sispia SARL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA, Universite de Lorraine, Sispia SARL filed Critical Thales SA
Application granted granted Critical
Publication of ES2704077T3 publication Critical patent/ES2704077T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

Procedimiento de discriminación y de identificación por un procesamiento de imagen en 3D de un objeto en una escena compleja, caracterizado porque incluye las siguientes etapas: - generar (A) una secuencia (2) de imágenes del objeto, a partir de un volumen en 3D en vóxeles de la escena compleja, siendo este volumen (1) predeterminado y visualizado por un operario utilizando un proceso iterativo de tipo "Maximum Intensity Projection" a partir de un plano de proyección y de un umbral de intensidad determinados por el operario en cada iteración, designándose la secuencia de imágenes obtenida una secuencia de imágenes en 2D MIP como "Maximum Intensity Projection", - extraer (B1) automáticamente a partir de la secuencia (2) de imágenes en 2D MIP, unas coordenadas (3) de un volumen reducido que corresponde a la secuencia (2) de imágenes en 2D MIP, - elegir (B2) uno (4) de los umbrales de intensidad utilizados en el transcurso de las iteraciones de la etapa A), efectuándose esta elección por el operario, - a partir del volumen (1) en 3D en vóxeles de la escena compleja, de las coordenadas (3) y del umbral (4) de intensidad, extraer (C) automáticamente un volumen (5) en 3D en vóxeles reducido que contiene el objeto, - generar (D) automáticamente a partir del volumen (5) reducido, un umbral (7) de intensidad optimizado por optimización de umbralización de intensidad, asociándose a cada intensidad un color, y un volumen (6) en vóxeles optimizado, a partir de este umbral de intensidad optimizado, - identificar el objeto por visualización.

Description

DESCRIPCIÓN
Procedimiento de discriminación y de identificación de objetos de una escena por procesamiento de imagen en 3D El campo de la invención es el de la discriminación y de la identificación de objetos cualesquiera que pueden estar disimulados en una escena compleja como la ilustrada en la figura 4. Estos objetos pueden enmascararse unos a otros, lo que convierte a la identificación y a la discriminación de los objetos en particularmente difíciles.
Existen diferentes tipos de visualización tridimensional. Ciertas visualizaciones ofrecen una imagen de profundidad, o imagen 2,5 D. Estas técnicas no permiten recuperar el conjunto de los vóxeles (“píxeles volumétricos”) tridimensionales, se basan en técnicas estereoscópicas vinculadas a la optimización de una diferencia de recorrido del rayo óptico o electromagnético entre los diferentes puntos de dos imágenes; esta diferencia de recorrido es calculable si los objetos se sitúan a corto alcance del sistema de procesamiento de imagen. La identificación está limitada por tanto a las cortas distancias.
Ciertas técnicas de procesamiento de imagen necesitan un barrido del haz láser o de luz sobre la escena, y la secuencia de medidas da una nube de puntos 3D. Son necesarios varios barridos en varios ángulos de visión para tener una información tridimensional pero el movimiento relativo del portador que contiene el sistema de barrido produce una distorsión de nube de puntos a nube de puntos, el recalibrado es complejo y degrada la resolución y la identificación.
Las técnicas llamadas de siluetas obtenidas a partir de múltiples vistas dan una envolvente exterior poco detallada. Si los objetos contienen una zona de sombra o si el objeto se encuentra en la sombra de otro objeto, una gran parte de la envolvente se pierde por lo que no es realizable la identificación y la discriminación de los dos objetos.
Las tecnologías de tipo Spin Image necesitan unas bases de datos y no pueden aplicarse para objetos disimulados en escenas complejas sin conocimiento a priori.
Las técnicas de reagrupamiento de vóxeles vinculadas a una reconstrucción de la superficie por isodensidad permiten obtener una superficie externa de los objetos pero eliminan las informaciones internas contenidas en el objeto.
Las técnicas de reconstrucción tridimensional vinculadas a una optimización de las bases de conocimientos y a la extracción de señales débiles y de las que se presenta un ejemplo en el documento “Procédé de reconstruction synthétique d'objets illuminés par une onde électromagnétique et/ou excités par une onde élastique” (EP 2929421 o US 8345960), necesitan bases de datos y que estas estén optimizadas con el fin de realizar la mejor reconstrucción tridimensional posible. Las bases de conocimiento no representan frecuentemente los objetos más que por un conjunto de las superficies tridimensionales externas que pueden ser modelizadas por unas facetas. Las estructuras transparentes (vidrios...) son mal tenidas en cuenta, lo que perjudica grandemente la visualización completa del objeto en 3D. Estas técnicas son también dependientes de la disponibilidad de las bases de conocimiento.
La técnica MIP (Maximum Intensity Projection) permite la visualización en 2D de datos tridimensionales. Esta técnica proyecta los vóxeles sobre un plano de proyección; los vóxeles se determinan por los radios que unen el plano de proyección al punto de observación con un umbral de intensidad impuesto. Los resultados en 2D no permiten obtener un valor de la profundidad y de las distancias. Para crear una ilusión de rotación y una noción de profundidad y mejorar así el rendimiento en 3D, se realizan varios planos de proyección en ángulos de observación sucesivos. Se puede citar como ejemplo de técnica MIP, la descrita en el documento WO 2007/103216.
Las técnicas de restitución de la intensidad de los vóxeles permiten una visualización tridimensional ruidosa, lo que disminuye la discriminación entre diferencias contiguas de la escena observada.
Las nubes de puntos en 3D obtenidas directamente mediante un posicionamiento cartesiano de los vóxeles no permiten más que una reducida discriminación y aportan artificiosidades vinculadas a falsas alarmas.
Las técnicas de finalización superficial y de las que se presenta un ejemplo en el documento “Procédé de reconstruction 3D d'un objet d'une scéne” (US2013/0100131), permiten llenar las zonas lagunares por generación de superficies tridimensionales para obtener un conjunto de datos finalizados del objeto, sin recurrir a una base de datos exterior. Dan así una superficie externa completa del objeto sin discontinuidades superficiales; los datos internos situados por detrás de las transparencias (vidrios por ejemplo) no se reconstruyen y se eliminan del proceso de identificación. Un proceso de discriminación de dos objetos próximos es más difícilmente alcanzable, porque la generación de las superficies puede ser matemáticamente compleja.
El objetivo de la invención es paliar estos inconvenientes.
Más precisamente la invención tiene por objeto un procedimiento de discriminación y de identificación por procesamiento de imagen en 3D de un objeto en una escena compleja. Se caracteriza principalmente porque incluye las etapas de la reivindicación 1.
Comprende eventualmente una etapa de visualización del volumen en 3D en vóxeles reducidos y/o del volumen en vóxeles optimizados.
Según una característica, comprende además una etapa para generar a partir de la secuencia de imágenes en 2D MIP, unas coordenadas y un umbral de intensidad elegido, una nube (8) de puntos en 3D del objeto.
Según otra característica, incluye además las siguientes etapas:
- generar a partir del volumen en 3D de la escena compleja y del umbral de intensidad elegido, una nube de puntos en 3d bruta de la escena compleja,
- generar a partir del volumen en 3D optimizado y del umbral de intensidad optimizado, una nube de puntos en 3D optimizada del objeto,
- generar a partir de una superposición de la nube de puntos en 3D bruta de la escena, de la nube de puntos en 3D optimizada del objeto, y eventualmente de la nube de puntos en 3D del objeto, una nube de puntos en 3D global optimizada del objeto incluido en la escena compleja,
- visualizar la nube en 3D global optimizada.
Estas nubes pueden visualizarse igualmente por el operario.
El procedimiento permite una discriminación, una identificación y eventualmente un posicionamiento del objeto. Se hace posible la precisión de los detalles del objeto por la densificación de la nube de puntos, lo que permite también mejorar la identificación del objeto de la escena. Las nubes de puntos tridimensionales permiten separar y discriminar los diferentes objetos de la escena y discriminar el objeto a identificar de los otros elementos de la escena. El conjunto de las nubes de puntos asociadas al objeto se posiciona en una referencia cartesiana absoluta, lo que permite calcular simplemente las posiciones del objeto y las diferentes distancias entre el objeto y otros elementos de la escena. El objeto es recolocado en su contexto operativo.
La solución aportada subsana los inconvenientes individuales de cada técnica de visualización existente. No es necesario completar los datos (principalmente los datos enmascarados por otros elementos de la escena) porque están implícitamente presentes.
Surgirán otras características y ventajas de la invención con la lectura de la descripción detallada que sigue, realizada a título de ejemplo no limitativo y con referencia a los dibujos adjuntos en los que:
la figura 1 representa esquemáticamente un ejemplo de volumen en 3D con la cuadrícula correspondiente a los diferentes vóxeles, obtenida por reconstrucción en 3D,
la figura 2 muestra un ejemplo de encadenamiento de las diferentes etapas del procedimiento según la invención,
la figura 3 muestra un ejemplo de visualización en 3D de un volumen en 3D de vóxeles de una escena compleja, sin la cuadrícula y obtenida por reconstrucción en 3D,
la figura 4 muestra un ejemplo de imagen en 2D de una escena compleja,
la figura 5 muestra un ejemplo de secuencia de imágenes en 2D MIP de un objeto a identificar,
la figura 6 muestra un ejemplo de visualización en 3D del volumen en 3D reducido del objeto a identificar, la figura 7 muestra un ejemplo de visualización en 3D del volumen en 3D optimizado del objeto a identificar, la figura 8 muestra un ejemplo de visualización en 3D de una nube de puntos en 3D MIP del objeto a identificar, la figura 9 muestra un ejemplo de visualización en 3D de una nube de puntos en 3D bruta de la escena compleja, la figura 10 muestra un ejemplo de visualización en 3D de una nube de puntos en 3D optimizada del objeto a identificar,
las figuras 11 muestran un ejemplo de visualización en 3D de una nube de puntos en 3D global optimizada del objeto en la escena compleja, teniendo como objeto un vehículo (figura 11a) o dos vehículos (figura 11b).
De una figura a otra, los mismos elementos se referencian mediante las mismas referencias.
El procedimiento según la invención se aplica a un volumen en 3D en vóxeles de una escena compleja. Esta escena se ha transformado previamente por tanto por procesamiento de imagen en 3D en este volumen (1) en 3D del que se muestra un ejemplo en la figura 1.
Este volumen tridimensional puede obtenerse gracias un procedimiento de reconstrucción por transmisión o por fluorescencia (Tomografía de Proyección Óptica, imagen nuclear o tomografía computarizada por rayos X) o por reflexión (reflexión de una onda láser o por reflexión solar en el caso de la banda visible (entre 0,4 pm y 0,7 pm) o próxima al infrarrojo (entre 0,7 pm y 1 pm o SWIR entre 1 pm y 3 pm) o teniendo en cuenta la emisión térmica del objeto (tratamiento de imagen térmica entre 3 pm y 5 pm y entre 8 pm y 12 pm)), estos procesos de reconstrucción tridimensional se describen en la patente “Systéme optronique et procédé d'élaboration d'images en trois dimensions dédiés á l'identification” (US 8.836.762, EP 2333481).
Se utiliza el conjunto de los vóxeles procedentes de una reconstrucción tridimensional con la intensidad asociada, habiéndose obtenido esta reconstrucción preferentemente por reflexión.
El procedimiento de discriminación y de identificación según la invención incluye las siguientes etapas descritas en relación con la figura 2. Se designa por objeto uno o varios elementos de la escena: un objeto puede ser un vehículo como se muestra en los ejemplos de las figuras 2 a 11a, o dos vehículos como se muestra en el ejemplo de la figura 11b, o incluso un elemento de vehículo como la llanta.
Entre las etapas siguientes, algunas requieren la participación de un operario a partir de una visualización sobre una pantalla, otras se implementan automáticamente.
❖ A) a partir del volumen (1) en 3D en vóxeles de la escena compleja (representada en las figuras 2 y 3 sin la cuadrícula de los vóxeles), se utiliza la técnica MIP para que el operario visualice en tiempo real sobre su pantalla un ejemplo de la escena compleja según diferentes planos de proyección (correspondientes a diferentes ángulos de observación) y según un umbral de intensidad determinado experimentalmente por un operario, y para que en el transcurso de estas diferentes visualizaciones de las que se muestra un ejemplo en la figura 4, esclarezca el volumen a analizar que incluye un objeto que desea discriminar y/o identificar. Como resultado de este proceso iterativo de tipo MIP, se genera una secuencia (2) de imágenes en 2D MIP del objeto a identificar, que corresponde visualmente a un volumen en 3D reducido que contiene el objeto a identificar, pero este volumen reducido no está aún determinado en este estadio. Un ejemplo de una secuencia (2) de tres imágenes en 2D MIP de ese tipo se muestra en las figuras 2 y 5.
❖ B1) extraer automáticamente a partir de esta secuencia (2) de imágenes en 2D MIP, unas coordenadas (3) de este volumen reducido que contiene el objeto a identificar
❖ B2) determinar uno de los umbrales (4) de intensidad que se ha utilizado en los procesos MIP de la etapa A); este umbral se determina experimentalmente por el operario
❖ C) extraer automáticamente a partir del volumen (1) en 3D en vóxeles de la escena compleja, y utilizando las coordenadas (3) y el umbral (4) de intensidad, un volumen (5) en vóxeles correspondiente al objeto a identificar (dicho de otra manera este volumen en 3D reducido se determina en función de las coordenadas (3) y sus vóxeles se umbralizan en intensidad en función del umbral (4) de intensidad): se trata del volumen reducido de la etapa A). El operario puede visualizar este volumen (5) reducido si lo desea, como se muestra en las figuras 2 y 6; esta visualización puede ofrecerle una posibilidad de identificar el objeto.
❖ D) generar automáticamente a partir del volumen (5) en vóxeles, mediante un proceso de optimización por umbralización de intensidad, asociándose cada intensidad a un color:
- un umbral (7) optimizado,
- posteriormente utilizando este umbral optimizado, un volumen (6) 3D optimizado en vóxeles del objeto de identificar.
Se obtiene así de alguna manera el volumen reducido, en color después del umbralizado, que el operario puede visualizar igualmente, como se muestra en las figuras 2 y 7, e identificar. Se obtiene un volumen en 3d en vóxeles que presenta visualmente muchos más detalles que el volumen en 3D de origen.
En el transcurso de las etapas anteriores, A a C, el operario ha tenido la posibilidad de identificar el objeto con una probabilidad creciente. Como resultado de esta etapa D, el operario ha alcanzado la mayor probabilidad de identificar el objeto.
El objeto a identificar puede dividirse a su vez en sub-objetos. Los sub-objetos de un vehículo son por ejemplo las ruedas, el capó,... Las etapas anteriores se aplicarán entonces a cada sub-objeto. Se obtiene para cada sub-objeto, una secuencia (2) de imágenes en 2D MIP, unas coordenadas (3) del volumen en 3D reducido, un umbral (4) de intensidad elegido, un volumen (5) en 3D en vóxeles reducido, un umbral (7) optimizado, y un volumen (6) en 3D optimizado.
Como resultado de esta etapa D, cuando el objeto incluye varios elementos o sub-objetos que presentan un interés para el operario, estos se han podido discriminar.
Las siguientes etapas se dirigen a reponer en situación el objeto identificado.
❖ E) eventualmente generar automáticamente a partir de la secuencia (2) de imágenes en 2D MIP utilizando las coordenadas (3) y el umbral (4) de intensidad, una nube (8) de puntos en 3D del objeto a identificar, que el operario puede visualizar eventualmente, como se muestra en las figuras 2 y 8.
❖ F1) generar automáticamente a partir de la secuencia (2) de imágenes en 2D MIP y utilizando el umbral (4) de intensidad, una nube (9) de puntos en 3D de la escena compleja que incluye por tanto el objeto a identificar, que el operario puede eventualmente visualizar, como se muestra en las figuras 2 y 9.
❖ F2) generar automáticamente a partir del volumen (6) en 3D utilizado en vóxeles y utilizando el umbral (7) de intensidad, una nube (10) de puntos en 3D optimizada del objeto a identificar, que el operario puede eventualmente visualizar, como se muestra en las figuras 2 y 10.
❖ G) generar automáticamente por superposición:
- la nube (9) de puntos en 3D bruta de la escena compleja,
- la nube (10) de puntos en 3D optimizada del objeto, que presenta una gran densidad a nivel de los detalles del objeto que permiten su identificación,
- y la nube (8) de puntos en 3D del objeto si se ha generado,
una nube (11) de puntos en 3D global optimizada del objeto incluido en la escena compleja. Esta nube permite posicionar el objeto en su contexto operativo teniendo en cuenta las coordenadas absolutas, discriminarlo, y ayudar al operario a identificarlo con una gran probabilidad. En efecto, el operario visualiza esta nube (11) global optimizada, de la que se muestra un ejemplo en las figuras 2 y 11a para un objeto que representa un vehículo o en la figura 11b para un objeto que representa dos vehículos; esto le permite visualizar el objeto identificado en su contexto operativo.
Las diferentes extracciones de las nubes de puntos permiten una disminución de las artificiosidades y del ruido. El conjunto de las nubes de puntos asociadas al objeto se posicionan en una referencia cartesiana absoluta, lo que permite calcular simplemente la posición del objeto y las diferentes distancias entre el objeto y otros elementos de la escena. El objeto se recoloca en su contexto operativo.
Cuando se han identificado unos sub-objetos, cada una de estas etapas de puesta en situación se aplica superponiendo las nubes respectivamente obtenidas a partir de cada sub-objeto.
Cuando el operario considera que el resultado no es satisfactorio, estas etapas A a G pueden iterarse con el fin de obtener la mejor densificación posible de estos detalles.
Como resultado de la etapa G, cuando el objeto incluye varios elementos o sub-objetos discriminados entre sí, estos se resitúan en su contexto y puede medirse su posicionamiento, unos relativamente a los otros, en las coordenadas cartesianas.
Con este procedimiento, es particularmente fácil visualizar en tiempo real diferentes elementos de la escena observada.
Según la invención, la identificación de los objetos de la escena se mejora gracias a una densificación de las nubes de puntos tridimensionales.
Este procedimiento de discriminación y de identificación se aplica principalmente al campo de la seguridad para la identificación y la localización precisa de objetivos, y al campo médico para la identificación y la localización de tumores.
La presente invención puede implementarse a partir de elementos de hardware y/o de software. Puede estar disponible en tanto que producto de programa informático en un soporte legible por ordenador, comprendiendo este programa informático instrucciones de código que permiten efectuar las etapas del procedimiento de discriminación y de identificación. El soporte puede ser electrónico, magnético, óptico, electromagnético o ser un soporte de difusión de tipo infrarrojo. Dichos soportes son por ejemplo, unas memorias de semiconductor (memoria de acceso aleatorio RAM, memoria solo de lectura ROM), unas bandas, unos disquetes o discos magnéticos u ópticos (Disco Compacto - Memoria Solo de Lectura (CD-ROM), disco compacto, de lectura/escritura (CD-R/W) y DVD).

Claims (9)

REIVINDICACIONES
1. Procedimiento de discriminación y de identificación por un procesamiento de imagen en 3D de un objeto en una escena compleja, caracterizado porque incluye las siguientes etapas:
- generar (A) una secuencia (2) de imágenes del objeto, a partir de un volumen en 3D en vóxeles de la escena compleja, siendo este volumen (1) predeterminado y visualizado por un operario utilizando un proceso iterativo de tipo “Maximum Intensity Projection” a partir de un plano de proyección y de un umbral de intensidad determinados por el operario en cada iteración, designándose la secuencia de imágenes obtenida una secuencia de imágenes en 2D MIP como “Maximum Intensity Projection”,
- extraer (B1) automáticamente a partir de la secuencia (2) de imágenes en 2D MIP, unas coordenadas (3) de un volumen reducido que corresponde a la secuencia (2) de imágenes en 2D MIP,
- elegir (B2) uno (4) de los umbrales de intensidad utilizados en el transcurso de las iteraciones de la etapa A), efectuándose esta elección por el operario,
- a partir del volumen (1) en 3D en vóxeles de la escena compleja, de las coordenadas (3) y del umbral (4) de intensidad, extraer (C) automáticamente un volumen (5) en 3D en vóxeles reducido que contiene el objeto, - generar (D) automáticamente a partir del volumen (5) reducido, un umbral (7) de intensidad optimizado por optimización de umbralización de intensidad, asociándose a cada intensidad un color, y un volumen (6) en vóxeles optimizado, a partir de este umbral de intensidad optimizado,
- identificar el objeto por visualización.
2. Procedimiento de discriminación y de identificación de un objeto en una escena compleja según la reivindicación anterior, caracterizado porque comprende una etapa de visualización del volumen (5) en 3D en vóxeles reducido.
3. Procedimiento de discriminación y de identificación de un objeto en una escena compleja según una de las reivindicaciones anteriores, caracterizado porque comprende una etapa de visualización del volumen (6) en vóxeles optimizado.
4. Procedimiento de discriminación y de identificación de un objeto en una escena compleja según una de las reivindicaciones anteriores, caracterizado porque comprende además una etapa (E) para generar a partir de la secuencia (2) de imágenes en 2D MIP, de las coordenadas (3) y del umbral (4) de intensidad elegido, una nube (8) de puntos en 3D del objeto.
5. Procedimiento de discriminación y de identificación de un objeto en una escena compleja según una de las reivindicaciones anteriores, caracterizado porque incluye además las siguientes etapas:
- generar (F1) a partir del volumen (1) en 3D de la escena compleja y del umbral (4) de intensidad elegido, una nube (9) de puntos en 3D bruta de la escena compleja,
- generar (F2) a partir del volumen (6) en 3D optimizado y del umbral (7) de intensidad optimizado, una nube (10) de puntos en 3D optimizada del objeto,
- generar (G) a partir de una superposición de la nube (9) de puntos en 3D bruta de la escena y de la nube (10) de puntos en 3D optimizada del objeto, una nube (11) de puntos en 3D global optimizada del objeto incluido en la escena compleja,
- visualizar la nube en 3D global optimizada.
6. Procedimiento de discriminación y de identificación de un objeto en una escena compleja según las reivindicaciones 4 y 5 tomadas en combinación, caracterizado porque la nube (11) de puntos global optimizada se genera a partir de la superposición de la nube (9) de puntos en 3D bruta de la escena, de la nube (10) de puntos en 3D optimizada del objeto, y de la nube (8) de puntos en 3D del objeto.
7. Procedimiento según la reivindicación 4 o 5, caracterizado porque se visualiza por el operario la nube (8) de puntos en 3D del objeto y/o la nube (9) de puntos en 3D de la escena y/o la nube (10) de puntos en 3D optimizada del objeto.
8. Procedimiento según una de las reivindicaciones anteriores, caracterizado porque el volumen (1) en 3D en vóxeles se obtiene por reflexión de una onda óptica visible o de IR sobre la escena compleja o por emisión térmica del objeto.
9. Un producto de programa informático, comprendiendo dicho programa informático instrucciones de código que permiten efectuar las etapas del procedimiento según una cualquiera de las reivindicaciones 1 a 8, cuando dicho programa se ejecuta en un ordenador.
ES15820476T 2014-12-19 2015-12-17 Procedimiento de discriminación y de identificación de objetos de una escena por procesamiento de imagen en 3D Active ES2704077T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1402929A FR3030847B1 (fr) 2014-12-19 2014-12-19 Procede de discrimination et d'identification par imagerie 3d d'objets d'une scene
PCT/EP2015/080258 WO2016097168A1 (fr) 2014-12-19 2015-12-17 Procede de discrimination et d'identification par imagerie 3d d'objets d'une scene

Publications (1)

Publication Number Publication Date
ES2704077T3 true ES2704077T3 (es) 2019-03-14

Family

ID=53059156

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15820476T Active ES2704077T3 (es) 2014-12-19 2015-12-17 Procedimiento de discriminación y de identificación de objetos de una escena por procesamiento de imagen en 3D

Country Status (11)

Country Link
US (1) US10339698B2 (es)
EP (1) EP3234914B1 (es)
JP (1) JP6753853B2 (es)
KR (1) KR102265248B1 (es)
CA (1) CA2971256A1 (es)
ES (1) ES2704077T3 (es)
FR (1) FR3030847B1 (es)
HK (1) HK1245975B (es)
IL (1) IL252791B (es)
SG (1) SG11201704754RA (es)
WO (1) WO2016097168A1 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3088530B1 (fr) 2018-11-15 2020-12-04 Thales Sa Systeme d'imagerie 2d et 3d d'un desordre pigmentaire cutane
KR102264744B1 (ko) 2019-10-01 2021-06-14 씨제이올리브네트웍스 주식회사 영상 데이터를 처리하는 방법 및 이를 실행시키기 위한 명령어들이 저장된 컴퓨터 판독 가능한 기록 매체
FR3101988B1 (fr) * 2019-10-10 2021-10-22 Sispia Procede de reconnaissance d'objets a representativite augmentee
KR102533985B1 (ko) * 2021-05-21 2023-05-17 한국항공대학교산학협력단 포인트 클라우드 복원 시스템 및 방법

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2365062A1 (en) * 2001-12-14 2003-06-14 Cedara Software Corp. Fast review of scanned baggage, and visualization and extraction of 3d objects of interest from the scanned baggage 3d dataset
US7616794B2 (en) * 2004-01-26 2009-11-10 Siemens Medical Solutions Usa, Inc. System and method for automatic bone extraction from a medical image
US20070297560A1 (en) * 2006-03-03 2007-12-27 Telesecurity Sciences, Inc. Method and system for electronic unpacking of baggage and cargo
JP2008033522A (ja) * 2006-07-27 2008-02-14 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
US8538166B2 (en) * 2006-11-21 2013-09-17 Mantisvision Ltd. 3D geometric modeling and 3D video content creation
US8175363B2 (en) * 2007-11-21 2012-05-08 Siemens Medical Solutions Usa, Inc. System and method for additive spatial/intensity decomposition of medical images
FR2929421B1 (fr) 2008-03-25 2012-04-27 Thales Sa Procede de reconstruction synthetique tridimensionnelle d'objets exposes a une onde electromagnetique et/ou elastique
FR2953313B1 (fr) 2009-11-27 2012-09-21 Thales Sa Systeme optronique et procede d'elaboration d'images en trois dimensions dedies a l'identification
FR2981772B1 (fr) 2011-10-21 2017-12-22 Thales Sa Procede de reconstruction 3d d'un objet d'une scene
US20140164989A1 (en) 2012-12-10 2014-06-12 Stefan KUHNE Displaying windows on a touchscreen device
WO2014155715A1 (ja) * 2013-03-29 2014-10-02 株式会社日立製作所 物体認識装置および物体認識方法並びにプログラム
US9547838B2 (en) * 2013-11-06 2017-01-17 Oracle International Corporation Automated generation of a three-dimensional space representation and planogram verification

Also Published As

Publication number Publication date
US20170345204A1 (en) 2017-11-30
FR3030847B1 (fr) 2017-12-22
FR3030847A1 (fr) 2016-06-24
JP2018508850A (ja) 2018-03-29
IL252791A0 (en) 2017-08-31
EP3234914B1 (fr) 2018-10-10
KR20170120095A (ko) 2017-10-30
IL252791B (en) 2021-04-29
CA2971256A1 (en) 2016-06-23
US10339698B2 (en) 2019-07-02
HK1245975B (zh) 2019-11-15
JP6753853B2 (ja) 2020-09-09
WO2016097168A1 (fr) 2016-06-23
KR102265248B1 (ko) 2021-06-14
SG11201704754RA (en) 2017-07-28
EP3234914A1 (fr) 2017-10-25

Similar Documents

Publication Publication Date Title
Merkle et al. Exploring the potential of conditional adversarial networks for optical and SAR image matching
ES2766948T3 (es) Malla adaptativa de resolución para realizar metrología en 3-d de un objeto
AU2018212700B2 (en) Apparatus, method, and system for alignment of 3D datasets
JP6017631B2 (ja) セキュリティーチェックctシステム及びその方法
ES2704077T3 (es) Procedimiento de discriminación y de identificación de objetos de una escena por procesamiento de imagen en 3D
US9905032B2 (en) Object removal using lidar-based classification
Hu et al. Efficient tree modeling from airborne LiDAR point clouds
Carozza et al. Markerless vision‐based augmented reality for urban planning
CA2721891C (en) Optronic system and method dedicated to identification for formulating three-dimensional images
JP2004521423A (ja) 8分木を用いた多数の画像からの3次元表現の生成
Truong-Hong et al. Octree-based, automatic building facade generation from LiDAR data
CN110310307B (zh) 计算机断层扫描(ct)到锥形束ct配准的方法和系统
CN110197148A (zh) 目标物体的标注方法、装置、电子设备和存储介质
US10311598B2 (en) Fully automated localization of electroencephalography (EEG) electrodes
JP2014073355A (ja) 領域抽出装置、領域抽出方法および領域抽出プログラム
WO2022193604A1 (en) Devices, systems, methods, and media for point cloud data augmentation using model injection
Long et al. A marching cubes algorithm: application for three-dimensional surface reconstruction based on endoscope and optical fiber
CN108475434A (zh) 基于阴影分析确定场景中辐射源特性的方法和系统
Brown et al. A pointwise smooth surface stereo reconstruction algorithm without correspondences
Ruiters et al. Heightfield and spatially varying BRDF reconstruction for materials with interreflections
Recker et al. Hybrid Photogrammetry Structure-from-Motion Systems for Scene Measurement and Analysis
Miao et al. Intensity-based 3d-2d mesh-to-image registration using mesh-based digitally reconstructed radiography
JP2011149952A (ja) モデル入力装置およびモデル生成システム
Zhang A structured light based 3d reconstruction using combined circular phase shifting patterns
Saini (SI10-124) Inverse Reconstruction Methodologies: A Review