ES2782075T3 - Detección de un objeto móvil al escanear en 3D un objeto rígido - Google Patents

Detección de un objeto móvil al escanear en 3D un objeto rígido Download PDF

Info

Publication number
ES2782075T3
ES2782075T3 ES18178676T ES18178676T ES2782075T3 ES 2782075 T3 ES2782075 T3 ES 2782075T3 ES 18178676 T ES18178676 T ES 18178676T ES 18178676 T ES18178676 T ES 18178676T ES 2782075 T3 ES2782075 T3 ES 2782075T3
Authority
ES
Spain
Prior art keywords
representation
volume
scanner
scan
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18178676T
Other languages
English (en)
Other versions
ES2782075T5 (es
Inventor
Rune Fisker
Michael Vinther
Henrik Öjelund
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3Shape AS
Original Assignee
3Shape AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3Shape AS filed Critical 3Shape AS
Application granted granted Critical
Publication of ES2782075T3 publication Critical patent/ES2782075T3/es
Publication of ES2782075T5 publication Critical patent/ES2782075T5/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

Un método implementado por ordenador para detectar un objeto móvil en una ubicación, al escanear un objeto rígido en la ubicación por medio de un escáner 3D de mano para generar un modelo 3D virtual del objeto rígido basado en las superficies escaneadas del objeto rígido, donde el método comprende: - proporcionar una primera superficie mediante el escaneo del objeto rígido; - determinar un primer volumen de escaneo relacionado con la primera superficie; - proporcionar una segunda superficie mediante el escaneo del objeto rígido; - determinar un segundo volumen de escaneo relacionado con la segunda superficie; donde el primer volumen de escaneo y el segundo volumen de escaneo se superponen en un volumen de escaneo común superpuesto; - determinar si al menos una parte de la primera superficie y una parte de la segunda superficie no son coincidentes en el volumen de escaneo común superpuesto, y si no son coincidentes entonces ignorar en la generación dicho modelo 3D virtual, la parte de, bien la primera superficie o de la segunda superficie en el volumen de escaneo común superpuesto que está más cercano a la óptica de enfoque del escáner 3D, ya que se ha determinado que esta parte de la primera superficie o de la segunda superficie representa un objeto móvil que no es parte del objeto rígido.

Description

DESCRIPCIÓN
Detección de un objeto móvil al escanear en 3D un objeto rígido
Campo de la invención
Esta invención se relaciona de manera general con un método para detectar un objeto móvil en una ubicación, al escanear un objeto rígido en la ubicación por medio de un escáner 3D para generar un modelo 3D virtual del objeto rígido. Más particularmente, la invención se relaciona al escaneo de una dentadura de un paciente en la boca del paciente por medio de un escáner de mano.
Antecedentes de la invención
En la odontología tradicional, el dentista hace una impresión dental de los dientes del paciente, cuando el paciente necesita una corona, un puente, una dentadura, una extracción, un tratamiento de ortodoncia etc. La impresión es llevada a cabo mediante la colocación de un material líquido viscoso dentro de la boca, normalmente en una bandeja de impresión dental. El material, normalmente un alginato, entonces se fija para convertirse en un sólido elástico, y, cuando se extrae de la boca, proporciona una reproducción detallada y estable de los dientes. Cuando se hace la impresión, se disponen los retractores de la mejilla en la boca del paciente para evitar que las suaves mejillas móviles afecten a la impresión de los dientes.
Hoy en día el escaneo 3D directo de los dientes del paciente se puede obtener usando un escáner 3D de mano intra oral en lugar de hacer una impresión dental física.
Al escanear un objeto rígido en una ubicación para obtener un modelo en 3D virtual del objeto rígido, tal como escanear los dientes en la boca de un paciente por medio de un escáner de mano, puede ocurrir que los objetos móviles tales como las mejillas del paciente, la lengua, o los instrumentos o los dedos del dentista sean capturados en los sub escaneos, ya que estos objetos móviles se ubican por ejemplo entre la superficie de los dientes y del escáner, por lo cual el objeto móvil obstruye la vista de los dientes para el escáner. Ya que los objetos móviles son móviles normalmente se moverán, y por lo tanto es probable que el objeto móvil sea capturado sólo en uno o varios sub escaneos. Ya que normalmente se realizan un número de sub escaneos para obtener un modelo virtual en 3D, es probable que se realicen también sub escaneos de la misma parte del objeto rígido pero sin el objeto móvil que obstruye el objeto rígido. Normalmente los objetos móviles se moverán o serán movidos muy rápido, ya que tanto el paciente sabe que su lengua no debería tocar o estar cerca de los dientes cuando sus dientes son escaneados como el dentista sabe que sus instrumentos no debería obstruir el acceso visual a los dientes. Por lo tanto el objeto móvil normalmente sólo obstruirá el acceso visual a los dientes durante un muy breve periodo de tiempo, y esto significa que el objeto móvil normalmente será capturado en uno o unos pocos sub escaneos. Además, si el dentista se da cuenta de que el objeto móvil estaba presente cuando escaneó una parte de los dientes, puede volver a escanear la misma parte de los dientes en la que estuvo antes el objeto móvil, y así en la mayoría de los casos, serán sub escaneos también en los que el objeto móvil no esté presente. El problema es entonces diferenciar entre la superficie del objeto móvil y la superficie del objeto rígido, de manera tal que sólo las superficies originarias del objeto rígido se usan al generar el modelo virtual en 3D.
En la técnica anterior se usan los datos de geometría y color para distinguir entre un primer y un segundo tejido, tales como un tejido duro como los dientes y tejidos suaves como las encías, la lengua, las mejillas, y los labios. El documento EP1607041B describe un método para proporcionar datos útiles en los procedimientos asociados con la cavidad oral caracterizado por comprender: proporcionar al menos dos entidades numéricas (I1, I2, ...,In), cada una de dichas entidades numéricas representativa de la geometría de la superficie tridimensional y del color de al menos parte de la cavidad intra oral en donde dichas entidades numéricas comprenden los datos de la geometría de la superficie y del color asociados con dicha parte de la cavidad intra oral; en donde al menos una parte de dichas entidades (I1, I2 , ...,In) comprende los datos de superposición espacial, que comprende:
• (a) para cada entidad que proporciona al menos una sub entidad (IS’1, IS’2 , ... IS’n) que comprende un conjunto de datos de un primer tejido que comprenden los datos de la geometría de la superficie y del color, en donde dichos datos del color del mismo se correlacionan con el color representativo de un primer tejido; y
• (b) unir dichos conjuntos de datos de un primer tejido en base a registrar las partes de dichos conjuntos de datos que comprenden dichos datos espaciales superpuestos (I1, I2 , ...,In) y
• manipular dicha entidad para proporcionar los datos deseados de la misma.
Además, en el procesamiento de imagen se usa un método llamado grabado espacial para construir un modelo en 3D.
El artículo “Un Método para el Registro de Formas en 3-D” por Best y McKay IEEE Transacciones de Análisis de Patrones e Inteligencia de Máquina, vol. 14, n° 2, Febrero 1992 describe un método para el registro preciso y computacionalmente eficiente de formas 3-D.
El artículo “Pruebas de precisión de una nueva cámara 3D intra oral” por Mehl et al., Diario Internacional de Odontología Computarizada, Quintessence, New Malden, GB, vol. 12, n° 1, 1 de Enero de 2009 describe una cámara intra oral y reporta en un estudio que investiga la precisión de esta cámara y sus indicaciones clínicas potenciales. Se tomaron imágenes de un único diente y cuadrante con la cámara y los resultados comparados con los obtenidos con un escáner de referencia y con el modelo de cámara en 3D anterior. Las diferencias fueron analizadas mediante la superposición de los registros de datos. La precisión fue mayor con la nueva cámara que con el modelo anterior, alcanzando hasta 19 gm en imágenes de un único diente. Las imágenes de cuadrantes se pueden tomar también con una precisión suficiente (ca 35 gm) y son simples de tomar en la práctica clínica, gracias a la detección de vibración en el modo de captura automático.
El artículo “Representación de Mosaicos 3D basados en Contenido para Video de Escenas 3D Dinámicas” por Zhigang Zhu et al., Taller de reconocimiento de imágenes y patrones aplicados., 2005. Actas 34°, Washington, DC, EE.UU. 19-21 de Octubre de 2005, Piscataway, NK, EE.UU, IEEE, 19 de Octubre de 2005 describe una representación en mosaico tridimensional (3D) basada en contenido para largas secuencias de video de escenas 3D e imágenes dinámicas capturadas por una cámara en una plataforma móvil. El movimiento de la 'cámara tiene una dirección dominante de movimiento, pero se permite un movimiento de 6 grados de libertad. En el primer paso, se generan un par de mosaicos estéreo de perspectiva paralela generalizada que capturan tanto el 3D como los aspectos dinámicos de la escena bajo la cobertura de la cámara. En el segundo paso, se aplica un algoritmo de coincidencia estéreo basada en segmentación para extraer la representación paramétrica del color, la estructura y el movimiento de los objetos dinámicos y/o 3D en escenas urbanas en las que existen muchas superficies planas. En base a estos resultados, se crea la representación en mosaico 3D basada en el contenido, que es una representación visual altamente comprimida para secuencias de video muy largas de escenas 3D dinámicas.
El artículo “Detección de Cambio en un Mundo 3-d” por Thomas Pollard et al., CVPR ’07. IEEE Conferencia sobre Visión Informática y Reconocimiento de Patrones; 18-23 de Junio de 2007; Minneapolis, MN, EE.UU, IEEE, Piscataway, NJ, EE.UU, 1 de Junio de 2007 describe la revisión del problema de detectar cambios en una escena 3-d a partir de una secuencia de imágenes, tomadas por cámaras con una postura conocida pero arbitraria. No se supone ningún conocimiento anterior del estado de la apariencia y la geometría normal de las superficies del objeto, y pueden producirse cambios anormales en cualquier imagen de la secuencia. El enfoque presentado en el artículo puede gestionar las complicaciones de las desconocidas y a veces cambiantes superficies del mundo manteniendo un modelo 3-d basado en vóxeles, donde las distribuciones de probabilidad para la ocupación de la superficie y la apariencia de la imagen se almacenan en cada vóxel. Las distribuciones de probabilidad en cada vóxel son actualizadas de manera continua según se reciben nuevas imágenes. La cuestión clave de la convergencia de este problema de estimación continua se resuelve mediante una prueba formal basada en suposiciones realísticas sobre la naturaleza de las escenas del mundo real. Se presentan una serie de experimentos que evalúan la precisión de la detección de cambio bajo condiciones controladas de laboratorio así como escenarios de reconocimiento aéreo.
El artículo “Registro de la superficie de forma libre usando firmas de la superficies” por Yamany SM et al., Visión por Ordenador, 1999. Actas de la Séptima Conferencia Internacional del IEEE en Kerkyra, Grecia 20-27 Sept. 1999, Los Alamitos, CA, EE.UU, Soc. Comput. IEEE de EE.UU., vol. 2, 20 Septiembre 1999 describe un esquema de representación de una superficie de forma libre con el propósito de un registro y una coincidencia rápida y precisa. El esquema de representación propuesto captura la información de curvatura de la superficie, vista desde ciertos puntos y produce imágenes, llamadas firmas de la superficie, en estos puntos. Las firmas de coincidencia en las diferentes superficies permiten la recuperación de los parámetros de transformación entre estas superficies. El artículo propone usar la coincidencia de plantillas para comparar las imágenes de la firma. Para permitir la coincidencia parcial, se usa otro criterio, la relación de superposición. Este esquema de representación se puede usar como una representación global así como una local de la superficie y realiza un registro cercano a en tiempo real. El artículo muestra que la representación de la firma se puede usar para hacer coincidir objetos en escenas 3D en presencia de desorden y oclusión. Las solicitudes presentadas incluyen coincidencias de objetos de forma libre, el registro de volúmenes médicos multimodales y la reconstrucción dental a partir de imágenes intra orales.
El artículo “Un análisis comparativo de los escáneres digitales 3d intra orales para odontología restauradora” por Silvia Logozzo et al., El Diario de Internet de la Tecnología Médica, 1 de Enero de 2011 describe que se requiere el escaneo tridimensional de la boca en un gran número de procedimientos en odontología tales como la odontología restauradora y la ortodoncia. El artículo presenta dispositivos de escaneo intra orales para la odontología restauradora, incluyendo el escáner TRIOS de 3Shape. Los escáneres intra orales intentan afrontar los problemas y desventajas del proceso de fabricación por impresión tradicional y están dirigidos por varias tecnologías y principios ópticos sin contacto.
Algunas de las técnicas anteriores consideran el caso en el que algunos de los objetos en la ubicación son móviles. Sin embargo mantienen el problema de distinguir entre los objetos móviles y los objetos rígidos, cuando tanto los objetos móviles como los objetos rígidos están presentes en una ubicación, al escanear en la ubicación para obtener un modelo 3D virtual del objeto rígido.
Compendio
Se describe un método para detectar un objeto móvil en una ubicación, al escáner el objeto rígido en la ubicación por medio de un escáner 3D para generar un modelo 3D virtual del objeto rígido, en donde el método comprende:
- proporcionar una primera representación 3D de al menos parte de una superficie mediante el escaneo de al menos parte de la ubicación;
- proporcionar una segunda representación 3D de al menos parte de la superficie mediante el escaneo de al menos parte de la ubicación;
- determinar para la primer representación 3D un primer volumen excluido en el espacio donde no puede haber presente ninguna superficie;
- determinar para la segunda representación 3D un segundo volumen excluido en el espacio donde no puede haber presente ninguna superficie;
- si una parte de la superficie en la primera representación 3D se ubica en el espacio en el segundo volumen excluido, la parte de la superficie en la primera representación 3D se ignora en la generación del modelo 3D virtual, y/o
- si una parte de la superficie en la segunda representación 3D se ubica en el espacio en el primer volumen excluido, la parte de la superficie en la segunda representación 3D se ignora en la generación del modelo 3D virtual.
Por consiguiente, es una ventaja ignorar una parte de la superficie de una representación si la parte de la superficie está ubicada en el espacio en el volumen excluido de otra representación, ya que la parte de la superficie detectada en el volumen excluido representa un objeto móvil que no es parte del objeto rígido.
Por tanto es una ventaja que el método proporcione la determinación de si una parte de la superficie detectada es un punto en el espacio en el que no debería haber superficie, detectando el espacio de la parte de la superficie en tanto una primer representación como en la segunda representación. Si la parte de la superficie está presente sólo en una de las representaciones y las representaciones cubren el mismo espacio de la parte de la superficie, entonces la parte de la superficie debe representar un objeto que estaba presente sólo cuando se adquirió una de las representaciones, y por lo tanto la parte de la superficie debe originarse desde un objeto móvil, que se ha movido durante la obtención de las dos representaciones.
Al escanear una superficie, entonces todo el espacio que no está ocupado por la superficie, se puede definir como espacio vacío, y si en un escaneo posterior, se detecta una superficie en el espacio vacío, entonces se ignora esa superficie.
Igualmente, si en un escaneo posterior, una región de volumen se ve que está vacía, pero que la región de volumen fue cubierta por una superficie en un escaneo anterior, entonces la superficie se ignora del modelo virtual 3D.
Por ignorar se entiende como no tener en cuenta, así como eliminar o no añadir, al generar el modelo virtual 3D. Si una parte de la superficie se ha añadido ya al modelo virtual 3D a partir de la primera representación, se puede eliminar de ésta de nuevo si se encuentra que la parte de la superficie está en el segundo volumen excluido. Si se encuentra que una parte de la superficie de la segunda representación está en el primer volumen excluido, la parte de la superficie no se añade al modelo 3D virtual.
Si una región de volumen en una representación o sub escaneo está vacía entonces se excluye de añadirse a las nuevas superficies incluso aunque una representación o sub escaneo posterior muestre que hay presente una superficie en las regiones de volumen. Si una representación o sub escaneo posterior muestra que el volumen está vacío entonces se elimina la superficie en ese volumen de un sub escaneo anterior del modelo 3D.
Se puede definir un volumen de escaneo común, que es el volumen en el espacio donde se superponen el primer volumen de escaneo y el segundo volumen de escaneo. Por tanto éste puede ser definido como el volumen en el espacio, donde todas las unidades de volumen están contenidas en tanto el primer volumen de escaneo como en el segundo volumen de escaneo.
Si una parte de la superficie en la primera representación 3D no se ubica en el espacio en el segundo volumen excluido, y/o si una parte de la superficie en la segunda representación 3D no se ubica en el espacio en el primer volumen excluido, no se ignoran aún ninguna parte de la superficie, y el escaneo puede continuar proporcionando una tercera representación, una cuarta representación etc.
Normalmente al escanear un objeto, tal como una dentadura, se pueden proporcionar más representaciones o sub escaneos, tales como 10, 20, 30, 40, 50, 60, 70, 80, 90, 100, 200, 300, 400, 500, 600, 700, 800, 900, 1000, 2000, 3000, 4000, 5000, 6000, 7000, 8000, 9000, 10000 etc durante un proceso de escaneo completo.
En algunas realizaciones el objeto rígido es una dentadura de un paciente, y la ubicación es la boca del paciente. En algunas realizaciones el objeto móvil es una parte de tejido blando de la boca del paciente, tal como el interior de una mejilla, la lengua, los labios, las encías y/o el tejido gingival.
En algunas realizaciones el objeto móvil es un instrumento o recurso del dentista que está temporalmente presente en la boca del paciente, tal como un dispositivo de succión dental, rollos de algodón, y/o almohadillas de algodón. En algunas realizaciones el objeto móvil es un dedo, tal como el dedo del dentista o el dedo del ayudante del dentista.
En algunas realizaciones el escáner 3D es un escáner configurado para adquirir escaneos de la superficie de un objeto para generar un modelo 3D virtual del objeto.
En algunas realizaciones al menos parte de la superficie capturada en la primera representación y al menos parte de la superficie capturada en la segunda representación se superponen en la misma parte de la superficie en el objeto rígido.
En algunas realizaciones la primera representación de al menos parte de la superficie se define como la primera representación de al menos una primera parte de la superficie, y la segunda representación de al menos parte de la superficie se define como la segunda representación de al menos una segunda parte de la superficie.
La primera parte de la superficie y la segunda parte de la superficie pueden ser dos partes diferentes, o pueden ser la misma parte, o pueden ser parcialmente la misma parte.
En algunas realizaciones la primera parte de la superficie y la segunda parte de la superficie se superponen al menos de manera parcial.
En algunas realizaciones la superficie es una superficie en la ubicación.
En algunas realizaciones la superficie es al menos parte de la superficie del objeto rígido y/o al menos parte de la superficie del objeto móvil.
El propósito de escanear es adquirir un modelo 3D virtual del objeto rígido, por ejemplo un diente, pero si existe un objeto móvil en la ubicación, por ejemplo la boca del paciente, al escanear, entonces el objeto móvil puede ser capturado también en algunos de los sub escaneos.
En algunas realizaciones el método comprende determinar un primer volumen de escaneo en el espacio relacionado con la primera representación de al menos parte de la superficie, y determinar un segundo volumen de escaneo en el espacio relacionado con la representación de al menos parte de la superficie.
El volumen de escaneo puede ser el volumen en el espacio que se ubica en frente de la superficie capturada en relación al escáner.
En algunas realizaciones el volumen de escaneo es definido mediante la óptica de enfoque en el escáner 3D y la distancia a la superficie que se captura.
El volumen de escaneo se puede definir como el volumen físico al que se adapta el escáner para escanear en relación a la posición de vista y a la orientación de del escáner, tal como en relación a la cabeza de escaneo del escáner.
Además, el escáner comprende una cabeza de escaneo, y el volumen de escaneo se puede definir como la distancia en el espacio entre la superficie y la cabeza de escaneo por el área de abertura de la cabeza de escaneo. La cabeza de escaneo puede comprender la óptica de enfoque del escáner.
En lugar del área de la abertura de la cabeza de escaneo, se puede considerar el área de la superficie proyectada en la dirección óptica.
En algunas realizaciones el primer volumen de escaneo relacionado con la primera representación de al menos parte de la superficie es el volumen en el espacio entre la óptica de enfoque del escáner 3D y la superficie capturada en la primera representación; y el segundo volumen de escaneo en relación a la segunda representación de al menos parte de la superficie es el volumen en el espacio entre la óptica de enfoque del escáner 3D y la superficie capturada en la segunda representación.
En algunas realizaciones si no se captura ninguna superficie en al menos parte de la primera o la segunda representación, entonces el primer o el segundo volumen de escaneo es el volumen en el espacio entre la óptica de enfoque del escáner 3D y la extensión longitudinal del volumen de escaneo.
En algunas realizaciones el primer volumen excluido y el segundo volumen excluido en el espacio donde no puede haber presente ninguna superficie corresponde al primer volumen de escaneo y el segundo volumen de escaneo, respectivamente.
El espacio entre la óptica de enfoque del escáner 3D y la superficie capturada debe ser un espacio vacío, a menos que un objeto transparente, que no es detectable por el escáner 3D, se ubique en el volumen de escaneo.
El volumen de escaneo se puede definir como el volumen máximo que se puede escanear, por ejemplo el volumen máximo de luz que se puede transmitir desde la cabeza de escaneo. En este caso, el volumen excluido sólo correspondería al volumen de escaneo, si la superficie capturada se ubica en el extremo o el borde del volumen de escaneo. Pero en muchos casos el volumen excluido sería menor que el volumen de escaneo, si la definición del volumen excluido fuera el volumen máximo.
En algunas realizaciones el volumen del escáner 3D en sí se define como un volumen excluido.
En algunas realizaciones el volumen del escáner 3D en sí está comprendido en el primer volumen excluido y el segundo volumen excluido.
En algunas realizaciones se define una distancia de umbral cercano, que determina una distancia a partir de la superficie capturada en la primera representación y la segunda representación, donde no se ignora una parte de la superficie en la segunda representación o la primera representación, respectivamente, que se ubica dentro de la distancia de umbral cercano a partir de la superficie capturada y que se ubica en el espacio en el primer volumen excluido o en el segundo volumen excluido, respectivamente, en la generación del modelo 3D virtual.
El umbral cercano define cómo de lejos de la representación o la superficie en un sub escaneo posiblemente se ignoran los objetos móviles en la generación del modelo 3D virtual. La distancia de umbral cercano se define para evitar que se ignore demasiado de una representación de una superficie de manera incorrecta, ya que puede haber ruido en la representación y ya que el registro/alineamiento entre las representaciones o los sub escaneos puede no ser completamente preciso. Debido a los diferentes niveles de ruido en los diferentes sub escaneos o debido al registro/alineamiento impreciso de los sub escaneos, dos sub escaneos de la misma superficie pueden parecer de manera incorrecta dos superficies diferentes.
La distancia de umbral cercano puede ser tal como 0,01 mm, 0,05 mm, 0,09 mm, 0,10 mm, 0,15 mm, 0,20 mm etc. En algunas realizaciones se define una distancia de umbral lejano, que determina una distancia desde la superficie capturada, donde el volumen fuera de la distancia de umbral lejano no se incluye en el volumen excluido de una representación.
Por tanto el volumen fuera de la distancia de umbral lejano no se incluye en el primer volumen excluido de la primera representación 3D, y el volumen fuera de la distancia de umbral lejano no se incluye en el segundo volumen excluido de la segunda representación 3D.
Según esta realización cualquier dato o superficie o puntos de la superficie adquiridos de la primera o de la segunda representación, que esté o estén presentes o ubicados fuera de la distancia de umbral lejano, no se usan para determinar o definir el primer o el segundo volumen excluido, respectivamente.
Es una ventaja ya que una superficie o unos puntos de la superficie de un objeto móvil o de otra parte de la superficie del diente pueden estar presentes de hecho fuera de la distancia de umbral lejano sin ser detectados por el escáner, debido a la geometría y las propiedades ópticas del escáner. Los rayos de luz desde la cabeza del escáner se pueden transmitir en cualquier dirección y con cualquier ángulo o inclinación desde un plano normal de la cabeza del escáner, y por lo tanto se puede transmitir un rayo de luz desde la cabeza del escáner a un punto que esté ubicado detrás del objeto móvil u otra parte de la superficie del diente, cuando el objeto móvil o la otra parte de la superficie del diente esté presente de manera parcial en frente de la cabeza del escáner.
Por tanto el volumen fuera de la distancia de umbral lejano no se incluye en el volumen excluido, ya que en el volumen fuera de la distancia de umbral lejano puede haber presente una superficie incluso aunque ninguna superficie sea detectada por el escáner.
La distancia de umbral lejano define o determina la distancia desde la superficie capturada, donde el volumen o la región dentro de la distancia de umbral lejano está incluida en el volumen excluido.
Por tanto si se utiliza o se aplica la distancia de umbral lejano, el volumen excluido para una representación será menor que si no se aplica la distancia de umbral lejano, y por lo tanto se puede excluir un volumen menor.
Sin embargo, la ventaja de aplicar una distancia de umbral lejano es que sólo los volúmenes que pueden ser verdaderamente excluidos, serán excluidos, lo que significa que los datos generales de escaneo tendrán una mayor calidad.
Por tanto incluso aunque ninguna superficie o puntos de la superficie hayan sido detectados en un volumen o una región entre el escáner y la superficie del diente, no se puede definir la región completa como volumen excluido, ya que los rayos de luz desde y hasta el escáner pueden viajar con ángulos inclinados en relación a la normal de la cabeza de escaneo, lo que significa que el escáner puede detectar un punto en la superficie del diente incluso aunque se coloque realmente otra parte del diente, al menos parcialmente, entre la superficie de diente detectada y el escáner. Por lo tanto se define una distancia de umbral lejano, y no se usa ningún dato fuera de esta distancia de umbral lejano desde la superficie del diente para definir el volumen excluido de una representación. Sólo los datos detectados dentro de la distancia de umbral lejano se usan para definir el volumen excluido, ya que sólo dentro de esta distancia se puede estar seguro de que los datos detectados corresponden realmente a la situación física real. El escáner puede detectar que ninguna superficie está presente en el volumen o la región fuera de la distancia de umbral lejano entre la superficie del diente y el escáner, pero estos datos o información no se pueden usar para definir el volumen excluido de la representación, ya que puede haber realmente un objeto móvil u otra parte de la superficie del diente en esta región o volumen que el escáner pasa por alto debido a sus rayos de luz inclinados. Además, el escáner puede pasar por alto una parte de la superficie incluso aunque la parte de la superficie esté en el volumen de escaneo. Esto puede estar debido a que la parte de la superficie está fuera de la región de enfoque del escáner, por ejemplo si la parte de la superficie está demasiado cerca a la abertura de la cabeza del escáner y/o el cuerpo del escáner, ya que la región de enfoque puede comenzar a cierta distancia de la cabeza del escáner y/o del cuerpo del escáner. De manera alternativa y/o adicional esto puede estar debido a las condiciones de iluminación, que pueden no ser las óptimas para el material dado de la superficie, superficie la cual no está apropiadamente iluminada y por tanto puede resultar invisible para el escáner. Por tanto en cualquier caso el escáner puede pasar por alto o mirar a través de la parte de la superficie. Por la presente se puede excluir de manera errónea un volumen en el espacio, ya que el escáner detecta que no hay presente ninguna superficie, y por lo tanto se ignoraría una parte de la superficie capturada en este volumen excluido en otra representación o escaneo 3D. Para evitar que esto ocurra, lo cual no sería favorable si la parte de la superficie fuera una superficie de diente real, la distancia de umbral lejano se puede definir, de manera tal que el volumen excluido sea menor, de manera tal que sólo el volumen que realmente pueda ser excluido se excluya.
Es una ventaja que los puntos de la superficie real de un diente no se ignoren erróneamente, de este modo se crean menos agujeros, esto es regiones sin datos de escaneo, en los escaneos. Por tanto el volumen excluido es reducido por medio de la distancia de umbral lejano para evitar que demasiada información de la superficie sea ignorada incorrectamente.
Los rayos de luz desde la cabeza del escáner pueden propagarse o esparcirse o dispersarse en cualquier dirección. Incluso si un objeto, tal como un objeto móvil, se dispone entre la cabeza de escaneo y la superficie de un objeto rígido, por ejemplo un diente, el escáner puede aún capturar un punto de la superficie sobre la superficie del diente que está presente u oculta “bajo” el objeto, debido a los rayos de luz en ángulo o inclinados. Un punto o área de la superficie puede tener sólo que ser visible para un o un pequeño número de rayos de luz desde y/o hasta el escáner para que el punto o área de la superficie sea detectada.
Ya que la distancia de umbral lejano determina la distancia desde la superficie capturada en una representación, en la que cualquier dato o superficie o puntos de la superficie adquiridos, que están presentes o ubicados fuera de la distancia de umbral lejano, no se usa para definir el volumen excluido de la representación, cualquier dato o superficie o puntos de la superficie en el volumen entre la distancia de umbral lejano y la cabeza de escaneo no están incluidos en la definición del volumen excluido.
La distancia real del umbral lejano puede depender o estar calculada en base a la óptica del escáner. La distancia de umbral lejano puede ser un número fijo, tal como aproximadamente 0,5 mm, 1 mm, 2 mm, 3 mm, 4 mm, 5 mm, 6 mm, 7 mm, 8 mm, 9 mm, 10 mm, 20 mm, 30 mm, 40 mm, 50 mm, 60 mm, 70 mm, 80 mm, 90 mm o 100 mm. De manera alternativa, la distancia de umbral lejano puede ser un porcentaje o una fracción de la longitud del volumen de escaneo, tal como aproximadamente el 20%, el 25%, el 30%, el 35%, el 40%, el 45%, o el 50% de la longitud del volumen de escaneo, o tal como el 1/2, 1/3, 1/4, 1/5 de la longitud del volumen de escaneo.
La distancia de umbral lejano puede estar basada en la determinación de cómo de lejos es posible escanear una distancia desde un punto detectado de la superficie, esto es cuánto de la superficie alrededor de un punto detectado es visible para el escáner. Si la distancia visible en una dirección desde el punto de la superficie es corta, entonces la distancia de umbral lejano será menor que si la distancia en todas las direcciones desde un punto de la superficie es larga.
En algunas realizaciones la primera representación de al menos parte de una superficie es un primer sub escaneo de al menos parte de la ubicación, y la segunda representación de al menos parte de la superficie es un segundo sub escaneo de al menos parte de la ubicación.
En algunas realizaciones la primera representación de al menos parte de una superficie es un modelo 3D virtual provisional que comprende los sub escaneos de la ubicación ya adquiridos, y la segunda representación de al menos parte de la superficie es un segundo sub escaneo de al menos parte de la ubicación.
En algunas realizaciones los sub escaneos adquiridos de la ubicación se adaptan para añadirse al modelo 3D virtual provisional de manera concurrente con la obtención de los sub escaneos.
En algunas realizaciones el modelo 3D virtual provisional es denominado modelo 3D virtual, cuando se finaliza el escaneo del objeto rígido.
En algunas realizaciones el método comprende:
- proporcionar una tercera representación 3D de al menos parte de una superficie escaneando al menos parte de la ubicación;
- determinar para la tercera representación 3D un tercer volumen excluido en el espacio donde no puede haber presente ninguna superficie;
- si una parte de la superficie en la primera representación 3D se ubica en el espacio en el tercer volumen excluido, se ignora la parte de la superficie en la primera representación 3D en la generación del modelo 3D virtual, y/o
- si una parte de la superficie en la segunda representación 3D se ubica en el espacio en el tercer volumen excluido, se ignora la parte de la superficie en la segunda representación 3D en la generación del modelo 3D virtual, y/o
- si una parte de la superficie en la tercera representación 3D se ubica en el espacio en el primer volumen excluido y/o en el segundo volumen excluido, se ignora la parte de la superficie en la tercera representación 3D en la generación del modelo 3D virtual.
En algunas realizaciones el modelo 3D virtual provisional comprende la primera representación de al menos parte de la superficie y la segunda representación de al menos parte de la superficie, y donde la tercera representación de al menos parte de la superficie se añade al modelo 3D virtual provisional.
Por tanto la primera representación obtenida temporalmente, que no es necesariamente la primera representación, y la segunda representación obtenida temporalmente, que no es necesariamente la segunda representación, se pueden combinar para crear el modelo 3D virtual provisional, y cada vez que se obtenga o proporcione una nueva representación la nueva representación se puede añadir al modelo 3D virtual provisional, a través de lo cual el modelo 3D virtual provisional crece con cada representación añadida.
En algunas realizaciones el modelo 3D virtual se usa para diseñar de manera virtual una restauración para uno o más de los dientes del paciente.
Por tanto el propósito del escaneo es obtener un modelo 3D virtual de los dientes del paciente. Si el paciente debe hacerse una restauración, por ejemplo una corona, un puente, una dentadura, una extracción parcial etc., la restauración se puede diseñar de manera digital o virtual sobre o en relación al modelo virtual 3D.
En algunas realizaciones el modelo 3D virtual se usa para planificar y diseñar de manera virtual un tratamiento de ortodoncia para el paciente.
En algunas realizaciones se determina el movimiento relativo del escáner y el objeto rígido.
En algunas realizaciones se determina el movimiento relativo del escáner y el objeto rígido mediante sensores de movimiento.
Si el escáner usado para obtener los sub escaneos es un escáner de mano, entonces la posición, orientación o movimiento relativo del escáner y del objeto que se escanea debe ser conocido. La posición, orientación o movimiento relativo del escáner pueden ser determinados por medio de los sensores de posición, orientación y/o movimiento. Sin embargo, si estos sensores no son suficientemente precisos para tal propósito, la posición relativa precisa del escáner y del objeto puede ser determinada mediante la comparación de las superficies 3D obtenidas en los sub escaneos, así como por medio del registro/alineamiento.
Un sensor de movimiento es un dispositivo que puede realizar la medición del movimiento, tal como un acelerómetro. Además el sensor de movimiento se puede definir como un dispositivo que funciona como un sensor de posición y orientación también.
Un sensor de posición es un dispositivo que permite la medición de la posición. Puede ser un sensor de posición absoluta o un sensor de posición relativa, también denotado como sensor de desplazamiento. Los sensores de posición pueden ser lineales o angulares.
Un sensor de orientación de un dispositivo que puede realizar la medición de la orientación, tal como un giroscopio. En algunas realizaciones el movimiento relativo del escáner y del objeto rígido está determinado mediante el registro/alineamiento de la primera representación y de la segunda representación.
En algunas realizaciones la primera representación y la segunda representación se alinean/registran antes de que se determine el primer volumen excluido y el segundo volumen excluido.
Por tanto después de que se proporcione la primera y la segunda representación, pueden estar alineadas/registradas, y después de esto, el primer y el segundo volumen excluido se puede determinar, y entonces se detecta si una parte de la superficie en la primer representación 3D o en la segunda representación 3D se ubica en el espacio en el segundo volumen excluido o en el primer volumen excluido, respectivamente, de manera tal que dicha parte de la superficie en la representación se ignora en la generación del modelo 3D virtual.
El alineamiento o el registro puede comprender traer las representaciones o los sub escaneos 3D juntos en un sistema de referencia común, y después mezclarlos para crear el modelo 3D virtual o un modelo 3D virtual provisional. Para cada representación o sub escaneo que esté alineado/registrado con el modelo 3D virtual, el modelo crece y finalmente resulta en el modelo 3D virtual del objeto.
En algunas realizaciones el movimiento relativo del escáner y del objeto rígido determinado por medio de los sensores de movimiento se verifica y potencialmente se ajusta mediante el registro/alineamiento de la primera representación y de la segunda representación.
En algunas realizaciones los sensores de movimiento se usan para una determinación inicial del movimiento relativo del escáner y del objeto rígido, y donde el registro/alineamiento se usa para la determinación final del movimiento relativo del escáner y del objeto rígido.
Por tanto en la práctica los sensores de movimiento se pueden usar como una primera aproximación del movimiento, y en base a este alineamiento/registro se pueden usar para probar el movimiento determinado y/o para la determinación del movimiento preciso o para ajustar el movimiento determinado.
En algunas realizaciones el sistema óptico del escáner es telecéntrico.
Un sistema telecéntrico es un sistema óptico que proporciona imágenes de tal manera que los rayos principales son paralelos al eje óptico de dicho sistema óptico. En un sistema telecéntrico los puntos fuera del enfoque tienen sustancialmente la misma magnificación que los puntos dentro del enfoque. Esto puede proporcionar una ventaja en el procesamiento de los datos. Un sistema óptico perfectamente telecéntrico puede ser difícil de lograr, sin embargo se puede proporcionar un sistema óptico que sea sustancialmente telecéntrico o cercano a telecéntrico mediante un diseño óptico cuidadoso. Por tanto, al referirnos a un sistema óptico telecéntrico se ha de entender que sólo puede ser cercano a telecéntrico.
Ya que los rayos principales en un sistema óptico telecéntrico son paralelos al eje óptico, el volumen de escaneo resulta rectangular o cilíndrico.
En algunas realizaciones el sistema óptico del escáner es en perspectiva. Si el sistema óptico es un sistema en perspectiva, los rayos principales están en ángulo en relación al eje óptico, y el volumen de escaneo por tanto resulta con forma de cono. Observe que el volumen de escaneo es normalmente una forma 3D.
En algunas realizaciones un espejo en la cabeza de escaneo del escáner consigue que los rayos de luz desde la fuente de luz en el escáner se transmitan con un ángulo en relación a la abertura de la cabeza de escaneo.
El volumen de escaneo se puede definir no como rectangular sino más bien como un paralelogramo.
La luz reflejada de vuelta desde un punto en la superficie se puede proyectar como rayos que forman un cono o como rayos paralelos.
En algunas realizaciones el escáner 3D es un escáner de mano.
El escáner 3D puede ser por ejemplo un escáner intra oral de mano.
En algunas realizaciones el escáner es un escáner estenopeico.
Un escáner estenopeico comprende una cámara estenopeica que tiene una única pequeña abertura. El tamaño de la abertura puede ser tal que la 1/100 o menos de la distancia entre ésta y la imagen proyectada. Además, el tamaño del agujero puede ser determinado mediante la fórmula d=2V(2fA), donde d es el diámetro del agujero, f es la longitud focal, esto es la distancia desde el agujero al plano de la imagen, y A es la longitud de onda de la luz.
Es una ventaja usar el presente método para detectar un objeto móvil en una ubicación en un escáner estenopeico, ya que determinar el primer volumen excluido y el segundo volumen excluido es muy rápido, fácil y preciso debido a la configuración estenopeica, donde la cámara y la fuente de luz/patrón proyectado, respectivamente, del escáner están bien definidos en relación a la superficie capturada.
Además, si el escáner es un escáner estenopeico, el volumen excluido puede ser mayor, comparado a si el escáner no es un escáner estenopeico. La razón para esto es porque no se puede o no se debería definir ninguna distancia de umbral lejano al usar un escáner estenopeico, ya que no se debería incluir ningún volumen entre el escáner y la superficie capturada del diente en el volumen excluido debido a la geometría y las propiedades ópticas del escáner. El escáner estenopeico no puede pasar por alto una superficie o unos puntos de la superficie de por ejemplo un objeto móvil debido a su geometría y propiedades ópticas.
En algunas realizaciones el escáner comprende una abertura, y el tamaño de la abertura es menor que 1/100 de la distancia entre ésta y la imagen proyectada.
El tamaño de la abertura corresponde a un escáner estenopeico.
En algunas realizaciones el escáner comprende una abertura, y el tamaño de la abertura es mayor que 1/100 de la distancia entre ésta y la imagen proyectada.
El tamaño de la abertura corresponde a un escáner que no es un escáner estenopeico.
Aspectos adicionales
Según otro aspecto de la invención, se describe un método para detectar objetos móviles en la boca de un paciente, al escanear la dentadura del paciente en la boca por medio de un escáner 3D para generar un modelo 3D virtual de la dentadura, en donde el método comprende:
- proporcionar una primera representación 3D de al menos parte de una superficie escaneando al menos parte de los dientes;
- proporcionar una segunda representación 3D de al menos parte de la superficie escaneando al menos parte de los dientes;
- determinar para la primera representación 3D un primer volumen excluido en el espacio donde no puede haber presente ninguna superficie;;
- determinar para la segunda representación 3D un segundo volumen excluido en el espacio donde no puede haber presente ninguna superficie;
- si una parte de la superficie en la primera representación 3D se ubica en el espacio en el segundo volumen excluido, la parte de la superficie en la primera representación se ignora en la generación del modelo 3D virtual, y/o
- si una parte de la superficie en la segunda representación 3D se ubica en el espacio en el primer volumen excluido, la parte de la superficie en la segunda representación se ignora en la generación del modelo 3D virtual.
Según otro aspecto de la invención, se describe un método para detectar objetos móviles en una ubicación, al escanear objetos rígidos en la ubicación por medio de un escáner 3D para generar un modelo 3D virtual del objeto rígido, en donde el método comprende:
- proporcionar una primera representación de al menos parte de una superficie mediante el escaneo del objeto rígido;
- determinar un primer volumen de escaneo en el espacio relacionado con la primera representación de al menos parte de la superficie;
- proporcionar una segunda representación de al menos parte de la superficie mediante el escaneo del objeto rígido;
- determinar un segundo volumen de escaneo en el espacio relacionado con la segunda representación de al menos parte de la superficie;
- si hay un volumen de escaneo común, donde el primer volumen de escaneo y el segundo volumen de escaneo se superpongan, entonces:
- determinar si hay una región de volumen en el volumen de escaneo común que esté vacía en al menos una de entre la primera representación o la segunda representación y no comprenda ninguna superficie; y
- si hay una región de volumen en el volumen de escaneo común que esté vacía en al menos una de entre la primera representación o la segunda representación y no comprenda ninguna superficie, entonces excluir la región de volumen ignorando en la generación del modelo 3D virtual cualquier parte de la superficie en la segunda representación o en la primera representación, respectivamente, que se detecta en la región de volumen excluida, ya que la parte de la superficie detectada en la región de volumen excluida representa un objeto móvil que no es parte del objeto rígido.
Según otro aspecto de la invención, se describe un método para detectar un objeto móvil en una ubicación, al escanear un objeto rígido en la ubicación por medio de un escáner 3D para generar un modelo 3D virtual del objeto rígido, en donde el método comprende:
- proporcionar una primera superficie escaneando el objeto rígido;
- determinar un primer volumen de escaneo relacionado con la primera superficie;
- proporcionar una segunda superficie escaneando el objeto rígido;
- determinar un segundo volumen de escaneo relacionado con la segunda superficie;
donde el primer volumen de escaneo y el segundo volumen se superponen en un volumen de escaneo superpuesto/común;
- si al menos una parte de la primera superficie y una parte de la segunda superficie no son coincidentes en el volumen de escaneo superpuesto/común, entonces ignorar la parte de bien la primera superficie o de la segunda superficie en el volumen de escaneo superpuesto/común que está más cercano a la óptica de enfoque del escáner 3D, ya que esta parte de la primera superficie o de la segunda superficie representa el objeto móvil que no es parte del objeto rígido.
Según otro aspecto de la invención, se describe un método para detectar un objeto móvil en la boca de un paciente, al escanear la dentadura del paciente por medio de un escáner 3D para generar un modelo 3D virtual de la dentadura, en donde el método comprende:
- proporcionar una primera superficie escaneando la dentadura;
- determinar un primer volumen de escaneo relacionado con la primera superficie;
- proporcionar una segunda superficie escaneando la dentadura;
- determinar un segundo volumen de escaneo relacionado con la segunda superficie;
donde el primer volumen de escaneo y el segundo volumen se superponen en un volumen de escaneo superpuesto/común;
- si al menos una parte de la primera superficie y una parte de la segunda superficie no son coincidentes en el volumen de escaneo superpuesto/común, entonces ignorar la parte de bien la primera superficie o la segunda superficie en el volumen de escaneo superpuesto/común que está más cercano a la óptica de enfoque del escáner 3D, ya que esta parte de la primera superficie o de la segunda superficie representa el objeto móvil que no es parte de la dentadura.
Según otro aspecto de la invención, se describe un método para detectar objetos móviles registrados en los sub escaneos, al escanear una dentadura por medio de un escáner para generar un modelo 3D virtual de la dentadura, donde el modelo 3D virtual está hecho de los sub escaneos ya obtenidos de la superficie de la dentadura, y en donde los nuevos sub escaneos se adaptan para ser añadidos al modelo virtual 3D, cuando se obtengan, en donde el método comprende:
- obtener al menos un primer sub escaneo de al menos una primera superficie de parte de la dentadura, donde el al menos primer escaneo se define como el modelo virtual 3D;
- obtener un primer sub escaneo de una primera superficie de parte de la dentadura;
- determinar un primer volumen de escaneo del primer sub escaneo;
- determinar un volumen de escaneo del modelo 3D virtual;
- si el primer volumen de escaneo del primer sub escaneo y el volumen de escaneo del modelo 3D virtual están al menos de manera parcial superpuestos en un volumen de escaneo común; entonces:
- calcular si al menos parte de la primera superficie está dentro del volumen de escaneo común; - calcular si al menos una parte de la superficie del modelo 3D virtual está dentro del volumen de escaneo común y
- determinar si al menos una parte de una superficie está presente en el volumen superpuesto sólo en un sub escaneo y no en el otro sub escaneo/modelo virtual 3D;
- si al menos una parte de una superficie está presente en sólo un sub escaneo, entonces ignorar la parte de la superficie en el volumen superpuesto que es más cercano a la óptica de enfoque del escáner, ya que la parte de la superficie representa un objeto móvil que no es parte de la dentadura, y la parte de la superficie se ignora en la creación del modelo 3D virtual de la dentadura.
Según otro aspecto de la invención, se describe un método para detectar objetos móviles registrados en sub escaneos, al escanear una dentadura por medio de un escáner para generar un modelo 3D virtual de la dentadura, en donde el método comprende:
(a) proporcionar un primer sub escaneo de una primera superficie de parte de la dentadura;
(b) calcular un primer volumen de escaneo del primer sub escaneo;
(c) proporcionar un segundo sub escaneo de una segunda superficie de parte de la dentadura;
(d) calcular un segundo volumen de escaneo del segundo sub escaneo; y
(e) si el primer volumen de escaneo y el segundo volumen de escaneo se superponen al menos de manera parcial en un volumen de escaneo común; entonces:
(f) calcular si al menos una parte de la primera superficie está dentro del volumen de escaneo común; (g) calcular si al menos una parte de la segunda superficie está dentro del volumen de escaneo común, y
(h) si al menos una parte de la primera superficie o al menos una parte de la segunda superficie está dentro del volumen de escaneo común, y la parte de la primera superficie o la parte de la segunda superficie se ubica en el espacio entre el escáner y al menos una parte de la segunda superficie o al menos una parte de la primera superficie, respectivamente;
entonces la parte de la superficie representa un objeto móvil que no es parte de la dentadura, y la parte de la superficie se ignora en la creación del modelo 3D virtual de la dentadura.
En algunas realizaciones el método anterior comprende además:
- proporcionar un tercer sub escaneo de una tercera superficie de parte de la dentadura;
- calcular un tercer volumen de escaneo del tercer sub escaneo;
- si el tercer volumen de escaneo está al menos de manera parcial superpuesto con el primer volumen de escaneo y/o con el segundo volumen de escaneo en un volumen de escaneo común; entonces repetir los pasos f) - h) para el tercer sub escaneo con respecto al primer sub escaneo y/o al segundo sub escaneo. Realizaciones adicionales se describen en las secciones siguientes
Escaneo de enfoque y determinación del movimiento
En algunas realizaciones el escaneo 3D comprende los pasos de:
- generar una luz de exploración,
- transmitir la luz de exploración hacia el objeto iluminando de este modo al menos una parte del objeto; - transmitir la luz de vuelta desde el objeto a una cámara que comprende un conjunto de elementos sensores,
- representar en la cámara al menos parte de la luz transmitida de vuelta desde el objeto a la cámara por medio de un sistema óptico,
- variar la posición del plano de enfoque en el objeto por medio óptica de enfoque;
- obtener al menos una imagen desde dicho conjunto de elementos sensores,
- determinar la posición o posiciones de enfoque de:
- cada uno de una pluralidad de elementos sensores para una secuencia de posiciones del plano de enfoque.
Puede haber por ejemplo más de 200 imágenes del plano de enfoque, tal como 225 imágenes del plano de enfoque, en una secuencia de imágenes del plano de enfoque usada en la generación de una superficie 3D. Las imágenes del plano de enfoque son imágenes 2D.
El sensor o los sensores de imagen, el sensor de foto y similares se pueden usar para obtener imágenes en el escáner. Por escanear se entiende normalmente el escaneado óptico o la creación de imágenes usando luz de láser, luz blanca etc.
En algunas realizaciones una secuencia de imágenes del plano de enfoque son imágenes de profundidad capturadas a lo largo de la dirección del eje óptico.
En algunas realizaciones al menos parte del objeto está en el foco en al menos una de las imágenes del plano de enfoque en una secuencia de imágenes del plano de enfoque.
En algunas realizaciones el periodo de tiempo entre la obtención de cada imagen del plano de enfoque es fijo/predeterminado/conocido.
Cada imagen del plano de enfoque se puede adquirir un cierto periodo de tiempo después de que se haya obtenido la imagen del plano de enfoque anterior. La óptica de enfoque pueden moverse entre la obtención de cada imagen, y por tanto cada imagen del plano de enfoque se puede obtener a una distancia diferente del objetivo que las imágenes del plano de enfoque anteriores.
Un ciclo de captura de imagen del plano de enfoque puede ser desde cuando la óptica de enfoque está en una posición P hasta que la óptica de enfoque está de nuevo en una posición P. este ciclo puede ser denotado como un barrido. Puede haber como 15 barridos por segundo.
Un número de la superficies 3D o sub escaneos puede ser combinado entonces para crear un escaneo completo del objeto para generar un modelo 3D del objeto.
En algunas realizaciones determinar el movimiento relativo del escáner durante la obtención de la secuencia de imágenes del plano de enfoque es realizado mediante el análisis de la secuencia en sí.
Detección de movimiento por medio de hardware
En algunas realizaciones determinar el movimiento relativo del escáner durante la obtención de la secuencia de imágenes del plano de enfoque es realizado por los sensores en y/o sobre el escáner y/o por los sensores sobre el objeto y/o por los sensores en la habitación donde se ubican el escáner y el objeto.
Los sensores de movimiento pueden ser pequeños sensores tales como los sensores de movimiento de sistemas micro electromecánicos (MEMS). Los sensores de movimiento pueden medir todos los movimientos en 3D, esto es, tanto las traslaciones como las rotaciones para los tres ejes de coordenadas principales. Los beneficios son:
- Los sensores de movimiento pueden detectar el movimiento, también las vibraciones y/o los temblores. Los escaneos así afectados pueden por ejemplo ser corregidos mediante el uso de técnicas de compensación descritas.
- Los sensores de movimiento pueden ayudar con la unión y/o el registro de escaneos parciales los unos a los otros. Esta ventaja es relevante cuando el campo de visión del escáner es menor que el objeto a ser escaneado. En esta situación, el escáner se aplica a pequeñas regiones del objeto (una cada vez) que luego se combinan para obtener el escaneo completo. En el caso ideal, los sensores de movimiento pueden proporcionar la transformación de movimiento rígido relativo requerida entre las coordenadas locales de los escaneos parciales, ya que miden la posición relativa del dispositivo de escaneo en cada escaneo parcial. Los sensores de movimiento con precisión limitada puede aún proporcionar una primera estimación para una unión/registro basada en software de los escaneos parciales en base a, por ejemplo, la clase de algoritmos de Punto más Cercano Iterativos, que resultan en un reducido tiempo de cálculo.
Incluso si es demasiado impreciso para medir el movimiento de traslación, un acelerómetro de 3 ejes puede proporcionar la dirección de la gravedad en relación con el dispositivo de escaneo. También un magnetómetro puede proporcionar información direccional en relación al dispositivo de escaneo, en este caso a partir del campo magnético de la tierra. Por lo tanto, dichos dispositivos pueden ayudar con la unión/registro.
En algunas realizaciones el movimiento está determinado por medio de un sensor de imagen de textura que tiene una profundidad de enfoque que es mayor que la profundidad de enfoque de la óptica de enfoque.
En algunas realizaciones el movimiento está determinado por la determinación de la posición y la orientación de uno o más de los sensores.
En algunas realizaciones el movimiento está determinado por medio de uno o más componentes físicos dispuestos en el escáner de mano.
En algunas realizaciones el movimiento está determinado por medio de sensores de posición 3D.
En algunas realizaciones el movimiento está determinado por medio del seguimiento óptico. El seguimiento óptico puede comprender un LED o unos LED y una cámara o unas cámaras, donde el LED o los LED pueden destellar y el destello puede ser detectado por la cámara o las cámaras.
En algunas realizaciones el movimiento está determinado por medio de uno o más giroscopios.
Un giroscopio es un dispositivo para medir o mantener la orientación, basado en los principios de conservación del momento angular. Un giroscopio mecánico es esencialmente una rueda o disco de giro cuyo eje es libre de tomar cualquier orientación. Los giroscopios usados para determinar la orientación del sensor pueden ser giroscopios mecánicos, electrónicos, dispositivos de giroscopio MEMS empaquetados en un microchip, láser de anillo de estado sólido, giroscopios de fibra óptica, giroscopios cuánticos y/o similares.
En algunas realizaciones el movimiento está determinado por medio de uno o más acelerómetros.
En algunas realizaciones el movimiento está determinado por medio de uno o más magnetómetros.
En algunas realizaciones el movimiento está determinado por medio de una o más bobinas electromagnéticas. En algunas realizaciones el movimiento está determinado por medio de un brazo de medición computarizado.
El brazo de medición puede por ejemplo ser de tecnologías FARO. Puede haber goniómetros en el brazo de medición para medir los movimientos del brazo.
En algunas realizaciones el movimiento está determinado por medio de uno o más ejes sobre los que se configura que se mueva el sensor.
Un ejemplo de un sistema basado en ejes es una máquina de medición de coordenadas (CMM), que es un dispositivo para medir las características geométricas de un objeto. Esta máquina puede estar controlada por ordenador. Una CMM típica está compuesta de tres ejes, X, Y, y Z, y estos ejes son ortogonales los unos a los otros en un sistema de coordenadas tridimensional típico. Cada eje tiene un sistema de escala que indica la ubicación de ese eje. Las mediciones pueden ser definidas por una sonda unida al tercer eje de movimiento de esta máquina, y la máquina leerá la entrada a partir de la sonda táctil. Las sondas pueden ser mecánicas, ópticas, de láser, o de luz blanca, entre otras.
En algunas realizaciones los ejes sobre los que se configura el sensor para moverse son ejes de traslación y / o rotación.
Para cada imagen del plano de enfoque que se adquiere existen seis grados de libertad del sensor, por ejemplo el escáner de mano, ya que el escáner es un cuerpo rígido que puede realizar un movimiento en un espacio tridimensional, donde el movimiento puede ser una traslación en tres ejes perpendiculares, x, y, z, que es un movimiento hacia delante/hacia atrás, arriba/abajo, izquierda/derecha, y este se combina con la rotación sobre los tres ejes perpendiculares. Por tanto el movimiento tiene seis grados de libertad ya que el movimiento a lo largo de cada uno de los tres ejes es independiente de los otros y es independiente de la rotación sobre cualquiera de estos ejes.
Modelado 3D
El modelado 3D es el proceso de desarrollo de una representación matemática, estructural de cualquier objeto tridimensional, llamado un modelo 3D, a través de software especializado. Los modelos pueden ser creados automáticamente, por ejemplo los modelos 3D pueden ser creados usando múltiples enfoques, tales como el uso de curvas NURBS para generar parches superficiales precisos y lisos, el modelado en malla poligonal que es una manipulación de la geometría facetada, o la subdivisión de malla poligonal que es un teselado avanzado de polígonos, que resulta en superficies lisas similares a los modelos NURBS.
Obtener una representación tridimensional de la superficie de un objeto mediante el escaneo del objeto en un escáner 3D se puede denotar como un modelado 3D, que es el proceso de desarrollo de una representación matemática de la superficie tridimensional del objeto a través de software especializado, El producto es llamado modelo 3D. Un modelo 3D representa el objeto 3D usando una colección de puntos en el espacio 3D, conectados mediante diversas entidades geométricas tales como triángulos, líneas, superficies curvas, etc. El propósito de un escáner 3D es normalmente crear una nube de puntos de muestras geométricas en la superficie del objeto. Los escáneres 3D recopilan información de distancia de las superficies dentro de su campo de visión. La “imagen” producida por un escáner 3D puede describir la distancia a una superficie en cada punto de la imagen.
Para más situaciones, un escaneo simple o sub escaneo no producirá un modelo completo del objeto. Múltiples sub escaneos, tales como 5, 10, 12, 15, 20, 30, 40, 50, 60, 70, 80, 90 o en algunos casos incluso cientos, a partir de muchas diferentes direcciones pueden ser requeridos para obtener la información sobre todos los lados del objeto. Estos sub escaneos se llevan a un sistema de referencia común, un proceso que puede ser llamado alineamiento o registro, y entonces se ordenan para crear un modelo completo.
Los escáneres 3D pueden ser escáneres de escritorio fijos o estacionarios en los cuales por ejemplo se puede ubicar una impresión dental, una impresión del canal auditivo o un modelo de yeso fundido de los dientes para su escaneo. Los escáneres 3D puede ser también escáneres intra orales de mano para escanear a un paciente directamente en la boca o escáneres auditivos de mano o fijos para escanear a un paciente directamente en el oído. Por tanto un escáner 3D puede ser un escáner de mano en el que el escáner y el objeto no están dispuestos de manera estacionaria el uno en relación con el otro y en donde el movimiento relativo puede ser ilimitado, un escáner de escritorio donde el objeto y los medios de escaneo, por ejemplo la fuente de luz y la cámara, se disponen de manera estacionaria el uno en relación con el otro, un escáner estacionario en el que el objeto por ejemplo se puede mover en relación con el escáner estacionario etc.
Un escáner láser 3D de triangulación usa luz láser para explorar el entorno o el objeto. Un láser de triangulación emite un láser sobre el objeto y emplea una cámara para mirar la ubicación del punto láser. Dependiendo de cómo de lejos el láser golpea la superficie, el punto láser aparece en diferentes ubicaciones en el campo de visión de la cámara. Esta técnica es llamada triangulación ya que el punto láser, la cámara y el emisor láser forman un triángulo. Se puede usar una banda láser, en lugar de un único punto láser, y se realiza un barrido después al objeto para acelerar el proceso de obtención.
Los escáneres 3D de luz estructurada proyectan un patrón de luz sobre el objeto y miran la deformación del patrón en el objeto. El patrón puede ser de una dimensión o de dos dimensiones. Un ejemplo de un patrón de una dimensión es una línea. La línea se proyecta sobre el objeto usando por ejemplo un proyector LCD o un láser de barrido. Una cámara, ligeramente desplazada desde el proyector del patrón, mira la forma de la línea y usa una técnica similar a la triangulación para calcular la distancia de cada punto de la línea. En el caso de un patrón de línea única, la línea es barrida a lo largo del campo de visión para recopilar la información de distancia de una banda a la vez.
Un ejemplo de un patrón bidimensional es una rejilla o un patrón de banda de líneas. Se usa una cámara para mirar a la deformación del patrón, y se usa un algoritmo para calcular la distancia a cada punto en el patrón. Se pueden usar los algoritmos para la triangulación láser multi banda.
Se puede usar también el escaneo confocal o el escaneo de enfoque, donde se obtienen imágenes dentro del enfoque a diferentes profundidades para reconstruir el modelo 3D.
El Punto más Cercano Iterativo (ICP) es un algoritmo empleado para minimizar la diferencia entre dos nubes de puntos. El ICP se puede usar para reconstruir las superficies 2D o 3D a partir de diferentes escaneos o sub escaneos. El algoritmo es conceptualmente simple y se usa comúnmente en tiempo real. Éste revisa de manera iterativa la transformación, esto es la traslación y rotación, necesaria para minimizar la distancia entre los puntos de los dos escaneos o sub escaneos iniciales. Las entradas son: los puntos a partir de los escaneos o sub escaneos iniciales, la estimación inicial de la transformación, los criterios para detener la iteración. La salida es: la transformación redefinida. Esencialmente los pasos del algoritmo son:
1. Asociar los puntos mediante los criterios del vecino más cercano.
2. Estimar los parámetros de la transformación usando una función de coste cuadrático medio.
3. Transformar los puntos usando los parámetros estimados.
4. Iterar, esto es, volver a asociar los puntos y así sucesivamente.
Alineamiento/registro
En algunas realizaciones el movimiento entre al menos dos superficies 3D posteriores está determinado por el alineamiento/registro de al menos dos superficies 3D posteriores.
Esto puede ser realizado por medio del método del punto más cercano iterativo (ICP) o métodos similares. El método del Punto más Cercano Iterativo (ICP) se puede usar para alinear, y se emplea para minimizar la diferencia entre dos nubes de puntos. El ICP se puede usar para reconstruir superficies 2D o 3D a partir de escaneos diferentes. El ICP revisa de manera iterativa la transformación, esto es la traslación o rotación, necesaria para minimizar la distancia entre los puntos de los dos escaneos o sub escaneos iniciales. La entrada para el ICP pueden ser los puntos de los dos escaneos o sub escaneos iniciales, la estimación inicial de la transformación, y los criterios para detener la iteración. La salida será por tanto una transformación redefinida.
El alineamiento se puede realizar en dos pasos, donde el primer paso es un sub escaneo para sub escanear el alineamiento, y el segundo paso es un sub escaneo para el alineamiento provisional del modelo 3D virtual (modelo combinado). La suposición inicial para el alineamiento puede ser determinada mediante el uso de giroscopios, de la velocidad estimada del escáner etc.
De manera adicional y/o alternativa, el método de ajuste de mínimos cuadrados se puede usar en el alineamiento. En algunas realizaciones el alineamiento/registro es realizado mediante la selección de los puntos correspondientes en las al menos dos superficies 3D, y la minimización de la distancia entre las al menos dos superficies 3D.
Los puntos correspondientes pueden ser los puntos más cercanos en las dos superficies, o el punto determinado por un vector normal desde un punto en la otra superficie etc. La distancia se puede minimizar con respecto a la traslación y la rotación.
En algunas realizaciones el alineamiento/registro es continuado en un proceso iterativo para obtener una estimación mejorada del movimiento.
En algunas realizaciones la posición del sensor de cada secuencia se determina en base al alineamiento.
En algunas realizaciones el alineamiento comprende alinear los sistemas de coordenadas de al menos dos superficies 3D.
En algunas realizaciones el alineamiento comprende alinear por medio de hacer coincidir / comparar una o más características específicas, tales como una o más características específicas comunes a las al menos dos superficies 3D, tales como la línea de margen.
En algunas realizaciones el alineamiento comprende alinear por medio de hacer coincidir / comparar una o más características periféricas de las al menos dos superficies 3D.
En algunas realizaciones el alineamiento comprende el registro de al menos dos superficies 3D.
En algunas realizaciones el alineamiento comprende aplicar un criterio predeterminado para el máximo error permitido en el registro.
En algunas realizaciones la compensación del movimiento comprende reconstruir un modelo y un movimiento de la superficie auto consistente y la rotación del escáner en relación al objeto desde dos o más escaneos del objeto en el que se superponen dos escaneos sucesivos al menos de manera parcial.
Escaneo de enfoque
El escáner 3D se puede usar para proporcionar un registro de la superficie 3D de objetos usando la luz como un agente de exploración sin contacto. La luz se puede proporcionar en forma de un patrón de iluminación para proporcionar una oscilación de la luz en el objeto. La variación / oscilación en el patrón puede ser espacial, por ejemplo un patrón en forma de tablero de ajedrez estático, y/o puede ser variante en el tiempo, por ejemplo moviendo el patrón a través del objeto que se escanea. La invención proporciona una variación del plano de enfoque del patrón sobre un rango de posiciones del plano de enfoque mientras que mantiene una relación espacial fija del escáner y del objeto. Esto no significa que se deba proporcionar el escaneo con una relación espacial fija del escáner y el objeto sino que simplemente se puede variar (escanear) el plano de enfoque con una relación espacial fija del escáner y del objeto. Esto proporciona una solución para un escáner de mano en base a la presente invención.
En algunas realizaciones las señales del conjunto de elementos sensores son intensidades de luz.
Una realización de la invención comprende un primer sistema óptico, tal como una disposición de lentes, para transmitir la luz de exploración hacia el objeto y un segundo sistema óptico para la luz de la imagen que vuelve desde el objeto hacia la cámara. En la realización preferida de la invención sólo un sistema óptico representa el patrón sobre el objeto y representa el objeto, o al menos parte del objeto sobre la cámara, preferiblemente a lo largo del mismo eje óptico, sin embargo a lo largo de rutas ópticas opuestas.
En la realización preferida de la invención un sistema óptico proyecta una imagen del patrón sobre el objeto que se explora y desde el objeto que se explora a la cámara. Preferiblemente, el plano de enfoque se ajusta de tal manera que la imagen del patrón en el objeto explorado se desplaza a lo largo del eje óptico, preferiblemente en los mismos pasos desde un extremo de la región de escaneo a la otra. La luz de exploración que incorpora el patrón proyecta un patrón de luz y oscuridad sobre el objeto. Específicamente, cuando se varía el patrón a tiempo para un plano de enfoque fijo entonces las regiones dentro del enfoque sobre el objeto presentarán un patrón oscilante de luz y oscuridad. Las regiones fuera del enfoque presentarán un menor o ningún contraste en las oscilaciones de luz. De manera general consideramos el caso en el que la luz incidente sobre el objeto se refleja de manera difusiva y/o especular desde la superficie del objeto. Pero se entiende que el aparato y el método de escaneo no están limitados a esta situación. Estos son aplicables también a por ejemplo la situación en la que la luz incidente penetra en la superficie y es reflejada y/o dispersada y/o da lugar a fluorescencia y/o fosforescencia en el objeto. Las superficies interiores en un objeto suficientemente traslúcido pueden ser iluminadas también mediante el patrón de iluminación y ser representadas en la cámara. En este caso es posible un escaneo volumétrico. Algunos organismos pláncticos son ejemplos de dichos objetos.
Cuando se aplica un patrón variante en el tiempo puede ser obtenido un único sub escaneo mediante la recopilación de un número de imágenes 2D en diferentes posiciones del plano de enfoque y en diferentes ejemplos de patrón. Según el plano de enfoque coincide con la superficie de escaneo en una única posición de píxel, el patrón se proyectará sobre el punto de la superficie dentro del enfoque y con un alto contrate, dando de este modo lugar a una gran variación, o amplitud, del valor de píxel en el tiempo. Para cada píxel es posible por tanto identificar los ajustes individuales del plano de enfoque para los cuales cada píxel estará dentro del enfoque. Usando el conocimiento del sistema óptico usado, es posible transformar la información de contraste contra la posición del plano de enfoque en la información de la superficie 3D, sobre un píxel individual.
Por tanto, en una realización de la invención la posición de enfoque es calculada mediante la determinación de la amplitud de oscilación de la luz para cada uno de una pluralidad de elementos sensores para un intervalo de planos de enfoque.
Para un patrón estático puede ser obtenido un único sub escaneo mediante la recopilación de un número de imágenes 2D en diferentes posiciones del plano de enfoque. Según el plano de enfoque coincide con la superficie de escaneo, el patrón se proyectará sobre el punto de la superficie dentro del enfoque y con un alto contraste. El alto contraste da lugar a una gran variación espacial del patrón estático en la superficie del objeto, proporcionando de este modo una gran variación, o amplitud, de valores de píxel sobre un grupo de píxeles adyacentes. Para cada grupo de píxeles es posible por tanto identificar los ajustes individuales del plano de enfoque para el cual cada grupo de píxeles estará dentro del enfoque. Mediante el uso del conocimiento del sistema óptico usado, es posible transformar la información de contraste contra la posición del plano de enfoque en la información de la superficie 3D, en base a un grupo de píxeles individual.
Por tanto, en una realización de la invención la posición de enfoque es calculada mediante la determinación de la amplitud de oscilación de la luz para cada uno de la pluralidad de grupos de elementos sensores para un rango de planos de enfoque.
La conversión de 2D a 3D de los datos de imagen se puede realizar de un número de maneras conocidas en la técnica, esto es la estructura de la superficie 3D del objeto explorado puede ser determinada encontrando el plano correspondiente a la máxima amplitud de oscilación de la luz para cada elemento sensor, o para cada grupo de elementos sensores, en el conjunto de sensores de la cámara al registrar la amplitud de la luz para un intervalo de diferentes planos de enfoque. Preferiblemente, el plano de enfoque se ajusta en los mismos pasos desde un extremo de la región de escaneo al otro. Preferiblemente el plano de enfoque se puede mover en un rango suficientemente grande para al menos coincidir con la superficie del objeto que es escaneado.
El escáner preferiblemente comprende al menos un divisor de haz ubicado en la ruta óptica. Por ejemplo, una imagen del objeto se puede formar en la cámara por medio de un divisor de haz. Los usos ejemplares del divisor de haz se ilustran en las figuras.
En una realización preferida de la invención la luz se transmite en un sistema óptico que comprende un sistema de lentes. Este sistema de lentes puede transmitir el patrón hacia el objeto y representar la luz reflejada del objeto a la cámara.
En un sistema óptico telecéntrico, los puntos fuera del enfoque tienen la misma magnificación que los puntos dentro del enfoque. La proyección telecéntrica puede por tanto facilitar significativamente la correspondencia de las imágenes 2D obtenidas a las imágenes 3D. Por tanto, en una realización preferida de la invención el sistema óptico es sustancialmente telecéntrico en el espacio del objeto explorado. El sistema óptico puede ser también telecéntrico en el espacio del patrón y de la cámara.
La presente invención se relaciona con diferentes aspectos que incluyen el método descrito anteriormente y a continuación, y los métodos, dispositivos, aparatos, sistemas, usos y/o medios de productos correspondientes, cada uno brindando uno o más de los beneficios y ventajas descritas en conexión con el primer aspecto mencionado, y cada uno teniendo una o más realizaciones que corresponden a las realizaciones descritas en conexión con el primer aspecto mencionado y/o descrito en las reivindicaciones adjuntas.
En concreto, lo descrito en la presente memoria es un sistema para detectar un objeto móvil en una ubicación, al escanear un objeto rígido en la ubicación por medio de un escáner 3D para generar un modelo 3D virtual del objeto rígido, en donde el sistema comprende:
- los medios para proporcionar una primera representación 3D de al menos parte de una superficie mediante el escaneo de al menos parte de la ubicación;
- los medios para proporcionar una segunda representación 3D de al menos parte de la superficie escaneando al menos parte de la ubicación;
- los medios para determinar para la primera representación 3D un primer volumen excluido en el espacio donde no puede haber presente ninguna superficie;
- los medios para determinar para la segunda representación 3D un segundo volumen excluido en el espacio donde no puede haber presente ninguna superficie;
- los medios para ignorar la parte de la superficie en la primera representación 3D en la generación del modelo 3D virtual, si una parte de la superficie en la primera representación 3D se ubica en el espacio en el segundo volumen excluido, y/o
- los medios para ignorar la parte de la superficie en la segunda representación 3D en la generación del modelo 3D virtual, si una parte de la superficie en la segunda representación 3D se ubica en el espacio en el primer volumen excluido.
Además, la invención se relaciona con un producto de programa informático que comprende unos medios de código de programa para provocar que un sistema de procesamiento de datos realice el método según cualquiera de las realizaciones, cuando dichos medios de código de programa se ejecutan en el sistema de procesamiento de datos, y un producto de programa informático, que comprende un medio legible por ordenador que tiene almacenados en éste los medios de código de programa.
Breve descripción de los dibujos
Los objetivos, características y ventajas anteriores y/o adicionales de la presente invención, serán dilucidados de manera adicional por la siguiente descripción detallada ilustrativa y no limitante de las realizaciones de la presente invención, con referencia a los dibujos adjuntos, en donde:
La fig. 1 muestra un ejemplo de un diagrama de flujo del método para detectar un objeto móvil en una ubicación, al escanear un objeto rígido en la ubicación por medio de un escáner 3D para generar un modelo 3D virtual del objeto rígido.
La fig. 2 muestra un ejemplo de una cabeza de escaneo de un escáner 3D intra oral que escanea una dentadura. La fig. 3 muestra un ejemplo de un escáner 3D de mano.
La fig. 4 muestra un ejemplo de una sección de los dientes en la boca que se puede cubrir en un sub escaneo.
La fig. 5 muestra un ejemplo de cómo los diferentes escaneos que generan superficies 3D se distribuyen a través de una dentadura.
La fig. 6 muestra un ejemplo de representaciones de registro/alineamiento de la superficie 3D y de compensación del movimiento en una superficie 3D.
La fig. 7 muestra un ejemplo de una superficie 3D en la que se indican sub escaneos superpuestos.
La fig. 8 muestra un ejemplo de volumen excluido.
La fig. 9 muestra un ejemplo de escaneo de un diente y obtención de una primera y una segunda representación de la superficie del diente, en la que no hay presente ningún objeto móvil.
La fig. 10 muestra un ejemplo de escaneo de un diente y obtención de una primera y una segunda representación de la superficie del diente, en la que se captura un objeto móvil en parte de la primera representación.
La fig. 11 muestra un ejemplo de escaneo de un diente y obtención de una primera y una segunda representación de la superficie del diente, en la que se captura un objeto móvil en la segunda representación.
La fig. 12 muestra un ejemplo de obtención de una primera y segunda representación de la superficie de un objeto, por ejemplo un diente, en la que se captura un objeto móvil en la primera representación.
La fig. 13 muestra un ejemplo de obtención de una primera y una segunda representación de la superficie de un objeto, en la que no hay presente ningún objeto móvil.
La fig. 14 muestra un ejemplo de obtención de una primera y una segunda representación de la superficie de un objeto, en la que hay presente un objeto móvil de la segunda representación en el volumen excluido de la primera representación.
La fig. 15 muestra un ejemplo de obtención de una primera y una segunda representación de la superficie de un objeto, en la que hay presente un posible objeto móvil en la segunda representación, pero no en el volumen excluido de la primera representación.
La fig. 16 muestra un ejemplo de una distancia de umbral cercano que define cómo de lejos de la representación se ignoran los posibles objetos móviles en la generación del modelo 3D virtual.
La fig. 17 muestra un ejemplo de cómo ese determina el volumen excluido.
La fig. 18 muestra ejemplos de cómo los objetos móviles pueden verse en los sub escaneos.
La fig. 19 muestra un ejemplo de un escáner estenopeico.
La fig. 20 muestra ejemplos del principio de una distancia de umbral cercano desde la superficie capturada que define un volumen que no está incluido en el volumen excluido de una representación.
Descripción detallada
En la siguiente descripción, se hace referencia a las figuras adjuntas, que muestran a modo de ilustración como se puede poner en práctica la invención.
La figura 1 muestra un ejemplo de un diagrama de flujo del método para detectar un objeto móvil en una ubicación, al escanear un objeto rígido en la ubicación por medio de un escáner 3D para generar un modelo 3D virtual del objeto rígido. En el paso 101 se proporciona una primera representación 3D de al menos parte de una superficie escaneando al menos parte de la ubicación.
En el paso 102 se proporciona una segunda representación 3D de al menos parte de la superficie escaneando al menos parte de la ubicación.
En el paso 103 se determina un primer volumen excluido en el espacio donde no se puede presentar ninguna superficie para la primera representación 3D.
En el paso 104 se determina un segundo volumen excluido en el espacio donde no se puede presentar ninguna superficie para la segunda representación 3D.
En el paso 105 se ignora una parte de la superficie en la primera representación 3D en la generación del modelo 3D virtual, si la parte de la superficie en la primera representación 3D se ubica en el espacio en el segundo volumen excluido, y/o una parte de la superficie en la segunda representación 3D se ignora en la generación del modelo 3D virtual, si la parte de la superficie en la segunda representación 3D se ubica en el espacio en el primer volumen excluido.
La fig. 2 muestra un ejemplo de una cabeza de escaneo de un escáner 3D intra oral que escanea una dentadura. Un escáner 3D de mano intra oral (no mostrado) que comprende una cabeza 207 de escaneo está escaneando un diente 208. El escaneo es realizado mediante la transmisión de rayos de luz sobre el diente 208. Los rayos de luz forman un volumen 211 de escaneo, que tiene forma de cono en este ejemplo.
La longitud 203 del volumen 211 de escaneo, esto es la distancia desde la abertura 202 de la cabeza de escaneo al extremo del volumen de escaneo puede ser por ejemplo de aproximadamente 5 mm, 10 mm, 15 mm, 16 mm, 17 mm, 18 mm, 19 mm, 20 mm, 25 mm, 30 mm.
El volumen de escaneo puede ser de aproximadamente 20 mm x 20 mm.
La figura 3 muestra un ejemplo de un escáner 3D de mano.
El escáner 301 de mano comprende una fuente 302 de luz para emitir luz, un divisor 304 de haz, óptica 305 de enfoque móvil, tal como unas lentes, un sensor 306 de imagen, y una punta o sonda 307 para escanear un objeto 308. En este ejemplo el objeto 308 son dientes en una cavidad intra oral.
El escáner comprende una cabeza o punta o sonda 307 de escaneo que se puede introducir dentro de una cavidad para escanear un objeto 308. La luz desde la fuente 302 de luz hace un viaje de ida y vuelta a través del sistema óptico. Durante este paso el sistema óptico representa el objeto 308 siendo escaneado en el sensor 306 de imagen. La óptica de enfoque móvil comprende un elemento de enfoque que se puede ajustar para desplazar el plano de representación focal en el objeto 308 explorado. Una manera de materializar el elemento de enfoque es mover físicamente un único elemento de lente hacia atrás y adelante a lo largo del eje óptico. El dispositivo puede incluir ópticas de polarización y/u ópticas plegables que dirigen la luz fuera del dispositivo en una dirección diferente al eje óptico del sistema de lentes, por ejemplo en una dirección perpendicular al eje óptico del sistema de lentes. Como un conjunto, el sistema óptico proporciona una representación del objeto que es explorado y desde el objeto que es explorado al sensor de imagen, por ejemplo la cámara. Una aplicación del dispositivo podría ser para determinar la estructura 3D de un diente en la cavidad oral. Otra aplicación podría ser para determinar la forma 3D del canal auditivo y la parte externa del oído.
El eje óptico en la fig. 3 es el eje definido por una línea recta a través de la fuente de luz, la óptica y las lentes en el sistema óptico. Esto corresponde también con el eje longitudinal del escáner ilustrado en la fig. 3. La ruta óptica es la ruta de la luz desde la fuente de luz al objeto y de vuelta a la cámara. La ruta óptica puede cambiar de dirección, por ejemplo por medio de un divisor de haz y óptica plegable.
El elemento de enfoque se ajusta de tal manera que la imagen en el objeto escaneado es desplazada a lo largo del eje óptico, por ejemplo en los mismos pasos desde un extremo de la región de escaneo al otro. Un patrón se puede representar en el objeto y cuando el patrón varía en el tiempo de forma periódica para una posición de enfoque fija entonces las regiones dentro del enfoque sobre el objeto presentarán un patrón que varía de manera espacial. Las regiones fuera del enfoque presentarán un menor o ningún contraste en la variación de la luz. La estructura de la superficie 3D del objeto explorado se puede determinar encontrando el plano correspondiente a un extremo en la medición de correlación para cada sensor en el conjunto de sensores de imagen o para cada grupo de sensores en el conjunto de sensores de imagen al registrar la medición de correlación para un rango de diferentes posiciones de enfoque. Preferiblemente uno movería la posición de enfoque en los mismos pasos desde un extremo de la región de escaneo al otro. La distancia desde un extremo de la región de escaneo a la otra puede ser tal que 5 mm, 10 mm, 15 mm, 16 mm. 20 mm, 25 mm, 30 mm etc.
La Fig. 4 muestra un ejemplo de una sección de dientes en la boca que se puede cubrir en un sub escaneo.
En la fig. 4a) los dientes 408 se ven desde una vista superior, y en la fig. 4b) los dientes 408 se ven en una vista de perspectiva.
Un ejemplo del volumen 411 de escaneo para una secuencia de imágenes del plano de enfoque es indicado por la caja transparente. El volumen de escaneo puede ser tal como 17x15x20 mm, donde los 15 mm pueden ser la “altura” del volumen de escaneo correspondiente a la distancia a la que se puede mover la óptica de enfoque.
La fig. 5 muestra un ejemplo de cómo los diferentes sub escaneos que generan superficies 3D se distribuyen a través de una dentadura.
En la figura se indican cuatro sub escaneos 512. Cada sub escaneo proporciona una superficie 3D de los dientes escaneados. Las superficies 3D pueden ser parcialmente superpuestas, por lo cual el movimiento realizado por el escáner durante la obtención de los sub escaneos puede ser determinado comparando las partes superpuestas de dos o más superficies 3D.
La Fig. 6 muestra un ejemplo de representaciones de registro/alineamiento de las superficies 3D y compensación del movimiento en una superficie 3D.
La Fig. 6a) muestra una superficie 616 3D, que por ejemplo se puede generar desde un número de imágenes del plano de enfoque.
La Fig. 6b) muestra otra superficie 6173D, que puede haber sido generada en una secuencia posterior de imágenes del plano de enfoque.
La Fig. 6c) muestra cómo se intenta que las dos superficies 616, 6173D estén alineadas/registradas. Ya que las dos superficies 616, 617 3D tienen puntos 3D que corresponden a la misma área de un diente, es posible realizar el registro/alineamiento mediante el ICP, comparando los puntos correspondientes en las dos superficies 3D etc. La Fig. 6d) muestra la superficie 6183D resultante cuando las dos superficies 616, 6173D se han mezclado entre sí.
La Fig. 6e) muestra que en base a la superficie 618 3D resultante el movimiento relativo realizado por el escáner durante la obtención de los sub escaneos o los planos de enfoque se pueden determinar las imágenes que generan las superficies 616 y 617 3D, y en base a este movimiento determinado se puede corregir la superficie 618 3D resultante a una superficie 6193d “correcta” final.
La Fig. 7 muestra un ejemplo de una superficie 3D en la que se indican los sub escaneos superpuestos.
Un número de representaciones 3D o de sub escaneos son indicados por los números 1-11 y los marcadores 712 de subdivisión sobre una superficie 7133D. Los marcadores 712 de subdivisión para los sub escaneos 1, 3, 5, 7, 9, y 11 están con líneas punteadas, y los marcadores de subdivisión para los sub escaneos 2, 4, 6, 8, 10 están marcados con líneas sólidas. Los sub escaneos están todos superpuestos con la misma distancia, pero la distancia de superposición puede ser diferente para cada par de sub escaneos. Como normalmente un dentista sujetará el escáner y lo moverá a través de los dientes del paciente, la distancia de superposición depende de cómo de rápido el dentista mueva el escáner y el marco de tiempo entre la obtención de cada escaneo, por lo que si el marco de tiempo es constante, y el dentista no mueve el escáner exactamente con una velocidad constante, la distancia de superposición no será la misma para todos los sub escaneos.
La Fig. 8 muestra un ejemplo de volumen excluido.
El volumen 821 excluido es el volumen en el espacio donde no se puede presentar ninguna superficie. Al menos una parte del volumen 821 excluido puede corresponder al volumen 811 de escaneo de una representación 3D, ya que el espacio entre la cabeza 807 de escaneo o la óptica de enfoque del escáner 3D y la superficie 816 capturada debe ser un espacio vacío, a menos que fuera ubicado un objeto transparente, que no es detectable por el escáner 3D, en el volumen de escaneo. Además el volumen de la cabeza 807 de escaneo y del escáner 801 3D se debe definir como un volumen 823 excluido, ya que el escáner y la cabeza de escaneo ocupan su propio volumen en el espacio, conforme a lo cual ninguna superficie puede estar presente ahí. Además, el diente 808 que está siendo escaneado también ocupa un volumen en el espacio, pero ya que la superficie 816 del diente 808 está siendo capturada por el escáner, no se considera que esté “detrás” de la superficie 816.
La Fig. 9 muestra un ejemplo de escaneo de un diente y obtención de una primera y una segunda representación de la superficie del diente, en la que no hay presente ningún objeto móvil.
La Fig. 9a) muestra un ejemplo de escaneo del diente 908 usando un escáner 901 3D para obtener una primera representación 9163D de la superficie del diente 908. Un primer volumen 911 de escaneo en el espacio se relaciona con la primera representación, y un primer volumen 921 excluido corresponde al primer volumen 911 de escaneo. La Fig. 9b) muestra un ejemplo de escaneo del diente 908 usando un escáner 901 3D para obtener una segunda representación 917 3D de la superficie del diente 908. Un segundo volumen 912 de escaneo es el espacio se relaciona con la segunda representación, y un segundo volumen 922 excluido corresponde al segundo volumen 912 de escaneo. La segunda representación se obtiene con un ángulo diferente entre el escáner y el diente que la primera representación.
Ninguna parte de la superficie de la primera representación 916 se encuentra en el segundo volumen 922 excluido, y ninguna parte de la superficie de la segunda representación 917 se encuentra en el primer volumen 921 excluido, por lo que ninguna parte o partes de la superficie se ignoran en la generación del modelo 3D virtual en este caso. La Fig. 10 muestra un ejemplo de escaneo de un diente y de obtención de una primera y una segunda representación de la superficie del diente, donde se captura un objeto móvil en parte de la primera representación. La Fig. 10a) muestra un ejemplo de escaneo del diente 1008 usando un escáner 1001 3D para obtener una primera representación 10163D de la superficie del diente 1008. Un objeto 1030 móvil está presente, y una parte 1016b de la primera representación 1016 comprende la superficie del objeto 1030 móvil. La parte 1016a de la primera representación 1016 comprende la superficie del diente. Un primer volumen 1011 de escaneo en el espacio se relaciona a la primera representación, y un primer volumen 1021 excluido corresponde al primer volumen 1011 de escaneo.
La Fig. 10b) muestra un ejemplo de escaneo del diente 1008 usando un escáner 1001 3D para adquirir una segunda representación 1017 3D de la superficie del diente 1008. Un segundo volumen 1012 de escaneo en el espacio se relaciona con la segunda representación, y un segundo volumen 1022 excluido corresponde con el segundo volumen 1012 de escaneo. La segunda representación se obtiene con un ángulo diferente entre el escáner y el diente del de la primera representación.
Ya que la parte 1016b de la superficie de la primera representación 1016 se encuentra en el segundo volumen 1022 excluido, esta parte 1016b de la superficie se ignora en la generación del modelo 3D virtual.
La Fig. 11 muestra un ejemplo de escaneo de un diente y obtención de una primera y una segunda representación de la superficie del diente, en la que se captura un objeto móvil en la segunda representación.
La Fig. 11 a) muestra un ejemplo de escaneo del diente 1108 usando un escáner 1101 3D para adquirir una primera representación 1116 3D de la superficie del diente 1108. Un primer volumen 1111 de escaneo en el espacio se relaciona con la primera representación, y un primer volumen 1121 excluido corresponde con el primer volumen 1111 de escaneo.
La Fig. 11b) muestra un ejemplo de escaneo del diente 1108 usando un escáner 1101 3D para obtener una segunda representación 1117 3D de la superficie del diente 1108. Un objeto 1130 móvil está presente, y la segunda representación 1117 comprende la superficie del objeto 1130 móvil. Un segundo volumen 1112 de escaneo en el espacio se relaciona con la segunda representación, y un segundo volumen 1122 excluido corresponde con el segundo volumen 1112 de escaneo. La segunda representación se obtiene con un ángulo diferente entre el escáner y el diente que el de la primera representación.
Ya que la superficie de la segunda representación 1117 se encuentra en el primer volumen 1121 excluido, la superficie de la segunda representación 1117 se ignora en la generación del modelo 3D virtual.
Las figuras en la fig. 11 se muestran en 2D, pero se entiende que las figuras representan figuras 3D.
La fig. 12 muestra un ejemplo de obtención de una primera y una segunda representación de la superficie de un objeto, por ejemplo un diente, en la que se captura un objeto móvil en la primera representación.
La fig. 12a) muestra una primera representación 1216 3D que comprende dos partes, la parte 1216a y la parte 1216b. El primer volumen 1211 de escaneo está indicado mediante las líneas verticales. El segundo volumen 1221 excluido corresponde al segundo volumen de escaneo.
La fig. 12b) muestra una segunda representación 1217 3D. El segundo volumen 1212 de escaneo está indicado mediante las líneas verticales. El segundo volumen 1222 excluido corresponde al segundo volumen de escaneo. La parte 1216a de la primera representación 1216 corresponde a la primera parte de la segunda representación 1217, mientras que la parte 1216b de la segunda representación 1216 no corresponde a la segunda parte de la segunda representación 1217.
La parte 1216b de la primera representación 1216 se encuentra en el segundo volumen 1222 excluido, y la parte 1216b por lo tanto se ignora en la generación del modelo 3D virtual.
La fig. 12c (muestra la representación 12193D resultante, que corresponde a la segunda representación.
Las figuras en la fig. 12 se muestran en 2D, pero se entiende que las figuras representan figuras 3D.
La fig. 13 muestra un ejemplo de obtención de una primera y una segunda representación de la superficie de un objeto, donde no hay presente ningún objeto móvil.
La fig. 13a) muestra un ejemplo de obtención de una primera representación 13163D de una superficie de un objeto (no mostrado). Un primer volumen 1311 de escaneo en el espacio está relacionado con la primera representación. El primer volumen 1311 de escaneo está indicado mediante línea verticales punteadas. Un primer volumen 1321 excluido corresponde al primer volumen 1311 de escaneo.
La fig. 13b) muestra un ejemplo de obtención de una segunda representación 1317 3D de una superficie de un objeto (no mostrado). Un segundo volumen 1312 de escaneo en el espacio se relaciona con la segunda representación. El segundo volumen 1312 de escaneo está indicado por líneas verticales punteadas. Un segundo volumen 1322 de escaneo corresponde al segundo volumen 1312 de escaneo.
La segunda representación se obtiene con un ángulo diferente entre el escáner y el diente que el de la primera representación. Además, la segunda representación está desplazada en el espacio en relación a la primera representación, por lo que la primera y la segunda representación no representan la misma parte de la superficie completa del objeto, pero partes de las representaciones están superpuestas.
La fig. 13c) muestra un ejemplo en el que la primera representación 1316 y la segunda representación 1317 están alineadas/registradas, de manera tal que las partes correspondientes de las representaciones se disponen en la misma ubicación.
La fig. 13d) muestra un ejemplo en el que el volumen 1340 de escaneo común superpuesto de la primera representación 1316 y de la segunda representación 1317 está indicado como un área sombreada. Si una parte de la superficie de una de las representaciones se ubica en el volumen 1340 de escaneo común superpuesto, entonces ésta corresponde a la parte de la superficie que se ubica en el volumen excluido de la otra representación. Sin embargo, en este caso, ninguna parte de la superficie de la primera representación 1316 o de la segunda representación 1317 se encuentra en el volumen 1340 de escaneo común superpuesto, por lo que ninguna parte o partes de la superficie se ignoran en la generación del modelo 3D virtual en este caso.
Para ser capaz de distinguir entre la superficie de la primera y la superficie de la segunda representación, esta dos superficies están ligeramente desplazadas, pero en un caso real la superficie de la primera y la superficie de la segunda representación pueden estar superpuestas exactamente la una sobre la otra, por lo que la parte de la superficie de la primera representación y la parte de la superficie de la segunda representación no se pueden distinguir.
La fig. 13e) muestra un ejemplo de la superficie 13193D virtual resultante.
Las figuras en la fig. 13 se muestran en 2D, pero se entiende que las figuras representan figuras 3D.
La fig. 14 muestra un ejemplo de obtención de una primera y una segunda representación de una superficie de un objeto, donde hay presente un objeto móvil de la segunda representación en el volumen excluido de la primera representación.
La fig. 14a) muestra un ejemplo de obtención de una primera representación 14163D de una superficie de un objeto (no mostrado). Un primer volumen 1411 de escaneo en el espacio está relacionado con la primera representación. El primer volumen 1411 de escaneo está indicado por las líneas punteadas verticales. Un primer volumen 1421 excluido corresponde al primer volumen 1411 de escaneo.
La fig. 14b muestra un ejemplo de obtención de una segunda representación 14173D de una superficie de un objeto (no mostrado). Un segundo volumen 1412 de escaneo en el espacio está relacionado con la segunda representación. El segundo volumen 1412 de escaneo está indicado por líneas verticales punteadas. Un segundo volumen 1422 excluido corresponde al segundo volumen 1412 de escaneo. La segunda representación 1417 3D comprende dos partes 1417a y 1417b. La parte 1417b está ubicada entre la parte 1417a y el escáner (no mostrado), que se dispone en alguna parte en el extremo del volumen de escaneo.
La segunda representación se obtiene con un ángulo diferente entre el escáner y el diente que la primera representación. Además, la segunda representación está desplazada en el espacio en relación a la primera representación, por lo que la primera y la segunda representación no representan la misma parte de la superficie completa del objeto, pero las partes de las representaciones se superponen.
La fig. 14c) muestra un ejemplo en el que la primera representación 1416 y la segunda representación 1417 están alineadas/registradas, de manera tal que las partes correspondientes de las representaciones se disponen en la misma ubicación. Algo de la parte 1417a de la segunda representación está alineada/registrada con la primera representación. La parte 1417b no puede estar alineada/registrada con la primera representación 1416, ya que no existen partes de la superficie correspondientes entre la superficie 1416 y la superficie 1417b.
La fig. 14d) muestra un ejemplo en el que el volumen 1440 de escaneo común superpuesto de la primera representación 1416 y de la segunda representación 1417 se indica como un área sombreada. La parte 1417b de la superficie de la segunda representación se ubica en el volumen 1440 de escaneo común superpuesto, y la parte 1417b de la superficie de la segunda representación 1417 se ubica por lo tanto en el volumen 1421 excluido de la primer representación 1416, y la parte 1417b debe por lo tanto ser un objeto móvil, que está sólo presente en la segunda representación.
Para ser capaz de distinguir entre la superficie de la primera y de la segunda representación, estas dos superficies están ligeramente desplazadas, pero en un caso real la superficie de la primera y la superficie de la segunda representación pueden estar exactamente superpuestas la una en la otra, por lo que la parte de la superficie de la primera representación y la parte de la superficie de la segunda representación no se pueden distinguir.
La fig. 14e) muestra un ejemplo de la superficie 14193D virtual resultante, donde la parte 1417b de la superficie se ignora en la generación del modelo 3D virtual, por lo que el modelo 3D virtual comprende la primera representación 1416 y la parte 1417a de la segunda representación 1417.
Las figuras en la fig. 14 se muestran en 2D, pero se entiende que las figuras representan figuras 3D.
La fig. 15 muestra un ejemplo de obtención de una primera y una segunda representación de una superficie de un objeto, donde hay presente un posible objeto móvil en la segunda representación, pero no en el volumen excluido de la primera representación.
La fig. 15a) muestra un ejemplo de obtención de una primera representación 15163D de una superficie de un objeto (no mostrado). Un primer volumen 1511 de escaneo en el espacio está relacionado con la primera representación. El primer volumen 1511 de escaneo está indicado mediante líneas verticales punteadas. Un primer volumen 1521 excluido corresponde al primer volumen 1511 de escaneo.
La fig. 15b) muestra un ejemplo de obtención de una segunda representación 1517 3D de una superficie de un objeto (no mostrado). Un segundo volumen 1512 de escaneo en el espacio está relacionado con la segunda representación. El segundo volumen 1512 de escaneo está indicado mediante líneas verticales punteadas. Un segundo volumen 1522 excluido corresponde al segundo volumen 1512 de escaneo. La segunda representación 1517 3D comprende dos partes 1517a y 1517b. La parte 1517b se ubica entre la parte 1517a y el escáner (no mostrado), que se dispone en alguna parte en el extremo del volumen de escaneo.
La segunda representación 1517 se obtiene con un ángulo diferente entre el escáner y el diente que el de la primera representación 1516. Además, la segunda representación está desplazada en el espacio en relación con la primera representación, por lo que la primera y la segunda representación no representan la misma parte de la superficie completa del objeto, pero partes de las representaciones están superpuestas.
La fig. 15c) muestra un ejemplo en el que la primera representación 1516 y la segunda representación 1517 están alineadas/registradas de manera tal que las partes correspondientes de las representaciones se disponen en la misma ubicación. Algo de la parte 1517a de la segunda representación se alinea/registra con la primera representación 1516. La parte 1517b no puede estar alineada/registrada con la primera representación 1516, ya que no hay partes de la superficie correspondientes entre la superficie 1516 y la superficie 1517b.
La fig. 15d) muestra un ejemplo en el que el volumen 1540 de escaneo común superpuesto de la primera representación 1516 y de la segunda representación 1517 está indicado como un área sombreada. La parte 1517b de la superficie de la segunda representación no se ubica en el volumen 1540 de escaneo común superpuesto, y la parte 1517b de la superficie de la segunda representación 1517 no está por lo tanto ubicada en el volumen 1521 excluido de la primera representación 1516.
Para ser capaz de distinguir entre la superficie de la primera y la superficie de la segunda representación, estas dos superficies están ligeramente desplazadas, pero en un caso real la superficie de la primera y la superficie de la segunda representación puede estar exactamente superpuestas la una con la otra, por lo que la parte de la superficie desde la primera representación y la parte de la superficie de la segunda representación no se pueden distinguir.
La fig. 15e) muestra un ejemplo de la superficie 15193D virtual resultante, donde no se ignora la parte 1517b de la superficie en la generación del modelo 3D virtual, por lo que el modelo 3D virtual comprende la primera representación 1516 y ambas partes, 1517a y 1517b, de la segunda representación 1517.
Incluso aunque la parte 1517b de superficie probablemente es la representación de un objeto móvil, al menos esto se supondría si el objeto en este caso es un diente, ya que un diente es poco probable que tenga un saliente como muestra la parte 1517b de la representación, la parte 1517b de la superficie no se puede ignorar aún, ya que la parte 1517b de la superficie no se encuentra ubicada en ningún volumen excluido de ninguna representación aún. Pero cuando el escaneo de la superficie del objeto continúa, probablemente se obtendrá una tercera representación que tiene un volumen de escaneo común superpuesto con la segunda representación, y si la parte 1517b de la superficie se ubica en el volumen excluido de la tercera representación, entonces la parte 1517b de la superficie se puede ignorar del modelo 3D virtual.
Las figuras en la fig. 15 se muestran en 2D, pero se entiende que las figuras representan figuras 3D.
La fig. 16 muestra un ejemplo de una distancia de umbral que define cómo de lejos de la representación o de la superficie capturada se ignoran los posibles objetos móviles en la generación del modelo 3D virtual.
Se define una distancia 1650 de umbral cercano, que determina una distancia desde la superficie 1616 capturada en una primera representación, donde una parte de la superficie en la segunda representación (no mostrada) que se ubica dentro de la distancia 1650 de umbral cercano desde la superficie 1616 capturada y que se ubica en el espacio en el primer volumen 1611 excluido no se ignora en la generación del modelo 3D virtual.
La distancia de umbral cercano se define para evitar que se ignore gran parte de la representación de una superficie incorrectamente, ya que puede haber ruido en la representación y ya que el registro/alineamiento entre las representaciones o los sub escaneos pueden no ser completamente precisos.
El número 1607 de referencia es la cabeza de escaneo del escáner 1601, y el número 1608 de referencia es el volumen del diente.
La fig. 20 se muestra en 2D, pero se entiende que la figura representa figuras 3D.
La fig. 17 muestra un ejemplo de cómo se determina el volumen excluido.
El espacio se puede cuantificar en una rejilla 1760 de volumen 3D. La distancia 1762 entre las esquinas 1761 en la rejilla 1760 3D puede ser equidistante. Las celdas 1763 únicas en la rejilla comprenden cada una ocho esquinas 1761, y cuando cada una de las ocho esquinas 1761 han sido cubiertas por una representación, entonces esta celda 1763 se marca como vista. Por tanto si las ocho esquinas 1761 de una celda 1763 están en el volumen de escaneo de una representación, entonces esta celda 1763 se puede marcar como volumen excluido. Puede haber tantas como decenas, centenas, miles o millones de celdas en el espacio de una representación.
La fig. 18 muestra ejemplos de cómo los objetos móviles pueden verse en los sub escaneos.
La fig. 18a (muestra un sub escaneo en el que la punta de un dedo 1870 se ha capturado en el sub escaneo.
La fig. 18b) muestra un ejemplo en el que un instrumento 1871 dental se ha capturado en el sub escaneo.
La Fig. 19 muestra un ejemplo de escáner estenopeico.
El escáner 1980 estenopeico comprende una cámara 1982 y una fuente 1981 de luz, por ejemplo que comprende un patrón (no mostrado). La fuente 1981 de luz transmite rayos 1983 de luz a la superficie 1916 desde una pequeña abertura, esto es todos los rayos 1983 de luz transmitidos a la superficie 1961 se transmiten desde un punto. Los rayos 1984 de luz son reflejados de vuelta desde la superficie 1961 y recibidos por la cámara 1982 a través de una pequeña abertura.
Debido a los ajustes estenopeicos, el punto de luz transmitido a la superficie desde la fuente de luz está bien definido y el punto de luz recibida desde la superficie está también bien definido.
Por tanto el volumen excluido para una representación de la superficie está definido por el volumen en el espacio que los rayos 1983 y 1984 de luz abarcan, y este volumen está bien definido debido a los ajustes estenopeicos. La fig. 20 muestra ejemplos del principio de la distancia de umbral lejano desde la superficie capturada que define un volumen que no se incluye en el volumen excluido de una representación.
Los rayos 2052 de luz (mostrados en líneas punteadas) desde la cabeza 2007 de escaneo del escáner 2001 se pueden propagar o esparcir o dispersar en cualquier dirección como se ve en la fig. 20a), donde se ilustran un número de rayos de luz. Se entiende que sólo algunos de los rayos de luz se muestran aquí. El área de la superficie sobre la superficie del diente donde inciden los rayos de luz tiene el número de referencia 2016.
En la fig. 20b) se muestra que incluso si un objeto 2072, tal como un objeto móvil, se dispone entre la cabeza 2007 de escaneo y la superficie 2016 de un diente, el escáner 2001 puede capturar aún un punto 2053 de la superficie sobre la superficie 2016 del diente que está presente u oculta “bajo” el objeto 2072, debido a los rayos 2052 de luz en ángulo o inclinados. Un punto 2053 de la superficie necesita sólo ser visible para un rayo de luz desde el escáner para que el punto de la superficie sea detectado.
La fig. 20c) muestra un ejemplo de la distancia 2051 de umbral lejano, que determina una distancia desde la superficie 2016 capturada en una representación, donde cualquier dato o superficie o puntos de la superficie obtenidos, que está o están presentes o ubicados fuera de la distancia 2051 de umbral lejano, no se incluye en el volumen excluido para la representación. Por tanto cualquier dato o superficie o puntos de la superficie obtenidos en el volumen 2054 entre la distancia 2051 de umbral lejano y la cabeza 2007 de escaneo no se usan para definir el volumen excluido de la representación.
La fig. 20d) muestra un ejemplo en el que definir la distancia de umbral lejano es una ventaja para evitar que las partes reales de la superficie del diente se ignoren de manera errónea.
El escáner 2001 debería en principio capturar todas las partes, 2016 y 2017, de la superficie, presentes en el volumen de escaneo, pero en algunos casos el escaneo no puede capturar todas las partes de la superficie en el volumen de escaneo. Esto puede ocurrir por ejemplo ya que la parte de la superficie está presente fuera de la región de enfoque del escáner 2001 o de la cabeza 2007 de escaneo o por las pobres condiciones de iluminación para la parte de la superficie. En dichos casos la parte 2017 de la superficie puede no ser capturada y registrada, y se determinaría un volumen excluido en la región de espacio donde la parte 2017 de la superficie del diente está realmente presente. Definiendo la distancia 2051 de umbral lejano menor que el volumen de escaneo que se excluye, y de este modo se puede evitar que una parte 2017 de la superficie real sea ignorada erróneamente.
La distancia real del umbral puede depender o ser calculada en base a la óptica del escáner. La distancia de umbral lejano puede ser un número fijo tal como aproximadamente 0,5 mm, 1 mm, 2 mm, 3 mm, 4 mm, 5 mm, 6 mm, 7 mm, 8 mm, 9 mm, 10 mm, 20 mm, 30 mm, 40 mm, 50 mm, 60 mm, 70 mm, 80 mm, 90 mm o 100 mm. De manera alternativa, la distancia de umbral lejano puede ser un porcentaje o una fracción de la longitud del volumen de escaneo, tal como aproximadamente el 20%, el 25%, el 30%, el 35%, el 40%, el 45%, o el 50% de la longitud del volumen de escaneo, o tal como el 1/2, 1/3, 1/4, 1/5 de la longitud del volumen de escaneo.
La distancia de umbral lejano puede estar basada en la determinación de cómo de lejos es posible escanear una distancia desde un punto detectado de la superficie, esto es cuánta de la superficie alrededor de un punto detectado es visible para el escáner. Si la distancia visible en una dirección desde el punto de la superficie es corta, entonces la distancia de umbral lejano será menor que si la distancia en todas las direcciones desde un punto de la superficie es larga.
Las figuras en la fig. 20 se muestran en 2D, pero se entiende que las figuras representan figuras 3D.
Aunque algunas realizaciones se han descrito y mostrado en detalle, la invención no se restringe a ellas, sino que se puede materializar también de otras maneras dentro del alcance de la materia definida en las reivindicaciones siguientes. En concreto, se ha de entender que otras realizaciones se pueden utilizar y se pueden hacer modificaciones estructurales y funcionales sin salir del alcance de la presente invención.
En las reivindicaciones de dispositivos que enumeran diversos medios, varios de estos medios pueden ser materializados mediante uno y el mismo elemento de hardware. El mero hecho de que ciertas mediciones se enumeren en reivindicaciones dependientes mutuamente diferentes o descritas en diferentes realizaciones no indica que una combinación de estas mediciones no se pueda usar como ventaja.
Una reivindicación puede referirse a cualquiera de las reivindicaciones anteriores, y “cualquiera” es entendido como que significa “cualquiera una o más” de las reivindicaciones anteriores.
Se debería enfatizar que el término “comprende/comprendiendo” al usarse en esta especificación se toma como que especifica la presencia de características, números enteros, pasos o componentes establecidos pero no excluye la presencia o adición de uno o más de otras características, números enteros, pasos, componentes o grupos de los mismos.
Las características del método descritas anteriormente y a continuación se pueden implementar en software y llevar a cabo en un sistema de procesamiento de datos u otros medios de procesamiento provocados por la ejecución de instrucciones ejecutables por ordenador. Las instrucciones pueden ser medios de código de programa cargados en una memoria, tal como una RAM, desde un medio de almacenamiento o desde otro ordenador a través de una red informática. De manera alternativa, las características descritas pueden ser implementadas por circuitería cableada en lugar de software o en combinación con software.

Claims (10)

REIVINDICACIONES
1. Un método implementado por ordenador para detectar un objeto móvil en una ubicación, al escanear un objeto rígido en la ubicación por medio de un escáner 3D de mano para generar un modelo 3D virtual del objeto rígido basado en las superficies escaneadas del objeto rígido, donde el método comprende:
- proporcionar una primera superficie mediante el escaneo del objeto rígido;
- determinar un primer volumen de escaneo relacionado con la primera superficie;
- proporcionar una segunda superficie mediante el escaneo del objeto rígido;
- determinar un segundo volumen de escaneo relacionado con la segunda superficie;
donde el primer volumen de escaneo y el segundo volumen de escaneo se superponen en un volumen de escaneo común superpuesto;
- determinar si al menos una parte de la primera superficie y una parte de la segunda superficie no son coincidentes en el volumen de escaneo común superpuesto, y si no son coincidentes entonces ignorar en la generación dicho modelo 3D virtual, la parte de, bien la primera superficie o de la segunda superficie en el volumen de escaneo común superpuesto que está más cercano a la óptica de enfoque del escáner 3D, ya que se ha determinado que esta parte de la primera superficie o de la segunda superficie representa un objeto móvil que no es parte del objeto rígido.
2. El método según la reivindicación 1, donde se determina un movimiento relativo del escáner y el objeto rígido.
3. El método según cualquiera de las reivindicaciones anteriores, donde se determina una orientación del escáner.
4. El método según cualquiera de las reivindicaciones anteriores, donde se determina una posición del escáner.
5. El método según la reivindicación 2, donde el movimiento relativo del escáner se determina mediante un sensor de movimiento.
6. El método según la reivindicación 3, donde la orientación se determina mediante un sensor de orientación.
7. El método según la reivindicación 4, donde la posición se determina mediante un sensor de posición.
8. El método según cualquiera de las reivindicaciones 5-7, donde el sensor de movimiento y/o el sensor de orientación y/o el sensor de movimiento es un sensor de sistemas micro electromecánicos (MEMS), y/o uno o más giroscopios, y/o uno o más acelerómetros, y/o uno o más magnetómetros, y/o uno o más bobinas electromagnéticas.
9. El método según la reivindicación 5, donde el sensor de movimiento se configura para detectar además las vibraciones y/o temblores.
10. El método según la reivindicación 9, donde la primera superficie y/o la segunda superficie se corrigen por el movimiento y/o vibraciones y/o temblores detectados.
ES18178676T 2011-07-15 2012-07-12 Detección de un objeto móvil al escanear en 3D un objeto rígido Active ES2782075T5 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161508314P 2011-07-15 2011-07-15
DKPA201100547 2011-07-15

Publications (2)

Publication Number Publication Date
ES2782075T3 true ES2782075T3 (es) 2020-09-10
ES2782075T5 ES2782075T5 (es) 2022-11-08

Family

ID=72340481

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18178676T Active ES2782075T5 (es) 2011-07-15 2012-07-12 Detección de un objeto móvil al escanear en 3D un objeto rígido

Country Status (1)

Country Link
ES (1) ES2782075T5 (es)

Also Published As

Publication number Publication date
ES2782075T5 (es) 2022-11-08

Similar Documents

Publication Publication Date Title
ES2699529T3 (es) Detección de un objeto móvil al escanear en 3D un objeto rígido
US11629954B2 (en) Intraoral scanner with fixed focal position and/or motion tracking
ES2884700T3 (es) Compensación de desenfoque de movimiento
ES2615740T3 (es) Compensación de movimiento en una exploración de tres dimensiones
JP5583761B2 (ja) 動的基準フレームを用いた3次元表面検出方法及び装置
KR20220099561A (ko) 정확한 궁 폭을 갖는 치열궁의 디지털 3d 모델
JP6253665B2 (ja) 歯の領域を測定する装置
ES2834396T3 (es) Fotogrametría 3d que usa patrones proyectados
ES2876155T3 (es) Escáner tridimensional y aparato para el procesamiento de objetos artificiales mediante el uso del mismo
ES2618403T3 (es) Modelamiento tridimensional de la cavidad oral
ES2782075T3 (es) Detección de un objeto móvil al escanear en 3D un objeto rígido
KR20190091203A (ko) 파노라마, 컴퓨터 단층촬영 또는 두부계측 x-선 이미징 시 대상의 동작을 교정하기 위한 휴대용 바이트부
DK2428162T3 (en) Method of recording data for three-dimensional imaging of intra-oral cavities