ES2870157T3 - Procedimiento de exploración intraoral - Google Patents

Procedimiento de exploración intraoral Download PDF

Info

Publication number
ES2870157T3
ES2870157T3 ES18728827T ES18728827T ES2870157T3 ES 2870157 T3 ES2870157 T3 ES 2870157T3 ES 18728827 T ES18728827 T ES 18728827T ES 18728827 T ES18728827 T ES 18728827T ES 2870157 T3 ES2870157 T3 ES 2870157T3
Authority
ES
Spain
Prior art keywords
color
pattern
image
intraoral
utensil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18728827T
Other languages
English (en)
Inventor
Andrew Dawood
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medicim NV
Original Assignee
Medicim NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medicim NV filed Critical Medicim NV
Application granted granted Critical
Publication of ES2870157T3 publication Critical patent/ES2870157T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • A61C9/006Optical means or methods, e.g. scanning the teeth by a laser or light beam projecting one or more stripes or patterns on the teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Image Processing (AREA)

Abstract

Un procedimiento de escaneo intraoral implementado por ordenador para generar una representación 3D de al menos una parte de una escena intraoral, el procedimiento comprende: - obtener una pluralidad de conjuntos de datos de exploración donde al menos algunos de dichos conjuntos de datos de exploración comprenden datos espaciales superpuestos y donde cada conjunto de datos de exploración comprende datos de nube de puntos 3D que representan una parte de la escena intraoral en un espacio de coordenadas de nube de puntos y una imagen en color 2D de dicha parte de dicha escena intraoral en un espacio de coordenadas de cámara, - etiquetar elementos de imagen de dicha imagen en color de cada uno de dichos conjuntos de datos de escaneo dentro de una zona que tiene un color o patrón de color correspondiente a (i) un color o patrón de color de un utensilio usado intraoralmente mientras se obtiene dicho conjunto de datos de escaneo donde etiquetar elementos de imagen dentro de una zona que tiene un patrón de color correspondiente a un patrón de color de un utensilio comprende: - identificar dos o más zonas de color en dicha imagen en color 2D, comprendiendo cada una de dichas dos o más zonas de color elementos de imagen conectados que tienen un código de color dentro de un mismo intervalo seleccionado de entre dos o más intervalos de color no superpuestos correspondientes a los colores respectivos comprendidos en dicho patrón de color de dicho utensilio, - identificar una zona de patrón que comprende dos o más zonas de color conectadas, - determinar si un patrón de color de dicha zona de patrón coincide con un patrón de color de utensilio y etiquetar los elementos de imagen en dicha zona de patrón en caso de que el patrón de color de dicha zona de patrón coincida con un patrón de color de utensilio; o (ii) a un patrón de color correspondiente a un patrón de color de un área de la superficie del diente que comprende manchas o partículas no deseadas, donde dicho etiquetado comprende: - identificar una zona de color en dicha imagen 2D que comprende elementos de imagen conectados que tienen un código de color dentro de un intervalo correspondiente a un color de dicha mancha o partícula, - identificar un código de color de los elementos de imagen adyacentes a dicha zona de color identificada, - etiquetar los elementos de imagen en dicha zona de color en caso de que más de la mitad de dichos elementos de imagen adyacentes tengan un código de color dentro de un intervalo correspondiente a un tono de diente; - filtrar de dichos datos de nube de puntos 3D de cada conjunto de datos de escaneo los puntos de datos que se asignan a elementos de imagen etiquetados de la imagen en color correspondiente, - generar una representación 3D uniendo dichos datos de nube de puntos 3D filtrados de los respectivos conjuntos de datos de escaneo; y - mostrar en una pantalla dicha representación 3D generada a partir de la unión de dichos datos de nube de puntos 3D filtrados.

Description

DESCRIPCIÓN
Procedimiento de exploración intraoral
Campo de la invención
La presente invención está relacionada en general con el campo del procesamiento y filtrado de datos metrológicos tridimensionales obtenidos durante la exploración intraoral.
Antecedentes de la invención
Un sistema de escaneo óptico intraoral es un equipo de diagnóstico que permite al odontólogo ver el interior de la boca del paciente y mostrar las características topográficas tridimensionales (3D) de los dientes y la encía en un monitor de pantalla. La parte de un sistema de escaneo intraoral 3D puede ser insertada en la cavidad bucal de un paciente por un operador, típicamente un odontólogo. Después de la inserción del sistema de exploración intraoral en la cavidad oral, el operador puede capturar imágenes de las partes visibles de los dientes y las encías. Los sistemas de escaneo intraoral 3D se pueden utilizar para reemplazar las impresiones de yeso tradicionales que registran las características dentales y de ortodoncia.
Un sistema de escaneo óptico intraoral puede capturar datos de metrología 3D de una escena intraoral generando una serie de imágenes de intensidad bidimensional (2D) de una o más superficies de objetos en la escena intraoral. En algunos sistemas, esto se logra proyectando patrones de luz estructurados sobre la superficie. Se puede generar un patrón de luz proyectando un par de haces ópticos coherentes sobre la superficie del objeto y el patrón de franjas resultante variado entre imágenes 2D sucesivas. Alternativamente, el patrón de luz proyectada puede ser una serie de líneas paralelas proyectadas generadas usando una máscara de intensidad y el patrón proyectado cambiado de posición entre imágenes en 2D sucesivas. En otros tipos más de sistemas de exploración intraoral óptica 3D, se emplean técnicas de formación de imágenes confocales y similares.
Los sistemas ópticos de escaneo intraoral se pueden equipar para capturar también datos de color en paralelo a dichos datos de metrología 3D y hacer coincidir este color con los datos 3D tal como se explica en el documento WO2010/099036.
Un sistema de escaneo óptico intraoral típico incluye un dispositivo de escaneo de mano o una varita que un operador usa para dirigir y apuntar manualmente con la punta del escáner de la varilla a los objetos en la escena intraoral. Durante la medición de la escena del objeto, la varita puede usarse para adquirir un conjunto de datos 3D y datos de color coincidentes relacionados con la escena del objeto mientras la varita está en movimiento. En algunas aplicaciones, se miden múltiples superficies de objetos colocando la varilla para que esté muy cerca de las superficies de los objetos. Sin embargo, cuando la varita se coloca en una ubicación de la escena del objeto, algunas secciones de la escena del objeto pueden quedar ocultas a la vista de la varita. Por ejemplo, la presencia de dientes, encías u otras características dentales en una vista estática particular puede oscurecer la vista de otros dientes. Por consiguiente, un operador puede adquirir conjuntos de datos en 3D y de color a partir de varios escaneos de un arco dental. Una unidad de procesamiento puede registrar o "coser" las zonas superpuestas de todos los conjuntos de datos 3D adquiridos de los diversos escaneos para obtener una representación completa del conjunto de datos 3D de todas las superficies observadas durante el procedimiento de medición.
Por lo tanto, en un procedimiento de escaneo intraoral, la punta del escáner se desplaza sobre los maxilares a una distancia adecuada de la zona de interés y se desplaza de un diente a otro o sobre las encías, el implante o los componentes de restauración hasta que se escaneen los datos de la parte requerida de la escena intraoral. Normalmente, la varilla de exploración intraoral está conectada con un dispositivo informático que comprende una pantalla y el operador puede observar en dicha pantalla cómo la representación 3D de la escena intraoral se construye gradualmente a partir de los conjuntos de datos de exploración unidos y adquiridos secuencialmente. Esta representación en 3D ayuda al operador a identificar las partes de la escena intraoral para las que hay suficientes datos de escaneo disponibles y que necesitan un escaneo adicional.
Durante el escaneo se pueden utilizar varios utensilios, como un tubo de succión, boquillas de pulverización de aire o agua, un espejo, un retractor, entre otros. Algunos de estos utensilios entran en el campo de visión del dispositivo de escaneo intraoral durante la adquisición de datos, lo que puede resultar en la incorporación, típicamente no deseada, de datos geométricos de estos utensilios en la representación o modelo 3D. Además, debido a que estos utensilios son objetos en movimiento, cuando se incorporan involuntariamente en el escaneo, pueden interferir con el proceso de unión, creando datos artefactuosos.
Otras alteraciones del procedimiento de exploración pueden originarse en los tejidos intraorales móviles, en particular la lengua y la mejilla. Por ejemplo, durante el escaneo, el tejido de la lengua o la mejilla puede moverse a una ubicación entre la punta del escaneo y los dientes o encía, lo que da como resultado la incorporación no deseada de datos de escaneo de este tejido en el modelo 3D y/o una alteración de la unión de los respectivos conjuntos de datos de escaneo. Para evitar esta interferencia de los tejidos blandos móviles, el operador puede retraer, sujetar o guiar cuidadosamente estos tejidos con un dedo enguantado o con un utensilio durante el escaneo, mientras trata de evitar la aparición de dicho dedo o utensilio dentro del campo de visión del dispositivo de escaneo. Esta manipulación cuidadosa generalmente ralentiza el procedimiento de escaneo y, a veces, el utensilio, el dedo y/o los tejidos blandos móviles aparecen de todos modos en el campo de visión.
Los errores de unión o la presencia no deseada de objetos o tejido móvil en una eventual representación 3D de una escena intraoral, generalmente requieren que se eliminen partes de la representación 3D y se vuelvan a escanear las partes correspondientes de la cavidad bucal. Dicha edición de la representación 3D y la nueva exploración lleva mucho tiempo y alarga la duración del procedimiento de exploración tanto para el paciente como para el operador.
Otro problema al adquirir datos 3D de las superficies de los dientes es la presencia de manchas no deseadas, como manchas de sangre o partículas, como brackets de ortodoncia o partículas de comida, en los dientes. El escaneo de dichas manchas o partículas normalmente da como resultado la adquisición de datos incorrectos de la superficie del diente en las posiciones de estas manchas o partículas. Cuando el operador advierte la presencia de dichas manchas o partículas después del escaneo, las zonas que comprenden estas manchas o partículas deben eliminarse de la representación 3D y las partes correspondientes de la cavidad bucal deben escanearse de nuevo después de eliminar las manchas o partículas, en caso de que dicha eliminación sea posible. Esto también dificulta y alarga la duración del procedimiento de escaneo.
En la técnica anterior, los datos de geometría y color se utilizan para distinguir entre un primer y un segundo tejido, como tejido duro como dientes y tejido blando como encías, lengua, mejillas y labios.
El documento EP1607041B describe un procedimiento para proporcionar datos útiles en procedimientos asociados con la cavidad bucal que se caracteriza por comprender: proporcionar al menos dos entidades numéricas (h , I2 , ..., In ), cada una de dichas entidades numéricas es representativa de la geometría de la superficie tridimensional y del color de al menos parte de la cavidad intraoral en donde dicha entidad numérica comprende la geometría de la superficie y los datos de color asociados con dicha parte de la cavidad intraoral; donde al menos una parte de dichas entidades (I1 , I2 , ..., In ) comprenden datos espaciales superpuestos, que comprenden:
a) para cada entidad que proporcione al menos una subentidad (IS'1, IS'2, ... IS'n) que comprende un primer conjunto de datos de tejido que comprende geometría de superficie y datos de color, en el que dichos datos de color del mismo se correlacionan con un color representativo de un primer tejido; y
b) unir dichos primeros conjuntos de datos de tejidos basándose en el registro de partes de dicho conjunto de datos que comprenden dichos datos espaciales superpuestos (I1, I2 , ...,In) y manipular dicha entidad para proporcionar los datos deseados a partir de los mismos.
En el procesamiento de imágenes, se utiliza un procedimiento llamado "space carving" (escultura del espacio) para construir un modelo 3D. El artículo "A Method for Registration of 3-D Shapes" de Besl y McKay, IEEE Transactions of Patten Analysis and Machine Intelligence, vol.14, no.2, febrero de 1992 describe un procedimiento para un registro exacto y computacionalmente eficiente de formas 3D.
Además, el documento WO2013/010910 describe un procedimiento para detectar un objeto móvil en una ubicación, al escanear un objeto rígido en la ubicación por medio de un escáner 3D para generar un modelo 3D virtual del objeto rígido, donde el procedimiento comprende: proporcionar una primera representación 3D de al menos parte de una superficie escaneando al menos parte de la ubicación; proporcionar una segunda representación 3D de al menos parte de la superficie escaneando al menos parte de la ubicación; determinar para la primera representación 3D un primer volumen excluido en el espacio donde no puede estar presente ninguna superficie; determinar para la segunda representación 3D un segundo volumen excluido en el espacio donde no puede estar presente ninguna superficie; si una parte de la superficie en la primera representación 3D está ubicada en el espacio en el segundo volumen excluido, la parte de la superficie en la primera representación 3D se descarta en la generación del modelo 3D virtual, y/o si una parte de la superficie en la segunda representación 3D está ubicada en el espacio en el primer volumen excluido, la parte de la superficie en la segunda representación 3D se descarta en la generación del modelo 3D virtual.
Además, el documento US2014177931 describe la detección de objetos no deseados en escaneos de dientes basándose en información de color adquirida junto con (registrado en) una nube de puntos 3D de los dientes.
Además, el documento US2015209118 describe la detección de marcadores usados para facilitar el registro de escaneos de dientes en 3D, siendo los marcadores lugares en zonas vacías de la mandíbula donde no existen características que permitan el registro de escaneos vecinos. Los marcadores se detectan mediante la coincidencia de patrones de color. Después de la detección, los marcadores se eliminan del modelo 3D adquirido de los dientes. Sin embargo, ninguno de los elementos de la técnica anterior ofrece una solución adecuada para hacer frente a la presencia no deseada de utensilios o tejidos móviles. Ninguno de los documentos de la técnica anterior sugiere una forma de compensar la presencia de manchas o partículas no deseadas en la superficie de un diente durante el escaneo intraoral.
Por tanto, es necesario superar este problema.
Resumen de la invención
Es un objeto de la presente invención proporcionar un procedimiento para facilitar y mejorar la precisión de los procedimientos de escaneo intraoral reduciendo el efecto de, o incluso eliminando completamente de los datos de metrología 3D, la presencia de datos provenientes de objetos, típicamente utensilios o de áreas dentales que comprenden manchas o partículas, que se escanearon durante el procedimiento de escaneo intraoral.
El objetivo anterior se logra mediante la solución según la presente invención. La invención se define mediante las reivindicaciones adjuntas.
Con el fin de resumir la invención y las ventajas conseguidas sobre la técnica anterior, se han descrito determinados objetivos y ventajas de la invención se describen anteriormente en esta invención. Por supuesto, debe comprenderse que no necesariamente dichos objetivos o ventajas deban conseguirse de acuerdo con cualquier realización particular de la invención. Así, por ejemplo, aquellos expertos en la técnica reconocerán que la invención puede realizarse o llevarse a cabo de una forma que consiga u optimice una ventaja o grupo de ventajas tal como se enseña o sugiere en esta invención, sin conseguir necesariamente otros objetivos o ventajas como puede enseñarse o sugerirse en esta invención.
Los anteriores y otros aspectos de la invención resultarán evidentes y se dilucidarán a partir de la(s) realización(es) descrita(s) a continuación en esta invención.
Breve descripción de los dibujos
La invención se describirá ahora con más detalle, a modo de ejemplo, con referencia a los dibujos adjuntos, en los que los mismos números de referencia se refieren a elementos similares en las diversas figuras.
La Fig. 1 es un diagrama de bloques de una realización de un aparato para generar una visualización de una representación 3D según la invención.
La Fig. 2 es un diagrama de flujo de una realización de un procedimiento para generar una visualización de una superficie de metrología 3D según la invención.
La Fig. 3 ilustra una configuración de ejemplo de un sistema de metrología 3D sin contacto como se conoce en la técnica.
La Fig. 4 ilustra una realización del sistema de imágenes de la Fig. 1.
La Fig. 5 es una representación en diagrama de flujo de un procedimiento tal como se usa en un ejemplo de la presente invención para etiquetar elementos de imagen de una imagen 2D en color que están comprendidos en una zona que representa un patrón de color de un utensilio.
La Fig. 6 ilustra diferentes patrones de color de superficie de utensilios para usar en la presente invención.
Descripción detallada de las realizaciones ilustrativas
La presente invención se describirá con respecto a realizaciones particulares y con referencia a determinados dibujos, pero la invención no se limita a las mismas, sino únicamente a las reivindicaciones.
Además, los términos primero, segundo y similares en la descripción y en las reivindicaciones se usan para distinguir entre elementos similares y no necesariamente para describir una secuencia, ya sea temporalmente, espacialmente, en clasificación o de cualquier otra manera. Debe entenderse que los términos así utilizados son intercambiables bajo circunstancias apropiadas y que las realizaciones de la invención descritas en esta invención son capaces de funcionar en otras secuencias que las descritas o ilustradas en esta invención.
Cabe señalar que el término "que comprende", utilizado en las reivindicaciones, no debe interpretarse como restringido a los medios enumerados a continuación; no excluye otros elementos o etapas. Por lo tanto, debe interpretarse que especifica la presencia de las características, números enteros, etapas o componentes mencionados, pero no excluye la presencia o adición de una o más características, números enteros, etapas o componentes, o grupos de los mismos. Así, el alcance de la expresión "un dispositivo que comprende los elementos A y B" no debería limitarse a los dispositivos que consisten solo en los componentes A y B. Significa que con respecto a la presente invención, los únicos componentes relevantes del dispositivo son A y B.
La referencia a lo largo de esta especificación a «una realización», o «una realización» significa que una característica particular, estructura o característica descrita en relación con la realización está incluida en al menos una realización de la presente invención. Por tanto, cuando aparecen frases como "en una realización" en varios lugares a lo largo de esta especificación, no se refieren todas necesariamente a la misma realización. Además, las funciones, estructuras o características particulares pueden combinarse de cualquier forma adecuada, como sería evidente para un experto en la materia a partir de esta descripción, en una o más realizaciones.
De manera similar, debe apreciarse que en la descripción de las realizaciones ejemplares de la invención, varias características de la invención a veces se agrupan en una sola realización, figura o descripción de la misma con el fin de simplificar la descripción y ayudar en la comprensión de uno o más de los diversos aspectos de la invención. Este procedimiento de descripción, sin embargo, no se debe interpretar como indicativo de una intención de que la invención reivindicada requiera más características de las que se describen expresamente en cada reivindicación. Por el contrario, tal como lo reflejan las reivindicaciones que se encuentran a continuación, los aspectos de la invención se encuentran en menos de la totalidad de las características de una realización descrita anteriormente. Por lo tanto, las siguientes reivindicaciones se incorporan a la presente en la descripción detallada y cada reivindicación representa por sí misma una realización separada.
Además, aunque algunas realizaciones descritas en eesta invención incluyen algunas pero no otras características incluidas en otras realizaciones, se pretende que las combinaciones de características de diferentes realizaciones estén dentro del alcance de la invención y formen diferentes realizaciones, como entenderán los expertos en la técnica. Por ejemplo, en las siguientes reivindicaciones, cualquiera de las realizaciones reivindicadas puede usarse en cualquier combinación.
Cabe señalar que el uso de terminología particular al describir determinadas características o aspectos de la invención no debe implicar que la terminología se está redefiniendo en esta invención para restringirla a incluir cualquier característica específica de las características o aspectos de la invención con los que esa terminología está asociada. En la descripción proporcionada en esta invención, se establecen numerosos detalles específicos. No obstante, se comprende que las realizaciones de la invención se pueden poner en práctica sin estos detalles específicos. En otros aspectos, los procedimientos, estructuras y técnicas bien conocidos no se han mostrado en detalle para no oscurecer la comprensión de esta descripción.
"Color" se usa en esta invención para referirse a una característica óptica percibida, que incluye una o más de las siguientes: tonalidad, croma, valor, translucidez, reflectancia.
"Tonalidad" se usa en esta invención para referirse a un color o al nombre de un color, por ejemplo, colores primarios u otros como rojo, verde, azul, violeta, verde, etc., o para una combinación de colores, como, por ejemplo, verde amarillento. Las tonalidades de interés principal en esta invención son los tonos verde y azul, que son los más alejados de los tonos que se observan típicamente en la cavidad intraoral. Por lo tanto, dentro de la presente invención, se prefiere el uso de tonos verdes y azules como colores de superficie o dentro de los patrones de color de la superficie de los utensilios utilizados en la cavidad intraoral durante el escaneo, ya que facilita la diferenciación de dichos utensilios de los objetos en la escena intraoral en función del color del utensilio. Otras tonalidades de interés en esta invención son los tonos característicos de las superficies de los dientes, en particular el blanco, el amarillo y otras tonalidades representativas del color de las limaduras, etc.
"Valor" se usa en esta invención para referirse al brillo de un color.
"Croma" se usa en esta invención para referirse a la fuerza, intensidad o saturación de la tonalidad.
"Código de color" se utiliza en esta invención para referirse a un medio para definir las características de color de un elemento de imagen en una imagen en color. En el caso de una imagen en color 2D, dicho elemento de imagen se suele denominar píxel. Generalmente, cada elemento de imagen tiene un color uniforme con una única definición de color. Esta definición está representada por el código de color que comprende valores en un espacio de color. Los espacios de color de uso común en la industria de imágenes digitales definen el color de cada píxel como una combinación de valores de colorante (por ejemplo, rojo (R), verde (G) y azul (B), colectivamente RGB, en un espacio de color aditivo o cian (C), magenta (M), amarillo (Y) y negro (B), colectivamente CMYK, en un espacio de color sustractivo). Además, YCbCr, Y'CbCr o Y Pb/Cb Pr/Cr, también escrito como YCBCR o Y'CBCR, es una familia de espacios de color de uso frecuente como parte de la cartera de imágenes en color en sistemas de fotografía digital y vídeo. Y' es el componente de luminancia, Cb y Cr son los componentes de crominancia de diferencia de azul y de diferencia de rojo e Y es el componente de luminancia. Dentro de la presente invención, se puede utilizar un código de color de un elemento de imagen que comprende datos sobre todos o una selección de los elementos de un espacio de color. Los códigos de color basados en elementos del espacio de color que especifican características de color independientes de la luminancia son de particular interés dentro de la presente invención, ya que no son o son menos sensibles a los efectos de sombreado en la cavidad bucal. Por ejemplo, los códigos de color basados únicamente en los elementos Cb Cr de los espacios de color YCbCr o Y'CbCr demostraron ser particularmente útiles para su uso en el procedimiento según la presente invención.
"Utensilio" se usa en esta invención para referirse a cualquier atributo que pueda ser usado por un odontólogo durante una intervención terapéutica, diagnóstica o estética dentro de la cavidad intraoral. El experto en la materia conoce muchos utensilios de este tipo, entre otros, estos pueden seleccionarse de la siguiente lista no exhaustiva: guantes, dique de goma, espejos dentales, herramientas de preparación dental, puntas de succión, agujas dentales, boquillas de aire comprimido, protectores absorbentes, rollos de algodón, cordón retractor, instrumentación para empaquetar cordón e instrumentos diseñados específicamente para la retracción, por ejemplo, retractores quirúrgicos, retractores de mejillas y retractores de lengua. Además, el procedimiento de la presente invención puede implicar el uso de utensilios que no se utilizan habitualmente en la cavidad bucal, como pequeños paneles u hojas que se pueden colocar entre la punta del escáner y un objeto dentro de la escena intraoral para evitar la captura de datos de escaneo para este objeto. Se prefiere que al menos la parte de dicho utensilio que está o puede introducirse en la cavidad intraoral tenga un determinado color de superficie o patrón de color de superficie que promueva su uso en el procedimiento de exploración intraoral según la presente invención. Teniendo en cuenta la presencia natural muy limitada de tonos azules y verdes en la cavidad intraoral, se prefiere que la superficie de dicho utensilio o al menos la parte del mismo que habitualmente se introduce en la cavidad intraoral tenga un color azul o verde o un patrón de color donde predominan los colores azul o verde. Preferiblemente más del 50 %, como más de 60 %, 70 %, 80 %, 90 % hasta el 100 % de la superficie de un utensilio o de al menos la parte del mismo que habitualmente se introduce en la cavidad intraoral tiene un color verde o azul.
En un procedimiento de escaneo intraoral, la punta del escáner de un dispositivo de escaneo óptico se mueve sobre las mandíbulas a una distancia adecuada de los objetos de interés, como dientes, encías, implantes o componentes de restauración hasta que se escaneen los datos de toda la arcada o se adquiere una porción deseada de los mismos. Durante el escaneo se pueden utilizar varios utensilios, como un tubo de succión para mantener el área seca y para la comodidad del paciente, se puede usar una boquilla rociadora de aire o agua para secar o limpiar una superficie o un espejo, entre otros. Algunos de estos utensilios entran en el campo de visión del dispositivo de escaneo intraoral durante la adquisición de datos, lo que puede resultar en la incorporación, típicamente no deseada, de datos geométricos de estos utensilios en la representación o modelo 3D posible. Además, debido a que estos utensilios son objetos en movimiento, cuando se incorporan involuntariamente en el escaneo, pueden interferir con el proceso de unión, creando datos artefactuosos.
Otras alteraciones del procedimiento de exploración pueden originarse en los tejidos intraorales móviles, en particular la lengua y la mejilla. Por ejemplo, durante el escaneo, el tejido de la lengua o la mejilla puede moverse a una ubicación entre la punta del escaneo y los dientes o encía, lo que da como resultado la incorporación no deseada de datos de escaneo de este tejido en el modelo 3D y/o una alteración de la unión de los respectivos conjuntos de datos de escaneo. Para evitar esta interferencia de los tejidos blandos móviles, el operador puede sujetar o guiar cuidadosamente estos tejidos con un dedo enguantado o con un utensilio durante el escaneo, mientras trata de evitar la aparición de dicho dedo o utensilio dentro del campo de visión del dispositivo de escaneo. Esta manipulación cuidadosa generalmente ralentiza el procedimiento de escaneo y, a veces, el utensilio, el dedo y/o los tejidos blandos móviles aparecen de todos modos en el campo de visión.
Es un objeto de la presente invención proporcionar un procedimiento para eliminar o filtrar automáticamente de los datos de escaneo intraoral adquiridos cualquier dato geométrico que se origine en los utensilios, que se reconocen como utensilios para los que no se desean datos de escaneo. Esta eliminación o filtrado automático de estos datos geométricos resuelve los problemas de incorporación de datos de utensilios en una representación 3D, así como la interferencia de estos datos en el proceso de unión. Además, como los datos geométricos de estos utensilios se eliminan automáticamente y no interfieren con el procedimiento de exploración, un operador que utilice el procedimiento de la presente invención ya no se preocupa por su presencia accidental dentro del campo de visión del dispositivo de exploración. De esta forma, el operador puede utilizar los utensilios de forma más libre y eficaz para sujetar o retraer cualquiera de los tejidos blandos durante un procedimiento de exploración intraoral. Por lo tanto, la eliminación o filtrado automático de los datos geométricos de dicho utensilio o utensilios reconocidos de los datos de escaneo también da como resultado una menor captura e interferencia de datos no deseados de tejido blando móvil durante un procedimiento de escaneo intraoral. Como parte de la presente invención, se encontró que un utensilio podría reconocerse eficazmente basándose en el color de la superficie o el patrón de color de la superficie del utensilio, más particularmente la parte de los utensilios que se pueden introducir o se introducen habitualmente en la cavidad intraoral. Teniendo en cuenta la presencia natural muy limitada de tonos azules y verdes en la cavidad intraoral, se descubrió que el reconocimiento de dicho utensilio durante la exploración se facilita cuando la superficie de dicho utensilio o al menos la parte del mismo que habitualmente se introduce en la cavidad intraoral tenga un color de superficie azul o verde o un patrón de color donde predominan los colores azul o verde. Preferiblemente más del 50 %, tal como más de 60 %, 70 %, 80 %, 90 % hasta el 100 % de la superficie de un utensilio o de al menos la parte del mismo que habitualmente se introduce en la cavidad intraoral tiene un color verde o azul.
En un objeto adicional, la presente invención proporciona un procedimiento que comprende el uso de reconocimiento de patrones de color para detectar y eliminar automáticamente los datos de escaneo geométricos que se originan a partir de manchas o partículas en la superficie de un diente durante el escaneo. El escaneo de dichas manchas o partículas normalmente da como resultado la adquisición de datos incorrectos de la superficie del diente en las posiciones de estas manchas o partículas. Cuando el operador advierte su presencia en la representación 3D durante o después del escaneo, las zonas que comprenden estas manchas o partículas deben eliminarse de la representación 3D y las partes correspondientes de la cavidad bucal deben escanearse de nuevo después de eliminar estas manchas o partículas de las superficies dentales reales en caso de que dicha eliminación sea posible. Al detectar y eliminar o filtrar automáticamente los datos geométricos que se originan a partir de manchas o partículas en la superficie de un diente, el operador puede notar en la representación 3D generada durante el escaneo que faltan datos de escaneo en la posición de dicha mancha o partícula en la superficie de un diente. Después de esta observación, el operador puede, con o sin interrumpir el procedimiento de escaneo, limpiar dicha superficie dental y volver a escanear el área correspondiente para completar la representación 3D. Si la mancha o partícula no se puede eliminar, por ejemplo, en el caso de un bracket, el operador puede decidir aceptar el resultado del escaneo con datos faltantes. Los datos que faltan en la representación 3D pueden tratarse adecuadamente en el posprocesamiento de los datos escaneados. Una realización particular de la presente invención combina el uso del reconocimiento automático y la eliminación de datos geométricos que se originan en los utensilios tal como se describe en esta invención con el reconocimiento automático y la eliminación de datos geométricos que se originan a partir de manchas o partículas en la superficie de un diente.
La FIG. 1 presenta esquemáticamente una realización de un dispositivo de exploración intraoral 10 para generar una representación 3D de una escena intraoral para su uso en un procedimiento según la presente invención. La FIG. 2 es una representación en diagrama de flujo de una realización de un procedimiento 100 para generar una visualización de la representación 3D de una parte de una escena intraoral según la presente invención. El aparato 10 incluye un sistema de metrología 14 y un sistema de formación de imágenes 18 que se comunican con un procesador 22. El sistema de metrología 14 adquiere datos de nube de puntos 3D para una superficie de una parte de una escena intraoral 26 que se está midiendo y el sistema de imágenes 18 adquiere una imagen en color, típicamente una imagen bidimensional ("2D"), de la superficie de la misma parte de la escena intraoral 26. La imagen en color puede ser una imagen RGB, como se conoce en la técnica. Los datos de imagen se referencian a un espacio de coordenadas de la cámara que se define típicamente por un conjunto de elementos de imagen (por ejemplo, píxeles de la cámara) y los componentes ópticos que generan la imagen del objeto en el conjunto. El procesador 22 recibe datos de nubes de puntos 3D del sistema de metrología 14 y datos de imágenes en color del sistema de formación de imágenes 18. Los datos combinados de los datos de la nube de puntos 3D y la imagen en color correspondiente según se adquiere para una superficie de una parte determinada de una escena intraoral se denominan en esta invención un conjunto de datos de exploración. La imagen en color de un conjunto de datos de escaneo se procesa para etiquetar los elementos de imagen que se encuentran dentro de una zona de la imagen que representa una superficie de dicha escena intraoral, que preferiblemente no debería estar incluida en dicha representación 3D. Normalmente, los elementos de imagen se etiquetan dentro de una zona con un color o patrón de color correspondiente a un color de superficie o patrón de color de superficie de un utensilio usado intraoralmente cuando se adquiere dicho conjunto de datos de escaneo. De forma alternativa o adicional, se etiquetan elementos de imagen que están dentro de una zona que tiene un patrón de color correspondiente a un patrón de color del área de la superficie del diente que comprende manchas o partículas no deseadas. Si es necesario, el procesador 22 transforma la imagen en color de la superficie del espacio de coordenadas de la cámara en el espacio de coordenadas de la nube de puntos 3D. Esta transformación se puede realizar antes (Fig. 2A) o después (Fig. 2B) de dicho etiquetado de los elementos de la imagen. A continuación, la imagen en color etiquetada y transformada de forma aplicable se mapea en los datos de la nube de puntos 3D, por lo que los puntos de datos de la nube de puntos 3D que se mapean en dichos elementos de imagen en color etiquetados se eliminan o filtran de dichos datos de la nube de puntos 3D. Finalmente, se genera una representación 3D a partir de dichos datos de nube de puntos 3D filtrados, que no incluye ninguna de las superficies representadas por los elementos de imagen en color etiquetados.
Dicha representación 3D que comprende los datos filtrados de la nube de puntos 3D, preferiblemente mapeados a dicha imagen de color correspondiente, se presenta como una sola pantalla a un usuario en un módulo de pantalla 30, lo que permite al usuario interpretar más fácilmente los datos de medición 3D deseados para la superficie intraoral. En una realización, el procesador 22 incluye un primer procesador y un segundo procesador. El primer procesador realiza dicho etiquetado de los elementos de las imágenes y la transformación de la imagen en color del espacio de coordenadas de la cámara al espacio de coordenadas de la nube de puntos 3D y el segundo procesador realiza el mapeo de la imagen etiquetada y transformada sobre los datos de la nube de puntos 3D y el filtrado de los mismos para generar dicha representación en 3D.
La representación 3D se puede presentar en una pantalla de usuario en cualquiera de una variedad de formatos. Por ejemplo, la nube de puntos 3D se puede presentar como una superficie de malla de alambre. La superficie de malla de alambre se crea típicamente renderizando una línea que conecta cada punto 3D con puntos 3D adyacentes en la nube de puntos. En general, un punto adyacente en la superficie de la malla de alambre significa uno de los tres puntos más cercanos. En otra realización, la nube de puntos 3D se presenta como una superficie artificial creada al representar una superficie triangular entre cada punto en la nube de puntos 3D y sus tres puntos adyacentes como se conoce en la técnica.
Un dispositivo de escaneo 3D intraoral generalmente se mueve con respecto a la escena intraoral o la parte de la misma que se mide (por ejemplo, estructuras dentales) durante el proceso de medición. Como tal, se obtienen múltiples conjuntos de conjuntos de datos de escaneo, cada uno de los cuales comprende datos de nubes de puntos 3D y datos de imágenes en color correspondientes, donde dichos conjuntos de datos de escaneo comprenden una serie de nubes de puntos 3D que se solapan parcialmente. Cada nube de puntos 3D se asocia típicamente con un espacio de coordenadas de cámara que difiere del espacio de coordenadas de cámara de las otras nubes de puntos 3D. Las zonas superpuestas de nubes de puntos 3D adyacentes son registradas por un procesador usando una técnica de correlación 3d u otra técnica conocida en la técnica. Por lo tanto, cada nube de puntos 3D sucesiva se une en el espacio de coordenadas correspondiente a la ubicación inicial de la cámara. Dentro del procedimiento de la presente invención, se prefiere que antes de registrar y unir nubes de puntos 3D superpuestas, cada uno de dichos datos de nubes de puntos 3D se filtre para eliminar los puntos de datos de nubes 3D que se mapean en dichos elementos de imagen etiquetados de una imagen de color correspondiente tal como describió anteriormente. Dicho filtrado previo de dichos datos de nube de puntos 3D tiene la ventaja de que los datos geométricos de superficies, que no deberían incluirse en la eventual representación 3D, no se consideran y no pueden interferir con el registro y unión de las nubes de puntos superpuestas. En particular, los datos geométricos que se originan en un utensilio utilizado en la cavidad intraoral durante el escaneo pueden ser problemáticos. Dicho utensilio es típicamente móvil y puede cambiar de posición entre la adquisición de dos nubes de puntos superpuestas y, por tanto, afectar negativamente a su registro y unión.
El procedimiento de escaneo intraoral de la presente invención típicamente comprende obtener imágenes en color 2D como parte de dichos conjuntos de datos de escaneo. El etiquetado de elementos de imagen en color 2D, típicamente píxeles, dentro de una zona que tiene un color correspondiente a un color de superficie de dicho utensilio generalmente comprende las etapas de (i) identificar uno o más elementos de imagen que tienen un código de color dentro de un intervalo correspondiente a un color de la superficie del utensilio; y (ii) etiquetar los elementos de imagen identificados. Opcionalmente, los elementos de imagen adyacentes a los elementos de imagen identificados también están etiquetados. Este etiquetado de elementos de imagen adyacentes a dichos elementos de imagen identificados es útil para asegurar que también los elementos de imagen en el límite de la superficie del utensilio representados en dicha imagen 2D estén etiquetados. La identificación de elementos de imagen que tienen un código de color dentro de un intervalo correspondiente al color de la superficie de dicho utensilio requiere típicamente ingresar información sobre el color de la superficie del utensilio. El color de la superficie de un utensilio se puede ingresar indicando un intervalo de código de color que cubre la apariencia variable de dicho color de superficie en imágenes de color adquiridas con el sistema de formación de imágenes de dicho dispositivo de escaneo intraoral. Se entiende que esta apariencia puede variar de una imagen a otra dependiendo, entre otras, de las condiciones de iluminación y la calibración del sistema de formación de imágenes. Alternativamente, la superficie de dicho utensilio se puede escanear usando el dispositivo de escaneo intraoral para derivar automáticamente el intervalo de código de color a partir de los datos de escaneo.
En caso de que la superficie de dicho utensilio se caracterice por un patrón de color de superficie, el etiquetado de elementos de imagen de color 2D dentro de una zona que tiene un patrón de color correspondiente a un patrón de color de superficie de dicho utensilio puede comprender las siguientes etapas. En una primera etapa, se identifican dos o más zonas de color en dicha imagen 2D, donde cada una de dichas zonas de color comprende elementos de imagen conectados que tienen un código de color dentro de un mismo intervalo seleccionado de entre dos o más intervalos de color no superpuestos correspondientes a los colores respectivos comprendidos en el patrón de color de la superficie de dicho utensilio. Por ejemplo, cuando un patrón de color de la superficie de un utensilio comprende tonos azul y verde, en dicha primera etapa se identificarán las zonas de color azul y verde en la imagen de color 2D. Opcionalmente, dichas zonas de color incluyen además elementos de imagen en una capa límite adyacente a dichos elementos de imagen conectados. La inclusión de dichos elementos de imagen de límite puede compensar los efectos de artefactos al nivel de los elementos de imagen en el límite de dos colores de patrón o en los bordes de la superficie del utensilio. En una etapa adicional, se identifica una zona de patrón que comprende dos o más zonas de color conectadas. Las zonas de color conectadas son zonas de color adyacentes. Para dicha zona de patrón, se determina posteriormente si el patrón de color de dicha zona de patrón coincide con un patrón de color de la superficie del utensilio. En caso de que el patrón de color de dicha zona del patrón coincida con un patrón de color de la superficie del utensilio, los elementos de imagen en dicha zona del patrón están etiquetados. En la técnica están disponibles varios procedimientos de reconocimiento de patrones para determinar si una zona de patrón coincide con un patrón de color de la superficie del utensilio. Dentro de la presente invención, determinar si el patrón de color de una zona de patrón coincide con un patrón de color de la superficie del utensilio puede comprender, por ejemplo, analizar las posiciones relativas dentro de dicha zona de patrón de las dos o más zonas de color en relación con las posiciones relativas de las áreas de color correspondientes en el patrón de color de la superficie del utensilio. De forma alternativa o adicional, dicha determinación puede comprender comparar la proporción de las áreas de superficie combinadas cubiertas por los colores respectivos en el patrón de color de la superficie del utensilio (por ejemplo, la proporción entre las áreas combinadas cubiertas de azul y verde en un patrón de color azul-verde) con la relación de las áreas de superficie combinadas de las respectivas zonas de color correspondientes en una zona de patrón de imagen. Más particularmente, dicha determinación de si el patrón de color de dicha zona del patrón coincide con un patrón de color de la superficie del utensilio puede comprender las siguientes etapas. En una etapa inicial, las áreas de superficie de color combinadas se calculan para una zona de patrón sumando las áreas de superficie de las respectivas zonas de color en dicha zona de patrón, que comprenden elementos de imagen que tienen un código de color dentro del mismo intervalo. A continuación, se determina la relación de dichas áreas de superficie de color combinadas. Finalmente, se verifica si dicha ración es comparable a la relación de las respectivas áreas de superficie combinadas de cada uno de los colores correspondientes en el patrón de color de la superficie del utensilio. Por ejemplo, en caso de que un utensilio comprenda un patrón de color de superficie en el que el 30 % de la superficie del patrón esté cubierta con un tono azul y el 70 % de la superficie del patrón con un tono verde, se verifica según las etapas del procedimiento indicados anteriormente si la proporción de áreas de superficie combinadas de las zonas de color que comprenden elementos de imagen que tienen un código de color correspondiente a dicho tono azul y verde, respectivamente, es de aproximadamente 30/70. Un procedimiento sencillo para calcular dicha área de superficie de color combinado es contar todos los elementos de imagen, píxeles, en una zona de patrón que tiene un código de color dentro de dicho mismo intervalo correspondiente a un color comprendido en el patrón de color de superficie del utensilio.
La identificación de elementos de imagen dentro de una zona que tiene un patrón de color correspondiente a un patrón de color de la superficie de dicho utensilio típicamente requiere ingresar información sobre un patrón de color de la superficie del utensilio. Puede introducirse un patrón de color de la superficie del utensilio indicando un intervalo de código de color para cada uno de los colores en dicho patrón de color de la superficie. Además, se puede ingresar información adicional sobre el patrón, como las posiciones relativas de las diferentes áreas de color en dicho patrón y/o la proporción de las áreas de superficie cubiertas por los respectivos colores del patrón. Alternativamente, la superficie del utensilio se puede escanear usando el dispositivo de escaneo intraoral para derivar automáticamente dicha información en los intervalos de códigos de colores para los colores respectivos en el patrón de colores y/o la información adicional del patrón.
En caso de que el procedimiento de la presente invención implique evitar la inclusión de datos geométricos que se originan en áreas dentales que comprenden una mancha o partícula adherida, el etiquetado de elementos de imagen en color 2D dentro de una zona que tiene un patrón de color correspondiente a un patrón de color de un diente el área superficial que comprende manchas o partículas no deseadas comprende típicamente las siguientes etapas. En una primera etapa se identifica una zona de color en dicha imagen, que comprende elementos de imagen conectados que tienen un código de color dentro de un intervalo correspondiente a un color de dicha mancha o partícula. Opcionalmente, dichas zonas de color comprenden además elementos de imagen en una capa límite adyacente a dichos elementos de imagen conectados. La inclusión de dichos elementos de imagen de límite puede compensar los efectos de color artificiales al nivel de los elementos de imagen en el límite de la superficie de dicha partícula o mancha. A continuación, se determina el código de color de los elementos de imagen adyacentes a dicha zona de color identificada. En caso de que más de 40 %, como más de 50 %, 60 %, 70 %, 80 % o 90 %, de dichos elementos de imagen adyacentes tienen un código de color dentro de un intervalo correspondiente a la apariencia de color de los dientes, los elementos de imagen en dicha zona de color están etiquetados como elementos de imagen dentro de dicha zona que tienen un patrón de color correspondiente a un patrón de color de un área de superficie de diente que comprende manchas o partículas no deseadas. La identificación de elementos de imagen dentro de dicha zona requiere introducir información sobre el intervalo de colores correspondiente a un color de dicha mancha o partícula no deseada. Alternativamente, se puede escanear un área del diente que comprende tal partícula o mancha y el operador puede indicar la partícula o mancha en los datos de imagen adquiridos. A partir de estos datos indicados, el sistema de exploración intraoral puede derivar automáticamente dicha gama de colores correspondiente al color de la mancha indicada o los datos de partículas.
El procedimiento intraoral según la presente invención típicamente comprende mostrar en una pantalla una representación 3D generada gradualmente a partir de los conjuntos de datos de exploración adquiridos secuencialmente uniendo y representando dichos datos filtrados de nube de puntos 3D. Dicha representación en 3D ayuda al operador a identificar las partes de la escena intraoral para las que faltan datos de escaneo y que necesitan un escaneo adicional o un nuevo escaneo. Tales partes en el modelo 3D para las que faltan datos de escaneo pueden resultar del filtrado de los datos de la nube de puntos 3D para impedir la incorporación de datos geométricos provenientes de un utensilio o un área de diente que comprende una mancha o partícula no deseada. Sin embargo, volver a escanear partes con datos faltantes es habitual dentro de un procedimiento de escaneo intraoral y es un inconveniente menor en comparación con la situación actual donde los procedimientos de escaneo deben interrumpirse para editar o eliminar partes de una representación 3D que contiene datos geométricos no deseados o incorrectos y son posteriormente reiniciados para volver a escanear dichas partes.
El procedimiento puede comprender además mostrar una imagen 2D de un campo de visión actual de un dispositivo de escaneo intraoral utilizado para obtener dichos conjuntos de datos de escaneo. En una realización particular, la imagen 2D muestra todos los datos de la imagen en color tal como se obtienen en un conjunto de datos de escaneo actual, incluida la superficie de cualquier utensilio o manchas o partículas no deseadas. Esta vista 2D "completa" le ayuda al operador a identificar la posición del dispositivo de escaneo en relación con la escena intraoral y con los utensilios utilizados en la boca. Alternativamente, el operador puede optar por una imagen 2D de la que se hayan filtrado dichos elementos de imagen etiquetados.
Se pueden utilizar varios tipos de sistemas de metrología 3D para generar los datos de la nube de puntos 3D, incluidos los sistemas de metrología basados en microscopía confocal, la proyección de patrones de luz estructurados que varían en forma, tamaño e intensidad y/o color y proyección de franjas interferométricas. La FIG. 3 muestra un ejemplo de un sistema de metrología sin contacto 14' que incluye una fuente de proyección de metrología 34, una cámara de metrología 38 y un procesador de metrología 42 tal como se conoce en la técnica. La fuente de proyección 34 y la cámara 38 están fijadas en posición entre sí para mantener con precisión un ángulo de triangulación a entre sus ejes ópticos 36 y 40, respectivamente. La fuente de proyección 34 está configurada para iluminar el objeto 26 con diferentes patrones de luz tales como patrones de máscara de sombra o patrones de franjas interferométricas. La cámara 38 es una cámara de dispositivo de carga acoplada (CCD) u otra cámara de formación de imágenes digitales como se conoce en la técnica. Normalmente, la cámara 38 adquiere conjuntos de tres o más imágenes 2D, correspondiendo cada imagen 2D a un patrón de iluminación diferente o un patrón de iluminación común en una posición o fase diferente en la superficie del objeto. El procesador de metrología 42 recibe las imágenes de la cámara 38 y calcula la distancia desde la cámara 38 al objeto 26 para cada píxel de la cámara. Las distancias calculadas se utilizan para generar los datos de la nube de puntos 3D que incluyen puntos 3D en coordenadas correspondientes a puntos en la superficie del objeto.
La FIG. 4 muestra una realización del sistema de formación de imágenes 18 mostrado en la FIG. 1 que incluye una cámara a color 46, una fuente de luz de banda ancha 50 y un módulo de control 54 que se comunica con la cámara 46, la fuente de luz 50 y el procesador 22. La fuente de luz de banda ancha 50 genera luz blanca o luz que tiene una distribución espectral suficiente para iluminar el objeto 26 sin alterar significativamente la apariencia del objeto 26 con respecto al color verdadero del objeto 26. La fuente de luz de banda ancha 50 puede ser un diodo emisor de luz blanca (LED). El módulo de control 54 coordina el funcionamiento de la fuente de luz de banda ancha 50 y la cámara en color 46 con respecto al funcionamiento del sistema de metrología 14. En algunas realizaciones, es deseable desactivar la fuente de luz 50 durante los intervalos en los que una fuente de proyección en el sistema de metrología 14 ilumina el objeto 26. En realizaciones alternativas, la fuente de luz de banda ancha 50 ilumina continuamente el objeto 26 independientemente del estado de la fuente de proyección. Preferiblemente, el módulo de control 54 sincroniza la adquisición de imágenes de la cámara en color con la adquisición de imágenes realizada por una cámara de metrología. En algunas realizaciones, el módulo de control 54 activa la fuente de luz de banda ancha 50 durante la adquisición de imágenes por la cámara de color 46 y desactiva la fuente de luz de banda ancha cuando la cámara de color 46 no está adquiriendo imágenes.
En otra realización, el sistema de formación de imágenes 18 de la FIG. 1 incluye un módulo de control, una cámara monocromática y una pluralidad de fuentes de iluminación. El módulo de control se comunica con la cámara monocromática, las fuentes de iluminación y el procesador 22. Cada fuente de iluminación genera iluminación óptica que tiene una distribución de longitud de onda que es diferente, o única, con respecto a las distribuciones de longitud de onda de las otras fuentes de iluminación. Las distribuciones de longitud de onda pueden ser longitudes de onda únicas (por ejemplo, luz generada por fuentes láser), bandas espectrales estrechas (por ejemplo, luz generada por LED) o bandas espectrales más amplias caracterizadas más generalmente por intervalo de color (por ejemplo, luz roja, verde o azul). Por ejemplo, las fuentes de iluminación se pueden activar selectivamente para iluminar el objeto que se mide con luz roja, luz azul y luz verde de manera secuencial. En una realización preferida de la invención, las fuentes de iluminación son LED. En otra realización, las fuentes de iluminación son fuentes de luz de banda ancha, cada una de las cuales tiene un filtro de color único para limitar espectralmente la iluminación a distribuciones de longitud de onda únicas.
Ejemplo 1: Sistema de escaneo intraoral
El sistema de escaneo intraoral comprende un dispositivo de metrología 3D con franja de interferencia armónica combinado con un dispositivo de imagen que comprende una cámara en color 2D y una fuente de luz de banda ancha montada en una varilla de escaneo que comprende una punta de escaneo adecuada para maniobrar en la cavidad intraoral. La varita está conectada a una unidad de procesamiento operativamente vinculada a un dispositivo de visualización. El dispositivo de escaneo permite adquirir secuencialmente conjuntos de datos de escaneo, cada uno de los cuales comprende datos de nube de puntos 3D junto con una imagen en color correspondiente de una parte de la cavidad intraoral dentro del campo de visión del dispositivo de escaneo. Al mover la punta del escáner sobre la escena intraoral, se obtienen conjuntos de datos de escaneo que comprenden datos espaciales superpuestos. La unidad de procesamiento está codificada para filtrar de los datos de la nube de puntos 3D cualquier mapeo de datos de puntos de datos en elementos de imagen de la imagen de color correspondiente que están etiquetados para representar una superficie cuya incorporación en la representación 3D no es deseada (como superficies de utensilios o superficies de dientes que comprenden una mancha o partícula). A partir de los datos filtrados de la nube de puntos en 3D, se genera gradualmente una representación en 3D de la escena intraoral y se muestra en una ventana del dispositivo de visualización. Las áreas para las que se dispone de puntos de datos de nube 3D insuficientes, ya sea como resultado de un escaneo incompleto o debido a dicho filtrado de los datos de nube de puntos 3D, se representan como los denominados "huecos" en la representación 3D hasta que dichos huecos se llenan mediante un escaneo adecuado de las zonas correspondientes de la escena intraoral. Una segunda ventana del dispositivo de visualización muestra una vista 2D que presenta las superficies dentro del campo de visión actual del dispositivo de escaneo. Esta vista 2D presenta todos los datos de imágenes en color adquiridos por la cámara en color.
Ejemplo 2: Filtrado de datos geométricos de los datos de la nube de puntos 3D que se originan en utensilios verdes o azules
El procesador de un sistema de escaneo intraoral según el Ejemplo 1 está programado para etiquetar los elementos de imagen en color 2D, que tiene un código de color dentro de un intervalo correspondiente a un tono verde y azul, así como los elementos de imagen adyacentes a dichos elementos de imagen. Un código de color [Pe r , Pe b ] de un elemento de imagen de píxel se considera que está dentro del intervalo de un tono cuando su distancia de color d desde un valor de tono de referencia [Rc r , Rc b ] está dentro de un intervalo de 0 a 20, donde d =
Figure imgf000011_0001
En este ejemplo, los tonos de verde y azul de referencia están definidos por los valores de Cr Cb [49, 101] y [83, 198], respectivamente.
El sistema de escaneo intraoral es utilizado por un operador que durante el escaneo guía la lengua y revisa el tejido con un dedo enguantado verde. La vista 2D en el dispositivo de visualización indica que la yema del dedo verde aparece con frecuencia dentro del campo de visión del dispositivo de escaneo. A pesar de estas apariencias, no se integran datos geométricos de la yema del dedo en la representación 3D.
En una prueba adicional, se utiliza una boquilla de pulverización de aire azul para secar la superficie de un diente mientras se escanea. La boquilla es claramente visible en la vista 2D, mientras que la representación 3D muestra un "agujero" de datos faltantes en la posición de la boquilla. Después de retirar la boquilla de aire de la cavidad bucal, este agujero en la representación 3D se llena fácilmente escaneando la porción correspondiente de dicho diente.
Ejemplo 3: Filtrado de datos geométricos de los datos de la nube de puntos 3D que se originan a partir de un utensilio con un patrón de color en la superficie
El procesador de un sistema de escaneo intraoral según el Ejemplo 1 está programado para etiquetar los elementos de la imagen dentro de una zona que comprende un patrón azul y verde y para filtrar de los datos de la nube de puntos 3D cualquier punto de datos que se asigne a los elementos de imagen etiquetados de una imagen en color correspondiente. En la Fig. 6 se representan ejemplos de posibles patrones de colores de utensilios.
El etiquetado de los elementos de la imagen se realiza tal como se indica en el diagrama de flujo de la Fig. 5. Se identifican los elementos de imagen de color conectados que tienen un código de color dentro de un intervalo correspondiente a un tono verde (colour0) y uno azul (colour1). Un código de color [Pc -, PCb] de un elemento de imagen de píxel se considera que está dentro del intervalo de un tono cuando su distancia de color d desde un valor de tono de referencia [Rc -, Rc b ] está dentro de un intervalo de 0 a 20, donde
Figure imgf000012_0001
En este ejemplo, los tonos de verde y azul de referencia están definidos por los valores de Cr Cb [49, 101] y [83, 198], respectivamente. Cada grupo de elementos de imagen conectados identificados forma una zona color0 o color1. A continuación, se detectan una o más zonas de patrón que comprenden al menos una zona de color0 conectada con al menos una zona de color1. Dentro de una zona de patrón, se cuenta el número total de elementos de imagen de color0 y color1, respectivamente, y se calcula la relación entre el número total de elementos de imagen color0 y color1. Solo en el caso de que esta relación sea comparable a la relación conocida de las zonas de superficie de color0 sobre color1 combinadas del patrón de color del utensilio, se etiquetan los elementos de imagen de la zona del patrón.
Este sistema de escaneo intraoral es utilizado por un operador, mientras introduce un utensilio en forma de plato con un patrón de color de superficie de rayas azul verdoso del cual las áreas de superficie combinadas de verde sobre azul tienen una proporción de 50/50. Esta relación se ingresa en el sistema de escaneo intraoral antes del escaneo. Cuando este utensilio rayado aparece en el campo de visión del dispositivo de escaneo, es visible dentro de la vista 2D en la pantalla, mientras que la representación 3D muestra un "agujero" de datos faltantes en la posición del utensilio. Sin embargo, repetir el procedimiento de escaneo con los mismos ajustes utilizando un mismo utensilio en forma de plato con un color de superficie verde da como resultado la incorporación de datos geométricos del utensilio en la representación 3D cuando este utensilio se introduce dentro del campo de visión.
La invención se define mediante las reivindicaciones adjuntas.
Otras variaciones en las realizaciones descritas pueden ser entendidas y efectuadas por los expertos en la materia en la práctica de la invención reivindicada, a partir de un estudio de los dibujos, la descripción y las reivindicaciones adjuntas. En las reivindicaciones, la palabra "que comprende" no excluye otros elementos o etapas, y el artículo indefinido "un" o "una" no excluye una pluralidad. Un solo procesador u otra unidad puede cumplir las funciones de varios elementos enumerados en las reivindicaciones. El mero hecho de que ciertas medidas se enumeren en reivindicaciones dependientes mutuamente diferentes no indica que una combinación de estas medidas no pueda usarse de manera ventajosa. Un programa de ordenador puede ser almacenado/distribuido en un medio adecuado, como un medio de almacenamiento óptico o un medio de estado sólido suministrado junto con o como parte de otro hardware, pero también puede distribuirse en otras formas, como a través de Internet u otros sistemas de telecomunicaciones alámbricos o inalámbricos. Ningún signo de referencia en las reivindicaciones debe interpretarse como una limitación del alcance.

Claims (17)

REIVINDICACIONES
1. Un procedimiento de escaneo intraoral implementado por ordenador para generar una representación 3D de al menos una parte de una escena intraoral, el procedimiento comprende:
- obtener una pluralidad de conjuntos de datos de exploración donde al menos algunos de dichos conjuntos de datos de exploración comprenden datos espaciales superpuestos y donde cada conjunto de datos de exploración comprende datos de nube de puntos 3D que representan una parte de la escena intraoral en un espacio de coordenadas de nube de puntos y una imagen en color 2D de dicha parte de dicha escena intraoral en un espacio de coordenadas de cámara,
- etiquetar elementos de imagen de dicha imagen en color de cada uno de dichos conjuntos de datos de escaneo dentro de una zona que tiene un color o patrón de color correspondiente a
(i) un color o patrón de color de un utensilio usado intraoralmente mientras se obtiene dicho conjunto de datos de escaneo donde etiquetar elementos de imagen dentro de una zona que tiene un patrón de color correspondiente a un patrón de color de un utensilio comprende:
- identificar dos o más zonas de color en dicha imagen en color 2D, comprendiendo cada una de dichas dos o más zonas de color elementos de imagen conectados que tienen un código de color dentro de un mismo intervalo seleccionado de entre dos o más intervalos de color no superpuestos correspondientes a los colores respectivos comprendidos en dicho patrón de color de dicho utensilio,
- identificar una zona de patrón que comprende dos o más zonas de color conectadas,
- determinar si un patrón de color de dicha zona de patrón coincide con un patrón de color de utensilio y etiquetar los elementos de imagen en dicha zona de patrón en caso de que el patrón de color de dicha zona de patrón coincida con un patrón de color de utensilio; o
(ii) a un patrón de color correspondiente a un patrón de color de un área de la superficie del diente que comprende manchas o partículas no deseadas, donde dicho etiquetado comprende:
- identificar una zona de color en dicha imagen 2D que comprende elementos de imagen conectados que tienen un código de color dentro de un intervalo correspondiente a un color de dicha mancha o partícula, - identificar un código de color de los elementos de imagen adyacentes a dicha zona de color identificada, - etiquetar los elementos de imagen en dicha zona de color en caso de que más de la mitad de dichos elementos de imagen adyacentes tengan un código de color dentro de un intervalo correspondiente a un tono de diente;
- filtrar de dichos datos de nube de puntos 3D de cada conjunto de datos de escaneo los puntos de datos que se asignan a elementos de imagen etiquetados de la imagen en color correspondiente,
- generar una representación 3D uniendo dichos datos de nube de puntos 3D filtrados de los respectivos conjuntos de datos de escaneo; y
- mostrar en una pantalla dicha representación 3D generada a partir de la unión de dichos datos de nube de puntos 3D filtrados.
2. Procedimiento de escaneo intraoral según la reivindicación 1, que comprende una etapa de recibir datos en dicho color y/o dicho patrón de color de dicho utensilio.
3. Procedimiento de exploración intraoral según cualquiera de las reivindicaciones anteriores, que comprende además transformar dicha imagen en color desde dicho espacio de coordenadas de cámara a dicho espacio de coordenadas de nube de puntos antes de mapear dicha imagen en color a dichos datos de nube de puntos 3D.
4. Procedimiento de exploración intraoral según la reivindicación 3, donde dicho etiquetado de dichos elementos de imagen se realiza utilizando dicha imagen en color después de la transformación a dicho espacio de coordenadas de nube de puntos.
5. Procedimiento de exploración intraoral según la reivindicación 3, donde dicho etiquetado de dichos elementos de imagen se realiza utilizando dicha imagen en color antes de la transformación a dicho espacio de coordenadas de nube de puntos.
6. Procedimiento de exploración intraoral según las reivindicaciones 1 o 2, donde dicho espacio de coordenadas de cámara y dicho espacio de coordenadas de nube de puntos son el mismo.
7. Procedimiento de escaneo intraoral según cualquiera de las reivindicaciones anteriores, que comprende preprocesar dicha imagen en color antes de etiquetar dichos elementos de imagen, donde dicho preprocesamiento comprende al menos uno de entre suavizado de color, modificación de la saturación del color de la imagen, ecualización del histograma de color o ajuste del brillo/contraste.
8. Procedimiento de exploración intraoral según cualquiera de las reivindicaciones anteriores, donde dicha imagen en color 2D se obtiene usando una cámara en color 2D o usando una cámara monocromática 2D combinada con una pluralidad de fuentes de iluminación.
9. Procedimiento de escaneo intraoral según cualquiera de las reivindicaciones anteriores, donde dicho etiquetado de dichos elementos de imagen de dicha imagen en color 2D dentro de dicha zona que tiene dicho color correspondiente a dicho color de dicho utensilio comprende:
- identificar uno o más elementos de imagen que tienen un código de color dentro de un intervalo correspondiente a dicho color de dicho utensilio, y
- etiquetar dichos uno o más elementos de imagen identificados.
10. Procedimiento de exploración intraoral según la reivindicación 9, donde también se etiquetan elementos de imagen adyacentes a dichos elementos de imagen identificados.
11. Procedimiento de escaneo intraoral según cualquiera de las reivindicaciones anteriores, donde dicha determinación de si dicho patrón de color de dicha zona de patrón coincide con dicho patrón de color de utensilio comprende analizar las posiciones relativas dentro de dicha zona de patrón de dichas dos o más zonas de color en relación con las posiciones relativas de dichas una o más áreas de color correspondientes en dicho patrón de color de dicho utensilio.
12. Procedimiento de exploración intraoral según cualquiera de las reivindicaciones anteriores, donde dicha determinación de si dicho patrón de color de dicha zona de patrón coincide con dicho patrón de color del utensilio comprende:
- calcular dos o más áreas de superficie de color combinadas agregando áreas de superficie de las respectivas zonas de color en dicha zona de patrón, que comprenden elementos de imagen que tienen un código de color dentro de un mismo intervalo,
- determinar una proporción de dichas áreas de superficie de color combinadas;
- comparar dicha relación con una relación de las respectivas áreas de superficie combinadas de cada uno de dichos colores correspondientes en dicho patrón de color de dicho utensilio.
13. Procedimiento de exploración intraoral según cualquiera de las reivindicaciones anteriores, donde dicha zona de color comprende además elementos de imagen en una capa límite adyacente a dichos elementos de imagen conectados.
14. Procedimiento de exploración intraoral según cualquiera de las reivindicaciones anteriores, que comprende visualizar una imagen 2D de un campo de visión actual de un dispositivo de exploración intraoral utilizado para obtener dichos conjuntos de datos de exploración.
15. Procedimiento de escaneo intraoral según la reivindicación 14, donde dicha imagen 2D muestra dicha imagen en color obtenida en un conjunto de datos de escaneo actual.
16. Procedimiento de exploración intraoral según la reivindicación 15, donde dicha imagen 2D muestra dicha imagen en color obtenida en un conjunto de datos de exploración actual del que se han filtrado dichos elementos de imagen etiquetados.
17. Un programa, ejecutable en un dispositivo programable que contiene instrucciones, que cuando se ejecutan, realizan el procedimiento de exploración intraoral como en cualquiera de las reivindicaciones 1 a 16.
ES18728827T 2017-05-27 2018-05-25 Procedimiento de exploración intraoral Active ES2870157T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB1708520.0A GB201708520D0 (en) 2017-05-27 2017-05-27 A method for reducing artefact in intra oral scans
PCT/EP2018/063774 WO2018219800A1 (en) 2017-05-27 2018-05-25 Method for intraoral scanning

Publications (1)

Publication Number Publication Date
ES2870157T3 true ES2870157T3 (es) 2021-10-26

Family

ID=59270934

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18728827T Active ES2870157T3 (es) 2017-05-27 2018-05-25 Procedimiento de exploración intraoral

Country Status (9)

Country Link
US (1) US11446125B2 (es)
EP (1) EP3631753B1 (es)
CN (1) CN110709886B (es)
AU (1) AU2018275860B2 (es)
CA (1) CA3061996A1 (es)
DK (1) DK3631753T3 (es)
ES (1) ES2870157T3 (es)
GB (1) GB201708520D0 (es)
WO (1) WO2018219800A1 (es)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986123A (zh) * 2017-06-01 2018-12-11 无锡时代天使医疗器械科技有限公司 牙颌三维数字模型的分割方法
CN107909609B (zh) * 2017-11-01 2019-09-20 欧阳聪星 一种图像处理方法及装置
EP3899876A1 (en) 2018-12-20 2021-10-27 Medicim NV Automated trimming of a surface mesh
US11744681B2 (en) * 2019-03-08 2023-09-05 Align Technology, Inc. Foreign object identification and image augmentation for intraoral scanning
US11127172B2 (en) * 2019-06-24 2021-09-21 J. Patrick Epling Infinitely layered camouflage
US11995839B2 (en) * 2019-09-04 2024-05-28 Align Technology, Inc. Automated detection, generation and/or correction of dental features in digital models
US11250580B2 (en) 2019-09-24 2022-02-15 Dentsply Sirona Inc. Method, system and computer readable storage media for registering intraoral measurements
KR102269897B1 (ko) * 2020-01-08 2021-06-28 주식회사 메디트 이미지 필터링 방법
JP2022157660A (ja) * 2021-03-31 2022-10-14 株式会社トプコン 点群情報処理装置、点群情報処理方法、点群情報処理プログラム
US11191620B1 (en) * 2021-06-03 2021-12-07 Oxilio Ltd Systems and methods for generating an augmented 3D digital model of an anatomical structure of a subject
JP2023082325A (ja) * 2021-12-02 2023-06-14 株式会社モリタ製作所 データ処理装置、データ処理方法、データ処理プログラム、およびデータ処理システム
JP2023082326A (ja) * 2021-12-02 2023-06-14 株式会社モリタ製作所 データ処理装置、データ処理方法、データ処理プログラム、およびデータ処理システム
CN113925441B (zh) * 2021-12-17 2022-05-03 极限人工智能有限公司 一种基于内窥镜的成像方法及成像系统
JP7260699B1 (ja) 2022-03-25 2023-04-18 株式会社モリタ製作所 データ処理装置、データ処理方法、およびデータ処理プログラム
CN114708150A (zh) * 2022-05-02 2022-07-05 先临三维科技股份有限公司 一种扫描数据处理方法、装置、电子设备及介质
CN114998841B (zh) * 2022-08-01 2022-11-01 易凯医疗建筑设计(深圳)有限公司 核酸采样的样本识别方法、装置、设备及存储介质
CN116152783B (zh) * 2023-04-18 2023-08-04 安徽蔚来智驾科技有限公司 目标元素标注数据的获取方法、计算机设备及存储介质
CN116993627B (zh) * 2023-09-26 2023-12-15 山东莱恩光电科技股份有限公司 一种激光扫描图像数据校正方法
CN117649494B (zh) * 2024-01-29 2024-04-19 南京信息工程大学 一种基于点云像素匹配的三维舌体的重建方法及系统

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080311535A1 (en) * 2007-05-04 2008-12-18 Ormco Corporation Torque Overcorrection Model
DE602005004332T2 (de) 2004-06-17 2009-01-08 Cadent Ltd. Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle
GB0414277D0 (en) 2004-06-25 2004-07-28 Leuven K U Res & Dev Orthognatic surgery
GB0507204D0 (en) 2005-04-08 2005-05-18 Leuven K U Res & Dev Maxillofacial and plastic surgery
US8874251B2 (en) * 2006-07-06 2014-10-28 Airway Technologies, Llc System and method for forming a custom medical mask from a three-dimensional electronic model
EP1982652A1 (en) 2007-04-20 2008-10-22 Medicim NV Method for deriving shape information
WO2009089129A1 (en) * 2008-01-04 2009-07-16 3M Innovative Properties Company Global camera path optimization
WO2010099036A1 (en) 2009-02-25 2010-09-02 Dimensional Photonics International, Inc. Intensity and color display for a three-dimensional metrology system
EP2254068B1 (en) 2009-05-18 2020-08-19 Nobel Biocare Services AG Method and system providing improved data matching for virtual planning
DK2722818T3 (da) 2009-09-04 2020-01-06 Medicim Nv Fremgangsmåde til digitalisering af dento-maxillofaciale objekter
EP3195827B1 (en) 2009-11-16 2021-04-14 Nobel Biocare Services AG System and method for planning and producing a dental prosthesis
EP2322114A1 (en) 2009-11-16 2011-05-18 Nobel Biocare Services AG System and method for planning a first and a second dental restoration
US20120062557A1 (en) * 2010-09-10 2012-03-15 Dimensional Photonics International, Inc. Systems and methods for processing and displaying intra-oral measurement data
US8712733B2 (en) 2010-09-17 2014-04-29 Biocad Medical, Inc. Adjusting dental prostheses based on soft tissue
WO2013010910A1 (en) 2011-07-15 2013-01-24 3Shape A/S Detection of a movable object when 3d scanning a rigid object
DE102011080180B4 (de) * 2011-08-01 2013-05-02 Sirona Dental Systems Gmbh Verfahren zur Registrierung mehrerer dreidimensionaler Aufnahmen eines dentalen Objektes
PL2956084T3 (pl) * 2013-02-13 2022-12-19 3Shape A/S Urządzenie do skanowania ogniskowego rejestrujące barwy
US9557331B2 (en) * 2013-08-23 2017-01-31 Elwha Llc Systems, methods, and devices for assessing microbiota of skin
US10111714B2 (en) * 2014-01-27 2018-10-30 Align Technology, Inc. Adhesive objects for improving image registration of intraoral images
US11122180B2 (en) * 2014-05-02 2021-09-14 Dentsply Sirona Inc. Systems, methods, apparatuses, and computer-readable storage media for collecting color information about an object undergoing a 3D scan
FR3027508B1 (fr) * 2014-10-27 2016-12-23 H 42 Procede de controle de la dentition
US9629698B2 (en) * 2014-11-04 2017-04-25 James R. Glidewell Dental Ceramics, Inc. Method and apparatus for generation of 3D models with applications in dental restoration design
JP7099954B2 (ja) 2015-11-20 2022-07-12 ノベル バイオケア サーヴィシィズ アーゲー 走査可能な特徴を備えたヒーリングキャップ
AU2017281290B2 (en) 2016-06-21 2022-03-17 Nobel Biocare Services Ag Method for estimating at least one of shape, position and orientation of a dental restoration

Also Published As

Publication number Publication date
EP3631753A1 (en) 2020-04-08
CN110709886B (zh) 2024-04-05
AU2018275860A1 (en) 2019-12-05
CA3061996A1 (en) 2018-12-06
US11446125B2 (en) 2022-09-20
AU2018275860B2 (en) 2022-09-15
US20200170760A1 (en) 2020-06-04
GB201708520D0 (en) 2017-07-12
DK3631753T3 (da) 2021-04-26
WO2018219800A1 (en) 2018-12-06
EP3631753B1 (en) 2021-03-10
CN110709886A (zh) 2020-01-17

Similar Documents

Publication Publication Date Title
ES2870157T3 (es) Procedimiento de exploración intraoral
JP7427038B2 (ja) 歯科診断機能を有する口腔内スキャナ
JP6487580B2 (ja) テクスチャ的特徴を用いる物体の3dモデル化方法
JP5518018B2 (ja) 三次元撮像のためのデータ取得方法
JP6430934B2 (ja) 蛍光を測定する口腔内3dスキャナ
ES2927626T3 (es) Aparato de escaneo de foco que graba el color
US20200060798A1 (en) Color Selection Aid For Target Objects Such As Dental Objects
CN112584793A (zh) 将至少一个附加的2d图像与牙齿的至少一部分的3d表示相关联的方法、装置和系统
ES2776994T3 (es) Modelación en 3D de un objeto usando características texturales