ES2941511T3 - Sistema de escáner 3D con escáner de mano - Google Patents

Sistema de escáner 3D con escáner de mano Download PDF

Info

Publication number
ES2941511T3
ES2941511T3 ES18711941T ES18711941T ES2941511T3 ES 2941511 T3 ES2941511 T3 ES 2941511T3 ES 18711941 T ES18711941 T ES 18711941T ES 18711941 T ES18711941 T ES 18711941T ES 2941511 T3 ES2941511 T3 ES 2941511T3
Authority
ES
Spain
Prior art keywords
menu
scanner
mode
scanning
options
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18711941T
Other languages
English (en)
Inventor
Kristian Evers Hansen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3Shape AS
Original Assignee
3Shape AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3Shape AS filed Critical 3Shape AS
Application granted granted Critical
Publication of ES2941511T3 publication Critical patent/ES2941511T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

Se divulga un sistema de escaneo 3D y un método para usar dicho sistema, donde se usa un escáner de mano del sistema de escáner 3D para controlar el modo de operación del sistema de manera que el usuario no necesita activar una unidad externa, por ejemplo, durante un escaneo. procedimiento en el que se escanean los dientes de los maxilares superior e inferior de un paciente. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema de escáner 3D con escáner de mano
Campo técnico
Esta invención se refiere en general a un método y un sistema que comprende un escáner 3D de mano y al menos un visualizador en el que el escáner 3D de mano proporciona un medio para interactuar con la unidad de control del sistema de escáner.
Antecedentes
Cuando se graban representaciones digitales 3D de la dentición de un paciente mediante escaneo intraoral, el procedimiento de escaneo se divide típicamente en dos o más pasos. El escaneo de los dientes en las mandíbulas superior e inferior requiere dos pasos y un escaneo de mordida que proporciona información sobre la disposición relativa de los dientes cuando los dientes están en oclusión forma un tercer paso. El operador debe entrar en la unidad de control del sistema de escáner a cuál de los tres escaneos se relaciona el escaneo actual.
Se usan varios dispositivos de interacción con el usuario para el software que controla los procedimientos de escaneo y muestra las representaciones digitales 3D grabadas en el escaneo, como: ratones de ordenador, bolas espaciales y pantallas táctiles. El funcionamiento de estos dispositivos de interacción requiere tocarlos físicamente. Es decir, el dentista necesita retirar la mano del paciente y ponerse en contacto con el dispositivo de interacción con el usuario. Tocar físicamente un dispositivo de interacción con el usuario puede ser una desventaja en aplicaciones médicas debido a los riesgos de contaminación cruzada entre pacientes o entre paciente y operador.
En la literatura se han descrito varias interfaces de usuario no táctiles para visualización de datos 3D en aplicaciones médicas. Vogt et al (2004) describen un sistema interactivo sin contacto para la visualización in situ de datos de imágenes médicas 3D. La interfaz de usuario se basa en el seguimiento de marcadores reflectantes, donde se monta una cámara en la cabeza del médico. Graetzel et al (2004) describen un sistema sin contacto que interpreta los gestos de las manos como acciones del ratón. Se basa en la visión estereoscópica y está diseñado para su uso en cirugía mínimamente invasiva.
El documento US 2016/0259515 A1 se refiere a un escáner intraoral con entrada sensible al tacto. Se puede detectar un gesto de retención cuando un usuario presiona el sensor táctil durante un período de tiempo límite. Las instrucciones de gestos de espera pueden proporcionar al usuario información sobre un comando que se introducirá en respuesta a un gesto de espera (por ejemplo, "Mantenga presionado para rotar el modelo").
El documento EP 3098702 A1 se refiere a un aparato terminal de usuario y un método de control del mismo y, más en particular, a un aparato terminal de usuario provisto de una función de control remoto y un método de control del mismo. El método puede incluir además, en respuesta a que la manipulación del usuario de seleccionar una GUI (interfaz gráfica de usuario) sea una entrada de pulsación corta, reproducir directamente un contenido correspondiente a la GUI seleccionada, y en respuesta a la manipulación del usuario de seleccionar una GUI que sea una entrada de pulsación larga, proporcionando un menú relacionado con el contenido correspondiente a la GUI seleccionada. El documento US 2013/257718 A1 se refiere a un método y un sistema que comprende un dispositivo de mano y al menos un visualizador. El dispositivo de mano puede comprender un botón. Cuando se presiona rápidamente el botón, el dispositivo de mano está preparado para escanear, es decir, está configurado para realizar al menos una acción, el procedimiento de escaneo, en el entorno 3D físico. El escaneo se detiene cuando el botón se presiona rápidamente por segunda vez. El documento US 2013/257718 A1 divulga además que mientras se mantiene presionado el botón, el sistema usará señales de un sensor de movimiento en el dispositivo de mano para determinar cómo presentar la vista del entorno 3D virtual. Por lo tanto, si el usuario gira o mueve la mano que sujeta el dispositivo de mano, la vista del entorno 3D virtual en el visualizador cambiará en consecuencia.
El documento US 2010/037184 A1 se refiere a un dispositivo electrónico portátil y un método para seleccionar elementos de menú en el dispositivo electrónico portátil. En el presente documento, se divulga que un usuario presiona una tecla de visualización de menú del dispositivo electrónico portátil para mostrar elementos de menú en el visualizador del dispositivo electrónico portátil.
Sigue siendo un problema mejorar los sistemas que requieren interfaces de usuario para interactuar con la unidad de control del sistema de escáner 3D.
Sumario
La invención se expone en el conjunto de reivindicaciones adjunto.
Se divulga un sistema de escáner 3D para grabar una representación digital 3D de un objeto mediante un procedimiento de escaneo que tiene al menos dos pasos, en el que el sistema de escáner comprende:
- un escáner de mano capaz de grabar datos de superficie para el objeto cuando se opera en un modo de escaneo;
- unidad de control configurada para generar una representación digital 3D del objeto a partir de los datos de superficie grabados; y
- un visualizador para mostrar la representación digital 3D del objeto;
donde el escáner de mano comprende uno o más dispositivos de interacción que proporcionan la interacción manual con la unidad de control donde:
un primer tipo de activación de uno o más dispositivos de interacción proporciona que el sistema de escáner entre en el modo de escaneo, y
un segundo tipo de activación de uno o más dispositivos de interacción proporciona que el sistema de escáner entre en un modo de menú en el que se presenta en el visualizador un menú que comprende una o más opciones de menú y el escáner de mano está configurado para seleccionar entre las opciones de menú presentadas.
Dicho o más dispositivos de interacción proporcionan la ventaja de que el operador puede cambiar manualmente entre los modos de operación sin tener que mover su mano del escáner de mano y tocar el equipo no estéril potencial externo.
Entrar en un modo de menú a través de uno o más dispositivos de interacción proporciona la ventaja de que al operador se le presenta primero el menú. El menú aparece así en el visualizador debido al segundo tipo de activación de dicho o más dispositivos de interacción.
Típicamente, en la técnica anterior, se presenta un menú al operador al tocar un botón en un dispositivo no integrado, como presionar un ratón, un teclado, una bola espacial o similar.
Mediante el uso del dispositivo de interacción, integrado en el escáner de mano, al operador se le presenta el menú de manera eficiente. Así, en lugar de presionar un botón en un dispositivo no integrado, el operador puede usar el dispositivo de mano para entrar en el menú. Al menos solo este paso evita que el operador toque otro dispositivo. Además, en algunas realizaciones del sistema de escaneo, el usuario puede no depender del uso de otros dispositivos de activación. De esta manera, el operador puede entrar en el menú desde el lugar de operación. El operador no necesita, por ejemplo, moverse a un ordenador externo o pantalla táctil ubicada más lejos de la ubicación operativa para presionar un dispositivo de activación conectado al ordenador o la pantalla táctil.
En general, esta divulgación proporciona un dispositivo para abrir un menú al menos de manera eficiente sin contaminar otros dispositivos y/o dispositivos de activación mediante el tacto.
Los datos de superficie grabados comprenden al menos datos topográficos relacionados con la topografía de los dientes, de manera que la representación digital 3D generada expresa la forma y la disposición relativa de los dientes del paciente.
En algunas realizaciones, el escáner de mano es capaz de grabar datos de textura, datos de fluorescencia y/o datos IR.
También se pueden grabar otros tipos de datos de los dientes, como datos de textura que expresan el tono o el color de los dientes o datos de fluorescencia o datos IR que proporcionan información de diagnóstico para los dientes. Estos otros tipos de datos pueden grabarse junto con los datos topográficos o en un paso separado. En esta última situación, el menú proporcionado al operador en el modo menú puede incluir las opciones correspondientes.
En algunas realizaciones, la unidad de control comprende un procesador de datos y un medio de almacenamiento legible por ordenador no transitorio en el que se almacena un producto de programa de ordenador con instrucciones para generar una representación digital 3D a partir de los datos de superficie grabados cuando el producto de programa de ordenador es ejecutado por el procesador de datos.
Se divulga un método para escanear los dientes en la mandíbula superior e inferior de un paciente usando un escáner de mano de un sistema de escáner 3D, donde el escáner de mano es capaz de grabar datos de superficie de un objeto cuando el sistema funciona en un modo de escaneo, donde el método comprende:
- entrar en el modo de escaneo del sistema de escáner activando un primer dispositivo de interacción del escáner de mano mediante un primer tipo de interacción;
- grabar datos de superficie para una primera de las mandíbulas mientras el sistema está en modo de escaneo;
- entrar en un modo de menú del sistema de escáner mediante un segundo tipo de interacción con el primer dispositivo de interacción o con un segundo dispositivo de activación del escáner de mano, donde el menú comprende una o más opciones de menú mostradas en un visualizador del sistema de escáner;
- seleccionar la opción de menú deseada usando el escáner de mano; y
- realizar la acción relacionada con la opción de menú seleccionada.
Como se describió anteriormente, el procedimiento de escaneo involucrado en la grabación de representaciones digitales 3D para los dientes de un paciente a menudo incluye un primer paso de escaneo en el que se escanean los dientes en una de las mandíbulas y un segundo escaneo en el que se escanean los dientes de la mandíbula opuesta. Finalmente, se graba un escaneo de mordida para proporcionar información sobre cómo están dispuestos los dientes en oclusión. En esa situación, la secuencia de escaneo puede ser de acuerdo a:
Paso 1: escanear la mandíbula inferior para grabar una representación digital 3D de la mandíbula inferior
Paso 2: escanear la mandíbula superior para grabar una representación digital 3D de la mandíbula superior
Paso 3: grabar escaneo de mordida
En algunas realizaciones, las opciones de menú comprenden pasar al siguiente paso en el procedimiento de escaneo. En un procedimiento para grabar representaciones digitales 3D de los dientes de un paciente, el siguiente paso puede ser, por ejemplo, escanear la mandíbula opuesta a la que se escaneó en el paso anterior o un escaneo de mordida usado para detectar la disposición relativa de los dientes en oclusión.
En algunas realizaciones, las opciones del menú comprenden repetir o continuar el paso anterior en el procedimiento de escaneo. Un dentista puede elegir repetir o continuar con el paso anterior si se trata de un escaneo e inspección del resultado del escaneo que muestra que se necesitan más datos para proporcionar una buena cobertura del objeto escaneado.
En algunas realizaciones, las opciones de menú comprenden entrar en un modo de inspección en el que se puede ajustar la vista de la representación digital 3D visualizada. En el modo de inspección, la vista de la geometría 3D grabada representada en el visualizador puede determinarse mediante los movimientos del escáner de mano como se determina, por ejemplo, por al menos dicho sensor de movimiento.
Si se graban más datos de los dientes, por ejemplo, los datos de fluorescencia y/o color, estos se pueden ver junto con la representación digital 3D de los dientes en el modo de inspección.
El escáner de mano comprende al menos un sensor de movimiento configurado para detectar el movimiento del escáner de mano al menos mientras opera en el modo de menú y la unidad de control está configurada para traducir el movimiento detectado en una selección de una opción de menú.
El sensor de movimiento puede comprender acelerómetros MEMS, sensores de giroscopio, sensores magnéticos, magnetómetros, sensores acústicos, sensores ópticos e infrarrojos, detectores de bucle inductivo, sensores triboeléctricos, sísmicos, de conmutador de inercia, sensores ultrasónicos, sensores de radar de microondas o sensores basados en reflexión de energía transmitida como radar láser infrarrojo, sensores ultrasónicos o sensores de radar de microondas.
El sensor de movimiento está configurado para detectar la rotación y/o el movimiento del escáner de mano de modo que la rotación y/o el movimiento puedan traducirse en una selección de una opción de menú. Esto permite al operador seleccionar la opción de menú deseada girando el escáner de mano en la dirección adecuada. Por ejemplo, si la opción deseada está dispuesta sobre el centro de las opciones de menú mostradas, el operador proporciona una inclinación correspondiente al escáner de mano o si la opción deseada está a la izquierda del centro, el operador gira el extremo distal del escáner de mano en ese dirección.
Tanto el primer como el segundo tipo de activación se realizan con el mismo dispositivo de interacción, donde el primer tipo de activación comprende una breve activación del dispositivo de interacción y el segundo tipo de activación comprende mantener la activación del dispositivo de interacción hasta que se seleccione la opción de menú deseada.
En algunas realizaciones, tanto el primer como el segundo tipo de activación se realizan con el mismo dispositivo de interacción, y en donde el primer tipo de activación está además configurado para cambiar entre un modo de escaneo y un modo sin escaneo. Por ejemplo, el mismo dispositivo de interacción puede ser un botón que, con un primer toque, inicie el escáner de manera que el operador pueda escanear a un paciente. Con un segundo toque, siendo el segundo toque similar al primero, por ejemplo, en términos del tiempo que se mantiene presionado un botón, el escáner deja de escanear.
En algunas realizaciones, cuando está en modo de menú, el sistema de escáner está en un modo de no escaneo. Salir del modo de menú aún puede dejar el sistema del escáner en un modo de no escaneo. Tras la activación del primer tipo de activación, el sistema de escaneo puede cambiarse del modo de no escaneo al modo de escaneo. En algunas realizaciones, al menos parte de las opciones del menú están dispuestas radialmente alrededor de un centro, tal como dispuestas de acuerdo con una cruz o formando las opciones al menos un círculo parcial o un anillo parcial.
En algunas realizaciones, las opciones del menú están dispuestas concéntricamente.
En algunas realizaciones, la disposición del escáner de mano al entrar en el modo de menú define el centro. Las opciones de menú dispuestas radialmente se pueden seleccionar simplemente en función de la dirección en la que se gire el escáner de mano.
En algunas realizaciones, la opción de menú seleccionada es entrar en el modo de escaneo y escanear la segunda de las mandíbulas.
En algunas realizaciones, los dispositivos de interacción comprenden uno o más conmutadores, botones o contactos. Los dispositivos de interacción están preferiblemente dispuestos en el dispositivo de mano de tal manera que el operador pueda conectar los dispositivos de interacción mientras sostiene el dispositivo de mano como se pretende que se sostenga durante el escaneo.
Además del modo de escaneo, el escáner puede entrar en otros modos de grabación, como los modos en los que está configurado para grabar la fluorescencia o la luz infrarroja de los dientes, por ejemplo, con fines de diagnóstico. El menú puede comprender entonces opciones relativas a estos modos de grabación adicionales.
En algunas realizaciones, las opciones del menú comprenden entrar en un modo de alta definición en el que el sistema graba un solo subescaneo con una resolución espacial más alta que la usada cuando se graba la representación digital 3D.
La presente invención se refiere a diferentes aspectos que incluyen el sistema y el método descritos anteriormente y a continuación, y los correspondientes sistemas y métodos, cada uno de los cuales produce uno o más de los beneficios y ventajas descritos en relación con el primer aspecto mencionado, y cada uno tiene una o más realizaciones correspondientes a las realizaciones descritas en relación con el primer aspecto mencionado y/o divulgadas en las reivindicaciones adjuntas.
En particular, en el presente documento se divulga un sistema que comprende un escáner intraoral y al menos un visualizador, en el que el sistema se puede operar
en un modo de escaneo en el que el escáner intraoral está configurado para grabar la geometría 3D de la dentición de un paciente; y
en un modo de menú en el que se presenta en el visualizador un menú que comprende una o más opciones de menú y el escáner intraoral está configurado para seleccionar entre las opciones proporcionadas en el menú;
donde el escáner intraoral está adaptado para seleccionar entre los modos.
Breve descripción de los dibujos
Los objetos, características y ventajas anteriores y/o adicionales de la presente invención se aclararán más mediante la siguiente descripción detallada ilustrativa y no limitativa de las realizaciones de la presente invención, con referencia a los dibujos adjuntos, en los que:
La figura 1 muestra un sistema de escáner 3D para escaneo intraoral.
La figura 2 muestra un ejemplo de un menú.
La figura 3 muestra más ejemplos de disposición de opciones de menú en el visualizador.
Descripción detallada
En la siguiente descripción, se hace referencia a las figuras adjuntas, que muestran a modo de ilustración cómo se puede poner en práctica la invención.
La figura 1A muestra un esquema de un sistema de escáner 3D para escaneo intraoral.
El sistema tiene un escáner 101 de mano y es capaz de grabar datos de superficie para los dientes del paciente 102 cuando se opera en el modo de escaneo. La unidad 103 de control tiene un procesador de datos y un medio de almacenamiento legible por ordenador no transitorio en el que se almacena un producto de programa de ordenador con instrucciones para generar una representación digital 3D 104 a partir de los datos de superficie grabados por el escáner de mano. La representación digital 3D 104 de los dientes se muestra en el visualizador 105.
El escáner de mano tiene un dispositivo 106 de interacción dispuesto de tal manera que el usuario pueda llegar fácilmente al dispositivo de interacción sin mover su agarre del escáner de mano. El dispositivo 106 de interacción proporciona una interacción manual con la unidad de control de manera que el usuario, al activar el dispositivo de interacción, puede operar el sistema. El producto de programa informático en la unidad de control tiene además instrucciones para identificar el tipo de activación proporcionada al dispositivo de interacción o el propio dispositivo de interacción puede detectar el tipo y transmitir esta información a la unidad de control. El sistema de escáner es capaz de operar al menos en dos modos: un modo de escaneo y un modo de menú. Se entra en el modo de escáner cuando la activación del dispositivo de interacción es de acuerdo con un primer tipo de interacción, mientras que se entra en el modo de menú mediante un segundo tipo de interacción.
En un ejemplo de un flujo de trabajo, el sistema está inicialmente en modo de escaneo y el dentista está listo para comenzar a escanear la mandíbula inferior. Para iniciar el escaneo, el operador presiona brevemente el contacto en el escáner de mano. A continuación, se graba una primera representación digital 3D que expresa la forma de los dientes en la mandíbula inferior usando el escáner de mano. Cuando el dentista cree que tiene suficientes datos para la mandíbula inferior, activa el modo menú presionando y manteniendo presionado el contacto. En el modo de menú, se le presentan varias opciones, como "Modo de inspección", "Siguiente" y "Atrás". El dentista puede seleccionar el modo de inspección girando el dispositivo de mano en la dirección correspondiente y soltando el contacto cuando la opción "Modo de inspección" está resaltada.
En el modo de inspección, el dentista puede inspeccionar el resultado del primer escaneo viendo la primera representación digital 3D desde varias vistas diferentes usando el escáner de mano para rotar la primera representación digital 3D. Si está satisfecho con el resultado, presiona nuevamente el contacto en el escáner de mano para entrar en el modo de menú donde apunta el dispositivo de mano hacia la opción "Siguiente" y suelta el contacto para continuar con el siguiente paso en la secuencia de escaneo. Cuando el dentista y el paciente están listos, el dentista presiona brevemente el contacto y comienza a escanear los dientes en la mandíbula superior para grabar una segunda representación digital 3D que muestra la forma de estos dientes. Al haber grabado e inspeccionado la segunda representación digital 3D, el dentista vuelve a seleccionar la opción "siguiente" del menú para proceder a grabar el escaneo de mordida. El escaneo de mordida se inicia cuando el dentista presiona brevemente el contacto.
En consecuencia, el sistema de escáner 3D divulgado proporciona que el usuario puede grabar las representaciones digitales 3D necesarias de los dientes del paciente sin tener que conectar físicamente un dispositivo externo.
La figura 1B muestra una imagen de un escáner 101 de mano intraoral en el que el contacto 106 está dispuesto de manera que el usuario pueda alcanzarlo fácilmente mientras mantiene el escáner en la mano. El usuario puede llegar al contacto mientras sostiene el escáner de la misma manera que lo haría durante el escaneo. En el visualizador 105 se muestra una representación digital 3D 104 de algunos de los dientes en una de las mandíbulas del paciente.
La figura 2 muestra capturas de pantalla de un menú presentado en el visualizador del sistema cuando el sistema entra en el modo de menú. El menú 210 ilustrado en las figuras 2A y 2B tiene cinco opciones:
1. "Siguiente" 211, es decir, proceder al paso siguiente en la secuencia de escaneo;
2. "Atrás" 212, es decir, volver al paso anterior en la secuencia de escaneo;
3. "Foto HD" 213, es decir, grabar un único subescaneo de alta resolución espacial;
4. "Modo de inspección" 214, es decir, entrar en el modo en el que se pueden ver los escaneos anteriores;
5. "Cancelar" 215, es decir, volver al modo anterior.
El menú se visualiza encima de la representación digital 3D grabada en el primer paso del procedimiento de escaneo. Cuando el sistema es como se describe en relación con la figura 1, se entra en el modo de menú cuando el usuario mantiene presionado el contacto de interacción. Al entrar en el modo de menú, la parte central del menú se resalta como se ve en la figura 2A que indica la selección actual para la siguiente acción. Dado que la parte central es la opción "Cancelar", liberar el contacto con esta selección devolverá el sistema a su modo anterior.
Las otras cuatro opciones están dispuestas radialmente alrededor del centro formando un anillo de manera que el usuario puede seleccionar la opción deseada girando el dispositivo de mano en la dirección correspondiente. Por ejemplo, para seleccionar continuar con el siguiente paso en la secuencia de escaneo, el usuario gira el escáner de mano hacia la derecha mientras mantiene presionado el contrato hasta que se resalta la opción "Siguiente" (como se ilustra en la figura 2B). Luego, el usuario libera el contacto, por lo que se selecciona la opción "siguiente", y el sistema de escaneo está listo para comenzar el siguiente paso en la secuencia de escaneo.
La figura 3 muestra más ejemplos de disposición de las opciones en el menú 310 en el visualizador.
En la figura 3A, las cinco opciones de menú descritas en relación con la figura 2A están dispuestas concéntricamente de manera que el usuario selecciona la opción 311, 312, 313, 314 y 315 de menú dependiendo de cuánto gire el escáner de mano y no de la dirección del giro. Resaltar la opción actualmente seleccionada puede ayudar nuevamente al usuario en la interacción con el sistema de control.
En la figura 3B, las mismas cinco opciones 311, 312, 313, 314 y 315 de menú están dispuestas en cruz, de modo que la selección se basa de nuevo en la dirección del movimiento. También se pueden agregar otras opciones 317, 318, 319 y 320 de modo que las opciones formen una red de 3x3 en el visualizador. Las opciones adicionales pueden, por ejemplo, relacionarse con otros modos de grabación, como la fluorescencia o el escaneo/imagen IR.
Aunque se han descrito y mostrado en detalle algunas realizaciones, la invención no se limita a ellas, sino que también puede realizarse de otras formas dentro del alcance del objeto definido en las siguientes reivindicaciones.
Una reivindicación puede hacer referencia a cualquiera de las reivindicaciones anteriores, y se entiende que "cualquiera" significa "cualquiera o más" de las reivindicaciones anteriores.
Debe enfatizarse que el término "comprende/que comprende" cuando se usa en esta especificación se toma para especificar la presencia de características, números enteros, pasos o componentes establecidos, pero no excluye la presencia o adición de una o más características, números enteros, pasos, componentes o grupos de los mismos.
Las características del método descrito anteriormente y a continuación pueden implementarse en software y llevarse a cabo en un sistema de procesamiento de datos u otros medios de procesamiento causados por la ejecución de instrucciones ejecutables por ordenador. Las instrucciones pueden ser medios de código de programa cargados en una memoria, tal como una RAM, desde un medio de almacenamiento o desde otro ordenador a través de una red informática. Alternativamente, las características descritas pueden implementarse mediante circuitos cableados en lugar de software o en combinación con software.

Claims (11)

REIVINDICACIONES
1. - Un sistema de escáner 3D adaptado para el escaneo intraoral y para grabar una representación digital 3D de un objeto mediante un procedimiento de escaneo, en el que el sistema de escáner comprende:
- un escáner (101) de mano capaz de grabar datos de superficie para el objeto cuando se opera en un modo de escaneo;
- unidad (103) de control configurada para generar una representación digital 3D (104) del objeto a partir de los datos de superficie grabados; y
- un visualizador (105) para visualizar la representación digital 3D del objeto;
donde el escáner de mano comprende un dispositivo (106) de interacción que proporciona la interacción manual con la unidad de control donde:
un primer tipo de activación del dispositivo (106) de interacción proporciona que el sistema entre en el modo de escaneo, y
un segundo tipo de activación del dispositivo (106) de interacción proporciona que el sistema de escáner entre en un modo de menú en el que un menú (210, 310) que comprende una o más opciones (211,212, 213, 214, 215, 311, 312, 313, 314, 315, 317, 318, 319, 320) de menú se presenta en el visualizador (105) y el escáner (101) de mano está configurado para seleccionar entre las opciones (211, 212, 213, 214, 215 , 311, 312, 313, 314, 315, 317, 318, 319, 320) de menú presentadas, y
en el que tanto el primer como el segundo tipo de activación se realizan con el dispositivo (106) de interacción, donde el primer tipo de activación comprende una breve activación del dispositivo (106) de interacción
caracterizado porque
el segundo tipo de activación comprende mantener la activación del dispositivo de interacción hasta seleccionar la opción (211,212, 213, 214, 215, 311, 312, 313, 314, 315, 317, 318, 319, 320) de menú deseada, en el que el escáner (101) de mano comprende al menos un sensor de movimiento configurado para detectar el movimiento del escáner (101) de mano al menos mientras opera en el modo de menú y la unidad (103) de control está configurada para traducir el movimiento detectado en una selección de una opción (211, 212, 213, 214, 215, 311, 312, 313, 314, 315, 317, 318, 319, 320) de menú.
2. - El sistema de acuerdo con la reivindicación 1, en el que las opciones (211,212, 213, 214, 215, 311, 312, 313, 314, 315, 317, 318, 319, 320) de menú comprenden pasar al siguiente paso en el procedimiento de escaneo.
3. - El sistema de acuerdo con la reivindicación 1 o 2, en el que las opciones (211, 212, 213, 214, 215, 311, 312, 313, 314, 315, 317, 318, 319, 320) de menú comprenden repetir o continuar un paso anterior en el procedimiento de escaneo.
4. - El sistema de acuerdo con la reivindicación 1, 2 o 3, en el que las opciones (211, 212, 213, 214, 215, 311, 312, 313, 314, 315, 317, 318, 319, 320) de menú comprenden entrar en un modo de inspección en el que se puede ajustar la vista de la representación digital 3D visualizada (104).
5. - El sistema de acuerdo con cualquiera de las reivindicaciones anteriores, en el que tanto el primer como el segundo tipo de activación se realizan con el mismo dispositivo (106) de interacción, y en el que el primer tipo de activación está configurado además para cambiar entre un modo de escaneo y un modo de no escaneo.
6. - El sistema de acuerdo con cualquiera de las reivindicaciones anteriores, en el que cuando está en modo de menú, el sistema de escáner está en un modo de no escaneo.
7. - El sistema de acuerdo con cualquiera o más de las reivindicaciones 1 a 6, en el que al menos parte de las opciones (211,212, 213, 214, 215, 311,312, 313, 314, 315, 317, 318, 319, 320) de menú están dispuestas radialmente alrededor de un centro, tal como dispuestas de acuerdo con una cruz o con las opciones formando al menos un círculo parcial o un anillo parcial.
8. - El sistema de acuerdo con la reivindicación 7, en el que la disposición del escáner (101) de mano al entrar en el modo de menú define el centro.
9. - El sistema de acuerdo con cualquiera de las reivindicaciones anteriores, en el que el dispositivo de interacción es un botón.
10. - Un método para escanear los dientes en la mandíbula superior e inferior de un paciente usando un escáner (101) de mano de un sistema de escáner 3D de acuerdo con la reivindicación 1, donde el escáner (101) de mano es capaz de grabar datos de superficie de un objeto cuando el sistema es operado en un modo de escaneo, en el que el método comprende:
- entrar en el modo de escaneo del sistema de escáner activando un dispositivo (106) de interacción del escáner (101) de mano mediante un primer tipo de interacción;
- grabar datos de superficie para una primera de las mandíbulas mientras el sistema está en modo de escaneo; caracterizado porque
- entrar en un modo de menú del sistema de escáner mediante un segundo tipo de interacción con el dispositivo (106) de interacción del escáner de mano, donde el menú (210, 310) comprende una o más opciones (211, 212, 213, 214 , 215, 311,312, 313, 314, 315, 317, 318, 319, 320) de menú mostradas en un visualizador (105) del sistema de escáner; - seleccionar la opción (211, 212, 213, 214, 215, 311, 312, 313, 314, 315, 317, 318, 319, 320) de menú deseada usando el escáner (101) de mano; y
- realizar la acción relacionada con la opción (211, 212, 213, 214, 215, 311, 312, 313, 314, 315, 317, 318, 319, 320) de menú seleccionada.
11. - El método de acuerdo con la reivindicación 10, en el que la opción (211, 212, 213, 214, 215, 311, 312, 313, 314, 315, 317, 318, 319, 320) de menú seleccionada es entrar en el modo de escaneo y escanear la segunda de las mandíbulas.
ES18711941T 2017-03-20 2018-03-19 Sistema de escáner 3D con escáner de mano Active ES2941511T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DKPA201770195 2017-03-20
PCT/EP2018/056842 WO2018172257A1 (en) 2017-03-20 2018-03-19 3d scanner system with handheld scanner

Publications (1)

Publication Number Publication Date
ES2941511T3 true ES2941511T3 (es) 2023-05-23

Family

ID=61691518

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18711941T Active ES2941511T3 (es) 2017-03-20 2018-03-19 Sistema de escáner 3D con escáner de mano

Country Status (8)

Country Link
US (1) US20200022788A1 (es)
EP (2) EP3602263B1 (es)
JP (1) JP7108627B2 (es)
KR (1) KR102539649B1 (es)
CN (1) CN110537160B (es)
BR (1) BR112019019277A2 (es)
ES (1) ES2941511T3 (es)
WO (1) WO2018172257A1 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10108269B2 (en) 2015-03-06 2018-10-23 Align Technology, Inc. Intraoral scanner with touch sensitive input
CN110859640A (zh) * 2019-11-13 2020-03-06 先临三维科技股份有限公司 扫描仪、及其操作方法、装置、系统、存储介质和处理器
CN113303759A (zh) * 2020-02-26 2021-08-27 苏州佳世达光电有限公司 控制口腔扫描仪的操作方法及其系统
WO2024023363A1 (en) 2022-07-29 2024-02-01 3Shape A/S Distributed storage and management of data

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3546337B2 (ja) * 1993-12-21 2004-07-28 ゼロックス コーポレイション 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法
KR100547767B1 (ko) * 1999-04-02 2006-02-01 삼성전자주식회사 휴대폰에서 다기능키 이용방법
US7721227B2 (en) * 2004-09-23 2010-05-18 Nokia Corporation Method for describing alternative actions caused by pushing a single button
US7840042B2 (en) * 2006-01-20 2010-11-23 3M Innovative Properties Company Superposition for visualization of three-dimensional data acquisition
JP2010532681A (ja) * 2007-06-29 2010-10-14 スリーエム イノベイティブ プロパティズ カンパニー 歯科用モデルのための、ビデオ補助境界マーキング
US9335912B2 (en) * 2007-09-07 2016-05-10 Apple Inc. GUI applications for use with 3D remote controller
JP4243641B1 (ja) * 2007-12-21 2009-03-25 健治 吉田 媒体およびディスプレイ上に形成されたドットパターンを読み取ることが可能なリモートコントロール装置
US8954887B1 (en) * 2008-02-08 2015-02-10 Google Inc. Long press interface interactions
CN101644987A (zh) * 2008-08-08 2010-02-10 深圳富泰宏精密工业有限公司 移动终端及其菜单选择的方法
US10768785B2 (en) * 2008-10-22 2020-09-08 Merge Healthcare Solutions Inc. Pressure sensitive manipulation of medical image data
KR20110015308A (ko) * 2009-08-07 2011-02-15 삼성전자주식회사 디지털 영상 처리장치, 그 제어방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체
ES2705531T3 (es) * 2010-12-06 2019-03-25 3Shape As Sistema con integración de interfaz de usuario 3D
US20120179035A1 (en) * 2011-01-07 2012-07-12 General Electric Company Medical device with motion sensing
US8948482B2 (en) * 2012-11-01 2015-02-03 Align Technology, Inc. Motion compensation in a three dimensional scan
HK1186912A2 (en) * 2013-01-25 2014-03-21 Zhipei Wang Remote control system and device
US10558262B2 (en) * 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
US20170083177A1 (en) * 2014-03-20 2017-03-23 Nec Corporation Information processing apparatus, information processing method, and information processing program
US9510757B2 (en) * 2014-05-07 2016-12-06 Align Technology, Inc. Identification of areas of interest during intraoral scans
WO2015196388A1 (en) 2014-06-25 2015-12-30 Carestream Health, Inc. Intra-oral imaging using operator interface with gesture recognition
US10108269B2 (en) * 2015-03-06 2018-10-23 Align Technology, Inc. Intraoral scanner with touch sensitive input
KR20160139481A (ko) * 2015-05-27 2016-12-07 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법

Also Published As

Publication number Publication date
JP2020511247A (ja) 2020-04-16
EP4184301A1 (en) 2023-05-24
WO2018172257A1 (en) 2018-09-27
CN110537160A (zh) 2019-12-03
JP7108627B2 (ja) 2022-07-28
KR102539649B1 (ko) 2023-06-01
BR112019019277A2 (pt) 2020-04-14
EP3602263B1 (en) 2023-01-18
CN110537160B (zh) 2024-03-29
KR20190129933A (ko) 2019-11-20
US20200022788A1 (en) 2020-01-23
EP3602263A1 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
ES2941511T3 (es) Sistema de escáner 3D con escáner de mano
CN103339468B (zh) 具有3d用户界面集成的系统
US11662830B2 (en) Method and system for interacting with medical information
JP2017533487A (ja) 医療処置の実施と医療関連情報のアクセスおよび/または操作のための方法およびシステム
JP2019501747A5 (es)
JP5570801B2 (ja) 医療用診療装置
ES2788853T3 (es) Sistema con integración de interfaz de usuario 3D
CN108778135B (zh) 多模态x射线成像中的光学相机选择
KR101611484B1 (ko) 의료영상의 제공방법
JP6873742B2 (ja) 遠隔操作装置及び医用画像診断システム
CN114830638A (zh) 用于具有空间记忆的远程图解的系统和方法
JP2009254665A (ja) 画像診断装置用制御装置および画像診断システム