BR112012000189B1 - aparelho de varredura com foco. - Google Patents

aparelho de varredura com foco. Download PDF

Info

Publication number
BR112012000189B1
BR112012000189B1 BR112012000189A BR112012000189A BR112012000189B1 BR 112012000189 B1 BR112012000189 B1 BR 112012000189B1 BR 112012000189 A BR112012000189 A BR 112012000189A BR 112012000189 A BR112012000189 A BR 112012000189A BR 112012000189 B1 BR112012000189 B1 BR 112012000189B1
Authority
BR
Brazil
Prior art keywords
pattern
light
focus
scanner
image
Prior art date
Application number
BR112012000189A
Other languages
English (en)
Other versions
BR112012000189A8 (pt
BR112012000189A2 (pt
Inventor
A Qazi Arish
Öjelund Henrik
Hollenbeck Karl-Josef
Van Der Poel Mike
Kjaer Rasmus
Fisker Rune
Original Assignee
3Shape As
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=42545445&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=BR112012000189(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 3Shape As filed Critical 3Shape As
Publication of BR112012000189A2 publication Critical patent/BR112012000189A2/pt
Publication of BR112012000189A8 publication Critical patent/BR112012000189A8/pt
Publication of BR112012000189B1 publication Critical patent/BR112012000189B1/pt

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0068Confocal scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1075Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions by non-invasive methods, e.g. for determining thickness of tissue layer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1076Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions inside body cavities, e.g. using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/58Wireless transmission of information between a sensor or probe and a control or evaluation unit

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Microscoopes, Condenser (AREA)
  • Endoscopes (AREA)
  • Automatic Focus Adjustment (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Lens Barrels (AREA)
  • Stroboscope Apparatuses (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Focusing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Mechanical Light Control Or Optical Switches (AREA)

Abstract

aparelho de varredura com foco é revelado um scanner portátil para obter e/ou medir a geometria 3d de pelo menos uma parte da superfície de um objeto usando técnicas de projeção de padrão confocal. as concretizações específicas são fornecidas para o escaneamento intrabucal e o escaneamento da parte interior do ouvido humano.

Description

“APARELHO DE VARREDURA COM FOCO.
[0001] A presente invenção refere-se a um aparelho e a um método para escaneamento óptico 3D de superfícies. O princípio do aparelho e método de acordo com a invenção pode ser aplicado a vários contextos. Uma concretização específica da invenção é particularmente adequada para escaneamento intraoral, isto é, escaneamento direto de dentes e tecidos moles circundantes na cavidade oral. Outras concretizações da invenção relacionadas à odontologia são adequadas para o escaneamento de impressões dentárias, modelos de gesso, moldes de cera, próteses e pilares dentários. Outra concretização da invenção é adequada para escaneamento da parte interna e externa de um ouvido humano ou impressões do canal auricular. A invenção pode encontrar utilização dentro do escaneamento da estrutura 3D da pele em aplicações dermatológicas ou cosméticas/cosmetológicas, escaneamento de joias ou modelos de cera de joias inteiras ou parte de joias, escaneamento de peças industriais e até mesmo escaneamento 3D resolvido no tempo, tal como escaneamento 3D resolvido no tempo de peças industriais móveis.
Antecedentes da Invenção [0002] A invenção refere-se ao escaneamento tridimensional (3D) da geometria de superfície de objetos. O escaneamento de uma superfície de objeto em 3 dimensões é um campo de estudo bem conhecido e os métodos para escaneamento podem ser divididos em métodos de contato e sem contato. Um exemplo de métodos de medição de contato são Máquinas de Medição por Coordenadas (CMM), que medem deixando uma sonda tátil explorar a superfície. As vantagens incluem alta precisão, mas o processo é lento e uma CMM é grande e
Petição 870170040087, de 12/06/2017, pág. 27/128
2/83 dispendiosa. Métodos de medição sem contato incluem raios X e sondas ópticas.
[0003] A microscopia confocal é uma técnica de formação de imagem óptica utilizada para aumentar o contraste de micrografia e/ou para reconstruir imagens tridimensionais utilizando um orifício espacial para eliminar a luz fora de foco ou distorção (flare) em amostras que são mais espessas do que o plano focal.
[0004] Um microscópio confocal utiliza iluminação pontual e um orifício em um plano opticamente conjugado na frente do detector para eliminar a informação fora de foco. Somente a luz dentro do plano focal pode ser detectada. Como apenas um ponto é iluminado por vez na microscopia confocal, imagens 2D exigem escaneamento raster e imagens 3D exigem escaneamento raster em uma série de planos de foco.
[0005] No documento WO 00/08415, o princípio da microscopia confocal é aplicado iluminando a superfície com uma pluralidade de pontos iluminados. Através da variação do plano focal, posições específicas de pontos em foco da superfície podem ser determinadas. No entanto, a determinação da estrutura de superfície é limitada às partes da superfície que são iluminadas por um ponto.
[0006] O documento WO 2003/060587 refere-se ao seccionamento óptico de uma amostra em microscopia, em que a amostra é iluminada com um padrão de iluminação. As posições de focagem do plano de imagem são determinadas pela caracterização de um componente oscilatório do padrão. No entanto, o plano focal só pode ser ajustado movendo a amostra e o sistema óptico um em relação ao outro, isto é, mais próximo ou mais afastado um do outro. Dessa forma, a variação controlada do plano focal requer uma relação espacial
Petição 870170040087, de 12/06/2017, pág. 28/128
3/83 controlada entre a amostra e o sistema óptico, o que é realizado em um microscópio. No entanto, tal relação espacial controlada não é aplicável a, por exemplo, um scanner portátil.
[0007] O documento US 2007/0109559 A1 descreve um scanner de focagem onde são encontradas distâncias das posições da lente de focagem em que é observada a intensidade máxima de reflexão dos feixes de luz incidentes sobre o objeto a ser escaneado. Em contraste com a invenção aqui descrita, esta técnica anterior não explora qualquer medida predeterminada do padrão de iluminação e não explora qualquer detecção de contraste, e, por conseguinte, a relação sinalruído é subótima.
[0008] No documento WO 2008/125605, são descritos meios para geração de um padrão de variação no tempo composto por imagens divididas alternadas. Esse documento descreve um método de escaneamento para obtenção de uma seção óptica de um objeto de escaneamento por meio de dois perfis de iluminação diferentes, por exemplo, dois padrões de fases opostas. Essas duas imagens são utilizadas para extrair a seção óptica, e o método é limitado à aquisição de imagens de apenas dois perfis de iluminação diferentes. Além disso, o método baseia-se em uma calibração predeterminada que determina o deslocamento de fase entre os dois perfis de iluminação.
Sumário da Invenção [0009] Dessa forma, um objetivo da invenção é proporcionar um scanner que possa ser integrado em um compartimento manejável, tal como um compartimento portátil. Outros objetivos da invenção são: discriminar a informação fora de foco e prover um tempo de escaneamento rápido.
Petição 870170040087, de 12/06/2017, pág. 29/128
4/83 [0010] Isto é conseguido por um método e por um scanner para obtenção e/ou medição da geometria 3D de pelo menos uma parte da superfície de um objeto, o referido scanner compreendendo:
- pelo menos uma câmera que acomoda uma matriz de elementos sensores,
- meios para gerar uma luz de sonda que incorpora um padrão espacial,
- meios para transmitir a luz de sonda para o objeto, iluminando assim pelo menos uma parte do objeto com o referido padrão em uma ou mais configurações,
- meios para transmitir pelo menos uma parte da luz retornada do objeto para a câmera,
- meios para variar a posição do plano de foco do padrão no objeto, mantendo uma relação espacial fixa do scanner e do objeto,
- meios para obter pelo menos uma imagem da referida matriz de elementos sensores,
- meios para avaliar uma medida de correlação em cada posição de plano de foco entre pelo menos um pixel de imagem e uma função de peso, em que a função de peso é determinada com base na informação da configuração do padrão espacial;
- meios de processamento de dados para:
a) determinar, por análise da medida de correlação, a(s) posição(ões) em foco de:
- cada um de uma pluralidade de pixels de imagem para uma série de posições de plano de foco, ou
- cada um de uma pluralidade de grupos de pixels de imagem para uma série de posições de plano de foco, e
b) transformar dados em foco em coordenadas de mundo real 3D.
Petição 870170040087, de 12/06/2017, pág. 30/128
5/83 [0011] O método e o aparelho descritos nesta invenção são para proporcionar um registro de superfície 3D de objetos utilizando luz como um agente de sondagem sem contato. A luz é fornecida na forma de um padrão de iluminação para proporcionar uma oscilação de luz no objeto. A variação/oscilação no padrão pode ser espacial, por exemplo, um padrão quadriculado estático, e/ou pode variar no tempo, por exemplo, deslocando um padrão através do objeto a ser escaneado. A invenção proporciona uma variação do plano de foco do padrão sobre uma série de posições de plano de foco, ao mesmo tempo mantendo uma relação espacial fixa do scanner e do objeto. Isso não significa que o escaneamento deve ser provido com uma relação espacial fixa do scanner e do objeto, mas apenas que o plano de foco pode ser variado (escaneado) com uma relação espacial fixa do scanner e do objeto. Isso provê uma solução de scanner portátil com base na presente invenção.
[0012] Em algumas concretizações, os sinais da matriz de elementos sensores são intensidade de luz.
[0013] Uma concretização da invenção compreende um primeiro sistema óptico, tal como um arranjo de lentes, para transmitir a luz de sonda para o objeto e um segundo sistema óptico para a luz de formação de imagem retornada do objeto para a câmera. Na concretização preferida da invenção, apenas um sistema óptico ilustra o padrão no objeto e ilustra o objeto, ou pelo menos uma parte do objeto, sobre a câmera, de preferência, ao longo do mesmo eixo óptico, no entanto, ao longo de percursos ópticos opostos.
[0014] Na concretização preferida da invenção, um sistema óptico proporciona uma formação de imagem do padrão sobre o objeto a ser sondado e do objeto a ser sondado para
Petição 870170040087, de 12/06/2017, pág. 31/128
6/83 a câmera. Preferencialmente, o plano de foco é ajustado de tal modo que a imagem do padrão no objeto sondado é deslocada ao longo do eixo óptico, de preferência, em etapas iguais a partir de uma extremidade da região de escaneamento para a outra. A luz de sonda incorporando o padrão fornece um padrão de luz e escuridão sobre o objeto. Especificamente, quando o padrão é variado no tempo para um plano de foco fixo, então, as regiões em foco no objeto exibirão um padrão de oscilação de luz e escuridão. As regiões fora de foco exibirão menor ou nenhum contraste nas oscilações de luz.
[0015] Geralmente, consideramos o caso em que a luz incidente no objeto é refletida difusivamente e/ou especularmente a partir da superfície do objeto. Mas entendese que o aparelho e método de escaneamento não se limitam a esta situação. São também aplicáveis, por exemplo, à situação em que a luz incidente penetra na superfície e é refletida e/ou dispersa e/ou dá origem à fluorescência e/ou fosforescência no objeto. As superfícies internas em um objeto suficientemente translúcido podem também ser iluminadas pelo padrão de iluminação e ser transformadas em imagem na câmera. Neste caso, é possível um escaneamento volumétrico. Alguns organismos plânticos são exemplos de tais objetos.
[0016] Quando é aplicado um padrão de variação temporal, um subescaneamento único pode ser obtido coletando-se uma variedade de imagens 2D em diferentes posições do plano de foco e em diferentes instâncias do padrão. Á medida que o plano de foco coincide com a superfície de escaneamento em uma única posição de pixel, o padrão será projetado sobre o ponto de superfície em foco e com alto contraste, dando assim origem a uma grande variação,
Petição 870170040087, de 12/06/2017, pág. 32/128
7/83 ou amplitude, do valor de pixel ao longo do tempo. Para cada pixel, é assim possível identificar configurações individuais do plano de foco para o qual cada pixel estará em foco. Utilizando o conhecimento do sistema óptico utilizado, é possível transformar a informação de contraste em função da posição do plano de foco em informação de superfície 3D, em uma base de pixel individual.
[0017] Dessa forma, em uma concretização da invenção, a posição de focagem é calculada determinando a amplitude de oscilação de luz para cada um de uma pluralidade de elementos sensores para uma gama de planos de foco.
[0018] Para um padrão estático, um subescaneamento único pode ser obtido coletando-se uma variedade de imagens 2D em diferentes posições do plano de foco. Conforme o plano de foco coincidir com a superfície de escaneamento, o padrão será projetado no ponto de superfície em foco e com alto contraste. O alto contraste dá origem a uma grande variação espacial do padrão estático na superfície do objeto, proporcionando assim uma grande variação, ou amplitude, dos valores de pixel sobre um grupo de pixels adjacentes. Para cada grupo de pixels é assim possível identificar configurações individuais do plano de foco para o qual cada grupo de pixels estará em foco. Utilizando o conhecimento do sistema óptico utilizado, é possível transformar a informação de contraste em função da posição do plano de foco em informação de superfície 3D, em uma base de grupo de pixel individual.
[0019] Dessa forma, em uma concretização da invenção, a posição de focagem é calculada determinando a amplitude de oscilação de luz para cada um de uma pluralidade de grupos dos elementos sensores para uma gama de planos de
Petição 870170040087, de 12/06/2017, pág. 33/128
8/83 foco.
[0020] A conversão de 2D para 3D dos dados de imagem pode ser realizada de várias maneiras conhecidas na técnica. Isto é, a estrutura de superfície 3D do objeto sondado pode ser determinada encontrando o plano correspondente à amplitude de oscilação de luz máxima para cada elemento sensor, ou para cada grupo de elementos sensores, na matriz de sensores da câmera quando se grava a amplitude de luz para uma gama de diferentes planos de foco. De preferência, o plano de foco é ajustado em etapas iguais a partir de uma extremidade da região de escaneamento para a outra. De preferência, o plano de foco pode ser movido em uma gama suficientemente grande para pelo menos coincidir com a superfície do objeto sendo escaneado.
[0021] A presente invenção distingue-se de WO 2008/125605 porque, nas concretizações da presente invenção que utilizam um padrão de variação no tempo, as imagens de entrada não são limitadas a dois perfis de iluminação e podem ser obtidas de qualquer perfil de iluminação do padrão. Isso ocorre porque a orientação da imagem de referência não depende inteiramente de uma calibração predeterminada, mas do tempo específico da aquisição de imagem de entrada.
[0022] Dessa forma, o documento WO 2008/125605 aplica-se especificamente exatamente a dois padrões, que são realizados fisicamente por uma máscara de cromo-em-vidro conforme iluminado de qualquer lado, o lado de trás sendo refletivo. O documento WO 2008/125605 tem, assim, a vantagem de não utilizar quaisquer partes móveis, mas a desvantagem de uma relação sinal-ruído relativamente mais fraca. Na presente invenção, existe a possibilidade de utilizar qualquer número de configurações de padrão, o que torna o
Petição 870170040087, de 12/06/2017, pág. 34/128
9/83 cálculo da amplitude de oscilação de luz ou da medida de correlação mais preciso.
Definições [0023] Padrão: Um sinal de luz que compreende uma estrutura espacial incorporada no plano lateral. Pode também ser denominado “padrão de iluminação.
[0024] Padrão de variação no tempo: Um padrão que varia no tempo, isto é, a estrutura espacial incorporada varia no tempo. Pode também ser denominado “padrão de iluminação variável no tempo. A seguir, também denominado “franjas.
[0025] Padrão estático: Um padrão que não varia no tempo, por exemplo, um padrão quadriculado estático ou um padrão em linha estático.
[0026] Configuração do padrão: O estado do padrão. O conhecimento da configuração do padrão em um determinado momento equivale a conhecer a estrutura espacial da iluminação naquele momento. Para um padrão periódico, a configuração do padrão incluirá informações da fase do padrão. Se um elemento de superfície do objeto a ser escaneado é fotografado sobre a câmera, então, o conhecimento da configuração do padrão equivale ao conhecimento de que parte do padrão está iluminando o elemento de superfície.
[0027] Plano de foco: Uma superfície onde os raios de luz emitidos do padrão convergem para formar uma imagem no objeto a ser escaneado. O plano de foco não precisa ser plano. Pode ser uma superfície curva.
[0028] Sistema óptico: Um arranjo de componentes ópticos, por exemplo, lentes, que transmitem, colimam e/ou refletem luz, por exemplo, transmitindo luz de sonda para o objeto, gerando imagem do padrão sobre e/ou no objeto, e
Petição 870170040087, de 12/06/2017, pág. 35/128
10/83 gerando imagem do objeto, ou pelo menos uma parte do objeto, na câmera.
[0029] Eixo óptico: Um eixo definido pela propagação de um feixe de luz. Um eixo óptico é, de preferência, uma linha reta. Na concretização preferida da invenção, o eixo óptico é definido pela configuração de uma pluralidade de componentes ópticos, por exemplo, a configuração de lentes no sistema óptico. Pode haver mais do que um eixo óptico, se, por exemplo, um sistema óptico transmite luz de sonda para o objeto e outro sistema óptico ilustra o objeto na câmera. Mas, de preferência, o eixo óptico é definido pela propagação da luz no sistema óptico que transmite o padrão sobre o objeto e forma a imagem do objeto na câmera. O eixo óptico geralmente coincide com o eixo longitudinal do scanner.
[0030] Percurso óptico: O percurso definido pela propagação da luz da fonte de luz para a câmera. Dessa forma, uma parte do percurso óptico coincide, de preferência, com o eixo óptico. Enquanto o eixo óptico é, de preferência, uma linha reta, o percurso óptico pode ser uma linha não reta, por exemplo, quando a luz é refletida, dispersa, dobrada, dividida e/ou provida de forma semelhante, por exemplo, por meio de divisores de feixe, espelhos, fibras ópticas e semelhantes.
[0031] Sistema telecêntrico: Um sistema óptico que proporciona imagens de tal forma que os raios principais sejam paralelos ao eixo óptico do referido sistema óptico. Em um sistema telecêntrico, os pontos fora de foco têm, substancialmente, a mesma ampliação que os pontos em foco. Isso pode proporcionar uma vantagem no processamento de dados. É difícil conseguir um sistema óptico perfeitamente
Petição 870170040087, de 12/06/2017, pág. 36/128
11/83 telecêntrico, contudo, um sistema óptico que é substancialmente telecêntrico ou quase telecêntrico pode ser proporcionado por um desenho óptico cuidadoso. Dessa forma, ao se referir a um sistema óptico telecêntrico, deve-se entender que pode ser apenas quase telecêntrico.
[0032] Comprimento de escaneamento: Uma dimensão lateral do campo de visão. Se a ponta da sonda (isto é, a cabeça de escaneamento) compreender uma óptica de dobragem para direcionar a luz da sonda em uma direção diferente, tal como perpendicular ao eixo óptico, então, o comprimento de escaneamento é a dimensão lateral paralela ao eixo óptico.
[0033] Objeto de escaneamento: O objeto a ser escaneado e em cuja superfície o scanner provê informações. “O objeto de escaneamento pode ser simplesmente chamado de “objeto.
[0034] Câmera: Sensor de formação de imagem compreendendo uma pluralidade de sensores que respondem à entrada de luz no sensor de imagem. Os sensores são, preferencialmente, ordenados em uma matriz 2D em linhas e colunas.
[0035] Sinal de entrada: Sinal de entrada de luz ou sinal de entrada do sensor dos sensores na câmera. Isso pode ser intensidade integrada de luz incidente sobre o sensor durante o tempo de exposição ou integração do sensor. Em geral, se traduz em um valor de pixel dentro de uma imagem. Pode também ser designado “sinal de sensor.
[0036] Sinal de referência: Um sinal derivado do padrão. Um sinal de referência pode também ser designado por uma função de peso ou vetor de peso ou vetor de referência.
[0037] Medida de correlação: Uma medida do grau de correlação entre um sinal de referência e de entrada. De
Petição 870170040087, de 12/06/2017, pág. 37/128
12/83 preferência, a medida de correlação é definida de tal modo que, se o sinal de referência e de entrada forem linearmente relacionados entre si, então, a medida de correlação obtém uma magnitude maior do que se não o forem. Em alguns casos, a medida de correlação é uma amplitude de oscilação de luz.
[0038] Imagem: Uma imagem pode ser vista como uma matriz 2D de valores (quando obtida com uma câmera digital) ou, em óptica, uma imagem indica que existe uma relação entre uma superfície capturada e uma superfície de imagem onde os raios de luz que emergem de um ponto na referida superfície capturada convergem substancialmente em um ponto na referida superfície de imagem.
[0039] Intensidade: Em óptica, a intensidade é uma medida de potência de luz por área unitária. Na gravação de imagens com uma câmera que compreende uma pluralidade de elementos de detecção individuais, a intensidade pode ser utilizada para designar o sinal de luz registrado nos elementos de detecção individuais. Neste caso, a intensidade reflete uma integração no tempo da potência de luz por área unitária no elemento de detecção ao longo do tempo de exposição envolvido na gravação de imagem.
Notação Matemática
A Uma medida de correlação entre a função de peso e o sinal de luz gravado. Esta pode ser uma amplitude de oscilação de luz.
I Sinal de entrada de luz ou sinal de entrada do sensor.
Esta pode ser intensidade integrada de luz incidente sobre o sensor durante o tempo de exposição ou integração do sensor. Em geral, se traduz em um valor de pixel dentro de uma imagem.
f Sinal de referência. Também pode ser chamado de valor
Petição 870170040087, de 12/06/2017, pág. 38/128
13/83 em peso.
n O número de medições com um sensor de câmera e/ou vários sensores de câmera que são usados para calcular uma medida de correlação.
H Altura da imagem em número de pixels
W Largura da imagem em número de pixels [0040] Os símbolos também são explicados conforme necessário no texto.
Descrição Detalhada da Invenção [0041] O scanner compreende, de preferência, pelo menos um divisor de feixe localizado no percurso óptico. Por exemplo, uma imagem do objeto pode ser formada na câmera por meio de um divisor de feixe. Utilizações exemplares de divisores de feixe são ilustradas nas figuras.
[0042] Em uma concretização preferida da invenção, a luz é transmitida em um sistema óptico que compreende um sistema de lentes. Este sistema de lentes pode transmitir o padrão para o objeto e transforma em imagem luz refletida do objeto para a câmera.
[0043] Em um sistema óptico telecêntrico, os pontos fora de foco têm a mesma ampliação que os pontos em foco. A projeção telecêntrica pode, portanto, facilitar significativamente o mapeamento de dados de imagens 2D adquiridas em imagens 3D. Dessa forma, em uma concretização preferida da invenção, o sistema óptico é substancialmente telecêntrico no espaço do objeto sondado. O sistema óptico pode também ser telecêntrico no espaço do padrão e da câmera. Foco Variável [0044] Um ponto de articulação da invenção é a variação, isto é, escaneamento, do plano focal sem mover o scanner em relação ao objeto sendo escaneado. De preferência,
Petição 870170040087, de 12/06/2017, pág. 39/128
14/83 o plano focal pode ser variado, tal como variado continuamente de forma periódica, enquanto os meios de geração de padrão, a câmera, o sistema óptico e o objeto a ser escaneado são fixos entre si. Além disso, o tempo de aquisição da superfície 3D deve ser suficientemente pequeno para reduzir o impacto de movimento relativo entre a sonda e os dentes, por exemplo, reduzir o efeito vibratório. Na concretização preferida da invenção, o plano de foco é variado por meio de pelo menos um elemento de foco. De preferência, o plano de foco é periodicamente variado com uma frequência predefinida. A referida frequência pode ser
de pelo menos 1 Hz, tal como pelo menos 2 Hz, 3, 4, 5, 6, 7,
8, 9 ou pelo menos 10 Hz, tal como pelo menos 20, 40, 60, 80
ou pelo menos 100 Hz.
[0045] Preferencialmente, o elemento de foco faz
parte do sistema óptico. Isto é, o elemento de foco pode ser uma lente em um sistema de lente. Uma concretização preferida compreende meios, tais como um estágio de translação, para ajustar e controlar a posição do elemento de foco. Deste modo, o plano de foco pode ser variado, por exemplo, por translação do elemento de foco para trás e para a frente ao longo do eixo óptico.
[0046] Se um elemento de foco é transladado para frente e para trás com uma frequência de vários Hz, isso pode conduzir à instabilidade do scanner. Uma concretização preferida da invenção compreende, assim, meios para reduzir e/ou eliminar a vibração e/ou agitação do sistema de ajuste do elemento de foco, aumentando, assim, a estabilidade do scanner. Isso pode ser proporcionado, pelo menos parcialmente, por meios de fixação e/ou manutenção do centro de massa do sistema de ajuste de elemento de foco, tal como
Petição 870170040087, de 12/06/2017, pág. 40/128
15/83 um contrapeso para contrabalançar substancialmente o movimento do elemento de foco; por exemplo, por translação de um contrapeso oposto ao movimento do elemento de foco. A facilidade de operação pode ser conseguida se o contrapeso e o elemento de foco forem conectados e acionados pelos mesmos meios de translação. No entanto, isso só pode reduzir substancialmente a vibração para a primeira ordem. Se um dispositivo equilibrado de contrapeso for girado em torno do eixo equilibrado de contrapeso, podem existir problemas relacionados ao torque criado pelos contrapesos. Outra concretização da invenção compreende, assim, meios para reduzir e/ou eliminar a vibração e/ou agitação de primeira ordem, segunda ordem, terceira ordem e/ou ordem superior do sistema de ajuste de elemento de foco, aumentando assim a estabilidade do scanner.
[0047] Em outra concretização da invenção, mais de um elemento óptico é movido para deslocar o plano focal. Nessa concretização, é desejável que esses elementos sejam movidos em conjunto e que os elementos sejam fisicamente adjacentes.
[0048] Na concretização preferida da invenção, o sistema óptico é telecêntrico, ou quase telecêntrico, para todas as posições do plano de foco. Desse modo, mesmo que uma ou mais lentes no sistema óptico possam ser deslocadas para trás e para a frente para alterar a posição do plano de foco, a telecentricidade do sistema óptico é mantida.
[0049] A concretização preferida da invenção compreende engrenagem de foco. A engrenagem do foco é a correlação entre o movimento da lente e o movimento da posição do plano de foco. Por exemplo, uma engrenagem de foco de 2 significa que uma translação do elemento de foco
Petição 870170040087, de 12/06/2017, pág. 41/128
16/83 de 1 mm corresponde a uma translação da posição do plano de foco de 2 mm. A engrenagem de foco pode ser provida por um desenho adequado do sistema óptico. A vantagem da engrenagem de foco é que um pequeno movimento do elemento de foco pode corresponder a uma grande variação da posição do plano de
foco Em concretizações específicas da invenção , a
engrenagem de foco está compreendida entre 0, 1 e 100, tal
como entre 0,1 e 1, tal como entre 1 e 10 , tal como entre 2
e 8, tal como entre 3 e 6, tal como pelo menos 10, tal como
pelo menos 20.
[0050] Em outra concretização da invenção , o
elemento de foco é uma lente líquida. Uma lente líquida pode controlar o plano de foco sem o uso de peças móveis.
Câmera [0051] A câmera pode ser uma câmera digital padrão que acomoda um chip CCD ou CMOS padrão com um conversor A/D por linha de elementos sensores (pixels). Contudo, para aumentar a taxa de fotogramas, o scanner de acordo com a invenção pode compreender uma câmera de alta velocidade que acomoda múltiplos conversores A/D por linha de pixels, por exemplo, pelo menos 2, 4, 8 ou 16 conversores A/D por linha de pixels.
Padrão [0052] Outro elemento central da invenção é a luz de sonda com um padrão incorporado que é projetado sobre o objeto sendo escaneado. O padrão pode ser estático ou variar no tempo. O padrão de variação de tempo pode proporcionar uma variação de luz e escuridão sobre e/ou no objeto. Especificamente, quando o padrão é variado no tempo para um plano de foco fixo, então as regiões em foco no objeto exibirão um padrão oscilante de luz e escuridão. As regiões
Petição 870170040087, de 12/06/2017, pág. 42/128
17/83 fora de foco exibirão menor ou nenhum contraste nas oscilações de luz. O padrão estático pode prover uma variação espacial de luz e escuridão sobre e/ou no objeto. Especificamente, as regiões em foco exibirão um padrão oscilante de luz e escuridão no espaço. As regiões fora de foco exibirão menor ou nenhum contraste nas oscilações espaciais de luz.
[0053] A luz pode ser provida a partir de uma fonte de luz externa, contudo, de preferência, o scanner compreende pelo menos uma fonte de luz e meio de geração de padrão para produzir o padrão. É vantajoso em termos de relação sinal/ruído projetar uma fonte de luz de modo que a intensidade nas partes não mascaradas do padrão seja o mais próximo possível de uniforme no espaço. Em outra concretização, a fonte de luz e o meio de geração de padrão são integrados em um único componente, tal como um LED segmentado. Um LED segmentado pode proporcionar um padrão estático e/ou pode proporcionar um padrão de variação no tempo em si próprio, ativando e desativando os diferentes segmentos em sequência. Em uma concretização da invenção, o padrão de variação no tempo varia periodicamente no tempo. Em outra concretização da invenção, o padrão estático varia periodicamente no espaço.
[0054] A luz proveniente da fonte de luz (externa ou interna) pode ser transmitida através do meio de geração de padrão gerando, assim, o padrão. Por exemplo, o meio de geração de padrão compreende pelo menos um elemento de padrão translúcido e/ou transparente. Para gerar um padrão de variação no tempo, pode ser utilizada uma roda, com uma máscara opaca. Por exemplo, a máscara compreende uma pluralidade de raios radiais, preferencialmente, dispostos
Petição 870170040087, de 12/06/2017, pág. 43/128
18/83 em uma ordem simétrica. O scanner também pode compreender meios para girar e/ou transladar o elemento de padrão. Para geração de um padrão estático, pode ser utilizada uma placa de vidro com uma máscara opaca. Por exemplo, a máscara compreende um padrão em linha ou padrão quadriculado. Em geral, a referida máscara possui, de preferência, periodicidade de rotação e/ou translação. O elemento padrão é localizado no percurso óptico. Dessa forma, luz da fonte de luz pode ser transmitida através do elemento de padrão, por exemplo, transmitido transversalmente através do elemento de padrão. O padrão de variação de tempo pode, então, ser gerado por rotação e/ou translação do elemento de padrão. Um elemento de padrão que gera um padrão estático não precisa ser movido durante um escaneamento.
Correlação [0055] Um objetivo da invenção é prover um tempo de escaneamento curto e processamento em tempo real, por exemplo, para fornecer retorno ao vivo a um operador de scanner para fazer um escaneamento rápido de uma arcada dentária inteira. No entanto, o escaneamento 3D de alta resolução em tempo real cria uma enorme quantidade de dados. Portanto, o processamento de dados deve ser proporcionado no compartimento do scanner, isto é, próximo aos componentes ópticos, para reduzir a taxa de transferência de dados para, por exemplo, um carrinho, estação de trabalho ou visor. A fim de acelerar o tempo de processamento de dados e de forma a extrair informações em foco com uma relação sinal-ruído ótima, várias técnicas de correlação podem ser incorporadas/implementadas. Isso pode, por exemplo, ser implementado na eletrônica da câmera para discriminar a informação fora de foco. O padrão é aplicado para prover
Petição 870170040087, de 12/06/2017, pág. 44/128
19/83 iluminação com uma estrutura espacial incorporada no objeto que está sendo escaneado. A determinação da informação em foco refere-se ao cálculo de uma medida de correlação deste sinal de luz espacialmente estruturado (que denominamos sinal de entrada) com a variação do próprio padrão (que denominamos sinal de referência). Em geral, a magnitude da medida de correlação é alta se o sinal de entrada coincidir com o sinal de referência. Se o sinal de entrada exibir pouca ou nenhuma variação, então, a magnitude da medida de correlação é baixa. Se o sinal de entrada exibir uma grande variação espacial, mas essa variação for diferente da variação no sinal de referência, então, a magnitude da medida de correlação também é baixa. Em outra concretização da invenção, o scanner e/ou a cabeça de scanner pode ser sem fios, simplificando assim o manuseio e a operação do scanner e aumentando a acessibilidade em situações difíceis de escaneamento, por exemplo, escaneamento intraoral ou no ouvido. No entanto, a operação sem fios pode aumentar ainda mais a necessidade de processamento de dados local para evitar a transmissão sem fio de dados brutos em 3D.
[0056] O sinal de referência é provido pelo meio de geração de padrão e pode ser periódico. A variação no sinal de entrada pode ser periódica e pode ser confinada a um ou a alguns períodos. O sinal de referência pode ser determinado independentemente do sinal de entrada. Especificamente no caso de uma variação periódica, a fase entre a entrada oscilante e o sinal de referência pode ser conhecida independentemente do sinal de entrada. No caso de uma variação periódica, a correlação é tipicamente relacionada com a amplitude da variação. Se a fase entre os sinais de referência e entrada oscilante não for conhecida, é
Petição 870170040087, de 12/06/2017, pág. 45/128
20/83 necessário determinar tanto o cosseno como a parte sinusoidal do sinal de entrada antes que a amplitude de variação do sinal de entrada possa ser determinada. Isso não é necessário quando a fase é conhecida.
[0057] Uma maneira de definir a medida de correlação matematicamente com um conjunto discreto de medições é como um produto de pontos calculado a partir de um vetor de sinal, I = (Ii, In), com elementos n > 1 representando sinais de sensor e um vetor de referência, f = (fi, . . fn), do mesmo comprimento que o referido vetor de sinal de pesos de referência. A medida de correlação A é então dada por:
n
A = f-l = YifiIi i=1 [0058] Os índices nos elementos no vetor de sinal representam sinais de sensor que são registrados em momentos diferentes e/ou em diferentes sensores. No caso de uma medição contínua, a expressão acima é facilmente generalizada para envolver a integração em vez da soma. Nesse caso, o parâmetro de integração é o tempo e/ou uma ou mais coordenadas espaciais.
[0059] Uma concretização preferida é remover a parte de CC do sinal de correlação ou medida de correlação, isto é, quando os elementos de vetor de referência somam a zero (Σ?=1/ί = o) . A posição de focagem pode ser encontrada como um extremo da medida de correlação calculada sobre todas as posições do elemento de foco. Observa-se que, neste caso, a medida de correlação é proporcional ao coeficiente de correlação de Pearson da amostra entre duas variáveis. Se a parte de CC não for removida, pode existir uma tendência no sinal de CC sobre todas as posições do elemento de foco, e
Petição 870170040087, de 12/06/2017, pág. 46/128
21/83 essa tendência pode estar dominando numericamente. Nesta situação, a posição de focagem pode ainda ser encontrada por análise da medida de correlação e/ou um ou mais dos seus derivados, de preferência, após a remoção da tendência.
[0060] Preferencialmente, o extremo global deve ser encontrado. No entanto, artefatos, tais como sujeira no sistema óptico, podem resultar em falsos máximos globais. Portanto, pode ser aconselhável procurar extremas locais em alguns casos. Se o objeto sendo escaneado for suficientemente translúcido, pode ser possível identificar superfícies internas ou partes de superfície que, de outra forma, estão obstruídas. Em tais casos, pode haver vários extremos locais que correspondem a superfícies e pode ser vantajoso processar vários ou todos os extremos.
[0061] A medida de correlação pode tipicamente ser calculada com base em sinais de entrada que estão disponíveis como imagens digitais, isto é, imagens com um número finito de pixels discretos. Por conseguinte, convenientemente, os cálculos para obtenção de medidas de correlação podem ser realizados para pixels de imagem ou grupos destes. As medidas de correlação podem, então, ser visualizadas como pseudoimagens.
[0062] A medida de correlação aplicada nesta invenção é inspirada no princípio de um amplificador de bloqueio, em que o sinal de entrada é multiplicado pelo sinal de referência e integrado durante um período especificado. Nesta invenção, é proporcionado um sinal de referência pelo padrão.
Correlação Temporal [0063] A correlação temporal envolve um padrão variável no tempo. O sinal de luz nos elementos de detecção
Petição 870170040087, de 12/06/2017, pág. 47/128
22/83 de luz individuais na câmera é gravado várias vezes enquanto a configuração do padrão é variada. A medida de correlação é, assim, pelo menos calculada com sinais de sensor registrados em tempos diferentes.
[0064] Um princípio para estimar a amplitude de oscilação de luz em um sinal de luz com variação periódica é ensinado no documento WO 98/45745, onde a amplitude é calculada primeiramente pela estimativa de um cosseno e uma parte sinusoidal da oscilação de intensidade de luz. No entanto, de um ponto de vista estatístico, isso não é ideal porque dois parâmetros são estimados para poder calcular a amplitude.
[0065] Nesta concretização da invenção, o conhecimento independente da configuração de padrão em cada gravação de sinal de luz permite calcular a medida de correlação em cada elemento de detecção de luz.
[0066] Em algumas concretizações da invenção, o scanner compreende meios para obter o conhecimento da configuração de padrão. Para proporcionar tal conhecimento, o scanner compreende ainda, de preferência, meios para registrar e/ou monitorar o padrão de variação no tempo.
[0067] Cada elemento individual de detecção de luz, isto é, elemento sensor, na câmera vê uma variação no sinal de luz correspondente à variação da luz que ilumina o objeto.
[0068] Uma concretização da invenção obtém a variação de tempo do padrão por translação e/ou rotação do elemento de padrão. Neste caso, a configuração de padrão pode ser obtida por meio de um codificador de posição no elemento de padrão combinado com o conhecimento prévio da geometria de padrão que dá origem a uma variação de padrão entre elementos de detecção individuais. O conhecimento da
Petição 870170040087, de 12/06/2017, pág. 48/128
23/83 configuração de padrão surge, assim, como uma combinação de conhecimento da geometria do padrão que resulta em uma variação entre diferentes elementos de detecção e registro e/ou monitoramento de padrão durante o escaneamento 3D. No caso de uma roda giratória como o elemento de padrão, a posição angular da roda pode, então, ser obtida por um codificador, por exemplo, montado na borda.
[0069] Uma concretização da invenção envolve um padrão que possui periodicidade de translação e/ou de rotação. Nesta concretização, existe um período de oscilação de padrão bem definido se o padrão for substancialmente transladado e/ou girado a uma velocidade constante.
[0070] Uma concretização da invenção compreende meios para amostragem de cada uma de uma pluralidade de elementos sensores uma pluralidade de vezes durante um período de oscilação de padrão, de preferência, amostrados um número inteiro de vezes, tal como amostragem 2, 3, 4, 5, 6, 7 ou 8 vezes durante cada período de oscilação de padrão, determinando, assim, a variação de luz durante um período.
[0071] A medida de correlação temporal entre a variação de luz e o padrão pode ser obtida registrando várias imagens na câmera durante um período de oscilação (ou pelo menos um período de oscilação). O número de imagens gravadas durante um período de oscilação é representado por n. O registro da posição de padrão para cada imagem individual combinado com a variação de padrão conhecida independentemente sobre todo o elemento de detecção (isto é, obtenção de conhecimento da configuração de padrão) e as imagens gravadas permite uma extração eficiente da medida de correlação em cada elemento de detecção individual na câmera. Para um elemento de detecção de luz com rótulo j, os n sinais
Petição 870170040087, de 12/06/2017, pág. 49/128
24/83 de luz gravados desse elemento sao indicados Ii,j,
A medida de correlação desse elemento, Al, pode ser expressa como
Ai [0072]
Aqui, o sinal de referência ou função de peso f é obtido a partir do conhecimento da configuração de padrão, f tem dois índices i, j. A variação de f com o primeiro índice é derivada do conhecimento da posição de padrão durante cada gravação de imagem. A variação de f com o segundo índice é derivada do conhecimento da geometria do padrao que pode ser determinada antes do escaneamento 3D.
[0073] Preferencialmente, mas nao necessariamente, o sinal de referência f tende a zero ao longo do tempo, isto é, para todos os j, temos
Figure BR112012000189B1_D0001
i=l para suprimir a parte de CC da variação de luz ou da medida de correlação. A posição de focagem correspondente ao padrão em foco no objeto para um único elemento sensor na câmera será dada por um valor extremo da medida de correlação desse elemento sensor quando a posição de focagem for variada em um intervalo de valores. A posição de focagem pode ser variada em etapas iguais a partir de uma extremidade da região de escaneamento para a outra.
[0074] Para obter uma imagem nítida de um objeto por meio de uma câmera, o objeto tem de estar focado e a óptica da câmera e o objeto devem estar em uma relação espacial fixa durante o tempo de exposição do sensor de imagem da
Petição 870170040087, de 12/06/2017, pág. 50/128
25/83 câmera. Aplicado à presente invenção, isso deve implicar que o padrão e o foco devem ser variados em etapas discretas para poderem fixar o padrão e o foco para cada imagem amostrada na câmera, isto é, fixa durante o tempo de exposição da matriz de sensores. No entanto, para aumentar a sensibilidade dos dados de imagem, o tempo de exposição da matriz de sensores deve ser tão elevado quanto a taxa de fotogramas do sensor permitir. Deste modo, na concretização preferida da invenção, as imagens são registradas (amostradas) na câmera enquanto o padrão é continuamente variável (por exemplo, girando continuamente uma roda de padrão) e o plano de foco é movido continuamente. Isto implica que as imagens individuais serão ligeiramente desfocadas uma vez que são o resultado de uma integração de tempo da imagem enquanto o padrão é variável e o plano de foco é movido. Isto é algo que se poderia esperar levar à deterioração da qualidade dos dados, mas, na prática, a vantagem da variação concorrente do padrão e do plano de foco é maior do que a desvantagem.
[0075] Em outra concretização da invenção, as imagens são registradas (amostradas) na câmera enquanto o padrão é fixo e o plano de foco é movido continuamente, isto é, sem movimento do padrão. Este poderia ser o caso quando a fonte de luz é uma fonte de luz segmentada, tal como um LED de segmento que pisca de forma apropriada. Nesta concretização, o conhecimento do padrão é obtido por uma combinação de conhecimento prévio da geometria dos segmentos individuais no LED segmentado que originam uma variação entre os elementos de detecção de luz e a corrente aplicada a diferentes segmentos do LED em cada gravação.
[0076] Ainda em outra concretização da invenção, as
Petição 870170040087, de 12/06/2017, pág. 51/128
26/83 imagens são registradas (amostradas) na câmera enquanto o padrão é continuamente variável e o plano de foco é fixo.
[0077] Ainda em outra concretização da invenção, as imagens são registradas (amostradas) na câmera enquanto o padrão e o plano de foco são fixos.
[0078] O princípio de correlação temporal pode ser aplicado, em geral, dentro da análise de imagem. Dessa forma, outra concretização da invenção refere-se a um método para calcular a amplitude de uma oscilação de intensidade de luz em pelo menos um elemento sensível à luz (fotoelétrico), a referida oscilação de intensidade de luz gerada por um padrão de iluminação que varia periodicamente e a referida amplitude calculada em pelo menos um período de oscilação de padrão, o referido método compreendendo as etapas de:
- prover o seguinte um número predeterminado de vezes de amostragem durante um período de oscilação de padrão:
• amostragem do elemento sensível à luz proporcionando, assim, o sinal do referido elemento sensível à luz, e • prover uma posição angular e/ou uma fase do padrão de iluminação variando periodicamente para a referida amostragem, e
- calcular a referida amplitude(s) integrando os produtos de uma função periódica predeterminada e o sinal do elemento sensível à luz correspondente ao referido número predeterminado de tempos de amostragem, em que a referida função periódica é uma função da posição angular e/ou da fase do padrão de iluminação variando periodicamente.
[0079] Isso também pode ser expresso como
Petição 870170040087, de 12/06/2017, pág. 52/128
27/83
Figure BR112012000189B1_D0002
em que A é a medida de correlação ou amplitude calculada, i é o índice para cada amostragem, f é a função periódica, pi é a fase/posição angular do padrão de iluminação para amostragem 1 e li é o sinal do elemento sensível à luz para amostragem 1. Preferencialmente, a função periódica tende a zero durante um período de oscilação de padrão, isto é,
Σ/(α)=ο· [0080] Para generalizar o princípio a uma pluralidade de elementos sensíveis à luz, por exemplo, em uma matriz de sensores, a fase/posição angular do padrão de iluminação para um elemento sensível à luz específico pode consistir em uma fase/posição angular associada ao padrão de iluminação mais um desvio constante associado ao elemento sensível à luz específico. Dessa forma, a medida de correlação ou amplitude da oscilação de luz no elemento sensível à luz j pode ser expressa como i
em que 6j é o deslocamento constante para o elemento sensível à luz j.
[0081] Um padrão de iluminação que varia periodicamente pode ser gerado por uma roda rotativa com uma máscara opaca compreendendo uma pluralidade de raios radiais dispostos em ordem simétrica. A posição angular da roda corresponderá, assim, à posição angular do padrão e esta posição angular pode ser obtida por um codificador montado no rebordo da roda. A variação de padrão entre diferentes elementos sensores para diferentes posições do padrão pode ser determinada antes do escaneamento 3D em uma rotina de calibração. Uma combinação de conhecimento desta variação de
Petição 870170040087, de 12/06/2017, pág. 53/128
28/83 padrão e da posição de padrão constitui o conhecimento da configuração de padrão. Um período deste padrão pode, por exemplo, ser o tempo entre dois raios e a amplitude de um único ou de uma pluralidade de elementos sensíveis à luz deste período pode ser calculada por amostragem, por exemplo, quatro vezes neste período.
[0082] Um padrão de iluminação que varia periodicamente pode ser gerado por uma regulação de Ronchi que se move ortogonalmente para as linhas e a posição é medida por um codificador. Esta posição corresponde à posição angular do padrão gerado. Alternativamente, um padrão quadriculado poderia ser usado.
[0083] Um padrão de iluminação que varia periodicamente pode ser gerado por uma matriz unidimensional de LEDs que podem ser controlados de forma linear.
[0084] Um padrão de iluminação variável pode ser gerado por um projetor à base de LCD ou DLP.
Correlação Óptica [0085] O princípio de correlação acima mencionado (correlação temporal) requer algum tipo de registro do padrão variável no tempo, por exemplo, conhecimento da configuração do padrão em cada gravação de nível de luz na câmera. No entanto, um princípio de correlação sem este registro pode ser proporcionado em outra concretização da invenção. Este princípio é denominado “correlação óptica.
[0086] Nesta concretização da invenção, uma imagem do próprio padrão e uma imagem de pelo menos uma parte do objeto a ser escaneado com o padrão projetado sobre ele são combinadas na câmera, isto é, a imagem na câmera é uma sobreposição do próprio padrão e o objeto que está sendo sondado com o padrão projetado nele. Uma maneira diferente
Petição 870170040087, de 12/06/2017, pág. 54/128
29/83 de expressar isto é que a imagem na câmera substancialmente é uma multiplicação de uma imagem do padrão projetada sobre o objeto com o próprio padrão.
[0087] Isto pode ser proporcionado da maneira a seguir. Em outra concretização da invenção, o meio de geração de padrão compreende um elemento de padrão transparente com uma máscara opaca. A luz de sonda é transmitida através do elemento de padrão, de preferência, transmitida transversalmente através do elemento de padrão. A luz retornada do objeto a ser escaneado é retransmitida da maneira oposta através do referido elemento de padrão e transformada em imagem na câmera. Isto é preferencialmente feito de uma maneira em que a imagem do padrão que ilumina o objeto e a imagem do próprio padrão coincidem quando ambas são capturadas na câmera. Um exemplo particular de um padrão é uma roda giratória com uma máscara opaca que compreende uma pluralidade de raios radiais dispostos em ordem simétrica, de tal modo que o padrão possua periodicidade rotacional. Nesta concretização, existe um período de oscilação de padrão bem definido se o padrão é substancialmente girado a uma velocidade constante. Definimos o período de oscilação como 2.71ÍG}.
[0088] Observamos que, na concretização descrita da invenção, o padrão de iluminação é um padrão de luz e escuridão. Um elemento de detecção de luz na câmera com um sinal proporcional à intensidade de luz integrada durante o tempo de integração da câmera õt com o rótulo j, h é dado por t+5t Ij = K J Tj(t')Sj(t^)dt' t [0089] Aqui, K é a constante de proporcionalidade do
Petição 870170040087, de 12/06/2017, pág. 55/128
30/83 sinal do sensor, t é o início do tempo de integração da câmera, Tj é a transmissão com variação de tempo da parte do elemento de padrão rotativo transformado em imagem no j'ésimo elemento de detecção de luz, e Sj é a intensidade de luz variável no tempo da luz retornada do objeto escaneado e transformado em imagem no j'ésimo elemento de detecção de luz. Na concretização descrita, Tj é a função de etapa substancialmente definida por Tj(t) = 0 para sin(ωt+φj)> 0 e Tj(t) = 1 em outro lugar. φj é uma fase dependente da posição do j'ésimo sensor de imagem.
[0090] O sinal no elemento de detecção de luz é uma medida de correlação do padrão e da luz retornada do objeto que a ser escaneado. A transmissão com variação temporal assume o papel do sinal de referência e a intensidade de luz variável no tempo da luz retornada do objeto escaneado assume a função do sinal de entrada. A vantagem desta concretização da invenção é que uma câmera CCD ou CMOS normal com elementos de detecção de intensidade pode ser utilizada para registrar diretamente a medida de correlação, uma vez que esta aparece como uma intensidade nos elementos de detecção. Outra forma de expressar isto é que o cálculo da medida de correlação ocorre no domínio óptico analógico em vez de em um domínio eletrônico, tal como um FPGA ou um PC.
[0091] A posição de focagem correspondente ao padrão que está em foco no objeto a ser escaneado para um único elemento sensor na câmera será, então, dada pelo valor máximo da medida de correlação registrada com aquele elemento sensor quando a posição de focagem é variada em uma gama de valores. A posição de focagem pode ser variada em etapas iguais a partir de uma extremidade da região de escaneamento para a outra. Uma concretização da invenção compreende meios para
Petição 870170040087, de 12/06/2017, pág. 56/128
31/83 gravar e/ou integrar e/ou monitorar e/ou armazenar cada um de uma pluralidade dos elementos sensores em uma série de posições de plano de foco.
[0092] Preferencialmente, o máximo global deve ser encontrado. No entanto, artefatos, tais como sujeira no sistema óptico, podem resultar em falsos máximos globais. Portanto, pode ser aconselhável procurar máximos locais em alguns casos.
[0093] Visto que o sinal de referência não tende a zero, a medida de correlação tem um componente de CC. Uma vez que a parte de CC não é removida, pode existir uma tendência no sinal de CC sobre todas as posições do elemento de foco, e essa tendência pode ser dominante numericamente. Nesta situação, a posição de focagem pode ainda ser encontrada por análise da medida de correlação e/ou um ou mais de seus derivados.
[0094] Em uma concretização adicional da invenção, o tempo de integração da câmera é um número inteiro M do período de oscilação de padrão, ou seja, õt=2nM/m. Uma vantagem desta concretização é que a magnitude da medida de correlação pode ser medida com uma melhor relação sinalruído na presença de ruído do que se o tempo de integração da câmera não for um número inteiro do período de oscilação do padrão.
[0095] Em outra concretização adicional da invenção, o tempo de integração da câmera é muito mais longo do que o período de oscilação do padrão, isto é, õt»2nM/m. Muitas vezes, o tempo de oscilação do padrão aqui significaria, por exemplo, tempo de integração da câmera pelo menos 10 vezes o tempo de oscilação ou, mais preferencialmente, tal como pelo menos 100 ou 1000 vezes o tempo de oscilação. Uma
Petição 870170040087, de 12/06/2017, pág. 57/128
32/83 vantagem desta concretização é que não há necessidade de sincronização do tempo de integração da câmera e do tempo de oscilação do padrão dado que, para tempos de integração de câmera muito longos em comparação com o tempo de oscilação do padrão, a medida de correlação registrada é substancialmente independente de sincronização precisa.
[0096] Equivalente ao princípio da correlação temporal, o princípio de correlação óptica pode ser aplicado, em geral, na análise de imagem. Dessa forma, outra concretização da invenção refere-se a um método para calcular a amplitude de uma oscilação de intensidade de luz em pelo menos um elemento sensível à luz (fotoelétrico), a referida oscilação de intensidade de luz sendo gerada por uma sobreposição de um padrão de iluminação variável com ela mesma, e a referida amplitude calculada por integração no tempo do sinal de pelo menos um elemento sensível à luz sobre uma pluralidade de períodos de oscilação de padrão.
Correlação Espacial [0097] Os princípios de correlação acima mencionados (correlação temporal e correlação óptica) requerem que o padrão seja variável no tempo. Se o sistema óptico e a câmera proporcionam uma resolução lateral que seja pelo menos duas vezes o que necessário para o escaneamento do objeto, então, é possível escanear com um padrão estático, isto é, um padrão que não muda no tempo. Este princípio é denominado “correlação espacial. A medida de correlação é, assim, pelo menos calculada com sinais de sensor registrados em diferentes locais de sensor.
[0098] A resolução lateral de um sistema óptico deve ser entendida como a capacidade de elementos ópticos no sistema óptico, por exemplo, um sistema de lente, em
Petição 870170040087, de 12/06/2017, pág. 58/128
33/83 transformar em imagens frequências espaciais no objeto sendo escaneado até determinado ponto. As curvas de transferência de modulação do sistema óptico são tipicamente utilizadas para descrever a formação de imagem de frequências espaciais em um sistema óptico. Pode-se, por exemplo, definir a resolução do sistema óptico como a frequência espacial no objeto sendo escaneado, em que a curva de transferência de modulação diminuiu para, por exemplo, 50%. A resolução da câmera é um efeito combinado do espaçamento dos elementos individuais do sensor da câmera e da resolução do sistema óptico.
[0099] Na correlação espacial, a medida de correlação refere-se a uma correlação entre sinal de entrada e sinal de referência que ocorre no espaço em vez de no tempo. Dessa forma, em uma concretização da invenção, a resolução da geometria 3D medida é igual à resolução da câmera. No entanto, para a correlação espacial, a resolução da geometria 3D medida é inferior à resolução da câmera, tal como pelo menos 2 vezes mais baixa, tal como pelo menos 3 vezes menor, tal como pelo menos 4 vezes menor, tal como pelo menos 5 vezes menor, tal como pelo menos 10 vezes menor. A matriz de elementos sensores é, preferencialmente, dividida em grupos de elementos sensores, de preferência, grupos retangulares, tais como grupos quadrados de elementos sensores, de preferência, elementos sensores adjacentes. A resolução do escaneamento, isto é, a geometria 3D medida, será então determinada pelo tamanho desses grupos de elementos sensores. A oscilação no sinal de luz é proporcionada dentro desses grupos de elementos sensores, e a amplitude da oscilação de luz pode então ser obtida analisando os grupos de elementos sensores. A divisão da
Petição 870170040087, de 12/06/2017, pág. 59/128
34/83 matriz de elementos sensores em grupos é preferencialmente proporcionada na fase de processamento de dados, isto é, a divisão não é uma divisão física, possivelmente requerendo uma matriz de sensores especialmente adaptada. Dessa forma, a divisão em grupos é “virtual mesmo que o único pixel em um grupo seja um pixel físico real.
[0100] Em uma concretização da invenção, o padrão possui uma periodicidade de translação ao longo de pelo menos uma coordenada espacial. Em outra concretização da invenção, o padrão espacialmente periódico é alinhado com as linhas e/ou colunas da matriz de elementos sensores. Por exemplo, no caso de um padrão de linha estática, as linhas ou colunas dos pixels na câmera podem ser paralelas com as linhas do padrão. Ou, no caso de um padrão quadriculado estático, a linha e as colunas do tabuleiro de xadrez podem estar alinhadas com as linhas e colunas, respectivamente, dos pixels da câmera. Por alinhamento, entende-se que a imagem do padrão sobre a câmera está alinhada com o “padrão do elemento sensor na matriz de sensor da câmera. Deste modo, uma determinada localização física e orientação do meio de geração de padrão e a câmera requerem uma certa configuração dos componentes ópticos do scanner para que o padrão seja alinhado com a matriz de sensores da câmera.
[0101] Em outra concretização da invenção, pelo menos um período espacial do padrão corresponde a um grupo de elementos sensores. Em outra concretização da invenção, todos os grupos de elementos sensores contêm o mesmo número de elementos e têm a mesma forma. Por exemplo, quando o período de um padrão quadriculado corresponde a um grupo quadrado de, por exemplo, 2x2, 3x3, 4x4, 5x5, 6x6, 7x7, 8x8, 9x9, 10x10 ou mais pixels na câmera.
Petição 870170040087, de 12/06/2017, pág. 60/128
35/83 [0102] Ainda em outra concretização, uma ou mais bordas do padrão estão alinhadas com e/ou coincidem com uma ou mais bordas da matriz de elementos sensores. Por exemplo, um padrão quadriculado pode estar alinhado com os pixels da câmera de tal modo que as bordas da imagem do padrão quadriculado na câmera coincidam com as bordas dos pixels.
[0103] Na correlação espacial, o conhecimento independente da configuração do padrão permite calcular a medida de correlação em cada grupo de detecção de luz. Para uma iluminação espacialmente periódica, esta medida de correlação pode ser calculada sem ter que estimar o cosseno e a parte sinusoidal da oscilação de intensidade da luz. O conhecimento da configuração do padrão pode ser obtido antes do escaneamento 3D.
[0104] Em outra concretização da invenção, a medida de correlação AJr dentro de um grupo de elementos sensores com etiqueta j, é determinada por meio da seguinte fórmula:
n i = l em que n é o número de elementos sensores em um grupo de sensores, fj = (fi,j, . . . fn,j) é o vetor de sinal de referência obtido a partir do conhecimento da configuração do padrão e Ij= (li, j, . . . In, j) é vetor de sinal de entrada. Para o caso de sensores agrupados em regiões quadradas com N sensores como comprimento quadrado, então, n = N2.
[0105] Preferencialmente, mas não necessariamente, os elementos do vetor de sinal de referência tendem a zero em relação ao espaço, isto é, para todos j, temos
Figure BR112012000189B1_D0003
i=l
Petição 870170040087, de 12/06/2017, pág. 61/128
36/83 para suprimir a parte de CC da medida de correlação. A posição de focagem correspondente ao padrão em foco no objeto para um único grupo de elementos sensores na câmera será dada por um valor extremo da medida de correlação daquele grupo de elementos sensores quando a posição de focagem é variada em um intervalo de valores. A posição de focagem pode ser variada em etapas iguais a partir de uma extremidade da região de escaneamento para a outra.
[0106] No caso de um padrão quadriculado estático com bordas alinhadas com os pixels da câmera e com os grupos de pixels tendo um número par de pixels, tal como 2x2, 4x4, 6x6, 8x8, 10x10, uma escolha natural do vetor de referência f seria a de seus elementos assumirem o valor 1 para os pixels que transformam em imagem um quadrado brilhante do tabuleiro de xadrez e -1 para os pixels que transformam em imagem um quadrado escuro do tabuleiro de xadrez.
[0107] Equivalente aos outros princípios de correlação, o princípio de correlação espacial pode ser aplicado, em geral, na análise de imagem. Em particular, em uma situação em que a resolução da câmera é maior do que a necessária na imagem final. Deste modo, outra concretização da invenção refere-se a um método para calcular a amplitude(s) de uma oscilação de intensidade de luz em pelo menos um grupo de elementos sensíveis à luz, a referida oscilação de intensidade de luz sendo gerada por um padrão de iluminação estática variando espacialmente, o referido método compreendendo as etapas de:
- prover o sinal de cada elemento sensível à luz no referido grupo de elementos sensíveis à luz, e
- calcular a referida amplitude(s) integrando os produtos de uma função predeterminada e o sinal do elemento
Petição 870170040087, de 12/06/2017, pág. 62/128
37/83 sensível à luz correspondente sobre o referido grupo de elementos sensíveis à luz, em que a referida função predeterminada é uma função que reflete o padrão de iluminação.
[0108] Para generalizar o princípio a uma pluralidade de elementos sensíveis à luz, por exemplo, em uma matriz de sensores, a medida de correlação ou amplitude da oscilação de luz no grupo j pode ser expressa como λ,=É/('uK.
Í=1 em que n é o número de elementos sensores no grupo j, Ii,j é o sinal do J'bsimo elemento sensor no grupo j e f(i,j) é uma função predeterminada que reflete o padrão.
[0109] Em comparação com a correlação temporal, a correlação espacial tem a vantagem de não ser necessário qualquer padrão de movimento. Isto implica que o conhecimento da configuração do padrão pode ser obtido antes do escaneamento 3D. Por outro lado, a vantagem da correlação temporal é a sua resolução mais alta, já que não é necessário nenhum agrupamento de pixels.
[0110] Todos os princípios de correlação, quando incorporados com um sensor de imagem que permite taxas de fotograma muito elevadas, permitem o escaneamento 3D de objetos em movimento com pouca desfocagem de movimento. Também se torna possível rastrear objetos em movimento ao longo do tempo (escaneamento 4D), com aplicações úteis, por exemplo, em visão de máquina e medição de deformação dinâmica. Taxas de fotograma muito elevadas neste contexto são pelo menos 500, mas preferencialmente, pelo menos, 2000 imagens por segundo.
Transformação de extremos da medida de correlação em coordenadas de mundo 3D
Petição 870170040087, de 12/06/2017, pág. 63/128
38/83 [0111] A relação da(s) posiçao(ões) de foco identificada(s) para o sensor de câmera ou grupos de sensores
de câmera em coordenadas de mundo 3D pode ser feita por
traçado de raios através do sistema óptico. Antes que tal
traçado de raios possa ser realizado, os parâmetros do
sistema óptico precisam ser conhecidos. Uma concretização da invençao compreende uma etapa de calibraçao para obter tal conhecimento. Outra concretização da invenção compreende uma etapa de calibração na qual as imagens de um objeto de geometria conhecida são registradas para uma pluralidade de posições de focagem. Esse objeto pode ser um padrão quadriculado plano. Em seguida, o scanner pode ser calibrado gerando imagens traçadas por raios simulados do objeto de calibração e depois ajustando os parâmetros do sistema óptico de modo a minimizar a diferença entre as imagens simuladas e gravadas.
[0112] Em outra concretização da invenção, a etapa de calibração requer a gravação de imagens para uma pluralidade de posições de focagem para vários objetos de calibração diferentes e/ou várias orientações e/ou posições diferentes de um objeto de calibração.
[0113] Com o conhecimento dos parâmetros do sistema óptico, pode-se empregar a técnica de traçado de raios para trás para estimar o mapeamento 2D -> 3D. Isto requer que o sistema óptico do scanner seja conhecido, de preferência, através da calibração. As seguintes etapas podem ser realizadas:
1. A partir de cada pixel da imagem (no sensor de imagem), traçar um determinado número de raios, partindo do sensor de imagem e através do sistema óptico (traçado de raio para trás).
Petição 870170040087, de 12/06/2017, pág. 64/128
39/83
2. A partir dos raios que emitem, calcular o ponto de foco, o ponto onde todos esses raios substancialmente se cruzam. Este ponto representa a coordenada 3D de onde um pixel 2D estará em foco, isto é, no rendimento do máximo global de amplitude de oscilação de luz.
3. Gerar uma tabela de consulta para todos os pixels com suas coordenadas 3D correspondentes.
[0114] As etapas acima são repetidas para um número de diferentes posições de lentes de foco cobrindo a faixa de operação do scanner.
Reflexões Especulares [0115] Alto contraste espacial da imagem de padrão em foco no objeto é geralmente necessário para obter uma boa relação sinal/ruído da medida de correlação na câmera. Isto, por sua vez, pode ser necessário para obter uma boa estimativa da posição de focagem correspondente a um extremo na medida de correlação. Esta relação sinal/ruído suficiente para um escaneamento bem-sucedido é geralmente conseguida facilmente em objetos com uma superfície difusa e uma penetração de luz insignificante. No entanto, para alguns objetos, é difícil conseguir um elevado contraste espacial.
[0116] Um tipo de objeto difícil, por exemplo, é um objeto que apresenta dispersão múltipla da luz incidente com um comprimento de difusão de luz grande em comparação com a menor dimensão de característica do padrão espacial representado no objeto. Um dente humano é um exemplo de tal objeto. O ouvido humano e o canal auditivo são outros exemplos. No caso de escaneamento intraoral, o escaneamento deve ser preferencialmente proporcionado sem pulverização e/ou secagem dos dentes para reduzir as reflexões especulares e a penetração da luz. O contraste espacial melhorado pode
Petição 870170040087, de 12/06/2017, pág. 65/128
40/83 ser conseguido pela formação de imagem preferencial da reflexão especular de superfície do objeto na câmera. Dessa forma, uma concretização da invenção compreende meios para formação de imagem preferencial/seletiva de luz refletida especular e/ou luz refletida de modo difuso. Isto pode ser proporcionado se o scanner compreender ainda meios para polarização da luz de sonda, por exemplo, por meio de pelo menos um divisor de feixe polarizador. Um divisor de feixe polarizador pode, por exemplo, ser provido para formar uma imagem do objeto na câmera. Isso pode ser utilizado para extinguir reflexões especulares, porque se a luz incidente for linearmente polarizada, uma reflexão especular do objeto tem a propriedade de preservar seu estado de polarização.
[0117] O scanner de acordo com a invenção pode compreender ainda meios para alterar o estado de polarização da luz de sonda e/ou da luz refletida do objeto. Isso pode ser proporcionado por meio de uma placa de retardamento, de preferência, localizada no percurso óptico. Em uma concretização da invenção, a placa de retardamento é uma placa de retardo de quarto de onda. Uma onda de luz linearmente polarizada é transformada em uma onda de luz circularmente polarizada quando da passagem de uma placa de quarto de onda com uma orientação de 45 graus de seu eixo rápido para a direção de polarização linear. Isso pode ser utilizado para aumentar as reflexões especulares porque uma reflexão especular do objeto tem a propriedade de inverter a helicidade de uma onda de luz circularmente polarizada, enquanto a luz que é refletida por um ou mais eventos de dispersão torna-se despolarizada.
O Campo de Visão (Comprimento de Escaneamento) [0118] Em uma concretização da invenção, a luz de
Petição 870170040087, de 12/06/2017, pág. 66/128
41/83 sonda é transmitida para o objeto em uma direção substancialmente paralela ao eixo óptico. No entanto, para que a cabeça de escaneamento seja introduzida em um pequeno espaço, tal como a cavidade oral de um paciente, é necessário que a ponta da cabeça de escaneamento seja suficientemente pequena. Ao mesmo tempo, a luz que sai da cabeça de escaneamento tem de deixar a cabeça de escaneamento em uma direção diferente do eixo óptico. Desse modo, uma concretização adicional da invenção compreende meios para direcionar a luz de sonda e/ou formar a imagem de um objeto em uma direção diferente do eixo óptico. Isso pode ser proporcionado por meio de pelo menos um elemento de dobragem, de preferência, localizado ao longo do eixo óptico, para direcionar a luz de sonda e/ou formar a imagem de um objeto em uma direção diferente do eixo óptico. O elemento de dobragem pode ser um elemento refletor de luz, tal como um espelho ou um prisma. Em uma concretização da invenção, um espelho de 45 graus é utilizado como óptica de dobragem para direcionar o percurso de luz sobre o objeto. Deste modo, a luz de sonda é guiada em uma direção perpendicular ao eixo óptico. Nesta concretização, a altura da ponta de escaneamento é pelo menos tão grande quanto o comprimento de escaneamento e, preferencialmente, de tamanho aproximadamente igual.
[0119] Uma concretização da invenção compreende pelo menos duas fontes de luz, tais como fontes de luz com diferentes comprimentos de onda e/ou polarização diferente. De preferência, também meios de controle para controlar as referidas pelo menos duas fontes de luz. De preferência, esta concretização compreende meios para combinar e/ou fundir luz das referidas pelo menos duas fontes de luz. De
Petição 870170040087, de 12/06/2017, pág. 67/128
42/83 preferência, também significa para separar luz das referidas pelo menos duas fontes de luz. Se forem utilizadas fontes de luz de guia de onda, elas podem ser fundidas por guias de ondas. No entanto, podem também ser proporcionados um ou mais difusores para fundir fontes de luz.
[0120] A separação e/ou fusão pode ser proporcionada por pelo menos um dispositivo óptico que é parcialmente transmissor de luz e parcialmente refletor de luz, o referido dispositivo óptico localizado preferencialmente ao longo do eixo óptico, um dispositivo óptico, tal como um espelho revestido ou placa revestida. Uma concretização compreende pelo menos dois dos referidos dispositivos ópticos, os referidos dispositivos ópticos sendo preferencialmente deslocados ao longo do eixo óptico. De preferência, pelo menos um dos referidos dispositivos ópticos transmite luz em determinados comprimentos de onda e/ou polarizações e reflete a luz em outros comprimentos de onda e/ou polarizações.
[0121] Uma concretização exemplar da invenção compreende pelo menos uma primeira e uma segunda fonte de luz, as referidas fontes de luz tendo diferentes comprimentos de onda e/ou polarização e em que: um primeiro dispositivo óptico reflete luz da referida primeira fonte de luz em uma direção diferente do eixo óptico e transmite a luz da referida segunda fonte de luz, e um segundo dispositivo óptico reflete luz da referida segunda fonte de luz em uma direção diferente do eixo óptico. De preferência, os referidos primeiro e segundo dispositivos ópticos refletem a luz de sonda em direções paralelas, de preferência, em uma direção perpendicular ao eixo óptico, formando assim imagens de diferentes partes da superfície do objeto. As referidas
Petição 870170040087, de 12/06/2017, pág. 68/128
43/83 diferentes partes da superfície do objeto podem ser pelo menos parcialmente sobrepostas.
[0122] Dessa forma, por exemplo, a luz de uma primeira e uma segunda fonte de luz que emite luz de diferentes comprimentos de onda (e/ou polarizações) é fundida em conjunto utilizando uma placa adequadamente revestida que transmite a luz da primeira fonte de luz e reflete a luz da segunda fonte de luz. Na ponta de escaneamento ao longo do eixo óptico, um primeiro dispositivo óptico (por exemplo, uma placa adequadamente revestida, um filtro dicroico) reflete a luz da primeira fonte de luz sobre o objeto e transmite a luz da segunda fonte de luz a um segundo dispositivo óptico (por exemplo, um espelho) na extremidade da ponta de escaneamento, isto é, mais abaixo no eixo óptico. Durante o escaneamento, a posição de focagem é deslocada de tal modo que a luz da primeira fonte de luz é utilizada para projetar uma imagem do padrão para uma posição abaixo do primeiro dispositivo óptico enquanto a segunda fonte de luz é desligada. A superfície 3D do objeto na região abaixo do primeiro dispositivo óptico é gravada. Em seguida, a primeira fonte de luz é desligada e a segunda fonte de luz é ligada e a posição de focagem é deslocada de tal modo que a luz da segunda fonte de luz é utilizada para projetar uma imagem do padrão a uma posição abaixo do segundo dispositivo óptico. A superfície 3D do objeto na região abaixo do segundo dispositivo óptico é gravada. A região coberta com a luz das duas fontes de luz, respectivamente, pode parcialmente sobrepor-se.
[0123] Em outra concretização da invenção, a luz de sonda é direcionada em uma direção diferente do eixo óptico por meio de um espelho de dobra curvo. Esta concretização
Petição 870170040087, de 12/06/2017, pág. 69/128
44/83 pode compreender um ou mais elementos ópticos, tais como lentes, com superfícies que podem ser asféricas para proporcionar imagens ópticas corrigidas.
[0124] Outra concretização da invenção compreende pelo menos um estágio de translação para a translação de espelho(s) ao longo do eixo óptico. Isso permite uma ponta de escaneamento com uma altura menor do que o comprimento de escaneamento. Um grande comprimento de escaneamento pode ser alcançado combinando vários escaneamentos com o(s) espelho(s) em diferentes posições ao longo do eixo óptico.
[0125] Em outra concretização da invenção, a luz de sonda é direcionada em uma direção diferente do eixo óptico por meio de pelo menos uma grade que proporciona uma ampliação anamórfica de modo que a imagem do padrão no objeto a ser escaneado seja esticada. A grade pode ser aberta. Nesta concretização, a fonte de luz precisa de ser monocromática ou semimonocromática.
[0126] As concretizações acima mencionadas adequadas para aumentar o comprimento de escaneamento podem compreender meios de controle para proporcionar uma coordenação das fontes de luz e do elemento de foco.
Escaneamento a Cores [0127] Uma concretização da invenção é apenas registrar a topologia de superfície (geometria) do objeto a ser escaneado. No entanto, outra concretização da invenção está sendo adaptada para obter a cor da superfície sendo escaneada, isto é, capaz de registrar a cor dos elementos de superfície individuais do objeto sendo escaneado em conjunto com a topologia de superfície do objeto sendo escaneado. Para obter informação de cor, a fonte de luz precisa ser branca ou compreender pelo menos três fontes de luz
Petição 870170040087, de 12/06/2017, pág. 70/128
45/83 monocromáticas com cores distribuídas através da parte visível do espectro eletromagnético.
[0128] Para proporcionar informação de cor, a matriz de elementos sensores pode ser um sensor de imagem a cores. O sensor de imagem pode acomodar um esquema de filtro de cor Bayer. No entanto, outros tipos de sensores de imagem a cores podem ser proporcionados, tais como um sensor de imagem a cores de tipo Foveon, em que o sensor de imagem proporciona registro de cor em cada elemento sensor.
[0129] Uma concretização da invenção compreende meios que selecionam uma cor da luz de sonda de cada vez, isto é, comutação seletiva entre diferentes cores da luz de sonda, iluminando assim o objeto com diferentes cores. Se uma fonte de luz branca for usada, então, algum tipo de filtro de cor deve ser fornecido. De preferência, compreendendo uma pluralidade de filtros de cor, tais como filtros de cor vermelho, verde e azul, e meios para inserir os referidos filtros de cor individualmente na frente da fonte de luz branca, selecionando assim uma cor da luz de sonda.
[0130] Em uma concretização da invenção, os filtros de cor são integrados nos meios de geração de padrão, isto é, os meios de geração de padrão compreendem filtros de cor, tais como partes translúcidas e/ou transparentes que são substancialmente coloridas de forma monocromática. Por exemplo, um elemento de padrão, tal como uma roda rotativa com uma máscara opaca e onde as partes translúcidas/transparentes são filtros de cor. Por exemplo, um terço da roda é vermelho, um terço é verde e um terço é azul.
[0131] A luz de sonda de diferentes cores também pode
Petição 870170040087, de 12/06/2017, pág. 71/128
46/83 ser proporcionada por pelo menos três fontes de luz monocromáticas, tais como lasers ou LEDs, as referidas fontes de luz tendo comprimentos de onda distribuídos através da parte visível do espectro de comprimento de onda. Isto irá, em geral, também requerer meios para a fusão das referidas fontes de luz. Por exemplo, placas revestidas adequadas. No caso de fontes de luz de guia de onda, a fusão pode ser proporcionada por um elemento de guia de ondas.
[0132] Para tratar as diferentes cores da luz de sonda, o sistema óptico é preferencialmente substancialmente acromático.
[0133] Uma concretização da invenção compreende meios para alternar entre pelo menos duas cores, de preferência, três cores, tais como vermelho, verde e azul, da luz de sonda para uma posição de plano focal, isto é, para uma posição de plano focal único, é possível alternar entre diferentes cores da luz da sonda. Por exemplo, ligando e desligando diferentes fontes de luz monocromáticas (tendo uma única fonte de luz ligada por vez) ou aplicando diferentes filtros de cor. Além disso, a amplitude do sinal de luz de cada um de uma pluralidade dos elementos sensores pode ser determinada para cada cor para cada posição do plano focal, isto é, para cada posição de focagem, a cor da luz da sonda pode ser comutada. O padrão de variação de tempo incorporado proporciona um sinal de luz oscilante de cor única e a amplitude do sinal em cada elemento sensor pode ser determinada para essa cor. Quando da comutação para a cor seguinte, a amplitude pode ser determinada novamente. Quando a amplitude tiver sido determinada para todas as cores, a posição de focagem é alterada e o processo é repetido. A cor da superfície sendo escaneada pode, então,
Petição 870170040087, de 12/06/2017, pág. 72/128
47/83 ser obtida combinando e/ou pesando a informação de cor de uma pluralidade dos elementos sensores. Por exemplo, a cor expressa como, por exemplo, uma coordenada de cor RGB de cada elemento de superfície pode ser reconstruída por ponderação apropriada do sinal de amplitude para cada cor correspondente à amplitude máxima. Esta técnica pode também ser aplicada quando é proporcionado um padrão estático onde a cor de pelo menos uma parte do padrão é variável no tempo.
[0134] Para diminuir a quantidade de dados a ser processada, a resolução de cor da imagem pode ser escolhida para ser menor do que a resolução espacial. A informação de cor é, então, fornecida por interpolação de dados. Dessa forma, em uma concretização da invenção, a amplitude do sinal de luz de cada um de uma pluralidade dos elementos sensores é determinada para cada cor para posições de plano focal de cor cheia selecionadas, e a amplitude do sinal de luz de cada um de uma pluralidade dos elementos sensores é determinada para uma cor para cada posição do plano focal. Em seguida, a cor da superfície a ser escaneada pode ser obtida interpolando a informação de cor a partir de posições de plano focal de cor cheia. Dessa forma, por exemplo, a amplitude é registrada para todas as cores em um intervalo de N posições de focagem; enquanto uma cor é selecionada para determinação da amplitude em todas as posições de focagem. N é um número que poderia ser, por exemplo, 3, 5 ou 10. Isso resulta em uma resolução de cor que é inferior à resolução da topologia de superfície. Essa técnica pode também ser aplicada quando um padrão estático é proporcionado onde a cor de pelo menos uma parte do padrão é variável no tempo.
[0135] Outra concretização da invenção não registra
Petição 870170040087, de 12/06/2017, pág. 73/128
48/83 informação de cor completa e emprega apenas duas fontes de luz com cores diferentes. Um exemplo disso é um scanner dental que usa luz vermelha e azul para distinguir o tecido duro (dente) do tecido macio (gengiva).
Escaneamento de Impressão [0136] Uma concretização da invenção é adaptada ao escaneamento de impressão, tal como o escaneamento de impressões dentárias e/ou impressões do canal auditivo. Scanner de Cavidade Pequena [0137] As aplicações específicas do scanner de acordo com a invenção relacionam-se com o escaneamento de cavidades, em particular, cavidades corporais. O escaneamento nas cavidades pode estar relacionado ao escaneamento de objetos na cavidade, tal como o escaneamento de dentes na boca. No entanto, o escaneamento do ouvido, por exemplo, se relaciona ao escaneamento da superfície interna da própria cavidade. Em geral, o escaneamento de uma cavidade, especialmente, uma cavidade pequena, requer algum tipo de sonda para o scanner. Deste modo, em uma concretização da invenção, o ponto de emissão da luz de sonda e o ponto de acumulação de luz refletida é localizado em uma sonda, a referida sonda sendo adaptada para entrar em uma cavidade, tal como uma cavidade corporal.
[0138] Em outra concretização da invenção, a sonda é adaptada para escanear pelo menos uma parte da superfície de uma cavidade, tal como um canal auditivo. A capacidade de escanear pelo menos uma parte da parte externa do ouvido e/ou do canal auditivo e fazer um modelo virtual ou real do ouvido é essencial para a concepção de aparelhos auditivos personalizados modernos (por exemplo, concha ou molde). Atualmente, o escaneamento dos ouvidos é realizado em um
Petição 870170040087, de 12/06/2017, pág. 74/128
49/83 processo de duas etapas onde uma impressão de silicone do ouvido é feita primeiramente e a impressão é posteriormente escaneada usando um scanner externo em uma segunda etapa.
[0139] Dessa forma, uma concretização da invenção compreende um compartimento que acomoda a câmera, meios de geração de padrão, meios de variação de foco e meios de processamento de dados, e pelo menos uma sonda acomodando um primeiro sistema óptico, de preferência, uma sonda substancialmente alongada.
[0140] Preferencialmente, o ponto de emissão da luz de sonda e o ponto de acumulação de luz retornada do objeto escaneado são localizados na referida sonda. O sistema óptico na sonda é para transmitir a luz de sonda do compartimento em direção ao objeto e também para transmitir e/ou transformar em imagem a luz retornada do objeto de volta para o compartimento onde a câmera está localizada. Deste modo, o sistema óptico na sonda pode compreender um sistema de lentes. Em uma concretização da invenção, a sonda pode compreender pelo menos uma fibra óptica e/ou um feixe de fibras para transmitir/transportar/guiar a luz de sonda e/ou a luz retornada da superfície do objeto. Neste caso, a(s) fibra(s) óptica(s) pode(m) atuar como um sistema de relé óptico que apenas transporta luz (isto é, luz de sonda e luz retornada) dentro da sonda. Em uma concretização da invenção, a sonda é endoscópica. A sonda pode ser rígida ou flexível. A utilização de fibra(s) óptica(s) na sonda pode, por exemplo, fornecer uma sonda flexível com um pequeno diâmetro.
[0141] Em uma concretização da invenção, a luz é transmitida ao objeto e transformada em imagem por meio apenas do sistema óptico na sonda, o primeiro sistema óptico. No entanto, em uma concretização adicional da invenção, o
Petição 870170040087, de 12/06/2017, pág. 75/128
50/83 compartimento pode compreender ainda um segundo sistema óptico.
[0142] Em uma concretização adicional da invenção, a sonda é destacável do compartimento. De preferência, um primeiro ponto de emissão de luz de sonda e um primeiro ponto de acumulação de luz retornada estão localizados na sonda, e um segundo ponto de emissão de luz de sonda e um segundo ponto de acumulação de luz retornada está localizado no compartimento. Isso pode exigir sistemas ópticos tanto no compartimento como na sonda. Deste modo, um escaneamento pode ser obtido com a sonda acoplada ao compartimento. No entanto, um escaneamento pode também ser obtido com a sonda desacoplada do compartimento, isto é, o compartimento pode ser um scanner autônomo em si. Por exemplo, a sonda pode ser adaptada para ser inserida e escanear o interior de uma cavidade, ao passo que o compartimento pode ser adaptado para escanear superfícies externas. O acoplamento da sonda pode incluir transferência mecânica e/ou elétrica entre o compartimento e a sonda. Por exemplo, o acoplamento da sonda pode fornecer um sinal elétrico à eletrônica de controle no compartimento que sinaliza a configuração atual do dispositivo.
[0143] Em uma concretização da invenção, a luz de sonda é direcionada para o objeto em uma direção substancialmente paralela ao eixo óptico e/ou ao eixo longitudinal da sonda. Em outra concretização, a sonda compreende um elemento refletor posterior, tal como um espelho, para direcionar a luz de sonda em uma direção diferente do eixo óptico, de preferência, em uma direção perpendicular ao eixo óptico. Aplicando ao exemplo acima mencionado um compartimento de scanner autônomo com a sonda
Petição 870170040087, de 12/06/2017, pág. 76/128
51/83 desacoplada, a luz de sonda pode sair do compartimento em uma direção paralela ao eixo óptico do sistema óptico no compartimento (isto é, o segundo sistema óptico), enquanto que, com a sonda acoplada, a luz de sonda pode ser direcionada em uma direção diferente do eixo óptico do sistema óptico da sonda (isto é, o primeiro sistema óptico). Deste modo, a sonda é melhor adaptada para escanear uma cavidade.
[0144] Em algumas concretizações desta invenção, o calor residual gerado no scanner é utilizado para aquecer a sonda de modo que ocorra menos ou nenhuma condensação na sonda quando a sonda estiver dentro da cavidade do corpo, por exemplo, na boca. O calor residual pode, por exemplo, ser gerado pela eletrônica de processamento, pela fonte de luz e/ou pelo mecanismo que move o elemento de focagem.
[0145] Em algumas concretizações desta invenção, o scanner fornece retorno ao usuário quando o registro de escaneamentos subsequentes para um modelo maior da superfície 3D falhar. Por exemplo, o scanner pode piscar a fonte de luz.
[0146] Além disso, a sonda pode compreender meios para girar/rodar o elemento refletor, de preferência, em torno de um eixo substancialmente paralelo ao eixo óptico e/ou ao eixo longitudinal da sonda. Deste modo, a sonda pode ser adaptada para proporcionar um escaneamento 360° em torno
do eixo óptico e/ou do eixo longitudinal da sonda, de
preferência, sem rotação da sonda e/ou do scanner.
[0147] Em outra concretização da invenção, uma
pluralidade de diferentes sondas corresponde ao
compartimento. Deste modo, diferentes sondas adaptadas a diferentes ambientes, superfícies, cavidades etc. podem ser
Petição 870170040087, de 12/06/2017, pág. 77/128
52/83 acopladas ao compartimento para ter em conta diferentes situações de escaneamento. Um exemplo específico disto é quando o scanner compreende uma primeira sonda adaptada para escanear a parte interna de um ouvido humano e uma segunda sonda adaptada para escanear a parte externa do referido ouvido humano. Em vez de uma segunda sonda, pode ser o próprio compartimento, isto é, com a sonda desacoplada, que é adaptada para escanear a parte externa do referido ouvido humano, isto é, o compartimento pode ser adaptado para realizar uma escaneamento de superfície 3D. Em outras palavras: o compartimento com a sonda conectada pode ser adaptado para escanear a parte interna de um ouvido humano e o compartimento com a sonda desacoplada pode ser adaptado para escanear a parte externa do referido ouvido humano. Preferencialmente, meios para fundir e/ou combinar dados 3D para a parte interna e externa do ouvido são providos, proporcionando assim um modelo 3D completo de um ouvido humano.
[0148] Para as concretizações portáteis desta invenção, um formato tipo pistola é ergonômico porque o dispositivo repousa confortavelmente dentro da mão do operador, com a maior parte da massa repousando sobre a mão e/ou pulso. Neste formato, é vantajoso ser capaz de orientar o refletor posterior acima mencionado em várias posições. Por exemplo, pode ser possível girar uma sonda com o elemento refletor posterior, com ou sem a etapa de desacoplamento do corpo principal do dispositivo de escaneamento. As sondas destacáveis podem também ser autoclaváveis, o que é definitivamente uma vantagem para scanners aplicados em seres humanos, por exemplo, como dispositivos médicos. Para concretizações desta invenção que realizam um elemento de
Petição 870170040087, de 12/06/2017, pág. 78/128
53/83 foco fisicamente em movimento por meio de um motor, é vantajoso colocar este motor em uma alça de formato semelhante a uma pistola.
Utilização de Sensores de Movimento, Gravidade e Magnéticos [0149] As concretizações portáteis da invenção incluem, preferencialmente, sensores de movimento, tais como acelerômetros e/ou giroscópios. De preferência, esses sensores de movimento são pequenos como sensores de movimento de sistemas microeletromecânicos (MEMS). De preferência, os sensores de movimento devem medir todo o movimento em 3D, isto é, tanto as translações como as rotações para os três eixos principais de coordenadas. Os benefícios são:
A) Os sensores de movimento podem detectar vibrações e/ou agitação. Os escaneamentos afetados podem ser descartados ou corrigidos pelo uso de técnicas de estabilização de imagem.
B) Os sensores de movimento podem ajudar com a ligação e/ou registro de escaneamentos parciais entre si. Esta vantagem é relevante quando o campo de visão do scanner é menor que o objeto a ser escaneado. Nesta situação, o scanner é aplicado para pequenas regiões do objeto (um de cada vez) que, em seguida, são combinados para obter o escaneamento completo. No caso ideal, os sensores de movimento podem fornecer a transformação necessária de movimento rígido relativo entre coordenadas locais de escaneamentos parciais, porque medem a posição relativa do dispositivo de escaneamento em cada escaneamento parcial. Os sensores de movimento com precisão limitada podem ainda fornecer uma primeira suposição para uma ligação/registro à base de software de escaneamentos parciais com base, por exemplo, na classe de algoritmos Iterative Closest Point, resultando em
Petição 870170040087, de 12/06/2017, pág. 79/128
54/83 tempo de computação reduzido.
C) Os sensores de movimento podem ser usados (também) como um controle remoto para o software que acompanha a invenção. Tal software, por exemplo, pode ser utilizado para visualizar o escaneamento adquirido. Com o dispositivo de escaneamento agindo agora como um controle remoto, o usuário pode, por exemplo, girar e/ou percorrer a vista (movendo o controle remoto da mesma maneira que o objeto na tela do computador deve “se mover). Especialmente em aplicações clínicas, o uso duplo do scanner portátil é preferível por considerações de higiene, porque o operador evita a contaminação de dispositivos de entrada alternativos operados manualmente (tela de toque, mouse, teclado etc.).
[0150] Mesmo que seja muito impreciso detectar o movimento de translação, um acelerômetro de 3 eixos pode prover a direção de gravidade em relação ao dispositivo de escaneamento. Também, um magnetômetro pode prover informação direcional em relação ao dispositivo de escaneamento, neste caso, a partir do campo magnético da terra. Portanto, esses dispositivos podem ajudar com a ligação/registro e atuam como um elemento de controle remoto.
[0151] A presente invenção refere-se a diferentes aspectos, incluindo o dispositivo de escaneamento descrito acima e a seguir, e métodos, dispositivos, usos e/ou meios de produto correspondentes, cada um proporcionando um ou mais dos benefícios e vantagens descritos em conexão com o primeiro aspecto mencionado, e cada um deles tendo uma ou mais concretizações correspondentes às concretizações descritas em conexão com o primeiro aspecto mencionado e/ou divulgado nas reivindicações anexas.
[0152] Em particular, é aqui divulgado um método para
Petição 870170040087, de 12/06/2017, pág. 80/128
55/83 obter e/ou medir a geometria 3D de pelo menos uma parte da superfície de um objeto, o referido método compreendendo as etapas de:
- gerar uma luz de sonda que incorpora um padrão espacial,
- transmitir a luz de sonda para o objeto ao longo do eixo óptico de um sistema óptico, iluminando assim pelo menos uma parte do objeto com o referido padrão,
- transmitir pelo menos uma parte da luz retornada do objeto para a câmera,
- variar a posição do plano de foco do padrão no objeto enquanto se mantém uma relação espacial fixa do scanner e do objeto,
- obter pelo menos uma imagem a partir da referida
matriz de elementos sensores,
- avaliar uma medida de correlação em cada posição de
plano de foco entre pelo menos um pixel de imagem e uma
função de peso, em que a função de peso é determinada com
base na informação da configuração do padrão espacial;
- determinar, por análise da medida de correlação, a(s) posição(ões) em foco de:
- cada um de uma pluralidade de pixels de imagem na câmera para a referida série de posições de plano de foco, ou
- cada um de uma pluralidade de grupos de pixels de imagem na câmera para a referida gama de planos de foco, e
- transformar os dados em foco em coordenadas de mundo real 3D.
[0153] É também divulgado um produto de programa de computador compreendendo meios de código de programa para fazer com que um sistema de processamento de dados execute
Petição 870170040087, de 12/06/2017, pág. 81/128
56/83 o método, quando os referidos meios de código de programa são executados no sistema de processamento de dados.
[0154] É também divulgado um produto de programa de computador, compreendendo um meio legível por computador armazenando os meios de código de programa.
[0155] Outro aspecto da invenção refere-se a um scanner para obter e/ou medir a geometria 3D de pelo menos uma parte da superfície de um objeto, o referido scanner compreendendo:
- pelo menos uma câmera que acomoda uma matriz de elementos sensores,
- meios para gerar uma luz de sonda,
- meios para transmitir a luz de sonda ao objeto, iluminando assim pelo menos uma parte do objeto,
- meios para transmitir a luz retornada do objeto para a câmera,
- meios para variar a posição do plano de foco no objeto,
- meios para obter pelo menos uma imagem da referida matriz de elementos sensores,
- meios para:
a) determinar a(s) posição(ões) em foco de:
- cada um de uma pluralidade dos elementos sensores para uma série de posições de plano de foco, ou
- cada de uma pluralidade de grupos dos elementos sensores para uma série de posições de plano de foco, e
b) transformar dados em foco em coordenadas de mundo real 3D;
em que o scanner compreende ainda meios de contrapeso para contrabalançar os meios para variar a posição do plano de foco.
Petição 870170040087, de 12/06/2017, pág. 82/128
57/83 [0156] É também divulgado um método para obter e/ou medir a geometria 3D de pelo menos uma parte da superfície de um objeto, o referido método compreendendo as etapas de:
- acomodar uma matriz de elementos sensores,
- gerar uma luz de sonda,
- transmitir a luz de sonda em direção ao objeto iluminando assim pelo menos uma parte do objeto,
- transmitir a luz retornada do objeto para a câmera,
- variar a posição do plano de foco no objeto,
- obter pelo menos uma imagem a partir da dita matriz de elementos sensores,
- determinar a(s) posição(ões) em foco de:
- cada um de uma pluralidade dos elementos sensores
para uma série de posições de plano de foco, ou
cada um de uma pluralidade de grupos dos elementos
sensores para uma série de posições de plano de foco, e
- transformar os dados em foco em coordenadas de mundo
real 3D;
em que o método compreende ainda contrabalancear dos meios para variar a posição do plano de foco.
[0157] Outro aspecto da invenção refere-se a um scanner 3D portátil com uma alça em um ângulo de mais de 30 graus a partir do eixo óptico principal do scanner, para utilização em escaneamento intraoral ou intra-auricular. Breve Descrição dos Desenhos [0158] A figura 1: Uma apresentação esquemática de uma primeira concretização exemplificativa do dispositivo de acordo com a invenção.
[0159] A figura 2: Uma apresentação esquemática de uma segunda concretização exemplificativa do dispositivo de acordo com a invenção (correlação óptica).
Petição 870170040087, de 12/06/2017, pág. 83/128
58/83 [0160] A figura 3: Apresentações esquemáticas de concretizações exemplares de padrões de acordo com a invenção.
[0161] A figura 4: Uma apresentação esquemática de uma primeira concretização exemplificativa de uma ponta de escaneamento plana com grande comprimento de escaneamento, utilizando uma pluralidade de espelhos (dicroicos) e fontes de luz.
[0162] A figura 5: - suprimida -] [0163] A figura 6: Uma apresentação esquemática de uma terceira concretização exemplificativa de uma ponta de escaneamento plana com um grande comprimento de escaneamento, utilizando um espelho curvo.
[0164] A figura 7: Uma apresentação esquemática de uma quarta concretização exemplificativa de uma ponta de escaneamento plana com grande comprimento de escaneamento, utilizando uma grade de difração.
[0165] A figura 8: Uma apresentação esquemática de uma concretização exemplificativa de um scanner de lente de foco equilibrada em massa.
[0166] A figura 9: Uma apresentação esquemática de uma concretização exemplificativa de um dispositivo para escaneamento simultâneo de forma e cor de uma superfície.
[0167] A figura 12: Uma apresentação esquemática de uma concretização exemplificativa de um dispositivo para escanear pelo menos uma parte da parte externa do ouvido humano e/ou uma parte do canal auditivo de um ouvido humano.
[0168] A figura 13 (a) e (b): Esquemas mostrando como uma concretização de escaneamento pode ser utilizada tanto para escanear o ouvido externo e interno, respectivamente.
[0169] A figura 14: Esquema de uma concretização de
Petição 870170040087, de 12/06/2017, pág. 84/128
59/83 sonda de scanner utilizada para escanear uma cavidade corporal estreita, tal como um ouvido humano.
[0170] A figura 15: Exemplos de configurações de espelho a serem usadas com uma sonda de scanner.
[0171] A figura 16: Uma representação esquemática dos valores de sinal de referência/valores de peso por pixel para um padrão quadriculado em um sistema óptico idealizado.
[0172] A figura 17: Ilustração do processo de geração de um sinal de referência fundido, visualizado como imagens.
[0173] A figura 18: Parte superior: imagem exemplificativa com padrão projetado mostrando um dente humano. Inferior: A medida de correlação para a série de posições de lente de foco no grupo de pixels enquadrado na parte superior da figura.
[0174] A figura 19: Exemplo de imagem de medida de correlação fundida de uma cena intraoral.
[0175] A figura 20: Exemplo de um scanner intraoral portátil com um punho semelhante a uma pistola e uma ponta removível.
[0176] Compreender-se-á que os traços de raios e as lentes ilustrados nas figuras são apenas para fins ilustrativos e representam percursos ópticos geralmente nos sistemas discutidos. Os traços de raios e formas de lente não devem ser entendidos como limitando o escopo da invenção em qualquer sentido incluindo a magnitude, direção ou foco de raios de luz ou feixes passando através de vários componentes ópticos, sem prejuízo de quaisquer variações em número, direção, forma, posição ou tamanho do mesmo, exceto conforme expressamente indicado na descrição detalhada a seguir das concretizações exemplares ilustradas nos desenhos.
Petição 870170040087, de 12/06/2017, pág. 85/128
60/83
Descrição Detalhada dos Desenhos [0177] Um scanner de superfície 3D portátil funcional deve preferivelmente ter as seguintes propriedades:
1) telecentricidade no espaço do objeto a ser escaneado,
2) possibilidade de mudar o plano focal mantendo a telecentricidade e ampliação,
3) esquema de focagem simples que envolve a sintonia de componentes ópticos apenas no cabo do dispositivo e não na ponta da sonda, e
4) um tamanho total consistente com um dispositivo de escaneamento portátil.
[0178] A concretização do scanner ilustrada na Figura 1 é um scanner portátil com todos os componentes no interior do compartimento (cabeça) 100. A cabeça do scanner compreende uma ponta que pode ser introduzida em uma cavidade, uma fonte de luz 110, óptica 120 para coletar a luz da fonte de luz, meio de geração de padrão 130, um divisor de feixe 140, um sensor de imagem e componentes eletrônicos 180, um sistema de lente que transmite e transforma em imagem a luz entre o padrão, o objeto a ser escaneado e o sensor de imagem (câmera) 180. A luz da fonte de luz 110 desloca-se para frente e para trás através do sistema óptico 150. Durante esta passagem, o sistema óptico transforma em imagem o padrão 130 sobre o objeto a ser escaneado 200 e ainda transforma em imagem o objeto a ser escaneado sobre o sensor de imagem 181. O sistema de lente inclui um elemento de focagem 151 que pode ser ajustado para deslocar o plano focal de formação de imagem do padrão no objeto sondado 200. Uma forma de incorporar o elemento de focagem é mover fisicamente um único elemento de lente para
Petição 870170040087, de 12/06/2017, pág. 86/128
61/83 frente e para trás ao longo do eixo óptico. O dispositivo pode incluir óptica de polarização 160. O dispositivo pode incluir óptica de dobramento 170 que direciona a luz para fora do dispositivo em uma direção diferente do eixo óptico do sistema de lente, por exemplo, em uma direção perpendicular ao eixo óptico do sistema de lente. Como um todo, o sistema óptico provê uma formação de imagem do padrão sobre o objeto a ser sondado e do objeto a ser sondado para a câmera. Uma aplicação do dispositivo poderia ser determinar a estrutura 3D dos dentes na cavidade oral. Outra aplicação poderia ser determinar a forma 3D do canal auditivo e da parte externa do ouvido.
[0179] O eixo óptico na Figura 1 é o eixo definido por uma linha reta através da fonte de luz 110, óptica 120 e as lentes no sistema óptico 150. Isso também corresponde ao eixo longitudinal do scanner ilustrado na Figura 1. O percurso óptico é o percurso da luz da fonte de luz 110 para o objeto 220 e de volta para a câmera 180. O percurso óptico pode mudar de direção, por exemplo, por meio do divisor de feixe 140 e óptica de dobramento 170.
[0180] O elemento de foco é ajustado de tal modo que a imagem do padrão no objeto escaneado é deslocada ao longo do eixo óptico, de preferência, em etapas iguais a partir de uma extremidade da região de escaneamento para a outra. Quando o padrão é variado no tempo de forma periódica para uma posição de focagem fixa, então, as regiões em foco no objeto exibirão um padrão que varia espacialmente. As regiões fora de foco exibirão menor ou nenhum contraste na variação de luz. A estrutura de superfície 3D do objeto sondado é determinada encontrando o plano correspondente a um extremo na medida de correlação para cada sensor na matriz de
Petição 870170040087, de 12/06/2017, pág. 87/128
62/83 sensores da câmera ou cada grupo de sensores na matriz de sensores da câmera ao gravar a medida de correlação para uma gama de diferentes posições de focagem 300. De preferência, seria possível mover a posição de focagem em etapas iguais de uma extremidade da região de escaneamento para a outra.
Geração de Padrões [0181] Uma concretização do meio de geração de padrões é mostrada na Figura 3a: Uma roda transparente com uma máscara opaca 133 na forma de raios apontando radialmente a partir do centro da roda. Nesta concretização, o padrão é variado no tempo por rotação da roda com um motor 131 ligado à roda com, por exemplo, um eixo de acionamento 132. A posição do padrão no tempo pode ser registrada durante a rotação. Isso pode ser conseguido, por exemplo, utilizando um codificador de posição no rebordo do padrão 134 ou obtendo a posição do eixo diretamente do motor 131.
[0182] A Figura 3b ilustra outra concretização do meio de geração de padrão: uma fonte de luz segmentada 135, de preferência, um LED segmentado. Nesta concretização, a superfície de LED é transformada em imagem sobre o objeto em investigação. Os segmentos de LED individuais 136 são ligados e desligados de forma a proporcionar um padrão de tempo variável conhecido no objeto. Os componentes eletrônicos de controle 137 do padrão variável no tempo são conectados à fonte de luz segmentada através de fios elétricos 138. O padrão é assim integrado na fonte de luz e não é necessária uma fonte de luz separada.
[0183] A Figura 3c ilustra um padrão estático, tal como aplicado em uma concretização de correlação espacial desta invenção. O padrão quadriculado mostrado é preferido porque os cálculos para este padrão regular são mais fáceis.
Petição 870170040087, de 12/06/2017, pág. 88/128
63/83
Correlação Temporal [0184] A Figura 1 é também uma ilustração exemplificativa da correlação temporal, em que uma imagem do padrão em e/ou no objeto é formada na câmera. Cada elemento de detecção de luz individual na câmera vê uma variação no nível de sinal correspondente à variação do padrão de iluminação no objeto. A variação é periódica na ilustração exemplificativa. A variação de luz para cada elemento de detecção de luz individual terá um deslocamento de fase constante em relação à posição do padrão.
[0185] A medida de correlação pode ser obtida registrando n imagens na câmera durante pelo menos um período de oscilação, n é um número inteiro maior do que um. O registro da posição de padrão para cada imagem individual combinada com os valores de deslocamento de fase para cada elemento de detecção e as imagens gravadas permite uma extração eficiente da medida de correlação em cada elemento de detecção individual na câmera utilizando a fórmula a seguir, n
i = 1 [0186] Aqui Aj é a medida de correlação estimada do elemento de detecção j, Iirj,...Inrj são os n sinais gravados do elemento de detecção j, firj,...fn,j são os n valores de sinal de referência obtidos a partir do conhecimento da configuração de padrão para cada gravação de imagem, f tem dois índices i,j. A variação de f com o primeiro índice é derivada do conhecimento da posição de padrão durante cada gravação de imagem. A variação de f com o segundo índice é derivada do conhecimento da geometria do padrão que pode ser determinada antes do escaneamento 3D.
Petição 870170040087, de 12/06/2017, pág. 89/128
64/83 [0187] A posição de focagem correspondente ao padrão em foco no objeto para um único sensor na câmera será dada por um extremo na medida de correlação registrada desse sensor guando a posição de focagem é variada em um intervalo de valores, de preferência, em etapas iguais a partir de uma extremidade da região de escaneamento para a outra.
Correlação Espacial [0188] Em um exemplo do esguema de correlação espacial, uma imagem do objeto com padrão guadriculado projetado é registrada com a alta resolução permitida pelo sensor de imagem. O esguema na correlação espacial deve, então, analisar grupos de pixels na imagem gravada e extrair a medida de correlação no padrão. Um extremo nas medidas de correlação obtidas indica a posição em foco. Para simplificar, pode-se usar um padrão guadriculado com um período correspondente a n = N x N pixels no sensor e depois analisar a medida de correlação dentro de um período do padrão (no caso geral, o padrão não precisa ser N x N guadrático). No melhor dos casos, será possível alinhar o padrão de modo gue as bordas do tabuleiro de xadrez coincidam com as bordas de pixel, mas o princípio de escaneamento não se baseia nisto. A Figura 16 mostra isso para o caso n = 4 x 4 = 16. Para um sensor com W x H = 1024 x 512 pixels, isto correspondería à obtenção de 256 x 128 pontos de medida de correlação de uma imagem. A extração da medida de correlação Aj dentro de um grupo N x N de pixels com rótulo j é dada por n
Figure BR112012000189B1_D0004
i = l em gue fj = . .fn,j) é o vetor de sinal de referência obtido do conhecimento da configuração do padrão, e Ij =
Petição 870170040087, de 12/06/2017, pág. 90/128
65/83 (li, j, . . . In, j) é vetor de sinal de entrada.
[0189] Para suprimir qualquer parte de CC na luz, preferimos para todos os j que:
n °=ςλ i = l [0190] Para a situação representada na Figura 16, por exemplo, fi,j = -1 para os pixels correspondentes às partes escuras do padrão, e fi,j = +1 caso contrário. Se a borda do padrão não estiver alinhada com as bordas dos pixels, ou se o sistema óptico não estiver perfeito (e, portanto, em todas as aplicações práticas), então fi,j assumiría valores entre -1 e +1 para alguns i. Uma descrição detalhada de como determinar a função de referência é fornecida posteriormente.
Correlação Óptica [0191] Um exemplo da correlação óptica mostrada na Figura 2. Nesta concretização, é formada uma imagem na câmera 180 que é uma sobreposição do padrão 130 com o objeto sondado 200. Nesta concretização, o padrão é de natureza transmissiva onde a luz é transmitida através do padrão e a imagem do padrão é projetada sobre o objeto e vice-versa. Em particular, isso envolve a retransmissão da luz através do padrão na direção oposta. Uma imagem do padrão na câmera é então formada com a ajuda de um divisor de feixe 140. O resultado desta disposição é uma imagem que a ser formada na câmera que é uma sobreposição do próprio padrão e do objeto a ser sondado. Uma maneira diferente de expressar isto é que a imagem na câmera é substancialmente uma multiplicação de uma imagem do padrão projetada sobre o objeto com o próprio padrão.
[0192] A variação é periódica na ilustração
Petição 870170040087, de 12/06/2017, pág. 91/128
66/83 exemplificativa. A medida de correlação entre a variação de luz no objeto e o padrão para uma dada distância de focagem pode ser obtida por tempo integrando o sinal de câmera durante um grande número de períodos de oscilação de modo que a sincronização exata do tempo de oscilação de padrão e do tempo de integração da câmera não é importante. A posição de focagem correspondente ao padrão em foco no objeto para um único sensor na câmera será dada pelo valor de sinal máximo registrado desse sensor quando a posição de focagem é variada em um intervalo de valores, de preferência, em etapas iguais a partir de uma extremidade da região de escaneamento para a outra.
Encontrando a Função de Referência Predeterminada [0193] A seguir, o processo para calcular o sinal de referência f é descrito para uma concretização de correlação espacial desta invenção, e ilustrado de forma estilizada na Figura 17 .
[0194] O processo começa gravando uma série de imagens do padrão quadriculado conforme projetado, por exemplo, em uma superfície plana, de preferência orientada ortogonalmente para o eixo óptico do scanner. As imagens são tomadas em diferentes posições do elemento de focagem, abrangendo efetivamente todo o percurso do referido elemento de focagem. Preferencialmente, as imagens são tomadas em localizações equidistantes.
[0195] Como o plano de foco geralmente não é um plano geométrico, diferentes regiões da superfície plana serão focalizadas em imagens diferentes. Exemplos de três dessas imagens são mostrados nas Figuras 17a-17c, onde 1700 é uma região em foco. Observe que nesta figura estilizada, as transições entre regiões dentro e fora de foco,
Petição 870170040087, de 12/06/2017, pág. 92/128
67/83 respectivamente, são exageradas, a fim de demonstrar o princípio mais claramente. Além disso, em geral, haverá muito mais imagens do que apenas as três utilizadas neste exemplo simples.
[0196] As regiões em foco dentro de uma imagem são encontradas como aquelas de variância de intensidade máxima (indicando contraste máximo) em toda a referida série de imagens. A região para calcular a variância não precisa ser a mesma que a dimensão do grupo de pixels utilizada na correlação espacial, mas deve ser suficientemente grande para conter as regiões tanto escuras quanto claras do padrão e deve ser a mesma para todas as imagens da série.
[0197] Finalmente, uma “imagem fundida (Figura 17d) é gerada pela combinação de todas as regiões em foco da série (17a-17c) . Observe que, em aplicações reais, a imagem fundida geralmente não será um tabuleiro de xadrez perfeito de preto e branco, mas sim incluirá valores de cinza intermediários causados por um sistema óptico imperfeito e um tabuleiro de xadrez que não está perfeitamente alinhado com os sensores da câmera. Um exemplo de parte de uma imagem fundida real é mostrado na Figura 17e.
[0198] As intensidades de pixel dentro desta imagem podem ser interpretadas como uma “imagem em peso com as mesmas dimensões que a imagem original do padrão. Em outras palavras, os valores de pixel podem ser interpretados como o sinal de referência e o vetor de referência/conjunto de valores de peso fj = (fi,j,...fn,j) para os n pixels no grupo de pixels com índice j pode ser encontrado a partir dos valores de pixel.
[0199] Para conveniência na implementação dos cálculos, especialmente quando efetuados em um FPGA, a imagem
Petição 870170040087, de 12/06/2017, pág. 93/128
68/83 fundida pode ser subdividida em grupos de pixel. A parte de CC do sinal pode, então, ser removida subtraindo a média de intensidade dentro do grupo de cada valor de intensidade de pixel. Além disso, pode-se então normalizar dividindo pelo desvio padrão dentro do grupo. Os valores de peso assim processados são uma descrição alternativa do sinal de referência.
[0200] Devido à natureza periódica da “imagem fundida e, portanto, a “imagem em peso, esta última pode ser comprimida eficientemente, minimizando assim os requisitos de memória nos componentes eletrônicos que podem implementar o algoritmo aqui descrito. Por exemplo, o algoritmo PNG pode ser usado para compressão.
A Imagem de Correlação [0201] Uma imagem de “correlação é gerada com base na “imagem fundida e no conjunto de imagens gravadas com a câmera durante um escaneamento. Para a correlação espacial com base em um padrão quadriculado N x N, lembre-se que a medida de correlação dentro do grupo é λ . _ yNxNf . j .
~ 2-n = l Jí.j 1i,j>
em que fj = . .fn,j) são valores da imagem fundida e Ij = (li, j, . . . In, j) são valores de uma imagem gravada na câmera. Os agrupamentos de pixel usados em qualquer remoção de CC e, possivelmente, a normalização que produziu a imagem fundida são os mesmos que no cálculo acima. Para cada imagem gravada pelo scanner durante um escaneamento do elemento de focagem, haverá assim uma matriz de valores (H/N) x (W/N) de A. Esta matriz pode ser visualizada como uma imagem.
[0202] A Figura 18 (seção superior) mostra um exemplo de imagem de medida de correlação, aqui de parte de um dente humano e sua borda. Um grupo de pixel de 6x6 pixels é marcado
Petição 870170040087, de 12/06/2017, pág. 94/128
69/83 por um quadrado 1801. Para este exemplo de grupo de pixels, a série de medidas de correlação A sobre todas as imagens dentro de um escaneamento do elemento de focagem é mostrada no gráfico na seção inferior da Figura 18 (pelos transversais). O eixo x no gráfico é a posição do elemento de focagem, enquanto o eixo y mostra a magnitude de A. A execução de um filtro Gaussiano simples sobre a série bruta resulta em uma série suavizada (linha sólida). Na figura, o elemento de foco está na posição que fornece o foco ideal para o grupo de pixels exemplificativo. Este fato é subjetivamente visível na imagem, mas também determinado quantitativamente como o máximo da série de A. A linha vertical 1802 na seção inferior da Figura 18 indica a localização do extremo global e, portanto, a posição em foco. Observe que, neste exemplo, a localização dos máximos na série suavizada e bruta, respectivamente, são visualmente indistinguíveis. Em princípio, contudo, é possível e também vantajoso encontrar a localização máxima a partir da série suavizada, uma vez que pode estar entre duas posições de lente e assim proporcionar uma maior precisão.
[0203] A matriz de valores de A pode ser calculada para cada imagem gravada em um escaneamento do elemento de foco. Combinando os extremos globais (em todas as imagens) de A em todos os grupos de pixels da mesma maneira que a imagem fundida foi combinada, pode-se obter uma pseudoimagem de dimensão (H/N) x (W/N). Isso é chamado de “imagem de correlação fundida. Um exemplo de uma imagem de correlação fundida de alguns dentes e gengiva é mostrado na Figura 19. Como pode ser visto, é útil para fins de visualização.
Aumento do Campo de Visão
Petição 870170040087, de 12/06/2017, pág. 95/128
70/83 [0204] Para que a cabeça de escaneamento seja introduzida em um espaço pequeno, tal como a cavidade oral de um paciente, é necessário que a ponta da cabeça de escaneamento seja suficientemente pequena. Ao mesmo tempo, a luz que sai da cabeça de escaneamento tem de deixar a cabeça de escaneamento em uma direção diferente do eixo óptico, por exemplo, em uma direção perpendicular ao eixo óptico. Em uma concretização da invenção, um espelho de 45 graus é usado como uma óptica de dobragem 170 direcionando o percurso de luz para o objeto. Nesta concretização, a altura da ponta de escaneamento tem de ser pelo menos tão grande quanto o comprimento de escaneamento.
[0205] Outra concretização da invenção é mostrada na Figura 4. Esta concretização da invenção permite uma ponta de escaneamento com uma altura menor (indicada por b na figura) do que o comprimento de escaneamento (designado por a na figura). A luz proveniente de duas fontes 110 e 111 que emite luz de diferentes cores/comprimentos de onda é fundida em conjunto utilizando uma placa adequadamente revestida (por exemplo, um filtro dicroico) 112 que transmite a luz de 110 e reflete a luz de 111. Na ponta de escaneamento, uma placa adequadamente revestida (por exemplo, um filtro dicroico) 171 reflete a luz de uma fonte para o objeto e transmite a luz da outra fonte para um espelho na extremidade da ponta de escaneamento 172. Durante o escaneamento, a posição de focagem é movida de tal modo que a luz de 110 é usada para projetar uma imagem do padrão para uma posição inferior 171 enquanto 111 é desligado. A superfície 3D do objeto na região inferior 171 é registrada. Então, 110 é desligado e 111 é ligado e a posição de focagem é movida de tal modo que a luz de 111 é utilizada para projetar uma
Petição 870170040087, de 12/06/2017, pág. 96/128
71/83 imagem do padrão para uma posição inferior 172. A superfície 3D do objeto na região inferior 172 é registrada. A região coberta com a luz de 110 e 111, respectivamente, pode sobrepor parcialmente.
[0206] Outra concretização da invenção que permite uma ponta de escaneamento com uma altura menor (designada por b na figura) do que o comprimento de escaneamento (designado por a na figura) é mostrada na Figura 6. Nesta concretização, a óptica de dobragem 170 compreende um espelho de dobra curvo 173 que pode ser suplementado com um ou dois elementos de lente 175 e 176 com superfícies que podem ser asféricas para proporcionar formação de imagens ópticas corrigidas.
[0207] Outra concretização da invenção que permite uma ponta de escaneamento com uma altura menor (designada por b na figura) do que o comprimento de escaneamento (designado por a na figura) é mostrada na Figura 7. Nesta concretização, a óptica de dobragem 170 compreende uma grade 177 que proporciona uma ampliação anamórfica, de modo que a imagem do padrão no objeto que deve ser escaneado é esticada. A grade pode ser aberta. A fonte de luz 110 precisa ser monocromática ou semimonocromática nesta concretização.
Alcance de Elevado Contraste Espacial de Padrão Projetado sobre Objetos Difíceis [0208] É necessário um elevado contraste espacial da imagem de padrão em foco no objeto para obter um elevado sinal de medida de correlação com base nas imagens da câmera. Isto, por sua vez, é necessário para obter uma boa estimativa da posição de focagem correspondente à posição de um extremo da medida de correlação. Esta condição necessária para uma escaneamento bem-sucedido é facilmente conseguida em objetos
Petição 870170040087, de 12/06/2017, pág. 97/128
72/83 com uma superfície difusa e uma penetração de luz insignificante. Contudo, para alguns objetos, é difícil conseguir uma elevada variação espacial ou, mais geralmente, uma variação.
[0209] Um tipo difícil de objeto, por exemplo, é um objeto que apresenta dispersão múltipla com um comprimento de difusão de luz grande em comparação com a menor dimensão de característica do padrão espacial transformado em imagem no objeto. Um dente humano é um exemplo de tal objeto. O ouvido humano e o canal auditivo são outros exemplos. A variação espacial melhorada nesses objetos pode ser conseguida por formação de imagem preferencial da reflexão de superfície especular do objeto na câmera. Uma concretização da invenção aplica a engenharia de polarização mostrada na Figura 1. Nesta concretização, o divisor de feixe 140 é um divisor de feixe de polarização que transmite, respectivamente, reflete dois estados de polarização ortogonais, por exemplo, estados de polarização S e P. A luz transmitida através do sistema de lente 150 é, assim, de um estado de polarização específico. Antes de sair do dispositivo, o estado de polarização é alterado com uma placa de retardo 160. Um tipo preferido de placa de retardo é uma placa de retardo de quarto de onda. Uma onda de luz linearmente polarizada é transformada em uma onda de luz circularmente polarizada quando da passagem de uma placa de quarto de onda com uma orientação de 45 graus do seu eixo rápido para a direção de polarização linear. Uma reflexão especular do objeto tem a propriedade de inverter a helicidade de uma onda de luz circularmente polarizada. Após a passagem da placa de retardo de quarto de onda pela luz refletida especularmente, o estado de polarização torna-se
Petição 870170040087, de 12/06/2017, pág. 98/128
73/83 ortogonal ao estado incidente no objeto. Por exemplo, um estado de polarização S que se propaga na direção a jusante em direção ao objeto será retornado como um estado de polarização P. Isto implica que a onda de luz refletida especularmente será direcionada para o sensor de imagem 181 no divisor de feixe 140. A luz que entra no objeto e é refletida por um ou mais eventos de dispersão torna-se despolarizada e metade desta luz será direcionada para o sensor de imagem 181 pelo divisor de feixe 140.
[0210] Outro tipo de objeto difícil é um objeto com uma superfície brilhante ou de aspecto metálico. Isto é particularmente verdadeiro para um objeto polido ou um objeto com uma superfície muito lisa. Uma peça de joia é um exemplo de tal objeto. Mesmo objetos muito lisos e brilhantes, no entanto, exibem uma quantidade de reflexão difusa. O contraste espacial melhorado nesses objetos pode ser conseguido pela imagem preferencial da reflexão da superfície difusa a partir do objeto na câmera. Nesta concretização, o divisor de feixe 140 é um divisor de feixe de polarização que transmite, respectivamente, reflete dois estados de polarização ortogonais, por exemplo, estados de polarização S e P. A luz transmitida através do sistema de lente 150 é, assim, de um estado de polarização específico. Uma reflexão difusa do objeto tem a propriedade de perder sua polarização. Isto implica que metade da onda de luz refletida de modo difuso será direcionada para o sensor de imagem 181 no divisor de feixe 140. A luz que entra no objeto e é refletida por polarização especular preserva seu estado de polarização e, assim, nenhuma delas será direcionada para o sensor de imagem 181 pelo divisor de feixe 140.
Redução da Agitação Causada pelo Elemento de Focagem
Petição 870170040087, de 12/06/2017, pág. 99/128
74/83 [0211] Durante o escaneamento, a posição de focagem é alterada em uma gama de valores, preferencialmente, proporcionada por um elemento de focagem 151 no sistema óptico 150. A Figura 8 ilustra um exemplo de como reduzir a agitação causada pelo elemento de focagem oscilante. O elemento de focagem é um elemento de lente 152 que é montado em um estágio de translação 153 e é transladado para frente e para trás ao longo do eixo óptico do referido sistema óptico com um mecanismo mecânico 154 que inclui um motor 155. Durante o escaneamento, o centro de massa do dispositivo portátil é deslocado devido ao movimento físico do elemento de lente e suporte. Isso resulta em uma agitação indesejável do dispositivo portátil durante o escaneamento. A situação é agravada se o escaneamento for rápido, por exemplo, um tempo de escaneamento inferior a um segundo. Em uma implementação da invenção, o deslocamento do centro de massa é eliminado movendo um contrapeso 156 em uma direção oposta ao elemento de lente, de tal modo que o centro de massa do dispositivo portátil permaneça fixo. Na implementação preferida, a lente de focagem e o contrapeso são ligados mecanicamente e seu movimento oposto é acionado pelo mesmo motor.
Medição de Cor [0212] Uma concretização de um scanner a cores 3D é mostrada na Figura 9. Três fontes de luz 110, 111 e 113 emitem luz vermelha, verde e azul. As fontes de luz podem ser LEDs ou lasers. A luz é fundida em conjunto para se sobrepor ou essencialmente se sobrepor. Isto pode ser conseguido por meio de duas placas revestidas adequadamente 112 e 114. A placa 112 transmite a luz de 110 e reflete a luz de 111. A placa 114 transmite a luz de 110 e 111 e
Petição 870170040087, de 12/06/2017, pág. 100/128
75/83 reflete a luz de 113. A medição de cor é realizada como segue: para uma dada posição de focagem, a amplitude do padrão variável no tempo projetado sobre o objeto sondado é determinada para cada elemento sensor no sensor 181 por um dos métodos acima mencionados para cada uma das fontes de luz individualmente. Na concretização preferida, apenas uma fonte de luz é ligada por vez, e as fontes de luz são ligadas após rotação. Nesta concretização, o sistema óptico 150 pode ser acromático. Depois de determinar a amplitude para cada fonte de luz, a posição de focagem é deslocada para a posição seguinte e o processo é repetido. A cor expressa, por exemplo, como uma coordenada de cor RGB de cada elemento de superfície pode ser reconstruída por ponderação apropriada do sinal de amplitude para cada cor correspondente à amplitude máxima.
[0213] Uma concretização específica da invenção registra apenas a amplitude para todas as cores em um intervalo de P posições de focagem; enquanto uma cor é selecionada para a determinação da amplitude em todas as posições de focagem. P é um número que pode ser, por exemplo, 3, 5 ou 10. Isto resulta em uma resolução de cor que é inferior à resolução da topologia de superfície. A cor de cada elemento de superfície do objeto sondado é determinada por interpolação entre as posições de focagem onde são obtidas informações de cores completas. Isto é em analogia ao esquema de cores Bayer usado em muitas câmeras digitais a cores. Neste esquema, a resolução de cor é também menor que a resolução espacial e as informações de cores precisam ser interpoladas.
[0214] Uma concretização mais simples do scanner a cores 3D não registra informação de cor completa e emprega
Petição 870170040087, de 12/06/2017, pág. 101/128
76/83 apenas duas fontes de luz com cores diferentes. Um exemplo disto é um scanner dental que utiliza luz vermelha e azul para distinguir o tecido duro (dente) do tecido macio (gengiva).
Concretização de Scanner de Ouvido [0215] As Figuras 12 a 15 ilustram esquematicamente uma concretização de um scanner baseado em iluminação de luz estruturada variável no tempo para escaneamento direto de ouvidos humanos escaneando tanto a parte externa (exterior) como a interna (interior) de um ouvido humano pela utilização de um cabo externo de scanner comum e uma sonda destacável. Esta concretização é vantajosa por permitir um escaneamento não invasivo utilizando uma sonda concebida para ser inserida em pequenas cavidades, tais como um ouvido humano. Isso é feito, em parte, posicionando as partes volumosas e essenciais do scanner, como a câmera do scanner, a fonte de luz, os componentes eletrônicos e a óptica de foco fora da parte estreitamente confinada do canal auditivo.
[0216] A capacidade de escanear a parte externa e interna de ouvidos humanos e fazer um modelo virtual ou real do ouvido é essencial na concepção de um aparelho auditivo adaptado personalizado (por exemplo, uma concha ou molde auricular). Atualmente, o escaneamento de ouvidos é realizado em um processo de duas etapas onde uma impressão de silicone do ouvido é tomada primeiramente e a impressão é posteriormente escaneada utilizando um scanner externo em uma segunda etapa. O processo de fazer a impressão apresenta várias desvantagens que serão brevemente descritas a seguir. Um grande inconveniente são as frequentes impressões de má qualidade tomadas por profissionais clínicos qualificados devido a preparação e técnicas necessárias. Podem surgir
Petição 870170040087, de 12/06/2017, pág. 102/128
77/83 imprecisões porque se sabe que o material de impressão se expande durante o endurecimento e que a deformação e criação de fraturas na impressão são frequentemente criadas quando a impressão é removida do ouvido. Outra desvantagem está relacionada com os riscos para a saúde envolvidos com a tomada de impressão devido a irritação e respostas alérgicas, danos à membrana timpânica e infecções. Finalmente, o processo de impressão é uma experiência desconfortável para muitos pacientes, especialmente para crianças pequenas, que frequentemente requerem impressões feitas em intervalos regulares (por exemplo, a cada quatro meses) para acomodar as dimensões variáveis do canal auditivo. Em resumo, estas desvantagens podem ser superadas se for possível fazer o escaneamento do ouvido externo e interno de maneira não invasiva e obter um registro entre as superfícies do ouvido interno e externo.
[0217] O que se segue não é restrito ao escaneamento do ouvido, mas pode ser utilizado para escanear qualquer cavidade corporal pequena. A Figura 12 é um esquema de uma concretização de tal scanner. O scanner consiste em duas partes principais - uma parte externa do scanner 1001 e uma sonda de scanner 1002. A parte externa do scanner pode ser utilizada sem a sonda para obter um campo de visão maior, necessário, por exemplo, para escanear a parte externa do ouvido 1102, ou a primeira parte do canal auditivo até a primeira curvatura. O grande campo de visão da parte externa do scanner é importante para obter um bom registro entre subescaneamentos individuais e alta precisão global. Ao conectar uma sonda de scanner 1202 à parte externa do scanner 1201, o scanner combinado permite o escaneamento de superfícies de cavidade pequenas e curvadas, tal como a parte
Petição 870170040087, de 12/06/2017, pág. 103/128
78/83 interna de um ouvido 1203. Desta forma e utilizando o mesmo sistema, a parte externa do scanner e a sonda combinados são capazes de escanear áreas externas maiores junto com áreas internas menores. Na Figura 12, a parte externa da concretização de scanner 1001 consiste em uma fonte de luz divergente 1003 (laser, LED, tungstênio ou outro tipo) que é colimada utilizando a óptica de colimação 1004. A luz colimada é utilizada para iluminar um objeto transparente 1005 (por exemplo vidro) com um padrão opaco, por exemplo, franjas sobre ele. O padrão é subsequentemente transformado em imagem sobre o objeto a ser escaneado utilizando um sistema óptico adequado. O padrão é observado usando um sistema óptico semelhante e uma câmera 1006, em que a câmera está posicionada fora da cavidade. A informação 3D é obtida a partir das imagens 2D observando a oscilação de luz criada pelo movimento do padrão ao longo do objeto de escaneamento, tal como contido na amplitude de pixel individual.
[0218] Para facilitar o movimento do padrão, o padrão de franja 1005 é rotativo em uma concretização. Em outra concretização, o padrão de franja é posicionado sobre uma placa de translação que se move em um plano perpendicular ao eixo óptico com uma determinada frequência de oscilação. A luz de e para o objeto de escaneamento é projetada através de um arranjo de divisor de feixe 1007, que consiste em um cubo de prisma em uma concretização e, em outra concretização, consiste em uma placa ou membrana em ângulo. O divisor de feixe serve para transmitir a luz de fonte mais para baixo no sistema, enquanto ao mesmo tempo guia a luz refletida do objeto de escaneamento de volta para a câmera, que é posicionada em um eixo perpendicular ao eixo da fonte de luz e divisor de feixe.
Petição 870170040087, de 12/06/2017, pág. 104/128
79/83 [0219] Para mover o plano de foco, a parte externa do scanner inclui uma óptica de focagem, a qual, em uma concretização, consiste em uma única lente móvel 1008. A finalidade da óptica de focagem é facilitar o movimento do plano de foco para todo o sistema de formação de imagem na faixa de escaneamento requerida e ao longo do eixo óptico. Em uma concretização, a óptica de focagem da parte externa do scanner 1101 inclui uma objetiva que pode focar a luz diretamente, sem qualquer utilização de óptica adicional, como mostrado na Figura 13a. Em outra concretização, a parte externa do scanner é fornecido com uma objetiva de grande angular concebida com um campo de visão grande, por exemplo, suficientemente grande para escanear a parte externa de um ouvido humano 1102.
[0220] A parte óptica da sonda de escaneamento consiste em um sistema de relé óptico endoscópico 1009 seguido de uma objetiva de sonda 1010, sendo ambos de diâmetro suficientemente pequeno para caber no canal de um ouvido humana. Estes sistemas ópticos podem consistir em uma pluralidade de fibras ópticas e lentes e servem para transportar e focalizar a luz da parte externa do scanner para o objeto de escaneamento 1014 (por exemplo, a superfície interna de um ouvido), bem como para colimar e transportar a luz refletida do objeto de escaneamento de volta para a parte externa do scanner. Em uma concretização, a objetiva da sonda proporciona uma projeção telecêntrica do padrão de franja sobre o objeto de escaneamento. A projeção telecêntrica pode facilitar significativamente o mapeamento de dados de imagens 2D adquiridas em imagens 3D. Em outra concretização, os raios principais (raio central de cada feixe de raios) da objetiva de sonda são divergentes (não
Petição 870170040087, de 12/06/2017, pág. 105/128
80/83 telecêntricos) para proporcionar à câmera um ângulo de visão maior do que zero, como mostrado na Figura 13a.
[0221] A posição do plano de foco é controlada pela óptica de focagem 1008 e pode ser movida em uma faixa suficientemente grande para pelo menos coincidir com a superfície de escaneamento 1014. Um único subescaneamento é obtido coletando uma variedade de imagens 2D em diferentes posições do plano de foco e em diferentes posições do padrão de franjas, como descrito anteriormente. Como o plano de foco coincide com a superfície de escaneamento em uma única posição de pixel, o padrão de franja será projetado sobre o ponto de superfície em foco e com alto contraste, dando assim origem a uma grande variação, ou amplitude, do valor de pixel ao longo do tempo. Para cada pixel, é assim possível identificar configurações individuais da óptica de focagem para a qual cada pixel estará em foco. Usando o conhecimento do sistema óptico, é possível transformar a informação de contraste versus a posição do plano de foco em informação de superfície 3D, em uma base de pixel individual.
[0222] Em uma concretização, um arranjo de espelho 1011, que consiste em um único espelho refletor, ou prisma, ou um arranjo de espelhos, são localizados após a objetiva de sonda 1010. Esta disposição serve para refletir os raios para uma direção de visualização diferente daquela do eixo da sonda. Diferentes arranjos de espelho exemplares são apresentados nas Figuras 15a-15d. Em uma concretização particular, o ângulo entre o espelho normal e o eixo óptico é de aproximadamente 45 graus, proporcionando assim uma vista de 90 graus em relação ao eixo da sonda - uma disposição ideal para olhar cantos arredondados. Uma janela transparente 1012 é posicionada adjacente ao espelho e como
Petição 870170040087, de 12/06/2017, pág. 106/128
81/83 parte do compartimento/concha da sonda, para permitir que a luz passe entre a sonda e o objeto escaneado, mantendo a óptica limpa de partículas de sujeira externas.
[0223] Para reduzir o movimento de sonda requerido por um operador de scanner, o arranjo de espelho pode ser girado utilizando um motor 1013. Em uma concretização, o arranjo de espelho gira com velocidade constante. Através da rotação completa de um único espelho, é assim possível escanear com uma cobertura de 360 graus em torno do eixo da sonda sem mover fisicamente a sonda. Neste caso, a janela de sonda 1012 é necessária para circundar/envolver a sonda para permitir a visualização em todos os ângulos. Em outra concretização, o espelho gira com determinada frequência de oscilação de rotação. Ainda em outra concretização, a inclinação do arranjo de espelho em relação ao eixo da sonda varia com uma determinada frequência de oscilação.
[0224] Uma concretização particular utiliza um espelho duplo em vez de um único espelho (Figuras 15b e 15d). Em um caso especial, o normal são os dois espelhos angulados aproximadamente 90 graus um em relação ao outro. O uso de um espelho duplo ajuda a registrar os subescaneamentos individuais, uma vez que a informação de duas superfícies opostas desta forma é obtida ao mesmo tempo. Outro benefício de usar um espelho duplo é que apenas 180 graus de rotação do espelho é necessária para escanear um total de 360 graus. Uma solução de scanner que emprega espelhos duplos pode, portanto, proporcionar uma cobertura de 360 graus em menos tempo do que as configurações de um espelho único.
Alça Tipo Pistola [0225] A Figura 20 mostra uma concretização do scanner com uma alça tipo pistola 2001. Esta forma é
Petição 870170040087, de 12/06/2017, pág. 107/128
82/83 particularmente ergonômica. O scanner na Figura 20 é concebido para o escaneamento intraoral de dentes. A ponta 2002 pode ser removida do corpo principal do scanner e pode ser autoclavada. Além disso, a ponta pode ter duas posições em relação ao corpo principal do scanner, nomeadamente olhando para baixo (como na Figura 20) e olhando para cima. Portanto, o escaneamento da boca superior e inferior de um paciente é igualmente confortável para o operador. Observe que o scanner mostrado na Figura 20 é um protótipo inicial com vários cabos unidos apenas para fins de teste.
[0226] Embora algumas concretizações tenham sido descritas e ilustradas em detalhes, a invenção não se restringe a elas, mas também pode ser concretizada de outras formas dentro do escopo do assunto definido nas reivindicações a seguir. Em particular, deve ser entendido que podem ser utilizadas outras concretizações e que modificações estruturais e funcionais podem ser feitas sem se afastar do escopo da presente invenção.
[0227] Em reivindicações de dispositivo que enumeram vários meios, vários desses meios podem ser incorporados por um e o mesmo item de hardware. O simples fato de certas medidas serem descritas em reivindicações dependentes mutuamente diferentes ou descritas em diferentes concretizações não indica que uma combinação dessas medidas não possa ser utilizada com vantagem.
[0228] Deve ser destacado que o termo “compreende/compreendendo, quando usado nesta especificação, deve especificar a presença de características, números inteiros, etapas ou componentes apresentados, mas não impede a presença ou adição de uma ou mais características, números inteiros, etapas, componentes
Petição 870170040087, de 12/06/2017, pág. 108/128
83/83 ou grupos destes.
As características do método descrito acima e a seguir podem ser implementadas em software e executadas em um sistema de processamento de dados ou outro meio de processamento gerado pela execução de instruções executáveis por computador. As instruções podem ser meios de código de programa carregados em uma memória, tal como uma RAM, a partir de um meio de armazenamento ou de outro computador através de uma rede de computadores. Alternativamente, as características descritas podem ser implementadas por circuitos conectados em vez de software ou em combinação com software.

Claims (15)

  1. REIVINDICAÇÕES
    1. Scanner para obter e/ ou medir a geometria tridimensional de pelo menos uma parte da superfície de um objeto, em que o referido scanner compreende:
    - pelo menos uma câmera (180) acomodando uma matriz de elementos sensores,
    - meios para gerar (110, 120, 130) uma luz de sonda incorporando um padrão espacial,
    - meios para transmitir (140, 150, 170) a luz da sonda em direção ao objeto, assim, iluminando pelo menos uma parte do objeto com o referido padrão em uma ou mais configurações,
    - meios para transmitir (140, 150, 170) pelo menos uma parte da luz retornada do objeto para a câmera (180),
    - meios para variar (151) a posição do plano de foco do padrão sobre o objeto, mantendo uma relação fixa espacial do scanner e do objeto,
    - meios para a obtenção de pelo menos uma imagem a partir da referida matriz de elementos sensores, caracterizado pelo fato de que o scanner compreende ainda:
    - meios para avaliar uma medida de correlação em cada posição do plano de foco entre pelo menos um grupo de pixels de imagens e uma função de peso, onde a função de peso é determinada com base em informações da configuração do padrão espacial; e
    - meios para processamento de dados para:
    a) determinar, por análise da medida de correlação, a posição em foco de:
    Petição 870190091060, de 13/09/2019, pág. 29/41
  2. 2/5 cada um de uma pluralidade de grupos de pixels da imagem para uma série de posições de plano de foco, e
    b) transformar dados em foco em coordenadas tridimensionais do mundo real.
    2. Scanner, de acordo com a reivindicação 1, caracterizado pelo fato de que os meios para avaliar uma medida de correlação é um meio de processamento de dados.
  3. 3. Scanner, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que a posição em foco para o referido grupo de pixels é determinada como uma pelo menos posição de extremo local de uma série opcionalmente suavizada de medidas de correlação computadas para uma pluralidade das referidas posições de plano de foco.
  4. 4. Scanner, de acordo com a reivindicação 3, caracterizado pelo fato de que a medida de correlação para uma posição de plano de foco é calculada como um produto escalar e cada produto escalar é calculado a partir de um vetor de sinal com mais de um elemento que representa sinais de sensores e um vetor de peso do mesmo comprimento que o referido vetor de sinal de pesos.
  5. 5. Scanner, de acordo com qualquer uma das reivindicações 1 a 4, caracterizado pelo fato de que o padrão é estático.
    6. Scanner, de acordo com qualquer uma das reivindicações 1 a 5, caracterizado pelo fato de que o
    referido padrão possui periodicidade translacional e/ ou rotacional.
  6. 7. Scanner, de acordo com qualquer uma das reivindicações 1 a 6, caracterizado pelo fato de que o plano
    Petição 870190091060, de 13/09/2019, pág. 30/41
    3/5 de foco da câmera (180) é adaptado para ser movido de forma síncrona com o plano de foco do padrão.
  7. 8. Scanner, de acordo com qualquer uma das reivindicações 1 a 7, caracterizado pelo fato de que o objeto é um objeto anatômico, como um canal do ouvido, ou um objeto dental, tais como dentes.
  8. 9. Scanner, de acordo com qualquer uma das reivindicações 1 a 8, caracterizado pelo fato de que ainda compreende pelo menos um divisor de feixe (140) localizado no percurso óptico, tal como um divisor de feixes de polarização.
  9. 10. Scanner, de acordo com qualquer uma das reivindicações 1 a 9, caracterizado pelo fato de que o sinal do sensor é uma intensidade de luz integrada substancialmente refletida da superfície do objeto.
  10. 11. Scanner, de acordo com qualquer uma das reivindicações 1 a 10, caracterizado pelo fato de que a posição do plano de foco é periodicamente variada com uma frequência predefinida.
  11. 12. Scanner, de acordo com qualquer uma das reivindicações 1 a 11, caracterizado pelo fato de que o padrão é um padrão de linha estático ou um padrão quadriculado estático.
  12. 13. Scanner, de acordo com qualquer uma das reivindicações 1 a 12, caracterizado pelo fato de que a matriz de elemento sensor é dividida em grupos de elementos sensores, os grupos, de preferência, retangulares, tais como grupos de quadrados de elementos sensores, elementos sensores de preferência adjacentes.
    Petição 870190091060, de 13/09/2019, pág. 31/41
    4/5
    14. Scanner, de acordo com qualquer uma das reivindicações 1 a 13, caracterizado pelo fato de que pelo menos um período espacial do padrão corresponde a um grupo de elementos sensores. 15. Scanner, de acordo com qualquer uma das reivindicações 1 a 14, caracterizado pelo fato de que ainda compreende meios para polarizar a luz da sonda, como um elemento polarizador. 16. Scanner, de acordo com qualquer uma das
    reivindicações 1 a 15, caracterizado pelo fato de que ainda compreende uma placa de retardo (160) e um elemento linear de polarização, localizado no percurso óptico, uma placa de retardo, tal como uma placa de retardo de quarto de onda.
  13. 17. Scanner, de acordo com qualquer uma das reivindicações 1 a 16, caracterizado pelo fato de que o scanner é adaptado para ser portátil, e onde o scanner compreende um ou mais sensores de movimento embutidos que produzem dados para a combinação de pelo menos duas varreduras parciais para um modelo tridimensional da superfície de um objeto, onde os dados do sensor de movimento são potencialmente usados como um primeiro palpite para uma melhor combinação encontrada por software.
  14. 18. Scanner, de acordo com qualquer uma das reivindicações 1 a 17, caracterizado pelo fato de que o scanner é adaptado para ser portátil e onde o scanner compreende um ou mais sensores de movimento embutidos que produzem os dados para interagir com a interface do usuário de algum software relacionado com o processo de digitalização.
    Petição 870190091060, de 13/09/2019, pág. 32/41
    5/5
  15. 19. Método para obter e/ ou medir a geometria tridimensional de pelo menos uma parte da superfície de um objeto, em que o referido método compreende as etapas de:
    - gerar uma luz de sonda incorporando um padrão espacial,
    - transmitir a luz da sonda para o objeto ao longo do eixo óptico de um sistema óptico (150), assim iluminando pelo menos uma parte do objeto com o referido padrão,
    - transmitir pelo menos uma parte da luz retornada do objeto para a câmera (180),
    - variar a posição do plano de foco do padrão sobre o objeto, mantendo uma relação fixa espacial do scanner e do objeto,
    - obter pelo menos uma imagem do referido conjunto de elementos sensores, caracterizado pelo fato de que o método compreende ainda:
    - avaliar uma medida de correlação em cada posição do plano de foco entre pelo menos um grupo de pixels de imagem e uma função de peso, onde a função de peso é determinada com base em informações da configuração do padrão espacial;
    - determinar, por análise da medida de correlação, a posição em foco(s) de:
    cada um de uma pluralidade de grupos de pixels da imagem na câmera para a referida série de planos de foco, e
    - transformar dados em foco em coordenadas do mundo real tridimensionais.
BR112012000189A 2009-06-17 2010-06-17 aparelho de varredura com foco. BR112012000189B1 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US18774409P 2009-06-17 2009-06-17
US61/187,744 2009-06-17
US23111809P 2009-08-04 2009-08-04
US61/231,118 2009-08-04
PCT/DK2010/050148 WO2010145669A1 (en) 2009-06-17 2010-06-17 Focus scanning apparatus

Publications (3)

Publication Number Publication Date
BR112012000189A2 BR112012000189A2 (pt) 2018-02-06
BR112012000189A8 BR112012000189A8 (pt) 2018-05-29
BR112012000189B1 true BR112012000189B1 (pt) 2020-01-21

Family

ID=42545445

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112012000189A BR112012000189B1 (pt) 2009-06-17 2010-06-17 aparelho de varredura com foco.

Country Status (10)

Country Link
US (14) US8878905B2 (pt)
EP (1) EP2442720B1 (pt)
JP (2) JP5654583B2 (pt)
CN (2) CN102802520B (pt)
AU (1) AU2010262191B2 (pt)
BR (1) BR112012000189B1 (pt)
CA (1) CA2763826C (pt)
DK (1) DK2442720T3 (pt)
ES (1) ES2607052T3 (pt)
WO (1) WO2010145669A1 (pt)

Families Citing this family (264)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE406850T1 (de) 2004-06-17 2008-09-15 Cadent Ltd Verfahren und gerät zur farbbildformung einer dreidimensionalen struktur
EP2208367B1 (en) 2007-10-12 2017-09-27 Earlens Corporation Multifunction system and method for integrated hearing and communiction with noise cancellation and feedback management
WO2009126961A1 (en) * 2008-04-11 2009-10-15 Mds Analytical Technologies (Us) Inc. Vibration control in scanners
BRPI0915203A2 (pt) 2008-06-17 2016-02-16 Earlens Corp dispostivo, sistema e método para transmitir um sinal de áudio, e, dispostivo e método para estimular um tecido alvo
WO2010033932A1 (en) 2008-09-22 2010-03-25 Earlens Corporation Transducer devices and methods for hearing
CH699575A1 (de) * 2008-10-06 2010-04-15 Nectar Imaging S R L Optisches System für ein Konfokalmikroskop.
CN102802520B (zh) 2009-06-17 2015-04-01 3形状股份有限公司 聚焦扫描设备
CN101996021B (zh) * 2009-08-12 2013-02-13 幻音科技(深圳)有限公司 手持式电子设备及其控制显示内容的方法
US8765031B2 (en) 2009-08-13 2014-07-01 Align Technology, Inc. Method of forming a dental appliance
DE102009038588A1 (de) * 2009-08-26 2011-03-24 Degudent Gmbh Verfahren zur Ermittlung eines Gesamtdatensatzes eines zu messenden Objektes
EP3403568B1 (en) * 2010-03-30 2023-11-01 3Shape A/S Scanning of cavities with restricted accessibility
US9211166B2 (en) 2010-04-30 2015-12-15 Align Technology, Inc. Individualized orthodontic treatment index
US9241774B2 (en) 2010-04-30 2016-01-26 Align Technology, Inc. Patterned dental positioning appliance
WO2011163359A2 (en) * 2010-06-23 2011-12-29 The Trustees Of Dartmouth College 3d scanning laser systems and methods for determining surface geometry of an immersed object in a transparent cylindrical glass tank
US9241657B2 (en) * 2010-06-30 2016-01-26 Brainlab Ag Medical image registration using a rigid inner body surface
ES2788853T3 (es) 2010-12-06 2020-10-23 3Shape As Sistema con integración de interfaz de usuario 3D
DK2649409T3 (en) * 2010-12-06 2019-02-04 3Shape As SYSTEM WITH INTEGRATION OF 3D USER INTERFACE
EP2656639B1 (en) 2010-12-20 2020-05-13 Earlens Corporation Anatomically customized ear canal hearing apparatus
US9769455B2 (en) 2010-12-21 2017-09-19 3Shape A/S 3D focus scanner with two cameras
EP2663254B1 (en) 2011-01-13 2020-07-29 Align Technology, Inc. Methods, systems and accessories useful for procedures relating to dental implants
TWI432009B (zh) * 2011-01-14 2014-03-21 Genesys Logic Inc 手持式掃描系統及其掃描方法
US8900126B2 (en) * 2011-03-23 2014-12-02 United Sciences, Llc Optical scanning device
GB201107225D0 (en) * 2011-04-29 2011-06-15 Peira Bvba Stereo-vision system
EP2527784A1 (de) * 2011-05-19 2012-11-28 Hexagon Technology Center GmbH Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
DE102011102095A1 (de) 2011-05-19 2012-11-22 Deltamed Gmbh Mehrteiliges Formteil, insbesondere für Prothesen
EP2719160A2 (en) 2011-06-06 2014-04-16 3Shape A/S Dual-resolution 3d scanner
US9444981B2 (en) 2011-07-26 2016-09-13 Seikowave, Inc. Portable structured light measurement module/apparatus with pattern shifting device incorporating a fixed-pattern optic for illuminating a subject-under-test
GB201113071D0 (en) * 2011-07-29 2011-09-14 Ffei Ltd Method and apparatus for image scanning
US9147014B2 (en) 2011-08-31 2015-09-29 Woodtech Measurement Solutions System and method for image selection of bundled objects
US9107613B2 (en) * 2011-09-06 2015-08-18 Provel, Inc. Handheld scanning device
US9403238B2 (en) 2011-09-21 2016-08-02 Align Technology, Inc. Laser cutting
US9360662B2 (en) * 2011-10-20 2016-06-07 Samsung Electronics Co., Ltd. Optical measurement system and method for measuring critical dimension of nanostructure
EP2750603A1 (en) 2011-10-21 2014-07-09 Koninklijke Philips N.V. Method and apparatus for determining anatomic properties of a patient
JP2015505039A (ja) * 2011-12-12 2015-02-16 ザイゴ コーポレーションZygo Corporation 変調光を使用した非接触表面形状評価
US9375300B2 (en) 2012-02-02 2016-06-28 Align Technology, Inc. Identifying forces on a tooth
EP3798717B1 (en) 2012-02-16 2023-07-05 University Of Washington Through Its Center For Commercialization Extended depth of focus for high-resolution image scanning
US9220580B2 (en) 2012-03-01 2015-12-29 Align Technology, Inc. Determining a dental treatment difficulty
WO2013132091A1 (en) * 2012-03-09 2013-09-12 3Shape A/S 3d scanner with steam autoclavable tip containing a heated optical element
US9414897B2 (en) 2012-05-22 2016-08-16 Align Technology, Inc. Adjustment of tooth position in a virtual dental model
ES2967677T3 (es) 2012-06-27 2024-05-03 3Shape As Escáner intraoral 3D que mide fluorescencia
DE102013108457A1 (de) * 2012-10-05 2014-04-10 Werth Messtechnik Gmbh Verfahren und Vorrichtung zur Beleuchtung und Messung eines Objektes
DE102012220048B4 (de) * 2012-11-02 2018-09-20 Sirona Dental Systems Gmbh Kalibrierungsvorrichtung und Verfahren zur Kalibrierung einer dentalen Kamera
US8905757B2 (en) 2012-12-03 2014-12-09 E. Kats Enterprises Ltd. Method and apparatus for measuring a location and orientation of a plurality of implants
JP6038644B2 (ja) * 2012-12-27 2016-12-07 株式会社モリタ製作所 生体撮像装置
US9652797B2 (en) 2013-01-18 2017-05-16 24/7 Customer, Inc. Intent prediction based recommendation system using data combined from multiple channels
FR3001564B1 (fr) * 2013-01-31 2016-05-27 Vit Systeme de determination d'une image tridimensionnelle d'un circuit electronique
US9962244B2 (en) * 2013-02-13 2018-05-08 3Shape A/S Focus scanning apparatus recording color
JP6849708B2 (ja) * 2013-02-13 2021-03-24 3シェイプ アー/エス 色を記録する焦点走査装置
US11363938B2 (en) * 2013-03-14 2022-06-21 Ormco Corporation Feedback control mechanism for adjustment of imaging parameters in a dental imaging system
WO2014158150A1 (en) * 2013-03-27 2014-10-02 Seikowave, Inc. Portable structured light measurement module/apparatus with pattern shifting device incorporating a fixed-pattern optic for illuminating a subject-under-test
US10219724B2 (en) * 2013-05-02 2019-03-05 VS Medtech, Inc. Systems and methods for measuring and characterizing interior surfaces of luminal structures
DE102013212111A1 (de) * 2013-06-25 2015-01-22 Henke-Sass, Wolf Gmbh Endoskop und Endoskopierverfahren
US9393087B2 (en) 2013-08-01 2016-07-19 Align Technology, Inc. Methods and systems for generating color images
US9811641B2 (en) 2013-08-23 2017-11-07 Elwha Llc Modifying a cosmetic product based on a microbe profile
EP3036338B1 (en) * 2013-08-23 2019-03-20 Elwha, Llc Systems, methods, and devices for assessing microbiota of skin
US9805171B2 (en) 2013-08-23 2017-10-31 Elwha Llc Modifying a cosmetic product based on a microbe profile
US9557331B2 (en) 2013-08-23 2017-01-31 Elwha Llc Systems, methods, and devices for assessing microbiota of skin
US10010704B2 (en) 2013-08-23 2018-07-03 Elwha Llc Systems, methods, and devices for delivering treatment to a skin surface
US9456777B2 (en) 2013-08-23 2016-10-04 Elwha Llc Systems, methods, and devices for assessing microbiota of skin
US10152529B2 (en) 2013-08-23 2018-12-11 Elwha Llc Systems and methods for generating a treatment map
US9390312B2 (en) 2013-08-23 2016-07-12 Elwha Llc Systems, methods, and devices for assessing microbiota of skin
WO2015027055A1 (en) * 2013-08-23 2015-02-26 Elwha Llc Systems, methods, and devices for delivering treatment to a skin surface
DE102013218231A1 (de) * 2013-09-11 2015-03-12 Sirona Dental Systems Gmbh Optisches System zur Erzeugung eines sich zeitlich ändernden Musters für ein Konfokalmikroskop
WO2015039210A1 (en) * 2013-09-18 2015-03-26 Matter and Form Inc. Device, system and method for three-dimensional modeling
KR101538760B1 (ko) * 2013-11-20 2015-07-24 이태경 구강용 스캐너
US8805088B1 (en) * 2013-12-16 2014-08-12 Google Inc. Specularity determination from images
JP2015128242A (ja) * 2013-12-27 2015-07-09 ソニー株式会社 画像投影装置及びそのキャリブレーション方法
WO2015118120A1 (en) 2014-02-07 2015-08-13 3Shape A/S Detecting tooth shade
BE1022554B1 (fr) * 2014-02-26 2016-06-01 Centre De Recherches Metallurgiques Asbl-Centrum Voor Research In Metallurgie Vzw Dispositif de mesure 3d de la topographe de produits en defilement
US10111581B2 (en) * 2014-02-27 2018-10-30 Align Technology, Inc. Thermal defogging system and method
US20150260509A1 (en) * 2014-03-11 2015-09-17 Jonathan Kofman Three dimensional (3d) imaging by a mobile communication device
US10034103B2 (en) 2014-03-18 2018-07-24 Earlens Corporation High fidelity and reduced feedback contact hearing apparatus and methods
CN103913118A (zh) * 2014-04-10 2014-07-09 深圳先进技术研究院 三维扫描装置
US9510757B2 (en) * 2014-05-07 2016-12-06 Align Technology, Inc. Identification of areas of interest during intraoral scans
DE102014210389A1 (de) * 2014-06-03 2015-12-03 Robert Bosch Gmbh Laser Scanner Projektor mit Farbmessung
US9261356B2 (en) 2014-07-03 2016-02-16 Align Technology, Inc. Confocal surface topography measurement with fixed focal positions
US9261358B2 (en) * 2014-07-03 2016-02-16 Align Technology, Inc. Chromatic confocal system
US10772506B2 (en) * 2014-07-07 2020-09-15 Align Technology, Inc. Apparatus for dental confocal imaging
WO2016011044A1 (en) 2014-07-14 2016-01-21 Earlens Corporation Sliding bias and peak limiting for optical hearing devices
US9693839B2 (en) 2014-07-17 2017-07-04 Align Technology, Inc. Probe head and apparatus for intraoral confocal imaging using polarization-retarding coatings
DE102014216227B4 (de) * 2014-08-14 2020-06-18 Carl Zeiss Microscopy Gmbh Verfahren und Vorrichtung zum Bestimmen eines Abstandes zweier voneinander entlang einer ersten Richtung beabstandeter optischer Grenzflächen
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
DE102014013677B4 (de) 2014-09-10 2017-06-22 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
DE202014010357U1 (de) 2014-09-10 2015-12-11 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US9693040B2 (en) 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
JP2017533000A (ja) 2014-09-16 2017-11-09 ケアストリーム ヘルス インク レーザ投影を用いる歯科用表面撮像装置
US10449016B2 (en) 2014-09-19 2019-10-22 Align Technology, Inc. Arch adjustment appliance
US9610141B2 (en) 2014-09-19 2017-04-04 Align Technology, Inc. Arch expanding appliance
US9744001B2 (en) 2014-11-13 2017-08-29 Align Technology, Inc. Dental appliance with cavity for an unerupted or erupting tooth
US9924276B2 (en) 2014-11-26 2018-03-20 Earlens Corporation Adjustable venting for hearing instruments
IL235950A0 (en) * 2014-11-27 2015-02-26 Imaging Solutions Ltd Ab 3D scanners for simultaneous acquisition of 3D datasets of 3D objects
US10504386B2 (en) 2015-01-27 2019-12-10 Align Technology, Inc. Training method and system for oral-cavity-imaging-and-modeling equipment
DE102015208285A1 (de) * 2015-05-05 2016-11-10 Friedrich-Schiller-Universität Jena Vorrichtung und verfahren zum räumlichen vermessen von oberflächen
DE102015209410B4 (de) * 2015-05-22 2018-05-09 Sirona Dental Systems Gmbh Kamera und Verfahren zur dreidimensionalen Vermessung eines dentalen Objekts
DE102015209402A1 (de) * 2015-05-22 2016-11-24 Sirona Dental Systems Gmbh Vorrichtung zur optischen 3D-Vermessung eines Objekts
DE102015209404B4 (de) * 2015-05-22 2018-05-03 Sirona Dental Systems Gmbh Verfahren und Kamera zur dreidimensionalen Vermessung eines dentalen Objekts
EP3620839A1 (en) * 2015-06-02 2020-03-11 Life Technologies Corporation Systems and methods for an interchangeable illumination filter set for use in a structured illumination imaging system
US20160366395A1 (en) * 2015-06-12 2016-12-15 Microsoft Technology Licensing, Llc Led surface emitting structured light
WO2017023586A1 (en) * 2015-07-31 2017-02-09 Portland State University Embedding data on objects using surface modulation
US10248883B2 (en) 2015-08-20 2019-04-02 Align Technology, Inc. Photograph-based assessment of dental treatments and procedures
WO2017059240A1 (en) 2015-10-02 2017-04-06 Earlens Corporation Drug delivery customized ear canal apparatus
US9762712B2 (en) 2015-10-30 2017-09-12 Essential Products, Inc. System and method for reducing the number of ports associated with a mobile device
US9591212B1 (en) * 2015-10-30 2017-03-07 Essential Products, Inc. System and method for reducing the number of ports associated with a mobile device
US10426351B2 (en) 2015-11-10 2019-10-01 Quantum Dental Technologies Inc. Systems and methods for spatial positioning of diagnostic and or treatment probe based on surface profile detection
US11554000B2 (en) 2015-11-12 2023-01-17 Align Technology, Inc. Dental attachment formation structure
US11931222B2 (en) 2015-11-12 2024-03-19 Align Technology, Inc. Dental attachment formation structures
US10220172B2 (en) 2015-11-25 2019-03-05 Resmed Limited Methods and systems for providing interface components for respiratory therapy
US11103330B2 (en) 2015-12-09 2021-08-31 Align Technology, Inc. Dental attachment placement structure
US11596502B2 (en) 2015-12-09 2023-03-07 Align Technology, Inc. Dental attachment placement structure
CN105547191B (zh) * 2015-12-15 2018-03-27 宁波频泰光电科技有限公司 一种彩色3d测量系统
CN105571522A (zh) * 2015-12-15 2016-05-11 宁波频泰光电科技有限公司 一种彩色3d测量系统
CN105547194B (zh) * 2015-12-15 2018-03-27 宁波频泰光电科技有限公司 一种彩色3d测量系统
CN105547193A (zh) * 2015-12-15 2016-05-04 宁波频泰光电科技有限公司 一种彩色3d测量系统
CN105547195B (zh) * 2015-12-15 2018-04-17 宁波频泰光电科技有限公司 一种彩色3d测量系统
CN105547192B (zh) * 2015-12-15 2018-04-17 宁波频泰光电科技有限公司 一种彩色3d测量系统
US10306381B2 (en) 2015-12-30 2019-05-28 Earlens Corporation Charging protocol for rechargable hearing systems
US11350226B2 (en) 2015-12-30 2022-05-31 Earlens Corporation Charging protocol for rechargeable hearing systems
CN106950687B (zh) * 2016-01-06 2021-01-01 松下知识产权经营株式会社 图像生成系统以及图像生成方法
US9858672B2 (en) * 2016-01-15 2018-01-02 Oculus Vr, Llc Depth mapping using structured light and time of flight
EP3411695B1 (en) * 2016-02-01 2022-01-26 KLA-Tencor Corporation Method and system for optical three-dimensional topography measurement
KR102482062B1 (ko) * 2016-02-05 2022-12-28 주식회사바텍 컬러 패턴을 이용한 치과용 3차원 스캐너
US11806112B2 (en) * 2016-05-25 2023-11-07 Pensievision, Inc. Method, system, software, and device for remote, miniaturized, and three-dimensional imaging and analysis of human lesions research and clinical applications thereof
DK3465082T3 (da) * 2016-05-31 2020-11-30 Carestream Dental Tech Topco Ltd Intra-oral 3d-scanner med fluid-segmentering
WO2017218951A1 (en) 2016-06-17 2017-12-21 Align Technology, Inc. Orthodontic appliance performance monitor
WO2017218947A1 (en) 2016-06-17 2017-12-21 Align Technology, Inc. Intraoral appliances with sensing
CN109642789A (zh) * 2016-06-24 2019-04-16 3 形状股份有限公司 使用结构化探测光束的3d扫描仪
CN106019550B (zh) * 2016-07-12 2019-05-24 上海交通大学 用于高速显微扫描的动态对焦装置及对焦跟踪方法
JP6735899B2 (ja) * 2016-07-13 2020-08-05 株式会社ディーディーエスDds Company 3次元スキャナとこれを利用した人工物加工装置
WO2018011331A1 (en) * 2016-07-13 2018-01-18 Naked Labs Austria Gmbh Motor driven turntable with foldable sensor mast
US10507087B2 (en) 2016-07-27 2019-12-17 Align Technology, Inc. Methods and apparatuses for forming a three-dimensional volumetric model of a subject's teeth
JP2019523064A (ja) 2016-07-27 2019-08-22 アライン テクノロジー, インコーポレイテッド 歯科診断機能を有する口腔内スキャナ
US10084979B2 (en) * 2016-07-29 2018-09-25 International Business Machines Corporation Camera apparatus and system, method and recording medium for indicating camera field of view
CN112738700A (zh) 2016-09-09 2021-04-30 伊尔兰斯公司 智能镜系统和方法
EP3516328B1 (en) * 2016-09-21 2023-05-03 Philip M. Johnson Non-contact coordinate measuring machine using hybrid cyclic binary code structured light
NL2017513B1 (en) * 2016-09-22 2018-03-29 Ccm Beheer Bv Scanning system for creating 3D model
JP6768442B2 (ja) * 2016-10-12 2020-10-14 株式会社キーエンス 形状測定装置
CN117257492A (zh) 2016-11-04 2023-12-22 阿莱恩技术有限公司 用于牙齿图像的方法和装置
WO2018093733A1 (en) * 2016-11-15 2018-05-24 Earlens Corporation Improved impression procedure
WO2018102770A1 (en) 2016-12-02 2018-06-07 Align Technology, Inc. Force control, stop mechanism, regulating structure of removable arch adjustment appliance
EP3547950A1 (en) 2016-12-02 2019-10-09 Align Technology, Inc. Methods and apparatuses for customizing rapid palatal expanders using digital models
WO2018102702A1 (en) 2016-12-02 2018-06-07 Align Technology, Inc. Dental appliance features for speech enhancement
US11273011B2 (en) 2016-12-02 2022-03-15 Align Technology, Inc. Palatal expanders and methods of expanding a palate
US10548700B2 (en) 2016-12-16 2020-02-04 Align Technology, Inc. Dental appliance etch template
CN106769881A (zh) * 2016-12-16 2017-05-31 中国科学院工程热物理研究所 一种基于抽运探测热反射技术的热导率扫描系统
CN110381812B (zh) * 2016-12-30 2022-08-30 巴科股份有限公司 用于相机校准的系统和方法
CN110383136B (zh) * 2016-12-30 2021-08-10 巴科股份有限公司 用于3d重构的系统和方法
US10456043B2 (en) * 2017-01-12 2019-10-29 Align Technology, Inc. Compact confocal dental scanning apparatus
US10779718B2 (en) 2017-02-13 2020-09-22 Align Technology, Inc. Cheek retractor and mobile device holder
CN107101982A (zh) * 2017-03-09 2017-08-29 深圳先进技术研究院 荧光显微装置
KR102394308B1 (ko) * 2017-03-10 2022-05-04 (주)제노레이 스캐너
KR102394309B1 (ko) * 2017-03-10 2022-05-04 (주)제노레이 스캐너
JP6786424B2 (ja) 2017-03-13 2020-11-18 株式会社モリタ製作所 三次元スキャナ
US10463243B2 (en) 2017-03-16 2019-11-05 Carestream Dental Technology Topco Limited Structured light generation for intraoral 3D camera using 1D MEMS scanning
JP6766000B2 (ja) * 2017-03-17 2020-10-07 株式会社モリタ製作所 三次元スキャナ
JP7333290B2 (ja) * 2017-03-17 2023-08-24 株式会社モリタ製作所 三次元スキャナ
US10613515B2 (en) 2017-03-31 2020-04-07 Align Technology, Inc. Orthodontic appliances including at least partially un-erupted teeth and method of forming them
DE102017003231A1 (de) * 2017-04-03 2018-10-04 Mühlbauer Gmbh & Co. Kg Optisches Bauteilerfassungssystem und Verfahren zum Erfassen mindestens eines Bauteils
US10600203B2 (en) 2017-06-06 2020-03-24 CapSen Robotics, Inc. Three-dimensional scanner with detector pose identification
US11045283B2 (en) 2017-06-09 2021-06-29 Align Technology, Inc. Palatal expander with skeletal anchorage devices
US10708574B2 (en) 2017-06-15 2020-07-07 Align Technology, Inc. Three dimensional imaging apparatus with color sensor
CN110769777B (zh) 2017-06-16 2023-08-11 阿莱恩技术有限公司 牙齿类型和萌出状态的自动检测
WO2019005808A1 (en) 2017-06-26 2019-01-03 Align Technology, Inc. BIOCAPTOR PERFORMANCE INDICATOR FOR INTRABUCCAL DEVICES
US10885521B2 (en) 2017-07-17 2021-01-05 Align Technology, Inc. Method and apparatuses for interactive ordering of dental aligners
US11419702B2 (en) 2017-07-21 2022-08-23 Align Technology, Inc. Palatal contour anchorage
US11633268B2 (en) 2017-07-27 2023-04-25 Align Technology, Inc. Tooth shading, transparency and glazing
EP3658067B1 (en) 2017-07-27 2023-10-25 Align Technology, Inc. System and methods for processing an orthodontic aligner by means of an optical coherence tomography
WO2019035979A1 (en) 2017-08-15 2019-02-21 Align Technology, Inc. EVALUATION AND CALCULATION OF BUCCAL CORRIDOR
US11123156B2 (en) 2017-08-17 2021-09-21 Align Technology, Inc. Dental appliance compliance monitoring
EP3451023A1 (en) * 2017-09-01 2019-03-06 Koninklijke Philips N.V. Time-of-flight depth camera with low resolution pixel imaging
JP6940696B2 (ja) * 2017-09-29 2021-09-29 ライカ バイオシステムズ イメージング インコーポレイテッドLeica Biosystems Imaging, Inc. 二次元および三次元の固定式z走査
US10813720B2 (en) 2017-10-05 2020-10-27 Align Technology, Inc. Interproximal reduction templates
JP7086330B2 (ja) 2017-10-06 2022-06-20 アドバンスド スキャナーズ,インコーポレイテッド 物体の三次元モデルを形成するための1つ又は複数の光度エッジの生成
CN111565668B (zh) 2017-10-27 2022-06-07 阿莱恩技术有限公司 替代咬合调整结构
CN116602778A (zh) 2017-10-31 2023-08-18 阿莱恩技术有限公司 具有选择性牙合负荷和受控牙尖交错的牙科器具
US11096763B2 (en) 2017-11-01 2021-08-24 Align Technology, Inc. Automatic treatment planning
KR102464368B1 (ko) * 2017-11-07 2022-11-07 삼성전자주식회사 메타 프로젝터 및 이를 포함하는 전자 장치
US11534974B2 (en) 2017-11-17 2022-12-27 Align Technology, Inc. Customized fabrication of orthodontic retainers based on patient anatomy
WO2019108978A1 (en) 2017-11-30 2019-06-06 Align Technology, Inc. Sensors for monitoring oral appliances
US11432908B2 (en) 2017-12-15 2022-09-06 Align Technology, Inc. Closed loop adaptive orthodontic treatment methods and apparatuses
US10980613B2 (en) 2017-12-29 2021-04-20 Align Technology, Inc. Augmented reality enhancements for dental practitioners
CN109991727B (zh) * 2018-01-03 2023-09-12 杨德垚 望远镜及其对焦式遮盖
KR20200115580A (ko) 2018-01-26 2020-10-07 얼라인 테크널러지, 인크. 구강 내 진단 스캔 및 추적
WO2019147936A1 (en) 2018-01-26 2019-08-01 Vanderbilt University Systems and methods for non-destructive evaluation of optical material properties and surfaces
CN112106109A (zh) 2018-02-16 2020-12-18 3 形状股份有限公司 具有表面区分的口腔内扫描
DE102018105132B4 (de) * 2018-03-06 2023-07-13 Haag-Streit Gmbh Triangulationsvorrichtung
WO2019173470A1 (en) 2018-03-07 2019-09-12 Earlens Corporation Contact hearing device and retention structure materials
US11937991B2 (en) 2018-03-27 2024-03-26 Align Technology, Inc. Dental attachment placement structure
WO2019199680A1 (en) 2018-04-09 2019-10-17 Earlens Corporation Dynamic filter
JP6936761B2 (ja) * 2018-04-11 2021-09-22 株式会社モリタ製作所 医療用診療装置
CN116211501A (zh) 2018-04-11 2023-06-06 阿莱恩技术有限公司 腭扩张器、腭扩张器设备及系统、腭扩张器的形成方法
PL425395A1 (pl) * 2018-04-30 2019-11-04 Milton Essex Spolka Akcyjna Aparat do multimodalnej analizy odczynu alergicznego w przebiegu testów skórnych oraz hybrydowa metoda multispektralnego obrazowania odczynów alergicznych w przebiegu testów skórnych i jej zastosowanie do automatycznej oceny wyniku tych testów
US10753734B2 (en) 2018-06-08 2020-08-25 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a confocal camera
US10819706B2 (en) 2018-07-09 2020-10-27 Igt System, apparatus and method for facilitating remote gaming communications in a venue
KR102311387B1 (ko) * 2018-08-07 2021-10-13 주식회사 메디트 3차원 구강 스캐너
JP6883559B2 (ja) * 2018-08-31 2021-06-09 株式会社モリタ製作所 医療用診療装置
JP6968046B2 (ja) * 2018-08-31 2021-11-17 株式会社モリタ製作所 三次元計測システム、三次元計測装置および、制御プログラム
DK3628271T3 (da) * 2018-09-27 2021-09-06 Sirona Dental Systems Gmbh Apparat til ændring af et fokuspunkt for et optisk system i en dental 3d-scanner og dental 3d-scanner
CN109470144B (zh) * 2018-12-07 2020-11-20 哈尔滨工业大学 线扫描高分辨力立体视觉测量系统与方法
CN109470143B (zh) * 2018-12-07 2020-07-28 哈尔滨工业大学 外部光源高分辨力立体视觉测量系统与方法
CN109470147B (zh) * 2018-12-07 2020-05-22 哈尔滨工业大学 自适应高分辨力立体视觉系统与测量方法
CN109596063B (zh) * 2018-12-07 2020-07-28 哈尔滨工业大学 多波长高分辨力立体视觉测量装置与方法
CN109470146B (zh) * 2018-12-07 2020-06-09 哈尔滨工业大学 高分辨力立体视觉系统与测量方法
CN109579700B (zh) * 2018-12-07 2020-07-28 哈尔滨工业大学 盘扫描高分辨力立体视觉测量系统与方法
CN109470145A (zh) * 2018-12-07 2019-03-15 哈尔滨工业大学 偏振调制高分辨力立体视觉测量系统与方法
KR102056910B1 (ko) * 2018-12-21 2019-12-17 주식회사 디오에프연구소 3차원 구강 스캐너 및 이를 이용한 구강 스캔 방법
US11090474B2 (en) 2018-12-27 2021-08-17 Johnson & Johnson Consumer Inc. Device and method for application of topical compositions guided by projected fiducials
KR20210108448A (ko) 2018-12-27 2021-09-02 존슨 앤드 존슨 컨수머 인코포레이티드 동적 임계치를 사용한 국소 조성물의 선택적 도포를 위한 장치 및 방법
CN109668869A (zh) * 2018-12-28 2019-04-23 中国科学院长春光学精密机械与物理研究所 一种手持式反射共聚焦拉曼光谱检测装置
CN109739016A (zh) * 2019-01-16 2019-05-10 中国科学院苏州生物医学工程技术研究所 基于结构光照明显微镜快速三维成像系统及同步控制方法
US11493751B2 (en) * 2019-01-23 2022-11-08 Vanderbilt University Systems and methods for compact optical relay
EP3701908A1 (en) 2019-02-28 2020-09-02 Sirona Dental Systems GmbH 3d intraoral scanner
JP6777784B2 (ja) * 2019-03-04 2020-10-28 Ckd株式会社 検査装置、ブリスター包装機及びブリスターパックの製造方法
KR102229270B1 (ko) * 2019-03-06 2021-03-18 주식회사 디디에스 상보적 색상 패턴을 이용하여 구강내 피사체에 대한 구조광을 형성하는 방법 및 이를 이용한 3차원 구강 스캐너
CN110095088B (zh) * 2019-05-14 2020-11-20 哈尔滨理工大学 基于光栅辨别的曲面拼接区表面形貌特征检测方法及装置
KR20220088708A (ko) * 2019-10-31 2022-06-28 아이리스 가부시키가이샤 촬상 장치 및 촬상 시스템
GB2589071A (en) * 2019-11-01 2021-05-26 King S College London Dental imaging
TWI748282B (zh) * 2019-11-13 2021-12-01 陳彥宏 掃描裝置
JP7309628B2 (ja) 2020-01-15 2023-07-18 株式会社モリタ製作所 キャップ、撮像装置、データ生成システム、およびデータ生成方法
EP4110161A4 (en) 2020-02-26 2024-03-20 Get Grin Inc SYSTEMS AND METHODS FOR NON-INVASIVE DENTAL MONITORING
CN113449546A (zh) * 2020-03-24 2021-09-28 南宁富桂精密工业有限公司 室内定位方法与装置及计算机可读储存媒体
USD962437S1 (en) 2020-05-14 2022-08-30 Get-Grin Inc. Dental scope
WO2021239583A2 (en) * 2020-05-26 2021-12-02 Dentsply Sirona Inc. Method and apparatus for multimodal soft tissue diagnostics
KR102465219B1 (ko) * 2020-08-03 2022-11-10 오스템임플란트 주식회사 3차원 구강 스캐너
WO2022032273A1 (en) 2020-08-03 2022-02-10 Johnson & Johnson Consumer Inc. System and method for selective application of cosmetic composition to impart undereye brightening
US11650151B2 (en) * 2020-10-08 2023-05-16 United States Of America As Represented By The Administrator Of Nasa Compact, self-aligned projection focusing schlieren method and system
KR102443385B1 (ko) * 2020-10-13 2022-09-16 주식회사 고영테크놀러지 의료용 3차원 영상 측정 장치 및 의료 영상 정합 시스템
KR102478842B1 (ko) * 2020-10-13 2022-12-20 주식회사 고영테크놀러지 휴대용 3차원 영상 측정 장치, 이를 이용한 3차원 영상 측정 방법, 및 의료 영상 정합 시스템
CN112485899B (zh) * 2020-12-04 2023-03-28 上海交通大学医学院附属第九人民医院 一种设置紧凑型结构光光路的方法
US20220233078A1 (en) 2021-01-26 2022-07-28 Align Technology, Inc. Distributed intraoral scanning system
US20240197162A1 (en) * 2021-04-14 2024-06-20 Medit Corp. Hand-held scanner
EP4356398A1 (en) 2021-06-14 2024-04-24 Preh Holding, LLC Connected body surface care module
JP7093587B1 (ja) 2021-06-28 2022-06-30 株式会社吉田製作所 光干渉断層画像生成装置および歯科用cadcam装置
CN113776459A (zh) * 2021-09-01 2021-12-10 上海美沃精密仪器股份有限公司 一种共聚焦三维测量系统和坐标、颜色测量方法
CN113640294B (zh) * 2021-10-13 2022-03-11 清华大学 曲面显微成像系统及其成像方法
DE102021128444B4 (de) 2021-11-02 2023-06-15 MarWeTec GmbH Verfahren zur optischen Vermessung von technischen Oberflächen und Vorrichtung zur Durchführung des Verfahrens
WO2023089054A1 (en) 2021-11-17 2023-05-25 3Shape A/S Systems and methods for streaming video from a scanning session
JP7453205B2 (ja) 2021-12-10 2024-03-19 株式会社モリタ製作所 三次元スキャナ、その制御方法、およびプログラム
WO2023156447A1 (en) 2022-02-18 2023-08-24 3Shape A/S Method of generating a training data set for determining periodontal structures of a patient
WO2023175003A1 (en) 2022-03-17 2023-09-21 3Shape A/S Intra oral scanner and computer implemented method for updating a digital 3d scan
CN116763474A (zh) 2022-03-17 2023-09-19 3 形状股份有限公司 在用牙科成像设备扫描期间生成牙科对象的三维表示
EP4272630A1 (en) 2022-05-04 2023-11-08 3Shape A/S System and method for providing dynamic feedback during scanning of a dental object
WO2023213425A1 (en) 2022-05-06 2023-11-09 3Shape A/S Method for monitoring changes in bite
WO2023222340A1 (en) 2022-05-17 2023-11-23 3Shape A/S Method and system for designing a dental appliance
WO2023237597A1 (en) 2022-06-07 2023-12-14 3Shape A/S An intraoral scanner including an improved power management unit
WO2023242389A1 (en) 2022-06-17 2023-12-21 3Shape A/S An intraoral scanning device and method of intraoral scanning device communication
WO2023242390A1 (en) 2022-06-17 2023-12-21 3Shape A/S An intraoral scanning device configured to authenticate mode request
WO2023242392A1 (en) 2022-06-17 2023-12-21 3Shape A/S Dental system, devices and method of securing communication for a user application
WO2023242388A1 (en) 2022-06-17 2023-12-21 3Shape A/S Intraoral scanning device with communication protection and related method
WO2023242391A1 (en) 2022-06-17 2023-12-21 3Shape A/S An intraoral scanning device configured to authenticate mode request
WO2023247546A1 (en) 2022-06-20 2023-12-28 3Shape A/S An intraoral scanner battery charger
WO2023247600A1 (en) 2022-06-22 2023-12-28 3Shape A/S Intraoral scanner with an antenna
WO2024002856A1 (en) 2022-07-01 2024-01-04 3Shape A/S Intraoral scanner with a hygienic housing
WO2024002857A1 (en) 2022-07-01 2024-01-04 3Shape A/S Intraoral scanner system
US20240004175A1 (en) * 2022-07-04 2024-01-04 3Shape A/S Intraoral scanner with optical system for minimizing stray light
WO2024023363A1 (en) 2022-07-29 2024-02-01 3Shape A/S Distributed storage and management of data
WO2024046800A1 (en) 2022-08-29 2024-03-07 3Shape A/S An intraoral scanning device with a hygienic implementation of leds
WO2024056719A1 (en) 2022-09-14 2024-03-21 3Shape A/S 3d digital visualization, annotation and communication of dental oral health
WO2024061782A1 (en) 2022-09-21 2024-03-28 3Shape A/S An intraoral scanning device with a supply assembly unit
EP4368144A1 (en) 2022-11-09 2024-05-15 3Shape A/S 3d scanner system for providing feedback
EP4368145A1 (en) 2022-11-09 2024-05-15 3Shape A/S 3d scanner system for providing feedback
EP4371526A1 (en) 2022-11-21 2024-05-22 3Shape A/S Intraoral scanning system and method for using remote resources
WO2024121067A1 (en) 2022-12-05 2024-06-13 3Shape A/S Method and system for aligning 3d representations

Family Cites Families (283)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1051002A (en) 1910-09-26 1913-01-21 American Case & Register Company Credit-register.
US1076146A (en) 1911-12-05 1913-10-21 Edward P Noyes Vacuum-controlled differential-liquid-level apparatus.
US7907793B1 (en) 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
DE2216760C2 (de) 1972-04-07 1982-11-11 Hawera Probst Gmbh + Co, 7980 Ravensburg Gesteinsbohrer
US3971065A (en) 1975-03-05 1976-07-20 Eastman Kodak Company Color imaging array
US4349880A (en) * 1979-03-19 1982-09-14 Rca Corporation Inspection system for detecting defects in regular patterns
US4291958A (en) * 1980-10-03 1981-09-29 Eastman Kodak Company Camera with electronic flash and piezoelectric lens motor
US4342227A (en) 1980-12-24 1982-08-03 International Business Machines Corporation Planar semiconductor three direction acceleration detecting device and method of fabrication
US4575805A (en) * 1980-12-24 1986-03-11 Moermann Werner H Method and apparatus for the fabrication of custom-shaped implants
US4516231A (en) 1982-08-26 1985-05-07 Rca Corporation Optical disc system having momentum compensation
JPS6015834A (ja) * 1983-07-05 1985-01-26 Mitsubishi Electric Corp フオ−カス制御装置
US4629324A (en) 1983-12-29 1986-12-16 Robotic Vision Systems, Inc. Arrangement for measuring depth based on lens focusing
US4640620A (en) 1983-12-29 1987-02-03 Robotic Vision Systems, Inc. Arrangement for rapid depth measurement using lens focusing
JPS62100716A (ja) 1985-10-29 1987-05-11 Matsushita Electric Ind Co Ltd 撮影装置
CH672722A5 (pt) * 1986-06-24 1989-12-29 Marco Brandestini
JPH0615968B2 (ja) 1986-08-11 1994-03-02 伍良 松本 立体形状測定装置
US4781448A (en) 1987-03-02 1988-11-01 Medical Concepts Inc. Zoom lens adapter for endoscopic camera
JP2836829B2 (ja) 1987-03-27 1998-12-14 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニバーシティ 走査式共焦点型光学顕微鏡
US4896015A (en) * 1988-07-29 1990-01-23 Refractive Laser Research & Development Program, Ltd. Laser delivery system
US5372502A (en) * 1988-09-02 1994-12-13 Kaltenbach & Voight Gmbh & Co. Optical probe and method for the three-dimensional surveying of teeth
US5269325A (en) * 1989-05-26 1993-12-14 Biomagnetic Technologies, Inc. Analysis of biological signals using data from arrays of sensors
JP2928548B2 (ja) 1989-08-02 1999-08-03 株式会社日立製作所 立体形状検出方法及びその装置
JP2784690B2 (ja) * 1990-03-13 1998-08-06 コムデント ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 口内空間の測定方法及びこの方法を実施するための装置
US5181181A (en) 1990-09-27 1993-01-19 Triton Technologies, Inc. Computer apparatus input device for three-dimensional information
GB9102903D0 (en) 1991-02-12 1991-03-27 Oxford Sensor Tech An optical sensor
US5162641A (en) * 1991-02-19 1992-11-10 Phoenix Laser Systems, Inc. System and method for detecting, correcting and measuring depth movement of target tissue in a laser surgical system
US5131844A (en) 1991-04-08 1992-07-21 Foster-Miller, Inc. Contact digitizer, particularly for dental applications
US6485413B1 (en) 1991-04-29 2002-11-26 The General Hospital Corporation Methods and apparatus for forward-directed optical scanning instruments
US5377011A (en) 1991-09-06 1994-12-27 Koch; Stephen K. Scanning system for three-dimensional object digitizing
DE4134117C2 (de) 1991-10-15 1996-02-01 Kaltenbach & Voigt Verfahren zur optischen Vermessung von Objekten
FR2699677B1 (fr) * 1992-12-22 1995-03-03 Bertin & Cie Procédé et dispositif de détermination de la couleur d'un objet transparent, diffusant et absorbant, tel en particulier qu'une dent.
JP3321866B2 (ja) 1992-12-28 2002-09-09 株式会社日立製作所 表面形状検出装置およびその方法
US5455899A (en) 1992-12-31 1995-10-03 International Business Machines Corporation High speed image data processing circuit
US5563343A (en) 1993-05-26 1996-10-08 Cornell Research Foundation, Inc. Microelectromechanical lateral accelerometer
JP3252877B2 (ja) * 1994-02-08 2002-02-04 富士通株式会社 記憶データ確認方法及び装置
GB2292605B (en) 1994-08-24 1998-04-08 Guy Richard John Fowler Scanning arrangement and method
IL111229A (en) * 1994-10-10 1998-06-15 Nova Measuring Instr Ltd Autofocusing microscope
JP3559593B2 (ja) * 1994-10-26 2004-09-02 オリンパス株式会社 内視鏡装置
US5615003A (en) * 1994-11-29 1997-03-25 Hermary; Alexander T. Electromagnetic profile scanner
US5675407A (en) 1995-03-02 1997-10-07 Zheng Jason Geng Color ranging method for high speed low-cost three dimensional surface profile measurement
JP3672966B2 (ja) 1995-04-14 2005-07-20 株式会社ユニスン 歯科用予測模型の作成方法および作成装置
US5702249A (en) 1995-05-19 1997-12-30 Cooper; David H. Modular intra-oral imaging system video camera
US6229913B1 (en) 1995-06-07 2001-05-08 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
DE19524855A1 (de) 1995-07-07 1997-01-09 Siemens Ag Verfahren und Vorrichtung zur rechnergestützten Restauration von Zähnen
JPH0942940A (ja) * 1995-08-03 1997-02-14 Canon Inc 3次元物体の形状計測方法及び装置
US5737084A (en) 1995-09-29 1998-04-07 Takaoka Electric Mtg. Co., Ltd. Three-dimensional shape measuring apparatus
SE505305C2 (sv) 1995-10-20 1997-08-04 Optronic Consult Ab Förfarande och anordning för inmätning av en tredimensionell form
US5759030A (en) 1996-01-02 1998-06-02 Lj Laboratories, L.L.C. Method for determing optical characteristics of teeth
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US5722412A (en) 1996-06-28 1998-03-03 Advanced Technology Laboratories, Inc. Hand held ultrasonic diagnostic instrument
US6135961A (en) 1996-06-28 2000-10-24 Sonosite, Inc. Ultrasonic signal processor for a hand held ultrasonic diagnostic instrument
US6962566B2 (en) 2001-04-19 2005-11-08 Sonosite, Inc. Medical diagnostic ultrasound instrument with ECG module, authorization mechanism and methods of use
DE19636354A1 (de) 1996-09-02 1998-03-05 Ruedger Dipl Ing Rubbert Verfahren und Vorrichtung zur Durchführung von optischen Aufnahmen
DE19640495C2 (de) 1996-10-01 1999-12-16 Leica Microsystems Vorrichtung zur konfokalen Oberflächenvermessung
SE509005C2 (sv) 1997-02-24 1998-11-23 Dentronic Ab Förfarande och arrangemang för beröringsfri inmätning av den tre-dimensionella formen hos detala objekt
WO1998045745A1 (en) 1997-04-04 1998-10-15 Isis Innovation Limited Microscopy imaging apparatus and method
US6259452B1 (en) 1997-04-14 2001-07-10 Massachusetts Institute Of Technology Image drawing system and method with real-time occlusion culling
IL120892A (en) 1997-05-22 2000-08-31 Cadent Ltd Method for obtaining a dental occlusion map
US5975893A (en) 1997-06-20 1999-11-02 Align Technology, Inc. Method and system for incrementally moving teeth
US6450807B1 (en) 1997-06-20 2002-09-17 Align Technology, Inc. System and method for positioning teeth
US6471511B1 (en) 1997-06-20 2002-10-29 Align Technology, Inc. Defining tooth-moving appliances computationally
US6148120A (en) 1997-10-30 2000-11-14 Cognex Corporation Warping of focal images to correct correspondence error
US6026189A (en) 1997-11-13 2000-02-15 National Research Council Of Canada Method of recognizing objects within two-dimensional and three-dimensional images
US6185030B1 (en) * 1998-03-20 2001-02-06 James W. Overbeck Wide field of view and high speed scanning microscopy
JP4136058B2 (ja) * 1998-03-27 2008-08-20 オリンパス株式会社 内視鏡
US6081739A (en) 1998-05-21 2000-06-27 Lemchen; Marc S. Scanning device or methodology to produce an image incorporating correlated superficial, three dimensional surface and x-ray images and measurements of an object
US6249348B1 (en) 1998-11-23 2001-06-19 Lj Laboratories, L.L.C. Integrated spectrometer assembly and methods
IL125659A (en) * 1998-08-05 2002-09-12 Cadent Ltd Method and device for three-dimensional simulation of a structure
US6967644B1 (en) 1998-10-01 2005-11-22 Canon Kabushiki Kaisha Coordinate input apparatus and control method thereof, and computer readable memory
US6227850B1 (en) 1999-05-13 2001-05-08 Align Technology, Inc. Teeth viewing system
US6361489B1 (en) 1998-11-25 2002-03-26 Jory Tsai Medical inspection device
US6532299B1 (en) 2000-04-28 2003-03-11 Orametrix, Inc. System and method for mapping a surface
US7068825B2 (en) 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
US7099732B2 (en) 1999-03-29 2006-08-29 Genex Technologies, Inc. Sanitary sleeve or tip for intra-oral three-dimensional camera
US6751344B1 (en) 1999-05-28 2004-06-15 Champion Orthotic Investments, Inc. Enhanced projector system for machine vision
US9402601B1 (en) 1999-06-22 2016-08-02 Teratech Corporation Methods for controlling an ultrasound imaging procedure and providing ultrasound images to an external non-ultrasound application via a network
SE514495C2 (sv) 1999-08-05 2001-03-05 Jama Mining Equipment Ab Anordning för sättning av bergbult vid bergförstärkning
US6251073B1 (en) 1999-08-20 2001-06-26 Novasonics, Inc. Miniaturized ultrasound apparatus and method
US6865289B1 (en) 2000-02-07 2005-03-08 Canon Kabushiki Kaisha Detection and removal of image occlusion errors
US7296996B2 (en) 1999-11-30 2007-11-20 Orametrix, Inc. Virtual bracket placement and evaluation
US6648640B2 (en) * 1999-11-30 2003-11-18 Ora Metrix, Inc. Interactive orthodontic care system based on intra-oral scanning of teeth
US7160110B2 (en) 1999-11-30 2007-01-09 Orametrix, Inc. Three-dimensional occlusal and interproximal contact detection and display using virtual tooth models
DE60021417T2 (de) * 1999-12-08 2006-05-24 X-Rite, Inc., Grandville Optisches Meßgerät
US6990228B1 (en) 1999-12-17 2006-01-24 Canon Kabushiki Kaisha Image processing apparatus
US6476803B1 (en) 2000-01-06 2002-11-05 Microsoft Corporation Object modeling system and process employing noise elimination and robust surface extraction techniques
EP1264281A4 (en) 2000-02-25 2007-07-11 Univ New York State Res Found ARRANGEMENT AND METHOD FOR PROCESSING AND PLAYING A VOLUME
US7027642B2 (en) 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
EP1287482A4 (en) 2000-04-28 2007-07-11 Orametirix Inc METHOD AND SYSTEM FOR SCANNING A SURFACE AND PRODUCING A THREE-DIMENSIONAL OBJECT
US7471821B2 (en) 2000-04-28 2008-12-30 Orametrix, Inc. Method and apparatus for registering a known digital object to scanned 3-D model
US6975898B2 (en) 2000-06-19 2005-12-13 University Of Washington Medical imaging, diagnosis, and therapy using a scanning single optical fiber system
US6750873B1 (en) 2000-06-27 2004-06-15 International Business Machines Corporation High quality texture reconstruction from multiple scans
US7625335B2 (en) 2000-08-25 2009-12-01 3Shape Aps Method and apparatus for three-dimensional optical scanning of interior surfaces
GB0023681D0 (en) 2000-09-27 2000-11-08 Canon Kk Image processing apparatus
US6592371B2 (en) 2000-10-25 2003-07-15 Duane Durbin Method and system for imaging and modeling a three dimensional structure
DE10157958B4 (de) 2000-11-29 2012-11-15 Omron Corp. Bildverarbeitungsverfahren und-vorrichtung
US6645148B2 (en) 2001-03-20 2003-11-11 Vermon Ultrasonic probe including pointing devices for remotely controlling functions of an associated imaging system
SE523022C3 (sv) 2001-03-23 2004-04-14 Cad Esthetics Ab Förfarande och anordning för en dental restauration
US7156655B2 (en) 2001-04-13 2007-01-02 Orametrix, Inc. Method and system for comprehensive evaluation of orthodontic treatment using unified workstation
DE10125772C2 (de) 2001-05-26 2003-06-18 Duerr Dental Gmbh Co Kg Dentale oder endoskopische Kamera
US7213214B2 (en) 2001-06-12 2007-05-01 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
US7565033B2 (en) 2001-08-17 2009-07-21 Aptina Imaging Corporation Apparatus and method for increasing readout speed of a solid state imager
US6904159B2 (en) 2001-12-20 2005-06-07 Mitsubishi Electric Research Laboratories, Inc. Identifying moving objects in a video using volume growing and change detection masks
GB0200819D0 (en) 2002-01-15 2002-03-06 Cole Polytechnique Federale De Microscopy imaging apparatus and method for generating an image
US7141020B2 (en) 2002-02-20 2006-11-28 Koninklijke Philips Electronics N.V. Portable 3D ultrasound system
US6903813B2 (en) 2002-02-21 2005-06-07 Jjl Technologies Llc Miniaturized system and method for measuring optical characteristics
US7831292B2 (en) 2002-03-06 2010-11-09 Mako Surgical Corp. Guidance system and method for surgical procedures with improved feedback
US7591780B2 (en) 2002-03-18 2009-09-22 Sterling Lc Miniaturized imaging device with integrated circuit connector system
US7636455B2 (en) 2002-06-04 2009-12-22 Raytheon Company Digital image edge detection and road network tracking method and system
US7385708B2 (en) 2002-06-07 2008-06-10 The University Of North Carolina At Chapel Hill Methods and systems for laser based real-time structured light depth extraction
US6761561B2 (en) 2002-06-07 2004-07-13 Schick Technologies Wireless dental camera
JP4189798B2 (ja) 2002-06-23 2008-12-03 明 石井 可変焦点レンズを用いた定倍率結像方法と装置
US7077647B2 (en) 2002-08-22 2006-07-18 Align Technology, Inc. Systems and methods for treatment analysis by teeth matching
US20040155975A1 (en) 2002-09-17 2004-08-12 Hart Douglas P. 3-D imaging system
US6847457B2 (en) * 2002-10-29 2005-01-25 Mitutoyo Corporation Interferometer using integrated imaging array and high-density phase-shifting array
US20070041729A1 (en) * 2002-10-23 2007-02-22 Philip Heinz Systems and methods for detecting changes in incident optical radiation at high frequencies
KR101034521B1 (ko) 2002-10-25 2011-05-17 코닌클리즈케 필립스 일렉트로닉스 엔.브이. 줌 렌즈, 카메라 및 휴대용 장치
US7123760B2 (en) 2002-11-21 2006-10-17 General Electric Company Method and apparatus for removing obstructing structures in CT imaging
US6977732B2 (en) 2002-12-26 2005-12-20 National Taiwan University Miniature three-dimensional contour scanner
US20060146009A1 (en) 2003-01-22 2006-07-06 Hanno Syrbe Image control
GB0301775D0 (en) 2003-01-25 2003-02-26 Wilson John E Device and method for 3Dimaging
DE10304111B4 (de) 2003-01-31 2011-04-28 Sirona Dental Systems Gmbh Aufnahmeverfahren für ein Bild eines Aufnahmeobjekts
EP1606576A4 (en) 2003-03-24 2006-11-22 D3D L P LASER DIGITIZER SYSTEM FOR DENTAL MEDICAL APPLICATIONS
EP1610708B1 (en) 2003-04-03 2019-11-27 Align Technology, Inc. Method and system for fabricating a dental coping
JP2007528743A (ja) 2003-04-30 2007-10-18 ディースリーディー,エル.ピー. 口腔内画像化システム
EP1620007A4 (en) 2003-05-05 2009-07-01 D4D Technologies Llc OPTICAL COHERENCE TOMOGRAPHY IMAGING
DE10321883A1 (de) 2003-05-07 2004-12-09 Universität Stuttgart Verfahren und Sensor zur hochgenauen optischen Abtastung
US7339170B2 (en) 2003-07-16 2008-03-04 Shrenik Deliwala Optical encoding and reconstruction
US20050057745A1 (en) 2003-09-17 2005-03-17 Bontje Douglas A. Measurement methods and apparatus
JP4216679B2 (ja) 2003-09-25 2009-01-28 株式会社キーエンス 変位計および変位測定方法
US7349104B2 (en) 2003-10-23 2008-03-25 Technest Holdings, Inc. System and a method for three-dimensional imaging systems
US7221332B2 (en) 2003-12-19 2007-05-22 Eastman Kodak Company 3D stereo OLED display
US20050142517A1 (en) 2003-12-30 2005-06-30 Howard Frysh System for producing a dental implant and method
EP1706839B1 (en) 2004-01-15 2014-11-12 Technion Research & Development Foundation Limited Three-dimensional video scanner
EP1707928A4 (en) * 2004-01-23 2011-03-09 Olympus Corp IMAGE PROCESSING SYSTEM AND CAMERA
DE102004014048B4 (de) 2004-03-19 2008-10-30 Sirona Dental Systems Gmbh Vermessungseinrichtung und Verfahren nach dem Grundprinzip der konfokalen Mikroskopie
US20050212753A1 (en) 2004-03-23 2005-09-29 Marvit David L Motion controlled remote controller
US7180501B2 (en) 2004-03-23 2007-02-20 Fujitsu Limited Gesture based navigation of a handheld user interface
US20080132886A1 (en) 2004-04-09 2008-06-05 Palomar Medical Technologies, Inc. Use of fractional emr technology on incisions and internal tissues
US7292735B2 (en) 2004-04-16 2007-11-06 Microsoft Corporation Virtual image artifact detection
JP4850703B2 (ja) 2004-04-21 2012-01-11 パナソニック株式会社 共焦点光学系開口位置制御装置、光ヘッド装置および光情報処理装置
US7711179B2 (en) 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner
GB0409463D0 (en) 2004-04-28 2004-06-02 Ibm Method for removal of moving objects from a video stream
US20050243330A1 (en) 2004-04-28 2005-11-03 Simon Magarill Methods and apparatus for determining three dimensional configurations
US20070182812A1 (en) 2004-05-19 2007-08-09 Ritchey Kurtis J Panoramic image-based virtual reality/telepresence audio-visual system and method
ATE406850T1 (de) 2004-06-17 2008-09-15 Cadent Ltd Verfahren und gerät zur farbbildformung einer dreidimensionalen struktur
US20060020204A1 (en) 2004-07-01 2006-01-26 Bracco Imaging, S.P.A. System and method for three-dimensional space management and visualization of ultrasound data ("SonoDEX")
US8060135B2 (en) * 2004-07-29 2011-11-15 Sprint Spectrum L.P. Method and system for selective application of cellular-PBX integration service
JP3937414B2 (ja) 2004-08-11 2007-06-27 本田技研工業株式会社 平面検出装置及び検出方法
JP4328692B2 (ja) 2004-08-11 2009-09-09 国立大学法人東京工業大学 物体検出装置
CA2579676A1 (en) * 2004-09-08 2007-02-15 Hana Golding Compositions and methods for the detection of hiv-1/hiv-2 infection
CN101426085B (zh) 2004-10-01 2012-10-03 小利兰·斯坦福大学托管委员会 成像装置及其方法
WO2006039486A2 (en) 2004-10-01 2006-04-13 The Board Of Trustees Of The Leland Stanford Junior University Imaging arrangements and methods therefor
US7471450B2 (en) 2004-10-06 2008-12-30 Northeastern University Confocal reflectance microscope system with dual rotating wedge scanner assembly
US7683883B2 (en) 2004-11-02 2010-03-23 Pierre Touma 3D mouse and game controller based on spherical coordinates system and system for use
WO2006065955A2 (en) 2004-12-14 2006-06-22 Orthoclear Holdings, Inc. Image based orthodontic treatment methods
US20060127852A1 (en) 2004-12-14 2006-06-15 Huafeng Wen Image based orthodontic treatment viewing system
US8199107B2 (en) 2004-12-22 2012-06-12 University Of Waterloo Input interface device with transformable form factor
US7494338B2 (en) 2005-01-11 2009-02-24 Duane Durbin 3D dental scanner
US7492821B2 (en) * 2005-02-08 2009-02-17 International Business Machines Corporation System and method for selective image capture, transmission and reconstruction
WO2006092800A2 (en) 2005-03-03 2006-09-08 Cadent Ltd. System and method for scanning an intraoral cavity
US9055867B2 (en) 2005-05-12 2015-06-16 Caliber Imaging & Diagnostics, Inc. Confocal scanning microscope having optical and scanning systems which provide a handheld imaging head
US7609875B2 (en) 2005-05-27 2009-10-27 Orametrix, Inc. Scanner system and method for mapping surface of three-dimensional object
KR100704831B1 (ko) 2005-06-01 2007-04-09 주식회사 아이너스기술 3차원 스캐너를 이용한 실시간 검사 안내 시스템 및 방법
WO2006137648A1 (en) 2005-06-20 2006-12-28 Jin-Sang Hwang Tooth brushing pattern analyzing/modifying device, method and system for interactively modifying tooth brushing behavior
US7773074B2 (en) 2005-06-28 2010-08-10 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging three dimensional navigation device and methods
TWI310583B (en) * 2005-07-01 2009-06-01 Touch Micro System Tech Method of thinning a wafer
US7323951B2 (en) * 2005-07-13 2008-01-29 John Mezzalinqua Associates, Inc. Casing for CATV filter
KR101170120B1 (ko) 2005-07-27 2012-07-31 삼성전자주식회사 비안경식 3차원 디스플레이 장치
US20070031774A1 (en) 2005-08-03 2007-02-08 3M Innovative Properties Company Registering physical and virtual tooth structures with markers
JP2007064802A (ja) * 2005-08-31 2007-03-15 Sunx Ltd 光学測定装置
US7672504B2 (en) 2005-09-01 2010-03-02 Childers Edwin M C Method and system for obtaining high resolution 3-D images of moving objects by use of sensor fusion
JP2007072103A (ja) 2005-09-06 2007-03-22 Fujifilm Holdings Corp カメラ
US8625854B2 (en) 2005-09-09 2014-01-07 Industrial Research Limited 3D scene scanner and a position and orientation system
US7840040B2 (en) 2005-09-30 2010-11-23 Siemens Medical Solutions Usa, Inc. Method and apparatus for controlling ultrasound imaging systems having positionable transducers
WO2007105205A2 (en) 2006-03-14 2007-09-20 Prime Sense Ltd. Three-dimensional sensing using speckle patterns
US7605817B2 (en) 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
CN101466998B (zh) 2005-11-09 2015-09-16 几何信息学股份有限公司 三维绝对坐标表面成像的方法和装置
US8411034B2 (en) 2009-03-12 2013-04-02 Marc Boillot Sterile networked interface for medical systems
KR20080090415A (ko) * 2005-12-08 2008-10-08 피터 에스 러블리 적외선 치아 촬영
JP4813898B2 (ja) 2005-12-26 2011-11-09 株式会社カナガワファニチュア 口腔内撮影用デジタルカメラ
DE112006003666T5 (de) 2006-01-19 2009-01-02 Shofu Inc. Vorrichtung zur optischen Kohärenztomographie und Messkopf
US7840042B2 (en) 2006-01-20 2010-11-23 3M Innovative Properties Company Superposition for visualization of three-dimensional data acquisition
US8035637B2 (en) 2006-01-20 2011-10-11 3M Innovative Properties Company Three-dimensional scan recovery
US20070212667A1 (en) 2006-03-13 2007-09-13 Jung Wayne D Systems and methods for preparing dental restorations
US20100009308A1 (en) 2006-05-05 2010-01-14 Align Technology, Inc. Visualizing and Manipulating Digital Models for Dental Treatment
US7460248B2 (en) 2006-05-15 2008-12-02 Carestream Health, Inc. Tissue imaging system
US20080018598A1 (en) 2006-05-16 2008-01-24 Marsden Randal J Hands-free computer access for medical and dentistry applications
EP2032064A2 (en) 2006-06-27 2009-03-11 Palomar Medical Technologies, Inc. Handheld photocosmetic device
US8384665B1 (en) 2006-07-14 2013-02-26 Ailive, Inc. Method and system for making a selection in 3D virtual environment
CN101534713A (zh) 2006-07-17 2009-09-16 梅德拉股份有限公司 集成医疗成像系统
JP2008032995A (ja) * 2006-07-28 2008-02-14 Mitsutoyo Corp 共焦点顕微鏡
US8270689B2 (en) 2006-09-12 2012-09-18 Carestream Health, Inc. Apparatus for caries detection
US8277316B2 (en) 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US8248414B2 (en) 2006-09-18 2012-08-21 Stryker Corporation Multi-dimensional navigation of endoscopic video
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
US20080118886A1 (en) * 2006-11-21 2008-05-22 Rongguang Liang Apparatus for dental oct imaging
US7769230B2 (en) 2006-11-30 2010-08-03 Eastman Kodak Company Producing low resolution images
JP2010515489A (ja) 2007-01-05 2010-05-13 マイスキン インコーポレイテッド 皮膚を撮像するためのシステム、装置、及び方法
DE102007005726B4 (de) 2007-01-31 2010-05-12 Sirona Dental Systems Gmbh Vorrichtung und Verfahren zur optischen 3D-Vermessung
JP2008194108A (ja) 2007-02-09 2008-08-28 Shiyoufuu:Kk 位置方向検出機能付き3次元上特性測定・表示装置
US20080194950A1 (en) 2007-02-13 2008-08-14 General Electric Company Ultrasound imaging remote control unit
JP4306744B2 (ja) 2007-03-01 2009-08-05 ソニー株式会社 生体認証装置
EP2131322A4 (en) 2007-04-04 2011-08-03 Sony Corp DEVICE FOR BIOMETRIC AUTHENTICATION
DE102007018048A1 (de) 2007-04-13 2008-10-16 Michael Schwertner Verfahren und Anordnung zur optischen Abbildung mit Tiefendiskriminierung
CN101689309A (zh) 2007-06-29 2010-03-31 3M创新有限公司 视频数据和三维模型数据的同步视图
US8003889B2 (en) 2007-08-02 2011-08-23 Thomas & Betts International, Inc. Conduit sleeve pass through for concrete construction
DE102007060263A1 (de) 2007-08-16 2009-02-26 Steinbichler Optotechnik Gmbh Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
WO2009026645A1 (en) 2007-08-31 2009-03-05 Signostics Pty Ltd Apparatus and method for medical scanning
US20090061381A1 (en) 2007-09-05 2009-03-05 Duane Milford Durbin Systems and methods for 3D previewing
US8760400B2 (en) 2007-09-07 2014-06-24 Apple Inc. Gui applications for use with 3D remote controller
DE102007043366A1 (de) 2007-09-12 2009-03-19 Degudent Gmbh Verfahren zur Positionsbestimmung eines intraoral messenden Messgerätes
DE502008001698D1 (de) 2007-10-18 2010-12-16 Nectar Imaging S R L Vorrichtung zur tomografischen Erfassung von Objekten
US8144954B2 (en) 2007-11-08 2012-03-27 D4D Technologies, Llc Lighting compensated dynamic texture mapping of 3-D models
DE102007054906B4 (de) 2007-11-15 2011-07-28 Sirona Dental Systems GmbH, 64625 Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
DE102007054907A1 (de) 2007-11-15 2009-05-28 Sirona Dental Systems Gmbh Verfahren zur optischen Vermessung von Objekten unter Verwendung eines Triangulationsverfahrens
US20090133260A1 (en) 2007-11-26 2009-05-28 Ios Technologies, Inc 3D dental shade matching and apparatus
TWI346309B (en) 2007-12-21 2011-08-01 Ind Tech Res Inst Method for reconstructing three dimension model
US20090233253A1 (en) 2007-12-21 2009-09-17 Mrazek William R Dental shade guide
DE112009000101T5 (de) 2008-01-04 2010-11-11 3M Innovative Properties Co., St. Paul Globale Kamerawegoptimierung
US8103134B2 (en) 2008-02-20 2012-01-24 Samsung Electronics Co., Ltd. Method and a handheld device for capturing motion
DE102008010717A1 (de) 2008-02-22 2009-08-27 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Anzeige einer medizinischen Bildinformation sowie bildgebendes System mit einer derartigen Vorrichtung
US8121351B2 (en) 2008-03-09 2012-02-21 Microsoft International Holdings B.V. Identification of objects in a 3D video using non/over reflective clothing
WO2009113068A1 (en) * 2008-03-12 2009-09-17 Optimet, Optical Metrology Ltd. Intraoral imaging system and method based on conoscopic holography
WO2009139110A1 (ja) 2008-05-13 2009-11-19 パナソニック株式会社 口腔内測定装置及び口腔内測定システム
CN101673395B (zh) 2008-09-10 2012-09-05 华为终端有限公司 图像拼接方法及装置
DE102008047816B4 (de) 2008-09-18 2011-08-25 Steinbichler Optotechnik GmbH, 83115 Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
US8743114B2 (en) 2008-09-22 2014-06-03 Intel Corporation Methods and systems to determine conservative view cell occlusion
US8717416B2 (en) * 2008-09-30 2014-05-06 Texas Instruments Incorporated 3D camera using flash with structured light
CH699575A1 (de) 2008-10-06 2010-04-15 Nectar Imaging S R L Optisches System für ein Konfokalmikroskop.
WO2010057336A1 (en) 2008-11-21 2010-05-27 Carestream Health An auto focus intraoral camera with liquid lens
WO2010064156A1 (en) 2008-12-03 2010-06-10 Koninklijke Philips Electronics, N.V. Ultrasound assembly and system comprising interchangable transducers and displays
US20100157086A1 (en) * 2008-12-15 2010-06-24 Illumina, Inc Dynamic autofocus method and system for assay imager
EP2200332A1 (en) 2008-12-17 2010-06-23 Robert Bosch GmbH Autostereoscopic display
KR101199475B1 (ko) 2008-12-22 2012-11-09 한국전자통신연구원 3차원 모델 생성 방법 및 장치
JP2012518844A (ja) 2009-02-25 2012-08-16 ディメンジョナル フォトニクス インターナショナル,インコーポレイテッド 三次元計測システムのための輝度およびカラー表示
US8914098B2 (en) 2009-03-08 2014-12-16 Oprobe, Llc Medical and veterinary imaging and diagnostic procedures utilizing optical probe systems
US8914245B2 (en) 2009-03-20 2014-12-16 Andrew David Hopkins Ultrasound probe with accelerometer
US20100268069A1 (en) 2009-04-16 2010-10-21 Rongguang Liang Dental surface imaging using polarized fringe projection
DE102009025815A1 (de) 2009-05-15 2010-11-25 Degudent Gmbh Messanordnung sowie Verfahren zum dreidimensionalen Messen eines Objektes
US9675432B2 (en) 2009-05-19 2017-06-13 Dentca, Inc. Method and apparatus for preparing removable dental prosthesis
US8564657B2 (en) 2009-05-29 2013-10-22 Honda Research Institute Europe Gmbh Object motion detection system based on combining 3D warping techniques and a proper object motion detection
US8570530B2 (en) 2009-06-03 2013-10-29 Carestream Health, Inc. Apparatus for dental surface shape and shade imaging
CN102802520B (zh) 2009-06-17 2015-04-01 3形状股份有限公司 聚焦扫描设备
EP2865322B1 (en) 2009-06-18 2020-07-22 EndoChoice, Inc. Multi-camera endoscope
JP4758499B2 (ja) 2009-07-13 2011-08-31 株式会社バンダイナムコゲームス 画像生成システム及び情報記憶媒体
WO2011011193A1 (en) 2009-07-21 2011-01-27 Dimensional Photonics International, Inc. Integrated display in a hand-held three-dimensional metrology system
US8547374B1 (en) 2009-07-24 2013-10-01 Lockheed Martin Corporation Detection and reconstruction of 3D objects with passive imaging sensors
JP5696305B2 (ja) 2009-08-05 2015-04-08 株式会社テレシステムズ 放射線撮像装置及び放射線による撮像方法
CN102770087A (zh) 2009-09-14 2012-11-07 纪念斯隆-凯特林癌症中心 用于在微创手术中为组织的切割、切除和消融提供激光引导和聚焦的设备、系统及方法
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
EP2491527B1 (en) 2009-10-22 2013-07-31 Tomtom Belgium N.V. Method for creating a mosaic image using masks
US8521317B2 (en) 2009-11-24 2013-08-27 Sirona Dental Systems Gmbh Systems, methods, apparatuses, and computer-readable storage media for designing and manufacturing prosthetic dental items
WO2011152895A2 (en) 2010-02-12 2011-12-08 The University Of North Carolina At Chapel Hill Systems and methods that generate height map models for efficient three dimensional reconstruction from depth information
US20110200249A1 (en) 2010-02-17 2011-08-18 Harris Corporation Surface detection in images based on spatial data
EP3403568B1 (en) 2010-03-30 2023-11-01 3Shape A/S Scanning of cavities with restricted accessibility
WO2011127375A1 (en) 2010-04-09 2011-10-13 Pochiraju Kishore V Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning
US8260539B2 (en) 2010-05-12 2012-09-04 GM Global Technology Operations LLC Object and vehicle detection and tracking using 3-D laser rangefinder
US20110310449A1 (en) 2010-06-17 2011-12-22 Eun-Soo Kim Method for generating 3d video computer-generated hologram using look-up table and temporal redundancy and apparatus thereof
RU2593741C2 (ru) 2010-06-29 2016-08-10 Зшейп А/С Способ и система расположения двухмерных изображений
US10776533B2 (en) 2010-07-12 2020-09-15 3Shape A/S 3D modeling of a dental restoration using textural features
WO2012011101A2 (en) 2010-07-19 2012-01-26 Cadent Ltd. Methods and systems for creating and interacting with three dimensional virtual models
US20120062557A1 (en) 2010-09-10 2012-03-15 Dimensional Photonics International, Inc. Systems and methods for processing and displaying intra-oral measurement data
US8526700B2 (en) 2010-10-06 2013-09-03 Robert E. Isaacs Imaging system and method for surgical and interventional medical procedures
US8849015B2 (en) 2010-10-12 2014-09-30 3D Systems, Inc. System and apparatus for haptically enabled three-dimensional scanning
US9185388B2 (en) 2010-11-03 2015-11-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
ES2788853T3 (es) 2010-12-06 2020-10-23 3Shape As Sistema con integración de interfaz de usuario 3D
DK2649409T3 (en) 2010-12-06 2019-02-04 3Shape As SYSTEM WITH INTEGRATION OF 3D USER INTERFACE
EP2654606B1 (en) 2010-12-21 2021-05-26 3Shape A/S Motion blur compensation
US20120179035A1 (en) 2011-01-07 2012-07-12 General Electric Company Medical device with motion sensing
US9463081B2 (en) 2011-01-11 2016-10-11 Kabushiki Kaisya Advance Intraoral video camera and display system
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
EP2677938B1 (en) 2011-02-22 2019-09-18 Midmark Corporation Space carving in 3d data acquisition
US8897526B2 (en) 2011-05-06 2014-11-25 Sirona Dental Systems Gmbh Method, system, and computer-readable medium for uncovering and planning an accurate dental preparation
ES2699529T3 (es) 2011-07-15 2019-02-11 3Shape As Detección de un objeto móvil al escanear en 3D un objeto rígido
US10617495B2 (en) 2012-02-13 2020-04-14 3M Innovative Properties Company Dental milling block containing individualized dental article and process of production
US8903746B2 (en) 2012-03-22 2014-12-02 Audrey Kudritskiy System and method for viewing, modifying, storing, and running artificial neural network components
US20130260340A1 (en) 2012-03-29 2013-10-03 3M Innovative Properties Company Powder for enhancing feature contrast for intraoral digital image scanning
US9962244B2 (en) 2013-02-13 2018-05-08 3Shape A/S Focus scanning apparatus recording color
EP2775256B1 (de) 2013-03-07 2019-07-10 a.tron3d GmbH Verfahren zum optischen Erfassen der dreidimensionalen Geometrie von Objekten
EP2799032A1 (en) 2013-04-29 2014-11-05 3M Innovative Properties Company A method of capturing data from a patient's dentition and system for performing such method
WO2015118120A1 (en) 2014-02-07 2015-08-13 3Shape A/S Detecting tooth shade
US9845745B2 (en) 2015-07-08 2017-12-19 Ford Global Technologies, Llc EVAP system with valve to improve canister purging
KR20180119630A (ko) 2016-02-24 2018-11-02 쓰리세이프 에이/에스 치아 질환 발생의 감지 및 감시

Also Published As

Publication number Publication date
JP2012530267A (ja) 2012-11-29
US20190200006A1 (en) 2019-06-27
US20190289283A1 (en) 2019-09-19
US20210211638A1 (en) 2021-07-08
ES2607052T3 (es) 2017-03-29
DK2442720T3 (en) 2016-12-19
CA2763826C (en) 2020-04-07
US11368667B2 (en) 2022-06-21
CN104783757B (zh) 2018-01-05
US20220272317A1 (en) 2022-08-25
CN102802520B (zh) 2015-04-01
EP2442720B1 (en) 2016-08-24
US10349042B1 (en) 2019-07-09
US11539937B2 (en) 2022-12-27
US10349041B2 (en) 2019-07-09
AU2010262191B2 (en) 2015-04-23
US20230403387A1 (en) 2023-12-14
US10595010B2 (en) 2020-03-17
US20120092461A1 (en) 2012-04-19
US11622102B2 (en) 2023-04-04
CA2763826A1 (en) 2010-12-23
CN104783757A (zh) 2015-07-22
US11831815B2 (en) 2023-11-28
US20220086418A1 (en) 2022-03-17
US20180255293A1 (en) 2018-09-06
US10326982B2 (en) 2019-06-18
US20150054922A1 (en) 2015-02-26
BR112012000189A8 (pt) 2018-05-29
US11051002B2 (en) 2021-06-29
WO2010145669A1 (en) 2010-12-23
AU2010262191A1 (en) 2011-12-08
US11671582B2 (en) 2023-06-06
US20230058298A1 (en) 2023-02-23
US20210306617A1 (en) 2021-09-30
JP2015083978A (ja) 2015-04-30
AU2015205898A1 (en) 2015-08-20
US10097815B2 (en) 2018-10-09
EP2442720A1 (en) 2012-04-25
JP5654583B2 (ja) 2015-01-14
US11076146B1 (en) 2021-07-27
US20190124323A1 (en) 2019-04-25
US20220272316A1 (en) 2022-08-25
CN102802520A (zh) 2012-11-28
US8878905B2 (en) 2014-11-04
BR112012000189A2 (pt) 2018-02-06
US20200169722A1 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
US11671582B2 (en) Intraoral scanning apparatus
ES2970406T3 (es) Escaneo de cavidades con accesibilidad restringida
US9638511B2 (en) Smart phone attachment for 3-D optical coherence tomography imaging
US7823782B2 (en) Dental optical coherence tomograph
CA2949448A1 (en) Apparatus for dental confocal imaging
Abreu de Souza et al. A photogrammetric technique for acquiring accurate head surfaces of newborn infants for optical tomography under clinical conditions
Merman et al. Imaging Acoustic Vibrations Using Spectrally Encoded Interferometry

Legal Events

Date Code Title Description
B11A Dismissal acc. art.33 of ipl - examination not requested within 36 months of filing
B04C Request for examination: application reinstated [chapter 4.3 patent gazette]
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06T Formal requirements before examination [chapter 6.20 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 17/06/2010, OBSERVADAS AS CONDICOES LEGAIS.