KR20210132687A - 교체 가능한 스캐닝-팁들을 갖는 스캐너 디바이스 - Google Patents
교체 가능한 스캐닝-팁들을 갖는 스캐너 디바이스 Download PDFInfo
- Publication number
- KR20210132687A KR20210132687A KR1020217030503A KR20217030503A KR20210132687A KR 20210132687 A KR20210132687 A KR 20210132687A KR 1020217030503 A KR1020217030503 A KR 1020217030503A KR 20217030503 A KR20217030503 A KR 20217030503A KR 20210132687 A KR20210132687 A KR 20210132687A
- Authority
- KR
- South Korea
- Prior art keywords
- scanning
- images
- tip
- subset
- data
- Prior art date
Links
- 238000005286 illumination Methods 0.000 claims abstract description 53
- 238000012545 processing Methods 0.000 claims description 143
- 238000000034 method Methods 0.000 claims description 126
- 230000008569 process Effects 0.000 claims description 58
- 210000000214 mouth Anatomy 0.000 claims description 22
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 238000012790 confirmation Methods 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 claims description 3
- 230000016776 visual perception Effects 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 description 18
- 230000003287 optical effect Effects 0.000 description 16
- 230000008901 benefit Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 210000003027 ear inner Anatomy 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 210000004195 gingiva Anatomy 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- KKQWHYGECTYFIA-UHFFFAOYSA-N 2,5-dichlorobiphenyl Chemical compound ClC1=CC=C(Cl)C(C=2C=CC=CC=2)=C1 KKQWHYGECTYFIA-UHFFFAOYSA-N 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000004357 third molar Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00064—Constructional details of the endoscope body
- A61B1/00071—Insertion part of the endoscope body
- A61B1/0008—Insertion part of the endoscope body characterised by distal tip features
- A61B1/00101—Insertion part of the endoscope body characterised by distal tip features the distal tip features being detachable
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00011—Operational features of endoscopes characterised by signal transmission
- A61B1/00016—Operational features of endoscopes characterised by signal transmission using wireless means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00025—Operational features of endoscopes characterised by power management
- A61B1/00027—Operational features of endoscopes characterised by power management characterised by power supply
- A61B1/00029—Operational features of endoscopes characterised by power management characterised by power supply externally powered, e.g. wireless
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00059—Operational features of endoscopes provided with identification means for the endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00064—Constructional details of the endoscope body
- A61B1/00071—Insertion part of the endoscope body
- A61B1/0008—Insertion part of the endoscope body characterised by distal tip features
- A61B1/00096—Optical elements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00064—Constructional details of the endoscope body
- A61B1/00105—Constructional details of the endoscope body characterised by modular construction
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00112—Connection or coupling means
- A61B1/00121—Connectors, fasteners and adapters, e.g. on the endoscope handle
- A61B1/00124—Connectors, fasteners and adapters, e.g. on the endoscope handle electrical, e.g. electrical plug-and-socket connection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00172—Optical arrangements with means for scanning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00174—Optical arrangements characterised by the viewing angles
- A61B1/00179—Optical arrangements characterised by the viewing angles for off-axis viewing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00194—Optical arrangements adapted for three-dimensional imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/043—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0638—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0661—Endoscope light sources
- A61B1/0676—Endoscope light sources at distal tip of an endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/07—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/227—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for ears, i.e. otoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/24—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0062—Arrangements for scanning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0088—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
- A61C9/0053—Optical means or methods, e.g. scanning the teeth by a laser or light beam
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/555—Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00064—Constructional details of the endoscope body
- A61B1/00071—Insertion part of the endoscope body
- A61B1/0008—Insertion part of the endoscope body characterised by distal tip features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Networks & Wireless Communication (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Epidemiology (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Endoscopes (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
본 개시내용은 오브젝트를 스캐닝하기 위한 스캐닝 시스템을 제공하며, 이 스캐닝 시스템은 스캐너 디바이스를 포함하고, 스캐너 디바이스는, 이미지들을 획득하기 위한 이미지 센서; 복수의 유형들의 스캐닝-팁들 중 적어도 하나를 분리 가능하게 장착하기 위한 장착 인터페이스를 포함하고, 복수의 유형들의 스캐닝-팁들 각각은 복수의 유형들의 스캐닝-팁들 각각에 대해 상이한 조명 모드에서 오브젝트에 광을 제공하도록 구성된다.
Description
본 개시내용은 일반적으로 상이한 교체 가능한 스캐닝-팁들을 갖는 스캐너 디바이스를 포함하는 스캐닝 시스템에 관한 것이다. 보다 구체적으로, 본 개시내용은 스캐너 디바이스가 상이한 교체 가능한 스캐닝-팁들로 어떻게 동작하는지에 관한 것이다. 가장 구체적으로, 본 개시내용은 구강내 스캐닝(intra-oral scanning) 및/또는 귀내 스캐닝을 위한 스캐너 디바이스들에 관한 것이다.
교체 가능한 스캐닝-팁들을 갖는 스캐너 디바이스들은 스캐닝 분야에서 알려져 있다. 예컨대, 구강내 스캐닝 분야에서, 상이한 광학 구성들을 갖는 스캐닝-팁들은 잘 알려져 있다.
하나의 스캐닝-팁은 예컨대, 하나의 특정 시야(field-of-view)를 갖도록 구성될 수 있고 다른 스캐닝-팁은 예컨대, 상이한 시야를 갖도록 구성될 수 있다. 이는 시야의 변경을 허용할 뿐만 아니라, 시야가 스캐닝-팁의 물리적 치수와 관련되기 때문에, 스캐닝-팁의 크기가 또한 변경되도록 허용한다. 이러한 방식으로, 하나의 스캐닝-팁은 성인들의 구강내 스캐닝에 대해 사용될 수 있고, 다른 스캐닝-팁은 어린이의 구강내 스캐닝에 대해 사용될 수 있다.
또한, 하나의 스캐닝-팁은 예컨대, 미러(mirror)와 같은 광학 컴포넌트를 일 주파수에서 이동시키도록 구성될 수 있고, 다른 스캐닝-팁은 예컨대, 동일한 미러와 같은 동일한 광학 컴포넌트를 다른 주파수에서 이동시키도록 구성될 수 있다. 이는 예컨대, 사용되는 스캐닝-팁에 의존하여 상이한 스캐닝 레이트들에서의 스캐닝을 허용할 수 있다.
대체로, 스캐닝 동작이 특정 스캐닝 상황에 적응되고 그리고/또는 스캐닝 동작이 스캐닝되는 특정 오브젝트에 적응되도록 스캐닝-팁들이 교체될 수 있다는 것은 스캐닝 분야에서 잘 알려져 있다.
그러나 스캐닝 동작에서 변경의 유연성은 하드웨어로 또는 스캐닝을 담당하는 하드웨어 동작의 변경으로 제한된다.
또한, 스캐닝 동작은 스캐너 디바이스의 오퍼레이터가 변경하기를 바라는 유일한 동작이 아닐 수 있다.
따라서 스캐닝 분야에서는 보다 유연한 스캐너 디바이스가 필요하다.
본 개시내용의 하나의 목적은 보다 유연한 스캐너 디바이스를 제공하는 것이다.
본 개시내용은 제1 양상에서, 오브젝트를 스캐닝하기 위한 스캐닝 시스템을 제공하며, 이 스캐닝 시스템은 스캐너 디바이스를 포함하고, 스캐너 디바이스는, 이미지들을 획득하기 위한 이미지 센서; 복수의 유형들의 스캐닝-팁들 중 적어도 하나를 분리 가능하게 장착하기 위한 장착 인터페이스 ― 복수의 유형들의 스캐닝-팁들 각각은 복수의 유형들의 스캐닝-팁들 각각에 대해 상이한 조명 모드에서 오브젝트에 광을 제공하도록 구성됨 ― ; 및 장착 인터페이스에 장착된 스캐닝-팁의 유형을 인식하기 위한 인식 컴포넌트를 포함한다. 추가로, 스캐너 디바이스는 이미지 센서에 의해 획득된 이미지들을 프로세싱된 데이터로 프로세싱하도록 구성된 프로세서를 포함할 수 있다. 또한 추가로, 스캐너 디바이스는 인식 컴포넌트에 의해 인식된 스캐닝-팁의 유형에 따라 프로세서의 동작을 제어하도록 구성된 제어기를 포함할 수 있다.
여기에 개시된 바와 같은 스캐너 디바이스는 프로세서의 동작을 특정 스캐닝 상황이나 특정 스캐닝 오브젝트에 유리하게 적응시킬 수 있다. 이는 예컨대, 2개의 상이한 스캐닝 상황들 또는 2개의 상이한 스캐닝 오브젝트들에 대해 동일한 방식으로 스캐너 디바이스를 동작시키는 것을 허용하지만, 스캐닝 상황 또는 스캐닝 오브젝트에 의존하여 획득된 이미지들을 상이하게 프로세싱한다. 예컨대, 스캐닝-팁은 스캐닝 오브젝트에 대한 2개의 상이한 스캐닝 상황에 대해 동일한 방식으로 동작될 수 있다. 이러한 방식으로 사용되는 스캐닝-팁의 유형에 기초하여, 오퍼레이터는 프로세싱된 이미지들의 상이한 결과들을 얻을 수 있다.
더욱이, 개시된 스캐너 디바이스는 또한 예컨대, 2개의 상이한 스캐닝 상황들 또는 2개의 상이한 스캐닝 오브젝트들에 대해 상이한 방식들로 스캐너를 동작시키고 스캐닝 상황 또는 스캐닝 오브젝트에 의존하여 획득된 이미지들을 상이하게 프로세싱하는 것을 허용한다. 예컨대, 스캐닝-팁은 2개의 상이한 스캐닝 상황들에 대해 또는 2개의 상이한 스캐닝 오브젝트들에 대해 상이하게 동작될 수 있다. 이러한 방식으로, 스캐닝-팁의 스캐닝 동작에 기초하여 사용되는 스캐닝-팁의 유형에 기초하여, 오퍼레이터는 또한 프로세싱된 이미지들의 상이한 결과들을 얻을 수 있다.
따라서, 본 개시내용은 통상적인 스캐너 디바이스들보다 훨씬 더 유연한 스캐너 디바이스를 제공한다. 이 이점을 더 잘 이해하기 위해, 통상적인 스캐너들이 작동하는 예들이 아래에서 설명된다.
스캐너 디바이스에 의해 획득된 이미지들을 프로세싱하도록 구성된 바와 같은 통상적인 스캐너 디바이스의 프로세서는 통상적으로, 스캐닝 상황에 관계없이 그리고/또는 스캐닝되는 스캐닝 오브젝트에 관계없이 잘 정의된 작업을 수행한다. 예컨대, 고정되거나 잘 정의된 프로세싱 작업은:
- 공초점 스캐너, 즉, 예컨대, 이미지 센서의 단일 이미지 포인트들의 강도를 격리 분석하고 단일 이미지 포인트가 최대이고 따라서 초점이 맞을 때를 결정함으로써 이미지 센서 상의 단일 이미지 포인트의 격리된 분석에 기초하여 깊이 좌표를 유도하도록 구성된 프로세서를 적어도 포함하는 스캐너,
- 삼각측량 스캐너, 즉 예컨대, 이미지 센서 상의 알려진 포지션과 관련하여 광 스트라이프의 포지션을 분석함으로써 이미지 센서 상의 하나 이상의 광 스트라이프들의 삼각화(triangularization)에 기초하여 깊이 좌표를 유도하도록 구성된 프로세서를 적어도 포함하는 스캐너; 및/또는
- 구조화된 광 투영 초점 스캐너, 즉 예컨대, 복수의 포인트들과 이미지 센서 상의 기준과의 상관을 분석하고 예컨대, 복수의 이미지 포인트들의 상관이 최대이고 따라서 초점이 맞을 때를 결정함으로써 이미지 센서 상의 복수의 이미지 포인트들의 비교 분석에 기초하여 깊이 좌표를 유도하도록 구성된 프로세서를 적어도 포함하는 스캐너에 있을 수 있다.
위에서 설명된 바와 같이, 상이한 프로세싱 작업들 중 하나는 예컨대, 주어진 스캐너 디바이스에 상주하는 FPGA(field-programmable-gate-array) 프로세서에 의해 수행될 수 있다. 그 후, 스캐너 디바이스 상에서 실행될 수 있는 미리 정의된 스크립트에 의해 프로세서가 주어진 작업에 대해 지시되기 때문에, 프로세서는 그 주어진 작업을 수행할 수 있다. 따라서 통상적인 스캐너들은 이미지들이 프로세싱될 때 매우 유연하지 않다.
여기서 개시된 바와 같은 스캐너 디바이스의 발명자들은, 인식 컴포넌트에 의해 인식된 스캐닝-팁의 유형에 따라 프로세서의 동작을 제어하도록 구성된 제어기를 가짐으로써, 스캐너 디바이스는 예컨대, 스캐너 디바이스 상에서 미리 정의된 바와 같은 고정된 프로세싱 작업을 가질 필요가 없고, 스캐너 디바이스는 오퍼레이터에 의해 정의하거나 재정의된 바와 같은 상이한 스크립트들을 실행할 필요가 없다는 것을 깨달았다.
현재 개시된 스캐너에 의해, 프로세서에 의해 수행되는 바와 같은 획득된 이미지들의 프로세싱 작업들 또는 모드는 적응 가능한 방식으로 정의되고 특정 스캐닝-팁이 스캐너 디바이스에 장착되면 인식 엘리먼트에 의해 정의된 바와 같은 제어기에 의해 정의된다.
이러한 적응의 기술적 효과는, 주어진 스캐닝 상황 및/또는 스캐닝 오브젝트에 적응되는 것 외에도, 프로세서의 프로세싱 작업 또는 모드가 효율적으로 제어된다는 것이다. 예컨대, 제어기가 프로세서의 프로세스를 제어하게 하는 것은, 획득된 이미지들을 프로세싱하기 위해 프로세서를 수동으로 선택하거나 지시하는 것보다 훨씬 빠르다.
대체로, 본 개시내용은 스캐너 및 스캐너 출력, 즉 프로세싱된 이미지들을 주어진 스캐닝 상황 및/또는 스캐닝 오브젝트에 효율적으로 적응시키는 스캐너 디바이스를 제공한다.
제2 양상에서, 본 개시내용은 화면 상의 그래픽 사용자 인터페이스에 디스플레이되는 구강의 3D-표현을 생성하기 위한 컴퓨터-구현 방법을 제공하며, 이 방법은,
- 스캐닝을 위한 복수의 옵션들 중 하나를 선택하기 위해 그래픽 사용자 인터페이스에서 사용자가 지시하도록, 사용자 인터페이스에서, 상기 스캐닝을 위한 옵션들을 디스플레이하는 단계;
- 사용자에 의해, 상기 스캐닝을 위한 옵션들 중 하나 이상을 수신하는 단계;
- 그래픽 사용자 인터페이스에서, 그리고 수신된 바와 같은 스캐닝을 위한 하나의 옵션에 기초하여, 사용자가 제1 스캐닝-팁을 스캐너 디바이스에 장착하기 위한 제1 장착 명령들을 디스플레이하는 단계;
- 제1 스캐닝-팁이 스캐너 디바이스에 장착될 때 제1 스캐닝-팁과 관련된 스캐너로부터 제1 정보를 수신하는 단계;
- 그래픽 사용자 인터페이스에서, 그리고 스캐너로부터의 제1 정보에 기초하여, 사용자가 제1 스캐닝-팁을 장착한 스캐너 디바이스로 스캐닝하기 위한 제1 스캐닝 명령 및/또는 제1 스캐닝 표시를 디스플레이하는 단계,
- 제1 스캐닝-팁을 갖는 스캐너 디바이스에 의해 제1 스캔 데이터를 수신하는 단계 ― 제1 스캔 데이터로부터, 3D-표현의 제1 부분이 생성됨 ― ;
- 그래픽 사용자 인터페이스에서, 그리고 수신된 바와 같은 제1 스캔 데이터에 기초하여, 제1 스캐닝-팁을 제2 스캐닝-팁으로 교체하기 위한 제2 장착 명령들을 디스플레이하는 단계;
- 제2 스캐닝-팁이 스캐너 디바이스에 장착될 때 제2 스캐닝팁과 관련된 스캐너 디바이스로부터의 제2 정보를 수신하는 단계;
- 그래픽 사용자 인터페이스에서, 그리고 스캐너 디바이스로부터의 제2 정보에 기초하여, 사용자가 제2 스캐닝-팁을 갖는 스캐너 디바이스로 스캐닝하기 위한 제2 스캐닝 명령 및/또는 제2 스캐닝 표시를 디스플레이하는 단계; 및
- 제2 스캐닝-팁을 갖는 스캐너 디바이스에 의해 제2 스캔 데이터를 수신하는 단계를 포함하고, 제2 스캔 데이터로부터, 3D-표현의 제2 부분이 생성된다.
위에서 개시된 방법을 사용하여 생성된 바와 같은 3D-표현, 즉 적어도 3D-표현의 제1 부분 및 3D-표현의 제2 부분으로 이루어진 최종 3D-표현은 사용자와 사용자 인터페이스 간의 상호작용에 의존한다. 또한, 예컨대, 컴퓨터 상의 프로세서에 의해 수행될 수 있는 바와 같은, 위에서 개시된 방법의 이점은, 사용자가 사용자 인터페이스를 통해 지시받은 것을 사용자가 수행할 때만 3D-표현이 생성된다는 점이다. 예컨대, 제1 스캔 데이터는 사용자가 사용자 인터페이스에 디스플레이된 바와 같이 제1 스캐닝-팁을 장착할 때만 프로세서에 의해 수신되고 제2 데이터는 사용자가 사용자 인터페이스에 디스플레이된 바와 같이 제2 스캐닝-팁을 장착할 때만 프로세서에 의해 수신된다. 따라서, 본원에서 개시된 방법은 3D-표현이 이루어지는 방식을 변경하는 적어도 2개의 단계들을 제공한다. 또한, 프로세스는 적절한 스캐닝-팁이 장착될 때만 데이터 수신하는 단계들을 계속할 수 있기 때문에, 방법은 사용자가 올바른 스캐닝-팁을 올바르게 장착할 때만 수행될 수 있다. 따라서, 사용자가 실수로, 지시된 바와 같은 스캐닝-팁을 올바르게 장착하지 않은 경우 그리고/또는 사용자가 지시된 바와 같은 올바른 스캐닝-팁을 장착하지 않은 경우, 프로세스가 수행되지 않는다. 따라서 사용자는 또한 원치않는 프로세스를 수행하는 것이 방지된다. 따라서 사용자 인터페이스와 물리적 세계 간의 상호작용은 3D-표현을 생성하는 프로세스를 변경한다.
본 발명의 제2 양상의 일 실시예에서, 제1 및 제2 스캐닝-팁들은 복수의 유형들의 스캐닝-팁들 중 2개일 수 있으며, 여기서 2개의 유형들의 스캐닝-팁들 각각은 2개의 유형들의 스캐닝-팁들 각각에 대해 상이한 조명 모드에서 오브젝트에 광을 제공하도록 구성된다.
일부 실시예들에서, 2개의 양상들이 결합될 수 있다. 예컨대, 제1 양상에 따른 스캐닝 시스템은 제2 양상에 따른 컴퓨터 구현 방법을 수행하기 위한 프로세서를 포함할 수 있다.
따라서, 제2 양상의 다른 실시예에서, 제1 스캐닝-팁과 관련된 스캐너 디바이스로부터의 제1 정보를 수신하는 단계 및/또는 제2 스캐닝-팁과 관련된 스캐너 디바이스로부터의 제2 정보를 수신하는 단계는 본 발명의 제2 양상에 따라, 스캐너 디바이스에 장착될 때 스캐닝-팁의 유형을 인식하는 스캐너 디바이스의 인식 컴포넌트로부터 제공된다.
본 개시내용의 위의 및/또는 부가적인 목적들, 특성들 및 이점들은 첨부된 도면(들)을 참조하여 본 개시내용의 실시예들의 다음의 예시적이고 비-제한적인 상세한 설명에 의해 추가로 설명될 것이다.
도 1은 본 발명에 따른 스캐닝 시스템(1)의 예를 도시한다.
도 2는 구강내 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 3은 내이(inner-ear) 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 4는 구강내 및 적외선 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 5는 구강내 및 형광 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 6은 구강내 및 감소된 시야 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 7a는 얼굴 스캐닝 및 확대된 시야 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시하고, 도 7b는 얼굴 스캐닝을 위해 사용되는 스캐닝-팁의 세부사항들을 도시한다.
도 8은 구강내 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 9는 구강내 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 10(a-e)는 본 발명의 제2 양상에 따른 사용자 인터페이스의 예를 도시한다.
도 1은 본 발명에 따른 스캐닝 시스템(1)의 예를 도시한다.
도 2는 구강내 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 3은 내이(inner-ear) 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 4는 구강내 및 적외선 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 5는 구강내 및 형광 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 6은 구강내 및 감소된 시야 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 7a는 얼굴 스캐닝 및 확대된 시야 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시하고, 도 7b는 얼굴 스캐닝을 위해 사용되는 스캐닝-팁의 세부사항들을 도시한다.
도 8은 구강내 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 9는 구강내 스캐닝 모드와 관련된 프로세싱 모드의 예를 도시한다.
도 10(a-e)는 본 발명의 제2 양상에 따른 사용자 인터페이스의 예를 도시한다.
제어기 및 프로세싱
모드
(들)
스캐닝 시스템의 일 실시예에서, 제어기는 추가로, 제1 유형의 스캐닝-팁이 장착되고 인식될 때 프로세서가 제1 유형의 스캐닝-팁에 대응하는 제1 프로세싱-모드에서 동작하도록 제어되게, 그리고 제2 유형의 스캐닝-팁이 장착되고 인식될 때 프로세서가 제2 유형의 스캐닝-팁에 대응하는 제2 프로세싱-모드에서 동작하도록 제어되게 프로세서를 제어하도록 구성되고, 제2 프로세싱 모드는 제1 프로세싱 모드와 상이하다.
제1 바람직한 실시예에서, 제1 프로세싱 모드에 있을 때, 프로세서는 제1 조명 모드로 획득된 제1 복수의 이미지들을 프로세싱하여 프로세싱된 데이터를 3D 기하학적 구조에 대한 제1 데이터 및 오브젝트의 텍스처에 대한 제1 데이터의 형태로 제공하고, 3D 기하학적 구조에 대한 제1 데이터는, 제1 유형의 스캐닝-팁에 따라 선택되고 그리하여 제1 프로세싱 모드의 부분을 정의하는 제1 복수의 이미지들의 제1 서브세트, 및/또는 제1 유형의 스캐닝-팁에 따라 선택되고 그리하여 제1 프로세싱 모드의 부분을 정의하는 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 그리고 오브젝트의 텍스처에 대한 제1 데이터는 제1 유형의 스캐닝-팁에 따라 선택되고 그리하여 제1 프로세싱 모드의 부분을 정의하는 제1 복수의 이미지들의 제2 서브세트, 및/또는 제1 유형의 스캐닝-팁에 따라 선택되고 그리하여 제1 프로세싱 모드의 부분을 정의하는 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초한다.
제2 바람직한 실시예에서, 제2 프로세싱 모드에 있을 때, 프로세서는 제2 조명 모드로 획득된 제2 복수의 이미지들을 프로세싱하여 프로세싱된 데이터를 3D 기하학적 구조에 대한 제2 데이터 및 오브젝트의 텍스처에 대한 제2 데이터의 형태로 제공하고, 3D 기하학적 구조에 대한 제2 데이터는 제2 유형의 스캐닝-팁에 따라 선택되고 그리하여 제2 프로세싱 모드의 부분을 정의하는 제2 복수의 이미지들의 제1 서브세트, 및/또는 제2 유형의 스캐닝-팁에 따라 선택되고 그리하여 제2 프로세싱 모드의 부분을 정의하는 상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 오브젝트의 텍스처에 대한 제2 데이터는 제2 유형의 스캐닝-팁에 따라 선택되고 그리하여 제2 프로세싱 모드의 부분을 정의하는 제2 복수의 이미지들의 제2 서브세트, 및/또는 제2 유형의 스캐닝-팁에 따라 선택되고 그리하여 제2 프로세싱 모드의 부분을 정의하는 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초한다.
예컨대, 제1 유형의 스캐닝-팁은 백색 광을 사용한 스캐닝을 위한 것일 수 있고 제2 유형의 스캐닝-팁은 적외선 광을 사용한 스캐닝을 위한 것일 수 있다. 따라서, 제1 프로세싱 모드에 있을 때, 프로세서는 예컨대, 백색 광 조명에 대응하는 제1 조명 모드로 획득된 제1 복수의 이미지들을 프로세싱하여 프로세싱된 데이터를 3D 기하학적 구조에 대한 제1 데이터 및 오브젝트의 텍스처에 대한 제1 데이터의 형태로 제공할 수 있다.
위에서 설명된 제1 바람직한 실시예에 따르면, 이어서, 제1 프로세싱 모드에 있을 때, 프로세서는 모든 제1 복수의 이미지들을 프로세싱할 수 있고, 이들 제1 복수의 이미지들로부터, 프로세서는, 제1 유형의 스캐닝-팁에 따라 선택되고 그리하여 제1 프로세싱 모드의 부분을 정의하는, 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트를 프로세싱할 수 있다. 픽셀들의 제1 서브세트는 예컨대, 모든 녹색 픽셀들 또는 녹색 픽셀들의 선택된 세트일 수 있다. 상기 녹색 픽셀들을 프로세싱할 때, 3D 기하학적 구조에 대한 제1 데이터가 제공된다.
추가로, 위에서 설명된 제1 바람직한 실시예들에 따르면, 이어서, 제1 프로세싱 모드에 있을 때, 프로세서는 또한, 모든 제1 복수의 이미지들을 프로세싱할 수 있고, 이들 제1 복수의 이미지들로부터, 프로세서는, 제1 유형의 스캐닝-팁에 따라 선택되고 그리하여 제1 프로세싱 모드의 부분을 정의하는, 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트를 프로세싱할 수 있다. 픽셀들의 제1 서브세트는 예컨대, 녹색, 적색 및 청색 픽셀들의 선택된 세트일 수 있다. 상기 녹색, 적색 및 청색 픽셀들의 프로세싱 시에, 오브젝트의 텍스처에 대한 제1 데이터가 제공된다.
추가로, 제2 프로세싱 모드에 있을 때, 프로세서는 예컨대, 적외선 광 조명에 대응하는 제2 조명 모드로 획득된 제2 복수의 이미지들을 프로세싱하여 프로세싱된 데이터를 3D 기하학적 구조에 대한 제2 데이터 및 오브젝트의 텍스처에 대한 제2 데이터의 형태로 제공할 수 있다.
위에서 설명된 제2 바람직한 실시예에 따르면, 이어서, 제2 프로세싱 모드에 있을 때 프로세서는 제2 복수의 이미지들 중 하나 걸러 하나의 이미지를 프로세싱할 수 있고, 이들 제1 복수의 이미지들로부터, 프로세서는 제1 유형의 스캐닝-팁에 따라 선택되고 그리하여 제2 프로세싱 모드의 부분을 정의하는, 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트를 프로세싱할 수 있다. 픽셀들의 제1 서브세트는 예컨대, 모든 녹색 픽셀들 또는 녹색 픽셀들의 선택된 세트일 수 있다. 상기 녹색 픽셀들을 프로세싱할 때, 3D 기하학적 구조에 대한 제2 데이터가 제공된다.
추가로, 위에서 설명된 제1 바람직한 실시예들에 따르면, 이어서, 제2 프로세싱 모드에 있을 때 프로세서는 또한 3D 기하학적 구조에 대해 프로세싱된 바와 같은 하나 걸러 하나의 이미지 사이의 이미지들을 프로세싱할 수 있고, 이들 이미지들로부터, 프로세서는 제2 유형의 스캐닝-팁에 따라 선택되고 그리하여 제2 프로세싱 모드의 부분을 정의하는, 상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트를 프로세싱할 수 있다. 픽셀들의 제1 서브세트는 예컨대, 적색 픽셀들의 선택된 세트일 수 있다. 상기 적색 픽셀들의 프로세싱 시에, 오브젝트의 텍스처에 대한 제2 데이터가 제공된다.
위의 예로부터 알 수 있는 바와 같이, 제1 프로세싱 모드는 제2 프로세싱 모드와 상이하고, 그 반대의 경우도 마찬가지다.
이에 대해 추가로 설명하면, 위의 예는 3D 기하학적 구조에 대한 제1 데이터가 제1 복수의 이미지들의 제1 서브세트, 및 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 오브젝트의 텍스처에 대한 제1 데이터는 제1 복수의 이미지들의 제2 서브세트, 및 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고, 제1 복수의 이미지들의 제1 서브세트는 제1 복수의 이미지들의 제2 서브세트와 동일하고, 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트는 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트와 상이한 실시예를 예시한다.
또한 추가로, 위의 예는 또한 3D 기하학적 구조에 대한 제2 데이터가 제2 복수의 이미지들의 제1 서브세트, 및 상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 오브젝트의 텍스처에 대한 제2 데이터는 제2 복수의 이미지들의 제2 서브세트, 및 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고, 제2 복수의 이미지들의 제1 서브세트는 제2 복수의 이미지들의 제2 서브세트와 상이하고, 상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트는 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트와 상이한 실시예를 예시한다.
본원에서 개시된 스캐닝 시스템에 따라 그리고 설명된 방식으로 제2 프로세싱 모드와 상이한 제1 프로세싱 모드를 갖는 이점은, 3D-모델을 생성하기 위해 프로세서로 전송되는 데이터의 양을 제한하도록 데이터 프로세싱이 감소될 수 있다는 것이다. 3D-모델을 생성하기 위한 데이터의 양을 감소시킴으로써, 3D-모델을 생성하기 위해 외부 프로세서와 스캐너 디바이스 간의 무선 연결은, 특정 량의 데이터만이 무선으로 송신될 수 있다는 점에서 설정될 수 있다. 또한, 3D-모델을 생성하기 위한 데이터의 양을 감소시킴으로써, 스캐닝-팁에 관계없이 모든 데이터가 동일한 방식으로 프로세싱되는 것보다 빠르게 3D-모델이 생성될 수 있다.
제1 프로세싱 모드가 제2 프로세싱 모드와 상이한 경우 및 그 반대의 경우의 다른 예들은 다음 실시예들에 의해 의해 설명된다.
제1 실시예에서, 3D 기하학적 구조에 대한 제1 데이터는 제1 복수의 이미지들의 제1 서브세트, 및 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 오브젝트의 텍스처에 대한 제1 데이터는 제1 복수의 이미지들의 제2 서브세트, 및 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고, 제1 복수의 이미지들의 제1 서브세트는 제1 복수의 이미지들의 제2 서브세트와 상이하고, 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트는 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트와 상이하다.
제2 실시예에서, 3D 기하학적 구조에 대한 제1 데이터는 제1 복수의 이미지들의 제1 서브세트, 및 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 오브젝트의 텍스처에 대한 제1 데이터는 제1 복수의 이미지들의 제2 서브세트, 및 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고, 제1 복수의 이미지들의 제1 서브세트는 제1 복수의 이미지들의 제2 서브세트와 상이하고, 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트는 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트와 동일하다.
제3 실시예에서, 제1 복수의 이미지들의 제1 서브세트는 복수의 이미지들 중, 복수의 파장들에서 무채색 광(non-chromatic light)으로 레코딩된 바와 같은 하나 걸러 하나의 이미지이고, 제1 복수의 이미지들의 제2 서브세트는 복수의 이미지들 중, 제1 파장에서 단색광으로 레코딩된 나머지 이미지들이다.
제4 실시예에서, 제1 복수의 이미지들의 제1 서브세트는 제1 복수의 이미지들 중, 복수의 파장들에 의해 정의된 무채색 광으로 레코딩된 바와 같은 두 개 걸러 하나의 이미지이고, 제1 복수의 이미지들의 제2 서브세트는 제1 복수의 이미지들 중, 제1 파장 및 제2 파장에서 단색광으로 레코딩된 나머지 이미지들이다.
제5 실시예에서, 제1 복수의 이미지들의 제2 서브세트는 복수의 파장들에 의해 정의된 무채색 광으로 레코딩된 바와 같은 단일 이미지이다.
제6 실시예에서, 3D 기하학적 구조에 대한 제2 데이터는 제2 복수의 이미지들의 제1 서브세트, 및 상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 오브젝트의 텍스처에 대한 제2 데이터는 제2 복수의 이미지들의 제2 서브세트, 및 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고, 제2 복수의 이미지들의 제1 서브세트는 제2 복수의 이미지들의 제2 서브세트와 동일하고, 상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트는 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트와 상이하다.
제7 실시예에서, 3D 기하학적 구조에 대한 제2 데이터는 제2 복수의 이미지들의 제1 서브세트, 및 상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 오브젝트의 텍스처에 대한 제1 데이터는 제2 복수의 이미지들의 제2 서브세트, 및 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고, 제2 복수의 이미지들의 제1 서브세트는 제2 복수의 이미지들의 제2 서브세트와 상이하고, 상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트는 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트와 동일하다.
위에서 설명된 실시예들은 모두 3D-모델을 생성하기 위해 프로세서로 전송되는 데이터의 양을 제한하기 위해 데이터 프로세싱이 감소될 수 있는 시스템을 제공함으로써 유용하다.
3D 기하학적 구조에 대한 데이터는 포인트 클라우드 또는 포인트 클라우드를 형성하도록 적응 가능한 데이터의 형태일 수 있다. 포인트 클라우드는 통상적으로 유클리드 공간과 같은 3D 우주의 포인트들과 관련된다.
텍스처에 대한 데이터는 RGB 컬러 데이터와 같은 컬러 데이터를 포함할 수 있고 그리고/또는 다이렉트 컬러, 압축된 형식 또는 인덱싱된 컬러의 형태일 수 있다.
본원에서 설명된 바와 같은 프로세서는 스캐닝-팁에 의존하여 다양한 방식들로 3D 기하학적 구조 및 텍스처에 대한 데이터를 유도하는 것을 담당할 수 있다. 예컨대, 백색 광 조명을 갖는 팁을 사용할 때, 프로세서는 포인트 클라우드, 및 클라우드의 각 포인트에 대해, 대응하는 RGB 컬러 둘 모두 유도할 수 있다. 데이터의 유도는 분명히, 스캐너 디바이스의 이미지들에 기초한다. 프로세싱 모드들의 일부 실시예들에서, 제1 프로세싱 모드 또는 제2 프로세싱 모드는 3D 기하학적 구조에 대한 데이터 및 텍스처에 대한 데이터가 이미지들의 스택의 각각의 단일 이미지로부터 유도되도록 하는 것이다. 다른 실시예들에서, 제1 프로세싱 모드 또는 제2 프로세싱 모드는 3D 기하학적 구조에 대한 제1 데이터 및 텍스처에 대한 데이터, 또는 3D 기하학적 구조에 대한 제2 데이터 및 텍스처에 대한 제2 데이터가 이미지들의 스택의 일 세트의 이미지들로부터 유도되도록 하는 것인데, 예컨대, 적어도 하나의 이미지가 3D-모델에 대한 제1 데이터 또는 3D-모델에 대한 제2 데이터를 유도하는 데 사용되고, 다른 별개의 적어도 하나의 이미지가 3D-모델에 대한 텍스처에 대한 제1 데이터 또는 3D-모델에 대한 텍스처에 대한 제2 데이터를 유도하는데 사용되도록 하는 것이다.
일 실시예에서, 제1 프로세싱 모드에 있을 때, 3D 기하학적 구조에 대한 제1 데이터 및 오브젝트의 텍스처에 대한 제1 데이터 둘 모두는 복수의 이미지들 중에서 이미지들 각각에 대해 유도된다. 프로세싱 모드들이 상이하고, 방금 설명된 실시예와 관련되는 본원에서 개시된 스캐닝 시스템에 따르면, 제2 프로세싱 모드는 일 실시예에서 3D 기하학적 구조에 대한 제2 데이터 및 오브젝트의 텍스처에 대한 제2 데이터가 복수의 이미지들 중에서 일 세트의 이미지들에 대해 유도되도록 하는 것일 수 있다. 그러나 이전에 설명된 바와 같이, 또한 그 반대일 수 있다. 예컨대, 다른 실시예에서, 제1 프로세싱 모드에 있을 때, 3D 기하학적 구조에 대한 제1 데이터 및 오브젝트의 텍스처에 대한 제1 데이터 둘 모두는 복수의 이미지들 중에서 일 세트의 이미지들에 대해 유도된다. 프로세싱 모드들이 상이하고, 방금 설명된 실시예와 관련되는 실시예에 따르면, 제2 프로세싱 모드는 일 실시예에서 3D 기하학적 구조에 대한 제2 데이터 및 오브젝트의 텍스처에 대한 제2 데이터가 복수의 이미지들 중에서 이미지들 각각에 대해 유도되도록 하는 것일 수 있다.
일부 실시예들에서, 제1 프로세싱 모드에 있을 때, 3D 기하학적 구조에 대한 제1 데이터 및 오브젝트의 텍스처에 대한 제1 데이터는 복수의 이미지들 중에서 상이한 이미지들에 대해 유도된다. 또한, 일부 다른 실시예들에서, 제2 프로세싱 모드에 있을 때, 3D 기하학적 구조에 대한 제2 데이터 및 오브젝트의 텍스처에 대한 제2 데이터는 복수의 이미지들 중에서 상이한 이미지들에 대해 유도된다.
일 실시예에서, 3D 기하학적 구조에 대한 제1 데이터 및/또는 텍스처에 대한 제1 데이터는 복수의 이미지들 중에서 하나 걸러 하나의 이미지에 대해 유도된다. 다른 실시예에서, 3D 기하학적 구조에 대한 제2 데이터 및/또는 텍스처에 대한 제2 데이터는 복수의 이미지들 중에서 하나 걸러 하나의 이미지에 대해 유도된다. 예컨대, 복수의 이미지들 중에서 하나 걸러 하나의 이미지는 백색 광 조명으로 획득하고, 그 사이의 이미지들은 적외선 광 조명 또는 형광 조명으로 획득될 수 있다. 백색 광 조명을 사용하는 경우, 프로세서는 일부 실시예들에서, 백색 광 조명으로 획득된 이미지들 각각으로부터 3D 기하학적 구조에 대한 데이터 및 텍스처에 대한 데이터를 유도하도록 구성되고 그리고/또는 이를 유도하도록 제어기에 지시될 수 있다. 적외선 광 조명을 사용하는 경우, 프로세서는 일부 실시예들에서, 적외선 광 조명으로 획득된 이미지들 각각으로부터 텍스처에 대한 데이터만을 유도하도록 구성되고 그리고/또는 이를 유도하도록 제어기에 의해 지시될 수 있다. 형광 조명을 사용하는 경우, 프로세서는 일부 실시예들에서, 형광 조명으로 획득된 이미지들 각각으로부터 텍스처에 대한 데이터만을 유도하도록 구성되고 그리고/또는 이를 유도하도록 제어기에 의해 지시될 수 있다.
다른 실시예들에서, 스캐너 디바이스는 제1 및/또는 제2 복수의 이미지들이 획득되는 동안 앞뒤로 병진운동하도록 구성된 렌즈를 더 포함한다. 이는, 예컨대, 공초점 스캐너 디바이스 또는 구조화된 광 투영 초점 스캐너에 대해 그러할 수 있다. 삼각측량 스캐너는 이러한 렌즈를 필요로 하지 않을 수 있다.
일부 실시예에서, 텍스처에 대한 제2 데이터는 렌즈 엘리먼트를 앞뒤로 병진운동시키는 동안 획득된 바와 같은 복수의 이미지들 중에서 단일 이미지에 대해 유도된다. 예컨대, 단일 이미지가 적외선 광 조명으로 획득된다. 이는, 2D 적외선 이미지가 획득될 수 있게 할 수 있어서, 2D 적외선 이미지는 그 후 렌즈의 병진운동 동안 획득된 다른 2D-이미지들에 의해 제공되는 바와 같은 3D-모델과 상관될 수 있다.
바람직한 실시예에서, 제어기는 스캐너 디바이스의 외부에 있다. 따라서, 본 발명의 일 실시예에 따르면, 인식 컴포넌트가 장착 인터페이스에 장착된 스캐닝-팁의 유형을 인식할 때, (인식 컴포넌트에 의해 인식된 스캐닝-팁의 유형에 따라 프로세서의 동작을 제어하도록 구성된 바와 같은) 제어기는 프로세서의 동작을 제어한다. 이는 이 실시예에서 인식 컴포넌트가 정보(예컨대, 식별 번호의 형태의 장착된 스캐닝-팁의 정보)를 스캐너 디바이스로부터 원격으로 로케이팅된 바와 같은 제어기에 송신할 수 있다는 것을 의미한다. 따라서 스캐너 디바이스는 이러한 정보를, 예컨대, 외부 컴퓨터 또는 클라우드 서비스 상의 원격으로 로케이팅된 제어기에 송신하도록 구성될 수 있다. 이러한 송신은 예컨대, 유선 전송 또는 무선 송신일 수 있다. 제어기가 장착된 스캐닝-팁의 정보를 수신하면, 제어기는 예컨대, 스캐너 디바이스 상에 로케이팅 프로세서에 명령들(팁의 정보에 따라 의존함)을 송신할 수 있다. 따라서, 제어기 및/또는 외부 컴퓨터는 그에 따라 이러한 정보를 스캐너 디바이스로 다시 송신하도록 구성될 수 있다. 이 송신은 또한 예컨대, 유선 전송 또는 무선 송신일 수 있다. 대부분의 실시예들에서, 송신(스캐너 디바이스로부터 제어기로, 제어기로부터 스캐너 디바이스로)의 유형은 동일하다. 마지막으로 프로세서가 명령들을 수신하면 프로세서는 팁의 정보에 의존하여 그리고 지시된 바와 같이 이미지들을 프로세싱할 수 있다. 스캐너 디바이스 외부에 제어기를 갖는 것의 하나의 이점은 제어기가 스캐너 디바이스와 독립적으로 수정될 수 있고 예컨대, 인터넷을 통해 수정될 수 있다는 것이다. 다른 이점은 제어기가 스캐너 디바이스에 존재할 필요가 없고, 이에 따라 스캐너 디바이스 자체가 더 콤팩트하게 만들어질 수 있다는 것이다. 또한, 제어기는 프로세서에 지시할 때 열을 생성하기 때문에 스캐너 디바이스는 또한 더 적은 열을 생성하여 더 적은 전력을 생성한다. 이는 예컨대, 배터리에 의해 전력이 공급되고 그리고/또는 스캐너 디바이스가 무선 모드에서 동작하도록 구성될 때 유리할 수 있다.
다른 바람직한 실시예에서, 제어기는 스캐너 디바이스에 통합된다. 제어기가 스캐너 디바이스에 있게 하는 것의 하나의 이점은 (예컨대, 방금 설명된 실시예와 비교하여) 제어기로부터 프로세서로의 통신 링크가 감소된다는 것이며, 이는 프로세서에 대한 명령들이 프로세서에 효율적으로 송신될 수 있음을 의미한다.
프로세서(들)
일 실시예에서, 프로세서가 스캐너 디바이스에 통합된다. 이 실시예에서, 프로세서는 그 후 스캐너 디바이스에서 이미지 센서에 의해 획득된 이미지들을 프로세싱된 데이터로 프로세싱하도록 구성된다. 프로세서는 이미지들에 기초하여, 3D 기하학적 구조에 대한 데이터 및 오브젝트의 텍스처에 대한 데이터의 형태로 데이터를 유도할 수 있다.
프로세싱된 데이터 또는 유도된 데이터는 공간 도메인에 배포할 필요가 없을 수 있다. 예컨대, 프로세싱된 데이터는 부분적으로 공간 도메인에 있고 부분적으로 시간 도메인에 있을 수 있다. 프로세싱된 데이터의 추가 프로세싱은 그 후 프로세싱된 데이터를 순수 공간 도메인 데이터로 변환하기 위해 적용될 수 있다. 일 실시예에서, 프로세싱된 데이터는 데이터 3D 기하학적 구조이고, 여기서 설명된 바와 같이, 이는 공간 도메인 또는 시간 도메인, 또는 이들의 혼합의 프로세싱된 데이터일 수 있다.
스캐너 디바이스에 프로세서를 통합하는 것의 이점은, 더 적은 데이터가 스캐너 디바이스 그 자체에 의해 송신될 필요가 있다는 것이다. 따라서, 외부 프로세싱 디바이스로 데이터를 전달하는 무선 모듈의 부하를 감소시키기 위해, 스캐너 디바이스 상에서 가능한 많은 데이터를 프로세싱하는 것이 유리하다.
핸드헬드 디바이스들 상에서 이미지들을 프로세싱하기 위한 다양한 프로세서(들)가 알려져 있지만, 이를테면, 강도들을 비교하거나 보다 일반적으로 곱셈 및/또는 덧셈과 같은 연산들을 수행하기 위한 다소 단순한 프로세싱을 위해, FPGA(Field-Programmable Gate Array) 프로세서가 요구된다. 따라서, 바람직한 실시예에서, 프로세서는 FPGA 프로세서를 포함한다.
가장 바람직한 실시예에서, 프로세서는 추가로 프로세싱된 데이터를 압축하도록 구성된다. 이는 또한, 스캐너 디바이스의 무선 모듈이 프로세서로부터 압축된 데이터의 형태로 프로세싱된 데이터를 수신하고 압축된 데이터의 형태로 프로세싱된 데이터를 무선으로 송신하는 것을 가능하게 할 수 있다. 따라서, 일부 실시예들에서, FPGA 프로세서는 데이터를 프로세싱 및 압축한다.
일 실시예에서, 스캐너 디바이스는 프로세서로부터 프로세싱된 데이터를 수신하고 프로세싱된 데이터를 외부 프로세싱 디바이스로 무선으로 송신하는 무선 모듈을 포함한다. 무선 모듈이 프로세서로부터 프로세싱된 데이터를 수신하기 위해, 프로세서는 프로세싱된 데이터를 무선 모듈로 송신하도록 구성된다.
다른 실시예에서, 스캐너 디바이스 상에서의 무선 모듈로의 데이터 송신은 프로세서, 바람직하게는 RISC(reduced instruction set computer) 아키텍처를 포함하는 CPU(central processing unit)에 의해 수행된다. 예컨대, 프로세싱된 데이터를 무선 모듈로 송신하기 위해, 프로세서는 이를테면, 32비트 또는 64비트 명령들에 기초한 ARM(Advanced RISC Machines) 프로세서의 형태일 수 있다.
즉, 다른 실시예에서, 프로세서는 ARM 프로세서를 포함한다. ARM 프로세서는 FPGA 프로세서와 상이하며, 2개의 유형들의 프로세서들이 상이한 작업들을 위해 설계된다. 따라서, 가장 바람직한 실시예에서, 프로세서는 FPGA 프로세서 및 ARM 프로세서 둘 모두를 포함한다.
일부 실시예들에서, 프로세서는 스캐너 디바이스 외부, 예컨대, 외부 프로세싱 디바이스 상에 로케이팅된다.
스캐너 디바이스 외부에 프로세서를 두는 것의 이점은 프로세서가 스캐너 디바이스 그 자체에 있을 필요가 없다는 것이다. 따라서 이는 스캐너 디바이스의 무게 및 크기를 감소시킬 수 있다.
다른 실시예들에서, 스캐닝 시스템은 오브젝트의 3D-모델을 생성하도록 구성된 프로세서를 더 포함하며, 여기서 3D-모델은 프로세싱된 데이터에 기초하여 그리고 인식 컴포넌트에 의해 인식된 스캐닝-팁의 유형에 따라 생성되고, 3D-모델은 3D 기하학적 구조에 대한 제1 데이터에 기초하여 생성되지만, 3D-모델은 3D 기하학적 구조에 대한 제2 데이터에 기초하여 생성되지 않거나, 또는 3D-모델은 3D 기하학적 구조에 대한 제2 데이터에 기초하여 생성되지만, 3D-모델은 3D 기하학적 구조에 대한 제1 데이터에 기초하여 생성되지 않는다.
이러한 프로세서는 외부 프로세싱 디바이스 상에 로케이팅되는 것이 바람직하다. 그러나 또한, 일부 실시예들에서, 스캐너 디바이스 상에 로케이팅된다.
일 실시예에서, 3D-모델이 3D 기하학적 구조에 대한 제2 데이터에 기초하여 생성되지 않을 때, 3D 기하학적 구조에 대한 제2 데이터가 3D 기하학적 구조에 대한 제1 데이터와 비교되고 이에 의해 오브젝트의 텍스처에 대한 제2 데이터가 3D-모델과 매칭된다.
다른 실시예에서, 3D-모델이 3D 기하학적 구조에 대한 제1 데이터에 기초하여 생성되지 않을 때, 3D 기하학적 구조에 대한 제1 데이터가 3D 기하학적 구조에 대한 제2 데이터와 비교되고 이에 의해 오브젝트의 텍스처에 대한 제1 데이터가 3D-모델과 매칭된다.
단지 3D 기하학적 구조에 대한 제1 또는 제2 데이터를 기하학적 구조에 대한 제2 또는 제1 데이터와 비교하고 3D-모델을 생성하지 않음으로써, 데이터 프로세싱은 프로세싱 속도를 증가시키고 데이터 전달을 감소시킴으로써 최적화된다.
스캐닝-팁들 및 인식
엘리먼트
본 발명에 따르면, 복수의 유형들의 스캐닝-팁들 각각은 복수의 유형들의 스캐닝-팁들 각각과 상이한 조명 모드에서 오브젝트에 광을 제공하도록 구성된다.
오브젝트에 광을 제공하는 것은 일 실시예에서, 광이 스캐너 디바이스에서 생성되고 스캐닝-팁으로 지향되고 미러를 통해 오브젝트로 재지향될 수 있도록 스캐닝-팁에 로케이팅되는 광학 엘리먼트를 통해, 예컨대, 미러를 통해 이루어진다. 스캐너 디바이스에서 생성된 광은 스캐너 디바이스 내부 및 스캐닝-팁 외부에 상주하는 광원으로부터 생성될 수 있다.
오브젝트에 광을 제공하는 것은 다른 실시예에서, 스캐닝-팁으로부터 직접 이루어질 수 있어서, 광이 스캐닝-팁에서 생성될 수 있다. 스캐닝-팁에서 생성된 광은 스캐닝-팁 내부에 및/또는 스캐닝-팁 상에 상주하는 광원으로부터 생성될 수 있다. 일부 실시예들에서, 스캐닝-팁 내부 및/또는 스캐닝-팁 상의 광원은 복수의 LED(light emitting diode)들과 같은 복수의 광원들일 수 있다.
또한, 본 발명에 따르면, 스캐너 디바이스는 장착 인터페이스에 장착된 스캐닝-팁의 유형을 인식하기 위한 인식 컴포넌트를 포함한다.
일 실시예에서, 인식 엘리먼트는 복수의 유형들의 스캐닝-팁들 각각 상의 통합된 메모리로부터 인식 데이터를 판독하도록 구성된 메모리 판독기를 포함한다.
다른 실시예에서, 인식 컴포넌트에 의해 인식된 바와 같은 스캐닝-팁의 유형은 인식 데이터의 형태이고, 스캐너 디바이스는 인식 데이터를 제어기에 송신하도록 구성된다.
스캐닝-팁들을 위한 조명
모드
일 실시예에서, 스캐닝-팁의 일 유형에 대한 조명 모드는 광의 파장에 의해 정의된다. 예컨대, 하나의 조명 모드는 백색 광 조명으로서 정의될 수 있으며, 여기서 백색 광은 400nm 내지 700nm의 파장 도메인의 광을 지칭한다. 다른 조명 모드는 예컨대, 850nm 주위의 파장을 갖는 적외선 광 조명으로서 정의될 수 있다. 제3 조명 모드는 형광 광 조명(fluorescent light-illumination)으로서 정의될 수 있으며, 여기서 415-405 nm 주위의 청색 광 또는 UV 광은 조명된 치아들로부터 형광 반응을 자극하는데 사용될 수 있다.
다른 실시예에서, 일 유형의 스캐닝-팁에 대한 조명 모드는 광의 강도에 의해 정의된다.
또 다른 실시예에서, 일 유형의 스캐닝-팁에 대한 조명 모드는 광의 시야에 의해 정의된다.
일부 실시예들에서, 일 유형의 스캐닝-팁에 대한 조명 모드는 광의 패턴에 의해 정의된다.
일부 실시예들에서, 일 유형의 스캐닝-팁에 대한 조명 모드는 광의 상이한 파장들에 의해 정의되고, 이에 의해 일 유형의 스캐닝-팁은 광의 상이한 파장들 사이에서 스위칭된다. 예컨대, 제1 유형의 스캐닝-팁은 오브젝트에 백색 광과 적외선 광 둘 모두를 제공하도록 구성될 수 있고, 제2 유형의 스캐닝-팁은 조명된 오브젝트로부터 형광 반응을 자극하기 위해 백색 광 및 청색 광/UV 광을 둘 모두를 제공하도록 구성될 수 있다. 본원에서 개시된 스캐닝 시스템과 결합된 이러한 스캐닝-팁들의 하나의 이점은 3D-모델이 이러한 팁들에 의해 제공된 바와 같은 3D 기하학적 구조에 기초하여 생성될 필요가 없다는 것이다. 3D-모델은 상이한 파장들의 광 사이를 스위칭하지 않는 팁에 의해 제공된 데이터에 기초하여 이미 생성되었을 수 있다.
사용자 인터페이스
제2 양상의 일 실시예에서, 사용자에 의해, 상기 스캐닝을 위한 옵션들 중 하나 이상을 수신하는 단계는 사용자가 사용자 인터페이스에서 상기 옵션들 중 하나 이상을 클릭함으로써 제공된다.
제2 양상의 제2 실시예에서, 상기 스캐닝을 위한 옵션들 중 하나는 무치아 스캐닝과 관련된다. 이 옵션을 선택함으로써, 방법은 본 발명의 제2 양상에 따라, 스캐닝-팁이 전체 턱의 상당 부분(예컨대, 턱의 50%)을 커버하게 적응되도록, 큰 시야로 스캐닝하도록 구성되는 제1 스캐닝-팁을 먼저 장착하도록 사용자에게 지시할 수 있다. 이러한 스캐닝-팁의 사용은 3D 등록(registration)이 전체 턱 구조에 의존하도록 규정한다. 본 발명의 제2 양상에 따른 방법은 그 후, 종래의 구강내 스캐닝-팁과 같이 작은 시야로 스캐닝하도록 구성되는 제2 스캐닝-팁을 장착하도록 사용자에게 지시할 수 있다. 이러한 스캐닝-팁의 사용은 3D 등록이 전체 구조의 일부에만 의존하도록 규정한다.
통상적으로, 종래의 스캐닝-팁으로 무치아 환자를 스캐닝할 때, (전체 구조의 부분에만 의존하는) 3D 등록은 스캐닝 동안 이리저리 시프트되는 비고정 치은(unbound gingiva)으로 인해 손상될 수 있다. 그러나 제1 스캐닝-팁을 사용한 다음 제2 스캐닝-팁으로 변경함으로써, 제2 스캐닝-팁과 관련된 데이터의 3D 등록은 제1 스캐닝-팁이 제2 스캐닝-팁과 관련된 데이터의 3D 등록에 대한 기준을 제공할 수 있기 때문에 개선될 수 있다. 또한, 위에서 설명된 바와 같이 그리고 본 발명의 제2 양상에 따라, 제1 스캐닝-팁을 사용한 다음 제2 스캐닝-팁으로 변경함으로써, 등록 에러들이 수정할 필요가 없기 때문에 프로세싱 시간이 또한 감소된다.
일부 실시예들에서, 제1 스캐닝-팁은 제2 스캐닝-팁과 비교하여 더 큰 시야를 갖는 스캐닝을 위해 구성되며, 이에 의해 3D-표현의 제1 부분은 기준 모델과 매칭되는 3D-표현의 제2 부분에 대한 기준 모델로서 사용된다. 방금 위에서 설명된 바와 같이, 이러한 실시예들은 3D 등록을 개선한다.
이전에 설명된 바와 같이, 제1 스캐닝-팁과 관련된 스캐너 디바이스로부터의 제1 정보를 수신하는 단계 및/또는 제2 스캐닝-팁과 관련된 스캐너 디바이스로부터의 제2 정보를 수신하는 단계는 스캐너 디바이스에 장착될 때 스캐닝-팁의 유형을 인식하는 스캐너 디바이스의 인식 컴포넌트로부터 제공된다.
부가적으로 및/또는 대안적으로, 제1 스캐닝-팁과 관련된 스캐너 디바이스로부터의 제1 정보를 수신하는 단계는 제1 스캐닝-팁의 시야에서 제1 스캐닝-팁의 적어도 부분의 시각적 인식으로부터 제공되고 그리고/또는 제2 스캐닝-팁과 관련된 스캐너 디바이스로부터의 제2 정보를 수신하는 단계는 제2 스캐닝-팁의 시야에서 제2 스캐닝-팁의 적어도 부분의 시각적 인식으로부터 제공된다.
본 발명의 제2 양상의 바람직한 실시예에서, 제1 스캐닝-팁을 제2 스캐닝-팁으로 교체하기 위한 명령들을 디스플레이하는 단계는 사용자로부터의 확인 입력에 기초하고, 확인 입력은 생성된 바와 같은 3D-표현의 제1 부분이 충분하다는 것을 확인하는 정보를 포함한다. 예컨대, 사용자는 사용자 인터페이스에서 버튼을 클릭할 수 있다. 버튼은 사용자가 3D-표현이 충분하다고 결정했음을 표시하는 텍스트를 포함할 수 있다. 또한, 버튼은 예컨대, 사용자가 이제 프로세스의 다음 절차를 진행할 준비가 되었음을 표시하고 이에 따라 "다음" 버튼을 누를 수 있다. 입력이 제공되면, 사용자는 제1 스캐닝-팁을 제2 스캐닝-팁으로 교체하는 다음 단계로 안내된다. 본원에서 개시된 사용자로부터의 확인 입력은, 방법이 어느 단계에 있는지 결정될 수 있도록 그리고 컴퓨터 구현이 다음 단계를 계속할 수 있도록 사용자가 적어도 컴퓨터 구현 방법에 대한 입력을 제공함으로써 3D-표현을 제공하는 프로세스를 변경한다.
본 발명의 제2 양상의 보다 바람직한 실시예에서, 충분한 것으로 확인된 바와 같은 3D-표현의 제1 부분은 시간이 지남에 따라 사용자, 및/또는 복수의 상이한 사용자들로부터 수집되고, 그리하여 충분한 것으로 확인된 바와 같은 이력적 3D-표현들을 형성하고, 이에 의해 제1 스캐닝-팁을 제2 스캐닝-팁으로 교체하기 위한 명령들을 디스플레이하는 단계는 자동화되고 충분한 것으로 확인된 바와 같은 이력적 3D-표현들에 기초하는, 여기서 설명된 바와 같이 프로세스를 자동화함으로써, 프로세스가 최적화되어서, 특히 최종 3D-표현을 생성하는 프로세스가 시간적으로 감소되고 더 신뢰할 수 있게 된다.
본 발명의 제2 양상의 가장 바람직한 실시예에서, 충분한 것으로 확인된 바와 같은 이력적 3D-표현들은 생성된 바와 같은 3D-표현이 충분한 때를 결정하도록 구성된 알고리즘에 대한 입력으로서 사용되고, 여기서 알고리즘은 이력적 3D-표현들의 평균화에 기초하고 그리고/또는 알고리즘은 기계 학습 및/또는 인공 지능에 기초한다.
예 1 ― 스캐닝 시스템 및 그의 동작
모드
도 1은 본 발명에 따른 스캐닝 시스템(1)의 예를 도시한다. 도 1은 특히 오브젝트를 스캐닝하기 위한 스캐닝 시스템(1)을 도시한다. 스캐닝될 오브젝트는 도시되지 않는다. 스캐닝 시스템은 먼저 스캐너 디바이스(2)를 포함한다. 스캐너 디바이스(2)는 이미지들을 획득하기 위한 이미지 센서(3); 복수의 유형들의 스캐닝-팁들(5a, 5b, 5c) 중 적어도 하나를 분리 가능하게 장착하기 위한 장착 인터페이스(4)를 포함하고, 복수의 유형들(5a, 5b, 5c)의 스캐닝-팁들 각각(5a 또는 5b 또는 5c)은 복수의 유형들의 스캐닝-팁들(5a, 5b, 5c) 각각과 상이한 조명 모드에서 오브젝트에 광을 제공하도록 구성된다. 스캐너 디바이스는 장착 인터페이스(4)에 장착된 스캐닝-팁(5a 또는 5b 또는 5c)의 유형을 인식하기 위한 인식 컴포넌트(6)를 더 포함한다. 스캐닝 시스템(1)은 둘째로, 이미지 센서에 의해 획득된 이미지들을 프로세싱된 데이터로 프로세싱하도록 구성된 프로세서(7)를 포함한다. 스캐닝 시스템(1)은 셋째로, 인식 컴포넌트(6)에 의해 인식된 스캐닝-팁(5a 또는 5b 또는 5c)의 유형에 따라 프로세서(7)의 동작을 제어하도록 구성된 제어기(8)를 포함한다.
제어기(8)는 스캐너 디바이스(2)에 이를테면, 스캐너 디바이스(2)의 스캐너 하우징(10) 내부에 스캐너 디바이스(2) 외부에 로케이팅할 수 있는데 이를테면, 또는 랩 톱(11)으로서 도시된 외부 프로세싱 디바이스(11) 상에 로케이팅된다.
대안적으로, 제어기(8)는 스캐너 디바이스(2) 내부에 그리고 스캐너 디바이스(2) 외부에 로케이팅될 수 있다. 예컨대, 제어기(8)의 제1 부분은 스캐너 하우징(10)에 로케이팅되고 제어기(8)의 제2 부분은 랩 톱(11)에 로케이팅된다.
제어기(8)가 스캐너 디바이스(2)에 로케이팅될 때, 제어기(8)는 PCB(printed circuit board)(9)을 통해 스캐너 디바이스(2)의 프로세서(7)와 통신한다. PCB(9)는 제어기(8)와 프로세서(7) 사이에서 데이터와 제어 명령들을 앞뒤로 송신한다.
제어기가 스캐너 디바이스(2)의 외부에 로케이팅될 때, 외부 프로세싱 디바이스(11)는 적어도 통신 모듈(12)을 통해 스캐너 디바이스의 프로세서(7)와 통신한다. PCB(9)는 또한 스캐너 디바이스(2), 즉 프로세서(7)와 외부 프로세싱 디바이스(11), 즉 제어기(8) 사이의 통신에 수반될 수 있다. 예컨대, 통신 모듈(12)은 스캐너 디바이스(2)와 외부 프로세싱 디바이스(11) 사이에서 데이터 및 제어 명령들을 앞뒤로 송신하도록 구성된, 예컨대, USB 케이블 또는 이더넷 케이블을 포함하는 유선 통신 모듈(12)일 수 있다. 대안적으로, 통신 모듈(12)은 예컨대, 스캐너 디바이스(2)와 외부 프로세싱 디바이스(11) 사이에서 데이터 및 제어 명령들을 앞뒤로 무선으로 송신하도록 구성된 무선 통신 모듈(12)일 수 있다.
이 예에서 프로세서(7)는 스캐너 디바이스(2)에 통합된다. 그러나 또한, 이 예에서 제어기(8)는 스캐너 디바이스(2)의 외부에만 로케이팅된다.
제어기(8)는 추가로, 제1 유형의 스캐닝-팁이 장착되고 인식될 때 프로세서(7)가 제1 유형의 스캐닝-팁 예컨대, 5(a)에 대응하는 제1 프로세싱-모드에서 동작하도록 제어되게 프로세서(7)를 제어하도록 구성된다.
이는 다음의 방식으로 작동한다. 제1 유형의 스캐닝-팁(5(a))은 백색 광을 사용하여 치아들의 구강내 스캐닝을 위한 것이며, 백색 광은 스캐너 디바이스(2)에 상주하는 백색 광원에 의해 방출된다. 제1 유형의 스캐닝-팁(5(a))은 스캐닝-팁 내부에 반사 표면을 갖는 스캐닝-팁(5(a))의 원위 단부에 로케이팅된 미러를 포함하여서, 미러가 백색 광원으로부터 광을 수신할 때 스캐닝-팁(5(a))은 제1 조명 모드에서 오브젝트에 광을 제공한다. 제1 유형의 스캐닝-팁(5(a))을 스캐너 디바이스(2)에 장착함으로써, 인식 컴포넌트(6)는, 어떤 유형의 스캐닝-팁이 스캐너 디바이스(2)에 장착되었는지를 인식 컴포넌트(6)가 적어도 판독하도록 제1 유형 스캐닝-팁(5(a)) 상의 통합된 메모리로부터 인식 데이터를 판독하도록 구성된 메모리 판독기를 포함한다. 인식 컴포넌트(6)에 의해 인식된 바와 같은 스캐닝-팁의 유형 ― 여기에서 5(a) ― 은 인식 데이터의 형태이다. 이 인식 데이터는 무선 모듈(12)을 통해 외부 프로세싱 디바이스(11)에 송신된다. 제어기(8)는 이제 인식 데이터를 수신한다. 그 입력, 즉 인식 데이터에 기초하여, 제어기(8)는 무선 모듈(12)을 통해 스캐너 디바이스(2), 보다 구체적으로 프로세서(7)에 제어 명령의 제1 세트를 송신한다. 이에 의해, 프로세서(7)는 제1 유형의 스캐닝-팁(5(a))에 대응하는 제1 프로세싱 모드에서 동작하도록 지시된다. 제1 프로세싱 모드에 있을 때, 프로세서(7)는 제1 조명 모드로 즉, 백색 광으로 획득된 제1 복수의 이미지들을 프로세싱하여 프로세싱된 데이터를 3D 기하학적 구조에 대한 제1 데이터 및 오브젝트의 텍스처에 대한 제1 데이터의 형태로 제공한다. 3D 기하학적 구조에 대한 데이터는 반드시 공간 좌표들의 형태는 아니더라도 적어도 공간 좌표들의 형태로 변환 가능한 3D 포지션들, 즉 공간의 포인트들과 관련된다. 오브젝트의 텍스처에 대한 데이터는 오브젝트의 표면의 컬러와 관련된다. 프로세싱된 데이터는 그 후 무선 모듈(12)을 통해 외부 프로세싱 디바이스(11)에 송신된다. 프로세싱 디바이스는 오브젝트의 3D-모델(13)을 생성하도록 구성된 프로세서를 포함하며, 여기서 3D-모델(13)은 인식 컴포넌트(6)에 의해 인식된 스캐닝-팁의 유형에 관계없이 프로세싱된 데이터에 기초하여 생성된다. 3D-모델(13)은 최종적으로 외부 프로세싱 디바이스(11)의 디스플레이(14) 상에 디스플레이되며, 여기서는 랩 톱(11)의 화면(14) 상에서 보여진다.
또한 추가로, 제어기(8)는 제2 유형의 스캐닝-팁이 장착되고 인식될 때, 프로세서(7)가 제2 유형의 스캐닝-팁 예컨대, 5(b) 또는 5(c)에 대응하는 제2 프로세싱 모드에서 동작하도록 제어되게 프로세서(7)를 제어하도록 구성된다.
이는 다음의 방식으로 작동한다. 먼저 제1 유형의 스캐닝-팁(5(a))이 제2 유형의 스캐닝-팁 ― 이 예에서는 5(c)로 선택됨 ― 으로 대체된다. 이는 제1 유형의 스캐닝-팁(5(a))을 장착해제한 다음 제2 유형의 스캐닝-팁(5(c))를 장착함으로써 수행된다.
제2 유형의 스캐닝-팁(5(c))은 스캐닝-팁(5(c))이 제2 조명 모드 ― 제2 조명 모드는 제1 조명 모드와 상이함 ― 에서 오브젝트에 광을 제공하도록 적외선 광을 사용하여 치아들의 구내 스캐닝하기 위한 것이며, 스캐닝-팁(5(c))의 원위 단부에 상주하는 복수의 적외선 광원들에 의해 적색 광이 방출된다. 제2 유형의 스캐닝-팁(5(c))을 스캐너 디바이스(2)에 장착함으로써, 인식 컴포넌트(6)는,어떤 유형의 스캐닝-팁이 스캐너 디바이스(2)에 장착되었는지를 인식 컴포넌트(6)가 적어도 판독하도록 제2 유형 스캐닝-팁(5(c)) 상의 통합된 메모리로부터 인식 데이터를 판독하도록 구성된 메모리 판독기를 포함한다. 인식 컴포넌트(6)에 의해 인식된 바와 같은 스캐닝-팁의 유형 ― 여기에서 5(c) ― 은 인식 데이터의 형태이다. 이 인식 데이터는 무선 모듈(12)을 통해 외부 프로세싱 디바이스(11)에 송신된다. 제어기(8)는 이제 인식 데이터를 수신한다. 그 입력, 즉 인식 데이터에 기초하여, 제어기(8)는 무선 모듈(12)을 통해 스캐너 디바이스(2), 보다 구체적으로 프로세서(7)에 제어 명령의 제2 세트를 송신한다. 이에 의해, 프로세서(7)는 제2 유형의 스캐닝-팁(5(c))에 대응하는 제2 프로세싱 모드에서 동작하도록 지시된다. 제2 프로세싱 모드에 있을 때, 프로세서(7)는 제2 조명 모드로 즉, 적외선 광으로 획득된 제2 복수의 이미지들을 프로세싱하여 프로세싱된 데이터를 3D 기하학적 구조에 대한 제2 데이터 및 오브젝트의 텍스처에 대한 제2 데이터의 형태로 제공한다. 제2 프로세싱 모드는 제1 프로세싱 모드와 상이하다. 3D 기하학적 구조에 대한 데이터는 반드시 공간 좌표들의 형태는 아니더라도 적어도 공간 좌표들의 형태로 변환 가능한 3D 포지션들, 즉 공간의 포인트들과 관련된다. 오브젝트의 텍스처에 대한 데이터는 오브젝트의 내부 구조의 컬러와 관련된다. 프로세싱된 데이터는 그 후 무선 모듈(12)을 통해 외부 프로세싱 디바이스(11)에 송신된다. 프로세싱 디바이스는 오브젝트의 3D-모델(13)을 생성하도록 구성된 프로세서를 포함하며, 여기서 3D-모델(13)은 프로세싱된 데이터에 기초하여 그리고 여기서, 인식 컴포넌트(6)에 의해 인식된 스캐닝-팁의 유형에 기초하여 생성된다. 이는, 제2 유형의 스캐닝-팁(5(c))이 인식되고 이 팁이 내부 구조를 레코딩하도록 구성된 적외선 광을 방출하기 때문에, 외부 프로세싱 디바이스(11)에서의 3D-모델 생성은 치아들의 내부 구조들로 백색 광을 사용하여 생성된 바와 같은 3D-모델(13)을 업데이트한다는 것을 의미한다.
업데이트된 3D-모델(13)은 최종적으로 외부 프로세싱 디바이스(11)의 디스플레이(14) 상에 디스플레이되며, 여기서는 랩 톱(11)의 화면(14) 상에서 보여진다.
예 2 ―
구강내
스캐닝
모드에서의
프로세싱
모드
이 예에서, 스캐닝 시스템(1)은 치아의 적어도 일부의 구강내 스캐닝을 수행하도록 구성된다.
또한, 이 예에서, 스캐닝 시스템(1), 보다 구체적으로 프로세서(7)는 그에 대한 스캐닝-팁(5a)을 사용하여 구강내 스캐닝에 대응하는 제1 프로세싱 모드에서 동작하도록 구성된다.
이 제1 프로세싱 모드는 전체 광학 시야를 커버하고 스캐너 디바이스(2)로부터의 광을 스캐닝될 오브젝트를 향해 지향시키는 원위 단부의 미러를 갖는 구강내 팁(5(a))을 장착함으로써 개시된다. 장착된 구강내 팁(5(a))이 도 2에서 도시된다. 이 팁은 환자의 입 내로 삽입되도록 구성된다.
이 예에서, 프로세서(7)는 초점 렌즈가 조정되는 동안 이미지 센서(3)에 의해 획득된 이미지들(15)을 프로세싱된 데이터(16)로 프로세싱한다. 초점 렌즈 조정은 특정 스팬 길이로 한정되며, 여기서 초점 렌즈는 오브젝트 상의 투영된 패턴의 복수의 2D 이미지들(15)을 레코딩하는 동안 앞뒤로 이동된다. 프로세싱된 데이터(16)는 복수의 2D 이미지들(15)을 프로세싱함으로써 추출된다.
스캐닝-팁(5(a))이 스캐너 디바이스(2)에 장착될 때, 스캐너 디바이스(2)는 스캐닝-팁(5(a))의 내부 메모리에 저장된 팁의 식별 번호(17) 형태의 인식 데이터(17))을 판독한다. 식별 번호(17)는 외부 연결 컴퓨터(11) 상에 로케이팅된 제어기(8)로 포워딩된다. 스캐너 팁 식별 번호(17)에 기초하여, 제어기(8)는 오브젝트에 관하여 백색 광 조명 패턴으로 레코딩된 2D 이미지들(15)의 연속 시퀀스를 프로세싱하도록 스캐너 디바이스(2) 상의 프로세서(7)에 지시한다. 백색 광은 각각의 2D 이미지로부터, 3D 기하학적 구조에 대한 데이터 및 텍스처에 대한 데이터 둘 모두가 유도될 수 있는 것을 가능하게 한다. 즉, 프로세싱된 데이터(16)는 3D 기하학적 구조에 대한 데이터의 형태이고 텍스처에 대한 데이터의 형태이다.
따라서, 스캐너 디바이스(2) 상의 프로세서(7)는 복수의 2D 이미지들(15)의 서브세트를 프로세싱하여 서브-스캔이라 불리는 결합된 깊이 프레임 및 컬러 프레임을 구성한다. 이 예에서, 프로세서(7)로부터의 프로세싱된 데이터(16)는 이에 따라 프로세싱 모드에 의존한다.
서브-스캔의 프로세싱된 데이터(16)는 데이터 패키지로서 3D-모델(13)의 생성을 담당하는 외부 연결 컴퓨터(11) 상의 스캐닝 애플리케이션에 전송된다.
스캐닝 애플리케이션의 주요 작업은 데이터 패키지들의 개별 패치들을 프로세싱하고 이들을 완전한 또는 글로벌 스캔으로 재구성하는 것이다. 이 작업은 2개의 주요 루틴들로 분해될 수 있다:
등록: 서브-스캔의 로케이션은 글로벌 스캔과 관련하여 로케이팅된다.
스티칭: 서브-스캔은 위에서 등록된 바와 같은 글로벌 스캔에 융합된다.
인식되는 스캐닝-팁 식별 번호(17)로부터, 프로세서(7)는 프로세싱된 데이터를 송신하기 전에 그 프로세싱된 데이터의 후-처리(post-treatment)를 수행할 수 있다. 예컨대, 프로세싱된 데이터(16) 또는 그 부분은 송신되기 전에 프로세서(7)에 의해 미러링될 수 있다. 이 후, 등록 및 스티칭은 외부 프로세싱 디바이스(11) 상에서 수행될 수 있다. 대안적으로, 프로세싱된 데이터는 외부 프로세싱 디바이스(11) 상에서 미러링될 수 있다.
예 3 ― 이어 스캐닝
모드에서의
프로세싱
모드
이 예에서, 스캐닝 시스템(1)은 귀의 적어도 일부의 인-이어 스캐닝(in-ear scanning)을 수행하도록 구성된다. 또한, 이 예에서, 스캐닝 시스템(1), 보다 구체적으로 프로세서(7)는 그에 대한 스캐닝-팁(5b)을 사용하여 인-이어 스캐닝에 대응하는 제2 프로세싱 모드에서 동작하도록 구성된다.
이 제2 프로세싱 모드는 이어-팁(5(b))을 장착하여 개시된다. 이 스캐닝-팁(5(b))은 개방되고 전향적(forward-looking)이며, 소형 미러가 확장된 암에 배치되어 있고, 소형 미러는 광학 시야를 부분적으로만 커버하고 스캐너 디바이스(2)로부터의 광의 일부를 스캐닝될 오브젝트를 향해 지향시키는 원위 단부에 있다. 장착된 인-이어 팁(5(b))이 도 3에서 도시된다. 이 스캐닝-팁(5(b))은 환자의 귀 내로 삽입되도록 구성된다.
이 예에서, 프로세서(7)는 초점 렌즈가 조정되는 동안 이미지 센서(3)에 의해 획득된 이미지들(15)을 프로세싱된 데이터(16)로 프로세싱한다. 초점 렌즈 조정은 특정 스팬 길이로 한정되며, 여기서 초점 렌즈는 오브젝트 상의 투영된 패턴의 복수의 2D 이미지들(15)을 레코딩하는 동안 앞뒤로 이동된다. 프로세싱된 데이터(16)는 복수의 2D 이미지들(15)을 프로세싱함으로써 추출된다.
스캐닝-팁(5(b))이 스캐너 디바이스(2)에 장착될 때, 스캐너 디바이스(2)는 스캐닝-팁(5(b))의 내부 메모리에 저장된 팁(5(b))의 식별 번호(17) 형태의 인식 데이터(17))을 판독한다. 식별 번호(17)는 외부 연결 컴퓨터(11) 상에 로케이팅된 제어기(8)로 포워딩된다. 스캐너 팁 식별 번호(17)에 기초하여, 제어기(8)는 오브젝트에 관하여 백색 광 조명 패턴으로 레코딩된 2D 이미지들(15)의 연속 시퀀스를 프로세싱하도록 스캐너 디바이스(2) 상의 프로세서(7)에 지시한다. 백색 광은 각각의 2D 이미지로부터, 3D 기하학적 구조에 대한 데이터 및 텍스처에 대한 데이터 둘 모두가 유도될 수 있는 것을 가능하게 한다. 즉, 프로세싱된 데이터(16)는 3D 기하학적 구조에 대한 데이터의 형태이고 텍스처에 대한 데이터의 형태이다.
따라서, 스캐너 디바이스(2) 상의 프로세서(7)는 복수의 2D 이미지들(15)의 서브세트를 프로세싱하여 서브-스캔이라 불리는 결합된 깊이 프레임 및 컬러 프레임을 구성한다. 이 예에서, 프로세서(7)로부터의 프로세싱된 데이터(16)는 이에 따라 프로세싱 모드에 의존한다.
서브-스캔의 프로세싱된 데이터(16)는 데이터 패키지로서 3D-모델(13)의 생성을 담당하는 외부 연결 컴퓨터(11) 상의 스캐닝 애플리케이션에 전송될 수 있다.
스캐닝 애플리케이션의 주요 작업은 데이터 패키지들의 개별 패치들을 프로세싱하고 이들을 완전한 또는 글로벌 스캔으로 재구성하는 것이다. 이 작업은 2개의 주요 루틴들로 분해될 수 있다:
등록: 서브-스캔의 로케이션은 글로벌 스캔과 관련하여 로케이팅된다.
스티칭: 서브-스캔은 위에서 등록된 바와 같은 글로벌 스캔에 융합된다.
인식되는 스캐닝-팁 식별 번호(17)로부터, 프로세서(7)는 프로세싱된 데이터(16)의 포스트-프로세싱을 수행할 수 있다. 이러한 방식으로 포스트-프로세싱된 데이터(18)가 획득된다. 예컨대, 포스트-프로세싱된 데이터(18) 또는 그의 부분(18(a))은 예컨대, 프로세싱되기 이전에 프로세서(7)에 의해 미러링될 수 있다. 도 3은 포스트-프로세싱된 데이터(18(a))의 부분이 어떻게 부분적으로 미러링되는지 그리고 포스트-프로세싱된 데이터(18)에 존재하는 노이즈(18(b))가 프로세싱된 데이터(16)에서 제거된다는 것을 도시한다. 이 경우에, 프로세서(7)는 예 2에서 설명된 예와 상이하게 동작하고, 제어기(8)는 인식 컴포넌트(6)에 의해 인식된 스캐닝-팁(5a, 5b 또는 5c)의 유형에 따라 프로세서(7)의 동작을 제어하도록 구성된다. 이 후, 등록 및 스티칭은 외부 프로세싱 디바이스(11) 상에서 수행될 수 있다. 대안적으로, 프로세싱된 데이터는 외부 프로세싱 디바이스(11) 상에서 미러링되거나 부분적으로 미러링될 수 있다.
프로세싱 및/또는 포스트-프로세싱이 어디에서 발생하는지에 관계없이, 프로세싱된 데이터(16)는 특정 스캐닝-팁에 의존하여 프로세싱된다. 즉, 프로세싱된 데이터(16)의 일부를 반영하고 보정하기 위한 포스트-프로세싱에서 팁-특정 데이터 마스크가 적용될 수 있다. 보다 구체적으로, 스캐닝-팁 식별 번호(17)는 팁(5(b))이 스캐너 디바이스(2) 상에서 인식될 때 데이터 포스트-프로세싱 마스크로서 프로세서(7) 및/또는 스캐닝 애플리케이션에 의해 적용될 특정 반사 매트릭스와 연관될 수 있다.
예 4 ― 적외선
투조
스캐닝
모드에서의
프로세싱
모드
이 예에서, 스캐닝 시스템(1)은 적어도 적외선 광을 사용하여 치아의 적어도 일부의 구강내 스캐닝을 수행하도록 구성된다.
또한, 이 예에서, 스캐닝 시스템(1), 보다 구체적으로 프로세서(7)는 그에 대한 스캐닝-팁(5(c))을 사용하여 적어도 적외선 광으로 구강내 스캐닝에 대응하는 제2 프로세싱 모드에서 동작하도록 구성된다.
이 제2 프로세싱 모드는 전체 광학 시야를 커버하고 스캐너 디바이스(2)로부터의 광을 스캐닝될 오브젝트를 향해 지향시키는 원위 단부의 미러를 갖는 구강내 팁(5(c))을 장착함으로써 개시된다. 장착된 구강내 팁(5(c))이 도 4에서 도시된다. 이 팁은 환자의 입 내로 삽입되도록 구성된다. 또한, 스캐닝 디바이스(2)의 일 구성에서, 광은 스캐닝될 오브젝트를 투조(trans-illuminate)하도록 선택된다.
스캐닝-팁(5(c))이 스캐너 디바이스(2)에 장착될 때, 스캐너 디바이스(2)는 스캐닝-팁(5(c))의 내부 메모리에 저장된 팁(5(c))의 식별 번호(17) 형태의 인식 데이터(17))을 판독한다. 식별 번호는 외부 연결 컴퓨터(11) 상에 로케이팅된 제어기(8)로 포워딩된다. 스캐너 팁 식별 번호(17)에 기초하여, 제어기(8)는 오브젝트에 관하여 적외선 광 조명으로 레코딩된 2D 이미지들(15)의 연속 시퀀스를 프로세싱하도록 스캐너 디바이스(2) 상의 프로세서(7)에 지시한다. 이를 위해, 스캐너 디바이스(2)는 오브젝트로의 예컨대, 치아들 및 주위 치은으로의 적외선 광으로 오브젝트를 조명하도록 구성된다. 스캐닝-팁(5(c))은 적색 광이 잇몸 및 치아 재료를 통해 전파되어 내부로부터 치아를 조명하도록 구성된다. 적외선 광 조명은 스캐너 팁 식별 번호(17)에 기초하고 제어기(8)에 의해 제어된다. 즉, 제어기(8)가 스캐너 팁 식별 번호(17)를 수신하면, 제어기(8)는 부가적으로 적외선 광을 방출하도록 스캐너 디바이스(2)에 지시한다. 제어기로부터 팁(5(c))까지의 명령들(19)이 도 4에 도시된다. 또한, 제어기(8)는 부가적으로 백색 광을 방출하도록 스캐너 디바이스(2)에 지시한다.
이러한 방식으로, 이미지(15)의 규칙적 시퀀스가 백색 광 조명으로 레코딩된다. 그러나, 특정 시점에서, 백색 광 레코딩은 적외선 조명으로 단일 이미지(20)를 레코딩하도록 일시적으로 중단된다. 중단은 제어기(8)와 스캐너 디바이스(2) 사이의 스캔 데이터 피드백(21)에 기초하며, 피드백(21)은 또한 프로세서(7)로부터의 데이터(22)에 또한 기초한다. 프로세서(7)로부터의 데이터(22)는 예컨대, 적외선 이미지(19)의 2D 이미지 인덱스 번호일 수 있다. 인덱스 번호는 이미지들의 시퀀스(15)의 각각의 이미지에 대해 동적으로 결정될 수 있다.
또한, 제2 프로세싱 모드에 있을 때, 프로세서(7)는 3D 기하학적 구조에 대한 데이터 및 표면에 대한 텍스처에 대한 데이터 둘 모두를 유도하기 위해 백색 광 이미지를 프로세싱한다. 또한, 프로세서(7)는 오브젝트의 내부 구조의 텍스처에 대한 데이터를 유도하기 위해 단일 적외선 광 이미지를 프로세싱한다. 마지막으로, 프로세서는 오브젝트의 내부 구조의 텍스처에 대한 데이터를 3D 기하학적 구조에 대한 데이터와 상관시킨다.
이 예에서 스캐닝 애플리케이션은 적외선 이미지(15)를 3D-모델(13)의 대응하는 포지션과 상관시킨다.
예 5 ― 형광 스캐닝
모드에서의
프로세싱
모드
이 예에서, 스캐닝 시스템(1)은 적어도 형광 광을 사용하여 치아의 적어도 일부의 구강내 스캐닝을 수행하도록 구성된다.
또한, 이 예에서, 스캐닝 시스템(1), 보다 구체적으로 프로세서(7)는 그에 대한 스캐닝-팁(5(d))을 사용하여 적어도 형광 광으로 구강내 스캐닝에 대응하는 제2 프로세싱 모드에서 동작하도록 구성된다.
이 제2 프로세싱 모드는 전체 광학 시야를 커버하고 스캐너 디바이스(2)로부터의 광을 스캐닝될 오브젝트를 향해 지향시키는 원위 단부의 미러를 갖는 구강내 팁을 장착함으로써 개시된다. 장착된 구강내 팁(5(d))이 도 5에서 도시된다. 이 팁은 환자의 입 내로 삽입되도록 구성된다. 또한, 스캐닝 디바이스의 일 구성에서, 광은 스캐닝될 오브젝트에서 형광 재료를 자극시도록 선택된다.
스캐닝-팁(5(d))이 스캐너 디바이스(2)에 장착될 때, 스캐너 디바이스(2)는 스캐닝-팁(5(d))의 내부 메모리에 저장된 팁의 식별 번호(17) 형태의 인식 데이터(17))을 판독한다. 식별 번호(17)는 외부 연결 컴퓨터(11) 상에 로케이팅된 제어기(8)로 포워딩된다. 스캐너 팁 식별 번호(17)에 기초하여, 제어기(8)는 오브젝트에 관하여 백색 광 조명 패턴 및 청색 광 조명 패턴 둘 모두로 레코딩된 2D 이미지들(15)의 연속 시퀀스를 프로세싱하도록 스캐너 디바이스(2) 상의 프로세서(7)에 지시한다. 이를 위해, 스캐너 디바이스(2)는 광이 백색 광과 청색 광 사이에서 스위칭되는 교호적인 방식으로 오브젝트를 조명하도록 구성된다. 광의 스위칭은 스캐너 팁 식별 번호(17)에 기초하고 제어기(8)에 의해 제어된다.
즉, 제어기(8)가 스캐너 팁 식별 번호(17)를 수신할 때, 제어기(8)는 부가적으로 백색 광과 청색 광을 교호적인 방식으로 방출하도록 스캐너 디바이스(2)에 지시한다. 제어기로부터 팁(5(d))까지의 명령들(18)이 도 5에 도시된다.
이러한 방식으로, 하나 걸러 하나의 제2 이미지(23)는 깊이 정보 및 반사 컬러 정보와 연관된 정보를 포함하고 이러한 이미지들(23) 사이의 매 후속 이미지(24)는 방출된 형광 텍스처의 응답을 포함한다.
제2 프로세싱 모드에서, 프로세서(7)에는 백색 광 이미지 프레임의 깊이 정보가 후속 청색 광 이미지의 형광 텍스처에 첨부되도록 연속적인 백색 광 이미지(23) 및 청색 광 이미지(24)의 각각의 쌍을 함께 번들링하게 지시된다. 이는, 3D 기하학적 구조에 대한 프로세싱된 데이터(16)가 실시예 2와 비교하여 3D 기하학적 구조에 대한 덜 프로세싱된 데이터를 갖게 하지만, 반사된 컬러 텍스처 대신 방출된 형광 텍스처를 포함한다. 프로세싱된 데이터(16)는 데이터 패키지로서 3D-모델(13)의 생성을 담당하는 외부 연결 컴퓨터(11) 상의 스캐닝 애플리케이션에 전송된다.
이 예에서 스캐닝 애플리케이션은 3D-모델(13) 상의 특정 로케이션을 로케이팅하기 위해 3D 기하학적 구조에 대한 데이터만을 사용하여 3D-모델(13) 상에 형광 컬러 텍스처를 올바르게 오버레이한다.
예 6 ―
감소된
시야 스캐닝
모드에서의
프로세싱
모드
이 예에서, 스캐닝 시스템(1)은 감소된 시야를 사용하여 치아의 적어도 일부의 구강내 스캐닝을 수행하도록 구성된다.
또한, 이 예에서, 스캐닝 시스템(1), 보다 구체적으로 프로세서(7)는 그에 대한 스캐닝-팁(5(e))을 사용하여 적어도 감소된 시야로 구강내 스캐닝에 대응하는 제2 프로세싱 모드에서 동작하도록 구성된다.
이 제2 프로세싱 모드는 전체 광학 시야를 커버하고 스캐너 디바이스(2)로부터의 광을 스캐닝될 오브젝트를 향해 지향시키는 원위 단부의 미러를 갖는 스캐닝-팁(5(e))을 장착함으로써 개시된다. 장착된 구강내 팁(5(e))이 도 6에서 도시된다. 이 스캐닝-팁(5(e))은 환자의 입 내로 삽입되도록 구성된다. 스캐닝-팁의 시야는 예 2에서 설명된 스캐닝-팁(5(a))에 비해 감소될 수 있거나, 예 2에 설명된 스캐닝-팁(5(a))과 동일한 시야를 가질 수 있다.
스캐닝-팁이 스캐너 디바이스(2)에 장착될 때, 스캐너 디바이스(2)는 스캐닝-팁(5(e))의 내부 메모리에 저장된 팁의 식별 번호(17) 형태의 인식 데이터(17))을 판독한다. 식별 번호(17)는 외부 연결 컴퓨터(11) 상에 로케이팅된 제어기(8)로 포워딩된다. 스캐너 팁 식별 번호(17)에 기초하여, 제어기(8)는 예컨대, 감소된 시야로 레코딩된 2D 이미지들(15)의 연속 시퀀스를 프로세싱하도록 스캐너 디바이스(2) 상의 프로세서(7)에 지시한다.
위에서 설명된 바와 같이, 감소된 시야는 예 2에 설명된 스캐닝-팁(5(a))과 비교하여 감소된 시야를 갖는 스캐닝-팁에 기인할 수 있다. 그러나, 감소된 시야는 부가적으로 또는 대안적으로 프로세서(7)에 의해 정의될 수 있다. 예컨대, 프로세서(7)는 스캐닝-팁의 감소된 시야로 인해 반사된 광에 노출되지 않은 이미지들의 외부 부분(25)을 프로세싱하는 것을 회피하도록 제어기(8)에 의해 지시될 수 있다. 즉, 프로세서(7)는 감소된 깊이 및 컬러 서브-스캔을 구성하기 위해 복수의 이미지들 각각의 특정 부분(26)만을 프로세싱하도록 지시된다.
서브-스캔의 프로세싱된 데이터(16)는 최종적으로 데이터 패키지로서 3D-모델(13)의 생성을 담당하는 외부 연결 컴퓨터(11) 상의 스캐닝 애플리케이션에 전송된다.
예 7 ― 확대된 시야 스캐닝
모드에서의
프로세싱
모드
이 예에서, 스캐닝 시스템(1)은 확대된 시야를 사용하여 얼굴 또는 더 큰 오브젝트의 적어도 일부의 얼굴 스캐닝을 수행하도록 구성된다.
또한, 이 예에서, 스캐닝 시스템(1), 보다 구체적으로 프로세서(7)는 그에 대한 스캐닝-팁(5(f))을 사용하여 적어도 확대된 시야로 구강내 스캐닝에 대응하는 제2 프로세싱 모드에서 동작하도록 구성된다.
이 제2 프로세싱 모드는 도 7a에 장착된 것으로 도시된 바와 같은 스캐닝-팁(5(f))를 장착함으로써 개시된다. 팁(5(f))은 구강내 스캐닝과 비교하여 50mm 초과의 크기 및 10배 초과의 볼륨으로 스캔 영역을 증가시키기 위한 광학 엘리먼트를 포함한다. 따라서 스캐닝-팁의 시야는 예 2에 설명된 스캐닝-팁(5(a))과 비교하여 확대된다.
스캐닝-팁이 스캐너 디바이스(2)에 장착될 때, 스캐너 디바이스(2)는 스캐닝-팁(5(e))의 내부 메모리에 저장된 팁의 식별 번호(17) 형태의 인식 데이터(17))을 판독한다. 식별 번호(17)는 외부 연결 컴퓨터(11) 상에 로케이팅된 제어기(8)로 포워딩된다. 스캐너 팁 식별 번호(17)에 기초하여, 제어기(8)는 확대된 시야로 레코딩된 2D 이미지들(15)의 연속 시퀀스를 프로세싱하도록 스캐너 디바이스(2) 상의 프로세서(7)에 지시한다. 확대된 시야로 인해, 프로세서는 왜곡된 데이터를 수신한다. 도 7은 왜곡된 데이터가 먼저 포스트-프로세싱된 데이터(18)로 어떻게 포스트-프로세싱되고 최종적으로 프로세싱된 데이터(16)로 어떻게 프로세싱되는지를 도시한다. 이 예뿐만 아니라 예 2 내지 예 7 모두에서, 프로세서(7)는 장착되는 스캐닝-팁의 유형에 의존하여 상이하게 동작한다. 모든 예들에서, 제어기(8)는 인식 컴포넌트(6)에 의해 인식된 스캐닝-팁(5a, 5b, 5c, 5d, 5e, 5f)의 유형에 따라 프로세서(7)의 동작을 제어하도록 구성된다.
프로세싱된 데이터(16)는 최종적으로 데이터 패키지로서 3D-모델(13)의 생성을 담당하는 외부 연결 컴퓨터(11) 상의 스캐닝 애플리케이션에 전송된다.
증가하는 복잡성을 갖는 5(f)1-4에 예시된 스캔 팁(5(f))의 상이한 개략도 버전들이 도 7b에 도시된다.
팁 버전(5(f)-1)은 장착되었을 때(도시되지 않음) 이미지 센서로 역으로의 직접적인 렌즈 반사를 회피하기 위해 기울어진 렌즈를 갖는 확대된 시야 팁을 도시한다. 이 간단한 셋업은 생성하기 쉽지만 스캔 신호가 감소되게 하는 왜곡들을 생성할 수 있다.
팁 버전(5(f)-2)은 5(f)-1과 유사하지만 QW(quarter-wave)가 추가된 확대된 시야 팁을 도시한다 이 예에서, QW는 반사를 최소화하기 위해 회전 가능해질 수 있다.
팁 버전(5(f)-3)은 5(f)-2와 유사하지만 부가적인 1/4 파장 플레이트가 추가된 확대된 시야 팁을 도시한다. 이 구성은 팁이 광의 편광을 유지하는 것을 가능하게 하고, 이에 따라 팁이 치아들 및 눈들과 같은 반투명 오브젝트들을 스캐닝하는데 사용되는 것을 가능하게 한다.
팁 버전(5(f)-4)은 성능을 미세 튜닝하기 위한 여러 광학 엘리먼트들을 포함하는 최적화된 확대된 시야 팁을 도시한다. 이 버전은 5(f)1-3에 비해 우수한 성능을 갖는다.
예 8 ―
구강내
스캐닝
모드에서의
프로세싱
모드
이 예에서, 스캐닝 시스템(1)은 치아의 적어도 일부의 구강내 스캐닝을 수행하도록 구성된다.
또한, 이 예에서, 스캐닝 시스템(1), 보다 구체적으로 프로세서(7)는 그에 대한 스캐닝-팁(5a)을 사용하여 구강내 스캐닝에 대응하는 제1 프로세싱 모드에서 동작하도록 구성된다.
이 제1 프로세싱 모드는 전체 광학 시야를 커버하고 스캐너 디바이스(2)로부터의 광을 스캐닝될 오브젝트를 향해 지향시키는 원위 단부의 미러를 갖는 구강내 팁(5(a))을 장착함으로써 개시된다. 장착된 구강내 팁(5(a))이 도 8에서 도시된다. 이 팁은 환자의 입 내로 삽입되도록 구성된다.
이 예에서, 프로세서(7)는 초점 렌즈가 조정되는 동안 이미지 센서(3)에 의해 획득된 이미지들(15)을 프로세싱된 데이터(16)로 프로세싱한다. 초점 렌즈 조정은 특정 스팬 길이로 한정되며, 여기서 초점 렌즈는 오브젝트 상의 투영된 패턴의 복수의 2D 이미지들(15)을 레코딩하는 동안 앞뒤로 이동된다. 프로세싱된 데이터(16)는 복수의 2D 이미지들(15)을 프로세싱함으로써 추출된다.
스캐닝-팁(5(a))이 스캐너 디바이스(2)에 장착될 때, 스캐너 디바이스(2)는 스캐닝-팁(5(a))의 내부 메모리에 저장된 팁의 식별 번호(17) 형태의 인식 데이터(17))을 판독한다. 식별 번호(17)는 외부 연결 컴퓨터(11) 상에 로케이팅된 제어기(8)로 포워딩된다. 스캐너 팁 식별 번호(17)에 기초하여, 제어기(8)는 오브젝트에 관하여 백색 광 조명 패턴으로 레코딩된 2D 이미지들(15)의 연속 시퀀스를 프로세싱하도록 프로세서(7)(이 예에서, 스캐너 디바이스(2) 외부에 로케이팅됨) 에 지시한다. 백색 광은 각각의 2D 이미지로부터, 3D 기하학적 구조에 대한 데이터 및 텍스처에 대한 데이터 둘 모두가 유도될 수 있는 것을 가능하게 한다. 즉, 프로세싱된 데이터(16)는 3D 기하학적 구조에 대한 데이터의 형태이고 텍스처에 대한 데이터의 형태이다.
이에 따라, 외부 컴퓨터(11) 상의 프로세서(7)는 복수의 2D 이미지들(15)을 프로세싱된 데이터(16)로 프로세싱한다. 이 예에서, 프로세서(7)로부터의 프로세싱된 데이터(16)는 프로세싱 모드에 의존한다.
프로세싱된 데이터(16)는 3D-모델(13)을 생성하기 위해 외부 컴퓨터(11)에 의해 사용된다.
예 9 ― 스캐닝-팁들의 예들의 개요
예로써 여러 스캐닝-팁들(5a, 5b, 5c, 5d, 5e)이 예 1 내지 8에서 설명된다. 이 예는 상이한 스캐닝-팁들의 개요를 제공한다.
백색 광을 제공하기 위한
구강내
스캐닝-팁
일 예에서, 스캐너 디바이스(2)를 위한 교체 가능한 스캐닝-팁(5(a))이 제공되며, 스캐닝-팁(5(a))은 치아의 구강내 스캐닝을 위해 그리고 치아에 백색 광을 제공하도록 구성된다. 스캐닝-팁(5(a))은 임의의 유형의 스캐너 디바이스를 위한 것이거나 본 발명에 따른 스캐너 디바이스(2)를 위한 것일 수 있다. 백색 광은 스캐너 디바이스(2)에 상주하는 백색 광원에 의해 방출될 수 있다. 교체 가능한 스캐닝-팁(5(a))는, 미러가 백색 광원으로부터 광을 수신할 때 스캐닝-팁이 치아에 광을 제공하도록 스캐닝-팁 내부에 반사 표면을 갖는 스캐닝-팁(5(a))의 원위 단부에 로케이팅된 미러를 포함할 수 있다. 미러는 또한, 미러가 치아로부터 광을 수신할 때 스캐닝-팁(5(a))이 이미지 센서(3)에 광을 제공하도록 치아로부터 후방 반사된 바와 같은 백색 광을 수신하도록 구성될 수 있다.
백색 광을 제공하기 위한 인-이어 스캐닝-팁
다른 예에서, 스캐너 디바이스(2)를 위한 교체 가능한 스캐닝-팁(5(b))이 제공되며, 스캐닝-팁(5(b))은 귀 내부의 인-이어 스캐닝을 위해 그리고 귀 내부에 백색 광을 제공하도록 구성된다. 스캐닝-팁(5(b))은 임의의 유형의 스캐너 디바이스를 위한 것이거나 본 발명에 따른 스캐너 디바이스(2)를 위한 것일 수 있다. 백색 광은 스캐너 디바이스(2)에 상주하는 백색 광원에 의해 방출될 수 있다. 교체 가능한 스캐닝-팁(5(b))은, 미러가 백색 광원으로부터 광을 수신할 때 스캐닝-팁(5(b))이 내이에 광을 제공하도록 스캐닝-팁(5(b)) 내부에 반사 표면을 갖는 스캐닝-팁(5(b))의 원위 단부에 로케이팅된 미러를 포함할 수 있다. 미러는 또한, 미러가 내이로부터 백색 광을 수신할 때 스캐닝-팁(5(c))이 이미지 센서(3)에 백색 광을 제공하도록 내이로부터 후방 반사된 바와 같은 백색 광을 수신하도록 구성될 수 있다. 스캐닝-팁(5(b))이 귀에 삽입되기 위해, 미러는 내이의 치수들에 따라 치수가 정해질 수 있다.
백색 광 및 적외선 광을 제공하기 위한
구강내
스캐닝-팁
제3 예에서, 스캐너 디바이스(2)를 위한 교체 가능한 스캐닝-팁(5(c))이 제공되며, 스캐닝-팁(5(c))은 치아의 구강내 스캐닝을 위해 그리고 치아에 백색 광 및 적외선 광을 제공하도록 구성된다. 스캐닝-팁(5(c))은 임의의 유형의 스캐너 디바이스를 위한 것이거나 본 발명에 따른 스캐너 디바이스(2)를 위한 것일 수 있다. 백색 광은 스캐너 디바이스(2)에 상주하는 백색 광원에 의해 방출될 수 있다. 적외선 광은 교체 가능한 스캐닝-팁(5(c)) 내부 또는 그 상에 로케이팅된 복수의 광원들 또는 적외선 광원에 의해 방출될 수 있다. 교체 가능한 스캐닝-팁(5(c))은, 미러가 백색 광원으로부터 광을 수신할 때 스캐닝-팁(5(c))이 치아에 백색 광을 제공하도록 스캐닝-팁(5(c)) 내부에 반사 표면을 갖는 스캐닝-팁(5(c))의 원위 단부에 로케이팅된 미러를 포함할 수 있다. 미러는 또한, 미러가 치아로부터 백색 광을 수신할 때 스캐닝-- 팁(5(c))이 이미지 센서(3)에 백색 광을 제공하도록 치아로부터 후방 반사된 바와 같은 백색 광을 수신하도록 구성될 수 있다. 추가로, 미러는 또한, 미러가 치아로부터 적외선 광을 수신할 때 스캐닝-팁(5(c))이 이미지 센서(3)에 적외선 광을 제공하도록 치아로부터 후방 반사된 바와 같은 적외선 광을 수신하도록 구성될 수 있다.
백색 광 및 형광 광을 제공하기 위한
구강내
스캐닝-팁
제4 예에서, 스캐너 디바이스(2)를 위한 교체 가능한 스캐닝-팁(5(d))이 제공되며, 스캐닝-팁(5(d))은 치아의 구강내 스캐닝을 위해 그리고 치아에 백색 광 및 적외선 광을 제공하도록 구성된다. 스캐닝-팁(5(c))은 임의의 유형의 스캐너 디바이스를 위한 것이거나 본 발명에 따른 스캐너 디바이스(2)를 위한 것일 수 있다. 백색 광 및 형광 광 둘 모두는 스캐너 디바이스(2)에 상주하는 백색 광원 및 형광 광원, 예컨대, 백색 광 및 형광 광 둘 모두를 방출하도록 구성된 단일 광원에 의해 방출될 수 있다. 교체 가능한 스캐닝-팁(5(d))은, 미러가 백색 광원 및 형광 광원으로부터 광을 수신할 때 스캐닝-팁(5(d))이 치아에 백색 광 및 형광 광을 제공하도록 스캐닝-팁(5(d)) 내부에 반사 표면을 갖는 스캐닝-팁(5(d))의 원위 단부에 로케이팅된 미러를 포함할 수 있다. 미러는 또한, 미러가 치아로부터 백색 광 및 형광 광을 수신할 때 스캐닝-팁(5(d))이 이미지 센서(3)에 백색 광을 제공하도록 치아로부터 후방 반사된 바와 같은 백색 광 및 형광 광을 수신하도록 구성될 수 있다.
백색 광 및
감소된
시야를 제공하기 위한
구강내
스캐닝-팁
제5 예에서, 스캐너 디바이스(2)를 위한 교체 가능한 스캐닝-팁(5(e))이 제공되며, 스캐닝-팁(5(e))은 치아의 구강내 스캐닝을 위해 그리고 감소된 시야와 더불어 치아에 백색 광을 제공하도록 구성된다. 스캐닝-팁(5(e))은 임의의 유형의 스캐너 디바이스를 위한 것이거나 본 발명에 따른 스캐너 디바이스(2)를 위한 것일 수 있다. 백색 광은 스캐너 디바이스(2)에 상주하는 백색 광원에 의해 방출될 수 있다. 교체 가능한 스캐닝-팁(5(e))은, 미러가 백색 광원으로부터 광을 수신할 때 스캐닝-팁이 감소된 시야와 더불어 치아에 광을 제공하도록 스캐닝-팁 내부에 반사 표면을 갖는 스캐닝-팁(5(e))의 원위 단부에 로케이팅된 미러를 포함할 수 있다. 미러는 또한, 미러가 치아로부터 광을 수신할 때 스캐닝-팁(5(e))이 이미지 센서(3)에 광을 제공하도록 치아로부터 후방 반사된 바와 같은 백색 광을 수신하도록 구성될 수 있다.
백색 광 및 확대된 시야를 제공하기 위한 얼굴 스캐닝-팁
제6 예에서, 스캐너 디바이스(2)를 위한 교체 가능한 스캐닝-팁(5(e))이 제공되며, 스캐닝-팁(5(f))은 얼굴의 표면 스캐닝을 위해 그리고 확대된 시야와 더불어 얼굴에 백색 광을 제공하도록 구성된다. 스캐닝-팁(5(e))은 임의의 유형의 스캐너 디바이스를 위한 것이거나 본 발명에 따른 스캐너 디바이스(2)를 위한 것일 수 있다. 백색 광은 스캐너 디바이스(2)에 상주하는 백색 광원에 의해 방출될 수 있다. 교체 가능한 스캐닝-팁(5(e))은 미러가 백색 광원으로부터 광을 수신할 때 스캐닝-팁(5(f))이 확대된 시야와 더불어 얼굴에 광을 제공하도록 개방형일 수 있다. 개방형 개구는 얼굴로부터 후방 반사된 바와 같은 백색 광을 수신하도록 구성될 수 있어서, 개방형 개구가 얼굴로부터 광을 수신할 때 스캐닝-팁(5(f))은 이미지 센서(3)에 광을 제공한다.
예 10 ― 이중 각도
미러
스캐닝
모드에서의
프로세싱
모드
이 예에서, 스캐닝 시스템(1)은 데이터가 난제시되는 영역들로부터 획득될 수 있는 것을 규정하도록 매끄러운(smooth) 스캐닝을 수행하도록 구성된다. 이러한 영역들은 예컨대, 제2 또는 제3 어금니의 근심 표면 및 소위 엔테리어 크로스오버(anterior crossover)일 수 있다. 전체 턱 구강내 스캔을 수행할 때, 스캐닝 세션은 통상적으로 어금니의 교합면 상에서 시작한다. 스캐너 디바이스가 치열궁을 따라 이동함에 따라 턱의 디지털 모델이 연속적으로 생성된다. 일부 포인트에서, 스캐너 디바이스는 송곳니들 및 절연 에지를 가로질러 이동된다. 이 영역은 치아 형태의 성질로 인해 치아의 평면도가 매우 작기 때문에 ― 이는 제한된 3D 정보를 초래함 ― , 스캐너 디바이스에 대해 특히 난제시된다. 통상적으로, 이 상황은 정확한 모델 재구성을 용이하게 하도록 얼굴 및 혀/구개 표면들을 연속적으로 레코드하기 위해, 꿈틀거리는 스캐닝 움직임(wiggling scanning movement)을 수행하도록 오퍼레이터에 지시함으로써 핸들링된다. 도 9에 도시된 스캐닝 프로브는 다수의 각도들로부터 오브젝트로부터의 3D 데이터를 동시에 레코딩하고, 이에 따라 3D 데이터 더 큰 패치들을 생성하도록 구성된 이중 각도 미러 스캔 팁(5(g))을 사용함으로써 이 이슈를 해결한다. 따라서, 이 팁은 다른 방식으로는 도달하기 어려운 구강의 영역들에 액세스하도록 구성된다.
또한, 이 예에서, 스캐닝 시스템(1), 보다 구체적으로 프로세서(7)는 그에 대한 이중 각도 미러 스캐닝-팁(5(g))을 사용하여 적어도 분할-뷰로 구강내 스캐닝에 대응하는 제2 프로세싱 모드에서 동작하도록 구성된다.
이 제2 프로세싱 모드는 스캐너 디바이스로부터 기원되는 입사 광에 대해 상이한 각도들을 갖는 적어도 2개의 개별 반사 세그먼트들로 분리된 원위 단부의 광학 엘리먼트를 갖는 이중 각도 미러 스캐닝-팁 5(g)를 장착함으로써 개시된다. 개별 반사 세그먼트들은 전체 광학 시야를 커버하고 스캐너 디바이스(2)(도시되지 않음)로부터의 광을 스캐닝될 오브젝트를 향해 지향시킨다. 팁(5(g))의 원위 부분은 도 9의 단면도로부터 보여진다. 팁(5(g))은 제1 세그먼트(28) 및 제2 세그먼트(29)를 포함하는 광학 엘리먼트를 포함한다. 2개의 반사 세그먼트들은 제2 세그먼트(29)로부터 반사된 광이 제1 세그먼트(28)로부터 반사된 광과 상이한 각도로 스캐닝될 오브젝트를 향해 지향되도록 배열된다. 2개의 세그먼트들(28, 29)은 세그먼트들로부터의 개별 시야가 전체 스캔 볼륨(30)에서 상당한 양만큼 중첩되도록 포지셔닝된다. 따라서 이중 각도 미러 스캐닝-팁의 결합된 시야는 예 2에 설명된 스캐닝-팁(5(a))과 비교하여 상이하다.
이중 각도 미러 스캐닝-팁이 스캐너 디바이스(2)(도시되지 않음)에 장착될 때, 스캐너 디바이스(2)는 스캐닝-팁(5(e))의 내부 메모리에 저장된 팁의 식별 번호(17) 형태의 인식 데이터(17))을 판독한다. 식별 번호(17)는 외부 연결 컴퓨터(11) 상에 로케이팅된 제어기(8)로 포워딩된다. 이중 각도 미러 스캐닝-팁 식별 번호(17)에 기초하여, 제어기(8)는 혼합된 시야로 레코딩된 2D 이미지들(15)의 연속 시퀀스를 프로세싱하도록 스캐너 디바이스(2) 상의 프로세서(7)에 지시한다. 혼합된 시야로 인해, 프로세서는 함께 혼합된 상이한 방향들로부터 동일한 오브젝트 뷰로부터의 3D 정보를 포함하는 왜곡된 데이터를 수신한다.
도 9는 혼합된 데이터(2개의 세그먼트들(28 및 29)로 레코딩됨)가 먼저 포스트-프로세싱된 데이터(18)로 어떻게 포스트-프로세싱되고 최종적으로 프로세싱된 데이터(16)로 어떻게 프로세싱되는지를 도시한다.
비교로써, 예 1은 팁에 로케이팅된 단 하나의 미러만을 갖고 이에 의해 스캔 볼륨(즉, 스캐너 디바이스가 데이터를 수집할 수 있는 볼륨)의 각각의 포인트는 이미지의 픽셀에 1:1로 매핑된다. 이 예에서 이중 각도 미러 팁(5(g))이 부착될 때, 스캔 볼륨의 기하학적 구조가 더 복잡해지고, 미러 세그먼트들(28, 29) 둘 모두로부터 동시에 레코딩될 수 있고 이에 따라 하나 초과의 픽셀에 매핑될 수 있는 포인트들이 스캔 볼륨(30)에 존재할 수 있다.
스캔 볼륨과 깊이 이미지 간의 매핑 데이터 프로세싱(및 그 반대의 경우도 마찬가지임)은 3D-모델의 등록 및 재구성에 대해 사용된다. 이러한 변환들은 전용 자동 교정 루틴과 함께 모델링된다. 따라서, 이 예에서 프로세서(7)는 장착되는 스캐닝-팁의 유형에 의존하여 상이하게 동작한다. 모든 예들에서, 제어기(8)는 인식 컴포넌트(6)에 의해 인식된 스캐닝-팁(5a, 5b, 5c, 5d, 5e, 5f, 5g)의 유형에 따라 프로세서(7)의 동작을 제어하도록 구성된다.
프로세싱된 데이터(16)는 최종적으로 데이터 패키지로서 3D-모델(13)의 생성을 담당하는 외부 연결 컴퓨터(11) 상의 스캐닝 애플리케이션에 전송된다.
예 11 ― 사용자 인터페이스
전용 사용자 인터페이스는 도 10(a-e)에서 도시된다. 사용자 인터페이스 목적의 제1 부분은 오퍼레이터가 제1 스캐닝-팁을 사용한 다음 제2 스캐닝-팁을 사용하도록 안내하는 스캐닝 세션을 통해 오퍼레이터를 안내하는 것이다. 사용자 인터페이스의 목적의 다른 부분은 적어도 사용자로부터의 입력에 의존하여 프로세스를 변경함으로써 3D-모델을 효율적으로 제공하는 것이다. 이 예는 3D-모델이 어떻게 효율적으로 제공되는지를 보여줄 것이다.
통상적으로, 무치아 환자로부터의 3D-모델은 제공하기가 난제일 수 있다. 또한, 치아 없는 턱에는 명확한 랜드마크들이 없기 때문에 스캐닝이 어려울 수 있다. 비고정 치은은 또한 스캐닝 동안 이리저리 시프트되고 스캐닝될 단단한 오브젝트들에 의존하는 등록 알고리즘에 대해 어려움을 생성할 수 있다. 예 7로부터의 스캔 팁뿐만 아니라 예 2로부터의 규칙적 스캔 팁을 사용하기 위한 명령들을 갖는 컴퓨터 구현 방법이 아래에서 시연된다.
이 예는 다음 단계들에서 화면 상의 그래픽 사용자 인터페이스(30)에 디스플레이된 구강의 3D-표현(13)을 생성하기 위한 컴퓨터 구현 방법을 예시한다.
먼저, 도 10a에 도시된 바와 같이, 사용자에게는 스캐닝을 위한 복수의 옵션들(31)을 갖는 디스플레이에 제시되어서, 상기 스캐닝을 위한 옵션들 중 하나(32)를 선택하도록 사용자 인터페이스에서 사용자가 지시한다. 예컨대, 본 경우에, 오퍼레이터는 무치아 환자를 스캐닝하기를 원하고, 오퍼레이터는 이에 따라 예컨대, (포인팅 디바이스를 통해) 화면 커서를 사용함으로써 그리고/또는 화면을 클릭함으로써, 그리고/또는 스캐너 디바이스를 사용함으로써 예컨대, 전체 의치(32)와 관련하여 스캐닝하는 옵션을 선택한다.
스캔 옵션(32)의 선택 시에, 디스플레이는 도 10b에 도시된 바와 같은 디스플레이로 시프트할 것이다. 컴퓨터 구현 방법에 의해 수신된 바와 같은 스캐닝(32)을 위한 하나의 옵션에 기초하여, 컴퓨터 구현 방법은 사용자가 스캐너 디바이스에 제1 스캐닝-팁을 장착하기 위한 명령들(33)을 제공한다. 이 경우에, 사용자 인터페이스는 확대된 시야 팁(5(f))을 스캐너 디바이스(2)에 장착하도록 사용자에게 프롬프트한다.
스캐너 디바이스(2)의 인식 컴포넌트로 인해, 스캐너 디바이스(2) 및 컴퓨터 구현 방법 둘 모두는 팁(5(f))이 장착되었음을 등록한다. 이후, 컴퓨터 구현 방법은 3D-모델을 생성하는 프로세스의 다음 단계로 진행한다. 일부 실시예들에서, 스캐닝 시스템은 부가적으로, 장착된 팁(5(f))에 대한 광학 교정을 수행하도록 사용자에게 프롬프트할 수 있다. 교정은 미리 레코딩될 수 있다.
컴퓨터 구현 방법은 스캐너 디바이스(2) 상에 적절하게 장착될 때 장착된 스캐닝-팁과 관련된 스캐너 디바이스(2)로부터 제1 정보를 수신한다. 이는 컴퓨터 구현 방법이 디스플레이 모드를 변경하고, 도 10c에 도시된 바와 같은 스캐닝 디스플레이로 사용자를 지향시키는 것을 가능하게 한다. 스캐닝 디스플레이로의 디스플레이 모드의 변경은 그 자체로 사용자가 제1 스캐닝-팁(5(f))을 장착한 스캐너 디바이스(2)로 스캐닝하기 위한 제1 스캐닝 표시(34)이다.
방금 설명된 바와 같이, 그리고 본 발명의 제2 양상에 따르면, 컴퓨터 구현 방법은 그래픽 사용자 인터페이스에서 그리고 스캐너 디바이스(2)로부터의 제1 정보에 기초하여, 사용자가 제1 스캐닝-팁(5(f))을 장착한 스캐너 디바이스(2)로 스캐닝하기 위한 제1 스캐닝 표시(34) 및/또는 제1 스캐닝 명령(34)을 디스플레이한다.
이 경우에, 그리고 스캐닝 디스플레이의 디스플레이 모드에 있을 때, 그래픽 사용자 인터페이스는 추가로, 제1 스캐닝 표시(34)의 부가적인 부분으로서 라이브 뷰 박스(도 10c의 우측 하위 코너) 및 3D 뷰 박스(도 10c의 중간)를 디스플레이하며, 여기서 3D-모델(13)은 제1 스캐닝 표시의 다른 부가적인 부분으로서 생성되거나 생성될 것이다.
스캐닝 디스플레이로 변경한 후, 스캐닝 디바이스(2)를 사용한 스캐닝은 사용자 인터페이스의 화면 상의 또는 스캐너 디바이스 상의 스캔 버튼을 누름으로써 개시될 수 있다. 일부 실시예들에서, 라이브 뷰 박스 및/또는 3D 뷰 박스는 스캐닝을 개시한 후에 스캐닝 디스플레이 상에 나타날 수 있다.
또한, 사용자가 스캐너 디바이스(2)로 스캐닝하기 위한 제1 스캐닝 표시(34)를 표시하는 바와 같은 스캐닝 디스플레이(도 10c)에서, 시스템은 스캐너 디바이스로부터 스캔 데이터를 수신하며, 이는 3D-표현(13(a))의 제1 부분을 구성하는 데 사용된다.
여기에서 턱은 확대된 시야 팁(5(f))으로 스캐닝된다. 확대된 시야 팁(5(f))은 입 외부에 로케이팅되거나 입으로 약간만 삽입된다. 확대된 시야 팁(5(f))은 전체 턱(라이브 뷰 상자(34)에 도시된 바와 같이)의 상당 부분(예컨대, 턱의 50%)을 커버하는 시야를 가지므로, 등록은 전체적인 턱 구조에 의존한다. 전체 턱의 확대된 시야 스캔 팁(5(f))은 임상 목적들에 적합하지 않다. 이는 팁(5(f))이 입 깊숙이 삽입될 수 없고 예컨대, 혀 측으로부터 이미지들을 획득하기 위해 이리저리 이동될 수 없기 때문에 턱의 볼 측만을 커버할 수 있다. 확대된 시야 팁(5(f))은 또한 그것이 스캐닝 디바이스(2)의 시야를 확장하기 때문에 더 낮은 해상도를 갖는다. 따라서 이 경우에, 임상적 요구들을 충족시키기 위해 규칙적 스캔 팁(5(a))을 이용한 보다 세부적인 스캔이 사용될 수 있다. 따라서, 턱의 충분한 부분이 확대된 시야 팁(5(f))으로 스캐닝될 때, 사용자는, 최종 3D-모델(13c)을 계속 생성하기 위해 "다음 버튼"(35)을 클릭함으로써, 생성된 바와 같은 3D-표현(13(a))의 제1 부분이 충분하다는 것을 확인할 수 있다. 따라서, 사용자는 여기에서 "다음 버튼"(35)을 클릭함으로써 확인 입력을 제공했으며, 여기서 확인 입력은 생성된 바와 같은 3D-표현(13(a))의 제1 부분이 충분하다는 것을 확인하는 정보를 포함한다. 이 경우에, 사용자는 도 10c에 도시된 바와 같이 3D-모델(13(a))의 제1 부분으로 충분하다고 결정하였다.
사용자는 3D-표현(13(a))의 여러 제1 부분들, 예컨대, 하위 턱 및 상위 턱을 생성할 수 있다. 따라서 사용자는 예컨대, 완전한 3D-모델(13(c))을 계속 생성하기 위해 제1 "다음 버튼"(35)을 클릭(하위 턱이 충분함을 표시함)한 다음 제2 "다음 버튼"(36)을 클릭(상위 턱이 충분함을 표시함)함으로써, 생성된 바와 같은 3D-표현(13(a))의 제1 부분이 충분하다는 것을 여러 번 확인할 수 있다.
또한, 충분한 것으로 확인된 바와 같은 3D-표현의 제1 부분은 시간이 지남에 따라 사용자, 및/또는 복수의 상이한 사용자들로부터 수집될 수 있다. 그리하여 이러한 3D-표현들(13(a))은 충분한 것으로 확인된 바와 같은 이력적 3D-표현들을 형성할 수 있고, 이에 의해 제1 스캐닝-팁을 제2 스캐닝-팁으로 교체하기 위한 명령들을 디스플레이하는 단계는 자동화되고 충분한 것으로 확인된 바와 같은 이력적 3D-표현들에 기초한다. 즉, 제1 3D-표현(13(a))이 충분하다는 것을 확인하는 단계는 이력적 3D-표현들에 기초하여 자동화된 절차에 의해 인계될 수 있다. 예컨대, 충분한 것으로 확인된 바와 같은 이력적 3D-표현들은 생성된 바와 같은 3D-표현(13(a))의 제1 부분이 충분한 때를 결정하도록 구성된 알고리즘에 대한 입력으로서 사용될 수 있고, 알고리즘은 이력 3D-표현들의 평균화에 기초하고 그리고/또는 알고리즘은 기계 학습 및/또는 AI(artificial intelligence)에 기초한다. 따라서, 사용자에 의해 제공되는 바와 같은 입력은 최종 3D-표현(13(c))을 획득하는 프로세스를 변경한다. 예컨대, 사용자(들)로부터의 입력으로 인해, "다음 버튼"을 누르는 것이 더 이상 가능하지 않도록 사용자 인터페이스가 변경될 수 있다. 대신에, "다음 버튼"은 일단 제1 3D-표현(13a)으로 충분하면, "다음 버튼들"(35, 36)에서 녹색 체크 표시로 자동으로 체크표시될 수 있다. 이에 의해, 사용자로부터의 입력은 최종 3D-표현(13(c))을 생성하는 프로세스를 훨씬 더 효율적으로 그리고 실제로 또한 보다 신뢰할 수 있게 만든다.
사용자(들)로부터의 판단 외에도, 사람 턱은 특정한 인식 가능한 형상을 갖고, 이에 따라, 이러한 형상을 분석하는 알고리즘을 가르치는 것이 또한 가능할 수 있다. 따라서, 사용자 입력 외에도, 알고리즘은 최적화될 수 있다. AI 보조 데이터 분석은 사용자 인터페이스에서 인에이블 또는 디스에이블될 수 있다.
확대된 시야 팁(5(f))을 통한 전체 턱 스캔(들)의 완료 시에, 컴퓨터 구현 방법은 이에 따라 제1 스캐닝-팁(5(f))을 제2 스캐닝-팁(5(a))으로 교체함으로써 규칙적 스캔 팁(5(a))을 장착하기 위한 제2 장착 명령(37)을 오퍼레이터에게 프롬프트한다. 이는 도 10d에서 도시된다.
규칙적 팁(5(a))이 전자 장치를 갖는 팁인 경우, 컴퓨터 구현 방법은 규칙적 팁(5(a))이 장착됨을 등록하고 컴퓨터 구현 방법은 그 후 컴퓨터 구현 방법의 다음 단계로 진행될 수 있다. 팁(5(a))이 전자 커넥터들을 갖는 팁이 아닌 경우, 스캐너 디바이스(2)의 레코딩 이미지들의 시각적 특성들을 분석함으로써 컴퓨터 구현 방법이 팁(5(a))을 식별하는 것이 가능할 수 있다. 이는 또한 컴퓨터 구현 방법이 컴퓨터 구현 방법의 다음 단계를 계속하도록 허용할 수 있다.
방금 설명되고 도 10d에 디스플레이된 바와 같이, 수신된 바와 같은 제1 스캔 데이터에 기초하여, 사용자 인터페이스는 이제 제1 스캐닝-팁을 제2 스캐닝-팁(5(a))으로 교체하기 위한 명령들(37)을 디스플레이한다. 사용자에게는 모델을 완성하기 위해 확대된 시야 팁(5(f))을 표준 스캔 팁(5(a))으로 교체하도록 프롬프트된다. 재차, 컴퓨터 구현 방법은 스캔 팁의 교체를 인식하고 표준 스캔 팁(5(a))을 이용한 스캐닝을 지속하도록 사용자를 사용자 인터페이스의 스캐닝 디스플레이(이제 도 10e에 도시되지만 도 10c의 스캐닝 디스플레이와 유사함)로 다시 지향시킨다. 표준 팁(5(a))은 구강 내부를 스캐닝하도록 구성되며 상이한 각도들로부터 데이터를 캡처하도록 쉽게 조작된다.
스캐닝 동안, 컴퓨터 구현 방법은 제2 스캐닝-팁(5(f))을 갖는 스캐너 디바이스(2)로부터 제2 스캔 데이터를 수신하며, 이로부터, 3D-표현(13(b))의 제2 부분이 생성된다. 3D-표현(13(b))의 제2 부분은 도 10e에 도시된 바와 같이 제1 (확대된 시야) 스캐닝-팁(5(f))으로 도달되지 않았던(또는 적절히 해결되지 않은) 영역들로부터의 것일 수 있다. 뷰 스캐닝-팁(5(f))의 확대된 필드와 비교하여 (더 작은 FOV 스캐닝-팁(5(a))으로 기록되기 때문에) 패치들의 형태인 3D-표현(13(b))의 제2 부분(하위 좌측 코너의 라이브 뷰 박스(34)에서 또한 보임)은, 완전한 3D-모델(13(c))을 획득하기 위해 3D-표현(13(a))의 제1 부분 상에 레코딩되고 등록된다. 즉, 방금 설명된 바와 같은 패치들은 높은 정도의 세부사항들을 갖는다. 따라서 이러한 패치들은 전체 모델(13(c))의 재구성을 위한 프레임워크로서 사용되는 제1 부분 모델(제1 3D-표현(13a)) 상에 등록된다. 이러한 방식으로 작은 등록 에러들이 회피된다.
여기서 단일 턱의 최종 결과는 도 10f에 디스플레이된 최종 3D 등록(13(c))이다.
Claims (30)
- 오브젝트를 스캐닝하기 위한 스캐닝 시스템으로서,
- 스캐너 디바이스 ― 상기 스캐너 디바이스는,
o 이미지들을 획득하기 위한 이미지 센서;
o 복수의 유형들의 스캐닝-팁들 중 적어도 하나를 분리 가능하게 장착하기 위한 장착 인터페이스 ― 상기 복수의 유형들의 스캐닝-팁들 각각은 상기 복수의 유형들의 스캐닝-팁들 각각에 대해 상이한 조명 모드에서 상기 오브젝트에 광을 제공하도록 구성됨 ― ; 및
o 상기 장착 인터페이스에 장착된 스캐닝-팁의 유형을 인식하기 위한 인식 컴포넌트를 포함함 ― ;
- 상기 이미지 센서에 의해 획득된 이미지들을 프로세싱된 데이터로 프로세싱하도록 구성된 프로세서; 및
- 상기 인식 컴포넌트에 의해 인식된 스캐닝-팁의 유형에 따라 상기 프로세서의 동작을 제어하도록 구성된 제어기를 포함하고,
상기 제어기는 추가로, 제1 유형의 스캐닝-팁이 장착되고 인식될 때 상기 프로세서가 상기 제1 유형의 스캐닝-팁에 대응하는 제1 프로세싱-모드에서 동작하도록 제어되게, 그리고 제2 유형의 스캐닝-팁이 장착되고 인식될 때 상기 프로세서가 상기 제2 유형의 스캐닝-팁에 대응하는 제2 프로세싱-모드에서 동작하도록 제어되게 상기 프로세서를 제어하도록 구성되고, 상기 제2 프로세싱 모드는 상기 제1 프로세싱 모드와 상이하고,
o 상기 제1 프로세싱 모드에 있을 때, 상기 프로세서는 제1 조명 모드로 획득된 제1 복수의 이미지들을 프로세싱하여 상기 프로세싱된 데이터를 3D 기하학적 구조에 대한 제1 데이터 및 상기 오브젝트의 텍스처에 대한 제1 데이터의 형태로 제공하고,
상기 3D 기하학적 구조에 대한 제1 데이터는,
· 상기 제1 유형의 스캐닝-팁에 따라 선택되고 그리하여 상기 제1 프로세싱 모드의 부분을 정의하는 상기 제1 복수의 이미지들의 제1 서브세트, 및/또는
· 상기 제1 유형의 스캐닝-팁에 따라 선택되고 그리하여 상기 제1 프로세싱 모드의 부분을 정의하는 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고,
상기 오브젝트의 텍스처에 대한 제1 데이터는,
· 상기 제1 유형의 스캐닝-팁에 따라 선택되고 그리하여 상기 제1 프로세싱 모드의 부분을 정의하는 상기 제1 복수의 이미지들의 제2 서브세트, 및/또는
· 상기 제1 유형의 스캐닝-팁에 따라 선택되고 그리하여 상기 제1 프로세싱 모드의 부분을 정의하는 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고,
o 상기 제2 프로세싱 모드에 있을 때, 상기 프로세서는 제2 조명 모드로 획득된 제2 복수의 이미지들을 프로세싱하여 상기 프로세싱된 데이터를 3D 기하학적 구조에 대한 제2 데이터 및 상기 오브젝트의 텍스처에 대한 제2 데이터의 형태로 제공하고,
상기 3D 기하학적 구조에 대한 제2 데이터는,
· 상기 제2 유형의 스캐닝-팁에 따라 선택되고 그리하여 상기 제2 프로세싱 모드의 부분을 정의하는 상기 제2 복수의 이미지들의 제1 서브세트, 및/또는
· 상기 제2 유형의 스캐닝-팁에 따라 선택되고 그리하여 상기 제2 프로세싱 모드의 부분을 정의하는 상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고,
상기 오브젝트의 텍스처에 대한 제2 데이터는,
· 상기 제2 유형의 스캐닝-팁에 따라 선택되고 그리하여 상기 제2 프로세싱 모드의 부분을 정의하는 상기 제2 복수의 이미지들의 제2 서브세트, 및/또는
· 상기 제2 유형의 스캐닝-팁에 따라 선택되고 그리하여 상기 제2 프로세싱 모드의 부분을 정의하는 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하는,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항에 있어서,
상기 프로세서는 상기 스캐너 디바이스에 통합되는,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 또는 제2 항에 있어서,
상기 제어기는 상기 스캐너 디바이스의 외부에 있는,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제3 항 중 어느 한 항에 있어서,
상기 인식 컴포넌트에 의해 인식된 바와 같은 상기 스캐닝-팁의 유형은 인식 데이터의 형태이고, 상기 스캐너 디바이스는 상기 인식 데이터를 상기 제어기에 송신하도록 구성되는,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제4 항 중 어느 한 항에 있어서,
인식 엘리먼트는 상기 복수의 유형들의 스캐닝-팁들 각각 상의 통합된 메모리로부터 인식 데이터를 판독하도록 구성된 메모리 판독기를 포함하는,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제5 항 중 어느 한 항에 있어서,
일 유형의 스캐닝-팁에 대한 상기 조명 모드는 상기 광의 파장에 의해 정의되고 그리고/또는 일 유형의 스캐닝-팁에 대한 상기 조명 모드는 상기 광의 강도에 의해 정의되는,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제6 항 중 어느 한 항에 있어서,
일 유형의 스캐닝-팁에 대한 조명 모드는 상기 광의 상이한 파장들에 의해 정의되고, 이에 의해 일 유형의 스캐닝-팁은 상기 광의 상이한 파장들 사이에서 스위칭되는,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제7 항 중 어느 한 항에 있어서,
일 유형의 스캐닝-팁에 대한 상기 조명 모드는 상기 광의 시야에 의해 정의되고 그리고/또는 일 유형의 스캐닝-팁에 대한 상기 조명 모드는 상기 광의 패턴에 의해 정의되는,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제8 항 중 어느 한 항에 있어서,
상기 3D 기하학적 구조에 대한 제1 데이터는 상기 제1 복수의 이미지들의 제1 서브세트, 및 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 상기 오브젝트의 텍스처에 대한 제1 데이터는 상기 제1 복수의 이미지들의 제2 서브세트, 및 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고,
상기 제1 복수의 이미지들의 제1 서브세트는 상기 제1 복수의 이미지들의 제2 서브세트와 동일하고,
상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트는 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트와 상이한,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제9 항 중 어느 한 항에 있어서,
상기 3D 기하학적 구조에 대한 제1 데이터는 상기 제1 복수의 이미지들의 제1 서브세트, 및 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 상기 오브젝트의 텍스처에 대한 제1 데이터는 상기 제1 복수의 이미지들의 제2 서브세트, 및 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고,
상기 제1 복수의 이미지들의 제1 서브세트는 상기 제1 복수의 이미지들의 제2 서브세트와 상이하고,
상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트는 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트와 상이한,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제10 항 중 어느 한 항에 있어서,
상기 3D 기하학적 구조에 대한 제1 데이터는 상기 제1 복수의 이미지들의 제1 서브세트, 및 상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 상기 오브젝트의 텍스처에 대한 제1 데이터는 상기 제1 복수의 이미지들의 제2 서브세트, 및 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고,
상기 제1 복수의 이미지들의 제1 서브세트는 상기 제1 복수의 이미지들의 제2 서브세트와 상이하고,
상기 제1 복수의 이미지들 내의 픽셀들의 제1 서브세트는 상기 제1 복수의 이미지들 내의 픽셀들의 제2 서브세트와 동일한,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제10 항에 있어서,
상기 제1 복수의 이미지들의 제1 서브세트는 상기 복수의 이미지들 중, 복수의 파장들에서 무채색 광(non-chromatic light)으로 레코딩된 바와 같은 하나 걸러 하나의 이미지이고, 상기 제1 복수의 이미지들의 제2 서브세트는 상기 복수의 이미지들 중, 제1 파장에서 단색광으로 레코딩된 나머지 이미지들인,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제10 항에 있어서,
상기 제1 복수의 이미지들의 제1 서브세트는 상기 제1 복수의 이미지들 중, 복수의 파장들에 의해 정의된 무채색 광으로 레코딩된 바와 같은 두 개 걸러 하나의 이미지이고, 상기 제1 복수의 이미지들의 제2 서브세트는 상기 제1 복수의 이미지들 중, 제1 파장 및 제2 파장에서 단색광으로 레코딩된 나머지 이미지들인,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제9 항에 있어서,
상기 제1 복수의 이미지들의 제2 서브세트는 복수의 파장들에 의해 정의된 무채색 광으로 레코딩된 바와 같은 단일 이미지인,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제14 항 중 어느 한 항에 있어서,
상기 3D 기하학적 구조에 대한 제2 데이터는 상기 제2 복수의 이미지들의 제1 서브세트, 및 상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 상기 오브젝트의 텍스처에 대한 제2 데이터는 상기 제2 복수의 이미지들의 제2 서브세트, 및 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고,
상기 제2 복수의 이미지들의 제1 서브세트는 상기 제2 복수의 이미지들의 제2 서브세트와 동일하고,
상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트는 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트와 상이한,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제15 항 중 어느 한 항에 있어서,
상기 3D 기하학적 구조에 대한 제2 데이터는 상기 제2 복수의 이미지들의 제1 서브세트, 및 상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 상기 오브젝트의 텍스처에 대한 제2 데이터는 상기 제2 복수의 이미지들의 제2 서브세트, 및 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고,
상기 제2 복수의 이미지들의 제1 서브세트는 상기 제2 복수의 이미지들의 제2 서브세트와 상이하고,
상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트는 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트와 상이한,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제16 항 중 어느 한 항에 있어서,
상기 3D 기하학적 구조에 대한 제2 데이터는 상기 제2 복수의 이미지들의 제1 서브세트, 및 상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트에 기초하고, 상기 오브젝트의 텍스처에 대한 제1 데이터는 상기 제2 복수의 이미지들의 제2 서브세트, 및 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트에 기초하고,
상기 제2 복수의 이미지들의 제1 서브세트는 상기 제2 복수의 이미지들의 제2 서브세트와 상이하고,
상기 제2 복수의 이미지들 내의 픽셀들의 제1 서브세트는 상기 제2 복수의 이미지들 내의 픽셀들의 제2 서브세트와 동일한,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제17 항 중 어느 한 항에 있어서,
상기 스캐너 디바이스는 상기 제1 및/또는 제2 복수의 이미지들이 획득되는 동안 앞뒤로 병진운동하도록 구성된 렌즈를 더 포함하는,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제1 항 내지 제18 항 중 어느 한 항에 있어서,
상기 스캐닝 시스템은 상기 오브젝트의 3D-모델을 생성하도록 구성된 프로세서를 더 포함하고,
상기 3D-모델은 상기 3D 기하학적 구조에 대한 제1 데이터에 기초하여 생성되지만, 상기 3D-모델은 상기 3D 기하학적 구조에 대한 제2 데이터에 기초하여 생성되지 않거나, 또는
상기 3D-모델은 상기 3D 기하학적 구조에 대한 제2 데이터에 기초하여 생성되지만, 상기 3D-모델은 상기 3D 기하학적 구조에 대한 제1 데이터에 기초하여 생성되지 않는,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제19 항에 있어서,
상기 3D-모델이 상기 3D 기하학적 구조에 대한 제2 데이터에 기초하여 생성되지 않을 때, 상기 3D 기하학적 구조에 대한 제2 데이터가 상기 3D 기하학적 구조에 대한 제1 데이터와 비교되고 이에 의해 상기 오브젝트의 텍스처에 대한 제2 데이터가 상기 3D-모델과 매칭되는,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 제19 항에 있어서,
상기 3D-모델이 상기 3D 기하학적 구조에 대한 제1 데이터에 기초하여 생성되지 않을 때, 상기 3D 기하학적 구조에 대한 제1 데이터가 상기 3D 기하학적 구조에 대한 제2 데이터와 비교되고 이에 의해 상기 오브젝트의 텍스처에 대한 제1 데이터가 상기 3D-모델과 매칭되는,
오브젝트를 스캐닝하기 위한 스캐닝 시스템. - 화면 상의 그래픽 사용자 인터페이스에 디스플레이되는 구강(oral cavity)의 3D-표현을 생성하기 위한 컴퓨터-구현 방법으로서,
- 스캐닝을 위한 복수의 옵션들 중 하나를 선택하기 위해 그래픽 사용자 인터페이스에서 사용자가 지시하도록, 상기 사용자 인터페이스에서, 상기 스캐닝을 위한 옵션들을 디스플레이하는 단계;
- 상기 사용자에 의해, 상기 스캐닝을 위한 옵션들 중 하나 이상을 수신하는 단계;
- 상기 그래픽 사용자 인터페이스에서, 그리고 수신된 바와 같은 스캐닝을 위한 하나의 옵션에 기초하여, 상기 사용자가 제1 스캐닝-팁을 스캐너 디바이스에 장착하기 위한 제1 장착 명령들을 디스플레이하는 단계;
- 상기 제1 스캐닝-팁이 상기 스캐너 디바이스에 장착될 때 상기 제1 스캐닝-팁과 관련된 스캐너 디바이스로부터의 제1 정보를 수신하는 단계;
- 상기 그래픽 사용자 인터페이스에서, 그리고 상기 스캐너 디바이스로부터의 제1 정보에 기초하여, 상기 사용자가 상기 제1 스캐닝-팁을 장착한 스캐너 디바이스로 스캐닝하기 위한 제1 스캐닝 명령 및/또는 제1 스캐닝 표시를 디스플레이하는 단계;
- 상기 제1 스캐닝-팁을 갖는 스캐너 디바이스에 의해 제1 스캔 데이터를 수신하는 단계 ― 상기 제1 스캔 데이터로부터, 상기 3D-표현의 제1 부분이 생성됨 ― ;
- 상기 그래픽 사용자 인터페이스에서, 그리고 수신된 바와 같은 상기 제1 스캔 데이터에 기초하여, 상기 제1 스캐닝-팁을 제2 스캐닝-팁으로 교체하기 위한 제2 장착 명령들을 디스플레이하는 단계;
- 상기 제2 스캐닝-팁이 상기 스캐너 디바이스에 장착될 때 상기 제2 스캐닝팁과 관련된 스캐너 디바이스로부터의 제2 정보를 수신하는 단계;
- 상기 그래픽 사용자 인터페이스에서, 그리고 상기 스캐너 디바이스로부터의 제2 정보에 기초하여, 상기 사용자가 상기 제2 스캐닝-팁을 갖는 스캐너 디바이스로 스캐닝하기 위한 제2 스캐닝 명령 및/또는 제2 스캐닝 표시를 디스플레이하는 단계; 및
- 상기 제2 스캐닝-팁을 갖는 스캐너 디바이스에 의해 제2 스캔 데이터를 수신하는 단계 ― 상기 제2 스캔 데이터로부터, 상기 3D-표현의 제2 부분이 생성됨 ―
를 포함하는,
화면 상의 그래픽 사용자 인터페이스에 디스플레이되는 구강의 3D-표현을 생성하기 위한 컴퓨터-구현 방법. - 제22 항에 있어서,
상기 스캐닝을 위한 옵션들 중 하나는 무치아 스캐닝(edentulous scanning)과 관련되는,
화면 상의 그래픽 사용자 인터페이스에 디스플레이되는 구강의 3D-표현을 생성하기 위한 컴퓨터-구현 방법. - 제22 항 또는 제23 항에 있어서,
상기 사용자에 의해, 상기 스캐닝을 위한 옵션들 중 하나 이상을 수신하는 단계는 상기 사용자가 상기 사용자 인터페이스에서 상기 옵션들 중 하나 이상을 클릭함으로써 제공되는,
화면 상의 그래픽 사용자 인터페이스에 디스플레이되는 구강의 3D-표현을 생성하기 위한 컴퓨터-구현 방법. - 제22 항 내지 제24 항 중 어느 한 항에 있어서,
상기 제1 스캐닝-팁과 관련된 스캐너 디바이스로부터의 제1 정보를 수신하는 단계 및/또는 상기 제2 스캐닝-팁과 관련된 스캐너 디바이스로부터의 제2 정보를 수신하는 단계는 상기 스캐너 디바이스에 장착될 때 상기 스캐닝-팁의 유형을 인식하는 스캐너 디바이스의 인식 컴포넌트로부터 제공되는,
화면 상의 그래픽 사용자 인터페이스에 디스플레이되는 구강의 3D-표현을 생성하기 위한 컴퓨터-구현 방법. - 제22 항 내지 제24 항 중 어느 한 항에 있어서,
상기 제1 스캐닝-팁과 관련된 스캐너 디바이스로부터의 제1 정보를 수신하는 단계는 상기 제1 스캐닝-팁의 시야에서 상기 제1 스캐닝-팁의 적어도 부분의 시각적 인식으로부터 제공되고 그리고/또는 상기 제2 스캐닝-팁과 관련된 스캐너 디바이스로부터의 제2 정보를 수신하는 단계는 상기 제2 스캐닝-팁의 시야에서 상기 제2 스캐닝-팁의 적어도 부분의 시각적 인식으로부터 제공되는,
화면 상의 그래픽 사용자 인터페이스에 디스플레이되는 구강의 3D-표현을 생성하기 위한 컴퓨터-구현 방법. - 제22 항 내지 제26 항 중 어느 한 항에 있어서,
상기 제1 스캐닝-팁은 상기 제2 스캐닝-팁과 비교하여 더 큰 시야를 갖는 스캐닝을 위해 구성되며, 이에 의해 상기 3D-표현의 제1 부분은 상기 기준 모델과 매칭되는 상기 3D-표현의 제2 부분에 대한 기준 모델로서 사용되는,
화면 상의 그래픽 사용자 인터페이스에 디스플레이되는 구강의 3D-표현을 생성하기 위한 컴퓨터-구현 방법. - 제22 항 내지 제27 항 중 어느 한 항에 있어서,
상기 제1 스캐닝-팁을 제2 스캐닝-팁으로 교체하기 위한 명령들을 디스플레이하는 단계는 사용자로부터의 확인 입력에 기초하고, 상기 확인 입력은 생성된 바와 같은 상기 3D-표현의 제1 부분이 충분하다는 것을 확인하는 정보를 포함하는,
화면 상의 그래픽 사용자 인터페이스에 디스플레이되는 구강의 3D-표현을 생성하기 위한 컴퓨터-구현 방법. - 제28 항에 있어서,
충분한 것으로 확인된 바와 같은 상기 3D-표현의 제1 부분은 시간이 지남에 따라,
- 상기 사용자 및/또는
- 복수의 상이한 사용자들로부터 수집되고,
그리하여 충분한 것으로 확인된 바와 같은 이력적 3D-표현들을 형성하고, 이에 의해 상기 제1 스캐닝-팁을 제2 스캐닝-팁으로 교체하기 위한 명령들을 디스플레이하는 단계는 자동화되고 충분한 것으로 확인된 바와 같은 상기 이력적 3D-표현들에 기초하는,
화면 상의 그래픽 사용자 인터페이스에 디스플레이되는 구강의 3D-표현을 생성하기 위한 컴퓨터-구현 방법. - 제29 항에 있어서,
상기 충분한 것으로 확인된 바와 같은 상기 이력적 3D-표현들은 생성된 바와 같은 상기 3D-표현이 충분한 때를 결정하도록 구성된 알고리즘에 대한 입력으로서 사용되고, 상기 알고리즘은 상기 이력적 3D-표현들의 평균화에 기초하고 그리고/또는 상기 알고리즘은 기계 학습 및/또는 인공 지능에 기초하는,
화면 상의 그래픽 사용자 인터페이스에 디스플레이되는 구강의 3D-표현을 생성하기 위한 컴퓨터-구현 방법.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19159766.5 | 2019-02-27 | ||
EP19159766 | 2019-02-27 | ||
EP19161887 | 2019-03-11 | ||
EP19161887.5 | 2019-03-11 | ||
PCT/EP2020/054936 WO2020173955A1 (en) | 2019-02-27 | 2020-02-25 | Scanner device with replaceable scanning-tips |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210132687A true KR20210132687A (ko) | 2021-11-04 |
Family
ID=69591662
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217030503A KR20210132687A (ko) | 2019-02-27 | 2020-02-25 | 교체 가능한 스캐닝-팁들을 갖는 스캐너 디바이스 |
KR1020217030506A KR20210134350A (ko) | 2019-02-27 | 2020-02-27 | 자기 유도를 사용한 구강 내 스캐닝 시스템 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217030506A KR20210134350A (ko) | 2019-02-27 | 2020-02-27 | 자기 유도를 사용한 구강 내 스캐닝 시스템 |
Country Status (8)
Country | Link |
---|---|
US (2) | US20220133447A1 (ko) |
EP (3) | EP3930559A1 (ko) |
JP (2) | JP2022521970A (ko) |
KR (2) | KR20210132687A (ko) |
CN (2) | CN113727636A (ko) |
BR (2) | BR112021014878A2 (ko) |
ES (1) | ES2973357T3 (ko) |
WO (2) | WO2020173955A1 (ko) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3169232A1 (en) | 2020-02-26 | 2021-09-02 | Pamela Sharon Oren-Artzi | Systems and methods for remote dental monitoring |
USD962437S1 (en) * | 2020-05-14 | 2022-08-30 | Get-Grin Inc. | Dental scope |
KR102488096B1 (ko) * | 2020-11-11 | 2023-01-13 | 주식회사 메디트 | 구강 이미지 처리 장치 및 구강 이미지 처리 방법 |
KR102516823B1 (ko) * | 2021-01-26 | 2023-04-03 | 주식회사 메디트 | 3차원 스캔 시스템, 및 그 동작 방법 |
KR102559164B1 (ko) * | 2021-02-01 | 2023-07-28 | 주식회사 메디트 | 이미지 처리 장치 및 이미지 처리 방법 |
KR102470764B1 (ko) * | 2021-03-10 | 2022-11-28 | 주식회사 휴비츠 | 구강 스캐너용 광학렌즈를 이용하여 구강 스캔 및 얼굴 스캔하는 방법 |
US11944275B2 (en) * | 2021-05-22 | 2024-04-02 | ScopeBug, Inc. | System and device for viewing of a body portion |
US20240268935A1 (en) * | 2021-08-03 | 2024-08-15 | Dentlytec G.P.L. Ltd. | Intraoral scanning |
WO2023063714A1 (ko) * | 2021-10-12 | 2023-04-20 | 주식회사 메디트 | 이미지 처리 장치 및 이를 이용한 이미지 처리 방법 |
JP1723389S (ja) * | 2021-12-14 | 2022-08-29 | 口腔内スキャナー | |
WO2024046800A1 (en) * | 2022-08-29 | 2024-03-07 | 3Shape A/S | An intraoral scanning device with a hygienic implementation of leds |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001174744A (ja) * | 1999-10-06 | 2001-06-29 | Olympus Optical Co Ltd | 光走査プローブ装置 |
US7692532B2 (en) * | 2004-07-30 | 2010-04-06 | Reva Systems Corporation | Interference monitoring in an RFID system |
CN102548471B (zh) * | 2009-09-24 | 2016-01-20 | 皇家飞利浦电子股份有限公司 | 具有增加的扫描速度的光学探针系统 |
EP2569607B1 (en) * | 2010-05-13 | 2020-04-22 | Quantum Dental Technologies Inc. | Handpiece with integrated optical system for photothermal radiometry and luminescence measurements |
US8632011B2 (en) * | 2011-01-18 | 2014-01-21 | Datalogic ADC, Inc. | Systems and methods for illuminating a scan volume of an optical code reader |
ITBO20120451A1 (it) * | 2012-08-23 | 2014-02-24 | Cefla Coop | Telecamera per uso medicale con selezione di diverse modalità di funzionamento |
KR101457108B1 (ko) * | 2012-09-25 | 2014-10-31 | 데오덴탈 주식회사 | 구강 스캐너 |
WO2014121278A1 (en) * | 2013-02-04 | 2014-08-07 | D4D Technologies, Llc | Intra-oral scanning device with illumination frames interspersed with image frames |
DK2956084T3 (da) * | 2013-02-13 | 2022-10-31 | 3Shape As | Fokusscanningsapparat til registrering af farve |
US9393087B2 (en) * | 2013-08-01 | 2016-07-19 | Align Technology, Inc. | Methods and systems for generating color images |
JP6067625B2 (ja) * | 2014-07-02 | 2017-01-25 | 株式会社モリタ製作所 | 生体撮像装置 |
IL235952A0 (en) * | 2014-11-27 | 2015-02-26 | Imaging Solutions Ltd Ab | Intraoral 3D scanner |
ES2774093T3 (es) * | 2015-03-03 | 2020-07-16 | 3Shape As | Punta para un escáner óptico |
JP6389140B2 (ja) * | 2015-04-03 | 2018-09-12 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
KR101662566B1 (ko) * | 2015-05-20 | 2016-10-05 | 주식회사바텍 | 광학부 교환에 의해 스캔 영역과 정밀도 변경이 가능한 구강스캐너 |
JP6366546B2 (ja) * | 2015-07-13 | 2018-08-01 | 株式会社モリタ製作所 | 口腔内三次元計測装置、口腔内三次元計測方法及び口腔内三次元計測結果の表示方法 |
US10136972B2 (en) * | 2016-06-30 | 2018-11-27 | Align Technology, Inc. | Historical scan reference for intraoral scans |
JP2019523064A (ja) * | 2016-07-27 | 2019-08-22 | アライン テクノロジー, インコーポレイテッド | 歯科診断機能を有する口腔内スキャナ |
EP3529553A4 (en) * | 2016-10-18 | 2020-06-17 | Dentlytec G.P.L. Ltd. | INTRAORAL SCAN PATTERN |
JP6702906B2 (ja) * | 2017-03-14 | 2020-06-03 | 株式会社モリタ製作所 | 歯科用測定装置、歯科用測定装置の先端部および歯科用測定システム |
EP3409238A1 (en) * | 2017-06-02 | 2018-12-05 | Koninklijke Philips N.V. | Teeth illumination device |
KR20180126166A (ko) * | 2017-05-17 | 2018-11-27 | 주식회사바텍 | 디스플레이를 갖는 구강 스캐너 및 이를 포함하는 구강 스캐너 시스템 |
KR20210057779A (ko) * | 2018-09-12 | 2021-05-21 | 쓰리세이프 에이/에스 | 스캐닝 디바이스의 팁을 위한 시스 및 그의 시스템 |
-
2020
- 2020-02-25 JP JP2021549765A patent/JP2022521970A/ja active Pending
- 2020-02-25 CN CN202080031478.4A patent/CN113727636A/zh active Pending
- 2020-02-25 EP EP20705394.3A patent/EP3930559A1/en active Pending
- 2020-02-25 US US17/434,064 patent/US20220133447A1/en active Pending
- 2020-02-25 KR KR1020217030503A patent/KR20210132687A/ko unknown
- 2020-02-25 WO PCT/EP2020/054936 patent/WO2020173955A1/en unknown
- 2020-02-25 BR BR112021014878-7A patent/BR112021014878A2/pt not_active Application Discontinuation
- 2020-02-27 ES ES20706312T patent/ES2973357T3/es active Active
- 2020-02-27 EP EP24152029.5A patent/EP4331468A3/en active Pending
- 2020-02-27 CN CN202080031491.XA patent/CN113727637A/zh active Pending
- 2020-02-27 US US17/433,670 patent/US20220087519A1/en active Pending
- 2020-02-27 EP EP20706312.4A patent/EP3930560B1/en active Active
- 2020-02-27 KR KR1020217030506A patent/KR20210134350A/ko unknown
- 2020-02-27 WO PCT/EP2020/055149 patent/WO2020174048A1/en unknown
- 2020-02-27 JP JP2021549768A patent/JP2022521971A/ja active Pending
- 2020-02-27 BR BR112021014839-6A patent/BR112021014839A2/pt not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
US20220087519A1 (en) | 2022-03-24 |
JP2022521970A (ja) | 2022-04-13 |
US20220133447A1 (en) | 2022-05-05 |
BR112021014878A2 (pt) | 2021-10-05 |
BR112021014839A2 (pt) | 2021-10-05 |
CN113727637A (zh) | 2021-11-30 |
WO2020173955A1 (en) | 2020-09-03 |
ES2973357T3 (es) | 2024-06-19 |
KR20210134350A (ko) | 2021-11-09 |
JP2022521971A (ja) | 2022-04-13 |
EP4331468A2 (en) | 2024-03-06 |
EP3930560A1 (en) | 2022-01-05 |
EP3930560B1 (en) | 2024-01-17 |
WO2020174048A1 (en) | 2020-09-03 |
EP3930559A1 (en) | 2022-01-05 |
EP4331468A3 (en) | 2024-04-17 |
CN113727636A (zh) | 2021-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210132687A (ko) | 교체 가능한 스캐닝-팁들을 갖는 스캐너 디바이스 | |
US11937996B2 (en) | Face capture and intraoral scanner and methods of use | |
US11412922B2 (en) | Control of light sources on an intraoral mirror with an integrated camera | |
EP2895106B1 (en) | Dental irradiation device and system | |
KR20170113412A (ko) | 치과용 구강스캐너 시스템 | |
US20240185421A1 (en) | Method, device and system for correlating at least one additional 2d-image to a 3d-representation of at least a part of tooth | |
US11937995B2 (en) | Cap, image capturing device, data generation system, and data generation method | |
KR102536647B1 (ko) | 얼라인 상태 표현 장치 및 방법 | |
US11826016B2 (en) | External light interference removal method | |
KR20210130111A (ko) | 얼라인 상태 표현 장치 및 방법 | |
CN111989026B (zh) | 内窥镜装置、内窥镜装置的工作方法及记录介质 | |
EP4368144A1 (en) | 3d scanner system for providing feedback | |
KR20240040634A (ko) | 스캐너, 데이터 처리 장치 및 데이터 처리 방법 | |
CN118526147A (zh) | 一种基于多功能扫描体的种植牙设计与分析系统 | |
WO2021069660A1 (en) | Scanning system for determining a health-condition |