KR102191542B1 - Oral data provision system - Google Patents
Oral data provision system Download PDFInfo
- Publication number
- KR102191542B1 KR102191542B1 KR1020200085786A KR20200085786A KR102191542B1 KR 102191542 B1 KR102191542 B1 KR 102191542B1 KR 1020200085786 A KR1020200085786 A KR 1020200085786A KR 20200085786 A KR20200085786 A KR 20200085786A KR 102191542 B1 KR102191542 B1 KR 102191542B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- oral
- reference image
- unit
- localized
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0088—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/24—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0062—Arrangements for scanning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7425—Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
- A61C9/0053—Optical means or methods, e.g. scanning the teeth by a laser or light beam
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Optics & Photonics (AREA)
- Epidemiology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 구강 데이터 제공 시스템에 관한 것으로, 더욱 상세하게는 구강 스캐너로부터 수집되는 영상을 이용하여 정밀한 3차원 구강 구조 데이터를 모델링할 수 있는 구강 데이터 제공 시스템에 관한 것이다.The present invention relates to an oral data providing system, and more particularly, to an oral data providing system capable of modeling precise three-dimensional oral structure data using an image collected from an oral scanner.
일반적으로, 구강 질환은 적당한 시기에 적절히 치료하지 않으면 일상 생활에 큰 불편을 줄 뿐만 아니라 외모의 이상까지도 초래하므로, 비록 작은 증세라 할지라도 조기의 치료가 중요하며, 가능하다면 발병 전의 예방이 더욱 효과적이다.In general, oral diseases, if not properly treated at the right time, not only cause great discomfort to daily life, but also cause abnormal appearance, so early treatment is important even for small symptoms, and prevention before onset is more effective if possible. to be.
그러나 구강 질환 환자들은, 개인적인 시간과 비용의 문제로 치통을 느끼기 전에는 쉽게 치과를 찾아가지 않기 때문에 주기적으로 치과 의사에게 진단 및 치료를 의뢰하는 고객들은 소수에 불과하다.However, patients with oral diseases do not easily visit the dentist until they feel a toothache due to personal time and cost, so only a few customers regularly refer to the dentist for diagnosis and treatment.
또한 이러한 구강 질환 한자를 치료하기 위하여 진단, 치료, 치료 경과를 확인하기 위한 X-Ray 이미지, 구강영상 등 다양한 사진 및 자료가 필요하며, 최근에는 구강 스캐너를 이용하여 디지털로 구강을 스캔하고, 스캔된 구강 데이터를 3차원으로 모델링하여 표시하는 기술이 공개되어 있다.In addition, in order to treat Chinese characters for oral diseases, various photos and data such as X-ray images and oral images are required for diagnosis, treatment, and treatment progress. Recently, the oral cavity is digitally scanned and scanned using an oral scanner. A technology for modeling and displaying the generated oral data in three dimensions has been disclosed.
하지만, 구강 구조를 모델링하기 위해서는 구강 내부를 스캔한 영상 데이터를 수집할 필요가 있는데, 종래에는 진료자가 구강 스캐너를 수동으로 구강 내부에 진입시킨 상태에서 영상 데이터를 촬영하기 때문에 촬영 과정에서 손떨림 등과 같은 요인에 의해 촬영 각도가 바뀌게 되면 동일한 치아에 대한 다른 촬영영상이 생성되어 모델링 결과가 왜곡될 수 있다는 문제점이 있다.However, in order to model the structure of the oral cavity, it is necessary to collect the image data scanned inside the oral cavity.In the past, since the doctor takes the image data while manually entering the oral scanner into the oral cavity, If the photographing angle is changed due to a factor, there is a problem in that a different photographed image of the same tooth is generated and the modeling result may be distorted.
이러한 문제점을 해결하기 위해서는 영상 데이터를 기계적 방법으로 취득하여야 하나, 수동 데이터 취득 방식에 비해 시간이 많이 소요되고 고가의 장비가 요구되어 비용적인 한계가 있다.In order to solve this problem, image data must be acquired by a mechanical method, but compared to the manual data acquisition method, it takes a lot of time and requires expensive equipment, so there is a cost limit.
한편, 전술한 배경 기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-described background technology is technical information that the inventor possessed for derivation of the present invention or acquired during the derivation process of the present invention, and is not necessarily a known technology disclosed to the general public prior to filing the present invention. .
본 발명의 일측면은 구강 스캐너로부터 수집되는 영상을 이용하여 정밀한 3차원 구강 구조 데이터를 모델링할 수 있는 구강 데이터 제공 시스템을 제공한다.One aspect of the present invention provides an oral data providing system capable of modeling precise three-dimensional oral structure data using an image collected from an oral scanner.
본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problem of the present invention is not limited to the technical problem mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 일 실시예에 따른 구강 데이터 제공 시스템은, 구강 내부를 국부적으로 스캐닝하여 국부 촬영영상을 생성하는 구강 스캐너; 및 상기 구강 스캐너로부터 수신된 국부 촬영영상에 기초하여 구강 내부구조전체에 대한 구강 데이터 처리장치를 포함한다.An oral data providing system according to an embodiment of the present invention includes an oral scanner for generating a local image by scanning the inside of the oral cavity; And an oral data processing apparatus for the entire internal structure of the oral cavity based on the localized image received from the oral scanner.
상기 구강 데이터 처리장치는,The oral data processing device,
상기 구강 스캐너로부터 수신되는 국부 촬영영상을 순차적으로 수집하는 촬영영상 수집부;A photographed image collection unit sequentially collecting the local photographed images received from the oral scanner;
서로 다른 각도에서 촬영된 복수의 국부 촬영영상을 어느 하나의 국부 촬영영상을 기준으로 정합하는 영상 정합부;An image matching unit for matching a plurality of localized images captured from different angles based on any one localized image;
상기 영상 정합부에 의해 정합된 국부 촬영영상을 기초로 구강 전체 구조를 나타내는 구강 데이터를 생성하는 구강 데이터 생성부; 및An oral data generation unit for generating oral data representing the entire oral cavity structure based on the localized image matched by the image matching unit; And
상기 구강 데이터를 화상 정보로 표시하는 디스플레이부를 포함하고,Includes a display unit for displaying the oral data as image information,
상기 영상 정합부는,The image matching unit,
복수의 국부 촬영영상 중 기준영상을 설정하는 기준영상 설정부;A reference image setting unit for setting a reference image among a plurality of localized images;
상기 가상 객체에 투영된 기준영상과, 상기 기준영상 이후 후속적으로 수신되는 국부 촬영영상에서 각각의 특징점을 복수 개 추출하고, 상기 기준영상의 특징점에 대응되는 상기 국부 촬영영상의 특징점을 매칭하는 대표점 추출부;A representative for extracting a plurality of feature points from a reference image projected on the virtual object and a local photographed image subsequently received after the reference image, and matching feature points of the local photographed image corresponding to the feature points of the reference image Point extraction unit;
상기 기준영상을 깊이정보에 따라 복수의 영역으로 분할하고, 분할된 각각의 영역에 분포된 복수의 특징점으로부터 영역별 대표 특징점을 추출하는 영역 분할부;A region dividing unit that divides the reference image into a plurality of regions according to depth information, and extracts representative feature points for each region from a plurality of feature points distributed in each of the divided regions;
상기 영역별 대표 특징점을 기초로 서로 다른 영역 간의 경계에 있는 경계점을 산출하고, 상기 기준영상의 상기 영역별 대표 특징점과 상기 경계의 거리비에 따라 상기 국부 촬영영상의 경계점을 산출하고, 산출된 국부 촬영영상의 경계점을 기초로 상기 국부 촬영영상을 복수의 영역으로 분할하는 경계점 산출부; 및A boundary point at a boundary between different regions is calculated based on the representative feature points for each region, and a boundary point of the local photographed image is calculated according to a distance ratio between the representative feature points for each region of the reference image and the boundary, and the calculated local A boundary point calculator for dividing the local photographed image into a plurality of areas based on the boundary point of the photographed image; And
상기 국부 촬영영상의 영역별로 와핑점을 설정하고, 상기 와핑점의 변환행렬을 연산하여 상기 국부 촬영영상을 영역별로 와핑하며, 영역별로 와핑된 상기 국부 촬영영상을 상기 가상 객체에 실시간으로 투영하는 와핑부를 포함하는Warping for setting a warping point for each area of the localized image, calculating a transformation matrix of the warping point to warp the localized image for each area, and projecting the localized image for each area to the virtual object in real time Containing wealth
상기 기준영상 설정부는, The reference image setting unit,
소정 시간 간격마다 미리 설정된 기준 3축 자세값을 유지한 상태에서 촬영된 국부 촬영영상을 기준영상으로 설정하고, Locally photographed images taken while maintaining the preset reference 3-axis posture value at predetermined time intervals are set as the reference image,
상기 영상 정합부는, The image matching unit,
후속 기준영상이 설정되기 이전까지 수집되는 국부 촬영영상을 상기 기준영상에 대해 정합하는 것을 특징으로 하고,It characterized in that the locally photographed image collected before the subsequent reference image is set is matched with the reference image,
상기 구강 데이터 생성부는, The oral data generation unit,
상기 기준영상을 3차원 가상공간에 모델링하여 가상객체를 생성하고, 상기 가상객체의 3차원 좌표를 상기 기준영상에 매핑하여 저장하는 것을 특징으로 하고,The reference image is modeled in a 3D virtual space to generate a virtual object, and the 3D coordinates of the virtual object are mapped to the reference image and stored,
상기 영역 분할부는,The area division unit,
상기 3차원 좌표정보를 기초로 상기 기준영상의 깊이정보를 분석하고, 기 설정된 깊이 구간에 따라 상기 기준영상을 동일한 깊이 구간을 가지는 영역별로 분할하여, 분할된 각각의 영역에 분포된 복수의 특징점으로부터 영역별 대표 특징점을 추출하고, 상기 영역별 대표 특징점을 기초로 서로 다른 영역 간의 경계에 있는 경계점을 산출하는 것을 특징으로 하고, The depth information of the reference image is analyzed based on the 3D coordinate information, and the reference image is divided by regions having the same depth section according to a preset depth section, and from a plurality of feature points distributed in each of the divided regions. Extracting the representative feature points for each region, and calculating a boundary point at the boundary between different regions based on the representative feature points for each region,
상기 디스플레이부는,The display unit,
상기 구강 데이터 생성부에 의해 생성된 구강 데이터를 화상 정보로 표시하되, 상기 구강 스캐너로부터 실시간 수신되는 국부 촬영영상을 소정 영역에 표시하면서, 상기 구강 데이터에서 상기 국부 촬영영상에 해당되는 영역을 관심 영역으로 표시하는 것을 특징으로 한다.The oral data generated by the oral data generator is displayed as image information, and a localized image received in real time from the oral scanner is displayed in a predetermined area, and an area corresponding to the localized image in the oral data is a region of interest. Characterized in that it is marked as.
상술한 본 발명의 일측면에 따르면, 구강 스캐너로부터 수집되는 국부 촬영 영상 중 어느 하나를 기준영상으로 설정하여, 나머지 국부 촬영영상을 기준영상에 대해 와핑하여 정합함으로써, 구강 스캐닝 중 촬영 각도가 가변되더라도 정밀한 구강 모델링 데이터를 생성할 수 있다.According to an aspect of the present invention described above, by setting any one of the localized images collected from the oral scanner as a reference image, and matching the remaining localized images by warping to the reference image, even if the shooting angle is changed during oral scanning Precise oral modeling data can be generated.
도 1은 본 발명의 일 실시예에 따른 구강 데이터 제공 시스템의 개략적인 구성이 도시된 도면이다.
도 2는 도 1의 구강 데이터 처리장치의 구체적인 구성이 도시된 블록도이다.
도 3은 도 2의 영상 정합부의 구체적인 구성이 도시된 도면이다.
도 4 내지 도 7은 영상 정합부에 의해 수행되는 구체적인 영상 정합 과정을 설명하기 위한 도면이다.
도 8은 디스플레이부에서 표시되는 화상정보의 일 예가 도시된 도면이다.1 is a diagram showing a schematic configuration of an oral data providing system according to an embodiment of the present invention.
2 is a block diagram showing a detailed configuration of the oral data processing apparatus of FIG. 1.
3 is a diagram showing a detailed configuration of the image matching unit of FIG. 2.
4 to 7 are diagrams for explaining a specific image matching process performed by an image matching unit.
8 is a diagram illustrating an example of image information displayed on a display unit.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE INVENTION The detailed description of the present invention to be described later refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced. These embodiments are described in detail sufficient to enable a person skilled in the art to practice the present invention. It is to be understood that the various embodiments of the present invention are different from each other, but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description to be described below is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scopes equivalent to those claimed by the claims. Like reference numerals in the drawings refer to the same or similar functions over several aspects.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 구강 데이터 제공 시스템의 개략적인 구성이 도시된 도면이다.1 is a diagram showing a schematic configuration of a system for providing oral data according to an embodiment of the present invention.
본 발명에 따른 구강 데이터 제공 시스템(1)은 구강 스캐너(100) 및 구강 데이터 처리장치(200)를 포함한다.The oral
구강 스캐너(100)는 구강 내부를 국부적으로 스캐닝하여 국부 촬영영상을 생성하는 장치로, 전체적으로는 종래의 일반적인 구강 스캐너의 형태일 수 있다.The
다만, 본 발명에 따른 구강 스캐너(100)는 구강 스캐너(100)의 3축 회전량을 측정하기 위한 센서(예컨대 자이로 센서)가 구비되어, 구강 스캐너(100)의 촬영 각도에 대한 정보를 생성할 수 있다.However, the
구강 데이터 처리장치(200)는 구강 스캐너로부터 수신된 국부 촬영영상에 기초하여 구강 내부구조전체에 대한 구강 데이터를 생성하고, 이를 자체 구비된 디스플레이 모듈을 통해 출력하는 장치이다.The oral
또한, 구강 데이터 처리장치(200)는 디스플레이 모듈을 통해 감지되는 사용자의 입력정보(터치)에 기초하여 생성된 구강 데이터를 3축 회전된 상태로 표시하거나 확대/축소하여 표시함으로써 사용자(의료인)이 구강 구조를 용이하게 파악할 수 있도록 한다.In addition, the oral
이를 위해, 본 발명에 따른 구강 데이터 처리장치(200)는 본 발명에 따른 구강 데이터 제공 방법에 따라 구강 데이터를 생성하기 위한 소프트웨어(애플리케이션)가 설치되어 실행될 수 있다. To this end, the oral
구강 데이터 처리장치(200)는 이동성을 갖거나 고정될 수 있다. 구강 데이터 처리장치(200)는, 서버(server) 또는 엔진(engine) 형태일 수 있으며, 디바이스(device), 기구(apparatus), 단말(terminal), UE(user equipment), MS(mobile station), 무선기기(wireless device), 휴대기기(handheld device) 등 다른 용어로 불릴 수 있다. The oral
구강 데이터 처리장치(200)는 운영체제(Operation System; OS), 즉 시스템을 기반으로 다양한 소프트웨어를 실행하거나 제작할 수 있다. 상기 운영체제는 소프트웨어가 장치의 하드웨어를 사용할 수 있도록 하기 위한 시스템 프로그램으로서, 안드로이드 OS, iOS, 윈도우 모바일 OS, 바다 OS, 심비안 OS, 블랙베리 OS 등 모바일 컴퓨터 운영체제 및 윈도우 계열, 리눅스 계열, 유닉스 계열, MAC, AIX, HP-UX 등 컴퓨터 운영체제를 모두 포함할 수 있다.The oral
도 2를 참조하면, 구강 데이터 처리장치(200)는 촬영영상 수집부(210), 영상 정합부(220), 구강 데이터 생성부(230) 및 디스플레이부(240)를 포함할 수 있다.Referring to FIG. 2, the oral
촬영영상 수집부(210)는 구강 스캐너(100)로부터 실시간 수신되는 국부 촬영영상을 수집하여 저장한다.The photographed
영상 정합부(220)는 서로 다른 각도에서 촬영된 복수의 국부 촬영영상을 어느 하나의 국부 촬영영상을 기준으로 정합한다.The
도 3을 함께 참조하면, 영상 정합부(220)는 기준영상 설정부(221), 대표점 추출부(222), 깊이 구분부(223), 경계점 산출부(224) 및 국부영상 와핑부(225)를 포함한다.Referring to FIG. 3 together, the
기준영상 설정부(221)는 촬영영상 수집부(210)로부터 수신되는 복수의 국부 촬영영상 중 어느 하나를 기준영상으로 설정할 수 있다.The reference
상술한 바와 같이, 국부 촬영영상은 의료인이 구강 스캐너(100)를 이용하여 생성되게 되는데, 구강 내부를 스캐닝하는 과정에서 촬영 각도가 가변되는 경우가 발생될 수 있다.As described above, the local imaging image is generated by a medical professional using the
예를 들어, 도 4에 도시된 바와 같이, 의료인은 최초 A의 위치에서 해당 치아를 촬영하고 있다가, 촬영 과정에서 다양한 요인에 의해 촬영 각도가 변경될 수 있다. 이때, 촬영 각도가 A에서 B로 변경되는 경우, 동일한 치아를 촬영하더라도 촬영각도의 변화로 인해 2차원 형태의 국부 촬영영상은 치아의 형상이 왜곡되게 된다.For example, as shown in FIG. 4, a medical practitioner is photographing a corresponding tooth at the position of the first A, and then the photographing angle may be changed due to various factors during the photographing process. In this case, when the photographing angle is changed from A to B, the shape of the tooth is distorted in the two-dimensional localized image due to the change in the photographing angle even if the same tooth is photographed.
따라서, 기준영상 설정부(221)는 구강 스캐너의 촬영 각도가 변경되더라도 각도 변경에 따른 왜곡이 최소화될 수 있도록 복수의 국부 촬영영상 중 어느 하나를 기준 촬영영상으로 설정할 수 있다.Accordingly, the reference
구체적으로, 기준영상 설정부(221)는 소정 시간 간격마다 미리 설정된 기준 3축 자세값을 유지한 상태에서 촬영된 국부 촬영영상을 기준영상으로 설정한다. 예컨대, 기준영상 설정부(221)는 10초마다 디스플레이부(240)를 통해 기준 3축 자세값이 출력되도록 하여, 의료진이 해당 시점에서는 기준영상 설정부(221)에 의해 설정된 촬영 각도로 국부 촬영영상을 수집할 수 있도록 안내할 수 있다.Specifically, the reference
이때, 상기 영상 정합부(200)는, 도 5에 도시된 바와 같이 후속 기준영상이 설정되기 이전까지 수집되는 국부 촬영영상을 상기 기준영상에 대해 정합하는 것을 특징으로 하고, 상기 구강 데이터 생성부(230)는, 상기 기준영상을 3차원 가상공간에 모델링하여 가상객체를 생성하고, 상기 가상객체의 3차원 좌표를 상기 기준영상에 매핑하여 저장하는 것을 특징으로 한다.In this case, the
특징점 추출부(20)는 투영된 기준영상을 분석하여 복수의 특징점을 추출하고, 국부 촬영영상을 분석하여 복수의 특징점을 추출할 수 있다. 또한, 특징점 추출부(20)는 기준영상의 특징점과 국부 촬영영상의 특징점을 매칭할 수 있다. 도 5는 기준영상의 특징점과 국부 촬영영상의 특징점이 매칭된 일 예를 나타내는 도면이다. 특징점 추출부(20)는 추출된 특징점을 분석하여, 유사한 특징을 나타내는 특징점들을 매칭시킬 수 있다. 그리고, 특징점 추출부(20)는 매칭된 특징점들간의 매칭값을 산출할 수 있다. 특징점 추출 및 매칭 방법은 SIFT 기법, SURF 기법, ORB 기법, BRISK 기법 등 기 공지된 기술들을 이용하여 다양한 방법으로 수행될 수 있다. 따라서, 특징점을 추출하며 매칭하는 구체적인 내용은 생략하기로 한다.The feature point extraction unit 20 may extract a plurality of feature points by analyzing the projected reference image, and extract a plurality of feature points by analyzing a local photographed image. In addition, the feature point extraction unit 20 may match the feature points of the reference image and the feature points of the local photographed image. 5 is a diagram illustrating an example in which a feature point of a reference image and a feature point of a locally photographed image are matched. The feature point extracting unit 20 may analyze the extracted feature points and match feature points representing similar features. In addition, the feature point extraction unit 20 may calculate a matching value between the matched feature points. The feature point extraction and matching method may be performed in various ways using known techniques such as SIFT technique, SURF technique, ORB technique, and BRISK technique. Therefore, detailed content of extracting and matching feature points will be omitted.
영역 분할부(30)는 가상 객체에 투영된 기준영상의 영역을 구분할 수 있다. 영역 분할부(30)는 깊이정보를 이용하여 유사한 깊이정보를 갖는 영역끼리 구분되도록 영역을 분할할 수 있다. 상술한 바와 같이, 가상공간 생성부(10)는 가상 객체에 기준영상이 투영될 때 기준영상과 맵핑된 가상 객체의 3차원 좌표정보가 함께 저장할 수 있다. 따라서, 영역 분할부(30)는 기준영상에 저장된 깊이정보를 기 설정된 깊이 구간과 비교하여, 동일한 깊이 구간을 갖는 복수의 영역으로 분할할 수 있다. The region dividing unit 30 may divide a region of the reference image projected onto the virtual object. The region dividing unit 30 may divide the region so that regions having similar depth information are divided using the depth information. As described above, when the reference image is projected onto the virtual object, the virtual space generator 10 may store the reference image and 3D coordinate information of the mapped virtual object together. Accordingly, the region dividing unit 30 may compare the depth information stored in the reference image with a preset depth section and divide it into a plurality of regions having the same depth section.
도 7은 영역 분할부(30)에서 기준영상에 저장된 3차원 좌표정보를 이용하여 깊이정보에 따라 기준영상을 복수의 영역으로 분할한 일 예가 도시된다. 도시된 바와 같이, 영역 분할부(30)는 기준영상을 깊이정보에 따라 D1 아래의 영역, D1-D2 사이의 영역, D2-D3 사이의 영역, D3 상단의 영역으로 분할할 수 있다.7 illustrates an example in which the region dividing unit 30 divides the reference image into a plurality of regions according to depth information using 3D coordinate information stored in the reference image. As illustrated, the region dividing unit 30 may divide the reference image into a region below D1, a region between D1-D2, a region between D2-D3, and an upper region of D3 according to depth information.
또한, 영역 분할부(30)는 분할된 각 영역별 대표 특징점을 추출할 수 있다. 영역 분할부(30)는 기준영상에 분포된 복수의 특징점들 중 분할된 영역별로 대표 특징점을 두 개 이상 추출할 수 있다. 대표 특징점은 특징점 추출부(20)에서 산출된 매칭값을 기초로 추출될 수 있다. 예를 들어, 영역 분할부(30)는 영역 1에 위치한 10개의 특징점들을 매칭값이 높은 순서대로 나열하고, 상위 n개의 특징점을 대표 특징점으로 선택할 수 있다. 각 영역별로 두 개의 대표 특징점이 선택됨을 알 수 있다. 선택되는 특징점의 개수에 제한이 있는 것은 아니며, 두 개 이상으로 추출되기만 하면 그 개수에 제한을 두지 않는다.Also, the region dividing unit 30 may extract representative feature points for each divided region. The region dividing unit 30 may extract two or more representative feature points for each divided region among a plurality of feature points distributed in the reference image. The representative feature point may be extracted based on the matching value calculated by the feature point extracting unit 20. For example, the region dividing unit 30 may arrange 10 feature points located in the
경계점 산출부(40)는 기준영상의 영역 별로 추출된 대표 특징점을 이용하여 영역 간의 경계에 있는 경계점의 위치를 산출할 수 있다. 상술한 바와 같이, 기준영상은 투영된 가상 객체의 3차원 좌표정보가 저장되어 있기 때문에, 각각의 특징점의 3차원 좌표 또한 알 수 있다. 경계점 산출부(40)는 동일한 방법을 통해 기준영상 내의 모든 영역에서의 경계점 및 그 위치를 산출할 수 있다.The boundary point calculation unit 40 may calculate the position of the boundary point at the boundary between regions by using the representative feature points extracted for each region of the reference image. As described above, since 3D coordinate information of the projected virtual object is stored in the reference image, the 3D coordinates of each feature point can also be known. The boundary point calculation unit 40 may calculate boundary points and their positions in all areas in the reference image through the same method.
한편, 경계점 산출부(40)는 기준영상의 대표 특징점과 산출된 경계점을 기초로 국부 촬영영상의 경계점 위치를 산출할 수 있다. 구체적으로, 경계점 산출부(40)는 기준영상의 대표 특징점과 산출된 경계점 사이의 거리비를 이용하여 국부 촬영영상의 경계점을 산출할 수 있다. 국부 촬영영상은 기준영상과는 달리 3차원 위치정보가 저장되어 있지 않으므로, 기준 영상인 기준영상을 통해 간접적으로 경계점을 산출할 수 있다. 상술한 바와 같이, 특징점 추출부(20)는 기준영상의 특징점과 국부 촬영영상의 특징점을 매칭시킬 수 있다. 다시 말해, 기준영상의 특징점 Pnm(n: 기준영상의 분할된 영역의 개수, m: 추출된 대표 특징점의 개수. 예를 들어, 추출된 대표 특징점이 2개인 경우, m=1 또는 2)은 국부 촬영영상의 특징점 P'nm과 매칭될 수 있다.Meanwhile, the boundary point calculating unit 40 may calculate a boundary point position of the local photographed image based on the representative feature point of the reference image and the calculated boundary point. Specifically, the boundary point calculation unit 40 may calculate the boundary point of the local photographed image by using a distance ratio between the representative feature point of the reference image and the calculated boundary point. Unlike the reference image, the local photographed image does not store 3D location information, so the boundary point can be indirectly calculated through the reference image, which is a reference image. As described above, the feature point extraction unit 20 may match the feature points of the reference image and the feature points of the localized image. In other words, the feature point Pnm of the reference image (n: the number of divided regions of the reference image, m: the number of extracted representative feature points. For example, in the case of two extracted representative feature points, m=1 or 2) is a local It may be matched with the feature point P'nm of the captured image.
이와 유사한 방법으로, 경계점 산출부(40)는 기준영상에서 산출된 모든 경계점에 대응되는 국부 촬영영상의 경계점을 산출하여 선분을 생성하고, 국부 촬영영상을 복수의 영역으로 분할할 수 있다. 도 9는 복수의 영역으로 분할된 국부 촬영영상의 일 예를 나타낸다.In a similar way, the boundary point calculating unit 40 may generate a line segment by calculating boundary points of a localized image corresponding to all boundary points calculated from the reference image, and divide the localized image into a plurality of regions. 9 shows an example of a localized photographed image divided into a plurality of regions.
와핑부(50)는 구강 스캐너에 의해 촬영된 국부 촬영영상을 가상 객체에 와핑(warping)하여 투영하도록, 국부 촬영영상의 영역별로 와핑점을 설정할 수 있다. 와핑점은 특징점 추출부(20)에 의해 생성된 복수의 특징점들과, 경계점 산출부(40)에 의해 산출된 복수의 경계점들 중 하나일 수 있다. 도 7은 국부 촬영영상의 분할된 영역 내에서 설정된 와핑점들의 일 예를 나타내는 도면이다. 도시된 일 예에서, 와핑점은 4개로 설정되었으나, 설정되는 와핑점의 개수는 개수에 제한을 두지 않는다. 설정되는 와핑점이 많아질수록 국부 촬영영상의 와핑이 더욱 정확해지는 반면, 요구되는 연산량이 많아져서 영상 처리 속도가 감소할 수 있다. 또한, 설정되는 와핑점의 개수가 적어질수록 영상 처리 속도는 증가하지만, 전자에 비해 와핑의 정확도는 떨어질 수 있는 단점이 있다. 관리자는 사용 환경에 따라 선택되는 와핑점의 개수를 임의로 조절할 수 있음은 물론이다.The warping unit 50 may set a warping point for each area of the localized image so as to warp and project the localized image captured by the oral scanner onto the virtual object. The warping point may be one of a plurality of feature points generated by the feature point extracting unit 20 and a plurality of boundary points calculated by the boundary point calculating unit 40. 7 is a diagram illustrating an example of warping points set within a divided area of a localized image. In the illustrated example, the number of warping points is set to 4, but the number of warping points is not limited. As the number of warping points to be set increases, the warping of the local photographed image becomes more accurate, while the amount of computation required increases, so that the image processing speed may decrease. In addition, as the number of set warping points decreases, the image processing speed increases, but there is a disadvantage in that the accuracy of warping may decrease compared to the former. Of course, the administrator can arbitrarily adjust the number of warping points selected according to the use environment.
와핑부(50)는 선택된 와핑점들을 와핑 행렬로 나타내고, 변환 행렬을 계산하여 국부 촬영영상을 와핑시킬 수 있다. 이때, 와핑부(50)는 국부 촬영영상의 영역별로 변환 행렬을 계산할 수 있다. 상술한 예시를 참조하면, 국부 촬영영상은 세 개의 영역으로 분할되어 있으므로, 와핑부(50)는 세 번의 변환 행렬을 연산할 수 있다. 이에 따라, 국부 촬영영상 내에 분할된 각각의 영역은 서로 다른 정도로 와핑될 수 있다. 와핑 행렬을 계산하는 방법은 어파인(affine) 변환이나 투영 변환 등과 같이 기 공지된 변환 기법 중 어느 하나의 기법을 이용하여 와핑 행렬의 변환 행렬을 연산할 수 있다. 특히, 투영 변환을 이용하는 경우, 와핑부(50)는 와핑점을 영역별로 네 개씩 설정하고, 설정된 네 개의 와핑점을 기준으로 국부 촬영영상을 사다리꼴 형태로 변환할 수 있다.The warping unit 50 may represent the selected warping points as a warping matrix, and may warp the localized image by calculating a transformation matrix. In this case, the warping unit 50 may calculate a transformation matrix for each region of the localized image. Referring to the above example, since the local photographed image is divided into three regions, the warping unit 50 may calculate the transformation matrix three times. Accordingly, each divided region in the localized photographed image may be warped to a different degree. As a method of calculating the warping matrix, a transformation matrix of the warping matrix may be calculated using any one of known transformation techniques such as affine transformation or projection transformation. In particular, in the case of using projection transformation, the warping unit 50 may set four warping points for each area, and convert a localized image to a trapezoidal shape based on the set four warping points.
이후, 구강 데이터 생성부(230)는 와핑부(50)가 분할된 국부 촬영영상의 모든 영역에서 와핑 행렬을 계산한 것으로 확인되면, 그 결과를 이용하여 실시간으로 국부 촬영영상을 가상 객체에 투영할 수 있다. 따라서, 본 실시예에 따른 구강 데이터 제공 시스템(1)을 이용하면 구강 스캐너의 촬영 각도가 이동되더라도, 국부 촬영영상을 실시간으로 와핑하여 가상 객체에 투영할 수 있다.Thereafter, if it is confirmed that the warping unit 50 has calculated the warping matrix in all regions of the divided localized image, the oral
한편, 경계점 산출부(224)는 국부 촬영영상 와핑부(50)에 의해 선택된 와핑점이 모두 경계점인 것으로 확인되면, 상술한 수학식 1을 이용한 과정을 통하여 감시 영상의 새로운 경계점을 산출할 수 있다. 경계점 산출부(224)는 산출된 새로운 경계점을 이용하여 기 분할된 영역을 다시 분할할 수 있다. On the other hand, when it is determined that all warping points selected by the localized image warping unit 50 are boundary points, the boundary
최초 산출된 경계점 외에 새롭게 산출된 경계점을 이용하여 분할 영역을 재설정하는 일 예를 나타내는 도면이다. 도시된 바와 같이, 붉은색 실선상의 두 개의 점들은 새롭게 산출된 경계점들을 나타낸다. 또한, 새롭게 산출된 경계점들이 연결된 선분인 붉은색 실선으로 인해 분할되는 영역이 재설정될 수 있다. A diagram illustrating an example of resetting a divided area using a newly calculated boundary point other than the initially calculated boundary point. As shown, two points on the red solid line represent newly calculated boundary points. In addition, the divided area may be reset by a red solid line, which is a line segment to which newly calculated boundary points are connected.
이와 같은 방법으로, 영상 정합부(220)는 국부 촬영영상이 서로 다른 각도에서 생성되더라도, 어느 하나의 국부 촬영영상(기준영상)을 기준으로 나머지 다른 국부 촬영영상을 와핑하여 구강 데이터의 왜곡을 최소화할 수 있다.In this way, the
상기 디스플레이부(240)는, 상기 구강 데이터 생성부(230)에 의해 생성된 구강 데이터를 화상 정보로 표시하되, 상기 구강 스캐너로부터 실시간 수신되는 국부 촬영영상을 소정 영역에 표시하면서, 상기 구강 데이터에서 상기 국부 촬영영상에 해당되는 영역을 관심 영역(ROI)으로 표시하는 것을 특징으로 한다.The
도 9를 참조하면, 본 발명의 일 실시예에 따른 구강 데이터 제공 방법의 개략적인 흐름이 도시된다.9, a schematic flow of a method of providing oral data according to an embodiment of the present invention is shown.
먼저, 모니터링할 구강 영역에 대한 기준영상을 생성하여 3차원 가상 공간의 가상 객체에 투영할 수 있다(110). 이를 위해, 3차원 가상 공간에 실제 감시영역을 모델링하여 가상 객체를 구현하고, 실제 감시영역의 초기 촬영 영상인 기준영상을 수신할 수 있다. 그리고, 기준영상을 가상 객체에 투영하고, 가상 객체에 투영된 기준영상 및 가상 객체의 3차원 좌표정보를 함께 저장할 수 있다.First, a reference image for an oral region to be monitored may be generated and projected onto a virtual object in a 3D virtual space (110). To this end, a virtual object may be implemented by modeling an actual surveillance area in a 3D virtual space, and a reference image, which is an initial image of the real surveillance area, may be received. In addition, the reference image may be projected onto the virtual object, and the reference image projected onto the virtual object and 3D coordinate information of the virtual object may be stored together.
다음으로, 가상 객체에 투영된 기준영상과 국부 촬영영상을 매칭할 수 있다(120). 구체적으로, 기준영상과 국부 촬영영상 각각에서 특징점들을 추출하고, 기준영상의 특정 특징점에 대응되는 국부 촬영영상의 특징점과 매칭시킬 수 있다. 매칭된 특징점들은 유사도에 따라 매칭값이 산출될 수 있다.Next, the reference image projected on the virtual object and the localized image may be matched (120). Specifically, feature points may be extracted from each of the reference image and the localized image, and matched with the feature points of the localized image corresponding to the specific feature point of the reference image. Matched feature points may be calculated according to similarity.
가상 객체에 투영된 기준영상을 깊이정보에 따라 복수의 영역으로 분할하고, 각 영역별로 대표 특징점을 추출할 수 있다(130). 기준영상의 분할된 각각의 영역에 분포된 복수의 특징점 각각의 매칭값을 비교하여, 매칭값이 높은 순서대로 미리 설정된 개수만큼 대표 특징점을 추출할 수 있다.The reference image projected on the virtual object may be divided into a plurality of regions according to depth information, and representative feature points may be extracted for each region (130). By comparing the matching values of each of the plurality of feature points distributed in each divided region of the reference image, the representative feature points may be extracted as many as a preset number in the order of matching values.
추출된 영역별 대표 특징점을 기초로 기준영상의 서로 다른 영역 간의 경계에 있는 경계점을 산출할 수 있다(140). 즉, 가상 객체에 투영된 기준영상을 3차원 좌표의 깊이정보를 이용하여 깊이정보에 따라 복수의 영역으로 분할하고, 분할된 각각의 영역에 분포된 대표 특징점을 기초로 서로 다른 영역간의 경계선상에 위치하는 경계점의 위치를 산출할 수 있다.A boundary point at a boundary between different regions of the reference image may be calculated based on the extracted representative feature points for each region (140). That is, the reference image projected on the virtual object is divided into a plurality of regions according to depth information using depth information of 3D coordinates, and on the boundary line between different regions based on the representative feature points distributed in each divided region. It is possible to calculate the position of the located boundary point.
기준영상의 영역별 대표 특징점과 경계점을 기초로 국부 촬영영상의 경계점을 산출하고, 산출된 국부 촬영영상의 경계점을 기초로 국부 촬영영상을 복수의 영역으로 분할할 수 있다(150). 기준영상의 대표 특징점과 경계점과의 거리비에 따라 국부 촬영영상의 경계점이 결정될 수 있다.A boundary point of the localized photographed image may be calculated based on the representative feature points and boundary points of each region of the reference image, and the local photographed image may be divided into a plurality of regions based on the calculated boundary point of the local photographed image (150). The boundary point of the localized image may be determined according to a distance ratio between the representative feature point and the boundary point of the reference image.
국부 촬영영상의 영역별로 와핑점을 설정하고, 와핑점의 변환행렬을 연산하여 국부 촬영영상을 영역별로 와핑할 수 있다(160). 즉, 국부 촬영영상을 영역별로 와핑할 수 있으며, 와핑점을 설정하는 과정에서 설정된 와핑점이 모두 경계점인 경우, 기 산출된 국부 촬영영상의 경계점 외에 새로운 경계점을 산출하는 과정을 더 수행하고, 새로운 경계점을 이용하여 국부 촬영영상의 분할 영역을 재설정할 수 있다. 이후, 분할 영역이 재설정된 국부 촬영영상의 영역별로 와핑점을 설정하는 과정을 다시 수행할 수 있다.A warping point may be set for each area of the localized image, and a transformation matrix of the warping point may be calculated to warp the localized image for each area (160). That is, the localized image can be warped for each area, and if all the warping points set in the process of setting the warping point are boundary points, a process of calculating a new boundary point in addition to the boundary point of the previously calculated local image is further performed, and a new boundary point The divided area of the locally photographed image can be reset by using. Thereafter, a process of setting a warping point for each region of the localized image in which the divided region has been reset may be performed again.
마지막으로, 영역별로 와핑된 국부 촬영영상을 가상 객체에 실시간으로 투영할 수 있다(170). 즉, 최초 가상 객체에 투영된 기준영상을 영역별로 와핑된 감시 영상으로 갱신할 수 있으며, 상술한 단계들을 반복함으로써 가상 객체에 와핑된 국부 촬영영상을 실시간으로 투영할 수 있다.Finally, the localized photographed image warped for each region may be projected onto the virtual object in real time (170). That is, the reference image initially projected on the virtual object may be updated as a surveillance image warped for each region, and the localized photographed image warped on the virtual object may be projected in real time by repeating the above-described steps.
이와 같은, 구강 데이터 처리 방법을 제공하는 기술은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Such a technique for providing an oral data processing method may be implemented as an application or implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded in the computer-readable recording medium may be specially designed and constructed for the present invention, and may be known and usable to those skilled in the computer software field.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magnetic-optical media such as floptical disks. media), and a hardware device specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present invention, and vice versa.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to embodiments, those skilled in the art will understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention described in the following claims. I will be able to.
1: 구강 데이터 제공 시스템
100: 구강 스캐너
200: 구강 데이터 처리장치1: oral data provision system
100: oral scanner
200: oral data processing device
Claims (2)
상기 구강 스캐너로부터 수신된 국부 촬영영상에 기초하여 구강 내부구조전체에 대한 구강 데이터를 생성하는 구강 데이터 처리장치를 포함하는 구강 데이터 제공 시스템에 있어서,
상기 구강 데이터 처리장치는,
상기 구강 스캐너로부터 수신되는 국부 촬영영상을 순차적으로 수집하는 촬영영상 수집부;
서로 다른 각도에서 촬영된 복수의 국부 촬영영상을 어느 하나의 국부 촬영영상을 기준으로 정합하는 영상 정합부;
상기 영상 정합부에 의해 정합된 국부 촬영영상을 기초로 구강 전체 구조를 나타내는 구강 데이터를 생성하는 구강 데이터 생성부; 및
상기 구강 데이터를 화상 정보로 표시하는 디스플레이부를 포함하고,
상기 영상 정합부는,
복수의 국부 촬영영상 중 기준영상을 설정하는 기준영상 설정부;
상기 기준영상과, 상기 기준영상 이후 후속적으로 수신되는 국부 촬영영상에서 각각의 특징점을 복수 개 추출하고, 상기 기준영상의 특징점에 대응되는 상기 국부 촬영영상의 특징점을 매칭하는 대표점 추출부;
상기 기준영상을 깊이정보에 따라 복수의 영역으로 분할하고, 분할된 각각의 영역에 분포된 복수의 특징점으로부터 영역별 대표 특징점을 추출하는 영역 분할부;
상기 영역별 대표 특징점을 기초로 서로 다른 영역 간의 경계에 있는 경계점을 산출하고, 상기 기준영상의 상기 영역별 대표 특징점과 상기 경계의 거리비에 따라 상기 국부 촬영영상의 경계점을 산출하고, 산출된 국부 촬영영상의 경계점을 기초로 상기 국부 촬영영상을 복수의 영역으로 분할하는 경계점 산출부; 및
상기 국부 촬영영상의 영역별로 와핑점을 설정하고, 상기 와핑점의 변환행렬을 연산하여 상기 국부 촬영영상을 영역별로 와핑하며, 영역별로 와핑된 상기 국부 촬영영상을 가상 객체에 실시간으로 투영하는 와핑부를 포함하는
상기 기준영상 설정부는,
소정 시간 간격마다 미리 설정된 기준 3축 자세값을 유지한 상태에서 촬영된 국부 촬영영상을 기준영상으로 설정하고,
상기 영상 정합부는,
후속 기준영상이 설정되기 이전까지 수집되는 국부 촬영영상을 상기 기준영상에 대해 정합하는 것을 특징으로 하고,
상기 구강 데이터 생성부는,
상기 기준영상을 3차원 가상공간에 모델링하여 가상객체를 생성하고, 상기 가상객체의 3차원 좌표를 상기 기준영상에 매핑하여 저장하는 것을 특징으로 하고,
상기 영역 분할부는,
상기 3차원 좌표를 기초로 상기 기준영상의 깊이정보를 분석하고, 기 설정된 깊이 구간에 따라 상기 기준영상을 동일한 깊이 구간을 가지는 영역별로 분할하여, 분할된 각각의 영역에 분포된 복수의 특징점으로부터 영역별 대표 특징점을 추출하고, 상기 영역별 대표 특징점을 기초로 서로 다른 영역 간의 경계에 있는 경계점을 산출하는 것을 특징으로 하고,
상기 디스플레이부는,
상기 구강 데이터 생성부에 의해 생성된 구강 데이터를 화상 정보로 표시하되, 상기 구강 스캐너로부터 실시간 수신되는 국부 촬영영상을 소정 영역에 표시하면서, 상기 구강 데이터에서 상기 국부 촬영영상에 해당되는 영역을 관심 영역으로 표시하는 것을 특징으로 하는, 구강 데이터 제공 시스템.
An oral scanner that scans the inside of the oral cavity locally to generate a localized image; And
In the oral data providing system comprising an oral data processing device for generating oral data for the entire internal structure of the oral cavity based on the local image received from the oral scanner,
The oral data processing device,
A photographed image collection unit sequentially collecting the local photographed images received from the oral scanner;
An image matching unit for matching a plurality of localized images captured at different angles with respect to any one localized image;
An oral data generation unit for generating oral data representing the entire oral cavity structure based on the localized image matched by the image matching unit; And
Includes a display unit for displaying the oral data as image information,
The image matching unit,
A reference image setting unit for setting a reference image among a plurality of localized images;
A representative point extracting unit for extracting a plurality of feature points from the reference image and a local photographed image subsequently received after the reference image, and matching feature points of the local photographed image corresponding to the feature points of the reference image;
A region dividing unit for dividing the reference image into a plurality of regions according to depth information, and extracting representative feature points for each region from a plurality of feature points distributed in each of the divided regions;
A boundary point at a boundary between different regions is calculated based on the representative feature points for each region, and a boundary point of the local photographed image is calculated according to a distance ratio between the representative feature points for each region of the reference image and the boundary, and the calculated local A boundary point calculator for dividing the local photographed image into a plurality of regions based on boundary points of the photographed image; And
A warping unit for setting a warping point for each area of the localized image, calculating a transformation matrix of the warping point to warp the localized image for each area, and projecting the localized image for each area on a virtual object in real time Included
The reference image setting unit,
Locally photographed images taken while maintaining the preset reference 3-axis posture value at predetermined time intervals are set as the reference image,
The image matching unit,
It characterized in that the local photographed image collected before the subsequent reference image is set is matched with the reference image,
The oral data generation unit,
The reference image is modeled in a 3D virtual space to generate a virtual object, and the 3D coordinates of the virtual object are mapped to the reference image and stored,
The area division unit,
The depth information of the reference image is analyzed based on the three-dimensional coordinates, and the reference image is divided by regions having the same depth section according to a preset depth section, and a region from a plurality of feature points distributed in each divided region It is characterized in that a representative feature point of a star is extracted, and a boundary point at a boundary between different regions is calculated based on the representative feature point of each region,
The display unit,
The oral data generated by the oral data generator is displayed as image information, and a localized image received in real time from the oral scanner is displayed in a predetermined area, and an area corresponding to the localized image in the oral data is a region of interest. Characterized in that the display as, oral data providing system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200085786A KR102191542B1 (en) | 2020-07-12 | 2020-07-12 | Oral data provision system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200085786A KR102191542B1 (en) | 2020-07-12 | 2020-07-12 | Oral data provision system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102191542B1 true KR102191542B1 (en) | 2020-12-15 |
Family
ID=73780344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200085786A KR102191542B1 (en) | 2020-07-12 | 2020-07-12 | Oral data provision system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102191542B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110082759A (en) * | 2010-01-12 | 2011-07-20 | 데오덴탈 주식회사 | Scaner for oral cavity and system for manufacturing teeth mold |
KR101825216B1 (en) | 2016-08-29 | 2018-02-02 | (주) 에핀 | precision 3D solid data acquisition method using the oral scanner |
KR101902391B1 (en) | 2016-12-22 | 2018-10-01 | 오스템임플란트 주식회사 | Image Data Processing Method OF Oral Cavity, And Intraoral Scanner |
-
2020
- 2020-07-12 KR KR1020200085786A patent/KR102191542B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110082759A (en) * | 2010-01-12 | 2011-07-20 | 데오덴탈 주식회사 | Scaner for oral cavity and system for manufacturing teeth mold |
KR101825216B1 (en) | 2016-08-29 | 2018-02-02 | (주) 에핀 | precision 3D solid data acquisition method using the oral scanner |
KR101902391B1 (en) | 2016-12-22 | 2018-10-01 | 오스템임플란트 주식회사 | Image Data Processing Method OF Oral Cavity, And Intraoral Scanner |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11896455B2 (en) | Method and system for braces removal from dentition mesh | |
KR101878467B1 (en) | Method, apparatus and program for selective registration three-dimensional tooth image data to optical scanning tooth model | |
ES2864684T3 (en) | Procedure and system to remove orthodontic appliances from the digital mesh of the dentition | |
US11961238B2 (en) | Tooth segmentation using tooth registration | |
JP6678172B2 (en) | Detection of tooth wear using three-dimensional intraoral scan | |
ES2608958T3 (en) | Tooth display system | |
KR101913586B1 (en) | Dental image registration method, apparatus, and recording medium thereof | |
US9191648B2 (en) | Hybrid stitching | |
US8503763B2 (en) | Image signatures for use in motion-based three-dimensional reconstruction | |
US20060127854A1 (en) | Image based dentition record digitization | |
US8711178B2 (en) | System and method for generating profile morphing using cephalometric tracing data | |
JP4770936B2 (en) | Vein authentication device and template registration method | |
KR102130963B1 (en) | Apparatus and method for analyzing cephalic image | |
JP7120965B2 (en) | Head image analysis device and image analysis method | |
US20220378548A1 (en) | Method for generating a dental image | |
US20220246269A1 (en) | Implant surgery planning method using automatic placement of implant structure, user interface providing method therefor, and teeth image processing device therefor | |
KR20210128535A (en) | Method and apparatus for detecting landmarks from medical 3d volume image based on deep learning | |
KR20210018661A (en) | Method for recommending crown model and prosthetic CAD apparatus therefor | |
KR20200058316A (en) | Automatic tracking method of cephalometric point of dental head using dental artificial intelligence technology and service system | |
KR102191542B1 (en) | Oral data provision system | |
KR20210099835A (en) | Method for generating panoramic image and image processing apparatus therefor | |
KR20220145758A (en) | Mandibular asymmetry evaluation method using computing device and surgical simulation method using the same | |
KR101921988B1 (en) | Method for creating personalized 3d skeleton model | |
EP4328861A2 (en) | Jaw movements data generation apparatus, data generation method, and data generation program | |
CN117058309B (en) | Image generation method and system based on oral imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |