KR20230014628A - An image processing apparatus, and an image processing method - Google Patents
An image processing apparatus, and an image processing method Download PDFInfo
- Publication number
- KR20230014628A KR20230014628A KR1020220076925A KR20220076925A KR20230014628A KR 20230014628 A KR20230014628 A KR 20230014628A KR 1020220076925 A KR1020220076925 A KR 1020220076925A KR 20220076925 A KR20220076925 A KR 20220076925A KR 20230014628 A KR20230014628 A KR 20230014628A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- restoration
- tooth
- image
- image processing
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 139
- 238000003672 processing method Methods 0.000 title claims abstract description 19
- 210000000214 mouth Anatomy 0.000 claims abstract description 103
- 239000005557 antagonist Substances 0.000 claims description 40
- 238000000034 method Methods 0.000 claims description 20
- 238000012360 testing method Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 17
- 238000013461 design Methods 0.000 description 11
- 238000011960 computer-aided design Methods 0.000 description 9
- 238000007689 inspection Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 210000004195 gingiva Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 2
- 239000007943 implant Substances 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 239000011505 plaster Substances 0.000 description 2
- IFPMZBBHBZQTOV-UHFFFAOYSA-N 1,3,5-trinitro-2-(2,4,6-trinitrophenyl)-4-[2,4,6-trinitro-3-(2,4,6-trinitrophenyl)phenyl]benzene Chemical group [O-][N+](=O)C1=CC([N+](=O)[O-])=CC([N+]([O-])=O)=C1C1=C([N+]([O-])=O)C=C([N+]([O-])=O)C(C=2C(=C(C=3C(=CC(=CC=3[N+]([O-])=O)[N+]([O-])=O)[N+]([O-])=O)C(=CC=2[N+]([O-])=O)[N+]([O-])=O)[N+]([O-])=O)=C1[N+]([O-])=O IFPMZBBHBZQTOV-UHFFFAOYSA-N 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000001055 chewing effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003801 milling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003826 tablet Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C13/00—Dental prostheses; Making same
- A61C13/0003—Making bridge-work, inlays, implants or the like
- A61C13/0004—Computer-assisted sizing or machining of dental prostheses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Epidemiology (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Primary Health Care (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Veterinary Medicine (AREA)
- Dentistry (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
Abstract
Description
개시된 실시예는 이미지 처리 장치 및 이미지 처리 방법에 관한 것으로, 구체적으로, 치아의 수복물에 대한 이미지를 처리하는 이미지 처리 장치 및 처리 방법에 관한 것이다.The disclosed embodiments relate to an image processing device and an image processing method, and more specifically, to an image processing device and processing method for processing an image of a dental restoration.
CAD/CAM(Computer aided design/Computer aided manufacturing)을 이용하여, 치아 수복물을 디자인할 때, 수복이 필요한 치아(이하, 대상 치아)의 수복물과 대합치, 수복물과 인접치 사이에서 발생하는 간섭(intersection)을 제거하는 과정이 필요하다.When designing a dental restoration using CAD/CAM (Computer aided design/Computer aided manufacturing), interference between the restoration of the tooth (hereinafter referred to as target tooth) and the opposing tooth, and between the restoration and adjacent teeth (intersection) ) is required.
실제로 환자의 구강에 수복물을 적용했을 때, 수복물과 대합치 간의 간섭이 발생하면, 음식을 씹을 때 환자는 불편함을 느끼게 되고, 수복물과 인접치 간의 간섭이 발생하면, 수복물을 부착 또는 착용할 수 없다는 문제점이 있다. 따라서, 수복물과 대합치 또는 인접치 간의 간섭이 발생하지 않도록 수복물을 디자인할 필요가 있다.In fact, when the restoration is applied to the patient's oral cavity, if interference occurs between the restoration and the opposing teeth, the patient feels uncomfortable when chewing food, and if interference occurs between the restoration and adjacent teeth, the restoration may not be attached or worn. There is a problem with no. Therefore, it is necessary to design the restoration so that interference between the restoration and the antagonist or adjacent teeth does not occur.
기존의 CAD를 이용한 수복물 디자인 시, 사용자는 수복물과 대합치 또는 수복물과 인접치 간의 간섭이 발생할 것으로 판단되는 영역을 임의로 제거하였다. 그러나, 사용자가 수동으로 간섭 영역을 판단하는 것은 용이하지 않으며, 사용자의 숙련도에 따라 간섭 제거의 정확도가 달라진다는 문제점이 있다.When designing restorations using existing CAD, users arbitrarily removed areas where interference between restorations and antagonistic teeth or between restorations and adjacent teeth was judged to occur. However, it is not easy for a user to manually determine the interference area, and there is a problem in that the accuracy of interference cancellation varies depending on the user's skill level.
개시된 실시예는, 상기의 문제점을 해결하기 위하여, 디자인된 수복물과 대합치 또는 수복물과 인접치 사이에 발생하는 간섭(intersection)을 자동으로 판단하고, 수복물에서 간섭을 제거(cut intersection)하도록 하기 위한 이미지 처리 방법 및 그에 따른 동작을 수행하는 장치의 제공을 목적으로 한다.In order to solve the above problems, the disclosed embodiment automatically determines an interference between a designed restoration and an antagonist or between a restoration and an adjacent tooth, and removes (cut intersection) the interference from the restoration. An object of the present invention is to provide an image processing method and an apparatus for performing an operation accordingly.
일 실시예에 따른 이미지 처리 방법은, 적어도 하나의 치아에 대한 데이터와 수복물에 대한 데이터를 포함하는 구강 이미지를 획득하는 단계, 상기 구강 이미지에 기초하여, 상기 적어도 하나의 치아 중 제1 치아와 상기 수복물이 오버랩되는 간섭 영역을 획득하는 단계, 및 상기 수복물에 대한 데이터에서 상기 간섭 영역에 대응하는 데이터를 제거함으로써 상기 수복물의 최종 이미지를 획득하는 단계를 포함할 수 있다.An image processing method according to an embodiment includes obtaining an oral cavity image including data on at least one tooth and data on a restoration, and based on the oral cavity image, a first tooth among the at least one tooth and the It may include obtaining an interference region where restorations overlap, and acquiring a final image of the restoration by removing data corresponding to the interference region from data on the restoration.
일 실시예에 따른 제1 치아는 상기 수복물과 맞물리는 대합치 및 상기 수복물에 인접한 인접치 중 적어도 하나를 포함할 수 있다.The first tooth according to an embodiment may include at least one of an opposing tooth engaged with the restoration object and an adjacent tooth adjacent to the restoration object.
일 실시예에 따른 간섭 영역을 획득하는 단계는, 상기 제1 치아에 대한 데이터에 포함되는 정점들에서 법선(normal) 방향과 반대 방향으로 가상의 광선들을 생성하여, 광선-교차 검사를 수행하는 단계, 및 상기 교차하는 가상의 광선들에 기초하여, 상기 간섭 영역을 획득하는 단계를 포함할 수 있다.Acquiring an interference area according to an embodiment includes generating virtual rays in a direction opposite to a normal direction at vertices included in the data on the first tooth, and performing a ray-intersection test. , and obtaining the interference area based on the intersecting virtual rays.
일 실시예에 따른 수복물의 최종 이미지를 획득하는 단계는, 상기 수복물에 대한 데이터에서, 상기 간섭 영역에 대응하는 데이터를 일정 거리만큼 이동시켜 제거함으로써, 상기 수복물의 최종 이미지를 획득하는 단계를 포함할 수 있다.Acquiring a final image of the restoration according to an embodiment may include acquiring a final image of the restoration by moving and removing data corresponding to the interference area from the restoration data by a predetermined distance. can
일 실시예에 따른 수복물의 최종 이미지를 획득하는 단계는, 상기 간섭 영역에 대응하는 상기 제1 치아에 대한 데이터에 기초하여, 상기 수복물의 최종 이미지를 획득하는 단계를 포함할 수 있다.Acquiring a final image of the restoration according to an embodiment may include acquiring a final image of the restoration based on data on the first tooth corresponding to the interference region.
일 실시예에 따른 수복물의 최종 이미지를 획득하는 단계는, 상기 간섭 영역에 대응하는 상기 제1 치아에 대한 데이터를 제1 거리만큼 이동시키는 단계, 상기 이동된 데이터와 이동되지 않은 상기 제1 치아에 대한 데이터를 연결시킨 제2 데이터를 획득하는 단계, 및 상기 수복물에 대한 데이터에서 상기 제2 데이터를 제거함으로써, 상기 수복물의 최종 이미지를 획득하는 단계를 포함할 수 있다.Acquiring a final image of a restoration according to an embodiment includes moving data on the first tooth corresponding to the interference region by a first distance, and comparing the moved data and the first tooth that is not moved. The method may include obtaining second data obtained by connecting data for the restoration, and obtaining a final image of the restoration by removing the second data from the data for the restoration.
일 실시예에 따른 수복물의 최종 이미지를 획득하는 단계는, 상기 간섭 영역에 대응하는 상기 제1 치아에 대한 데이터 중 일부 데이터 또는 상기 간섭 영역에 대응하는 상기 제1 치아에 대한 데이터를 포함하는 더 큰 영역의 데이터를 제1 거리만큼 이동시키는 단계, 상기 이동된 데이터와, 이동되지 않은 상기 제1 치아에 대한 데이터 중 일부 데이터 또는 상기 이동되지 않은 제1 치아에 대한 데이터를 포함하는 더 큰 영역의 데이터를 연결시킨 제2 데이터를 획득하는 단계, 및 상기 수복물에 대한 데이터에서 상기 제2 데이터를 제거함으로써, 상기 수복물의 최종 이미지를 획득하는 단계를 포함할 수 있다.Acquiring a final image of the restoration according to an embodiment may include some data of data on the first tooth corresponding to the interference region or a larger image including data on the first tooth corresponding to the interference region. Moving data of an area by a first distance, for the moved data and the non-moved first tooth Acquiring second data connecting some of the data or data of a larger area including data on the first tooth that is not moved, and removing the second data from the data on the restoration, It may include obtaining a final image of the restoration.
일 실시예에 따른 이미지 처리 방법은, 상기 제1 거리를 설정하는 사용자 입력을 수신하는 단계를 더 포함할 수 있다.The image processing method according to an embodiment may further include receiving a user input for setting the first distance.
일 실시예에 따른 이미지 처리 방법은, 상기 구강 이미지를 표시하는 단계를 더 포함하고, 상기 구강 이미지를 표시하는 단계는, 상기 간섭 영역에서 상기 수복물과 상기 제1 치아가 오버랩되는 정도를 색상으로 표시하는 단계를 포함할 수 있다.The image processing method according to an embodiment may further include displaying the oral cavity image, and the displaying of the oral cavity image may include displaying a degree of overlap between the restoration and the first tooth in color in the interference region. steps may be included.
일 실시예에 따른 이미지 처리 방법은, 상기 수복물에 대한 최종 이미지를 표시하는 단계를 더 포함할 수 있다.The image processing method according to an embodiment may further include displaying a final image of the restoration.
일 실시예에 따른 이미지 처리 장치는, 디스플레이, 하나 이상의 인스트럭션들을 저장하는 메모리, 및 프로세서를 포함하고, 상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써, 적어도 하나의 치아에 대한 데이터와 수복물에 대한 데이터를 포함하는 구강 이미지를 획득하고, 상기 구강 이미지에 기초하여, 상기 적어도 하나의 치아 중 제1 치아와 상기 수복물이 오버랩되는 간섭 영역을 획득하며, 상기 수복물에 대한 데이터에서 상기 간섭 영역에 대응하는 데이터를 제거함으로써 상기 수복물의 최종 이미지를 획득하고, 상기 수복물의 최종 이미지를 표시하도록 상기 디스플레이를 제어할 수 있다.An image processing apparatus according to an embodiment includes a display, a memory for storing one or more instructions, and a processor, wherein the processor executes the one or more instructions stored in the memory to obtain data and information about at least one tooth. An oral cavity image including restoration data is obtained, an interference area in which a first tooth of the at least one tooth overlaps with the restoration is obtained based on the oral cavity image, and the interference area is obtained in the restoration data. A final image of the restoration may be obtained by removing data corresponding to , and the display may be controlled to display the final image of the restoration.
개시된 실시예에 따른 이미지 처리 장치, 및 이미지 처리 방법은, 디자인된 수복물과 대합치 또는 수복물과 인접치 사이에 발생하는 간섭 영역을 자동으로 판단하고, 간섭 영역에 대응하는 수복물의 일부 영역을 자동으로 제거할 수 있다.An image processing apparatus and an image processing method according to the disclosed embodiment automatically determine an interference area generated between a designed restoration and an opposing tooth or between a restoration and an adjacent tooth, and automatically select a partial area of the restoration corresponding to the interference area. can be removed
이에 따라, 사용자는 간섭 영역을 임의로 판단하여 제거할 필요가 없으며, 용이하게 수복물의 최종 이미지를 획득할 수 있다. 또한, 간섭 영역을 정확하게 제거할 수 있어, 수복물의 최종 이미지에 기초하여 생성되는 수복물의 품질이 향상될 수 있다.Accordingly, the user does not need to arbitrarily determine and remove the interference area, and can easily obtain a final image of the restoration. In addition, the interference region can be accurately removed, so that the quality of a restoration created based on the final image of the restoration can be improved.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 개시된 실시예에 따른 이미지 처리 시스템을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.
도 3은 일 실시예에 따른 이미지 처리 장치가 구강 이미지를 디스플레이하는 예를 나타내는 도면이다.
도 4는 일 실시예에 따른 이미지 처리 장치가 간섭 영역을 획득하는 방법을 설명하기 위해 참조되는 도면이다.
도 5는 일 실시예에 따른 구강 이미지에서 간섭 영역을 다른 영역과 식별되도록 디스플레이하는 화면들을 나타내는 도면이다.
도 6 내지 도 8은 일 실시예에 따른 이미지 처리 장치가 수복물 이미지에서 간섭 영역을 제거함으로써, 수복물의 최종 이미지를 획득하는 동작을 설명하기 위한 도면들이다.
도 9는 일 실시예에 따른 수복물과 대합치 사이의 거리를 설정하기 위한 사용자 인터페이스를 나타내는 도면이다.
도 10은 일 실시예에 따른 수복물의 최종 이미지들을 디스플레이하는 화면들을 나타내는 도면이다.
도 11은 일 실시예에 따른 이미지 처리 장치를 나타내는 블록도이다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention may be readily understood from the following detailed description in combination with the accompanying drawings, wherein reference numerals denote structural elements.
1 is a diagram for explaining an image processing system according to an exemplary embodiment.
2 is a flowchart illustrating an image processing method according to an exemplary embodiment.
3 is a diagram illustrating an example of displaying an oral cavity image by an image processing device according to an exemplary embodiment.
4 is a diagram referenced to describe a method of acquiring an interference area by an image processing apparatus according to an exemplary embodiment.
5 is a diagram illustrating screens for displaying an interference region to be distinguished from other regions in an oral cavity image according to an exemplary embodiment.
6 to 8 are diagrams for describing an operation of obtaining a final image of a restoration by removing an interference region from an image of the restoration by an image processing apparatus according to an exemplary embodiment.
9 is a diagram illustrating a user interface for setting a distance between a restoration and an antagonist tooth according to an exemplary embodiment.
10 is a diagram illustrating screens displaying final images of a restoration according to an exemplary embodiment.
11 is a block diagram illustrating an image processing device according to an exemplary embodiment.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시예들을 개시한다. 개시된 실시예들은 다양한 형태로 구현될 수 있다.This specification clarifies the scope of the present invention, explains the principles of the present invention, and discloses embodiments so that those skilled in the art can practice the present invention. The disclosed embodiments may be implemented in various forms.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.Like reference numbers designate like elements throughout the specification. This specification does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the present invention belongs is omitted. The term 'part' (portion) used in the specification may be implemented as software or hardware, and according to embodiments, a plurality of 'parts' may be implemented as one element (unit, element), or a single 'unit'. It is also possible that section' includes a plurality of elements. Hereinafter, the working principle and embodiments of the present invention will be described with reference to the accompanying drawings.
한편, 본 명세서에서 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 다른 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들 더 포함할 수도 있다는 것을 의미한다.On the other hand, when a component is said to be "connected" to another component in this specification, this includes not only the case of being 'directly connected', but also the case of being 'connected with another component in between'. In addition, when a certain component "includes" another component, this means that other components may be further included without excluding other components unless otherwise specified.
또한, 본 명세서에서 사용되는 '제 1' 또는 '제 2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다.Also, terms including ordinal numbers such as 'first' or 'second' used in this specification may be used to describe various elements, but the elements should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another.
본 명세서에서 '대상체(object)'는 촬영의 대상이 되는 것으로서, 사람, 동물, 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등), 또는 팬텀(phantom) 등을 포함할 수 있다. 또한, 예를 들면, 대상체는, 구강을 본 뜬 석고 모델, 틀니나 의치 등의 덴쳐(denture), 이(teeth) 형상의 덴티폼(dentiform) 등을 포함할 수 있다. 예를 들어, 대상체는 치아, 치은, 구강의 적어도 일부 영역, 및/또는 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어를 포함하는 교정 장치, 임플란트, 어버트먼트, 인공 치아, 인레이 및 온레이 등을 포함하는 치아 수복물, 구강 내 삽입되는 교정 보조 도구 등), 인공 구조물이 부착된 치아 또는 치은 등을 포함할 수 있다.In this specification, an 'object' is an object to be photographed, and may include a human, an animal, or a part thereof. For example, the object may include a body part (organ or organ, etc.) or a phantom. Also, for example, the object may include a plaster model imitating the oral cavity, dentures such as dentures or dentures, teeth-shaped dentiforms, and the like. For example, the object may include teeth, gingiva, at least a portion of the oral cavity, and/or artificial structures (eg, orthodontic devices including brackets and wires, implants, abutments, artificial teeth, inlays, and dental restorations including onlays, orthodontic aids inserted into the oral cavity, etc.), teeth or gingiva to which artificial structures are attached, and the like.
"스캐너"는, 대상체와 관련된 이미지를 획득하는 장치를 의미할 수 있다. 스캐너는 구강의 치료에 이용되는 구강과 관련된 이미지를 획득하는 스캐너를 의미할 수 있다. 예를 들면, 스캐너는 구강 내에 인입 할 수 있는 형태를 가지는 구강 스캐너(intraoral scanner)가 될 수 있다. 여기서, 구강 스캐너는 한 손으로 잡아서 휴대 가능한 형태를 가지는 것이 일반적이므로, 핸드 헬드(hand-held) 형 스캐너라 칭할 수 있다. 또는, 스캐너는 치과 치료에 이용 가능한 테이블 형 스캐너가 될 수 있다. 또한, 스캐너는, 2차원 이미지 및 3차원 이미지 중 적어도 하나를 획득할 수 있다. 또한, 스캐너는, 구강에 대한 적어도 하나의 2차원 이미지를 획득하고, 획득된 적어도 하나의 2차원 이미지에 기초하여 구강에 대한 3차원 이미지(또는 3차원 모델)를 생성할 수 있다. 또한, 스캐너는, 구강에 대한 적어도 하나의 2차원 이미지를 획득하고, 적어도 하나의 2차원 이미지를 외부 장치로 전송할 수 있다. 외부 장치는, 수신된 적어도 하나의 2차원 이미지에 기초하여 구강에 대한 3차원 이미지를 생성할 수 있다.A “scanner” may refer to a device that acquires an image related to an object. The scanner may refer to a scanner that acquires an image related to the oral cavity used for oral treatment. For example, the scanner may be an intraoral scanner having a form that can be inserted into the oral cavity. Here, since the intraoral scanner generally has a form that can be held and carried with one hand, it can be referred to as a hand-held scanner. Alternatively, the scanner may be a table type scanner usable for dental treatment. Also, the scanner may acquire at least one of a 2D image and a 3D image. Also, the scanner may acquire at least one 2D image of the oral cavity and generate a 3D image (or 3D model) of the oral cavity based on the obtained at least one 2D image. Also, the scanner may obtain at least one 2D image of the oral cavity and transmit the at least one 2D image to an external device. The external device may generate a 3D image of the oral cavity based on the received at least one 2D image.
또한, "구강을 스캔"한다는 의미는, 구강 자체를 스캔하는 경우를 의미할 뿐만 아니라, 인공물, 및/또는 구강을 나타내거나 구강과 관련된 기타 객체 등을 스캔하는 경우를 의미할 수 있다.In addition, the meaning of "scanning the oral cavity" may mean a case of scanning the oral cavity itself, as well as a case of scanning an artificial object and/or representing the oral cavity or other objects related to the oral cavity.
"이미지"는 대상체에 대한 2차원 이미지 또는 대상체를 입체적으로 나타내는 3차원 모델 또는 3차원 이미지가 될 수 있다. 예를 들면, 이미지는, 대상체를 2차원 또는 3차원적으로 표현하기 위해서 필요한 데이터일 수 있다. 예를 들면, 이미지는, 적어도 하나의 카메라로부터 획득된 로우 데이터(raw data) 또는 로우 이미지(raw image) 등을 의미할 수 있다. 구체적으로, 로우 이미지는 진단을 위해서 필요한 구강 이미지를 생성하기 위해서 획득되는 데이터로, 스캐너(예를 들어, intraoral scanner)를 이용하여 대상체인 환자의 구강 내를 스캔(scan)할 때 스캐너에 포함되는 적어도 하나의 카메라에서 획득되는 이미지(예를 들어, 2차원 프레임 이미지)가 될 수 있다. 또한, 로우 이미지는, 가공 되지 않은 이미지로, 스캐너에서 획득된 이미지의 원본을 의미할 수 있다.An “image” may be a 2D image of an object or a 3D model or 3D image representing the object in three dimensions. For example, an image may be data required to represent an object in 2D or 3D. For example, an image may mean raw data or a raw image obtained from at least one camera. Specifically, the raw image is data acquired to generate an oral image necessary for diagnosis, and is included in the scanner when scanning the patient's oral cavity using a scanner (eg, intraoral scanner) It may be an image acquired from at least one camera (eg, a 2D frame image). Also, the raw image is an image that has not been processed and may mean an original image obtained from a scanner.
"3차원 구강 모델"은, 스캐너의 스캔 동작으로 획득된 로우 데이터에 기초하여 구강을 3차원적으로 모델링한 모델을 의미할 수 있다. 또한, "3차원 구강 모델"은, 스캐너가 치아, 인상체, 인공물 등과 같은 대상체를 스캔하여 획득된 데이터에 기초하여 3차원적으로 모델링된 구조체를 의미할 수 있다. 3차원 구강 모델은, 구강의 내부 구조를 3차원적으로 모델링하여 생성된 것으로, 3차원 스캔 모델, 3차원 모델, 또는 치아 모델 등으로 호칭될 수 있다. 예를 들면, 3차원 구강 모델의 포맷은, STL(Standard Triangle Language), OBJ, PLY(Polygon File Format) 중 하나일 수 있고, 상기 예시에 제한되지 않는다. 또한, 3차원 구강 모델은, 3차원적인 형상에 대한 기하학 정보, 컬러, 텍스처, 재료 등의 정보를 포함할 수 있다.The “3-dimensional oral model” may refer to a model in which the oral cavity is 3-dimensionally modeled based on raw data obtained by a scanning operation of a scanner. Also, a “3D oral model” may refer to a structure modeled three-dimensionally based on data obtained by scanning an object such as a tooth, an impression body, or an artificial object by a scanner. The 3D oral model is generated by 3D modeling the internal structure of the oral cavity, and may be referred to as a 3D scan model, a 3D model, or a tooth model. For example, the format of the 3D oral model may be one of STL (Standard Triangle Language), OBJ, and PLY (Polygon File Format), and is not limited to the above example. In addition, the 3D oral model may include information such as geometry information, color, texture, and material for a 3D shape.
또한, "폴리곤(polygon)"은, 3차원 구강 모델의 입체 형상을 표현할 때 사용되는 가장 작은 단위인 다각형을 의미할 수 있다. 예를 들면, 3차원 구강 모델의 표면은 삼각형 폴리곤들로 표현될 수 있다. 예를 들면, 폴리곤은 최소 3개의 정점(vertex)과 1개의 면(face)으로 구성될 수 있다. 정점은 위치, 컬러, 법선 등의 정보를 포함할 수 있다. 메쉬는 복수의 폴리곤이 모여서 만들어진 3차원 공간 상의 대상체일 수 있다. 3차원 구강 모델을 표현하는 폴리곤의 수가 증가할수록, 대상체가 세밀하게 표현될 수 있다.Also, "polygon" may refer to a polygon, which is the smallest unit used when expressing a three-dimensional shape of a 3D oral model. For example, the surface of a 3D oral model may be represented by triangular polygons. For example, a polygon can consist of at least 3 vertices and 1 face. A vertex may include information such as position, color, and normal. A mesh may be an object in a 3D space created by gathering a plurality of polygons. As the number of polygons representing the 3D oral model increases, the object can be expressed in detail.
이하에서는 도면을 참조하여 실시 예들을 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the drawings.
도 1은 개시된 실시예에 따른 이미지 처리 시스템을 설명하기 위한 도면이다.1 is a diagram for explaining an image processing system according to an exemplary embodiment.
도 1을 참조하면, 이미지 처리 시스템은 스캐너(10) 및 이미지 처리 장치(100)를 포함한다. 스캐너(10)와 이미지 처리 장치(100)는 통신망을 통해 통신을 수행할 수 있다.Referring to FIG. 1 , the image processing system includes a
스캐너(10)는 대상체를 스캔하는 장치로써, 대상체의 이미지를 획득하는 의료 장치일 수 있다. 스캐너(10)는 구강이나 인공 구조물, 또는 구강이나 인공 구조물을 본 뜬 석고 모형 중 적어도 하나에 대한 이미지를 획득할 수 있다.The
도 1에 도시된 스캐너(10)와 같이 구강 내에 인입 가능한 형태를 갖는 스캐너를 구강 스캐너(intraoral scanner) 또는 휴대형 스캐너 등으로 지칭할 수 있다. 스캐너(10)는 도 1에 도시된 핸드 헬드 형의 스캐너 이외에도, 테이블 형의 스캐너가 될 수 있다. A scanner having a shape retractable into an oral cavity, such as the
스캐너(10)는 구강 내에 삽입되어 비 접촉식으로 대상체(예를 들어, 치아 등과 같은 구강 내의 객체 또는 인상체(impression body) 등)를 스캐닝함으로써, 적어도 하나의 치아를 포함하는 구강에 대한 이미지를 획득할 수 있다. 또한, 스캐너(10)는 적어도 하나의 이미지 센서(예를 들어, 광학 카메라 등)를 이용하여 환자의 구강 내부 또는 구강 내부를 본 뜬 인상체 등을 스캔할 수 있다.The
스캐너(10)는 구강 내부의 치아, 치은 및 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어 등을 포함하는 교정 장치, 임플란트, 인공 치아, 구강 내 삽입되는 교정 보조 도구 등) 중 적어도 하나의 표면을 이미징하기 위해서, 대상체에 대한 표면 정보를 로우 데이터(raw data)로 획득할 수 있다.The
스캐너(10)에서 획득되는 로우 데이터는 스캐너(10)에 포함되는 적어도 하나의 카메라에 획득된 적어도 하나의 이미지가 될 수 있다. 구체적으로, 로우 데이터는 스캐너(10)가 스캔 동작을 수행하여 획득된 적어도 하나의 2차원 프레임 이미지(frame image)가 될 수 있다. 여기서, '프레임 이미지'는 '프레임' 또는 '프레임 데이터'로 호칭될 수도 있을 것이다.The raw data acquired by the
스캐너(10)는 획득한 로우 데이터를 통신망을 통하여 이미지 처리 장치(100)로 전송할 수 있다. 또는, 스캐너(10)는 적어도 하나의 카메라에서 획득된 로우 데이터에 근거하여 생성한 3차원 모델 또는 3차원 이미지를 획득할 수 있다. 그리고, 획득된 3차원 모델 또는 3차원 이미지를 이미지 처리 장치(100)로 전송할 수도 있을 것이다.The
스캐너(10)에서 획득된 이미지 데이터는 유선 또는 무선 통신망을 통하여 연결되는 이미지 처리 장치(100)로 전송될 수 있다.Image data acquired by the
이미지 처리 장치(100)는 스캐너(10)와 유선 또는 무선 통신망을 통하여 연결되며, 스캐너(10)로부터 대상체를 스캔하여 획득된 데이터를 수신하고, 수신된 데이터에 근거하여 이미지를 생성, 처리, 디스플레이 및/또는 전송할 수 있는 모든 전자 장치가 될 수 있다.The
이미지 처리 장치(100)는 스마트 폰(smart phone), 랩탑 컴퓨터, 데스크탑 컴퓨터, PDA, 태블릿 PC 등의 컴퓨팅 장치가 될 수 있으며, 이에 한정되지 않는다. 또한, 이미지 처리 장치(100)는 구강 이미지를 처리하기 위한 서버(또는 서버 장치) 등의 형태로 존재할 수도 있을 것이다.The
구체적으로, 이미지 처리 장치(100)는 스캐너(10)에서 수신되는 데이터에 근거하여, 구강의 진단에 필요한 정보, 구강을 나타내는 이미지, 구강 치료에 이용되는 모델(예를 들어, 치아에 대한 3차원 모델 또는 크라운을 생성하기 위한 삼차원 모델 등) 중 적어도 하나를 생성하고, 생성된 정보 및 이미지를 디스플레이(130)를 통하여 디스플레이 할 수 있다.Specifically, the
예를 들어, 스캐너(10)는 스캔을 통하여 획득된 로우 데이터(raw data)를 그대로 이미지 처리 장치(100)로 전송할 수 있다. 이 경우, 이미지 처리 장치(100)는 수신된 로우 데이터에 근거하여 구강을 3차원적으로 나타내는 3차원 구강 이미지(3차원 구강 모델)를 생성할 수 있다. 일 실시예에 따른 이미지 처리 장치(100)는 수신한 로우 데이터에 기초하여, 대상체의 표면의 형상을 3차원적으로 나타내는 3차원 데이터(예를 들어, 표면 데이터, 메쉬 데이터 등)를 생성할 수 있다. 이때, 3차원 데이터는 복수의 폴리곤들을 포함할 수 있다.For example, the
또한, 이미지 처리 장치(100)는 생성된 이미지를 분석, 처리, 디스플레이 및/또는 외부 장치로 전송할 수 있다.Also, the
또 다른 예로, 스캐너(10)는 대상체의 스캔을 통하여 로우 데이터(raw data)를 획득하고, 획득된 로우 데이터를 가공하여 대상체에 대응되는 이미지를 생성하여 이미지 처리 장치(100)로 전송할 수 있다. 이 경우, 이미지 처리 장치(100)는 수신된 이미지를 분석, 처리, 디스플레이 및/또는 전송할 수 있다. As another example, the
개시된 실시예에서, 이미지 처리 장치(100)는 대상체를 3차원적으로 나타내는 이미지를 생성 및 디스플레이할 수 있는 전자 장치로, 이하에서 상세히 설명한다.In the disclosed embodiment, the
일 실시예에 따른 이미지 처리 장치(100)는 스캐너(10)로부터 대상체를 스캔한 로우 데이터를 수신하면, 수신된 로우 데이터를 가공하여, 3차원 이미지(또는 3차원 모델)를 생성할 수 있다. 설명의 편의를 위하여, 이미지 처리 장치(100)에 의해 생성된 대상체에 대한 3차원 이미지를 이하에서,'스캔 데이터'라 지칭하기로 한다.When receiving raw data obtained by scanning an object from the
예를 들어, 스캐너(10)는 적어도 하나의 치아를 포함하는 구강을 스캔할 수 있다. 일 실시예에 따른 이미지 처리 장치(100)는 스캐너(10)로부터 구강을 스캔한 로우 데이터를 수신하고, 수신된 로우 데이터에 기초하여, 적어도 하나의 치아를 포함하는 구강에 대한 3차원 스캔 데이터를 생성하고, 생성된 3차원 스캔 데이터(3차원 이미지)를 디스플레이(130)를 통하여 디스플레이할 수 있다.For example, the
일 실시예에 따른 이미지 처리 장치(100)는 구강에 대한 스캔 데이터에 기초하여, 디자인된 수복물과 대합치 또는 인접치 사이에서 발생하는 간섭을 자동으로 판단하고, 수복물에서 간섭을 제거함으로써, 수복물의 최종 이미지를 획득할 수 있다.The
이하, 도면들을 참조하여, 일 실시예에 따른 이미지 처리 장치(100)가 디자인된 수복물과 대합치 또는 인접치 사이에 발생하는 간섭을 자동으로 제거함으로써, 수복물에 대한 최종 이미지를 획득하는 방법을 설명하기로 한다.Hereinafter, with reference to the drawings, a method for obtaining a final image of a restoration by automatically removing interference occurring between the designed restoration and the antagonist or adjacent teeth by the
도 2는 일 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.2 is a flowchart illustrating an image processing method according to an exemplary embodiment.
도 2를 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 구강 스캔 데이터와 수복물에 대한 데이터를 포함하는 구강 이미지를 획득할 수 있다(S210).Referring to FIG. 2 , the
예를 들어, 이미지 처리 장치(100)는 스캐너(10)로부터 적어도 하나의 치아를 포함하는 구강을 스캔하여 획득한 로우 데이터를 수신할 수 있다. 이미지 처리 장치(100)는 수신한 로우 데이터에 기초하여, 구강에 대한 3차원 이미지 또는 3차원 모델을 획득할 수 있다. 이때, 구강에 대한 3차원 이미지는 구강 내의 복수의 대상체들 및 대상체들 표면의 3차원적 형상 정보를 포함할 수 있다. 예를 들어, 구강에 대한 3차원 이미지는 복수의 폴리곤들로 표현될 수 있으며, 폴리곤의 형태는 삼각형일 수 있다. 다만, 이에 한정되지 않는다.For example, the
또는, 이미지 처리 장치(100)는 스캐너(10) 또는 외부 장치로부터 구강에 대한 3차원 이미지를 수신할 수 있다.Alternatively, the
또한, 이미지 처리 장치(100)는 구강에 대한 3차원 이미지에서 치료가 필요한 치아(대상 치아)를 식별하고, 대상 치아에 대한 수복물을 디자인할 수 있다. 예를 들어, 이미지 처리 장치(100)는 대상 치아에 대한 3차원적 형상 정보에 기초하여, 대상 치아에 대한 수복물을 디자인할 수 있다. 이미지 처리 장치(100)는 CAD(Computer Aided Design)/CAM(Computer Aided Manufacturing) 프로그램을 이용하여, 대상 치아에 대한 수복물을 디자인할 수 있다. 다만, 이에 한정되지 않는다.Also, the
또는, 이미지 처리 장치(100)는 외부 장치로 구강에 대한 3차원 이미지 또는 대상 치아에 대한 데이터를 전송할 수 있다. 외부 장치는 이미지 처리 장치(100)로부터 수신한 3차원 이미지 또는 데이터에 기초하여, 대상 치아에 대한 수복물을 디자인하고, 수복물에 대한 이미지 또는 데이터를 이미지 처리 장치(100)로 전송할 수 있다.Alternatively, the
일 실시예에 따른 이미지 처리 장치(100)는 구강을 스캔한 3차원 스캔 데이터와 수복물에 대한 데이터(이하, '수복물 데이터')를 포함하는 구강 이미지를 획득할 수 있다. 예를 들어, 이미지 처리 장치(100)는 구강에 대한 3차원 스캔 데이터에 수복물 데이터를 적용시킴으로써, 대상 치아에 수복물이 부착된 형태의 구강 이미지를 획득할 수 있다. 이때, 3차원 스캔 데이터는 상악에 대한 데이터와 하악에 대한 데이터를 포함할 수 있으며, 3차원 스캔 데이터에 포함되는 치아 데이터는 정렬(얼라인)된 데이터일 수 있다. 예를 들어, 이미지 처리 장치(100)는 기 저장된 치아 모델 데이터를 이용하여, 3차원 스캔 데이터에 포함되는 치아 데이터를 정렬시킬 수 있다. 이때, 이미지 처리 장치(100)는 치아 모델 데이터 및 치아 데이터에 포함되는 악궁의 형태 정보, 치아들의 형상 정보, 치아들의 크기 정보 등에 기초하여, 치아 데이터를 치아 모델 데이터에 정렬시킬 수 있다. 이미지 처리 장치(100)는 치아 데이터를 치아 모델 데이터에 정렬시킬 때, 다양한 얼라인(align) 알고리즘을 이용할 수 있으며, 예를 들어, Iterative closest point (ICP)와 같은 알고리즘을 이용할 수 있다. 다만, 이에 한정되지 않는다.The
일 실시예에 따른 이미지 처리 장치(100)는 구강 이미지에 기초하여, 간섭 영역을 획득할 수 있다(S220).The
이미지 처리 장치(100)는 구강 이미지에서 수복물과 맞물리는 대합치 또는 수복물에 인접한 인접치가 수복물과 오버랩되는 영역이 존재하는 지 확인할 수 있다. 이미지 처리 장치(100)는 광선 교차 검사를 수행하여, 수복물과 대합치 또는 수복물과 인접치가 오버랩되는 간섭 영역을 획득할 수 있다.The
광선 교차 검사는 대합치 또는 인접치에 대한 데이터에 포함되는 복수의 정점들 상에서, 상기 정점의 법선(normal) 방향과 반대 방향으로 가상의 광선을 생성하고, 생성된 가상의 광선이 수복물 데이터와 교차하는지 여부를 검사하는 것을 의미한다. 이미지 처리 장치(100)는 광선 교차 검사 결과에 기초하여, 오버랩되는 간섭 영역을 획득할 수 있다. 이에 대해서는 도 4를 참조하여 자세히 설명하기로 한다.The ray intersection test generates virtual rays in a direction opposite to the normal of the vertices on a plurality of vertices included in the data of the antagonist or adjacent teeth, and the generated virtual rays intersect with the restoration data. means to check whether The
일 실시예에 따른 이미지 처리 장치(100)는 수복물 데이터에서 간섭 영역에 대응하는 데이터를 제거함으로써, 수복물의 최종 이미지를 획득할 수 있다(S230).The
예를 들어, 이미지 처리 장치(100)는 단계 220(S220)에서 광선 교차 검사를 통해, 가상의 광선이 수복물 데이터와 교차하는 경우, 교차하는 수복물에 대한 데이터를 제거할 수 있다. 또한, 교차하는 정점들에 대응하는 대합치 또는 인접치에 대한 정점들에 기초하여, 제거된 영역에 대응하는 수복물 데이터를 획득할 수 있다.For example, the
구체적으로, 이미지 처리 장치(100)는 광선 교차 검사를 통해 광선과 교차하는 수복물 데이터의 정점들 또는 메쉬들이 찾아지면, 해당 광선이 생성된 대합치 또는 인접치의 정점들을 포함하는 제1 영역을 획득할 수 있다.Specifically, when vertices or meshes of the restoration data intersecting with the ray are found through the ray intersection inspection, the
이미지 처리 장치(100)는 제1 영역에 포함되는 정점들을, 정점들의 평균 법선 방향으로 제1 거리만큼 이동시킴으로써, 이동된 정점들을 포함하는 제1 데이터를 획득할 수 있다. 이때, 제1 거리는 사용자 입력에 기초하여 설정될 수 있다.The
이미지 처리 장치(100)는 대합치 또는 인접치 데이터에서 제1 영역을 제외한 나머지 제2 영역의 데이터와 제1 데이터를 포함하는 제2 데이터를 획득할 수 있다. 이때, 제2 데이터는 제1 데이터와 제2 영역의 데이터의 경계를 연결하는 데이터를 더 포함할 수 있다.The
이미지 처리 장치(100)는 수복물 데이터에서 불리언(Boolean) 기법으로 제2 데이터를 뺌으로써, 수복물에 대한 최종 이미지를 획득할 수 있다.The
일 실시예에 따른 이미지 처리 장치(100)는 수복물에 대한 최종 이미지를 표시할 수 있다(S240).The
수복물에 대한 최종 이미지는, 대합치 또는 인접치와 맞물리는 영역이 움푹 파인 형상으로 나타낼 수 있다.The final image of the restoration may show a recessed shape in the area engaged with the antagonist or adjacent teeth.
도 3은 일 실시예에 따른 이미지 처리 장치가 구강 이미지를 디스플레이하는 예를 나타내는 도면이다.3 is a diagram illustrating an example of displaying an oral cavity image by an image processing device according to an exemplary embodiment.
도 3을 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 구강에 대한 3차원 이미지(3차원 스캔 데이터)와 함께, 디자인된 수복물 이미지(수복물 데이터)를 포함하는 구강 이미지(301)를 표시할 수 있다.Referring to FIG. 3 , the
이미지 처리 장치(100)는 구강에 대한 3차원 이미지에서 치료가 필요한 치아(대상 치아)를 식별하고, 대상 치아에 대한 수복물(310)을 디자인할 수 있다. 예를 들어, 이미지 처리 장치(100)는 CAD(Computer Aided Design)/CAM(Computer Aided Manufacturing) 프로그램을 이용하여, 대상 치아에 대한 수복물(310)을 디자인할 수 있다. The
또는, 이미지 처리 장치(100)는 외부 장치로 구강에 대한 3차원 이미지 또는 대상 치아에 대한 데이터를 전송하고, 외부 장치는 수신한 정보에 기초하여, 대상 치아에 대한 수복물을 디자인할 수 있다. 외부 장치는 이미지 처리 장치(100)로 수복물에 대한 데이터를 전송할 수 있다.Alternatively, the
이에 따라, 이미지 처리 장치(100)는 수복물(310)에 대한 데이터를 획득하고, 수복물 데이터를 구강에 대한 3차원 이미지에 적용함으로써, 구강 이미지(301)를 획득할 수 있다. 이때, 수복물(310)과 대합치 또는 수복물(310)과 인접치 사이에는 오버랩되는 간섭 영역이 발생할 수 있다.Accordingly, the
일 실시예에 따른 이미지 처리 장치(100)는 수복물(310)과 대합치 또는 수복물(310)과 인접치 사이에 오버랩되는 간섭 영역을 획득할 수 있다. 일 실시예에 따른 이미지 처리 장치(100)가 간섭 영역을 획득하는 방법에 대해서는 도 4를 참조하여 설명하기로 한다.The
도 4는 일 실시예에 따른 이미지 처리 장치가 간섭 영역을 획득하는 방법을 설명하기 위해 참조되는 도면이다.4 is a diagram referenced to describe a method of acquiring an interference area by an image processing apparatus according to an exemplary embodiment.
도 4에서는 설명의 편의를 위해, 수복물과 대합치 사이에 발생하는 간섭 영역을 예로 들어 설명하기로 한다.In FIG. 4 , for convenience of description, an interference region generated between a restoration and an opposing tooth will be described as an example.
도 4를 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 광선 교차 검사를 수행하여, 수복물과 대합치가 오버랩되는 간섭 영역을 획득할 수 있다. 광선 교차 검사는 수복물 데이터(410)와 대합치 데이터(420)에 기초하여 수행될 수 있다. 수복물 데이터(410)는 수복물(310)의 표면의 형상을 나타내는 표면 데이터 또는 메쉬 데이터 등을 포함할 수 있으며, 복수의 폴리곤들을 포함할 수 있다. 또한, 대합치 데이터(420)는 대합치(320)의 표면의 형상을 나타내는 표면 데이터 또는 메쉬 데이터 등을 포함할 수 있으며, 복수의 폴리곤들을 포함할 수 있다.Referring to FIG. 4 , the
예를 들어, 이미지 처리 장치(100)는 대합치 데이터(420)에 포함되는 복수의 정점들에서 해당 정점의 법선 방향과 반대 방향으로 가상의 광선을 생성하고, 생성된 가상의 광선이 수복물 데이터(410)와 교차하는지 여부를 검사할 수 있다. 이미지 처리 장치(100)는 가상의 광선이 수복물 데이터(410)와 교차하는 경우, 해당 영역을 간섭 영역으로 획득할 수 있다. 예를 들어, 가상의 광선이 교차하는 수복물 데이터(410)의 정점들 또는 메쉬들을 간섭 영역에 대응하는 수복물 데이터(415)로 결정할 수 있다. 또한, 가상의 광선이 수복물 데이터(410)와 교차하는 경우, 해당 광선을 생성한 정점들을 간섭 영역에 대응하는 대합치 데이터(425)로 결정할 수 있다.For example, the
일 실시예에 따른 이미지 처리 장치(100)는 간섭 영역에 대응하는 대합치 데이터(425)를 이용하여, 수복물 데이터(410)에서 간섭 영역을 제거할 수 있다. 이미지 처리 장치(100)는 간섭 영역에 대응하는 대합치 데이터(425)를 획득하기 위해 수복물 데이터(410)가 아닌 대합치 데이터(420)에서 가상의 광선을 생성할 필요가 있다. 수복물 데이터(410)에 포함되는 정점들과 대합치 데이터(420)에 포함되는 정점들은 개수와 위치가 서로 다르므로, 수복물 데이터(410)에서 가상의 광선을 생성하여, 광선이 교차하는 대합치 데이터(420) 상의 정점들을 찾는 경우, 수복물 데이터의 정점들에 대응하는 정점들만 찾아지게 된다. 이에 따라, 대합치 데이터(420) 상에서 간섭 영역에 대응하는 모든 정점들이 찾아지지 않을 수 있다. 따라서, 일 실시예에 따른 이미지 처리 장치(100)는 간섭 영역에 대응하는 대합치 데이터(425)에 포함되는 모든 정점들을 찾기 위해, 대합치 데이터(420) 상의 정점들에서 가상의 광선들을 생성하여, 광선 교차 검사를 수행할 수 있다.The
또한, 수복물 데이터(410)에서 간섭 영역을 불리언(boolean) 기법으로 제거하기 위해서는 간섭 영역에 대응하는 대합치 데이터(425)가 필요하다. 따라서, 일 실시예에 따른 이미지 처리 장치(100)는 수복물 데이터(410)가 아닌 대합치 데이터(420) 상의 정점들에서 가상의 광선들을 생성하여, 광선 교차 검사를 수행할 필요가 있다.In addition, in order to remove the interference area from the
일 실시예에 따른 이미지 처리 장치(100)는 획득된 간섭 영역을 다른 영역과 식별되도록 디스플레이할 수 있다. 예를 들어, 이미지 처리 장치(100)는 간섭 영역에 대응하는 수복물 데이터를 오버랩되는 정도에 따라 결정되는 색상으로 디스플레이할 수 있다. 이에 대해서는 도 5를 참조하여 설명하기로 한다.The
도 5는 일 실시예에 따른 구강 이미지에서 간섭 영역을 다른 영역과 식별되도록 디스플레이하는 화면들을 나타내는 도면이다.5 is a diagram illustrating screens for displaying an interference region to be distinguished from other regions in an oral cavity image according to an exemplary embodiment.
도 5는 도 3의 구강 이미지를 다른 시점에서 디스플레이하는 이미지들을 나타내는 도면이다.FIG. 5 is a diagram illustrating images displaying the oral cavity image of FIG. 3 at different viewpoints.
예를 들어, 도 5의 구강 이미지들(501, 502)은 도 3의 구강 이미지(301)를 제1 방향(330)으로 관측할 때, 디스플레이되는 이미지들이다. 도 5의 구강 이미지(501)는 상악에 대한 구강 데이터와 하악에 대한 구강 데이터를 모두 디스플레이하는 구강 이미지이고, 도 5의 제2 구강 이미지(502)는 수복물(310)을 포함하는 하악에 대한 구강 데이터는 디스플레이하고, 상악에 대한 구강 데이터는 디스플레이하지 않은 구강 이미지이다. 이미지 처리 장치(100)는 사용자 입력에 기초하여, 상악에 대한 구강 데이터 또는 하악에 대한 구강 데이터를 디스플레이하거나, 디스플레이하지 않을 수 있다.For example, the
제1 구강 이미지(501) 및 제2 구강 이미지(502)는 수복물(310)과 대합치(320)가 오버랩되는 간섭 영역을 다른 영역과 식별되게 디스플레이할 수 있다. 예를 들어, 수복물(310)과 대합치(320)가 오버랩되는 정도에 따라 서로 다른 색상으로 나타낼 수 있다. 이때, 오버랩되는 정도는 수복물(300) 상에 표시되며, 광선 교차 검사를 통하여 결정할 수 있다. 예를 들어, 이미지 처리 장치(100)는 수복물 데이터 상의 정점들에서 해당 정점의 법선 방향과 반대 방향으로 가상의 광선을 생성하고, 생성된 가상의 광선이 대합치 데이터와 교차하는지 여부를 검사할 수 있다. 이미지 처리 장치(100)는 가상의 광선이 대합치 데이터와 교차하는 경우, 광선의 시점부터 광선이 교차하는 정점까지의 거리에 기초하여, 오버랩 정도를 결정할 수 있다. 이미지 처리 장치(100)는 광선의 시점부터 광선이 교차하는 정점까지의 거리가 길수록 오버랩 정도가 큰 것으로 결정할 수 있으며, 오버랩 정도가 클수록 광선이 생성된 수복물 데이터 상의 정점 또는 해당 정점을 포함하는 메쉬를 제1 색상(예를 들어, 빨강)에 가까운 색으로 표시할 수 있다. 또한, 이미지 처리 장치(100)는 광선의 시점부터 광선이 교차하는 정점까지의 거리가 짧을수록 오버랩 정도가 작은 것으로 결정할 수 있으며, 오버랩 정도가 작을수록 광선이 생성된 수복물 데이터 상의 정점 또는 해당 정점을 포함하는 메쉬를 제2 색상(예를 들어, 초록)에 가까운 색으로 표시할 수 있다. 다만, 이에 한정되지 않는다.In the first
도 6 내지 도 8은 일 실시예에 따른 이미지 처리 장치가 수복물 이미지에서 간섭 영역을 제거함으로써, 수복물의 최종 이미지를 획득하는 동작을 설명하기 위한 도면들이다.6 to 8 are diagrams for describing an operation of obtaining a final image of a restoration by removing an interference region from an image of the restoration by an image processing apparatus according to an exemplary embodiment.
도 6을 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 간섭 영역에 대응하는 대합치 데이터(420)를 제1 거리(d1)만큼 이동시킬 수 있다. 예를 들어, 이미지 처리 장치(100)는 간섭 영역에 대응하는 대합치 데이터(610, 제1 데이터)에 포함되는 정점들 또는 메쉬들을, 정점들 또는 메쉬들의 법선 방향으로 제1 거리(d1)만큼 이동시킴으로써, 이동된 정점들을 포함하는 제2 데이터(620)를 획득할 수 있다. 이때, 제1 거리(d1)는 이미지 처리 장치(100)에 기 설정된 값이거나, 사용자 인터페이스를 통한 사용자 입력에 기초하여 설정될 수 있다. 이에 대해서는 도 9를 참조하여 자세히 설명하기로 한다.Referring to FIG. 6 , the
또는, 일 실시예에 따른 이미지 처리 장치(100)는 간섭 영역에 대응하는 대합치 데이터(610) 중 일부 데이터를 제1 거리(d1)만큼 이동시킴으로써, 제2 데이터(620)를 획득할 수 있다. 예를 들어, 이미지 처리 장치(100)는 대합치 데이터(610)의 가장자리 영역의 데이터를 제외한 나머지 데이터를 제1 거리(d1)만큼 이동시킬 수 있다. Alternatively, the
또는, 일 실시예에 따른 이미지 처리 장치(100)는 간섭 영역에 대응하는 대합치 데이터(610)를 포함하는 더 큰 영역의 데이터를 제1 거리(d1)만큼 이동시킴으로써, 제2 데이터(620)를 획득할 수 있다. 예를 들어, 이미지 처리 장치(100)는 대합치 데이터(610)의 가장자리 영역에 인접하는 데이터를 더 포함하는 데이터를 제1 거리(d1)만큼 이동시킬 수 있다.Alternatively, the
여기서, 데이터를 제1 거리(d1)만큼 이동시키는 것은, 데이터에 포함되는 정점들 또는 메쉬들을, 정점들 또는 메쉬들의 법선 방향으로 제1 거리(d1)만큼 이동시키는 것을 의미할 수 있다.Here, moving the data by the first distance d1 may mean moving vertices or meshes included in the data by the first distance d1 in a normal direction of the vertices or meshes.
도 7을 참조하면, 이미지 처리 장치(100)는 대합치 데이터(420)에서 제1 데이터(610)를 제외한 나머지 데이터(630, 제3 데이터)와 제2 데이터(620)의 경계를 연결하는 제4 데이터(640)를 획득할 수 있다. 이에 따라, 이미지 처리 장치(100)는 제2 데이터(620), 제3 데이터(630) 및 제4 데이터(640)를 포함하는 제5 데이터(650)를 획득할 수 있다.Referring to FIG. 7 , the
또는, 일 실시예에 따른 이미지 처리 장치(100)는 제3 데이터(630) 중 일부 데이터와 이동된 제2 데이터(620)의 경계를 연결하는 제4 데이터(640)를 획득할 수 있다. 예를 들어, 제4 데이터(640)는 제3 데이터(630)의 가장자리 영역의 데이터를 제외한 나머지 데이터와 제2 데이터(620)의 경계를 연결하는 데이터일 수 있다. 이에 따라, 이미지 처리 장치(100)는 제2 데이터(620), 제3 데이터(630) 중 일부 데이터 및 제4 데이터(640)를 포함하는 제5 데이터(650)를 획득할 수 있다.Alternatively, the
또는, 이미지 처리 장치(100)는 제3 데이터(630)를 포함하는 더 큰 영역의 데이터와 이동된 제2 데이터(620)의 경계를 연결하는 제4 데이터(640)를 획득할 수 있다. 예를 들어, 제4 데이터(640)는 제3 데이터(630)의 가장자리 영역에 인접하는 데이터를 더 포함하는 데이터와 제2 데이터(620)의 경계를 연결하는 데이터일 수 있다. 이에 따라, 이미지 처리 장치(100)는 제2 데이터(620), 제3 데이터(630)를 포함하는 더 큰 영역의 데이터 및 제4 데이터(640)를 포함하는 제5 데이터(650)를 획득할 수 있다.Alternatively, the
도 8을 참조하면, 이미지 처리 장치(100)는 수복물 데이터(410)에서 제5 데이터(650)를 뺌으로써, 수복물에 대한 최종 이미지(810)를 획득할 수 있다.Referring to FIG. 8 , the
예를 들어, 이미지 처리 장치(100)는 수복물 데이터(410)에서 제5 데이터(650)를 불리언(boolean) 기법으로 제거함으로써, 결과적으로 간섭 영역에 대응하는 수복물 데이터(415)를 제거한 최종 이미지(810)를 획득할 수 있다. 또한, 이미지 처리 장치(100)는 간섭 영역에 대응하는 대합치 데이터(425)에 기초하여, 수복물 데이터가 제거된 영역에 대응하는 데이터(815)를 획득할 수 있다.For example, the
도 9는 일 실시예에 따른 수복물과 대합치 사이의 거리를 설정하기 위한 사용자 인터페이스를 나타내는 도면이다.9 is a diagram illustrating a user interface for setting a distance between a restoration and an antagonist tooth according to an exemplary embodiment.
도 9를 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 수복물과 대합치 사이의 거리를 조절하는 슬라이더(910)를 사용자 인터페이스 화면에 표시할 수 있다. 수복물과 대합치 사이의 거리는 도 6에서 도시하고 설명한 간섭 영역에 대응하는 대합치 데이터(420)에 포함되는 정점들을 이동시키는 제1 거리(d1)를 의미할 수 있다.Referring to FIG. 9 , the
수복물과 대합치 사이의 거리를 0이 아닌 값으로 설정하는 것은 오프셋을 부여하기 위한 것으로, 수복물을 제작할 때, 수복물을 제작하는 기기(예를 들어, 밀링기, 프린터 등)에 따라 오차가 발생할 수 있으며, 이러한 오차를 보정하기 위해 오프셋 거리를 설정할 수 있다.Setting the distance between the restoration and the antagonist to a value other than 0 is to give an offset, and errors may occur depending on the equipment (e.g., milling machine, printer, etc.) , an offset distance can be set to compensate for this error.
이미지 처리 장치(100)는 슬라이더(910)를 이용하여, 수복물과 대합치 사이의 거리를 조절하는 사용자 입력을 수신할 수 있다. 예를 들어, 이미지 처리 장치(100)는 슬라이더(910)를 오른쪽으로 이동시키는 사용자 입력을 수신하면, 제1 거리(d1)를 증가시키고, 슬라이더(910)를 왼쪽으로 이동시키는 사용자 입력을 수신하면, 제1 거리(d1)를 감소시킬 수 있다. 또한, 이미지 처리 장치(100)는 슬라이더(910)에 의해 설정된 제1 거리(d1)를 수치(920)로 표시할 수 있다. 다만, 이에 한정되지 않는다.The
수복물과 대합치 사이의 거리가 설정되면, 이미지 처리 장치(100)는 설정된 거리에 기초하여, 수복물의 최종 이미지를 획득할 수 있다. 이에 대해서는 도 6에서 자세히 설명하였으므로 동일한 설명은 생략하기로 한다.When the distance between the restoration and the antagonist is set, the
도 10은 일 실시예에 따른 수복물의 최종 이미지들을 디스플레이하는 화면들을 나타내는 도면이다.10 is a diagram illustrating screens displaying final images of a restoration according to an exemplary embodiment.
도 10을 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 수복물의 최종 이미지를 화면에 디스플레이할 수 있다.Referring to FIG. 10 , the
도 10의 제1 구강 이미지(1001)는 상악 및 하악에 대한 구강 데이터와 수복물의 최종 이미지(1010)를 디스플레이하는 구강 이미지이고, 도 10의 제2 구강 이미지(1001)는 수복물을 포함하는 하악에 대한 구강 데이터와 수복물의 최종 이미지(1010)를 디스플레이하는 구강 이미지이다.The first
이미지 처리 장치(100)는 사용자 입력에 기초하여, 상악에 대한 구강 데이터 또는 하악에 대한 구강 데이터를 디스플레이하거나 디스플레이하지 않을 수 있다. 또한, 이미지 처리 장치(100)는 상악 및 하악에 대한 구강 데이터는 디스플레이하지 않고, 수복물의 최종 이미지(1010)만 디스플레이할 수 있다. 다만, 이에 한정되지 않는다.The
예를 들어, 제1 구강 이미지(1001) 및 제2 구강 이미지(1002)에 디스플레이된 수복물의 최종 이미지(1010)는 대합치와 오버랩되는 간섭 영역이 제거됨으로써, 움푹 파인 형상(1030)을 포함할 수 있다. 또한, 도 5의 제1 구강 이미지(501) 및 제2 구강 이미지(502)와 비교해보면, 도 10의 제1 구강 이미지(1001) 및 제2 구강 이미지(1002)는 오버랩되는 정도에 따라 서로 다른 색상으로 나타나는 간섭 영역을 포함하지 않는다.For example, the
도 11은 일 실시예에 따른 이미지 처리 장치를 나타내는 블록도이다. 11 is a block diagram illustrating an image processing device according to an exemplary embodiment.
도 11에 도시된 이미지 처리 방법은 이미지 처리 장치(100)를 통하여 수행될 수 있다. 따라서, 도 2에 도시된 이미지의 처리 방법은 이미지 처리 장치(100)의 동작들을 나타내는 흐름도가 될 수 있다. The image processing method illustrated in FIG. 11 may be performed through the
도 11를 참조하면, 이미지 처리 장치(100)는 통신 인터페이스(110), 사용자 인터페이스(120), 디스플레이(130), 메모리(140) 및 프로세서(150)를 포함할 수 있다.Referring to FIG. 11 , the
통신 인터페이스(110)는 적어도 하나의 외부 전자 장치(예를 들어, 스캐너(10), 서버, 또는 외부의 의료 장치 등)와 유선 또는 무선 통신 네트워크를 통하여 통신을 수행할 수 있다. 통신 인터페이스 (110)는 프로세서(150)의 제어에 따라서 적어도 하나의 외부 정자 장치와 통신을 수행할 수 있다. The
구체적으로, 통신 인터페이스(110)는 블루투스, 와이파이, BLE(Bluetooth Low Energy), NFC/RFID, 와이파이 다이렉트(Wifi Direct), UWB, 또는 ZIGBEE 등의 통신 규격에 따른 통신을 수행하는 적어도 하나의 근거리 통신 모듈을 포함할 수 있다. Specifically, the
또한, 통신 인터페이스(110)는 원거리 통신 규격에 따라서 원거리 통신을 지원하기 위한 서버와 통신을 수행하는 원거리 통신 모듈을 더 포함할 수 있다. 구체적으로, 통신 인터페이스(110)는 인터넷 통신을 위한 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다. 또한, 통신 인터페이스(110)는 3G, 4G, 및/또는 5G 등의 통신 규격에 따르는 통신 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다. In addition, the
또한, 통신 인터페이스(110)는 외부 전자 장치(예를 들어, 구강 스캐너 등)와 유선으로 통신하기 위해서, 외부 전자 장치와 유선 케이블로 연결되기 위한 적어도 하나의 포트를 포함할 수 있다. 그에 따라서, 통신 인터페이스(110)는 적어도 하나의 포트를 통하여 유선 연결된 외부 전자 장치와 통신을 수행할 수 있다. In addition, the
사용자 인터페이스(120)는 이미지 처리 장치(100)를 제어하기 위한 사용자 입력을 수신할 수 있다. 사용자 인터페이스(120)는 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자 인터페이스 화면 상의 일 지점을 지정 또는 선택하기 위한 마우스(mouse) 또는 키보드(key board) 등을 포함하는 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다.The
또한, 사용자 인터페이스(120)는 음성 인식을 위한 음성 인식 장치를 포함할 수 있다. 예를 들어, 음성 인식 장치는 마이크가 될 수 있으며, 음성 인식 장치는 사용자의 음성 명령 또는 음성 요청을 수신할 수 있다. 그에 따라서, 프로세서(150)는 음성 명령 또는 음성 요청에 대응되는 동작이 수행되도록 제어할 수 있다. Also, the
디스플레이(130)는 화면을 디스플레이 한다. 구체적으로, 디스플레이(130)는 프로세서(150)의 제어에 따라서 소정 화면을 디스플레이 할 수 있다. 구체적으로, 디스플레이(130)는 스캐너(10)에서 환자의 구강을 스캔하여 획득한 데이터에 근거하여 생성된 구강 이미지를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 또는, 스캐너(10)로부터 획득한 데이터에 근거하여 생성된 대상체에 대한 이미지를 포함하는 사용자 인터페이스 화면을 디스플레이할 수 있다.The
또는, 디스플레이(130)는 환자의 치과 치료와 관련되는 정보를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다.Alternatively, the
메모리(140)는 적어도 하나의 인스트럭션을 저장할 수 있다. 또한, 메모리 (140)는 프로세서(150)가 실행하는 적어도 하나의 인스트럭션을 저장하고 있을 수 있다. 또한, 메모리(140)는 프로세서(150)가 실행하는 적어도 하나의 프로그램을 저장하고 있을 수 있다. 또한, 메모리(140)는 스캐너(10)로부터 수신되는 데이터(예를 들어, 스캔을 통하여 획득된 로우 데이터 등)를 저장할 수 있다. 또는, 메모리(140)는 대상체를 3차원적으로 나타내는 이미지를 저장할 수 있다. 일 실시예에 따른 메모리(140)는 수복물과 대합치 또는 수복물과 인접치 사이의 간섭 영역이 발생하지 않도록 수복물에서 일부 데이터를 제거하기 위한 하나 이상의 인스트럭션들을 포함할 수 있다. 일 실시예에 따른 메모리(140)는 수복물과 대합치 또는 수복물과 인접치 사이의 간섭 영역을 획득하고, 간섭 영역에 기초하여, 수복물의 최종 이미지를 획득하기 위해 본 개시서에 개시된 방법을 수행하기 위한 하나 이상의 인스트럭션들을 포함할 수 있다.The
프로세서(150)는 메모리(140)에 저장된 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 제어한다. 여기서, 적어도 하나의 인스트럭션은 프로세서(150)내에 포함되는 내부 메모리 또는 프로세서와 별도로 데이터 처리 장치 내에 포함되는 메모리(140)에 저장되어 있을 수 있다.The
구체적으로, 프로세서(150)는 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 데이터 처리 장치 내부에 포함되는 적어도 하나의 구성들을 제어할 수 있다. 따라서, 프로세서가 소정 동작들을 수행하는 경우를 예로 들어 설명하더라도, 프로세서가 소정 동작들이 수행되도록 데이터 처리 장치 내부에 포함하는 적어도 하나의 구성들을 제어하는 것을 의미할 수 있다. Specifically, the
일 실시예에 따른 프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 3차원 스캐너로부터 수신한 로우 데이터에 기초하여, 스캔 데이터를 생성할 수 있다. 이때, 로우 데이터는 3차원 스캐너에 의해 적어도 하나의 치아를 포함하는 구강을 스캔함으로써 획득된 로우 데이터를 포함할 수 있다.The
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 수신한 로우 데이터에 기초하여, 구강에 대한 3차원 이미지 또는 3차원 모델을 획득할 수 있다. The
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 구강에 대한 3차원 이미지에서 치료가 필요한 치아(대상 치아)에 대한 수복물에 대한 이미지 또는 데이터를 획득할 수 있다. 예를 들어, 프로세서(150)는 구강에 대한 3차원 이미지에서 대상 치아를 식별하고, 대상 치아에 대한 수복물을 디자인할 수 있다. 프로세서(150)는 대상 치아에 대한 3차원적 형상 정보에 기초하여, 대상 치아에 대한 수복물을 디자인할 수 있다. 프로세서(150)는 CAD(Computer Aided Design)/CAM(Computer Aided Manufacturing) 프로그램을 이용하여, 대상 치아에 대한 수복물을 디자인할 수 있다. 다만, 이에 한정되지 않는다.The
또는, 프로세서(150)는 외부 장치로 구강에 대한 3차원 이미지 또는 대상 치아에 대한 데이터를 전송하고, 외부 장치로부터 수복물에 대한 이미지 또는 데이터를 수신할 수 있다.Alternatively, the
일 실시예에 따른 프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 구강을 스캔한 3차원 스캔 데이터와 수복물에 대한 데이터(이하, '수복물 데이터')를 포함하는 구강 이미지를 획득할 수 있다. 예를 들어, 프로세서(150)는 구강에 대한 3차원 스캔 데이터에 수복물 데이터를 적용시킴으로써, 대상 치아에 수복물이 부착된 형태의 구강 이미지를 획득할 수 있다. 이때, 3차원 스캔 데이터는 상악에 대한 데이터와 하악에 대한 데이터를 포함할 수 있으며, 3차원 스캔 데이터에 포함되는 치아 데이터는 정렬(얼라인)된 데이터일 수 있다.The
일 실시예에 따른 프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 구강 이미지에 기초하여, 간섭 영역을 획득할 수 있다. 프로세서(150)는 구강 이미지에서 수복물과 맞물리는 대합치 또는 수복물에 인접한 인접치가 수복물과 오버랩되는 영역이 존재하는 지 확인할 수 있다. 프로세서(150)는 광선 교차 검사를 수행하여, 수복물과 대합치 또는 수복물과 인접치가 오버랩되는 간섭 영역을 획득할 수 있다. 광선 교차 검사는 대합치 또는 인접치에 대한 데이터에 포함되는 복수의 정점들 상에서, 상기 정점의 법선(normal) 방향과 반대 방향으로 가상의 광선을 생성하고, 생성된 가상의 광선이 수복물 데이터와 교차하는지 여부를 검사하는 것을 의미한다.The
일 실시예에 따른 프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 수복물 데이터에서 간섭 영역에 대응하는 데이터를 제거함으로써, 수복물의 최종 이미지를 획득할 수 있다. 예를 들어, 프로세서(150)는 광선 교차 검사를 통해, 가상의 광선이 수복물 데이터와 교차하는 경우, 교차하는 수복물에 대한 데이터를 제거할 수 있다. 또한, 교차하는 정점들에 대응하는 대합치 또는 인접치에 대한 정점들에 기초하여, 제거된 영역에 대응하는 수복물 데이터를 획득할 수 있다.The
구체적으로, 프로세서(150)는 광선 교차 검사를 통해 광선과 교차하는 수복물 데이터의 정점들이 찾아지면, 해당 광선이 생성된 대합치 또는 인접치의 정점들을 포함하는 제1 영역을 획득할 수 있다.In detail, the
프로세서(150)는 제1 영역에 포함되는 정점들을, 정점들의 법선 방향으로 제1 거리만큼 이동시킴으로써, 이동된 정점들을 포함하는 제1 데이터를 획득할 수 있다. 이때, 제1 거리는 사용자 입력에 기초하여 설정될 수 있다.The
프로세서(150)는 대합치 또는 인접치 데이터에서 제1 영역을 제외한 나머지 제2 영역의 데이터와 제1 데이터를 포함하는 제2 데이터를 획득할 수 있다. 이때, 제2 데이터는 제1 데이터와 제2 영역의 데이터의 경계를 연결하는 데이터를 더 포함할 수 있다.The
프로세서(150)는 수복물 데이터에서 불리언(Boolean) 기법으로 제2 데이터를 뺌으로써, 수복물에 대한 최종 이미지를 획득할 수 있다.The
일 실시예에 따른 프로세서(150)는 수복물에 대한 최종 이미지를 표시할 수 있다The
일 예에 따른 프로세서(150)는, 내부적으로 적어도 하나의 내부 프로세서 및 내부 프로세서에서 처리 또는 이용될 프로그램, 인스트럭션, 신호, 및 데이터 중 적어도 하나 저장하기 위한 메모리 소자(예를 들어, RAM, ROM 등)을 포함하는 형태로 구현될 수 있다. The
또한, 프로세서(150)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit)를 포함할 수 있다. 또한, 프로세서는 코어(core)와 GPU를 통합한 SoC(System On Chip)로 구현될 수 있다. 또한, 프로세서는 싱글 코어 이상의 멀티 코어를 포함할 수 있다. 예를 들어, 프로세서는 듀얼 코어, 트리플 코어, 쿼드 코어, 헥사 코어, 옥타 코어, 데카 코어, 도데카 코어, 헥사 다시 벌 코어 등을 포함할 수 있다.Also, the
개시된 실시예에서, 프로세서(150)는 스캐너(10)로부터 수신되는 2차원 이미지에 근거하여 이미지를 생성할 수 있다.In the disclosed embodiment, the
구체적으로, 프로세서(150)의 제어에 따라서 통신 인터페이스(110)는 스캐너(10)에서 획득된 데이터, 예를 들어 스캔을 통하여 획득된 로우 데이터(raw data)를 수신할 수 있다. 그리고, 프로세서(150)는 통신 인터페이스(110)에서 수신된 로우 데이터에 근거하여 대상체를 3차원적으로 나타내는 3차원 이미지를 생성할 수 있다. 예를 들어, 스캐너(10)는 광 삼각 방식에 따라서 3차원 이미지를 복원하기 위해서, 좌안 시야(left Field of View)에 대응되는 L 카메라 및 우안 시야(Right Field of View)에 대응되는 R 카메라를 포함할 수 있다. 그리고, 3차원 스캐너는 L 카메라 및 R 카메라 각각에서 좌안 시야(left Field of View)에 대응되는 L 이미지 데이터 및 우안 시야(Right Field of View)에 대응되는 R 이미지 데이터를 획득할 수 있다. 계속하여, 3차원 스캐너는 L 이미지 데이터 및 R 이미지 데이터를 포함하는 로우 데이터를 이미지 처리 장치(100)의 통신 인터페이스(110)로 전송할 수 있다. Specifically, under the control of the
그러면, 통신 인터페이스(110)는 수신되는 로우 데이터를 프로세서(150)로 전달하고, 프로세서(150)는 전달받은 로우 데이터에 근거하여, 대상체를 3차원적으로 나타내는 이미지를 생성할 수 있다. Then, the
또한, 프로세서(150)는 통신 인터페이스(110)를 제어하여, 외부의 서버, 의료 장치 등으로부터 대상체를 3차원적으로 나타내는 이미지를 직접 수신할 수 있다. 이 경우, 프로세서는 로우 데이터에 근거한 3차원 이미지를 생성하지 않고, 3차원 이미지를 획득할 수 있다.Also, the
개시된 실시예에 따라서, 프로세서(150)가 '추출', '획득', '생성' 등의 동작을 수행한다는 것은, 프로세서(150)에서 적어도 하나의 인스트럭션을 실행하여 전술한 동작들을 직접 수행하는 경우뿐만 아니라, 전술한 동작들이 수행되도록 다른 구성 요소들을 제어하는 것을 포함할 수 있다. According to the disclosed embodiment, the
본 개시서에 개시된 실시예들을 구현하기 위해서 이미지 처리 장치(100)는 도 11에 도시된 구성요소들의 일부만을 포함할 수도 있고, 도 11에 도시된 구성요소 외에 더 많은 구성요소를 포함할 수도 있다. In order to implement the embodiments disclosed in this disclosure, the
또한, 이미지 처리 장치(100)는 스캐너(10)에 연동되는 전용 소프트웨어를 저장 및 실행할 수 있다. 여기서, 전용 소프트웨어는 전용 프로그램, 전용 툴(tool), 또는 전용 어플리케이션으로 호칭될 수 있다. 이미지 처리 장치(100)가 스캐너(10)와 상호 연동되어 동작하는 경우, 이미지 처리 장치(100)에 저장되는 전용 소프트웨어는 스캐너(10)와 연결되어 대상체의 스캔을 통하여 획득되는 데이터들을 실시간을 수신할 수 있다. 예를 들어, 메디트의 3차원 스캐너인 i500 제품에서 대상체의 스캔을 통하여 획득된 데이터를 처리하기 위한 전용 소프트웨어가 존재한다. 구체적으로, 메디트에서는 3차원 스캐너(예를 들어, i500)에서 획득된 데이터를 처리, 관리, 이용, 및/또는 전송하기 위한 소프트웨어인 'Medit Link'를 제작하여 배포하고 있다. 여기서, '전용 소프트웨어'는 3차원 스캐너와 연동되어 동작 가능한 프로그램, 툴, 또는 어플리케이션을 의미하는 것이므로 다양한 제작자에 의해서 개발 및 판매되는 다양한 3차원 스캐너들이 공용으로 이용할 수도 있을 것이다. 또한, 전술한 전용 소프트웨어는 대상체의 스캔을 수행하는 3차원 스캐너와 별도로 제작 및 배포될 수 있다. Also, the
이미지 처리 장치(100)는 i500 제품에 대응되는 전용 소프트웨어를 저장 및 실행할 수 있다. 전송 소프트웨어는 이미지를 획득, 처리, 저장, 및/또는 전송하기 위한 적어도 하나의 동작들을 수행할 수 있다. 여기서, 전용 소프트웨어는 프로세서에 저장될 수 있다. 또한, 전용 소프트웨어는 3차원 스캐너에서 획득된 데이터의 이용을 위한 사용자 인터페이스를 제공할 수 있다. 여기서, 전용 소프트웨어에서 제공되는 사용자 인터페이스 화면은 개시된 실시예에 따라서 생성되는 이미지를 포함할 수 있다.The
본 개시의 일 실시예에 따른 이미지의 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 이미지의 처리 방법을 실행하는 적어도 하나의 인스트럭션을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 저장 매체가 될 수 있다. An image processing method according to an embodiment of the present disclosure may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. In addition, an embodiment of the present disclosure may be a computer-readable storage medium in which one or more programs including at least one instruction for executing an image processing method are recorded.
상기 컴퓨터 판독 가능 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 여기서, 컴퓨터 판독 가능 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치가 포함될 수 있다. The computer readable storage medium may include program instructions, data files, data structures, etc. alone or in combination. Here, examples of computer-readable storage media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, floptical disks and Hardware devices configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like, may be included.
여기서, 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 저장 매체가 실재(tangible)하는 장치임을 의미할 수 있다. 또한, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.Here, the device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' may mean that the storage medium is a tangible device. Also, the 'non-temporary storage medium' may include a buffer in which data is temporarily stored.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 이미지의 처리 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포될 수 있다. 또는, 어플리케이션 스토어(예: 플레이 스토어 등)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 구체적으로, 개시된 실시예에 따른 컴퓨터 프로그램 제품은 개시된 실시예에 따른 이미지의 처리 방법을 수행하기 위해 적어도 하나의 인스트럭션을 포함하는 프로그램이 기록된 저장 매체를 포함할 수 있다. According to an embodiment, a method of processing an image according to various embodiments disclosed in this document may be included in a computer program product and provided. A computer program product may be distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)). Alternatively, it may be distributed (eg, downloaded or uploaded) online through an application store (eg, play store, etc.) or directly between two user devices (eg, smartphones). Specifically, the computer program product according to the disclosed embodiment may include a storage medium on which a program including at least one instruction for performing the image processing method according to the disclosed embodiment is recorded.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also within the scope of the present invention. belongs to
Claims (20)
적어도 하나의 치아에 대한 데이터와 수복물에 대한 데이터를 포함하는 구강 이미지를 획득하는 단계;
상기 구강 이미지에 기초하여, 상기 적어도 하나의 치아 중 제1 치아와 상기 수복물이 오버랩되는 간섭 영역을 획득하는 단계; 및
상기 수복물에 대한 데이터에서 상기 간섭 영역에 대응하는 데이터를 제거함으로써 상기 수복물의 최종 이미지를 획득하는 단계;를 포함하는, 방법.In the image processing method,
obtaining an oral cavity image including data on at least one tooth and data on a restoration;
obtaining an interference area in which a first tooth of the at least one tooth and the restoration overlap, based on the oral cavity image; and
obtaining a final image of the restoration by removing data corresponding to the interference area from data for the restoration.
상기 제1 치아는 상기 수복물과 맞물리는 대합치 및 상기 수복물에 인접한 인접치 중 적어도 하나를 포함하는, 방법.According to claim 1,
wherein the first tooth comprises at least one of an antagonist in engagement with the restoration and an adjacent tooth adjacent to the restoration.
상기 간섭 영역을 획득하는 단계는,
상기 제1 치아에 대한 데이터에 포함되는 정점들에서 법선(normal) 방향과 반대 방향으로 가상의 광선들을 생성하여, 광선-교차 검사를 수행하는 단계; 및
상기 교차하는 가상의 광선들에 기초하여, 상기 간섭 영역을 획득하는 단계;를 포함하는, 방법.According to claim 1,
The step of obtaining the interference area,
generating virtual rays in a direction opposite to a normal direction at vertices included in the data on the first tooth, and performing a ray-intersection test; and
Acquiring the interference area based on the intersecting virtual rays.
상기 수복물의 최종 이미지를 획득하는 단계는,
상기 수복물에 대한 데이터에서, 상기 간섭 영역에 대응하는 데이터를 일정 거리만큼 이동시켜 제거함으로써 상기 수복물의 최종 이미지를 획득하는 단계를 포함하는, 방법.According to claim 1,
The step of obtaining the final image of the restoration,
and obtaining a final image of the restoration by moving and removing data corresponding to the interference area from the data for the restoration by a predetermined distance.
상기 수복물의 최종 이미지를 획득하는 단계는,
상기 간섭 영역에 대응하는 상기 제1 치아에 대한 데이터에 기초하여, 상기 수복물의 최종 이미지를 획득하는 단계를 포함하는, 방법.According to claim 1,
The step of obtaining the final image of the restoration,
obtaining a final image of the restoration based on the data on the first tooth corresponding to the interference region.
상기 수복물의 최종 이미지를 획득하는 단계는,
상기 간섭 영역에 대응하는 상기 제1 치아에 대한 데이터를 제1 거리만큼 이동시키는 단계;
상기 이동된 데이터와 이동되지 않은 상기 제1 치아에 대한 데이터를 연결시킨 제2 데이터를 획득하는 단계; 및
상기 수복물에 대한 데이터에서 상기 제2 데이터를 제거함으로써, 상기 수복물의 최종 이미지를 획득하는 단계;를 포함하는, 방법.According to claim 5,
The step of obtaining the final image of the restoration,
moving data on the first tooth corresponding to the interference area by a first distance;
obtaining second data in which the moved data is connected to data on the first tooth that is not moved; and
obtaining a final image of the restoration by removing the second data from the data for the restoration.
상기 수복물의 최종 이미지를 획득하는 단계는,
상기 간섭 영역에 대응하는 상기 제1 치아에 대한 데이터 중 일부 데이터 또는 상기 간섭 영역에 대응하는 상기 제1 치아에 대한 데이터를 포함하는 더 큰 영역의 데이터를 제1 거리만큼 이동시키는 단계;
상기 이동된 데이터와, 이동되지 않은 상기 제1 치아에 대한 데이터 중 일부 데이터 또는 상기 이동되지 않은 제1 치아에 대한 데이터를 포함하는 더 큰 영역의 데이터를 연결시킨 제2 데이터를 획득하는 단계; 및
상기 수복물에 대한 데이터에서 상기 제2 데이터를 제거함으로써, 상기 수복물의 최종 이미지를 획득하는 단계;를 포함하는, 방법.According to claim 5,
The step of obtaining the final image of the restoration,
moving part of the data on the first tooth corresponding to the interference area or data of a larger area including the data on the first tooth corresponding to the interference area by a first distance;
For the moved data and the non-moved first tooth obtaining second data by connecting data of a larger area including some of the data or data on the first tooth that has not been moved; and
obtaining a final image of the restoration by removing the second data from the data for the restoration.
상기 방법은,
상기 제1 거리를 설정하는 사용자 입력을 수신하는 단계를 더 포함하는, 방법.According to claim 6,
The method,
The method further comprising receiving a user input setting the first distance.
상기 방법은,
상기 구강 이미지를 표시하는 단계를 더 포함하고,
상기 구강 이미지를 표시하는 단계는,
상기 간섭 영역에서 상기 수복물과 상기 제1 치아가 오버랩되는 정도를 색상으로 표시하는 단계를 포함하는, 방법.According to claim 1,
The method,
Further comprising displaying the oral cavity image,
The step of displaying the oral cavity image,
And displaying in color a degree of overlap between the restoration and the first tooth in the interference region.
상기 방법은,
상기 수복물에 대한 최종 이미지를 표시하는 단계를 더 포함하는, 방법.According to claim 1,
The method,
and displaying a final image of the restoration.
디스플레이;
하나 이상의 인스트럭션들을 저장하는 메모리; 및
프로세서를 포함하고,
상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
적어도 하나의 치아에 대한 데이터와 수복물에 대한 데이터를 포함하는 구강 이미지를 획득하고,
상기 구강 이미지에 기초하여, 상기 적어도 하나의 치아 중 제1 치아와 상기 수복물이 오버랩되는 간섭 영역을 획득하며,
상기 수복물에 대한 데이터에서 상기 간섭 영역에 대응하는 데이터를 제거함으로써 상기 수복물의 최종 이미지를 획득하고,
상기 수복물의 최종 이미지를 표시하도록 상기 디스플레이를 제어하는, 이미지 처리 장치.The image processing device,
display;
a memory that stores one or more instructions; and
contains a processor;
The processor, by executing the one or more instructions stored in the memory,
Obtaining an oral cavity image including data on at least one tooth and data on a restoration;
Obtaining an interference region in which a first tooth of the at least one tooth and the restoration overlap based on the oral cavity image,
Obtaining a final image of the restoration by removing data corresponding to the interference area from data for the restoration;
An image processing device for controlling the display to display a final image of the restoration.
상기 제1 치아는 상기 수복물과 맞물리는 대합치 및 상기 수복물에 인접한 인접치 중 적어도 하나를 포함하는, 이미지 처리 장치.According to claim 11,
The image processing apparatus of claim 1 , wherein the first tooth includes at least one of an opposing tooth engaged with the restoration and an adjacent tooth adjacent to the restoration.
상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
상기 제1 치아에 대한 데이터에 포함되는 정점들에서 법선(normal) 방향과 반대 방향으로 가상의 광선들을 생성하여, 광선-교차 검사를 수행하고,
상기 교차하는 가상의 광선들에 기초하여, 상기 간섭 영역을 획득하는, 이미지 처리 장치.According to claim 11,
The processor, by executing the one or more instructions stored in the memory,
Generating virtual rays in a direction opposite to a normal direction at vertices included in the data for the first tooth, performing a ray-intersection test;
Acquiring the interference area based on the intersecting virtual rays.
상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
상기 수복물에 대한 데이터에서, 상기 간섭 영역에 대응하는 데이터를 일정 거리만큼 이동시켜 제거함으로써 상기 수복물의 최종 이미지를 획득하는, 이미지 처리 장치.According to claim 11,
The processor, by executing the one or more instructions stored in the memory,
Acquiring a final image of the restoration by moving and removing data corresponding to the interference region from data on the restoration by a predetermined distance.
상기 프로세서는,
상기 간섭 영역에 대응하는 상기 제1 치아에 대한 데이터에 기초하여, 상기 수복물의 최종 이미지를 획득하는, 이미지 처리 장치.According to claim 11,
the processor,
Acquiring a final image of the restoration based on the data on the first tooth corresponding to the interference region.
상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
상기 간섭 영역에 대응하는 상기 제1 치아에 대한 데이터를 제1 거리만큼 이동시키고,
상기 이동된 데이터와 이동되지 않은 상기 제1 치아에 대한 데이터를 연결시킨 제2 데이터를 획득하며,
상기 수복물에 대한 데이터에서 상기 제2 데이터를 제거함으로써, 상기 수복물의 최종 이미지를 획득하는, 이미지 처리 장치.According to claim 15,
The processor, by executing the one or more instructions stored in the memory,
Moving data on the first tooth corresponding to the interference area by a first distance;
Obtaining second data that connects the moved data and the data for the first tooth that is not moved;
and obtaining a final image of the restoration by removing the second data from the data for the restoration.
상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
상기 간섭 영역에 대응하는 상기 제1 치아에 대한 데이터 중 일부 데이터 또는 상기 간섭 영역에 대응하는 상기 제1 치아에 대한 데이터를 포함하는 더 큰 영역의 데이터를 제1 거리만큼 이동시키고,
상기 이동된 데이터와, 이동되지 않은 상기 제1 치아에 대한 데이터 중 일부 데이터 또는 상기 이동되지 않은 제1 치아에 대한 데이터를 포함하는 더 큰 영역의 데이터를 연결시킨 제2 데이터를 획득하며,
상기 수복물에 대한 데이터에서 상기 제2 데이터를 제거함으로써, 상기 수복물의 최종 이미지를 획득하는, 이미지 처리 장치.According to claim 15,
The processor, by executing the one or more instructions stored in the memory,
Moving data of a larger area including some of the data on the first tooth corresponding to the interference area or data on the first tooth corresponding to the interference area by a first distance;
For the moved data and the non-moved first tooth Obtaining second data that connects data of a larger area including some of the data or data for the first tooth that has not been moved;
and obtaining a final image of the restoration by removing the second data from the data for the restoration.
상기 이미지 처리 장치는,
상기 제1 거리를 설정하는 사용자 입력을 수신하는 사용자 인터페이스를 더 포함하는, 이미지 처리 장치.According to claim 16,
The image processing device,
Further comprising a user interface for receiving a user input for setting the first distance, the image processing device.
상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
상기 구강 이미지를 표시하도록 상기 디스플레이를 제어하는, 이미지 처리 장치.According to claim 11,
The processor, by executing the one or more instructions stored in the memory,
An image processing device that controls the display to display the oral cavity image.
상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
상기 간섭 영역에서 상기 수복물과 상기 제1 치아가 오버랩되는 정도를 색상으로 표시하도록 상기 디스플레이를 제어하는, 이미지 처리 장치.According to claim 19,
The processor, by executing the one or more instructions stored in the memory,
Controlling the display to display in color a degree of overlap between the restoration and the first tooth in the interference region, the image processing apparatus.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2022/009096 WO2023003192A1 (en) | 2021-07-21 | 2022-06-27 | Image processing apparatus and image processing method |
EP22846064.8A EP4374819A1 (en) | 2021-07-21 | 2022-06-27 | Image processing apparatus and image processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210095700 | 2021-07-21 | ||
KR1020210095700 | 2021-07-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230014628A true KR20230014628A (en) | 2023-01-30 |
Family
ID=85106352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220076925A KR20230014628A (en) | 2021-07-21 | 2022-06-23 | An image processing apparatus, and an image processing method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230014628A (en) |
-
2022
- 2022-06-23 KR KR1020220076925A patent/KR20230014628A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11344392B2 (en) | Computer implemented method for modifying a digital three-dimensional model of a dentition | |
KR20220054095A (en) | An intraoral image processing apparatus and an intraoral image processing method | |
KR102552669B1 (en) | An intraoral image processing apparatus, and an intraoral image processing method | |
KR102460621B1 (en) | An intraoral image processing apparatus, and an intraoral image processing method | |
KR102582709B1 (en) | A method for processing a three-dimensional intraoral model, and an apparatus for performing the same method | |
KR102534778B1 (en) | Method and apparatus for obtaining three dimensional data and computer readable medium storing a program for performing the same method | |
KR20230014628A (en) | An image processing apparatus, and an image processing method | |
KR102673346B1 (en) | An three-dimensional intraoral model processing apparatus and three-dimensional intraoral model processing method | |
EP4374819A1 (en) | Image processing apparatus and image processing method | |
KR20220056760A (en) | An intraoral image processing apparatus, and an intraoral image processing method | |
KR20230029554A (en) | An image processing apparatus, and an image processing method | |
KR20210147729A (en) | METHOD AND APPARATUS FOR OBTAINING THREE Dimensional Data AND COMPUTER READABLE MEDIUM STORING A PROGRAM FOR PERFORMING THE SAME METHOD | |
KR102680644B1 (en) | Method for adding text on three dimensional model and apparatus for processing three dimensional model | |
KR102472127B1 (en) | An intraoral image processing apparatus and an intraoral image processing method | |
KR20230051418A (en) | An intraoral image processing apparatus and an intraoral image processing method | |
KR102631922B1 (en) | A method for processing a 3D intraoral model, and an apparatus for performing the same method | |
KR20230038117A (en) | A method for processing a intraoral image, and a data processing apparatus | |
KR102527955B1 (en) | An image processing apparatus, and an image processing method | |
US20240180397A1 (en) | Data processing device, scanner, and method for operating same | |
KR102612682B1 (en) | Electronic device and method for processing scanned image of three dimensional scanner | |
EP4194804A1 (en) | Method and device for acquiring three-dimensional data, and computer-readable storage medium storing program for performing method | |
KR20230007909A (en) | Method for adding text on three dimensional model and apparatus for processing three dimensional model | |
KR20230051057A (en) | A method for processing a intraoral image, and a data processing apparatus | |
KR20230055381A (en) | A data processing apparatus, a data processing method | |
KR20230054605A (en) | An intraoral image processing apparatus, and an intraoral image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |