KR20220127764A - Device and method for identifying selection region in intraoral image - Google Patents
Device and method for identifying selection region in intraoral image Download PDFInfo
- Publication number
- KR20220127764A KR20220127764A KR1020220030315A KR20220030315A KR20220127764A KR 20220127764 A KR20220127764 A KR 20220127764A KR 1020220030315 A KR1020220030315 A KR 1020220030315A KR 20220030315 A KR20220030315 A KR 20220030315A KR 20220127764 A KR20220127764 A KR 20220127764A
- Authority
- KR
- South Korea
- Prior art keywords
- oral
- image
- oral cavity
- area
- brush
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Abstract
Description
본 개시의 실시예들은 구강 이미지 내의 선택 영역을 식별하는 방법 및 이를 위한 장치에 관한 것으로, 보다 구체적으로는 구강에 대한 3차원 모델 내의 선택 영역을 식별하는 방법 및 이를 위한 장치에 관한 것이다.Embodiments of the present disclosure relate to a method and an apparatus for identifying a selection region in an oral cavity image, and more particularly, to a method and an apparatus for identifying a selection region in a three-dimensional model of an oral cavity.
치과 치료, 특히 보철 등의 치료를 하는 데 있어 치과용CAD/CAM(Dental Computer Aided Design/Computer Aided Manufacturing) 기술이 널리 사용되고 있다. CAD/CAM을 이용한 치과 치료에서 가장 중요한 것은 환자의 치아, 잇몸, 턱뼈 등의 대상체의 형상에 대하여 정교한 3차원 데이터를 획득하는 것이다. 치과 치료를 수행함에 있어서, 대상체로부터 획득된 3차원 데이터를 이용하면, 컴퓨터에 의하여 정확한 계산이 수행될 수 있다는 장점이 있다. 예를 들어, 치과용 CAD/CAM 치료과정에서 대상체의 3차원 데이터를 획득하기 위해서는, CT(Computed Tomography), MRI(Magnetic Resonance Imaging), 및 광학 스캐닝 등의 방법이 이용될 수 있다.Dental CAD/CAM (Dental Computer Aided Design/Computer Aided Manufacturing) technology is widely used in dental treatment, particularly, prosthetic treatment. The most important thing in dental treatment using CAD/CAM is to acquire precise 3D data on the shape of an object, such as a patient's teeth, gums, and jawbone. In performing dental treatment, there is an advantage that accurate calculation can be performed by a computer by using 3D data obtained from an object. For example, in order to acquire 3D data of an object in a dental CAD/CAM treatment process, methods such as computed tomography (CT), magnetic resonance imaging (MRI), and optical scanning may be used.
치과 CAD/CAM 분야에서는 3차원 스캔 장치가 많이 사용되고 있다. 3차원 스캔 장치는 대상체로부터 반사되는 빛을 이용하여 3차원 표면 형상 정보를 획득할 수 있다. 구체적으로 3차원 표면 데이터는 폴리곤메쉬 형태로 기록될 수 있고, 3차원 표면 데이터는 대상체의 표면의 정점들의 위치 정보와 각 정점들의 연결 관계 정보를 포함할 수 있다. 또는, 3차원 표면 데이터는 포인트 클라우드 형태로 기록될 수 있다.In the dental CAD/CAM field, a 3D scanning device is widely used. The 3D scanning apparatus may acquire 3D surface shape information using light reflected from the object. Specifically, the 3D surface data may be recorded in the form of a polygon mesh, and the 3D surface data may include position information of vertices of the surface of the object and connection relationship information between each vertex. Alternatively, the 3D surface data may be recorded in the form of a point cloud.
구강 이미지 처리 장치가 스캔 데이터로부터 구강 이미지를 획득하면, 사용자는 획득한 구강 이미지를 이용하여 구강 이미지 내의 영역을 선택할 수 있다. 다만, 종래에는 구강 이미지 내의 선택 영역을 식별하는 과정에서 많은 시간이 소요되거나 불필요한 영역이 설정되는 문제가 존재하였다. 따라서, 구강 이미지 내의 영역을 정확하게 결정하는 기술이 요구될 수 있다.When the oral cavity image processing apparatus acquires an oral cavity image from the scan data, the user may select a region in the oral cavity image using the acquired oral cavity image. However, in the prior art, there was a problem in that a lot of time is required or an unnecessary area is set in the process of identifying a selected area in the oral cavity image. Thus, a technique for accurately determining an area within an oral image may be required.
개시된 실시예는 사용자의 입력에 따라 구강 이미지 내의 영역이 정확하게 특정될 수 있도록 구강 이미지 내의 선택 영역을 식별하는 방법, 그에 따른 동작을 수행하는 장치, 및 그 방법을 수행하는 프로그램 또는 인스트럭션이 저장된 컴퓨터로 판독이 가능한 기록 매체의 제공을 목적으로 한다.The disclosed embodiment is a method for identifying a selected region in an oral cavity image so that the region in the oral cavity image can be accurately specified according to a user input, an apparatus for performing the operation according thereto, and a computer storing a program or instructions for performing the method. An object of the present invention is to provide a readable recording medium.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제1 측면에 따른 방법은 구강 이미지 내의 선택 영역을 식별하는 방법에 있어서, 구강 이미지를 획득하는 단계; 구강 이미지의 기준 포인트를 결정하는 단계; 기준 포인트 및 적어도 하나의 거리 정보에 기초하여, 브러시를 결정하는 단계; 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하는 단계; 및 구강 이미지에서 선택 영역을 표시하는 단계; 를 포함할 수 있다.As a technical means for achieving the above-described technical problem, a method according to a first aspect of the present disclosure is a method for identifying a selection region in an oral cavity image, the method comprising: acquiring an oral cavity image; determining a reference point of the oral image; determining a brush based on the reference point and the at least one distance information; identifying an area overlapping the area defined by the brush in the oral image as a selection area; and displaying a selection area in the oral image; may include.
본 개시의 실시예에 따른 방법에 있어서, 선택 영역을 식별하는 단계는, 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지의 복수 개의 포인트에 대한 위치 정보에 기초하여, 브러시에 의해 정해지는 영역과 구강 이미지가 중첩되는 적어도 하나의 경계를 식별하는 단계; 및 적어도 하나의 경계에 기초하여 선택 영역을 식별하는 단계; 를 포함할 수 있다.In the method according to an embodiment of the present disclosure, the step of identifying the selection region includes: based on position information on a plurality of points of an area defined by the brush and position information on a plurality of points of an oral image, identifying at least one boundary on which the region defined by the overlapping oral image; and identifying the selection region based on the at least one boundary. may include.
본 개시의 실시예에 따른 방법에 있어서, 상기 브러시가 2차원 브러시인 경우, 브러시에 의해 정해지는 영역은 2차원 브러시를 디스플레이부의 법선 방향으로 연장함으로써 획득되는 영역을 포함할 수 있다.In the method according to an embodiment of the present disclosure, when the brush is a two-dimensional brush, the area defined by the brush may include an area obtained by extending the two-dimensional brush in a normal direction of the display unit.
본 개시의 실시예에 따른 방법에 있어서, 식별된 선택 영역은 적어도 하나의 경계 및 식별된 적어도 하나의 경계 내에 위치한 구강 이미지의 영역을 포함할 수 있다.In a method according to an embodiment of the present disclosure, the identified selection region may include at least one boundary and a region of the oral cavity image located within the identified at least one boundary.
본 개시의 실시예에 따른 방법에 있어서, 선택 영역을 표시하는 단계는, 선택 영역의 적어도 하나의 경계를 강조하여 선택 영역을 표시하는 단계; 를 포함할 수 있다.In the method according to an embodiment of the present disclosure, the displaying of the selection area may include: displaying the selection area by emphasizing at least one boundary of the selection area; may include.
본 개시의 실시예에 따른 방법에 있어서, 선택 영역의 적어도 하나의 경계를 강조하여 선택 영역을 표시하는 단계는, 선택 영역의 적어도 하나의 경계를 기 설정된 색상으로 표시하고, 적어도 하나의 경계 내에 위치한 구강 이미지의 영역은 구강 이미지의 색상 및 기 설정된 색상을 중첩 또는 블렌딩하여 표시하는 단계; 를 포함할 수 있다.In the method according to an embodiment of the present disclosure, the displaying of the selection area by emphasizing at least one boundary of the selection area includes displaying at least one boundary of the selection area with a preset color and located within the at least one boundary. Displaying the region of the oral cavity image by overlapping or blending the color of the oral image and a preset color; may include.
본 개시의 실시예에 따른 방법에 있어서, 선택 영역을 식별하는 단계는, 기준 포인트의 위치 정보에 기초하여 구강 이미지의 적어도 하나의 오브젝트를 식별하는 단계; 및 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여, 선택 영역을 식별하는 단계; 를 포함할 수 있다.In a method according to an embodiment of the present disclosure, the identifying the selection region may include: identifying at least one object of the oral cavity image based on location information of a reference point; and identifying the selection region further based on the identified region of the at least one object; may include.
본 개시의 실시예에 따른 방법에 있어서, 선택 영역을 표시하는 단계는, 선택 영역에 포함되는 구강 이미지의 적어도 하나의 오브젝트를 식별하는 단계; 및 적어도 하나의 오브젝트에 따라 상이한 색상으로 선택 영역을 표시하는 단계; 를 포함할 수 있다.In a method according to an embodiment of the present disclosure, the displaying of the selection region may include: identifying at least one object of the oral cavity image included in the selection region; and displaying the selection area with different colors according to at least one object. may include.
본 개시의 실시예에 따른 방법에 있어서, 적어도 하나의 거리 정보는 상기 기준 포인트와 구강 이미지의 다른 포인트 간의 거리 정보를 포함할 수 있다.In the method according to an embodiment of the present disclosure, the at least one distance information may include distance information between the reference point and another point in the oral image.
본 개시의 제2 측면에 따른 구강 이미지를 처리하는 장치에 있어서, 구강 이미지를 처리하는 장치는 구강 이미지를 표시하는 디스플레이부; 하나 이상의 인스트럭션을 저장하는 메모리; 및 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서; 를 포함하고, 적어도 하나의 프로세서는 구강 이미지를 획득하고, 구강 이미지의 기준 포인트를 결정하고, 기준 포인트 및 적어도 하나의 거리 정보에 기초하여 브러시를 결정하고, 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하고, 구강 이미지에서 선택 영역을 표시하도록 디스플레이부를 제어할 수 있다.In the device for processing an oral cavity image according to a second aspect of the present disclosure, the device for processing the oral cavity image includes: a display unit for displaying the oral cavity image; a memory storing one or more instructions; and at least one processor executing one or more instructions. wherein the at least one processor acquires an oral cavity image, determines a reference point of the oral cavity image, determines a brush based on the reference point and at least one distance information, and includes an area defined by the brush in the oral cavity image; The overlapping region may be identified as a selection region, and the display unit may be controlled to display the selection region in the oral cavity image.
본 개시의 제3 측면에 따른 기록매체는 상기 방법을 컴퓨터에서 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체를 포함할 수 있다.The recording medium according to the third aspect of the present disclosure may include a computer-readable recording medium in which a program for performing the method in a computer is recorded.
개시된 실시예에 따른 구강 이미지 내의 선택 영역을 식별하는 방법, 그에 따른 동작을 수행하는 장치, 및 그 방법을 수행하는 프로그램 또는 인스트럭션이 저장된 컴퓨터로 판독이 가능한 기록 매체는 구강 이미지의 기준 포인트 및 적어도 하나의 거리 정보에 기초하여 선택 영역을 식별함으로써, 구강 이미지 내의 영역 선택의 정확도를 높힌 사용자 인터페이스 화면을 제공할 수 있다.A method for identifying a selection region in an oral cavity image according to the disclosed embodiment, an apparatus for performing an operation according thereto, and a computer-readable recording medium storing a program or instructions for performing the method include a reference point of the oral cavity image and at least one By identifying the selection region based on the distance information of , it is possible to provide a user interface screen with increased accuracy of region selection in the oral cavity image.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 개시된 실시예에 따른 구강 이미지 처리 시스템을 설명하기 위한 도면이다.
도 2는 구강 이미지 내의 선택 영역을 식별하는 방법을 설명하기 위한 도면이다.
도 3은 실시예 따른 구강 이미지를 처리하는 장치의 블록도를 도시한다.
도 4는 실시예 따른 구강 이미지를 처리하는 장치의 세부적인 블록도의 일 예이다.
도 5는 구강 이미지 내의 선택 영역을 식별하는 방법의 실시예를 나타내는 흐름도이다.
도 6은 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하는 동작을 설명하기 위한 흐름도이다.
도 7은 브러시가 2차원 브러시인 경우, 구강 이미지 내의 선택 영역을 식별하는 동작을 설명하기 위한 참고도이다.
도 8은 브러시가 2차원 브러시인 경우, 구강 이미지 내의 선택 영역을 식별하는 동작을 설명하기 위한 참고도이다.
도 9는 브러시가 3차원 브러시인 경우, 구강 이미지 내의 선택 영역을 식별하는 동작을 설명하기 위한 참고도이다.
도 10은 구강 이미지의 선택 영역의 적어도 하나의 경계를 식별하는 동작을 설명하기 위한 참고도이다.
도 11은 기준 포인트의 위치 정보에 기초하여, 구강 이미지의 적어도 하나의 오브젝트를 식별하는 실시예를 설명하기 위한 참고도이다.
도 12는 도 11에 이어, 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여 선택 영역을 식별하는 실시예 및 식별된 적어도 하나의 오브젝트에 따라 상이한 색상으로 선택 영역을 표시하는 실시예를 설명하기 위한 참고도이다.
도 13은 기준 포인트의 위치 정보에 기초하여, 구강 이미지의 적어도 하나의 오브젝트를 식별하는 예를 설명하기 위한 참고도이다.
도 14는 도 13에 이어, 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여 선택 영역을 식별하는 실시예 및 식별된 적어도 하나의 오브젝트에 따라 상이한 색상으로 선택 영역을 표시하는 실시예를 설명하기 위한 참고도이다.
도 15는 3차원 브러시에 기초하여 선택 영역을 식별하는 경우, 구강 이미지에서 선택 영역을 표시하는 실시예를 설명하기 위한 참고도이다.
도 16은 3차원 브러시에 기초하여 식별된 영역 안에 홀(hole)이 있는 경우, 홀이 표시된 선택 영역을 디스플레이하는 실시예를 설명하기 위한 참고도이다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention can be easily understood by the following detailed description and combination of the accompanying drawings, in which reference numerals mean structural elements.
1 is a view for explaining an oral image processing system according to the disclosed embodiment.
2 is a diagram for explaining a method of identifying a selection region in an oral cavity image.
3 shows a block diagram of an apparatus for processing an oral image according to an embodiment.
4 is an example of a detailed block diagram of an apparatus for processing an oral image according to an embodiment.
5 is a flow diagram illustrating an embodiment of a method for identifying a selection region within an oral cavity image.
6 is a flowchart for explaining an operation of identifying an area overlapping an area determined by a brush in an oral image as a selection area.
7 is a reference diagram for explaining an operation of identifying a selection region in an oral cavity image when the brush is a two-dimensional brush.
8 is a reference diagram for explaining an operation of identifying a selection region in an oral cavity image when the brush is a two-dimensional brush.
9 is a reference diagram for explaining an operation of identifying a selection region in an oral image when the brush is a three-dimensional brush.
10 is a reference diagram for explaining an operation of identifying at least one boundary of a selection region of an oral cavity image.
11 is a reference diagram for explaining an embodiment of identifying at least one object of an oral cavity image based on location information of a reference point.
FIG. 12 is a diagram for explaining an embodiment in which a selection region is further identified based on the region of at least one identified object and an embodiment in which a selection region is displayed with a different color according to the identified at least one object, following FIG. 11 . It is also a reference.
13 is a reference diagram for explaining an example of identifying at least one object of an oral cavity image based on location information of a reference point.
14 is a diagram for explaining an embodiment in which a selection region is further identified based on the region of at least one identified object and an embodiment in which a selection region is displayed with a different color according to the identified at least one object, following FIG. 13 . It is also a reference.
15 is a reference diagram for explaining an embodiment of displaying a selection region in an oral image when a selection region is identified based on a three-dimensional brush.
16 is a reference diagram for explaining an embodiment of displaying a selection area in which a hole is displayed when there is a hole in an area identified based on a three-dimensional brush.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시예들을 개시한다. 개시된 실시예들은 다양한 형태로 구현될 수 있다.This specification clarifies the scope of the present invention, explains the principles of the present invention, and discloses embodiments so that those of ordinary skill in the art to which the present invention pertains can practice the present invention. The disclosed embodiments may be implemented in various forms.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.Like reference numerals refer to like elements throughout. This specification does not describe all elements of the embodiments, and general content in the technical field to which the present invention pertains or content that overlaps between the embodiments is omitted. The term 'part' used in the specification may be implemented in software or hardware, and according to embodiments, a plurality of 'parts' may be implemented as one element (unit, element), or one ' It is also possible for part' to include a plurality of elements. Hereinafter, the working principle and embodiments of the present invention will be described with reference to the accompanying drawings.
본 명세서에 '대상체(object)'는 촬영의 대상이 되는 것으로서, 대상체는 사람, 동물, 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등), 대상체에 부착 가능하거나 대상체 내에 삽입 가능한 인공 구조물, 또는 팬텀(phantom) 등을 포함할 수 있다. 예를 들어, 대상체는 치아, 치은, 구강의 적어도 일부 영역, 및/또는 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어를 포함하는 교정 장치, 임플란트, 인공 치아, 인레이 및 온레이 등을 포함하는 치아 수복물, 구강 내 삽입되는 교정 보조 도구 등), 인공 구조물이 부착된 치아 또는 치은 등을 포함할 수 있다.As used herein, an 'object' is an object to be photographed, and the object may include a person, an animal, or a part thereof. For example, the object may include a body part (such as an organ or an organ), an artificial structure attachable to or insertable into the object, or a phantom. For example, the subject may have teeth, gingiva, at least a portion of the oral cavity, and/or artificial structures insertable into the oral cavity (eg, orthodontic devices including brackets and wires, implants, artificial teeth, inlays and onlays, etc.) including dental restorations, orthodontic aids inserted into the oral cavity), teeth or gingiva to which artificial structures are attached.
본 개시에서 '구강 이미지'는 대상체에 대한 2차원 이미지 또는 대상체를 입체적으로 나타내는 구강 이미지로 3차원 이미지를 의미할 수도 있다. 구체적으로, 이미지는 적어도 하나의 치아, 또는 적어도 하나의 치아를 포함하는 구강을 나타내는 이미지(이하, '구강 이미지')를 포함할 수 있다. 본 개시에서 구강 이미지란, 2차원 프레임 및 3차원 프레임을 모두 포함할 수 있다. 예를 들어, 구강 이미지는 대상체에 대해서 서로 다른 시점에서 획득된 2차원 이미지들을 포함하는 2차원 프레임, 포인트 클라우드 형태 또는 폴리곤 메쉬 형태로 표현되는 3차원 프레임을 포함할 수 있다.In the present disclosure, an 'oral image' may refer to a two-dimensional image of an object or a three-dimensional image as an oral image three-dimensionally representing the object. Specifically, the image may include at least one tooth or an image representing an oral cavity including at least one tooth (hereinafter, 'oral image'). In the present disclosure, the oral image may include both a two-dimensional frame and a three-dimensional frame. For example, the oral image may include a two-dimensional frame including two-dimensional images obtained from different viewpoints with respect to the object, a three-dimensional frame expressed in a point cloud form, or a polygonal mesh form.
또한, 본 개시에서 '데이터'는 대상체를 2차원 또는 3차원적으로 표현하기 위해서 필요한 정보, 예를 들어, 적어도 하나의 영상 센서로부터 획득된 로우 데이터(raw data)를 의미할 수 있다. 구체적으로, 로우 데이터는 구강 이미지를 생성하기 위해서 획득되는 데이터일 수 있고, 로우 데이터는 구강 스캐너(intraoral scanner)를 이용하여 대상체인 환자의 구강 내를 스캔(scan)할 때 구강 스캐너에 포함되는 적어도 하나의 이미지 센서에서 획득되는 데이터(예를 들어, 2차원 데이터)가 될 수 있다. 구강 스캐너에서 획득되는 로우 데이터는, 스캔 데이터 또는 이차원 이미지 데이터로 언급될 수도 있다.Also, in the present disclosure, 'data' may refer to information necessary to represent an object in two or three dimensions, for example, raw data obtained from at least one image sensor. Specifically, the raw data may be data acquired to generate an oral image, and the raw data is at least included in the oral scanner when scanning the inside of the patient's mouth, which is an object, using an intraoral scanner. It may be data (eg, two-dimensional data) obtained from one image sensor. Raw data obtained from an intraoral scanner may be referred to as scan data or two-dimensional image data.
이하에서는 도면을 참조하여 실시예들을 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the drawings.
도 1은 개시된 실시예에 따른 구강 이미지 처리 시스템을 설명하기 위한 도면이다.1 is a view for explaining an oral image processing system according to the disclosed embodiment.
도 1에 도시된 바와 같이, 본 개시의 실시예에 따른 구강 이미지 처리 시스템은, 스캐너 100 및 구강 이미지 처리 장치 300를 포함할 수 있다. 1 , an oral image processing system according to an embodiment of the present disclosure may include a
본 개시의 실시예에 따른 스캐너 100는 구강 내의 이미지를 획득하기 위한 의료 장치이다. 구체적으로, 스캐너 100는 구강 내에 삽입되어 비 접촉식으로 치아를 스캐닝함으로써, 적어도 하나의 치아를 포함하는 구강에 대한 이미지를 획득하기 위한 장치가 될 수 있다. 또한, 스캐너 100는 구강 내에 인입 및 인출이 가능한 형태를 가질 수 있으며, 적어도 하나의 이미지 센서(예를 들어, 광학 카메라 등)를 이용하여 환자의 구강 내부를 스캔 할 수 있다. 스캐너 100는 대상체인 구강 내부의 치아, 치은 및 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어 등을 포함하는 교정 장치, 임플란트, 인공 치아, 구강 내 삽입되는 교정 보조 도구 등) 중 적어도 하나의 표면을 이미징하기 위해서, 대상체에 대한 표면 정보를 이차원 이미지 데이터로 획득할 수 있다. 스캐너 100가 획득한 이차원 이미지 데이터는 구강 이미지를 생성하기 위해 획득되는 로우 데이터일 수 있다. 도 1에서 스캐너 100는 구강에 인입하는 형태를 가지는 구강 스캐너로 도시되어 있지만, 본 개시에서 개시된 실시예들에 적용되는 스캐너 100는 치아 모형을 스캔하는 모델 스캐너를 포함할 수 있다.The
본 개시의 실시예에 따른 스캐너 100에서 획득된 이차원 이미지 데이터는 유선 또는 무선 통신 네트워크를 통하여 연결되는 구강 이미지 처리 장치 300로 전송될 수 있다. 구강 이미지 처리 장치 300는 스캐너 100와 유선 또는 무선 통신 네트워크를 통하여 연결되며, 스캐너 100로부터 구강을 스캔하여 획득된 이차원 이미지 데이터를 수신할 수 있다. 구강 이미지 처리 장치 300는 하기와 같은 실시예들에 따라 3차원 구강 이미지를 생성할 수 있다.The two-dimensional image data obtained by the
3차원 구강 이미지를 생성하는 실시예로, 스캐너 100는 구강 스캔을 통하여 획득된 로우 데이터(raw data)를 구강 이미지 처리 장치 300로 전송하거나 가공하여 전송할 수 있다. 구강 이미지 처리 장치 300는 수신된 로우 데이터에 따라 구강을 3차원적으로 나타내는 3차원 구강 이미지를 생성할 수 있다. '3차원 구강 이미지'는 수신된 로우 데이터에 근거하여 구강의 내부 구조를 3차원적으로 모델링(modeling)하여 생성될 수 있으므로, '3차원 구강 이미지'는 '3차원 모델', '구강에 대한 3차원 모델', '3차원 구강 모델' 또는 '3차원 구강 이미지'로 호칭될 수도 있다. 이하에서는, 구강을 2차원 또는 3차원적으로 나타내는 모델 또는 이미지를 통칭하여, '구강 이미지'라 칭하도록 한다. 3차원 구강 이미지를 생성하는 다른 실시예로, 스캐너 100가 구강 스캔을 통하여 로우 데이터(raw data)를 획득하고, 획득된 로우 데이터를 가공하여 대상체인 구강에 대응되는 이미지를 생성할 수 있다. 스캐너 100은 구강에 대응되게 생성된 구강 이미지를 구강 이미지 처리 장치 300로 전송할 수 있다.As an embodiment of generating a three-dimensional oral image, the
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 스캐너 100에서 수신된 이차원 이미지 데이터에 근거하여, 구강 이미지를 생성, 처리, 디스플레이 및/또는 전송할 수 있는 모든 전자 장치가 될 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 이차원 이미지 데이터를 처리하여 생성한 정보 및 이차원 이미지 데이터를 처리하여 생성한 구강 이미지 중 적어도 하나를 생성하고, 생성된 정보 및 구강 이미지 중 적어도 하나를 디스플레이부 310를 통하여 디스플레이 할 수 있다. 구강 이미지 처리 장치 300는 수신된 이미지를 분석, 처리, 디스플레이 및/또는 전송하기 위한 장치로 스마트 폰(smart phone), 랩탑 컴퓨터, 데스크탑 컴퓨터, PDA, 태블릿 PC 등의 컴퓨팅 장치가 될 수 있으며, 이에 한정되지 않는다. 예를 들어, 구강 이미지 처리 장치 300는 구강 이미지를 처리하기 위한 서버(또는 서버 장치) 등의 형태일 수도 있다.The oral cavity
또한, 본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 스캐너 100에 연동되는 전용 소프트웨어를 저장 및 실행할 수 있다. 여기서, 전용 소프트웨어는 전용 프로그램 또는 전용 애플리케이션으로 호칭될 수 있다. 구강 이미지 처리 장치 300가 스캐너 100와 상호 연동되어 동작하는 경우, 구강 이미지 처리 장치 300에 저장되는 전용 소프트웨어는 스캐너 100과 연결되어 대상체 스캔을 통하여 획득되는 데이터를 실시간으로 수신할 수 있다. 전용 소프트웨어는 구강 이미지 처리 장치 300의 메모리에 저장될 수 있다.In addition, the oral
또한, 전용 소프트웨어는 스캐너 100에서 획득된 데이터의 이용을 위한 사용자 인터페이스를 제공할 수 있다. 전용 소프트웨어에 의해 제공되는 사용자 인터페이스 화면은 구강 이미지 또는 3차원 모델을 포함할 수 있다. 구강 이미지 처리 장치 300는 전용 소프트웨어를 이용하여 구강 이미지의 기준 포인트 및 적어도 하나의 거리 정보에 따라 식별된 선택 영역을 디스플레이부 310에 표시할 수 있다.In addition, the dedicated software may provide a user interface for use of data acquired by the
개시된 실시예에서, 구강 이미지 처리 장치 300는 하나 이상의 치아를 포함하는 구강을 3차원적으로 나타내는 구강 이미지를 생성하고, 선택 영역이 표시된 구강 이미지를 디스플레이부 310를 통해 디스플레이할 수 있는 전자 장치로, 이하에서 상세히 설명하기로 한다.In the disclosed embodiment, the oral
도 2는 구강 이미지 내의 선택 영역을 식별하는 방법을 설명하기 위한 도면이다.2 is a diagram for explaining a method of identifying a selection region in an oral cavity image.
도 2를 참조하면, 관련 기술에서는 사용자가 구강 이미지 210의 영역 211을 선택하기 위해 브러시 (brush) 라는 그래픽 도구를 이용하여 구강 이미지 210에 마우스오버 또는 호버를 할 수 있고, 구강 이미지 처리 장치는 브러시가 위치되거나 이동된 상태에서 사용자가 클릭할 때, 브러시가 위치하거나 브러시에 의해 지나가는 영역에 의해 결정된 선택 영역을 미리 보여주는 그래픽을 포함하는 화면을 출력할 수 있다.Referring to FIG. 2 , in the related art, a user may hover or hover over an
다만, 브러시는 일정한 크기와 모양을 가지게 되므로, 브러시의 크기 또는 브러시의 모양 등에 따라, 브러시에 의해 선택되는 영역 211은 실제 사용자가 브러시에 의해 선택하고자 하는 영역 이외에 뒤쪽 잇몸에 대응되는 영역 212 또는 삼차원 모델의 포인트 데이터가 존재하지 않는 영역 213도 포함하게 될 수 있다. 따라서, 영역 212 및 영역 213은 불필요하게 선택된 영역일 수 있는 바, 관련 기술에 따르면, 3차원 이미지 내의 선택 영역을 식별함에 있어, 불필요한 영역이 설정되는 문제가 있었다.However, since the brush has a certain size and shape, depending on the size or shape of the brush, the
뿐만 아니라, 도 2를 참조하면, 관련 기술에서는 구강 이미지 220가 3차원 구강 이미지 또는 3차원 구강 모델임에도 불구하고, 선택 영역 221은 이차원인 것처럼 디스플레이될 수 있다. 따라서, 관련 기술에 따르면, 3차원 이미지 내의 선택 영역을 식별함에 있어, 구강 이미지 220가 3차원 이미지임에도 선택 영역은 2차원으로 디스플레이되어, 선택 영역을 정확하게 선택하기 어렵다는 문제가 있었다.In addition, referring to FIG. 2 , in the related art, although the
이러한 문제점을 해결하기 위하여, 본 개시의 다양한 실시예들에 따른 구강 이미지 처리 장치 300는 빠른 속도 및 높은 정확도로 사용자가 선택하고자 하는 선택 영역을 식별하고 표시할 수 있는 방법을 제안한다.In order to solve this problem, the oral
도 3은 실시예 따른 구강 이미지를 처리하는 장치의 블록도를 도시한다.3 shows a block diagram of an apparatus for processing an oral image according to an embodiment.
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 구강 이미지를 처리하고, 처리된 구강 이미지를 표시하기 위한 전자 장치일 수 있다. 본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 디스플레이부 310, 메모리 320 및 프로세서 330를 포함할 수 있다. 이하 상기 구성요소들에 대해 차례로 살펴본다.The oral cavity
디스플레이부 310는 화면을 디스플레이할 수 있고, 프로세서 330의 제어에 따라 소정의 화면을 디스플레이할 수 있다. 디스플레이부 310는 표시 패널 및 표시 패널을 제어하는 컨트롤러(미도시)를 포함할 수 있고, 디스플레이부 310는 구강 이미지 처리 장치 300에 내장된 디스플레이를 나타낼 수 있다. 표시 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 표시 패널은 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 디스플레이부 310는 사용자 입력부(미도시)의 터치 패널과 결합되어 터치 스크린으로 제공될 수 있다. 예를 들어, 터치 스크린은 표시 패널과 터치 패널이 적층 구조로 결합된 일체형의 모듈을 포함할 수 있다The
본 개시의 실시예에 따른 디스플레이부 310는 화면을 디스플레이할 수 있고, 프로세서 330의 제어에 따라 소정의 화면을 디스플레이할 수 있다. 구체적으로, 디스플레이부 310는 스캐너 100에서 환자의 구강을 스캔하여 획득한 데이터에 근거하여 생성된 구강 이미지를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 디스플레이부 310는 환자의 치과 치료와 관련되는 정보를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 또한, 예를 들어, 디스플레이부 310는 사용자에 의해 선택된 영역이 표시된 3차원 구강 모델을 디스플레이함으로써, 사용자에게 선택 영역이 포함된 사용자 인터페이스 화면을 제공할 수 있다.The
메모리 320는 프로세서 330의 처리 및 제어를 위한 프로그램을 저장할 수도 있다. 본 개시의 실시예에 따른 메모리 320는 하나 이상의 인스트럭션을 저장할 수 있다.The
프로세서 330는 구강 이미지 처리 장치 300의 전반적인 동작을 제어할 수 있고, 메모리 320에 저장된 하나 이상의 인스트럭션을 실행하여 구강 이미지 처리 장치 300의 동작을 제어할 수 있다.The
본 개시의 실시예에 따른 프로세서 330는 메모리 320에 저장된 하나 이상의 인스트럭션을 실행함으로써, 구강 이미지를 획득하고, 구강 이미지의 기준 포인트를 결정하고, 기준 포인트 및 적어도 하나의 거리 정보에 기초하여 브러시를 결정하고, 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하고, 구강 이미지에서 선택 영역을 표시하도록 디스플레이부 310를 제어할 수 있다.The
본 개시의 실시예에 따른 프로세서 330는 메모리 320에 저장된 하나 이상의 인스트럭션을 실행함으로써, 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지의 복수 개의 포인트에 대한 위치 정보에 기초하여, 브러시에 의해 정해지는 영역과 구강 이미지가 중첩되는 적어도 하나의 경계를 식별하고, 및 적어도 하나의 경계에 기초하여 선택 영역을 식별할 수 있다.The
본 개시의 실시예에 따른 프로세서 330는 메모리 320에 저장된 하나 이상의 인스트럭션을 실행함으로써, 선택 영역의 적어도 하나의 경계를 강조하여 선택 영역을 표시하도록 디스플레이부 310를 제어할 수 있다.The
본 개시의 실시예에 따른 프로세서 330는 메모리 320에 저장된 하나 이상의 인스트럭션을 실행함으로써, 선택 영역의 적어도 하나의 경계를 기 설정된 색상으로 표시하고, 적어도 하나의 경계 내에 위치한 구강 이미지의 영역은 구강 이미지의 색상 및 기 설정된 색상을 중첩 또는 블렌딩하여 표시하도록 디스플레이부 310를 제어할 수 있다.By executing one or more instructions stored in the
본 개시의 실시예에 따른 프로세서 330는 메모리 320에 저장된 하나 이상의 인스트럭션을 실행함으로써, 기준 포인트의 위치 정보에 기초하여 구강 이미지의 적어도 하나의 오브젝트를 식별하고, 및 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여 선택 영역을 식별할 수 있다.The
본 개시의 실시예에 따른 프로세서 330는 메모리 320에 저장된 하나 이상의 인스트럭션을 실행함으로써, 선택 영역에 포함되는 구강 이미지의 적어도 하나의 오브젝트를 식별하고, 및 적어도 하나의 오브젝트에 따라 상이한 색상으로 선택 영역을 표시하도록 디스플레이부 310를 제어할 수 있다.By executing one or more instructions stored in the
그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 구강 이미지 처리 장치 300가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 구강 이미지 처리 장치 300가 구현될 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 구강 이미지 처리 장치 300는 디스플레이부 310, 메모리 320, 프로세서 330, 통신부 340 및 사용자 입력부 350를 포함할 수 있다.However, not all illustrated components are essential components. The oral
도 4는 실시예 따른 구강 이미지를 처리하는 장치의 세부적인 블록도의 일 예이다.4 is an example of a detailed block diagram of an apparatus for processing an oral image according to an embodiment.
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 구강 이미지를 처리하고, 처리된 구강 이미지를 표시하기 위한 전자 장치일 수 있다. 구강 이미지 처리 장치 300는 스마트 폰(smart phone), 랩탑 컴퓨터, 데스크탑 컴퓨터, PDA, 태블릿 PC 등의 컴퓨팅 장치일 수 있으나 이에 제한되는 것은 아니다. 또한, 구강 이미지 처리 장치 300는 디스플레이부 310, 메모리 320 및 프로세서 330 이외에 통신부 340 및 사용자 입력부 350를 더 포함할 수 있다. 이하 상기 구성요소들에 대해 차례로 살펴본다. 디스플레이부 310에 대한 설명은 도 2에서 설명된 바와 동일하므로 생략하기로 한다.The oral cavity
메모리 320는 프로세서 330의 처리 및 제어를 위한 프로그램을 저장할 수도 있다. 본 개시의 실시예에 따른 메모리 320는 하나 이상의 인스트럭션을 저장할 수 있다. 메모리 320는 내장 메모리(Internal Memory)(미도시) 및 외장 메모리(External Memory)(미도시) 중 적어도 하나를 포함할 수 있다. 메모리 320는 구강 이미지 처리 장치 300의 동작에 사용되는 각종 프로그램 및 데이터를 저장할 수 있다. 예를 들어, 메모리 320는 생성된 3차원 구강 이미지를 저장할 수 있고, 스캐너 100로부터 획득한 로우 데이터 또는 이차원 이미지 데이터를 저장할 수 있다. 또한, 스캐너 100에 연동되는 전용 소프트웨어를 저장할 수 있다. 여기서, 전용 소프트웨어는 스캐너 100에서 획득된 데이터의 이용을 위한 사용자 인터페이스를 제공하기 위한 프로그램 또는 애플리케이션일 수 있다. 또한, 메모리 320는 스캐너 100로부터 3차원 구강 이미지의 적어도 하나의 대상체 표면의 정점들의 위치 정보, 각 정점들 간의 연결 관계 정보를 저장할 수 있다. 구체적으로, 메모리 320는 표면 데이터를 포인트 클라우드 형태로 저장할 수 있으며, 포인트 클라우드에는 대상체 표면의 정점들의 위치 정보, 각 정점들 간의 연결 관계 정보가 포함될 수 있다.The
메모리 320는 3차원 구강 이미지의 적어도 하나의 대상체들을 구별하기 위한 정보를 포함할 수 있다. 예를 들어, 메모리 320는 3차원 구강 이미지의 적어도 하나의 대상체들에 대한 색상 정보를 포함할 수 있다. 또한, 메모리 320는 선택 영역을 표시하기 위한 색상 정보를 포함할 수 있다. 또한, 메모리 320는 브러시를 결정하는데 사용되는 적어도 하나의 거리 정보를 결정할 수 있다. 여기서, 적어도 하나의 거리 정보는 상기 기준 포인트와 3차원 구강 이미지의 다른 포인트 간의 거리 정보를 나타내는 것일 수 있다.The
내장 메모리는, 예를 들어, 휘발성 메모리(예를 들면, DRAM(Dynamic RAM), SRAM(Static RAM), SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(예를 들면, OTPROM(One Time Programmable ROM), PROM(Programmable ROM), EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. 실시예에 따르면, 프로세서 330는 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 프로세서 330는 다른 구성요소로부터 수신하거나 생성된 데이터를 비휘발성 메모리에 보존할 수 있다.The built-in memory includes, for example, a volatile memory (eg, dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM), etc.), a non-volatile memory (eg, One Time Programmable ROM (OTPROM)). ), Programmable ROM (PROM), Erasable and Programmable ROM (EPROM), Electrically Erasable and Programmable ROM (EEPROM), Mask ROM, Flash ROM, etc.), hard disk drive (HDD), or solid state drive (SSD). may include According to an embodiment, the
외장 메모리는, 예를 들면, CF(Compact Flash), SD(Secure Digital), Micro-SD(Micro Secure Digital), Mini-SD(Mini Secure Digital), xD(extreme Digital) 및 Memory Stick 중 적어도 하나를 포함할 수 있다.The external memory includes, for example, at least one of CF (Compact Flash), SD (Secure Digital), Micro-SD (Micro Secure Digital), Mini-SD (Mini Secure Digital), xD (extreme Digital), and Memory Stick. may include
프로세서 330는 RAM, ROM, CPU, GPU 및 버스 중 적어도 하나를 포함할 수 있다. RAM, ROM, CPU 및 GPU 등은 버스를 통해 서로 연결될 수 있다.The
본 개시의 실시예에 의하면, 프로세서 320는 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하기 위한 인공지능 전용 프로세서를 포함할 수 있다. 인공지능 전용 프로세서는 메모리에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어하거나 또는 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다.According to an embodiment of the present disclosure, the
기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어질 수 있으며, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다.A predefined action rule or artificial intelligence model can be created through learning, and being created through learning means that the basic artificial intelligence model is learned by using a plurality of learning data by a learning algorithm, so that the desired characteristic (or purpose) ) means that a predefined action rule or artificial intelligence model set to perform is created. Such learning may be performed in the device itself on which artificial intelligence according to the present disclosure is performed, or may be performed through a separate server and/or system.
통신부 340는 적어도 하나의 외부 전자 장치와 유선 또는 무선 통신 네트워크를 통하여 통신을 수행할 수 있다. 구체적으로, 통신부 340는 프로세서 330의 제어에 따라서 스캐너 100와 통신을 수행할 수 있다. 구강 이미지 처리 장치 300와 구강 이미지 처리 장치 300 주변에 위치한 복수의 디바이스들 또는 서버 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 통신부 340는 구강 이미지 처리 장치 300와 서버 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 또한, 통신부 340는 근거리 통신부 341를 포함할 수 있다.The
근거리 통신부(short-range wireless communication unit) 341는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(와이파이 Direct) 통신부, UWB(Ultra Wideband) 통신부, Ant+ 통신부 이더넷 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.Short-range wireless communication unit 341, Bluetooth communication unit, BLE (Bluetooth Low Energy) communication unit, short-range wireless communication unit (Near Field Communication unit), WLAN (Wi-Fi) communication unit, Zigbee (Zigbee) communication unit, infrared (IrDA, Infrared Data Association) communication unit, WFD (Wi-Fi Direct) communication unit, UWB (Ultra Wideband) communication unit, Ant+ communication unit, Ethernet communication unit, etc. may include, but are not limited thereto.
또한 통신부 340는 원거리 통신 규격에 따라서 원거리 통신을 지원하기 위한 서버와 통신을 수행하는 원거리 통신 모듈을 더 포함할 수 있다. 구체적으로, 통신부 340는 인터넷 통신을 위한 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다. 또한, 통신부 340는 3G, 4G, 및/또는 5G 등의 통신 규격에 따르는 통신 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다. 또한, 통신부 340는 외부 전자 장치(예를 들어, 구강 스캐너 등)와 유선으로 통신하기 위해서, 외부 전자 장치와 유선 케이블로 연결되기 위한 적어도 하나의 포트를 포함할 수 있다. 그에 따라서, 통신부 340는 적어도 하나의 포트를 통하여 유선 연결된 외부 전자 장치와 통신을 수행할 수 있다. In addition, the
본 개시의 실시예에 따른 통신부 340는 프로세서 330의 제어에 따라 스캐너 100에서 획득된 데이터, 예를 들어 구강 스캔을 통해 획득된 로우 데이터를 수신할 수 있다.The
사용자 입력부 350는 사용자로부터 다양한 명령어를 입력 받을 수 있고, 사용자 입력부 350는 사용자가 구강 이미지 처리 장치 300를 제어하기 위한 데이터를 입력하는 수단을 의미할 수 있다. 사용자 입력부 350는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠 또는 조그 스위치 중 적어도 하나를 포함할 수 있으나 이에 한정되는 것은 아니다. 키는 구강 이미지 처리 장치 300의 본체 외관의 전면부나 측면부, 배면부 등의 다양한 영역에 형성된 기계적 버튼, 휠 등과 같은 다양한 유형의 키를 포함할 수 있다. 터치 패널은 사용자의 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 터치 패널이 표시 패널과 결합하여 터치 스크린(미도시)을 구성한 경우, 터치 스크린은 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 터치 센서로 구현될 수 있다.The
구체적으로, 사용자 입력부 350는 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자 인터페이스 화면 상의 일 지점을 지정 또는 선택하기 위한 마우스(mouse) 또는 키보드(key board) 등을 포함하는 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다. 또한, 사용자 인터페이스 120는 음성 인식을 위한 음성 인식 장치를 포함할 수 있다. 예를 들어, 음성 인식 장치는 마이크로폰이 될 수 있으며, 음성 인식 장치는 사용자의 음성 명령 또는 음성 요청을 수신할 수 있다. 그에 따라서, 프로세서는 음성 명령 또는 음성 요청에 대응되는 동작이 수행되도록 제어할 수 있다. Specifically, the
도 5는 구강 이미지 내의 선택 영역을 식별하는 방법의 실시예를 나타내는 흐름도이다.5 is a flow diagram illustrating an embodiment of a method for identifying a selection region within an oral cavity image.
도 5를 참조하면, 단계 S510에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 구강 이미지를 획득할 수 있다.Referring to FIG. 5 , in step S510, the oral image processing apparatus according to an embodiment of the present disclosure may acquire an oral cavity image.
구강 이미지 처리 장치가 구강 이미지를 획득하는 실시예로, 스캐너 100는 구강 스캔을 통하여 획득된 로우 데이터(raw data)를 구강 이미지 처리 장치 300로 전송할 수 있고, 구강 이미지 처리 장치 300는 수신된 로우 데이터를 가공하여 구강 이미지를 생성 또는 획득할 수 있다. 생성된 구강 이미지는 3차원 구강 이미지로, 로우 데이터에 기초하여 구강의 내부 구조를 3차원으로 모델링함으로써 생성될 수 있다.In an embodiment in which the oral image processing device acquires the oral cavity image, the
구강 이미지 처리 장치가 구강 이미지를 획득하는 다른 실시예로, 스캐너 100가 구강 스캔을 통하여 로우 데이터(raw data)를 획득하고, 획득된 로우 데이터를 가공하여 대상체인 구강에 대응되는 이미지를 생성할 수 있다. 스캐너 100은 가공되지 않은 로우 데이터와 로우 데이터에 기초하여 생성된 이미지를 함께 구강 이미지 처리 장치 300로 전송할 수 있다. 따라서, 구강 이미지 처리 장치 300는 스캐너 100으로부터 구강 이미지를 획득할 수 있으나, 이에 한정되는 것은 아니다.As another embodiment in which the oral image processing device acquires the oral cavity image, the
또한, 구강 이미지 처리 장치 300는 생성된 구강 이미지를 구강 이미지 처리 장치 300의 메모리 320에 저장할 수 있고, 이후 구강 이미지 처리 장치 300가 사용자로부터 구강 이미지 내의 영역 결정에 대한 명령을 수신하면, 메모리 320에 저장된 구강 이미지를 이용할 수도 있다. 또한, 본원의 구강 이미지는 실시간으로 촬영된 사용자의 구강에 대한 스캔 영상으로부터 생성된 사용자 구강에 대한 구강 이미지를 의미할 수도 있다.In addition, the oral
단계 S520에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 구강 이미지의 기준 포인트를 결정할 수 있다.In step S520, the oral image processing apparatus according to an embodiment of the present disclosure may determine a reference point of the oral cavity image.
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 사용자 입력부 350를 통해 사용자의 입력을 수신할 수 있고, 구강 이미지 처리 장치 300는 사용자의 입력을 이용하여 사용자 인터페이스 화면에 출력되는 구강 이미지의 기준 포인트를 결정할 수 있다.The oral
예를 들어, 사용자는 사용자 입력부 350를 통해 구강 이미지의 기준 포인트를 선택할 수 있다. 구체적으로, 사용자는 디스플레이부 310에 출력되는 사용자 인터페이스 화면 상의 일 지점을 선택하기 위해 마우스 또는 키보드 등을 포함하는 사용자 입력부 350를 이용할 수 있다. 이에 따라, 사용자가 사용자 인터페이스 화면 상의 일 지점에서 클릭 또는 기 설정된 동작을 수행하면, 구강 이미지 처리 장치 300는 사용자 인터페이스 화면 상의 일 지점을 구강 이미지의 기준 포인트로 결정할 수 있다. 또한, 사용자가 사용자 인터페이스 화면 상의 복수 개의 지점에서 복수 개의 기 설정된 동작을 수행하면, 구강 이미지 처리 장치 300는 사용자 인터페이스 화면 상의 복수 개의 지점을 구강 이미지의 복수 개의 기준 포인트로 결정할 수 있다.For example, the user may select a reference point of the oral cavity image through the
사용자 인터페이스 화면 상의 마우스 포인터에 기초하여 식별된 벡터와 사용자 인터페이스 화면 상의 구강 이미지가 만나는 포인트는 기준 포인트일 수 있고, 기준 포인트는 복수 개의 포인트로 구성될 수 있다. 구체적으로, 식별된 벡터는 사용자 인터페이스 화면 상의 마우스 포인터를 통과하는 벡터 중 사용자 인터페이스 화면의 법선 방향의 벡터를 의미할 수 있다. 또한, 본원에서의 기준 포인트는 결정된 벡터와 사용자 인터페이스 화면 상의 구강 이미지가 최초로 만나는 포인트를 의미할 수 있다. 또는, 본원에서의 기준 포인트는 결정된 벡터와 사용자 인터페이스 화면 상의 구강 이미지가 만나는 포인트 중 사용자 인터페이스 화면에 직접적으로 표시되고 있는 적어도 하나의 포인트를 의미할 수도 있으나, 이에 한정되는 것은 아니다. 본원에서의 기준 포인트는 하나의 기준 포인트 및 복수 개의 포인트를 모두 호칭할 수 있다.A point where the vector identified based on the mouse pointer on the user interface screen meets the oral image on the user interface screen may be a reference point, and the reference point may be composed of a plurality of points. Specifically, the identified vector may mean a vector in a normal direction of the user interface screen among vectors passing through the mouse pointer on the user interface screen. In addition, the reference point herein may refer to a point where the determined vector and the oral image on the user interface screen first meet. Alternatively, the reference point herein may mean at least one point that is directly displayed on the user interface screen among points where the determined vector and the oral image on the user interface screen meet, but is not limited thereto. Reference point herein may refer to both one reference point and a plurality of points.
단계 S530에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 기준 포인트 및 적어도 하나의 거리 정보에 기초하여, 브러시를 결정할 수 있다.In operation S530, the oral image processing apparatus according to an embodiment of the present disclosure may determine a brush based on a reference point and at least one piece of distance information.
본 개시의 실시예에 따른 브러시는 2차원 브러시 및 3차원 브러시를 모두 포함할 수 있다. 예를 들어, 2차원 브러시는 원, 타원, 사각형 등을 의미할 수 있고, 3차원 브러시는 구, 타원체 등일 수 있으나 이에 한정되는 것은 아니다.A brush according to an embodiment of the present disclosure may include both a two-dimensional brush and a three-dimensional brush. For example, a 2D brush may mean a circle, an ellipse, or a rectangle, and the 3D brush may be a sphere or an ellipsoid, but is not limited thereto.
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 기준 포인트 및 적어도 하나의 거리 정보에 기초하여, 브러시를 결정할 수 있다. 적어도 하나의 거리 정보는 기준 포인트와 구강 이미지의 다른 포인트 간의 거리 정보를 의미할 수 있다. 또한, 예를 들어 적어도 하나의 거리 정보는 기준 포인트 간의 거리 정보를 의미할 수도 있으나, 이에 한정되는 것은 아니다.The oral
기 설정된 거리 정보는 다양하게 결정될 수 있다. 기 설정된 거리 정보는 시스템에서 디폴트로 정해진 값 또는 브러시의 크기를 변경하는 사용자의 입력에 따라 정해질 수 있다.The preset distance information may be determined in various ways. The preset distance information may be determined according to a value set as a default in the system or a user input for changing the size of the brush.
브러시가 3차원 브러시 중 구인 경우, 구강 이미지 처리 장치 300는 사용자에 의해 결정된 기준 포인트를 구의 중심으로 식별하고, 기 설정된 거리 정보를 구의 반지름으로 식별함으로써, 3차원 브러시인 구를 결정할 수 있다. 또한, 브러시가 3차원 브러시 중 타원체인 경우, 구강 이미지 처리 장치 300는 사용자에 의해 결정된 기준 포인트를 타원체의 중심으로 식별하고, 기 설정된 복수 개의 거리 정보에 따라 각각 x축 반주축(semiprincipal axis), y축 반주축 및 z축 반주축으로 결정함으로써, 3차원 브러시인 타원체를 결정할 수 있다.When the brush is a sphere among three-dimensional brushes, the oral
단계 S540에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별할 수 있다.In operation S540, the oral cavity image processing apparatus according to an embodiment of the present disclosure may identify a region overlapping the region determined by the brush in the oral cavity image as the selection region.
브러시가 2차원 브러시인 경우, 브러시에 의해 정해지는 영역은 2차원 브러시를 디스플레이부의 법선 방향으로 연장함으로써 획득되는 영역을 의미할 수 있다. 또한, 브러시가 3차원 브러시인 경우, 브러시에 의해 정해지는 영역은 3차원 브러시의 표면 영역을 의미할 수 있다.When the brush is a two-dimensional brush, the area defined by the brush may mean an area obtained by extending the two-dimensional brush in a normal direction of the display unit. Also, when the brush is a three-dimensional brush, the area defined by the brush may mean a surface area of the three-dimensional brush.
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지의 복수 개의 포인트에 대한 위치 정보에 기초하여, 브러시에 의해 정해지는 영역과 구강 이미지가 중첩되는 적어도 하나의 경계를 식별할 수 있다. 또한, 본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 식별된 적어도 하나의 경계에 기초하여, 구강 이미지의 선택 영역을 식별할 수 있다. 구체적인 구강 이미지 내의 선택 영역을 식별하는 동작은 도 6에서 도9에서 자세히 살펴보기로 한다.The oral cavity
단계 S550에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 구강 이미지에서 선택 영역을 표시할 수 있다.In step S550, the oral image processing apparatus according to an embodiment of the present disclosure may display a selection area in the oral cavity image.
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 디스플레이부 310를 통해 식별된 영역이 표시된 구강 이미지를 디스플레이할 수 있다. 구강 이미지 처리 장치 300는 사용자가 구강 이미지의 선택 영역을 명확하게 인식하고, 구별할 수 있도록 선택 영역의 적어도 하나의 경계를 강조하여 선택 영역을 표시할 수 있다. 본원에서의 선택 영역은 적어도 하나의 경계 및 적어도 하나의 경계 내에 위치한 구강 이미지의 영역으로 구별될 수 있다. 적어도 하나의 경계는 선택 영역의 바깥쪽에 위치한 경계 근처를 포함하는 영역을 의미할 수 있고, 적어도 하나의 경계 내에 위치한 구강 이미지의 영역은 구강 이미지 내의 선택 영역 중 적어도 하나의 경계를 제외한 영역을 의미할 수 있다.The oral cavity
선택 영역의 적어도 하나의 경계를 강조하여 선택 영역을 표시하기 위한 실시예로, 구강 이미지 처리 장치 300는 선택 영역의 적어도 하나의 경계를 기 설정된 색상으로 표시하고, 적어도 하나의 경계 내에 위치한 구강 이미지의 영역은 구강 이미지의 색상 및 기 설정된 색상을 중첩 또는 블렌딩하여 표시할 수 있다. 이에 더해, 구강 이미지 처리 장치 300는 적어도 하나의 경계 밖에 위치한 기 설정된 영역에 대해서도 기 설정된 색상에 따라 출력할 수 있고, 구강 이미지 처리 장치 300는 사용자에게 선택 영역을 더 적절하게 표시하여 제공할 수 있다.In an embodiment for displaying the selection area by emphasizing at least one boundary of the selection area, the oral
도 6은 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하는 동작을 설명하기 위한 흐름도이다.6 is a flowchart for explaining an operation of identifying an area overlapping an area determined by a brush in an oral image as a selection area.
단계 S610에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지의 복수 개의 포인트에 대한 위치 정보를 획득할 수 있다.In step S610, the oral image processing apparatus according to an embodiment of the present disclosure may obtain position information on a plurality of points in an area determined by a brush and position information on a plurality of points in the oral image.
본원에서, 구강 이미지의 복수 개의 포인트에 대한 위치 정보는 구강 이미지의 적어도 하나의 대상체들의 표면에 위치한 포인트들의 위치 정보 및/또는 각 포인트들 간의 연결 관계 정보를 포함할 수 있다.Herein, the location information on the plurality of points of the oral cavity image may include position information of points located on the surfaces of at least one object of the oral cavity image and/or connection relationship information between the respective points.
본 개시의 실시예에 따른 브러시가 3차원 브러시인 경우, 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보는 3차원 브러시의 표면에 위치한 포인트들의 위치 정보를 의미할 수 있다. 또한, 브러시가 2차원 브러시인 경우, 구강 이미지 처리 장치 300는 브러시를 사용자 인터페이스 화면에 법선 방향으로 투영한 3차원 도형을 식별할 수 있고, 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보는 식별된 3차원 도형 표면에 위치한 포인트들의 위치 정보를 의미할 수 있다. 본원에서의 위치 정보는 구강 이미지 처리 장치 300의 메모리 320에 저장될 수 있고, 구강 이미지 처리 장치 300는 선택 영역을 식별하기 위해 메모리 320에 저장된 위치 정보를 이용할 수 있다.When the brush according to the embodiment of the present disclosure is a 3D brush, location information on a plurality of points in an area defined by the brush may mean location information of points located on the surface of the 3D brush. Also, when the brush is a two-dimensional brush, the oral
따라서, 구강 이미지 처리 장치 300는 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지의 복수 개의 포인트에 대한 위치 정보를 획득함으로써, 브러시에 의해 정해지는 영역과 구강 이미지의 적어도 하나의 대상체들이 중첩되는 영역을 정확하게 파악할 수 있다.Accordingly, the oral
단계 S620에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 브러시에 의해 정해지는 영역과 구강 이미지가 중첩되는 적어도 하나의 경계를 식별할 수 있다.In step S620, the oral image processing apparatus according to an embodiment of the present disclosure may identify at least one boundary where the region defined by the brush and the oral cavity image overlap.
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보와 구강 이미지의 복수 개의 포인트에 대한 위치 정보가 일치하는 적어도 하나의 포인트를 식별할 수 있다. 구체적으로, 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보와 구강 이미지의 복수 개의 포인트에 대한 위치 정보가 일치하는 것은 구강에 대한. 여기서, 구강에 대한 3차원 모델의 각각의 축은 x축, y축 및 z축을 의미할 수 있다. 또한, 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보와 구강 이미지의 복수 개의 포인트에 대한 위치 정보가 일치하는 것은 브러시에 의해 정해지는 영역의 복수 개의 포인트 및 구강 이미지의 복수 개의 포인트 간의 거리가 기 설정된 임계치 이하인 것을 의미할 수도 있으나, 이에 한정되는 것은 아니다.The oral cavity
단계 S630에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 적어도 하나의 경계에 기초하여, 구강 이미지의 선택 영역을 식별할 수 있다.In step S630, the oral image processing apparatus according to an embodiment of the present disclosure may identify a selection region of the oral cavity image based on at least one boundary.
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 적어도 하나의 경계에 따라 구강 이미지의 선택 영역을 식별할 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 적어도 구강 이미지의 복수 개의 포인트들 중 적어도 하나의 경계에 둘러싸인 복수 개의 포인트들을 식별할 수 있다. 이에 따라, 구강 이미지 처리 장치 300는 적어도 하나의 경계에 둘러싸였다고 식별된 복수 개의 포인트들 및 단계 S620에서 식별된 적어도 하나의 경계를 포함하는 영역을 구강 이미지의 결정된 영역으로 식별할 수 있다.The oral cavity
도 7은 브러시가 2차원 브러시인 경우, 구강 이미지 내의 선택 영역을 식별하는 동작을 설명하기 위한 참고도이다.7 is a reference diagram for explaining an operation of identifying a selection region in an oral cavity image when the brush is a two-dimensional brush.
도 7을 참고하면, 구강 이미지 700의 2차원 브러시 720에 따라 구강 이미지 700 내의 선택 영역 730을 식별하는 실시예를 도시하고 있다.Referring to FIG. 7 , an embodiment in which a
본 개시의 실시예에 따른 디스플레이부 310에 표시된 구강 이미지 700는 치아 701, 치아 702를 포함하는 치아 및 잇몸 703 등의 대상체들을 포함할 수 있고, 구강 이미지 처리 장치 300는 구강 이미지 700에 포함되는 적어도 하나의 대상체에 대한 위치 정보 및 적어도 하나의 대상체에 대한 색상 정보 등을 저장하고 있을 수 있다. 반대로, 구강 이미지 700의 별도의 대상체가 없는 영역에는 위치 정보 또는 색상 정보 등을 포함하고 있는 포인트 데이터가 존재하지 않을 수 있다. 따라서, 구강 이미지 내의 선택 영역은 포인트 데이터가 존재하지 않는 영역을 제외하는 것을 특징으로 할 수 있다.The
본 개시의 실시예에 따른 2차원 브러시 720는 기준 포인트 710 및 적어도 하나의 거리 정보에 기초하여 결정될 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 잇몸 703의 위치한 기준 포인트 710 및 적어도 하나의 거리 정보에 기초하여 결정된 2차원 브러시 720를 법선 방향 715로 투영함으로써, 2차원 브러시가 확장되어 생성된 3차원 영역을 식별할 수 있다. 본원에서 2차원 브러시가 확장되어 생성된 3차원 영역은 2차원 브러시에 의해 정해지는 영역으로 호칭될 수 있다.The two-
구체적으로, 2차원 브러시가 확장되어 생성된 3차원 영역 770를 설명한다. 2차원 브러시 760는 구강 이미지의 대상체 780에 위치한 기준 포인트 750 및 메모리 320에 저장된 거리 정보에 기초하여 결정될 수 있다. 2차원 브러시 760는 원 형태의 브러시일 수 있다. 2차원 브러시가 확장되어 생성된 3차원 영역 770은 2차원 브러시 760를 법선 벡터(normal vector) 765 방향으로 확장한 형태일 수 있다. 또한, 대상체 780내의 선택 영역은 2차원 브러시가 확장되어 생성된 3차원 영역 770 및 대상체 780가 중첩되는 영역을 의미할 수 있다.Specifically, a three-
구강 이미지 처리 장치 300는, 2차원 브러시 720에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지 700의 복수 개의 포인트에 대한 위치 정보에 기초하여, 선택 영역 730을 식별할 수 있다. 또한, 선택 영역 730은 포인트 데이터가 없는 영역 740을 포함하지 않을 수 있다.The oral cavity
도 8은 브러시가 2차원 브러시인 경우, 구강 이미지 내의 선택 영역을 식별하는 동작을 설명하기 위한 참고도이다.8 is a reference diagram for explaining an operation of identifying a selection region in an oral cavity image when the brush is a two-dimensional brush.
도 8을 참고하면, 구강 이미지 800에서 2차원 브러시 830에 따라 구강 이미지 800 내의 선택 영역을 식별하는 실시예를 도시하고 있다.Referring to FIG. 8 , an embodiment of identifying a selection region in the
도 8을 참조하면, 본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 구강 이미지 800의 기준 포인트 810 및 기 설정된 거리 정보에 따른 거리 820에 기초하여, 2차원 브러시 830을 식별할 수 있다. 구강 이미지 처리 장치 300는 2차원 브러시 830을 확장한 3차원 모델 및 구강 이미지 800가 중첩되는 영역을 구강 이미지 800 내의 선택 영역으로 설정할 수 있다. 예를 들어, 구강 이미지 800 내의 선택 영역은 치아 851의 일부 영역인 영역 850 및 치아 861의 일부 영역인 영역 860을 포함할 수 있다. 또한, 구강 이미지 800 내의 선택 영역은 잇몸의 일부 영역인 영역 840을 포함할 수 있다. 이때, 기준 포인트 810는 대상체 중 치아 861에 위치하고 있어, 사용자가 선택한 영역이 치아에 한정될 수 있는 점을 고려할 때, 영역 850 및 영역 860은 구강 이미지 800 내의 선택 영역에 포함되는 것이 적절할 수 있다. 반면에 사용자가 사용자 입력부 350를 통해 선택한 기준 포인트 810가 치아 861에 위치하고 있어, 사용자가 선택한 영역이 치아로 한정될 수 있는 점을 고려할 때, 잇몸의 일부 영역인 영역 840은 구강 이미지 800 내의 선택 영역에 포함되지 않는 것이 더 적절할 수 있다.Referring to FIG. 8 , the oral
이때, 본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 브러시의 종류를 3차원 브러시로 변경할 수 있다. 구강 이미지 처리 장치 300는 사용자에게 더 적합한 구강 이미지 내의 선택 영역을 식별하고, 디스플레이부 310에 표시할 수 있다. 여기서, 구강 이미지 처리 장치 300는 브러시의 종류를 3차원 브러시로 변경하는 동작은 브러시의 종류를 3차원 브러시로 변경할 것을 제안하는 동작을 포함할 수도 있다. 따라서, 구강 이미지 처리 장치 300가 브러시의 종류를 3차원 브러시로 변경함에 따라, 구강 이미지 800 내의 변경된 영역은 잇몸 중 일부 영역인 영역 840을 포함하지 않을 수 있다. 구강 이미지 처리 장치 300는 사용자에게 구강 이미지 800내의 변경된 선택 영역을 제공할 수 있다.In this case, the oral
도 9는 브러시가 3차원 브러시인 경우, 구강 이미지 내의 선택 영역을 식별하는 동작을 설명하기 위한 참고도이다.9 is a reference diagram for explaining an operation of identifying a selection region in an oral image when the brush is a three-dimensional brush.
도 9를 참고하면, 구강 이미지 900의 3차원 브러시 920에 따라 구강 이미지 900 내의 선택 영역 930을 식별하는 실시예를 도시하고 있다.Referring to FIG. 9 , an embodiment of identifying a
본 개시의 실시예에 따른 디스플레이부 310에 표시된 구강 이미지 900는 치아 911 및 치아 912를 포함하는 치아 및 잇몸 등의 대상체를 포함할 수 있다. 구강 이미지 처리 장치 300는 사용자의 입력에 따라 구강 이미지 900의 기준 포인트를 결정할 수 있다. 도 9를 참조하면, 구강 이미지 처리 장치 300는 사용자의 입력에 따라 구강 이미지 900의 기준 포인트 910을 결정할 수 있다. 구체적으로 기준 포인트 910는 대상체 중 치아 911의 표면에 위치한 포인트에 해당될 수 있다.The
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 구강 이미지 900의 기준 포인트 910 및 적어도 하나의 거리 정보에 기초하여, 3차원 브러시 920를 결정할 수 있다. 도 9을 참조하면, 구강 이미지 처리 장치 300는 적어도 하나의 거리 정보에 기초하여 3차원 브러시 920의 반경을 결정할 수 있다. 따라서, 구강 이미지 처리 장치 300는 기준 포인트 910을 구의 중심으로 하고 적어도 하나의 거리 정보에 기초하여 3차원 브러시 920의 반경을 결정함으로써, 3차원 브러시 920을 식별할 수 있다.The oral cavity
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 3차원 브러시 920에 의해 정해지는 영역에 위치한 복수 개의 포인트에 대한 위치 정보 및 구강 이미지 900의 복수 개의 포인트에 대한 위치 정보에 기초하여, 구강 이미지 내의 선택 영역 930을 식별할 수 있다. 예를 들어, 구강 이미지 처리 장치 300는 3차원 브러시 920에 의해 정해지는 영역과 구강 이미지 900가 중첩되는 적어도 하나의 경계를 식별하고, 식별된 적어도 하나의 경계에 기초하여 선택 영역 930을 식별할 수 있다. 브러시 920에 의해 정해지는 영역은 브러시 920의 표면 영역을 의미할 수 있다. 선택 영역 930은 치아 911 및 치아 912의 표면의 굴곡진 부분까지 미세하게 표현된 영역에 해당될 수 있다. 또한, 구강 이미지 처리 장치 300는 선택 영역 930의 적어도 하나의 경계를 기 설정된 색상으로 표시하고, 적어도 하나의 경계를 제외한 선택 영역 930의 영역을 치아 911의 색상 및 치아 912의 색상과 기 설정된 색상을 중첩 또는 블렌딩하여 표시할 수 있다. 따라서, 구강 이미지 처리 장치 300는 디스플레이부 310를 통해 선택 영역 930을 표시함으로써, 구강 이미지 900의 사용자가 선택한 영역을 강조할 수 있다.The oral
도 10은 구강 이미지의 선택 영역의 적어도 하나의 경계를 식별하는 동작을 설명하기 위한 참고도이다.10 is a reference diagram for explaining an operation of identifying at least one boundary of a selection region of an oral cavity image.
도 10을 참고하면, 구강 이미지 1000로부터, 선택 영역 1030의 적어도 하나의 경계 1020을 식별하는 실시예를 도시하고 있다.Referring to FIG. 10 , an embodiment of identifying at least one
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 대상체인 치아 1070 표면에 위치한 복수 개의 포인트 중 기준 포인트 1010을 식별할 수 있다. 구강 이미지 처리 장치 300는 기준 포인트 1010 및 적어도 하나의 거리 정보에 기초하여 결정된 반경에 따라, 3차원 브러시를 결정할 수 있다. 이에 따라, 구강 이미지 처리 장치 300는 결정된 3차원 브러시와 구강 이미지 1000의 치아 1070가 중첩되는 적어도 하나의 경계 1020을 식별할 수 있고, 적어도 하나의 경계 1020에 기초하여 선택 영역 1030을 결정할 수 있다.The oral
예를 들어, 적어도 하나의 경계 1020는 기준 포인트 1010으로부터 기 설정된 반경만큼 떨어진 포인트들을 포함할 수 있다. 도 10을 참조하면, 포인트 1040 및 기준 포인트 1010 간의 거리는 기 설정된 반경 r과 일치할 수 있다. 이와 비슷하게, 구강 이미지 1000 표면에 위치한 복수 개의 포인트 중 기준 포인트 1010 간의 거리가 기 설정된 r과 일치하는 복수 개의 포인트들은 적어도 하나의 경계 1020에 포함될 수 있다.For example, the at least one
또한, 도 10을 참조하면, 적어도 하나의 경계 1020 밖에 위치한 복수 개의 포인트는 기준 포인트 1010와의 거리가 기 설정된 r보다 큰 점들을 의미할 수 있다. 예를 들어, 치아 1070 옆에 위치한 치아 1080의 위치한 포인트 1050와 기준 포인트 1010 간의 거리는 기 설정된 r보다 클 수 있다. 따라서, 포인트 1050은 선택 영역 1030 밖에 위치한 포인트일 수 있다. 적어도 하나의 경계 1020 안에 위치한 복수 개의 포인트는 기준 포인트 1010와의 거리가 기 설정된 r보다 작은 점들을 의미할 수 있다. 도 10을 참조하면, 포인트 1060과 기준 포인트 1010 간의 거리는 기 설정된 r보다 작을 수 있다. 따라서, 포인트 1060은 선택 영역 1030 안에 위치한 포인트일 수 있다.Also, referring to FIG. 10 , a plurality of points located outside the at least one
구강 이미지 처리 장치 300는 구강 이미지 1000의 표면에 위치한 복수 개의 포인트 중 기준 포인트 1010와 기 설정된 반경 r만큼 떨어진 복수 개의 포인트들을 기 설정된 색상으로 출력할 수 있다. 구체적으로, 도 10을 참고하면, 구강 이미지 처리 장치 300는 구강 이미지 1000의 표면에 위치한 복수 개의 포인트 중 기준 포인트 1010와 기 설정된 반경인 r보다 가까운 복수 개의 포인트들을 치아 1070의 색상과 기 설정된 색상을 블렌딩(blending)함으로써, 반투명하게 출력할 수 있다.The oral
도 11은 기준 포인트의 위치 정보에 기초하여, 구강 이미지의 적어도 하나의 오브젝트를 식별하는 실시예를 설명하기 위한 참고도이다.11 is a reference diagram for explaining an embodiment of identifying at least one object of an oral cavity image based on location information of a reference point.
구강 이미지 1100의 적어도 하나의 오브젝트를 식별하는 실시예로, 구강 이미지 처리 장치 300는 기준 포인트 1110에 대한 위치 정보에 대응되는 색상 정보에 따라, 구강 이미지 1100의 적어도 하나의 오브젝트를 식별할 수 있다. 예를 들어, 치아 및 잇몸 등 구강 이미지 1100에 포함되는 복수 개의 대상체들은 대상체의 종류에 따라 상이한 색상 정보를 가지고 있을 수 있고, 이러한 색상 정보는 위치정보와 함께 구강 이미지 1100의 위치한 복수 개의 포인트에 대한 포인트 클라우드 형태로 메모리 320에 저장되어 있을 수 있다.As an embodiment of identifying at least one object of the
도 11을 참조하면, 구강 이미지 처리 장치 300는 기준 포인트 1110의 색상 정보에 기초하여, 기준 포인트 1110가 위치한 대상체가 치아 1105라는 점을 식별할 수 있다. 또한, 구강 이미지 처리 장치 300는 치아 1105의 색상 정보 및 다른 대상체에 대한 색상 정보에 기초하여, 기준 포인트 1110가 위치한 대상체의 적어도 하나의 경계 1130을 식별할 수 있다. 다만, 이에 한정되는 것은 아니고, 구강 이미지 처리 장치 300는 위치 정보에 따라 구강 이미지 1100의 포인트 간의 굴곡 정보를 식별하고, 기준 포인트 1110가 위치한 대상체가 치아 1105라는 점을 식별할 수 있다.Referring to FIG. 11 , the oral
도 12는 도 11에 이어, 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여 선택 영역을 식별하는 실시예 및 식별된 적어도 하나의 오브젝트에 따라 상이한 색상으로 선택 영역을 표시하는 실시예를 설명하기 위한 참고도이다.FIG. 12 is a diagram for explaining an embodiment in which a selection region is further identified based on the region of at least one identified object and an embodiment in which a selection region is displayed with a different color according to the identified at least one object, following FIG. 11 . It is also a reference.
구강 이미지 처리 장치 300는 도 11에서 식별된 적어도 하나의 오브젝트에 기초하여, 다양한 실시예에 따라 구강 이미지 내의 선택 영역을 표시할 수 있다.The oral cavity
도 12를 참조하면, 구강 이미지 처리 장치 300는 구강 이미지 1200의 식별된 적어도 하나의 오브젝트에 더 기초하여, 구강 이미지 1200의 선택 영역 1210을 식별할 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 브러시 1230의 복수 개의 포인트에 대한 위치정보, 구강 이미지 1200의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지 1200의 식별된 적어도 하나의 오브젝트에 따라, 구강 이미지 1200의 선택 영역 1210을 식별할 수 있다. 식별된 적어도 하나의 오브젝트도 고려하여, 선택 영역 1210을 식별하는 바, 선택 영역 1210의 일부 경계는 대상체인 치아 1220와 잇몸 사이의 경계에 대응될 수 있다.Referring to FIG. 12 , the oral cavity
따라서, 구강 이미지 처리 장치 300는 치아 1220와 잇몸 사이의 경계도 함께 고려하여 식별된 선택 영역 1210을 디스플레이부 310에 표시함으로써, 더 적합한 선택 영역을 사용자에게 제공할 수 있다.Accordingly, the oral
구강 이미지 내의 선택 영역을 표시하는 다른 실시예로, 도 12를 참조하면, 구강 이미지 처리 장치 300는 구강 이미지 1250의 식별된 적어도 하나의 대상체에 따라 상이한 색상으로 선택 영역을 표시할 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 브러시 1260에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지 1250의 복수 개의 포인트에 대한 위치 정보에 기초하여, 선택 영역을 식별할 수 있다. 또한, 구강 이미지 처리 장치 300는 선택 영역에 포함되는 적어도 하나의 대상체에 따라 상이한 색상으로 선택 영역을 표시할 수 있다. 예를 들어, 도 12에서 볼 수 있듯이, 구강 이미지 처리 장치 300는 구강 이미지 내의 선택 영역 중 치아 1290에 해당되는 영역 1270은 제1 색상으로 표시할 수 있고, 구강 이미지 처리 장치 300는 구강 이미지 내의 영역 중 잇몸 1295에 해당되는 영역 1280은 제2 색상으로 표시할 수 있다. 즉, 구강 이미지 처리 장치 300는 치아 1290 및 잇몸 1295 사이의 경계를 기준으로 영역 1270 및 영역 1280을 다른 색상으로 표시할 수 있다.As another embodiment of displaying the selection region in the oral cavity image, referring to FIG. 12 , the oral cavity
따라서, 구강 이미지 처리 장치 300는 치아 1290 및 잇몸 1295 사이의 경계를 함께 고려하여 구강 이미지 내의 영역을 디스플레이부 310에 표시함으로써, 더 적합한 선택 영역을 사용자에게 제공할 수 있다.Accordingly, the oral
도 13은 기준 포인트의 위치 정보에 기초하여, 구강 이미지의 적어도 하나의 오브젝트를 식별하는 예를 설명하기 위한 참고도이다.13 is a reference diagram for explaining an example of identifying at least one object of an oral cavity image based on location information of a reference point.
구강 이미지 1300의 적어도 하나의 오브젝트를 식별하는 실시예로, 구강 이미지 처리 장치 300는 기준 포인트 1310에 대한 위치 정보에 대응되는 색상 정보에 따라, 구강 이미지 1300의 적어도 하나의 오브젝트를 식별할 수 있다. 구강 이미지 처리 장치 300는 기준 포인트 1310에서의 색상 정보에 기초하여, 기준 포인트 1310가 위치한 대상체가 잇몸 1320이라는 점을 식별할 수 있다. 또한, 구강 이미지 처리 장치 300는 잇몸 1320의 색상 정보 및 다른 대상체 (예를 들어, 치아 1330 및 치아 1340)에 대한 색상 정보에 기초하여, 기준 포인트 1310가 위치한 대상체의 적어도 하나의 경계를 식별할 수 있다. 구체적으로 적어도 하나의 경계는 치아 1330, 치아 1340과 잇몸 1320 사이의 경계를 의미할 수 있다.As an embodiment of identifying at least one object of the
도 14는 도 13에 이어, 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여 선택 영역을 식별하는 실시예 및 식별된 적어도 하나의 오브젝트에 따라 상이한 색상으로 선택 영역을 표시하는 실시예를 설명하기 위한 참고도이다.14 is a diagram for explaining an embodiment in which a selection region is further identified based on the region of at least one identified object and an embodiment in which a selection region is displayed with a different color according to the identified at least one object, following FIG. 13 . It is also a reference.
구강 이미지 처리 장치 300는 도 13에서 식별된 적어도 하나의 오브젝트에 기초하여, 다양한 실시예에 따라 구강 이미지 내의 선택 영역을 표시할 수 있다.The oral cavity
구강 이미지 내의 선택 영역을 표시하는 실시예로, 도 14를 참조하면, 구강 이미지 처리 장치 300는 구강 이미지 1400의 식별된 적어도 하나의 오브젝트에 더 기초하여, 구강 이미지 1400의 선택 영역 1420을 식별할 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 브러시 1410에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치정보, 구강 이미지 1400의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지 1400의 식별된 적어도 하나의 오브젝트에 따라, 구강 이미지 1400의 선택 영역 1420을 식별할 수 있다. 도 14에서 볼 수 있듯이, 선택 영역 1420의 일부 경계는 대상체인 치아(치아 1430 및 치아 1431을 포함할 수 있다) 및 잇몸 1432간의 경계에 대응될 수 있다. 또한, 선택 영역 1420은 구강 이미지의 포인트 데이터가 존재하지 않는 영역은 포함하지 않을 수 있다.As an embodiment of displaying the selection region in the oral cavity image, referring to FIG. 14 , the oral
따라서, 구강 이미지 처리 장치 300는 치아(치아 1430 및 치아 1431을 포함할 수 있다) 및 잇몸 1432간의 경계도 함께 고려하여 식별된 선택 영역 1420을 디스플레이부 310에 표시함으로써, 사용자의 입력에 따라 더 적합한 선택 영역을 제공할 수 있다. 예를 들어, 구강 이미지 처리 장치 300는 잇몸 1432에 대응되는 부분만을 강조하여 선택 영역 1420을 디스플레이부 310에 표시할 수 있다.Accordingly, the oral
구강 이미지 내의 선택 영역을 표시하는 다른 실시예로, 도 14를 참조하면, 구강 이미지 처리 장치 300는 구강 이미지 1450의 식별된 적어도 하나의 대상체에 따라 상이한 색상으로 선택 영역 1470을 표시할 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 브러시 1460 및 구강 이미지 1450의 복수 개의 포인트에 대한 위치 정보에 기초하여, 선택 영역 1470을 식별할 수 있다. 또한, 구강 이미지 처리 장치 300는 선택 영역 1470에 포함되는 적어도 하나의 대상체에 따라 상이한 색상으로 선택 영역 1470을 표시할 수 있다. 예를 들어, 도 14에서 볼 수 있듯이, 구강 이미지 처리 장치 300는 구강 이미지 내의 선택 영역 1470 중 치아 1491에 해당되는 영역 1481을 제1 색상으로 표시할 수 있고, 구강 이미지 처리 장치 300는 구강 이미지 내의 선택 영역 1470 중 치아 1492에 해당되는 영역 1482을 제2 색상으로 표시할 수 있으며, 구강 이미지 처리 장치 300는 구강 이미지 내의 선택 영역 1470 중 잇몸 1493에 해당되는 영역을 제3 색상으로 표시할 수 있다. 잇몸 1493에 해당되는 영역은 선택 영역 1470에서 영역 1481 및 영역 1482를 제외한 영역에 대응될 수 있다. 즉, 구강 이미지 처리 장치 300는 치아(치아 1491 및 치아 1492를 포함할 수 있다) 및 잇몸 1493간의 경계를 기준으로 영역 1480을 다른 색상으로 표시할 수 있다. 따라서, 구강 이미지 처리 장치 300는 선택 영역 1470 내의 적어도 하나의 오브젝트인 치아 1491, 치아 1492 및 잇몸 1493을 식별할 수 있고, 구강 이미지 처리 장치 300는 치아 1491, 치아 1492 및 잇몸 1493에 따라 선택 영역 1470을 상이한 색상으로 표시할 수 있다. 구강 이미지 처리 장치 300는 치아 1491, 치아 1492 및 잇몸 1493 간의 경계를 함께 고려하여 구강 이미지 내의 영역을 디스플레이부 310에 표시함으로써, 더 적합한 선택 영역을 사용자에게 제공할 수 있다.As another embodiment of displaying the selection region in the oral cavity image, referring to FIG. 14 , the oral
도 15는 3차원 브러시에 기초하여 선택 영역을 식별하는 경우, 구강 이미지에서 선택 영역을 표시하는 실시예를 설명하기 위한 참고도이다.15 is a reference diagram for explaining an embodiment of displaying a selection region in an oral image when a selection region is identified based on a three-dimensional brush.
도 15을 참고하면, 구강 이미지 처리 장치 300에 의해 구강 이미지에서 선택 영역을 표시하는 실시예를 도시하고 있다.Referring to FIG. 15 , an embodiment of displaying a selection area in an oral image by the oral
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 구강 이미지의 기준 포인트 및 복수 개의 포인트에 대한 위치 정보에 따라 선택 영역을 식별하고, 구강 이미지에서 선택 영역을 표시할 수 있다. 예를 들어, 도 15를 참조하면, 구강 이미지 처리 장치 300는 구강 이미지 1500의 기준 포인트 1510를 식별할 수 있다. 브러시가 구인 경우, 구강 이미지 처리 장치 300는 기준 포인트 1510와 기 설정된 거리에 기초하여 3차원 브러시인 구 1520를 식별할 수 있다. 구강 이미지 1500는 치아의 전면부에 대응되는 구강 이미지인 바, 사용자는 치아 1520의 후면부, 치아 1522의 후면부와 3차원 브러시인 구 1520가 중첩되는지 여부를 명확하게 식별하지 못할 수 있다.The oral cavity
구강 이미지 1550는 구강 이미지 1500의 치아 1520의 후면부, 치아 1522의 후면부와 3차원 브러시인 구 1520가 중첩되는지 여부를 명확하게 식별할 수 있는 이미지일 수 있다.The
본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 구강 이미지 1550의 기준 포인트 및 복수 개의 포인트에 대한 위치 정보에 따라 선택 영역 1570을 식별하고, 구강 이미지의 선택 영역 1570을 표시할 수 있다. 예를 들어, 선택 영역 1570의 경계에는 점 A 1530 및 점 B 1540가 포함될 수 있다. 구체적으로, 구강 이미지 1550의 치아 1521에 위치한 점 A 1530 및 치아 1522에 위치한 점 B 1540는 각각의 치아의 전면부의 가장 상단에 위치한 점일 수 있다. 따라서, 치아 1521, 치아 1522의 후면부에 위치한 서브 영역 1560 및 서브 영역 1560에 대응되는 경계 1580는 전면에서는 관찰되지 않는 치아의 영역일 수 있다. 따라서, 구강 이미지 1550을 통해, 구강 이미지 처리 장치 300는 치아 1521, 치아 1522의 후면부에 위치한 서브 영역 1560이 3차원 브러시인 구 1520에 의해 결정된 구강 이미지 1550 내의 선택 영역 1570에 포함되는 것을 명확하게 식별할 수 있다. 따라서, 3차원 브러시의 일 예인 구 1520을 통해, 구강 이미지 내의 선택 영역을 식별함으로써, 사용자는 치아의 전면부에서 명확하게 관찰되지 않는 영역인 서브 영역 1560도 구강 이미지 내의 선택 영역 1570의 일부로 식별할 수 있다.The oral cavity
도 16은 3차원 브러시에 기초하여 식별된 영역 안에 홀이 있는 경우, 홀이 표시된 선택 영역을 디스플레이하는 실시예를 설명하기 위한 참고도이다.16 is a reference diagram for explaining an embodiment of displaying a selected area in which a hole is displayed when there is a hole in an area identified based on a three-dimensional brush.
도 16을 참조하면, 구강 이미지 처리 장치 300는 기준 포인트 1631에 따라 식별된 선택 영역 1630 내에 위치한 홀 1620을 식별할 수 있고, 구강 이미지 처리 장치 300는 선택 영역 1630에 홀 1620을 표시할 수 있다.Referring to FIG. 16 , the oral
본 개시의 실시예에 따른 구강 이미지의 홀은 치과 치료 과정에서 발생될 수 있고, 홀은 기술적인 결함에 따라 포인트 데이터가 존재하지 않는 영역을 의미할 수도 있다. 구강 이미지 처리 장치 300은 선택된 영역에 식별되면 홀을 영역에 표시하여 사용자에게 제공할 필요가 있을 수 있다.A hole in an oral image according to an embodiment of the present disclosure may be generated during a dental treatment process, and a hole may mean an area in which point data does not exist according to a technical defect. When the oral
구강 이미지 처리 장치 300는 기준 포인트 1631의 위치 정보에 대응되는 치아 1610에 존재하는 홀 1620을 식별할 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 선택 영역 1630에 위치하는 복수 개의 포인트들 중에서 포인트 데이터가 존재하지 않는 적어도 하나의 영역을 선택 영역 1630의 홀 1620로 결정할 수 있다.The oral
따라서, 구강 이미지 처리 장치 300는 선택 영역 1630과 함께 홀 1620을 표시함으로써, 사용자에게 더 적합한 구강 이미지 1600 내의 선택 영역 1630을 표시할 수 있다.Accordingly, the oral cavity
본 개시의 실시예에 따른 구강 이미지의 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 구강 이미지의 처리 방법을 실행하는 적어도 하나의 인스트럭션을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 저장 매체가 될 수 있다. The method of processing an oral image according to an embodiment of the present disclosure may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. In addition, an embodiment of the present disclosure may be a computer-readable storage medium in which one or more programs including at least one instruction for executing a method of processing an oral image are recorded.
본 명세서에서 실시예에 의한 방법은 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.In the method according to the embodiment herein, the device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (eg, electromagnetic wave). It does not distinguish the case where it is stored as For example, the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.
실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to the embodiment, the method according to the various embodiments disclosed in this document may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store or between two user devices (eg smartphones). It can be distributed directly or online (eg, downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product (eg, a downloadable app) is stored at least in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or a relay server. It may be temporarily stored or temporarily created.
전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present disclosure described above is for illustration, and those of ordinary skill in the art to which the present disclosure pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present disclosure. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may also be implemented in a combined form.
본 개시의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present disclosure is indicated by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present disclosure. .
Claims (11)
상기 구강 이미지를 획득하는 단계;
상기 구강 이미지의 기준 포인트를 결정하는 단계;
상기 기준 포인트 및 적어도 하나의 거리 정보에 기초하여, 브러시를 결정하는 단계;
상기 구강 이미지에서 상기 브러시에 의해 정해지는 영역과 중첩되는 영역을 상기 선택 영역으로 식별하는 단계; 및
상기 구강 이미지에서 상기 선택 영역을 표시하는 단계; 를 포함하는 구강 이미지 내의 선택 영역을 식별하는 방법.
A method of identifying a selection region in an oral image comprising:
acquiring the oral image;
determining a reference point of the oral image;
determining a brush based on the reference point and at least one piece of distance information;
identifying an area overlapping the area defined by the brush in the oral image as the selection area; and
displaying the selection area in the oral image; A method of identifying a selection region in an oral image comprising:
상기 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 상기 구강 이미지의 복수 개의 포인트에 대한 위치 정보에 기초하여, 상기 브러시에 의해 정해지는 영역과 상기 구강 이미지가 중첩되는 적어도 하나의 경계를 식별하는 단계; 및
상기 적어도 하나의 경계에 기초하여, 상기 선택 영역을 식별하는 단계; 를 포함하는 구강 이미지 내의 선택 영역을 식별하는 방법.
The method of claim 1, wherein identifying the selection region comprises:
Based on the location information for a plurality of points in the area defined by the brush and location information for a plurality of points of the oral image, at least one boundary where the area defined by the brush and the oral image overlap identifying; and
identifying the selection region based on the at least one boundary; A method of identifying a selection region in an oral image comprising:
상기 선택 영역은 상기 적어도 하나의 경계 및 상기 식별된 적어도 하나의 경계 내에 위치한 상기 구강 이미지의 영역을 포함하는 것인, 구강 이미지 내의 선택 영역을 식별하는 방법.
3. The method of claim 2,
wherein the selection area comprises the at least one boundary and an area of the oral cavity image located within the identified at least one boundary.
상기 선택 영역의 적어도 하나의 경계를 강조하여 상기 선택 영역을 표시하는 단계; 를 포함하는 구강 이미지 내의 선택 영역을 식별하는 방법.
The method of claim 1, wherein displaying the selection area comprises:
displaying the selection area by emphasizing at least one boundary of the selection area; A method of identifying a selection region in an oral image comprising:
상기 선택 영역의 적어도 하나의 경계를 기 설정된 색상으로 표시하고, 상기 적어도 하나의 경계 내에 위치한 상기 구강 이미지의 영역은 상기 구강 이미지의 색상 및 상기 기 설정된 색상을 중첩 또는 블렌딩하여 표시하는 단계; 를 포함하는 구강 이미지 내의 선택 영역을 식별하는 방법.
5. The method of claim 4, wherein the displaying of the selection area by emphasizing at least one boundary of the selection area comprises:
displaying at least one boundary of the selection region with a preset color, and displaying the region of the oral cavity image located within the at least one boundary by overlapping or blending the color of the oral cavity image and the preset color; A method of identifying a selection region in an oral image comprising:
상기 기준 포인트의 위치 정보에 기초하여, 상기 구강 이미지의 적어도 하나의 오브젝트를 식별하는 단계; 및
상기 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여, 상기 선택 영역을 식별하는 단계; 를 포함하는 구강 이미지 내의 선택 영역을 식별하는 방법.
The method of claim 1, wherein identifying the selection region comprises:
identifying at least one object of the oral cavity image based on the location information of the reference point; and
identifying the selection region further based on the region of the identified at least one object; A method of identifying a selection region in an oral image comprising:
상기 선택 영역에 포함되는 상기 구강 이미지의 적어도 하나의 오브젝트를 식별하는 단계; 및
상기 적어도 하나의 오브젝트에 따라 상이한 색상으로 상기 선택 영역을 표시하는 단계; 를 포함하는 구강 이미지 내의 선택 영역을 식별하는 방법.
The method of claim 1, wherein displaying the selection area comprises:
identifying at least one object of the oral cavity image included in the selection area; and
displaying the selection area in different colors according to the at least one object; A method of identifying a selection region in an oral image comprising:
상기 적어도 하나의 거리 정보는 상기 기준 포인트와 구강 이미지의 다른 포인트 간의 거리 정보를 포함하는 것인, 구강 이미지 내의 선택 영역을 식별하는 방법.
The method of claim 1,
wherein the at least one distance information includes distance information between the reference point and another point in the oral cavity image.
상기 구강 이미지를 표시하는 디스플레이부;
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서; 를 포함하며,
상기 적어도 하나의 프로세서는 상기 구강 이미지를 획득하고,
상기 구강 이미지의 기준 포인트를 결정하고,
상기 기준 포인트 및 적어도 하나의 거리 정보에 기초하여, 브러시를 결정하고,
상기 구강 이미지에서 상기 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하고, 및
상기 구강 이미지에서 상기 선택 영역을 표시하도록 상기 디스플레이부를 제어하는, 구강 이미지를 처리하는 장치.
In the apparatus for processing an oral image,
a display unit for displaying the oral image;
a memory storing one or more instructions; and
at least one processor executing the one or more instructions; includes,
The at least one processor acquires the oral image,
determining a reference point of the oral image;
determine a brush based on the reference point and the at least one distance information;
Identifying an area overlapping the area defined by the brush in the oral image as a selection area, and
An apparatus for processing an oral cavity image, which controls the display unit to display the selection region in the oral cavity image.
상기 프로세서는 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 상기 구강 이미지의 복수 개의 포인트에 대한 위치 정보에 기초하여, 상기 브러시에 의해 정해지는 영역과 상기 구강 이미지가 중첩되는 적어도 하나의 경계를 식별하고, 및
상기 적어도 하나의 경계에 기초하여, 상기 선택 영역을 식별하는, 구강 이미지를 처리하는 장치.
10. The method of claim 9,
The processor executes the one or more instructions stored in the memory,
Based on the location information for a plurality of points in the area defined by the brush and location information for a plurality of points of the oral image, at least one boundary where the area defined by the brush and the oral image overlap identify, and
identifying the selection region based on the at least one boundary.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP22767561.8A EP4307240A1 (en) | 2021-03-11 | 2022-03-11 | Method for identifying selection area in oral image and device therefor |
CN202280020214.8A CN116964639A (en) | 2021-03-11 | 2022-03-11 | Method of identifying selected regions within an oral image and apparatus therefor |
PCT/KR2022/003459 WO2022191665A1 (en) | 2021-03-11 | 2022-03-11 | Method for identifying selection area in oral image and device therefor |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210031871 | 2021-03-11 | ||
KR1020210031871 | 2021-03-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220127764A true KR20220127764A (en) | 2022-09-20 |
Family
ID=83446460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220030315A KR20220127764A (en) | 2021-03-11 | 2022-03-10 | Device and method for identifying selection region in intraoral image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220127764A (en) |
-
2022
- 2022-03-10 KR KR1020220030315A patent/KR20220127764A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11704876B2 (en) | Mobile device for viewing of dental treatment outcomes | |
US20230337898A1 (en) | Oral image processing method, oral diagnostic device for performing operation according thereto, and computer-readable storage medium in which program for performing method is stored | |
US20230386119A1 (en) | Oral image processing device and oral image processing method | |
KR20220127764A (en) | Device and method for identifying selection region in intraoral image | |
US20230390032A1 (en) | Method for determining object area from three-dimensional model, and three-dimensional model processing device | |
KR102534778B1 (en) | Method and apparatus for obtaining three dimensional data and computer readable medium storing a program for performing the same method | |
KR20220059908A (en) | A data processing apparatus, a data processing method | |
US20240161278A1 (en) | Method for identifying selection area in oral image and device therefor | |
EP4307240A1 (en) | Method for identifying selection area in oral image and device therefor | |
CN116964639A (en) | Method of identifying selected regions within an oral image and apparatus therefor | |
EP4364692A1 (en) | Intraoral image processing device and intraoral image processing method | |
KR20230002049A (en) | An intraoral image processing apparatus and an intraoral image processing method | |
US20230306554A1 (en) | Oral image processing device and oral image processing method | |
KR102605094B1 (en) | A data processing apparatus, a data processing method | |
EP4321128A1 (en) | Data processing device, scanner, and method for operating same | |
KR102591976B1 (en) | Method for providing margin line information for oral cavity and electronic apparatus performing the same method | |
US20230401804A1 (en) | Data processing device and data processing method | |
KR102493440B1 (en) | Method for determining region of object from three dimensional model and apparatus for processing three dimensional model | |
EP4318306A1 (en) | Data processing device and data processing method | |
US20220343528A1 (en) | Intraoral image processing apparatus, and intraoral image processing method | |
KR20230007909A (en) | Method for adding text on three dimensional model and apparatus for processing three dimensional model | |
KR20220145598A (en) | An intraoral image processing apparatus, an intraoral image processing method | |
KR20230029554A (en) | An image processing apparatus, and an image processing method | |
KR20230054605A (en) | An intraoral image processing apparatus, and an intraoral image processing method | |
KR20230014628A (en) | An image processing apparatus, and an image processing method |