KR20220127764A - Device and method for identifying selection region in intraoral image - Google Patents

Device and method for identifying selection region in intraoral image Download PDF

Info

Publication number
KR20220127764A
KR20220127764A KR1020220030315A KR20220030315A KR20220127764A KR 20220127764 A KR20220127764 A KR 20220127764A KR 1020220030315 A KR1020220030315 A KR 1020220030315A KR 20220030315 A KR20220030315 A KR 20220030315A KR 20220127764 A KR20220127764 A KR 20220127764A
Authority
KR
South Korea
Prior art keywords
oral
image
oral cavity
area
brush
Prior art date
Application number
KR1020220030315A
Other languages
Korean (ko)
Inventor
유창만
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Priority to EP22767561.8A priority Critical patent/EP4307240A1/en
Priority to CN202280020214.8A priority patent/CN116964639A/en
Priority to PCT/KR2022/003459 priority patent/WO2022191665A1/en
Publication of KR20220127764A publication Critical patent/KR20220127764A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Abstract

A method of identifying a selection region within an oral cavity image is disclosed. Specifically, a method of identifying a selection region in an oral cavity image includes the steps of: obtaining an oral cavity image; determining a reference point of the oral cavity image; determining a brush based on a reference point and at least one piece of distance information; and identifying a region overlapping with a region defined by the brush in the oral cavity image as a selection region; and displaying a selection region in the oral cavity image.

Description

구강 이미지 내의 선택 영역을 식별하는 방법 및 이를 위한 장치{DEVICE AND METHOD FOR IDENTIFYING SELECTION REGION IN INTRAORAL IMAGE}DEVICE AND METHOD FOR IDENTIFYING SELECTION REGION IN INTRAORAL IMAGE

본 개시의 실시예들은 구강 이미지 내의 선택 영역을 식별하는 방법 및 이를 위한 장치에 관한 것으로, 보다 구체적으로는 구강에 대한 3차원 모델 내의 선택 영역을 식별하는 방법 및 이를 위한 장치에 관한 것이다.Embodiments of the present disclosure relate to a method and an apparatus for identifying a selection region in an oral cavity image, and more particularly, to a method and an apparatus for identifying a selection region in a three-dimensional model of an oral cavity.

치과 치료, 특히 보철 등의 치료를 하는 데 있어 치과용CAD/CAM(Dental Computer Aided Design/Computer Aided Manufacturing) 기술이 널리 사용되고 있다. CAD/CAM을 이용한 치과 치료에서 가장 중요한 것은 환자의 치아, 잇몸, 턱뼈 등의 대상체의 형상에 대하여 정교한 3차원 데이터를 획득하는 것이다. 치과 치료를 수행함에 있어서, 대상체로부터 획득된 3차원 데이터를 이용하면, 컴퓨터에 의하여 정확한 계산이 수행될 수 있다는 장점이 있다. 예를 들어, 치과용 CAD/CAM 치료과정에서 대상체의 3차원 데이터를 획득하기 위해서는, CT(Computed Tomography), MRI(Magnetic Resonance Imaging), 및 광학 스캐닝 등의 방법이 이용될 수 있다.Dental CAD/CAM (Dental Computer Aided Design/Computer Aided Manufacturing) technology is widely used in dental treatment, particularly, prosthetic treatment. The most important thing in dental treatment using CAD/CAM is to acquire precise 3D data on the shape of an object, such as a patient's teeth, gums, and jawbone. In performing dental treatment, there is an advantage that accurate calculation can be performed by a computer by using 3D data obtained from an object. For example, in order to acquire 3D data of an object in a dental CAD/CAM treatment process, methods such as computed tomography (CT), magnetic resonance imaging (MRI), and optical scanning may be used.

치과 CAD/CAM 분야에서는 3차원 스캔 장치가 많이 사용되고 있다. 3차원 스캔 장치는 대상체로부터 반사되는 빛을 이용하여 3차원 표면 형상 정보를 획득할 수 있다. 구체적으로 3차원 표면 데이터는 폴리곤메쉬 형태로 기록될 수 있고, 3차원 표면 데이터는 대상체의 표면의 정점들의 위치 정보와 각 정점들의 연결 관계 정보를 포함할 수 있다. 또는, 3차원 표면 데이터는 포인트 클라우드 형태로 기록될 수 있다.In the dental CAD/CAM field, a 3D scanning device is widely used. The 3D scanning apparatus may acquire 3D surface shape information using light reflected from the object. Specifically, the 3D surface data may be recorded in the form of a polygon mesh, and the 3D surface data may include position information of vertices of the surface of the object and connection relationship information between each vertex. Alternatively, the 3D surface data may be recorded in the form of a point cloud.

구강 이미지 처리 장치가 스캔 데이터로부터 구강 이미지를 획득하면, 사용자는 획득한 구강 이미지를 이용하여 구강 이미지 내의 영역을 선택할 수 있다. 다만, 종래에는 구강 이미지 내의 선택 영역을 식별하는 과정에서 많은 시간이 소요되거나 불필요한 영역이 설정되는 문제가 존재하였다. 따라서, 구강 이미지 내의 영역을 정확하게 결정하는 기술이 요구될 수 있다.When the oral cavity image processing apparatus acquires an oral cavity image from the scan data, the user may select a region in the oral cavity image using the acquired oral cavity image. However, in the prior art, there was a problem in that a lot of time is required or an unnecessary area is set in the process of identifying a selected area in the oral cavity image. Thus, a technique for accurately determining an area within an oral image may be required.

개시된 실시예는 사용자의 입력에 따라 구강 이미지 내의 영역이 정확하게 특정될 수 있도록 구강 이미지 내의 선택 영역을 식별하는 방법, 그에 따른 동작을 수행하는 장치, 및 그 방법을 수행하는 프로그램 또는 인스트럭션이 저장된 컴퓨터로 판독이 가능한 기록 매체의 제공을 목적으로 한다.The disclosed embodiment is a method for identifying a selected region in an oral cavity image so that the region in the oral cavity image can be accurately specified according to a user input, an apparatus for performing the operation according thereto, and a computer storing a program or instructions for performing the method. An object of the present invention is to provide a readable recording medium.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제1 측면에 따른 방법은 구강 이미지 내의 선택 영역을 식별하는 방법에 있어서, 구강 이미지를 획득하는 단계; 구강 이미지의 기준 포인트를 결정하는 단계; 기준 포인트 및 적어도 하나의 거리 정보에 기초하여, 브러시를 결정하는 단계; 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하는 단계; 및 구강 이미지에서 선택 영역을 표시하는 단계; 를 포함할 수 있다.As a technical means for achieving the above-described technical problem, a method according to a first aspect of the present disclosure is a method for identifying a selection region in an oral cavity image, the method comprising: acquiring an oral cavity image; determining a reference point of the oral image; determining a brush based on the reference point and the at least one distance information; identifying an area overlapping the area defined by the brush in the oral image as a selection area; and displaying a selection area in the oral image; may include.

본 개시의 실시예에 따른 방법에 있어서, 선택 영역을 식별하는 단계는, 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지의 복수 개의 포인트에 대한 위치 정보에 기초하여, 브러시에 의해 정해지는 영역과 구강 이미지가 중첩되는 적어도 하나의 경계를 식별하는 단계; 및 적어도 하나의 경계에 기초하여 선택 영역을 식별하는 단계; 를 포함할 수 있다.In the method according to an embodiment of the present disclosure, the step of identifying the selection region includes: based on position information on a plurality of points of an area defined by the brush and position information on a plurality of points of an oral image, identifying at least one boundary on which the region defined by the overlapping oral image; and identifying the selection region based on the at least one boundary. may include.

본 개시의 실시예에 따른 방법에 있어서, 상기 브러시가 2차원 브러시인 경우, 브러시에 의해 정해지는 영역은 2차원 브러시를 디스플레이부의 법선 방향으로 연장함으로써 획득되는 영역을 포함할 수 있다.In the method according to an embodiment of the present disclosure, when the brush is a two-dimensional brush, the area defined by the brush may include an area obtained by extending the two-dimensional brush in a normal direction of the display unit.

본 개시의 실시예에 따른 방법에 있어서, 식별된 선택 영역은 적어도 하나의 경계 및 식별된 적어도 하나의 경계 내에 위치한 구강 이미지의 영역을 포함할 수 있다.In a method according to an embodiment of the present disclosure, the identified selection region may include at least one boundary and a region of the oral cavity image located within the identified at least one boundary.

본 개시의 실시예에 따른 방법에 있어서, 선택 영역을 표시하는 단계는, 선택 영역의 적어도 하나의 경계를 강조하여 선택 영역을 표시하는 단계; 를 포함할 수 있다.In the method according to an embodiment of the present disclosure, the displaying of the selection area may include: displaying the selection area by emphasizing at least one boundary of the selection area; may include.

본 개시의 실시예에 따른 방법에 있어서, 선택 영역의 적어도 하나의 경계를 강조하여 선택 영역을 표시하는 단계는, 선택 영역의 적어도 하나의 경계를 기 설정된 색상으로 표시하고, 적어도 하나의 경계 내에 위치한 구강 이미지의 영역은 구강 이미지의 색상 및 기 설정된 색상을 중첩 또는 블렌딩하여 표시하는 단계; 를 포함할 수 있다.In the method according to an embodiment of the present disclosure, the displaying of the selection area by emphasizing at least one boundary of the selection area includes displaying at least one boundary of the selection area with a preset color and located within the at least one boundary. Displaying the region of the oral cavity image by overlapping or blending the color of the oral image and a preset color; may include.

본 개시의 실시예에 따른 방법에 있어서, 선택 영역을 식별하는 단계는, 기준 포인트의 위치 정보에 기초하여 구강 이미지의 적어도 하나의 오브젝트를 식별하는 단계; 및 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여, 선택 영역을 식별하는 단계; 를 포함할 수 있다.In a method according to an embodiment of the present disclosure, the identifying the selection region may include: identifying at least one object of the oral cavity image based on location information of a reference point; and identifying the selection region further based on the identified region of the at least one object; may include.

본 개시의 실시예에 따른 방법에 있어서, 선택 영역을 표시하는 단계는, 선택 영역에 포함되는 구강 이미지의 적어도 하나의 오브젝트를 식별하는 단계; 및 적어도 하나의 오브젝트에 따라 상이한 색상으로 선택 영역을 표시하는 단계; 를 포함할 수 있다.In a method according to an embodiment of the present disclosure, the displaying of the selection region may include: identifying at least one object of the oral cavity image included in the selection region; and displaying the selection area with different colors according to at least one object. may include.

본 개시의 실시예에 따른 방법에 있어서, 적어도 하나의 거리 정보는 상기 기준 포인트와 구강 이미지의 다른 포인트 간의 거리 정보를 포함할 수 있다.In the method according to an embodiment of the present disclosure, the at least one distance information may include distance information between the reference point and another point in the oral image.

본 개시의 제2 측면에 따른 구강 이미지를 처리하는 장치에 있어서, 구강 이미지를 처리하는 장치는 구강 이미지를 표시하는 디스플레이부; 하나 이상의 인스트럭션을 저장하는 메모리; 및 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서; 를 포함하고, 적어도 하나의 프로세서는 구강 이미지를 획득하고, 구강 이미지의 기준 포인트를 결정하고, 기준 포인트 및 적어도 하나의 거리 정보에 기초하여 브러시를 결정하고, 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하고, 구강 이미지에서 선택 영역을 표시하도록 디스플레이부를 제어할 수 있다.In the device for processing an oral cavity image according to a second aspect of the present disclosure, the device for processing the oral cavity image includes: a display unit for displaying the oral cavity image; a memory storing one or more instructions; and at least one processor executing one or more instructions. wherein the at least one processor acquires an oral cavity image, determines a reference point of the oral cavity image, determines a brush based on the reference point and at least one distance information, and includes an area defined by the brush in the oral cavity image; The overlapping region may be identified as a selection region, and the display unit may be controlled to display the selection region in the oral cavity image.

본 개시의 제3 측면에 따른 기록매체는 상기 방법을 컴퓨터에서 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체를 포함할 수 있다.The recording medium according to the third aspect of the present disclosure may include a computer-readable recording medium in which a program for performing the method in a computer is recorded.

개시된 실시예에 따른 구강 이미지 내의 선택 영역을 식별하는 방법, 그에 따른 동작을 수행하는 장치, 및 그 방법을 수행하는 프로그램 또는 인스트럭션이 저장된 컴퓨터로 판독이 가능한 기록 매체는 구강 이미지의 기준 포인트 및 적어도 하나의 거리 정보에 기초하여 선택 영역을 식별함으로써, 구강 이미지 내의 영역 선택의 정확도를 높힌 사용자 인터페이스 화면을 제공할 수 있다.A method for identifying a selection region in an oral cavity image according to the disclosed embodiment, an apparatus for performing an operation according thereto, and a computer-readable recording medium storing a program or instructions for performing the method include a reference point of the oral cavity image and at least one By identifying the selection region based on the distance information of , it is possible to provide a user interface screen with increased accuracy of region selection in the oral cavity image.

본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 개시된 실시예에 따른 구강 이미지 처리 시스템을 설명하기 위한 도면이다.
도 2는 구강 이미지 내의 선택 영역을 식별하는 방법을 설명하기 위한 도면이다.
도 3은 실시예 따른 구강 이미지를 처리하는 장치의 블록도를 도시한다.
도 4는 실시예 따른 구강 이미지를 처리하는 장치의 세부적인 블록도의 일 예이다.
도 5는 구강 이미지 내의 선택 영역을 식별하는 방법의 실시예를 나타내는 흐름도이다.
도 6은 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하는 동작을 설명하기 위한 흐름도이다.
도 7은 브러시가 2차원 브러시인 경우, 구강 이미지 내의 선택 영역을 식별하는 동작을 설명하기 위한 참고도이다.
도 8은 브러시가 2차원 브러시인 경우, 구강 이미지 내의 선택 영역을 식별하는 동작을 설명하기 위한 참고도이다.
도 9는 브러시가 3차원 브러시인 경우, 구강 이미지 내의 선택 영역을 식별하는 동작을 설명하기 위한 참고도이다.
도 10은 구강 이미지의 선택 영역의 적어도 하나의 경계를 식별하는 동작을 설명하기 위한 참고도이다.
도 11은 기준 포인트의 위치 정보에 기초하여, 구강 이미지의 적어도 하나의 오브젝트를 식별하는 실시예를 설명하기 위한 참고도이다.
도 12는 도 11에 이어, 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여 선택 영역을 식별하는 실시예 및 식별된 적어도 하나의 오브젝트에 따라 상이한 색상으로 선택 영역을 표시하는 실시예를 설명하기 위한 참고도이다.
도 13은 기준 포인트의 위치 정보에 기초하여, 구강 이미지의 적어도 하나의 오브젝트를 식별하는 예를 설명하기 위한 참고도이다.
도 14는 도 13에 이어, 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여 선택 영역을 식별하는 실시예 및 식별된 적어도 하나의 오브젝트에 따라 상이한 색상으로 선택 영역을 표시하는 실시예를 설명하기 위한 참고도이다.
도 15는 3차원 브러시에 기초하여 선택 영역을 식별하는 경우, 구강 이미지에서 선택 영역을 표시하는 실시예를 설명하기 위한 참고도이다.
도 16은 3차원 브러시에 기초하여 식별된 영역 안에 홀(hole)이 있는 경우, 홀이 표시된 선택 영역을 디스플레이하는 실시예를 설명하기 위한 참고도이다.
BRIEF DESCRIPTION OF THE DRAWINGS The present invention can be easily understood by the following detailed description and combination of the accompanying drawings, in which reference numerals mean structural elements.
1 is a view for explaining an oral image processing system according to the disclosed embodiment.
2 is a diagram for explaining a method of identifying a selection region in an oral cavity image.
3 shows a block diagram of an apparatus for processing an oral image according to an embodiment.
4 is an example of a detailed block diagram of an apparatus for processing an oral image according to an embodiment.
5 is a flow diagram illustrating an embodiment of a method for identifying a selection region within an oral cavity image.
6 is a flowchart for explaining an operation of identifying an area overlapping an area determined by a brush in an oral image as a selection area.
7 is a reference diagram for explaining an operation of identifying a selection region in an oral cavity image when the brush is a two-dimensional brush.
8 is a reference diagram for explaining an operation of identifying a selection region in an oral cavity image when the brush is a two-dimensional brush.
9 is a reference diagram for explaining an operation of identifying a selection region in an oral image when the brush is a three-dimensional brush.
10 is a reference diagram for explaining an operation of identifying at least one boundary of a selection region of an oral cavity image.
11 is a reference diagram for explaining an embodiment of identifying at least one object of an oral cavity image based on location information of a reference point.
FIG. 12 is a diagram for explaining an embodiment in which a selection region is further identified based on the region of at least one identified object and an embodiment in which a selection region is displayed with a different color according to the identified at least one object, following FIG. 11 . It is also a reference.
13 is a reference diagram for explaining an example of identifying at least one object of an oral cavity image based on location information of a reference point.
14 is a diagram for explaining an embodiment in which a selection region is further identified based on the region of at least one identified object and an embodiment in which a selection region is displayed with a different color according to the identified at least one object, following FIG. 13 . It is also a reference.
15 is a reference diagram for explaining an embodiment of displaying a selection region in an oral image when a selection region is identified based on a three-dimensional brush.
16 is a reference diagram for explaining an embodiment of displaying a selection area in which a hole is displayed when there is a hole in an area identified based on a three-dimensional brush.

본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시예들을 개시한다. 개시된 실시예들은 다양한 형태로 구현될 수 있다.This specification clarifies the scope of the present invention, explains the principles of the present invention, and discloses embodiments so that those of ordinary skill in the art to which the present invention pertains can practice the present invention. The disclosed embodiments may be implemented in various forms.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.Like reference numerals refer to like elements throughout. This specification does not describe all elements of the embodiments, and general content in the technical field to which the present invention pertains or content that overlaps between the embodiments is omitted. The term 'part' used in the specification may be implemented in software or hardware, and according to embodiments, a plurality of 'parts' may be implemented as one element (unit, element), or one ' It is also possible for part' to include a plurality of elements. Hereinafter, the working principle and embodiments of the present invention will be described with reference to the accompanying drawings.

본 명세서에 '대상체(object)'는 촬영의 대상이 되는 것으로서, 대상체는 사람, 동물, 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등), 대상체에 부착 가능하거나 대상체 내에 삽입 가능한 인공 구조물, 또는 팬텀(phantom) 등을 포함할 수 있다. 예를 들어, 대상체는 치아, 치은, 구강의 적어도 일부 영역, 및/또는 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어를 포함하는 교정 장치, 임플란트, 인공 치아, 인레이 및 온레이 등을 포함하는 치아 수복물, 구강 내 삽입되는 교정 보조 도구 등), 인공 구조물이 부착된 치아 또는 치은 등을 포함할 수 있다.As used herein, an 'object' is an object to be photographed, and the object may include a person, an animal, or a part thereof. For example, the object may include a body part (such as an organ or an organ), an artificial structure attachable to or insertable into the object, or a phantom. For example, the subject may have teeth, gingiva, at least a portion of the oral cavity, and/or artificial structures insertable into the oral cavity (eg, orthodontic devices including brackets and wires, implants, artificial teeth, inlays and onlays, etc.) including dental restorations, orthodontic aids inserted into the oral cavity), teeth or gingiva to which artificial structures are attached.

본 개시에서 '구강 이미지'는 대상체에 대한 2차원 이미지 또는 대상체를 입체적으로 나타내는 구강 이미지로 3차원 이미지를 의미할 수도 있다. 구체적으로, 이미지는 적어도 하나의 치아, 또는 적어도 하나의 치아를 포함하는 구강을 나타내는 이미지(이하, '구강 이미지')를 포함할 수 있다. 본 개시에서 구강 이미지란, 2차원 프레임 및 3차원 프레임을 모두 포함할 수 있다. 예를 들어, 구강 이미지는 대상체에 대해서 서로 다른 시점에서 획득된 2차원 이미지들을 포함하는 2차원 프레임, 포인트 클라우드 형태 또는 폴리곤 메쉬 형태로 표현되는 3차원 프레임을 포함할 수 있다.In the present disclosure, an 'oral image' may refer to a two-dimensional image of an object or a three-dimensional image as an oral image three-dimensionally representing the object. Specifically, the image may include at least one tooth or an image representing an oral cavity including at least one tooth (hereinafter, 'oral image'). In the present disclosure, the oral image may include both a two-dimensional frame and a three-dimensional frame. For example, the oral image may include a two-dimensional frame including two-dimensional images obtained from different viewpoints with respect to the object, a three-dimensional frame expressed in a point cloud form, or a polygonal mesh form.

또한, 본 개시에서 '데이터'는 대상체를 2차원 또는 3차원적으로 표현하기 위해서 필요한 정보, 예를 들어, 적어도 하나의 영상 센서로부터 획득된 로우 데이터(raw data)를 의미할 수 있다. 구체적으로, 로우 데이터는 구강 이미지를 생성하기 위해서 획득되는 데이터일 수 있고, 로우 데이터는 구강 스캐너(intraoral scanner)를 이용하여 대상체인 환자의 구강 내를 스캔(scan)할 때 구강 스캐너에 포함되는 적어도 하나의 이미지 센서에서 획득되는 데이터(예를 들어, 2차원 데이터)가 될 수 있다. 구강 스캐너에서 획득되는 로우 데이터는, 스캔 데이터 또는 이차원 이미지 데이터로 언급될 수도 있다.Also, in the present disclosure, 'data' may refer to information necessary to represent an object in two or three dimensions, for example, raw data obtained from at least one image sensor. Specifically, the raw data may be data acquired to generate an oral image, and the raw data is at least included in the oral scanner when scanning the inside of the patient's mouth, which is an object, using an intraoral scanner. It may be data (eg, two-dimensional data) obtained from one image sensor. Raw data obtained from an intraoral scanner may be referred to as scan data or two-dimensional image data.

이하에서는 도면을 참조하여 실시예들을 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the drawings.

도 1은 개시된 실시예에 따른 구강 이미지 처리 시스템을 설명하기 위한 도면이다.1 is a view for explaining an oral image processing system according to the disclosed embodiment.

도 1에 도시된 바와 같이, 본 개시의 실시예에 따른 구강 이미지 처리 시스템은, 스캐너 100 및 구강 이미지 처리 장치 300를 포함할 수 있다. 1 , an oral image processing system according to an embodiment of the present disclosure may include a scanner 100 and an oral image processing device 300 .

본 개시의 실시예에 따른 스캐너 100는 구강 내의 이미지를 획득하기 위한 의료 장치이다. 구체적으로, 스캐너 100는 구강 내에 삽입되어 비 접촉식으로 치아를 스캐닝함으로써, 적어도 하나의 치아를 포함하는 구강에 대한 이미지를 획득하기 위한 장치가 될 수 있다. 또한, 스캐너 100는 구강 내에 인입 및 인출이 가능한 형태를 가질 수 있으며, 적어도 하나의 이미지 센서(예를 들어, 광학 카메라 등)를 이용하여 환자의 구강 내부를 스캔 할 수 있다. 스캐너 100는 대상체인 구강 내부의 치아, 치은 및 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어 등을 포함하는 교정 장치, 임플란트, 인공 치아, 구강 내 삽입되는 교정 보조 도구 등) 중 적어도 하나의 표면을 이미징하기 위해서, 대상체에 대한 표면 정보를 이차원 이미지 데이터로 획득할 수 있다. 스캐너 100가 획득한 이차원 이미지 데이터는 구강 이미지를 생성하기 위해 획득되는 로우 데이터일 수 있다. 도 1에서 스캐너 100는 구강에 인입하는 형태를 가지는 구강 스캐너로 도시되어 있지만, 본 개시에서 개시된 실시예들에 적용되는 스캐너 100는 치아 모형을 스캔하는 모델 스캐너를 포함할 수 있다.The scanner 100 according to an embodiment of the present disclosure is a medical device for acquiring an image in an oral cavity. Specifically, the scanner 100 may be a device for acquiring an image of the oral cavity including at least one tooth by being inserted into the oral cavity and scanning teeth in a non-contact manner. In addition, the scanner 100 may have a form that can be drawn in and out of the oral cavity, and can scan the inside of the patient's oral cavity using at least one image sensor (eg, an optical camera, etc.). The scanner 100 is at least one of teeth, gingiva, and artificial structures insertable into the oral cavity (eg, orthodontic devices including brackets and wires, implants, artificial teeth, orthodontic aids inserted into the oral cavity, etc.) In order to image the surface of , surface information on the object may be acquired as two-dimensional image data. The two-dimensional image data obtained by the scanner 100 may be raw data obtained to generate an oral image. In FIG. 1 , the scanner 100 is illustrated as an oral scanner having a shape that is inserted into the oral cavity, but the scanner 100 applied to the embodiments disclosed in the present disclosure may include a model scanner that scans a tooth model.

본 개시의 실시예에 따른 스캐너 100에서 획득된 이차원 이미지 데이터는 유선 또는 무선 통신 네트워크를 통하여 연결되는 구강 이미지 처리 장치 300로 전송될 수 있다. 구강 이미지 처리 장치 300는 스캐너 100와 유선 또는 무선 통신 네트워크를 통하여 연결되며, 스캐너 100로부터 구강을 스캔하여 획득된 이차원 이미지 데이터를 수신할 수 있다. 구강 이미지 처리 장치 300는 하기와 같은 실시예들에 따라 3차원 구강 이미지를 생성할 수 있다.The two-dimensional image data obtained by the scanner 100 according to an embodiment of the present disclosure may be transmitted to the oral image processing apparatus 300 connected through a wired or wireless communication network. The oral image processing device 300 is connected to the scanner 100 through a wired or wireless communication network, and may receive two-dimensional image data obtained by scanning the oral cavity from the scanner 100. The oral cavity image processing apparatus 300 may generate a 3D oral cavity image according to the following embodiments.

3차원 구강 이미지를 생성하는 실시예로, 스캐너 100는 구강 스캔을 통하여 획득된 로우 데이터(raw data)를 구강 이미지 처리 장치 300로 전송하거나 가공하여 전송할 수 있다. 구강 이미지 처리 장치 300는 수신된 로우 데이터에 따라 구강을 3차원적으로 나타내는 3차원 구강 이미지를 생성할 수 있다. '3차원 구강 이미지'는 수신된 로우 데이터에 근거하여 구강의 내부 구조를 3차원적으로 모델링(modeling)하여 생성될 수 있으므로, '3차원 구강 이미지'는 '3차원 모델', '구강에 대한 3차원 모델', '3차원 구강 모델' 또는 '3차원 구강 이미지'로 호칭될 수도 있다. 이하에서는, 구강을 2차원 또는 3차원적으로 나타내는 모델 또는 이미지를 통칭하여, '구강 이미지'라 칭하도록 한다. 3차원 구강 이미지를 생성하는 다른 실시예로, 스캐너 100가 구강 스캔을 통하여 로우 데이터(raw data)를 획득하고, 획득된 로우 데이터를 가공하여 대상체인 구강에 대응되는 이미지를 생성할 수 있다. 스캐너 100은 구강에 대응되게 생성된 구강 이미지를 구강 이미지 처리 장치 300로 전송할 수 있다.As an embodiment of generating a three-dimensional oral image, the scanner 100 may transmit raw data obtained through an oral scan to the oral image processing apparatus 300 or process and transmit the raw data. The oral cavity image processing apparatus 300 may generate a 3D oral cavity image representing the oral cavity in three dimensions according to the received raw data. Since the '3D oral image' can be generated by modeling the internal structure of the oral cavity in three dimensions based on the received raw data, the '3D oral image' is a '3D model' It may be referred to as a 'three-dimensional model', a 'three-dimensional oral model' or a 'three-dimensional oral image'. Hereinafter, a model or image representing the oral cavity in two or three dimensions is collectively referred to as a 'mouth image'. As another embodiment of generating a three-dimensional oral image, the scanner 100 may obtain raw data through an oral scan and process the obtained raw data to generate an image corresponding to the oral cavity, which is an object. The scanner 100 may transmit the oral cavity image generated to correspond to the oral cavity to the oral cavity image processing apparatus 300 .

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 스캐너 100에서 수신된 이차원 이미지 데이터에 근거하여, 구강 이미지를 생성, 처리, 디스플레이 및/또는 전송할 수 있는 모든 전자 장치가 될 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 이차원 이미지 데이터를 처리하여 생성한 정보 및 이차원 이미지 데이터를 처리하여 생성한 구강 이미지 중 적어도 하나를 생성하고, 생성된 정보 및 구강 이미지 중 적어도 하나를 디스플레이부 310를 통하여 디스플레이 할 수 있다. 구강 이미지 처리 장치 300는 수신된 이미지를 분석, 처리, 디스플레이 및/또는 전송하기 위한 장치로 스마트 폰(smart phone), 랩탑 컴퓨터, 데스크탑 컴퓨터, PDA, 태블릿 PC 등의 컴퓨팅 장치가 될 수 있으며, 이에 한정되지 않는다. 예를 들어, 구강 이미지 처리 장치 300는 구강 이미지를 처리하기 위한 서버(또는 서버 장치) 등의 형태일 수도 있다.The oral cavity image processing device 300 according to an embodiment of the present disclosure may be any electronic device capable of generating, processing, displaying, and/or transmitting an oral cavity image based on the two-dimensional image data received from the scanner 100. Specifically, the oral image processing device 300 generates at least one of the information generated by processing the two-dimensional image data and the oral image generated by processing the two-dimensional image data, and displays at least one of the generated information and the oral image to the display unit 310 can be displayed through The oral image processing device 300 is a device for analyzing, processing, displaying, and/or transmitting the received image, and may be a computing device such as a smart phone, a laptop computer, a desktop computer, a PDA, a tablet PC, and the like. not limited For example, the oral image processing device 300 may be in the form of a server (or server device) for processing the oral cavity image.

또한, 본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 스캐너 100에 연동되는 전용 소프트웨어를 저장 및 실행할 수 있다. 여기서, 전용 소프트웨어는 전용 프로그램 또는 전용 애플리케이션으로 호칭될 수 있다. 구강 이미지 처리 장치 300가 스캐너 100와 상호 연동되어 동작하는 경우, 구강 이미지 처리 장치 300에 저장되는 전용 소프트웨어는 스캐너 100과 연결되어 대상체 스캔을 통하여 획득되는 데이터를 실시간으로 수신할 수 있다. 전용 소프트웨어는 구강 이미지 처리 장치 300의 메모리에 저장될 수 있다.In addition, the oral image processing apparatus 300 according to an embodiment of the present disclosure may store and execute dedicated software linked to the scanner 100 . Here, the dedicated software may be called a dedicated program or a dedicated application. When the oral image processing device 300 operates by interworking with the scanner 100, dedicated software stored in the oral image processing device 300 may be connected to the scanner 100 to receive data acquired through object scan in real time. The dedicated software may be stored in the memory of the oral image processing device 300 .

또한, 전용 소프트웨어는 스캐너 100에서 획득된 데이터의 이용을 위한 사용자 인터페이스를 제공할 수 있다. 전용 소프트웨어에 의해 제공되는 사용자 인터페이스 화면은 구강 이미지 또는 3차원 모델을 포함할 수 있다. 구강 이미지 처리 장치 300는 전용 소프트웨어를 이용하여 구강 이미지의 기준 포인트 및 적어도 하나의 거리 정보에 따라 식별된 선택 영역을 디스플레이부 310에 표시할 수 있다.In addition, the dedicated software may provide a user interface for use of data acquired by the scanner 100 . The user interface screen provided by the dedicated software may include an oral image or a three-dimensional model. The oral cavity image processing apparatus 300 may display a selection area identified according to the reference point of the oral cavity image and at least one piece of distance information on the display unit 310 using dedicated software.

개시된 실시예에서, 구강 이미지 처리 장치 300는 하나 이상의 치아를 포함하는 구강을 3차원적으로 나타내는 구강 이미지를 생성하고, 선택 영역이 표시된 구강 이미지를 디스플레이부 310를 통해 디스플레이할 수 있는 전자 장치로, 이하에서 상세히 설명하기로 한다.In the disclosed embodiment, the oral image processing device 300 is an electronic device capable of generating an oral cavity image three-dimensionally representing an oral cavity including one or more teeth, and displaying the oral cavity image in which a selection area is displayed through the display unit 310, It will be described in detail below.

도 2는 구강 이미지 내의 선택 영역을 식별하는 방법을 설명하기 위한 도면이다.2 is a diagram for explaining a method of identifying a selection region in an oral cavity image.

도 2를 참조하면, 관련 기술에서는 사용자가 구강 이미지 210의 영역 211을 선택하기 위해 브러시 (brush) 라는 그래픽 도구를 이용하여 구강 이미지 210에 마우스오버 또는 호버를 할 수 있고, 구강 이미지 처리 장치는 브러시가 위치되거나 이동된 상태에서 사용자가 클릭할 때, 브러시가 위치하거나 브러시에 의해 지나가는 영역에 의해 결정된 선택 영역을 미리 보여주는 그래픽을 포함하는 화면을 출력할 수 있다.Referring to FIG. 2 , in the related art, a user may hover or hover over an oral image 210 using a graphic tool called a brush in order to select an area 211 of the oral image 210, and the oral image processing apparatus uses a brush. When the user clicks in a state in which is positioned or moved, a screen including a graphic showing a preview of a selection area determined by an area in which the brush is positioned or passed by the brush may be output.

다만, 브러시는 일정한 크기와 모양을 가지게 되므로, 브러시의 크기 또는 브러시의 모양 등에 따라, 브러시에 의해 선택되는 영역 211은 실제 사용자가 브러시에 의해 선택하고자 하는 영역 이외에 뒤쪽 잇몸에 대응되는 영역 212 또는 삼차원 모델의 포인트 데이터가 존재하지 않는 영역 213도 포함하게 될 수 있다. 따라서, 영역 212 및 영역 213은 불필요하게 선택된 영역일 수 있는 바, 관련 기술에 따르면, 3차원 이미지 내의 선택 영역을 식별함에 있어, 불필요한 영역이 설정되는 문제가 있었다.However, since the brush has a certain size and shape, depending on the size or shape of the brush, the area 211 selected by the brush is an area 212 or three-dimensional area corresponding to the back gum in addition to the area the user wants to select with the brush. The region 213 in which the point data of the model does not exist may also be included. Accordingly, the area 212 and the area 213 may be unnecessarily selected areas. According to the related art, there is a problem in that an unnecessary area is set in identifying a selected area in a 3D image.

뿐만 아니라, 도 2를 참조하면, 관련 기술에서는 구강 이미지 220가 3차원 구강 이미지 또는 3차원 구강 모델임에도 불구하고, 선택 영역 221은 이차원인 것처럼 디스플레이될 수 있다. 따라서, 관련 기술에 따르면, 3차원 이미지 내의 선택 영역을 식별함에 있어, 구강 이미지 220가 3차원 이미지임에도 선택 영역은 2차원으로 디스플레이되어, 선택 영역을 정확하게 선택하기 어렵다는 문제가 있었다.In addition, referring to FIG. 2 , in the related art, although the oral image 220 is a three-dimensional oral image or a three-dimensional oral model, the selection area 221 may be displayed as if it were two-dimensional. Therefore, according to the related art, in identifying the selection region in the three-dimensional image, although the oral image 220 is a three-dimensional image, the selection region is displayed in two dimensions, there is a problem in that it is difficult to accurately select the selection region.

이러한 문제점을 해결하기 위하여, 본 개시의 다양한 실시예들에 따른 구강 이미지 처리 장치 300는 빠른 속도 및 높은 정확도로 사용자가 선택하고자 하는 선택 영역을 식별하고 표시할 수 있는 방법을 제안한다.In order to solve this problem, the oral image processing apparatus 300 according to various embodiments of the present disclosure proposes a method for identifying and displaying a selection area that a user wants to select with high speed and high accuracy.

도 3은 실시예 따른 구강 이미지를 처리하는 장치의 블록도를 도시한다.3 shows a block diagram of an apparatus for processing an oral image according to an embodiment.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 구강 이미지를 처리하고, 처리된 구강 이미지를 표시하기 위한 전자 장치일 수 있다. 본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 디스플레이부 310, 메모리 320 및 프로세서 330를 포함할 수 있다. 이하 상기 구성요소들에 대해 차례로 살펴본다.The oral cavity image processing apparatus 300 according to an embodiment of the present disclosure may be an electronic device for processing an oral cavity image and displaying the processed oral cavity image. The oral image processing apparatus 300 according to an embodiment of the present disclosure may include a display 310 , a memory 320 , and a processor 330 . Hereinafter, the components will be described in turn.

디스플레이부 310는 화면을 디스플레이할 수 있고, 프로세서 330의 제어에 따라 소정의 화면을 디스플레이할 수 있다. 디스플레이부 310는 표시 패널 및 표시 패널을 제어하는 컨트롤러(미도시)를 포함할 수 있고, 디스플레이부 310는 구강 이미지 처리 장치 300에 내장된 디스플레이를 나타낼 수 있다. 표시 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 표시 패널은 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 디스플레이부 310는 사용자 입력부(미도시)의 터치 패널과 결합되어 터치 스크린으로 제공될 수 있다. 예를 들어, 터치 스크린은 표시 패널과 터치 패널이 적층 구조로 결합된 일체형의 모듈을 포함할 수 있다The display unit 310 may display a screen, and may display a predetermined screen under the control of the processor 330 . The display unit 310 may include a display panel and a controller (not shown) for controlling the display panel, and the display unit 310 may display a display built in the oral image processing apparatus 300 . The display panel may be implemented in various types of displays, such as a liquid crystal display (LCD), an organic light emitting diode (OLED) display, an active-matrix organic light-emitting diode (AM-OLED), a plasma display panel (PDP), and the like. . The display panel may be implemented to be flexible, transparent, or wearable. The display 310 may be provided as a touch screen by being combined with a touch panel of a user input unit (not shown). For example, the touch screen may include an integrated module in which the display panel and the touch panel are combined in a stacked structure.

본 개시의 실시예에 따른 디스플레이부 310는 화면을 디스플레이할 수 있고, 프로세서 330의 제어에 따라 소정의 화면을 디스플레이할 수 있다. 구체적으로, 디스플레이부 310는 스캐너 100에서 환자의 구강을 스캔하여 획득한 데이터에 근거하여 생성된 구강 이미지를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 디스플레이부 310는 환자의 치과 치료와 관련되는 정보를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 또한, 예를 들어, 디스플레이부 310는 사용자에 의해 선택된 영역이 표시된 3차원 구강 모델을 디스플레이함으로써, 사용자에게 선택 영역이 포함된 사용자 인터페이스 화면을 제공할 수 있다.The display unit 310 according to an embodiment of the present disclosure may display a screen, and may display a predetermined screen under the control of the processor 330 . Specifically, the display unit 310 may display a user interface screen including an oral cavity image generated based on data obtained by scanning the patient's oral cavity with the scanner 100 . The display unit 310 may display a user interface screen including information related to a patient's dental treatment. Also, for example, the display 310 may provide a user interface screen including the selected area to the user by displaying the 3D oral model in which the area selected by the user is displayed.

메모리 320는 프로세서 330의 처리 및 제어를 위한 프로그램을 저장할 수도 있다. 본 개시의 실시예에 따른 메모리 320는 하나 이상의 인스트럭션을 저장할 수 있다.The memory 320 may store a program for processing and controlling the processor 330 . The memory 320 according to an embodiment of the present disclosure may store one or more instructions.

프로세서 330는 구강 이미지 처리 장치 300의 전반적인 동작을 제어할 수 있고, 메모리 320에 저장된 하나 이상의 인스트럭션을 실행하여 구강 이미지 처리 장치 300의 동작을 제어할 수 있다.The processor 330 may control the overall operation of the oral image processing apparatus 300, and may control the operation of the oral image processing apparatus 300 by executing one or more instructions stored in the memory 320.

본 개시의 실시예에 따른 프로세서 330는 메모리 320에 저장된 하나 이상의 인스트럭션을 실행함으로써, 구강 이미지를 획득하고, 구강 이미지의 기준 포인트를 결정하고, 기준 포인트 및 적어도 하나의 거리 정보에 기초하여 브러시를 결정하고, 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하고, 구강 이미지에서 선택 영역을 표시하도록 디스플레이부 310를 제어할 수 있다.The processor 330 according to an embodiment of the present disclosure executes one or more instructions stored in the memory 320 to obtain an oral cavity image, determine a reference point of the oral cavity image, and determine a brush based on the reference point and at least one distance information and identify an area overlapping the area determined by the brush in the oral cavity image as the selection region, and control the display 310 to display the selection region in the oral cavity image.

본 개시의 실시예에 따른 프로세서 330는 메모리 320에 저장된 하나 이상의 인스트럭션을 실행함으로써, 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지의 복수 개의 포인트에 대한 위치 정보에 기초하여, 브러시에 의해 정해지는 영역과 구강 이미지가 중첩되는 적어도 하나의 경계를 식별하고, 및 적어도 하나의 경계에 기초하여 선택 영역을 식별할 수 있다.The processor 330 according to an embodiment of the present disclosure executes one or more instructions stored in the memory 320, based on the location information for a plurality of points in the area defined by the brush and location information for a plurality of points in the oral image, At least one boundary where the region defined by the brush and the oral cavity image overlap may be identified, and the selection region may be identified based on the at least one boundary.

본 개시의 실시예에 따른 프로세서 330는 메모리 320에 저장된 하나 이상의 인스트럭션을 실행함으로써, 선택 영역의 적어도 하나의 경계를 강조하여 선택 영역을 표시하도록 디스플레이부 310를 제어할 수 있다.The processor 330 according to an embodiment of the present disclosure may control the display 310 to display the selection area by emphasizing at least one boundary of the selection area by executing one or more instructions stored in the memory 320 .

본 개시의 실시예에 따른 프로세서 330는 메모리 320에 저장된 하나 이상의 인스트럭션을 실행함으로써, 선택 영역의 적어도 하나의 경계를 기 설정된 색상으로 표시하고, 적어도 하나의 경계 내에 위치한 구강 이미지의 영역은 구강 이미지의 색상 및 기 설정된 색상을 중첩 또는 블렌딩하여 표시하도록 디스플레이부 310를 제어할 수 있다.By executing one or more instructions stored in the memory 320, the processor 330 according to an embodiment of the present disclosure displays at least one boundary of the selection region with a preset color, and the region of the oral image located within the at least one boundary is the oral image. The display unit 310 may be controlled to display the color and the preset color by overlapping or blending.

본 개시의 실시예에 따른 프로세서 330는 메모리 320에 저장된 하나 이상의 인스트럭션을 실행함으로써, 기준 포인트의 위치 정보에 기초하여 구강 이미지의 적어도 하나의 오브젝트를 식별하고, 및 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여 선택 영역을 식별할 수 있다.The processor 330 according to an embodiment of the present disclosure executes one or more instructions stored in the memory 320, and identifies at least one object of the oral cavity image based on the position information of the reference point, and in the area of the identified at least one object. The selection region may be identified further based on it.

본 개시의 실시예에 따른 프로세서 330는 메모리 320에 저장된 하나 이상의 인스트럭션을 실행함으로써, 선택 영역에 포함되는 구강 이미지의 적어도 하나의 오브젝트를 식별하고, 및 적어도 하나의 오브젝트에 따라 상이한 색상으로 선택 영역을 표시하도록 디스플레이부 310를 제어할 수 있다.By executing one or more instructions stored in the memory 320, the processor 330 according to an embodiment of the present disclosure identifies at least one object of an oral image included in the selection area, and selects the selection area with a different color according to the at least one object The display unit 310 may be controlled to display.

그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 구강 이미지 처리 장치 300가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 구강 이미지 처리 장치 300가 구현될 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 구강 이미지 처리 장치 300는 디스플레이부 310, 메모리 320, 프로세서 330, 통신부 340 및 사용자 입력부 350를 포함할 수 있다.However, not all illustrated components are essential components. The oral image processing apparatus 300 may be implemented by more components than the illustrated components, and the oral image processing apparatus 300 may be implemented by fewer components. For example, as shown in FIG. 4 , the oral image processing apparatus 300 may include a display unit 310 , a memory 320 , a processor 330 , a communication unit 340 , and a user input unit 350 .

도 4는 실시예 따른 구강 이미지를 처리하는 장치의 세부적인 블록도의 일 예이다.4 is an example of a detailed block diagram of an apparatus for processing an oral image according to an embodiment.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 구강 이미지를 처리하고, 처리된 구강 이미지를 표시하기 위한 전자 장치일 수 있다. 구강 이미지 처리 장치 300는 스마트 폰(smart phone), 랩탑 컴퓨터, 데스크탑 컴퓨터, PDA, 태블릿 PC 등의 컴퓨팅 장치일 수 있으나 이에 제한되는 것은 아니다. 또한, 구강 이미지 처리 장치 300는 디스플레이부 310, 메모리 320 및 프로세서 330 이외에 통신부 340 및 사용자 입력부 350를 더 포함할 수 있다. 이하 상기 구성요소들에 대해 차례로 살펴본다. 디스플레이부 310에 대한 설명은 도 2에서 설명된 바와 동일하므로 생략하기로 한다.The oral cavity image processing apparatus 300 according to an embodiment of the present disclosure may be an electronic device for processing an oral cavity image and displaying the processed oral cavity image. The oral image processing device 300 may be a computing device such as a smart phone, a laptop computer, a desktop computer, a PDA, or a tablet PC, but is not limited thereto. Also, the oral image processing apparatus 300 may further include a communication unit 340 and a user input unit 350 in addition to the display unit 310, the memory 320, and the processor 330. Hereinafter, the components will be described in turn. Since the description of the display unit 310 is the same as that described in FIG. 2 , it will be omitted.

메모리 320는 프로세서 330의 처리 및 제어를 위한 프로그램을 저장할 수도 있다. 본 개시의 실시예에 따른 메모리 320는 하나 이상의 인스트럭션을 저장할 수 있다. 메모리 320는 내장 메모리(Internal Memory)(미도시) 및 외장 메모리(External Memory)(미도시) 중 적어도 하나를 포함할 수 있다. 메모리 320는 구강 이미지 처리 장치 300의 동작에 사용되는 각종 프로그램 및 데이터를 저장할 수 있다. 예를 들어, 메모리 320는 생성된 3차원 구강 이미지를 저장할 수 있고, 스캐너 100로부터 획득한 로우 데이터 또는 이차원 이미지 데이터를 저장할 수 있다. 또한, 스캐너 100에 연동되는 전용 소프트웨어를 저장할 수 있다. 여기서, 전용 소프트웨어는 스캐너 100에서 획득된 데이터의 이용을 위한 사용자 인터페이스를 제공하기 위한 프로그램 또는 애플리케이션일 수 있다. 또한, 메모리 320는 스캐너 100로부터 3차원 구강 이미지의 적어도 하나의 대상체 표면의 정점들의 위치 정보, 각 정점들 간의 연결 관계 정보를 저장할 수 있다. 구체적으로, 메모리 320는 표면 데이터를 포인트 클라우드 형태로 저장할 수 있으며, 포인트 클라우드에는 대상체 표면의 정점들의 위치 정보, 각 정점들 간의 연결 관계 정보가 포함될 수 있다.The memory 320 may store a program for processing and controlling the processor 330 . The memory 320 according to an embodiment of the present disclosure may store one or more instructions. The memory 320 may include at least one of an internal memory (not shown) and an external memory (not shown). The memory 320 may store various programs and data used for the operation of the oral image processing apparatus 300 . For example, the memory 320 may store the generated three-dimensional oral image, and may store raw data or two-dimensional image data obtained from the scanner 100 . In addition, dedicated software linked to the scanner 100 may be stored. Here, the dedicated software may be a program or application for providing a user interface for use of data acquired by the scanner 100 . Also, the memory 320 may store position information of vertices of the surface of at least one object of the 3D oral image from the scanner 100 and connection relationship information between the vertices. Specifically, the memory 320 may store surface data in the form of a point cloud, and the point cloud may include location information of vertices of the object surface and connection relationship information between the vertices.

메모리 320는 3차원 구강 이미지의 적어도 하나의 대상체들을 구별하기 위한 정보를 포함할 수 있다. 예를 들어, 메모리 320는 3차원 구강 이미지의 적어도 하나의 대상체들에 대한 색상 정보를 포함할 수 있다. 또한, 메모리 320는 선택 영역을 표시하기 위한 색상 정보를 포함할 수 있다. 또한, 메모리 320는 브러시를 결정하는데 사용되는 적어도 하나의 거리 정보를 결정할 수 있다. 여기서, 적어도 하나의 거리 정보는 상기 기준 포인트와 3차원 구강 이미지의 다른 포인트 간의 거리 정보를 나타내는 것일 수 있다.The memory 320 may include information for distinguishing at least one object of the 3D oral cavity image. For example, the memory 320 may include color information on at least one object of the 3D oral cavity image. Also, the memory 320 may include color information for displaying the selection area. Also, the memory 320 may determine at least one piece of distance information used to determine a brush. Here, the at least one piece of distance information may indicate distance information between the reference point and another point of the three-dimensional oral image.

내장 메모리는, 예를 들어, 휘발성 메모리(예를 들면, DRAM(Dynamic RAM), SRAM(Static RAM), SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(예를 들면, OTPROM(One Time Programmable ROM), PROM(Programmable ROM), EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. 실시예에 따르면, 프로세서 330는 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 프로세서 330는 다른 구성요소로부터 수신하거나 생성된 데이터를 비휘발성 메모리에 보존할 수 있다.The built-in memory includes, for example, a volatile memory (eg, dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM), etc.), a non-volatile memory (eg, One Time Programmable ROM (OTPROM)). ), Programmable ROM (PROM), Erasable and Programmable ROM (EPROM), Electrically Erasable and Programmable ROM (EEPROM), Mask ROM, Flash ROM, etc.), hard disk drive (HDD), or solid state drive (SSD). may include According to an embodiment, the processor 330 may load a command or data received from at least one of the non-volatile memory or other components into the volatile memory and process it. In addition, the processor 330 may store data received or generated from other components in a non-volatile memory.

외장 메모리는, 예를 들면, CF(Compact Flash), SD(Secure Digital), Micro-SD(Micro Secure Digital), Mini-SD(Mini Secure Digital), xD(extreme Digital) 및 Memory Stick 중 적어도 하나를 포함할 수 있다.The external memory includes, for example, at least one of CF (Compact Flash), SD (Secure Digital), Micro-SD (Micro Secure Digital), Mini-SD (Mini Secure Digital), xD (extreme Digital), and Memory Stick. may include

프로세서 330는 RAM, ROM, CPU, GPU 및 버스 중 적어도 하나를 포함할 수 있다. RAM, ROM, CPU 및 GPU 등은 버스를 통해 서로 연결될 수 있다.The processor 330 may include at least one of RAM, ROM, CPU, GPU, and a bus. RAM, ROM, CPU and GPU, etc. can be connected to each other via a bus.

본 개시의 실시예에 의하면, 프로세서 320는 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하기 위한 인공지능 전용 프로세서를 포함할 수 있다. 인공지능 전용 프로세서는 메모리에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어하거나 또는 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다.According to an embodiment of the present disclosure, the processor 320 may include an AI-only processor for identifying, as a selection region, a region overlapping a region defined by a brush in an oral image. The artificial intelligence-only processor may be controlled to process input data according to a predefined operation rule or an artificial intelligence model stored in a memory, or may be designed as a hardware structure specialized for processing a specific artificial intelligence model.

기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어질 수 있으며, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다.A predefined action rule or artificial intelligence model can be created through learning, and being created through learning means that the basic artificial intelligence model is learned by using a plurality of learning data by a learning algorithm, so that the desired characteristic (or purpose) ) means that a predefined action rule or artificial intelligence model set to perform is created. Such learning may be performed in the device itself on which artificial intelligence according to the present disclosure is performed, or may be performed through a separate server and/or system.

통신부 340는 적어도 하나의 외부 전자 장치와 유선 또는 무선 통신 네트워크를 통하여 통신을 수행할 수 있다. 구체적으로, 통신부 340는 프로세서 330의 제어에 따라서 스캐너 100와 통신을 수행할 수 있다. 구강 이미지 처리 장치 300와 구강 이미지 처리 장치 300 주변에 위치한 복수의 디바이스들 또는 서버 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 통신부 340는 구강 이미지 처리 장치 300와 서버 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 또한, 통신부 340는 근거리 통신부 341를 포함할 수 있다.The communication unit 340 may communicate with at least one external electronic device through a wired or wireless communication network. Specifically, the communication unit 340 may communicate with the scanner 100 under the control of the processor 330 . The oral image processing apparatus 300 and the oral image processing apparatus 300 may include one or more components that enable communication between a plurality of devices or servers located in the vicinity. The communication unit 340 may include one or more components that enable communication between the oral image processing apparatus 300 and the server. Also, the communication unit 340 may include a short-range communication unit 341 .

근거리 통신부(short-range wireless communication unit) 341는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(와이파이 Direct) 통신부, UWB(Ultra Wideband) 통신부, Ant+ 통신부 이더넷 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.Short-range wireless communication unit 341, Bluetooth communication unit, BLE (Bluetooth Low Energy) communication unit, short-range wireless communication unit (Near Field Communication unit), WLAN (Wi-Fi) communication unit, Zigbee (Zigbee) communication unit, infrared (IrDA, Infrared Data Association) communication unit, WFD (Wi-Fi Direct) communication unit, UWB (Ultra Wideband) communication unit, Ant+ communication unit, Ethernet communication unit, etc. may include, but are not limited thereto.

또한 통신부 340는 원거리 통신 규격에 따라서 원거리 통신을 지원하기 위한 서버와 통신을 수행하는 원거리 통신 모듈을 더 포함할 수 있다. 구체적으로, 통신부 340는 인터넷 통신을 위한 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다. 또한, 통신부 340는 3G, 4G, 및/또는 5G 등의 통신 규격에 따르는 통신 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다. 또한, 통신부 340는 외부 전자 장치(예를 들어, 구강 스캐너 등)와 유선으로 통신하기 위해서, 외부 전자 장치와 유선 케이블로 연결되기 위한 적어도 하나의 포트를 포함할 수 있다. 그에 따라서, 통신부 340는 적어도 하나의 포트를 통하여 유선 연결된 외부 전자 장치와 통신을 수행할 수 있다. In addition, the communication unit 340 may further include a long-distance communication module for performing communication with a server for supporting long-distance communication according to a telecommunication standard. Specifically, the communication unit 340 may include a long-distance communication module for performing communication through a network for Internet communication. In addition, the communication unit 340 may include a long-distance communication module for performing communication through a communication network conforming to a communication standard such as 3G, 4G, and/or 5G. In addition, the communication unit 340 may include at least one port for connecting to an external electronic device by a wired cable in order to communicate with an external electronic device (eg, an intraoral scanner, etc.) by wire. Accordingly, the communication unit 340 may communicate with an external electronic device connected by wire through at least one port.

본 개시의 실시예에 따른 통신부 340는 프로세서 330의 제어에 따라 스캐너 100에서 획득된 데이터, 예를 들어 구강 스캔을 통해 획득된 로우 데이터를 수신할 수 있다.The communication unit 340 according to an embodiment of the present disclosure may receive data obtained from the scanner 100, for example, raw data obtained through an intraoral scan under the control of the processor 330 .

사용자 입력부 350는 사용자로부터 다양한 명령어를 입력 받을 수 있고, 사용자 입력부 350는 사용자가 구강 이미지 처리 장치 300를 제어하기 위한 데이터를 입력하는 수단을 의미할 수 있다. 사용자 입력부 350는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠 또는 조그 스위치 중 적어도 하나를 포함할 수 있으나 이에 한정되는 것은 아니다. 키는 구강 이미지 처리 장치 300의 본체 외관의 전면부나 측면부, 배면부 등의 다양한 영역에 형성된 기계적 버튼, 휠 등과 같은 다양한 유형의 키를 포함할 수 있다. 터치 패널은 사용자의 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 터치 패널이 표시 패널과 결합하여 터치 스크린(미도시)을 구성한 경우, 터치 스크린은 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 터치 센서로 구현될 수 있다.The user input unit 350 may receive various commands from the user, and the user input unit 350 may mean a means for the user to input data for controlling the oral image processing apparatus 300 . The user input unit 350 includes a key pad, a dome switch, and a touch pad (contact capacitive method, pressure resistance film method, infrared sensing method, surface ultrasonic conduction method, integral tension measurement method, piezo effect) method, etc.), a jog wheel, or a jog switch, but is not limited thereto. The key may include various types of keys, such as mechanical buttons and wheels, which are formed in various areas such as the front, side, and rear of the body exterior of the oral image processing apparatus 300 . The touch panel may detect a user's touch input and output a touch event value corresponding to the sensed touch signal. When the touch panel is combined with the display panel to form a touch screen (not shown), the touch screen may be implemented with various types of touch sensors such as capacitive type, pressure sensitive type, and piezoelectric type.

구체적으로, 사용자 입력부 350는 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자 인터페이스 화면 상의 일 지점을 지정 또는 선택하기 위한 마우스(mouse) 또는 키보드(key board) 등을 포함하는 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다. 또한, 사용자 인터페이스 120는 음성 인식을 위한 음성 인식 장치를 포함할 수 있다. 예를 들어, 음성 인식 장치는 마이크로폰이 될 수 있으며, 음성 인식 장치는 사용자의 음성 명령 또는 음성 요청을 수신할 수 있다. 그에 따라서, 프로세서는 음성 명령 또는 음성 요청에 대응되는 동작이 수행되도록 제어할 수 있다. Specifically, the user input unit 350 includes a touch panel for detecting a user's touch, a button for receiving a user's push operation, a mouse or a keyboard for designating or selecting a point on the user interface screen, and the like. It may include, but is not limited to, a user input device. Also, the user interface 120 may include a voice recognition device for voice recognition. For example, the voice recognition device may be a microphone, and the voice recognition device may receive a user's voice command or voice request. Accordingly, the processor may control an operation corresponding to the voice command or the voice request to be performed.

도 5는 구강 이미지 내의 선택 영역을 식별하는 방법의 실시예를 나타내는 흐름도이다.5 is a flow diagram illustrating an embodiment of a method for identifying a selection region within an oral cavity image.

도 5를 참조하면, 단계 S510에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 구강 이미지를 획득할 수 있다.Referring to FIG. 5 , in step S510, the oral image processing apparatus according to an embodiment of the present disclosure may acquire an oral cavity image.

구강 이미지 처리 장치가 구강 이미지를 획득하는 실시예로, 스캐너 100는 구강 스캔을 통하여 획득된 로우 데이터(raw data)를 구강 이미지 처리 장치 300로 전송할 수 있고, 구강 이미지 처리 장치 300는 수신된 로우 데이터를 가공하여 구강 이미지를 생성 또는 획득할 수 있다. 생성된 구강 이미지는 3차원 구강 이미지로, 로우 데이터에 기초하여 구강의 내부 구조를 3차원으로 모델링함으로써 생성될 수 있다.In an embodiment in which the oral image processing device acquires the oral cavity image, the scanner 100 may transmit raw data acquired through the oral cavity scan to the oral image processing device 300, and the oral image processing device 300 receives the raw data can be processed to generate or acquire an oral image. The generated oral image is a three-dimensional oral image, and may be generated by modeling the internal structure of the oral cavity based on raw data in three dimensions.

구강 이미지 처리 장치가 구강 이미지를 획득하는 다른 실시예로, 스캐너 100가 구강 스캔을 통하여 로우 데이터(raw data)를 획득하고, 획득된 로우 데이터를 가공하여 대상체인 구강에 대응되는 이미지를 생성할 수 있다. 스캐너 100은 가공되지 않은 로우 데이터와 로우 데이터에 기초하여 생성된 이미지를 함께 구강 이미지 처리 장치 300로 전송할 수 있다. 따라서, 구강 이미지 처리 장치 300는 스캐너 100으로부터 구강 이미지를 획득할 수 있으나, 이에 한정되는 것은 아니다.As another embodiment in which the oral image processing device acquires the oral cavity image, the scanner 100 obtains raw data through an oral scan, and processes the obtained raw data to generate an image corresponding to the oral cavity as an object. have. The scanner 100 may transmit raw raw data and an image generated based on the raw data together to the oral image processing apparatus 300 . Accordingly, the oral cavity image processing apparatus 300 may acquire the oral cavity image from the scanner 100, but is not limited thereto.

또한, 구강 이미지 처리 장치 300는 생성된 구강 이미지를 구강 이미지 처리 장치 300의 메모리 320에 저장할 수 있고, 이후 구강 이미지 처리 장치 300가 사용자로부터 구강 이미지 내의 영역 결정에 대한 명령을 수신하면, 메모리 320에 저장된 구강 이미지를 이용할 수도 있다. 또한, 본원의 구강 이미지는 실시간으로 촬영된 사용자의 구강에 대한 스캔 영상으로부터 생성된 사용자 구강에 대한 구강 이미지를 의미할 수도 있다.In addition, the oral image processing device 300 may store the generated oral image in the memory 320 of the oral image processing device 300, and then, when the oral image processing device 300 receives a command for determining a region in the oral image from the user, in the memory 320 Stored oral images may also be used. In addition, the oral image of the present application may refer to an oral image of the user's oral cavity generated from a scan image of the user's oral cavity taken in real time.

단계 S520에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 구강 이미지의 기준 포인트를 결정할 수 있다.In step S520, the oral image processing apparatus according to an embodiment of the present disclosure may determine a reference point of the oral cavity image.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 사용자 입력부 350를 통해 사용자의 입력을 수신할 수 있고, 구강 이미지 처리 장치 300는 사용자의 입력을 이용하여 사용자 인터페이스 화면에 출력되는 구강 이미지의 기준 포인트를 결정할 수 있다.The oral image processing apparatus 300 according to an embodiment of the present disclosure may receive a user's input through the user input unit 350, and the oral image processing apparatus 300 uses the user's input as a reference point of the oral cavity image output on the user interface screen. can be decided

예를 들어, 사용자는 사용자 입력부 350를 통해 구강 이미지의 기준 포인트를 선택할 수 있다. 구체적으로, 사용자는 디스플레이부 310에 출력되는 사용자 인터페이스 화면 상의 일 지점을 선택하기 위해 마우스 또는 키보드 등을 포함하는 사용자 입력부 350를 이용할 수 있다. 이에 따라, 사용자가 사용자 인터페이스 화면 상의 일 지점에서 클릭 또는 기 설정된 동작을 수행하면, 구강 이미지 처리 장치 300는 사용자 인터페이스 화면 상의 일 지점을 구강 이미지의 기준 포인트로 결정할 수 있다. 또한, 사용자가 사용자 인터페이스 화면 상의 복수 개의 지점에서 복수 개의 기 설정된 동작을 수행하면, 구강 이미지 처리 장치 300는 사용자 인터페이스 화면 상의 복수 개의 지점을 구강 이미지의 복수 개의 기준 포인트로 결정할 수 있다.For example, the user may select a reference point of the oral cavity image through the user input unit 350 . Specifically, the user may use the user input unit 350 including a mouse or keyboard to select a point on the user interface screen output on the display unit 310 . Accordingly, when the user clicks or performs a preset operation at a point on the user interface screen, the oral image processing apparatus 300 may determine a point on the user interface screen as a reference point of the oral cavity image. Also, when the user performs a plurality of preset operations at a plurality of points on the user interface screen, the oral image processing apparatus 300 may determine the plurality of points on the user interface screen as a plurality of reference points of the oral cavity image.

사용자 인터페이스 화면 상의 마우스 포인터에 기초하여 식별된 벡터와 사용자 인터페이스 화면 상의 구강 이미지가 만나는 포인트는 기준 포인트일 수 있고, 기준 포인트는 복수 개의 포인트로 구성될 수 있다. 구체적으로, 식별된 벡터는 사용자 인터페이스 화면 상의 마우스 포인터를 통과하는 벡터 중 사용자 인터페이스 화면의 법선 방향의 벡터를 의미할 수 있다. 또한, 본원에서의 기준 포인트는 결정된 벡터와 사용자 인터페이스 화면 상의 구강 이미지가 최초로 만나는 포인트를 의미할 수 있다. 또는, 본원에서의 기준 포인트는 결정된 벡터와 사용자 인터페이스 화면 상의 구강 이미지가 만나는 포인트 중 사용자 인터페이스 화면에 직접적으로 표시되고 있는 적어도 하나의 포인트를 의미할 수도 있으나, 이에 한정되는 것은 아니다. 본원에서의 기준 포인트는 하나의 기준 포인트 및 복수 개의 포인트를 모두 호칭할 수 있다.A point where the vector identified based on the mouse pointer on the user interface screen meets the oral image on the user interface screen may be a reference point, and the reference point may be composed of a plurality of points. Specifically, the identified vector may mean a vector in a normal direction of the user interface screen among vectors passing through the mouse pointer on the user interface screen. In addition, the reference point herein may refer to a point where the determined vector and the oral image on the user interface screen first meet. Alternatively, the reference point herein may mean at least one point that is directly displayed on the user interface screen among points where the determined vector and the oral image on the user interface screen meet, but is not limited thereto. Reference point herein may refer to both one reference point and a plurality of points.

단계 S530에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 기준 포인트 및 적어도 하나의 거리 정보에 기초하여, 브러시를 결정할 수 있다.In operation S530, the oral image processing apparatus according to an embodiment of the present disclosure may determine a brush based on a reference point and at least one piece of distance information.

본 개시의 실시예에 따른 브러시는 2차원 브러시 및 3차원 브러시를 모두 포함할 수 있다. 예를 들어, 2차원 브러시는 원, 타원, 사각형 등을 의미할 수 있고, 3차원 브러시는 구, 타원체 등일 수 있으나 이에 한정되는 것은 아니다.A brush according to an embodiment of the present disclosure may include both a two-dimensional brush and a three-dimensional brush. For example, a 2D brush may mean a circle, an ellipse, or a rectangle, and the 3D brush may be a sphere or an ellipsoid, but is not limited thereto.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 기준 포인트 및 적어도 하나의 거리 정보에 기초하여, 브러시를 결정할 수 있다. 적어도 하나의 거리 정보는 기준 포인트와 구강 이미지의 다른 포인트 간의 거리 정보를 의미할 수 있다. 또한, 예를 들어 적어도 하나의 거리 정보는 기준 포인트 간의 거리 정보를 의미할 수도 있으나, 이에 한정되는 것은 아니다.The oral image processing apparatus 300 according to an embodiment of the present disclosure may determine a brush based on a reference point and at least one piece of distance information. The at least one piece of distance information may mean distance information between the reference point and another point of the oral image. Also, for example, the at least one piece of distance information may mean distance information between reference points, but is not limited thereto.

기 설정된 거리 정보는 다양하게 결정될 수 있다. 기 설정된 거리 정보는 시스템에서 디폴트로 정해진 값 또는 브러시의 크기를 변경하는 사용자의 입력에 따라 정해질 수 있다.The preset distance information may be determined in various ways. The preset distance information may be determined according to a value set as a default in the system or a user input for changing the size of the brush.

브러시가 3차원 브러시 중 구인 경우, 구강 이미지 처리 장치 300는 사용자에 의해 결정된 기준 포인트를 구의 중심으로 식별하고, 기 설정된 거리 정보를 구의 반지름으로 식별함으로써, 3차원 브러시인 구를 결정할 수 있다. 또한, 브러시가 3차원 브러시 중 타원체인 경우, 구강 이미지 처리 장치 300는 사용자에 의해 결정된 기준 포인트를 타원체의 중심으로 식별하고, 기 설정된 복수 개의 거리 정보에 따라 각각 x축 반주축(semiprincipal axis), y축 반주축 및 z축 반주축으로 결정함으로써, 3차원 브러시인 타원체를 결정할 수 있다.When the brush is a sphere among three-dimensional brushes, the oral image processing apparatus 300 may determine a three-dimensional brush sphere by identifying a reference point determined by the user as the center of the sphere and identifying preset distance information as a radius of the sphere. In addition, when the brush is an ellipsoid among the three-dimensional brushes, the oral image processing apparatus 300 identifies the reference point determined by the user as the center of the ellipsoid, and according to a plurality of preset distance information, the x-axis semiprincipal axis, By determining the y-axis semi-major axis and the z-axis semi-major axis, an ellipsoid that is a three-dimensional brush can be determined.

단계 S540에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별할 수 있다.In operation S540, the oral cavity image processing apparatus according to an embodiment of the present disclosure may identify a region overlapping the region determined by the brush in the oral cavity image as the selection region.

브러시가 2차원 브러시인 경우, 브러시에 의해 정해지는 영역은 2차원 브러시를 디스플레이부의 법선 방향으로 연장함으로써 획득되는 영역을 의미할 수 있다. 또한, 브러시가 3차원 브러시인 경우, 브러시에 의해 정해지는 영역은 3차원 브러시의 표면 영역을 의미할 수 있다.When the brush is a two-dimensional brush, the area defined by the brush may mean an area obtained by extending the two-dimensional brush in a normal direction of the display unit. Also, when the brush is a three-dimensional brush, the area defined by the brush may mean a surface area of the three-dimensional brush.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지의 복수 개의 포인트에 대한 위치 정보에 기초하여, 브러시에 의해 정해지는 영역과 구강 이미지가 중첩되는 적어도 하나의 경계를 식별할 수 있다. 또한, 본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 식별된 적어도 하나의 경계에 기초하여, 구강 이미지의 선택 영역을 식별할 수 있다. 구체적인 구강 이미지 내의 선택 영역을 식별하는 동작은 도 6에서 도9에서 자세히 살펴보기로 한다.The oral cavity image processing apparatus 300 according to an embodiment of the present disclosure is based on location information on a plurality of points of an area defined by a brush and location information on a plurality of points of an oral image, an area determined by a brush and an oral cavity At least one boundary on which the image overlaps may be identified. Also, the oral cavity image processing apparatus 300 according to an embodiment of the present disclosure may identify a selection region of the oral cavity image based on the identified at least one boundary. An operation of identifying a selection region in a specific oral image will be described in detail with reference to FIGS. 6 to 9 .

단계 S550에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 구강 이미지에서 선택 영역을 표시할 수 있다.In step S550, the oral image processing apparatus according to an embodiment of the present disclosure may display a selection area in the oral cavity image.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 디스플레이부 310를 통해 식별된 영역이 표시된 구강 이미지를 디스플레이할 수 있다. 구강 이미지 처리 장치 300는 사용자가 구강 이미지의 선택 영역을 명확하게 인식하고, 구별할 수 있도록 선택 영역의 적어도 하나의 경계를 강조하여 선택 영역을 표시할 수 있다. 본원에서의 선택 영역은 적어도 하나의 경계 및 적어도 하나의 경계 내에 위치한 구강 이미지의 영역으로 구별될 수 있다. 적어도 하나의 경계는 선택 영역의 바깥쪽에 위치한 경계 근처를 포함하는 영역을 의미할 수 있고, 적어도 하나의 경계 내에 위치한 구강 이미지의 영역은 구강 이미지 내의 선택 영역 중 적어도 하나의 경계를 제외한 영역을 의미할 수 있다.The oral cavity image processing apparatus 300 according to an embodiment of the present disclosure may display an oral cavity image in which the identified region is displayed through the display unit 310 . The oral image processing apparatus 300 may display the selection region by emphasizing at least one boundary of the selection region so that the user can clearly recognize and distinguish the selection region of the oral cavity image. A selection region herein may be divided into at least one boundary and a region of the oral image located within the at least one boundary. The at least one boundary may mean an area including near a boundary located outside the selection area, and the area of the oral cavity image located within the at least one boundary may mean an area excluding at least one boundary among the selection areas in the oral cavity image. can

선택 영역의 적어도 하나의 경계를 강조하여 선택 영역을 표시하기 위한 실시예로, 구강 이미지 처리 장치 300는 선택 영역의 적어도 하나의 경계를 기 설정된 색상으로 표시하고, 적어도 하나의 경계 내에 위치한 구강 이미지의 영역은 구강 이미지의 색상 및 기 설정된 색상을 중첩 또는 블렌딩하여 표시할 수 있다. 이에 더해, 구강 이미지 처리 장치 300는 적어도 하나의 경계 밖에 위치한 기 설정된 영역에 대해서도 기 설정된 색상에 따라 출력할 수 있고, 구강 이미지 처리 장치 300는 사용자에게 선택 영역을 더 적절하게 표시하여 제공할 수 있다.In an embodiment for displaying the selection area by emphasizing at least one boundary of the selection area, the oral image processing apparatus 300 displays at least one boundary of the selection area with a preset color, The region may be displayed by overlapping or blending the color of the oral cavity image and a preset color. In addition, the oral image processing apparatus 300 may output a preset region located outside at least one boundary according to a preset color, and the oral image processing apparatus 300 may display and provide the selected region more appropriately to the user. .

도 6은 구강 이미지에서 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하는 동작을 설명하기 위한 흐름도이다.6 is a flowchart for explaining an operation of identifying an area overlapping an area determined by a brush in an oral image as a selection area.

단계 S610에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지의 복수 개의 포인트에 대한 위치 정보를 획득할 수 있다.In step S610, the oral image processing apparatus according to an embodiment of the present disclosure may obtain position information on a plurality of points in an area determined by a brush and position information on a plurality of points in the oral image.

본원에서, 구강 이미지의 복수 개의 포인트에 대한 위치 정보는 구강 이미지의 적어도 하나의 대상체들의 표면에 위치한 포인트들의 위치 정보 및/또는 각 포인트들 간의 연결 관계 정보를 포함할 수 있다.Herein, the location information on the plurality of points of the oral cavity image may include position information of points located on the surfaces of at least one object of the oral cavity image and/or connection relationship information between the respective points.

본 개시의 실시예에 따른 브러시가 3차원 브러시인 경우, 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보는 3차원 브러시의 표면에 위치한 포인트들의 위치 정보를 의미할 수 있다. 또한, 브러시가 2차원 브러시인 경우, 구강 이미지 처리 장치 300는 브러시를 사용자 인터페이스 화면에 법선 방향으로 투영한 3차원 도형을 식별할 수 있고, 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보는 식별된 3차원 도형 표면에 위치한 포인트들의 위치 정보를 의미할 수 있다. 본원에서의 위치 정보는 구강 이미지 처리 장치 300의 메모리 320에 저장될 수 있고, 구강 이미지 처리 장치 300는 선택 영역을 식별하기 위해 메모리 320에 저장된 위치 정보를 이용할 수 있다.When the brush according to the embodiment of the present disclosure is a 3D brush, location information on a plurality of points in an area defined by the brush may mean location information of points located on the surface of the 3D brush. Also, when the brush is a two-dimensional brush, the oral image processing apparatus 300 may identify a three-dimensional figure in which the brush is projected in a normal direction on the user interface screen, and location information on a plurality of points in an area determined by the brush may mean position information of points located on the identified 3D figure surface. The location information herein may be stored in the memory 320 of the oral image processing apparatus 300, and the oral image processing apparatus 300 may use the location information stored in the memory 320 to identify the selection area.

따라서, 구강 이미지 처리 장치 300는 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지의 복수 개의 포인트에 대한 위치 정보를 획득함으로써, 브러시에 의해 정해지는 영역과 구강 이미지의 적어도 하나의 대상체들이 중첩되는 영역을 정확하게 파악할 수 있다.Accordingly, the oral image processing apparatus 300 obtains position information for a plurality of points in the region defined by the brush and position information for a plurality of points in the oral image, thereby forming at least one of the region defined by the brush and the oral image. An area where the objects overlap may be accurately identified.

단계 S620에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 브러시에 의해 정해지는 영역과 구강 이미지가 중첩되는 적어도 하나의 경계를 식별할 수 있다.In step S620, the oral image processing apparatus according to an embodiment of the present disclosure may identify at least one boundary where the region defined by the brush and the oral cavity image overlap.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보와 구강 이미지의 복수 개의 포인트에 대한 위치 정보가 일치하는 적어도 하나의 포인트를 식별할 수 있다. 구체적으로, 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보와 구강 이미지의 복수 개의 포인트에 대한 위치 정보가 일치하는 것은 구강에 대한. 여기서, 구강에 대한 3차원 모델의 각각의 축은 x축, y축 및 z축을 의미할 수 있다. 또한, 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보와 구강 이미지의 복수 개의 포인트에 대한 위치 정보가 일치하는 것은 브러시에 의해 정해지는 영역의 복수 개의 포인트 및 구강 이미지의 복수 개의 포인트 간의 거리가 기 설정된 임계치 이하인 것을 의미할 수도 있으나, 이에 한정되는 것은 아니다.The oral cavity image processing apparatus 300 according to an embodiment of the present disclosure may identify at least one point in which position information on a plurality of points in an area determined by a brush and position information on a plurality of points in the oral image match . Specifically, the position information for the plurality of points in the area determined by the brush and the position information for the plurality of points in the oral image coincide with the oral cavity. Here, each axis of the three-dimensional model of the oral cavity may mean an x-axis, a y-axis, and a z-axis. In addition, the location information for a plurality of points in the area defined by the brush and location information for a plurality of points in the oral image coincide with the distance between the plurality of points in the area defined by the brush and the plurality of points in the oral image It may mean that is less than or equal to a preset threshold, but is not limited thereto.

단계 S630에서, 본 개시의 실시예에 따른 구강 이미지 처리 장치는 적어도 하나의 경계에 기초하여, 구강 이미지의 선택 영역을 식별할 수 있다.In step S630, the oral image processing apparatus according to an embodiment of the present disclosure may identify a selection region of the oral cavity image based on at least one boundary.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 적어도 하나의 경계에 따라 구강 이미지의 선택 영역을 식별할 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 적어도 구강 이미지의 복수 개의 포인트들 중 적어도 하나의 경계에 둘러싸인 복수 개의 포인트들을 식별할 수 있다. 이에 따라, 구강 이미지 처리 장치 300는 적어도 하나의 경계에 둘러싸였다고 식별된 복수 개의 포인트들 및 단계 S620에서 식별된 적어도 하나의 경계를 포함하는 영역을 구강 이미지의 결정된 영역으로 식별할 수 있다.The oral cavity image processing apparatus 300 according to an embodiment of the present disclosure may identify a selection region of the oral cavity image according to at least one boundary. Specifically, the oral cavity image processing apparatus 300 may at least identify a plurality of points surrounded by at least one boundary among a plurality of points of the oral cavity image. Accordingly, the oral image processing apparatus 300 may identify a region including a plurality of points identified as being surrounded by at least one boundary and at least one boundary identified in step S620 as the determined region of the oral cavity image.

도 7은 브러시가 2차원 브러시인 경우, 구강 이미지 내의 선택 영역을 식별하는 동작을 설명하기 위한 참고도이다.7 is a reference diagram for explaining an operation of identifying a selection region in an oral cavity image when the brush is a two-dimensional brush.

도 7을 참고하면, 구강 이미지 700의 2차원 브러시 720에 따라 구강 이미지 700 내의 선택 영역 730을 식별하는 실시예를 도시하고 있다.Referring to FIG. 7 , an embodiment in which a selection area 730 in the oral cavity image 700 is identified according to the two-dimensional brush 720 of the oral cavity image 700 is illustrated.

본 개시의 실시예에 따른 디스플레이부 310에 표시된 구강 이미지 700는 치아 701, 치아 702를 포함하는 치아 및 잇몸 703 등의 대상체들을 포함할 수 있고, 구강 이미지 처리 장치 300는 구강 이미지 700에 포함되는 적어도 하나의 대상체에 대한 위치 정보 및 적어도 하나의 대상체에 대한 색상 정보 등을 저장하고 있을 수 있다. 반대로, 구강 이미지 700의 별도의 대상체가 없는 영역에는 위치 정보 또는 색상 정보 등을 포함하고 있는 포인트 데이터가 존재하지 않을 수 있다. 따라서, 구강 이미지 내의 선택 영역은 포인트 데이터가 존재하지 않는 영역을 제외하는 것을 특징으로 할 수 있다.The oral image 700 displayed on the display unit 310 according to an embodiment of the present disclosure may include objects such as teeth 701, teeth including teeth 702, and gums 703, and the oral image processing apparatus 300 includes at least the oral image 700 included in the oral image 700. Location information on one object and color information on at least one object may be stored. Conversely, point data including location information or color information may not exist in an area where a separate object of the oral image 700 is not present. Accordingly, the selected region in the oral cavity image may be characterized in that the region in which point data does not exist is excluded.

본 개시의 실시예에 따른 2차원 브러시 720는 기준 포인트 710 및 적어도 하나의 거리 정보에 기초하여 결정될 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 잇몸 703의 위치한 기준 포인트 710 및 적어도 하나의 거리 정보에 기초하여 결정된 2차원 브러시 720를 법선 방향 715로 투영함으로써, 2차원 브러시가 확장되어 생성된 3차원 영역을 식별할 수 있다. 본원에서 2차원 브러시가 확장되어 생성된 3차원 영역은 2차원 브러시에 의해 정해지는 영역으로 호칭될 수 있다.The two-dimensional brush 720 according to an embodiment of the present disclosure may be determined based on the reference point 710 and at least one piece of distance information. Specifically, the oral image processing apparatus 300 projects the two-dimensional brush 720 determined based on the reference point 710 located on the gum 703 and the at least one distance information in the normal direction 715, so that the three-dimensional area generated by the extension of the two-dimensional brush is projected. can be identified. Herein, the three-dimensional region generated by extending the two-dimensional brush may be referred to as a region defined by the two-dimensional brush.

구체적으로, 2차원 브러시가 확장되어 생성된 3차원 영역 770를 설명한다. 2차원 브러시 760는 구강 이미지의 대상체 780에 위치한 기준 포인트 750 및 메모리 320에 저장된 거리 정보에 기초하여 결정될 수 있다. 2차원 브러시 760는 원 형태의 브러시일 수 있다. 2차원 브러시가 확장되어 생성된 3차원 영역 770은 2차원 브러시 760를 법선 벡터(normal vector) 765 방향으로 확장한 형태일 수 있다. 또한, 대상체 780내의 선택 영역은 2차원 브러시가 확장되어 생성된 3차원 영역 770 및 대상체 780가 중첩되는 영역을 의미할 수 있다.Specifically, a three-dimensional area 770 generated by extending a two-dimensional brush will be described. The two-dimensional brush 760 may be determined based on the reference point 750 positioned on the object 780 of the oral cavity image and distance information stored in the memory 320 . The two-dimensional brush 760 may be a circular brush. The 3D area 770 generated by extending the 2D brush may have a shape in which the 2D brush 760 is extended in the direction of a normal vector 765 . Also, the selection area within the object 780 may refer to an area where the 3D area 770 generated by extending the 2D brush and the object 780 overlap.

구강 이미지 처리 장치 300는, 2차원 브러시 720에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지 700의 복수 개의 포인트에 대한 위치 정보에 기초하여, 선택 영역 730을 식별할 수 있다. 또한, 선택 영역 730은 포인트 데이터가 없는 영역 740을 포함하지 않을 수 있다.The oral cavity image processing apparatus 300 may identify the selection region 730 based on position information on a plurality of points of the region determined by the two-dimensional brush 720 and position information on a plurality of points of the oral cavity image 700 . Also, the selection area 730 may not include the area 740 without point data.

도 8은 브러시가 2차원 브러시인 경우, 구강 이미지 내의 선택 영역을 식별하는 동작을 설명하기 위한 참고도이다.8 is a reference diagram for explaining an operation of identifying a selection region in an oral cavity image when the brush is a two-dimensional brush.

도 8을 참고하면, 구강 이미지 800에서 2차원 브러시 830에 따라 구강 이미지 800 내의 선택 영역을 식별하는 실시예를 도시하고 있다.Referring to FIG. 8 , an embodiment of identifying a selection region in the oral cavity image 800 according to the two-dimensional brush 830 in the oral cavity image 800 is illustrated.

도 8을 참조하면, 본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 구강 이미지 800의 기준 포인트 810 및 기 설정된 거리 정보에 따른 거리 820에 기초하여, 2차원 브러시 830을 식별할 수 있다. 구강 이미지 처리 장치 300는 2차원 브러시 830을 확장한 3차원 모델 및 구강 이미지 800가 중첩되는 영역을 구강 이미지 800 내의 선택 영역으로 설정할 수 있다. 예를 들어, 구강 이미지 800 내의 선택 영역은 치아 851의 일부 영역인 영역 850 및 치아 861의 일부 영역인 영역 860을 포함할 수 있다. 또한, 구강 이미지 800 내의 선택 영역은 잇몸의 일부 영역인 영역 840을 포함할 수 있다. 이때, 기준 포인트 810는 대상체 중 치아 861에 위치하고 있어, 사용자가 선택한 영역이 치아에 한정될 수 있는 점을 고려할 때, 영역 850 및 영역 860은 구강 이미지 800 내의 선택 영역에 포함되는 것이 적절할 수 있다. 반면에 사용자가 사용자 입력부 350를 통해 선택한 기준 포인트 810가 치아 861에 위치하고 있어, 사용자가 선택한 영역이 치아로 한정될 수 있는 점을 고려할 때, 잇몸의 일부 영역인 영역 840은 구강 이미지 800 내의 선택 영역에 포함되지 않는 것이 더 적절할 수 있다.Referring to FIG. 8 , the oral image processing apparatus 300 according to an embodiment of the present disclosure may identify the two-dimensional brush 830 based on a reference point 810 of the oral cavity image 800 and a distance 820 according to preset distance information. The oral image processing apparatus 300 may set a region where the 3D model extended with the 2D brush 830 and the oral cavity image 800 overlap as a selection region within the oral cavity image 800 . For example, the selection area in the oral cavity image 800 may include an area 850 that is a partial area of the tooth 851 and an area 860 that is a partial area of the tooth 861. In addition, the selection region in the oral cavity image 800 may include a region 840 that is a partial region of the gum. In this case, since the reference point 810 is located on the tooth 861 of the object, it may be appropriate for the area 850 and the area 860 to be included in the selection area within the oral image 800, considering that the area selected by the user may be limited to the tooth. On the other hand, considering that the reference point 810 selected by the user through the user input unit 350 is located on the tooth 861, so that the area selected by the user may be limited to the tooth, the area 840, which is a part of the gum, is the selected area in the oral image 800 It may be more appropriate not to include

이때, 본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 브러시의 종류를 3차원 브러시로 변경할 수 있다. 구강 이미지 처리 장치 300는 사용자에게 더 적합한 구강 이미지 내의 선택 영역을 식별하고, 디스플레이부 310에 표시할 수 있다. 여기서, 구강 이미지 처리 장치 300는 브러시의 종류를 3차원 브러시로 변경하는 동작은 브러시의 종류를 3차원 브러시로 변경할 것을 제안하는 동작을 포함할 수도 있다. 따라서, 구강 이미지 처리 장치 300가 브러시의 종류를 3차원 브러시로 변경함에 따라, 구강 이미지 800 내의 변경된 영역은 잇몸 중 일부 영역인 영역 840을 포함하지 않을 수 있다. 구강 이미지 처리 장치 300는 사용자에게 구강 이미지 800내의 변경된 선택 영역을 제공할 수 있다.In this case, the oral image processing apparatus 300 according to an embodiment of the present disclosure may change the type of brush to a three-dimensional brush. The oral image processing apparatus 300 may identify a selection region in the oral cavity image more suitable for the user and display it on the display unit 310 . Here, the operation of changing the type of the brush to the 3D brush by the oral image processing apparatus 300 may include an operation of suggesting to change the type of the brush to the 3D brush. Accordingly, as the oral image processing apparatus 300 changes the type of brush to a three-dimensional brush, the changed region in the oral cavity image 800 may not include the region 840, which is a partial region of the gums. The oral cavity image processing apparatus 300 may provide the user with a changed selection area within the oral cavity image 800 .

도 9는 브러시가 3차원 브러시인 경우, 구강 이미지 내의 선택 영역을 식별하는 동작을 설명하기 위한 참고도이다.9 is a reference diagram for explaining an operation of identifying a selection region in an oral image when the brush is a three-dimensional brush.

도 9를 참고하면, 구강 이미지 900의 3차원 브러시 920에 따라 구강 이미지 900 내의 선택 영역 930을 식별하는 실시예를 도시하고 있다.Referring to FIG. 9 , an embodiment of identifying a selection region 930 in the oral cavity image 900 according to the three-dimensional brush 920 of the oral cavity image 900 is illustrated.

본 개시의 실시예에 따른 디스플레이부 310에 표시된 구강 이미지 900는 치아 911 및 치아 912를 포함하는 치아 및 잇몸 등의 대상체를 포함할 수 있다. 구강 이미지 처리 장치 300는 사용자의 입력에 따라 구강 이미지 900의 기준 포인트를 결정할 수 있다. 도 9를 참조하면, 구강 이미지 처리 장치 300는 사용자의 입력에 따라 구강 이미지 900의 기준 포인트 910을 결정할 수 있다. 구체적으로 기준 포인트 910는 대상체 중 치아 911의 표면에 위치한 포인트에 해당될 수 있다.The oral image 900 displayed on the display unit 310 according to an embodiment of the present disclosure may include teeth including teeth 911 and teeth 912 and objects such as gums. The oral cavity image processing apparatus 300 may determine a reference point of the oral cavity image 900 according to a user's input. Referring to FIG. 9 , the oral cavity image processing apparatus 300 may determine a reference point 910 of the oral cavity image 900 according to a user input. Specifically, the reference point 910 may correspond to a point located on the surface of the tooth 911 among the objects.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 구강 이미지 900의 기준 포인트 910 및 적어도 하나의 거리 정보에 기초하여, 3차원 브러시 920를 결정할 수 있다. 도 9을 참조하면, 구강 이미지 처리 장치 300는 적어도 하나의 거리 정보에 기초하여 3차원 브러시 920의 반경을 결정할 수 있다. 따라서, 구강 이미지 처리 장치 300는 기준 포인트 910을 구의 중심으로 하고 적어도 하나의 거리 정보에 기초하여 3차원 브러시 920의 반경을 결정함으로써, 3차원 브러시 920을 식별할 수 있다.The oral cavity image processing apparatus 300 according to an embodiment of the present disclosure may determine the 3D brush 920 based on the reference point 910 of the oral cavity image 900 and at least one piece of distance information. Referring to FIG. 9 , the oral image processing apparatus 300 may determine a radius of the 3D brush 920 based on at least one piece of distance information. Accordingly, the oral image processing apparatus 300 may identify the 3D brush 920 by setting the reference point 910 as the center of the sphere and determining the radius of the 3D brush 920 based on at least one piece of distance information.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 3차원 브러시 920에 의해 정해지는 영역에 위치한 복수 개의 포인트에 대한 위치 정보 및 구강 이미지 900의 복수 개의 포인트에 대한 위치 정보에 기초하여, 구강 이미지 내의 선택 영역 930을 식별할 수 있다. 예를 들어, 구강 이미지 처리 장치 300는 3차원 브러시 920에 의해 정해지는 영역과 구강 이미지 900가 중첩되는 적어도 하나의 경계를 식별하고, 식별된 적어도 하나의 경계에 기초하여 선택 영역 930을 식별할 수 있다. 브러시 920에 의해 정해지는 영역은 브러시 920의 표면 영역을 의미할 수 있다. 선택 영역 930은 치아 911 및 치아 912의 표면의 굴곡진 부분까지 미세하게 표현된 영역에 해당될 수 있다. 또한, 구강 이미지 처리 장치 300는 선택 영역 930의 적어도 하나의 경계를 기 설정된 색상으로 표시하고, 적어도 하나의 경계를 제외한 선택 영역 930의 영역을 치아 911의 색상 및 치아 912의 색상과 기 설정된 색상을 중첩 또는 블렌딩하여 표시할 수 있다. 따라서, 구강 이미지 처리 장치 300는 디스플레이부 310를 통해 선택 영역 930을 표시함으로써, 구강 이미지 900의 사용자가 선택한 영역을 강조할 수 있다.The oral image processing apparatus 300 according to an embodiment of the present disclosure is based on the position information on the plurality of points located in the area determined by the three-dimensional brush 920 and the position information on the plurality of points of the oral image 900, within the oral image. The selection area 930 may be identified. For example, the oral image processing apparatus 300 may identify at least one boundary where the region defined by the three-dimensional brush 920 and the oral image 900 overlap, and identify the selection region 930 based on the identified at least one boundary. have. The area defined by the brush 920 may mean a surface area of the brush 920 . The selection area 930 may correspond to an area in which up to the curved portions of the surfaces of the teeth 911 and 912 are expressed in detail. In addition, the oral image processing apparatus 300 displays at least one boundary of the selection area 930 with a preset color, and sets the color of the tooth 911 and the color of the tooth 912 and the preset color for the area of the selection area 930 except for the at least one boundary. It can be displayed by overlapping or blending. Accordingly, the oral image processing apparatus 300 may display the selection area 930 through the display unit 310 to highlight the area selected by the user of the oral cavity image 900 .

도 10은 구강 이미지의 선택 영역의 적어도 하나의 경계를 식별하는 동작을 설명하기 위한 참고도이다.10 is a reference diagram for explaining an operation of identifying at least one boundary of a selection region of an oral cavity image.

도 10을 참고하면, 구강 이미지 1000로부터, 선택 영역 1030의 적어도 하나의 경계 1020을 식별하는 실시예를 도시하고 있다.Referring to FIG. 10 , an embodiment of identifying at least one boundary 1020 of a selection area 1030 from an oral image 1000 is illustrated.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 대상체인 치아 1070 표면에 위치한 복수 개의 포인트 중 기준 포인트 1010을 식별할 수 있다. 구강 이미지 처리 장치 300는 기준 포인트 1010 및 적어도 하나의 거리 정보에 기초하여 결정된 반경에 따라, 3차원 브러시를 결정할 수 있다. 이에 따라, 구강 이미지 처리 장치 300는 결정된 3차원 브러시와 구강 이미지 1000의 치아 1070가 중첩되는 적어도 하나의 경계 1020을 식별할 수 있고, 적어도 하나의 경계 1020에 기초하여 선택 영역 1030을 결정할 수 있다.The oral image processing apparatus 300 according to an embodiment of the present disclosure may identify a reference point 1010 from among a plurality of points located on the surface of a tooth 1070 that is an object. The oral image processing apparatus 300 may determine a 3D brush according to a radius determined based on the reference point 1010 and at least one piece of distance information. Accordingly, the oral image processing apparatus 300 may identify at least one boundary 1020 in which the determined 3D brush and the tooth 1070 of the oral image 1000 overlap, and may determine the selection area 1030 based on the at least one boundary 1020.

예를 들어, 적어도 하나의 경계 1020는 기준 포인트 1010으로부터 기 설정된 반경만큼 떨어진 포인트들을 포함할 수 있다. 도 10을 참조하면, 포인트 1040 및 기준 포인트 1010 간의 거리는 기 설정된 반경 r과 일치할 수 있다. 이와 비슷하게, 구강 이미지 1000 표면에 위치한 복수 개의 포인트 중 기준 포인트 1010 간의 거리가 기 설정된 r과 일치하는 복수 개의 포인트들은 적어도 하나의 경계 1020에 포함될 수 있다.For example, the at least one boundary 1020 may include points separated from the reference point 1010 by a preset radius. Referring to FIG. 10 , a distance between a point 1040 and a reference point 1010 may coincide with a preset radius r. Similarly, among a plurality of points located on the surface of the oral cavity image 1000, a plurality of points in which a distance between the reference points 1010 coincides with a preset r may be included in at least one boundary 1020.

또한, 도 10을 참조하면, 적어도 하나의 경계 1020 밖에 위치한 복수 개의 포인트는 기준 포인트 1010와의 거리가 기 설정된 r보다 큰 점들을 의미할 수 있다. 예를 들어, 치아 1070 옆에 위치한 치아 1080의 위치한 포인트 1050와 기준 포인트 1010 간의 거리는 기 설정된 r보다 클 수 있다. 따라서, 포인트 1050은 선택 영역 1030 밖에 위치한 포인트일 수 있다. 적어도 하나의 경계 1020 안에 위치한 복수 개의 포인트는 기준 포인트 1010와의 거리가 기 설정된 r보다 작은 점들을 의미할 수 있다. 도 10을 참조하면, 포인트 1060과 기준 포인트 1010 간의 거리는 기 설정된 r보다 작을 수 있다. 따라서, 포인트 1060은 선택 영역 1030 안에 위치한 포인트일 수 있다.Also, referring to FIG. 10 , a plurality of points located outside the at least one boundary 1020 may mean points having a distance from the reference point 1010 greater than a preset r. For example, the distance between the reference point 1010 and the point 1050 of the tooth 1080 located next to the tooth 1070 may be greater than a preset r. Accordingly, the point 1050 may be a point located outside the selection area 1030 . A plurality of points located within at least one boundary 1020 may mean points having a distance from the reference point 1010 smaller than a preset r. Referring to FIG. 10 , a distance between a point 1060 and a reference point 1010 may be smaller than a preset r. Accordingly, the point 1060 may be a point located within the selection area 1030 .

구강 이미지 처리 장치 300는 구강 이미지 1000의 표면에 위치한 복수 개의 포인트 중 기준 포인트 1010와 기 설정된 반경 r만큼 떨어진 복수 개의 포인트들을 기 설정된 색상으로 출력할 수 있다. 구체적으로, 도 10을 참고하면, 구강 이미지 처리 장치 300는 구강 이미지 1000의 표면에 위치한 복수 개의 포인트 중 기준 포인트 1010와 기 설정된 반경인 r보다 가까운 복수 개의 포인트들을 치아 1070의 색상과 기 설정된 색상을 블렌딩(blending)함으로써, 반투명하게 출력할 수 있다.The oral image processing apparatus 300 may output a plurality of points separated by a preset radius r from the reference point 1010 among a plurality of points located on the surface of the oral cavity image 1000 in a preset color. Specifically, referring to FIG. 10 , the oral image processing apparatus 300 selects a plurality of points closer than a reference point 1010 and a preset radius r among a plurality of points located on the surface of the oral image 1000 to the color of the tooth 1070 and the preset color. By blending, it is possible to output translucently.

도 11은 기준 포인트의 위치 정보에 기초하여, 구강 이미지의 적어도 하나의 오브젝트를 식별하는 실시예를 설명하기 위한 참고도이다.11 is a reference diagram for explaining an embodiment of identifying at least one object of an oral cavity image based on location information of a reference point.

구강 이미지 1100의 적어도 하나의 오브젝트를 식별하는 실시예로, 구강 이미지 처리 장치 300는 기준 포인트 1110에 대한 위치 정보에 대응되는 색상 정보에 따라, 구강 이미지 1100의 적어도 하나의 오브젝트를 식별할 수 있다. 예를 들어, 치아 및 잇몸 등 구강 이미지 1100에 포함되는 복수 개의 대상체들은 대상체의 종류에 따라 상이한 색상 정보를 가지고 있을 수 있고, 이러한 색상 정보는 위치정보와 함께 구강 이미지 1100의 위치한 복수 개의 포인트에 대한 포인트 클라우드 형태로 메모리 320에 저장되어 있을 수 있다.As an embodiment of identifying at least one object of the oral cavity image 1100, the oral cavity image processing apparatus 300 may identify the at least one object of the oral cavity image 1100 according to color information corresponding to the position information for the reference point 1110. For example, a plurality of objects included in the oral image 1100, such as teeth and gums, may have different color information according to the type of the object, and such color information may be related to a plurality of points located in the oral image 1100 together with location information. It may be stored in the memory 320 in the form of a point cloud.

도 11을 참조하면, 구강 이미지 처리 장치 300는 기준 포인트 1110의 색상 정보에 기초하여, 기준 포인트 1110가 위치한 대상체가 치아 1105라는 점을 식별할 수 있다. 또한, 구강 이미지 처리 장치 300는 치아 1105의 색상 정보 및 다른 대상체에 대한 색상 정보에 기초하여, 기준 포인트 1110가 위치한 대상체의 적어도 하나의 경계 1130을 식별할 수 있다. 다만, 이에 한정되는 것은 아니고, 구강 이미지 처리 장치 300는 위치 정보에 따라 구강 이미지 1100의 포인트 간의 굴곡 정보를 식별하고, 기준 포인트 1110가 위치한 대상체가 치아 1105라는 점을 식별할 수 있다.Referring to FIG. 11 , the oral image processing apparatus 300 may identify that the object on which the reference point 1110 is located is a tooth 1105 based on color information of the reference point 1110 . Also, the oral image processing apparatus 300 may identify at least one boundary 1130 of the object on which the reference point 1110 is located, based on the color information of the tooth 1105 and the color information of the other object. However, the present invention is not limited thereto, and the oral image processing apparatus 300 may identify curvature information between points of the oral image 1100 according to the position information, and identify that the object in which the reference point 1110 is located is the tooth 1105.

도 12는 도 11에 이어, 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여 선택 영역을 식별하는 실시예 및 식별된 적어도 하나의 오브젝트에 따라 상이한 색상으로 선택 영역을 표시하는 실시예를 설명하기 위한 참고도이다.FIG. 12 is a diagram for explaining an embodiment in which a selection region is further identified based on the region of at least one identified object and an embodiment in which a selection region is displayed with a different color according to the identified at least one object, following FIG. 11 . It is also a reference.

구강 이미지 처리 장치 300는 도 11에서 식별된 적어도 하나의 오브젝트에 기초하여, 다양한 실시예에 따라 구강 이미지 내의 선택 영역을 표시할 수 있다.The oral cavity image processing apparatus 300 may display a selection region in the oral cavity image according to various embodiments, based on the at least one object identified in FIG. 11 .

도 12를 참조하면, 구강 이미지 처리 장치 300는 구강 이미지 1200의 식별된 적어도 하나의 오브젝트에 더 기초하여, 구강 이미지 1200의 선택 영역 1210을 식별할 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 브러시 1230의 복수 개의 포인트에 대한 위치정보, 구강 이미지 1200의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지 1200의 식별된 적어도 하나의 오브젝트에 따라, 구강 이미지 1200의 선택 영역 1210을 식별할 수 있다. 식별된 적어도 하나의 오브젝트도 고려하여, 선택 영역 1210을 식별하는 바, 선택 영역 1210의 일부 경계는 대상체인 치아 1220와 잇몸 사이의 경계에 대응될 수 있다.Referring to FIG. 12 , the oral cavity image processing apparatus 300 may further identify the selection area 1210 of the oral cavity image 1200 based on at least one identified object of the oral cavity image 1200 . Specifically, the oral image processing apparatus 300 selects the oral image 1200 according to the position information on the plurality of points of the brush 1230, the position information on the plurality of points of the oral image 1200, and the identified at least one object of the oral image 1200 Region 1210 may be identified. The selection area 1210 is identified in consideration of at least one identified object, and a partial boundary of the selection area 1210 may correspond to a boundary between the tooth 1220, which is the object, and the gum.

따라서, 구강 이미지 처리 장치 300는 치아 1220와 잇몸 사이의 경계도 함께 고려하여 식별된 선택 영역 1210을 디스플레이부 310에 표시함으로써, 더 적합한 선택 영역을 사용자에게 제공할 수 있다.Accordingly, the oral image processing apparatus 300 may provide a more suitable selection area to the user by displaying the identified selection area 1210 on the display unit 310 in consideration of the boundary between the tooth 1220 and the gum.

구강 이미지 내의 선택 영역을 표시하는 다른 실시예로, 도 12를 참조하면, 구강 이미지 처리 장치 300는 구강 이미지 1250의 식별된 적어도 하나의 대상체에 따라 상이한 색상으로 선택 영역을 표시할 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 브러시 1260에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지 1250의 복수 개의 포인트에 대한 위치 정보에 기초하여, 선택 영역을 식별할 수 있다. 또한, 구강 이미지 처리 장치 300는 선택 영역에 포함되는 적어도 하나의 대상체에 따라 상이한 색상으로 선택 영역을 표시할 수 있다. 예를 들어, 도 12에서 볼 수 있듯이, 구강 이미지 처리 장치 300는 구강 이미지 내의 선택 영역 중 치아 1290에 해당되는 영역 1270은 제1 색상으로 표시할 수 있고, 구강 이미지 처리 장치 300는 구강 이미지 내의 영역 중 잇몸 1295에 해당되는 영역 1280은 제2 색상으로 표시할 수 있다. 즉, 구강 이미지 처리 장치 300는 치아 1290 및 잇몸 1295 사이의 경계를 기준으로 영역 1270 및 영역 1280을 다른 색상으로 표시할 수 있다.As another embodiment of displaying the selection region in the oral cavity image, referring to FIG. 12 , the oral cavity image processing apparatus 300 may display the selection region in different colors according to at least one identified object of the oral cavity image 1250 . Specifically, the oral cavity image processing apparatus 300 may identify the selection region based on position information on a plurality of points in the region determined by the brush 1260 and position information on a plurality of points in the oral cavity image 1250 . Also, the oral image processing apparatus 300 may display the selection area in different colors according to at least one object included in the selection area. For example, as shown in FIG. 12 , the oral image processing apparatus 300 may display the area 1270 corresponding to the tooth 1290 among the selected areas in the oral image with a first color, and the oral image processing apparatus 300 may display the area in the oral image. The area 1280 corresponding to the middle gum 1295 may be displayed in the second color. That is, the oral image processing apparatus 300 may display the area 1270 and the area 1280 in different colors based on the boundary between the tooth 1290 and the gum 1295 .

따라서, 구강 이미지 처리 장치 300는 치아 1290 및 잇몸 1295 사이의 경계를 함께 고려하여 구강 이미지 내의 영역을 디스플레이부 310에 표시함으로써, 더 적합한 선택 영역을 사용자에게 제공할 수 있다.Accordingly, the oral image processing apparatus 300 may provide a more suitable selection region to the user by displaying the region in the oral cavity image on the display unit 310 in consideration of the boundary between the tooth 1290 and the gum 1295 together.

도 13은 기준 포인트의 위치 정보에 기초하여, 구강 이미지의 적어도 하나의 오브젝트를 식별하는 예를 설명하기 위한 참고도이다.13 is a reference diagram for explaining an example of identifying at least one object of an oral cavity image based on location information of a reference point.

구강 이미지 1300의 적어도 하나의 오브젝트를 식별하는 실시예로, 구강 이미지 처리 장치 300는 기준 포인트 1310에 대한 위치 정보에 대응되는 색상 정보에 따라, 구강 이미지 1300의 적어도 하나의 오브젝트를 식별할 수 있다. 구강 이미지 처리 장치 300는 기준 포인트 1310에서의 색상 정보에 기초하여, 기준 포인트 1310가 위치한 대상체가 잇몸 1320이라는 점을 식별할 수 있다. 또한, 구강 이미지 처리 장치 300는 잇몸 1320의 색상 정보 및 다른 대상체 (예를 들어, 치아 1330 및 치아 1340)에 대한 색상 정보에 기초하여, 기준 포인트 1310가 위치한 대상체의 적어도 하나의 경계를 식별할 수 있다. 구체적으로 적어도 하나의 경계는 치아 1330, 치아 1340과 잇몸 1320 사이의 경계를 의미할 수 있다.As an embodiment of identifying at least one object of the oral cavity image 1300, the oral cavity image processing apparatus 300 may identify the at least one object of the oral cavity image 1300 according to color information corresponding to the position information for the reference point 1310. The oral image processing apparatus 300 may identify that the object on which the reference point 1310 is located is the gum 1320 based on the color information on the reference point 1310 . Also, the oral image processing apparatus 300 may identify at least one boundary of the object on which the reference point 1310 is located, based on the color information of the gum 1320 and the color information on other objects (eg, teeth 1330 and 1340). have. In more detail, the at least one boundary may mean a boundary between the teeth 1330 , 1340 , and the gum 1320 .

도 14는 도 13에 이어, 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여 선택 영역을 식별하는 실시예 및 식별된 적어도 하나의 오브젝트에 따라 상이한 색상으로 선택 영역을 표시하는 실시예를 설명하기 위한 참고도이다.14 is a diagram for explaining an embodiment in which a selection region is further identified based on the region of at least one identified object and an embodiment in which a selection region is displayed with a different color according to the identified at least one object, following FIG. 13 . It is also a reference.

구강 이미지 처리 장치 300는 도 13에서 식별된 적어도 하나의 오브젝트에 기초하여, 다양한 실시예에 따라 구강 이미지 내의 선택 영역을 표시할 수 있다.The oral cavity image processing apparatus 300 may display a selection region in the oral cavity image according to various embodiments, based on the at least one object identified in FIG. 13 .

구강 이미지 내의 선택 영역을 표시하는 실시예로, 도 14를 참조하면, 구강 이미지 처리 장치 300는 구강 이미지 1400의 식별된 적어도 하나의 오브젝트에 더 기초하여, 구강 이미지 1400의 선택 영역 1420을 식별할 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 브러시 1410에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치정보, 구강 이미지 1400의 복수 개의 포인트에 대한 위치 정보 및 구강 이미지 1400의 식별된 적어도 하나의 오브젝트에 따라, 구강 이미지 1400의 선택 영역 1420을 식별할 수 있다. 도 14에서 볼 수 있듯이, 선택 영역 1420의 일부 경계는 대상체인 치아(치아 1430 및 치아 1431을 포함할 수 있다) 및 잇몸 1432간의 경계에 대응될 수 있다. 또한, 선택 영역 1420은 구강 이미지의 포인트 데이터가 존재하지 않는 영역은 포함하지 않을 수 있다.As an embodiment of displaying the selection region in the oral cavity image, referring to FIG. 14 , the oral image processing apparatus 300 may further identify the selection region 1420 of the oral cavity image 1400 based on at least one identified object of the oral cavity image 1400 have. Specifically, the oral image processing device 300 according to the position information for a plurality of points in the area determined by the brush 1410, the position information for the plurality of points of the oral image 1400 and the identified at least one object of the oral image 1400, A selection region 1420 of the oral image 1400 may be identified. 14 , a partial boundary of the selection area 1420 may correspond to a boundary between a tooth (it may include a tooth 1430 and a tooth 1431) and a gum 1432 as an object. Also, the selection area 1420 may not include an area in which point data of the oral cavity image does not exist.

따라서, 구강 이미지 처리 장치 300는 치아(치아 1430 및 치아 1431을 포함할 수 있다) 및 잇몸 1432간의 경계도 함께 고려하여 식별된 선택 영역 1420을 디스플레이부 310에 표시함으로써, 사용자의 입력에 따라 더 적합한 선택 영역을 제공할 수 있다. 예를 들어, 구강 이미지 처리 장치 300는 잇몸 1432에 대응되는 부분만을 강조하여 선택 영역 1420을 디스플레이부 310에 표시할 수 있다.Accordingly, the oral image processing apparatus 300 displays the identified selection area 1420 on the display unit 310 in consideration of the boundary between the teeth (which may include the teeth 1430 and 1431) and the gums 1432, so that more suitable according to the user's input is provided. You can provide a selection area. For example, the oral image processing apparatus 300 may display the selection area 1420 on the display unit 310 by emphasizing only a portion corresponding to the gum 1432 .

구강 이미지 내의 선택 영역을 표시하는 다른 실시예로, 도 14를 참조하면, 구강 이미지 처리 장치 300는 구강 이미지 1450의 식별된 적어도 하나의 대상체에 따라 상이한 색상으로 선택 영역 1470을 표시할 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 브러시 1460 및 구강 이미지 1450의 복수 개의 포인트에 대한 위치 정보에 기초하여, 선택 영역 1470을 식별할 수 있다. 또한, 구강 이미지 처리 장치 300는 선택 영역 1470에 포함되는 적어도 하나의 대상체에 따라 상이한 색상으로 선택 영역 1470을 표시할 수 있다. 예를 들어, 도 14에서 볼 수 있듯이, 구강 이미지 처리 장치 300는 구강 이미지 내의 선택 영역 1470 중 치아 1491에 해당되는 영역 1481을 제1 색상으로 표시할 수 있고, 구강 이미지 처리 장치 300는 구강 이미지 내의 선택 영역 1470 중 치아 1492에 해당되는 영역 1482을 제2 색상으로 표시할 수 있으며, 구강 이미지 처리 장치 300는 구강 이미지 내의 선택 영역 1470 중 잇몸 1493에 해당되는 영역을 제3 색상으로 표시할 수 있다. 잇몸 1493에 해당되는 영역은 선택 영역 1470에서 영역 1481 및 영역 1482를 제외한 영역에 대응될 수 있다. 즉, 구강 이미지 처리 장치 300는 치아(치아 1491 및 치아 1492를 포함할 수 있다) 및 잇몸 1493간의 경계를 기준으로 영역 1480을 다른 색상으로 표시할 수 있다. 따라서, 구강 이미지 처리 장치 300는 선택 영역 1470 내의 적어도 하나의 오브젝트인 치아 1491, 치아 1492 및 잇몸 1493을 식별할 수 있고, 구강 이미지 처리 장치 300는 치아 1491, 치아 1492 및 잇몸 1493에 따라 선택 영역 1470을 상이한 색상으로 표시할 수 있다. 구강 이미지 처리 장치 300는 치아 1491, 치아 1492 및 잇몸 1493 간의 경계를 함께 고려하여 구강 이미지 내의 영역을 디스플레이부 310에 표시함으로써, 더 적합한 선택 영역을 사용자에게 제공할 수 있다.As another embodiment of displaying the selection region in the oral cavity image, referring to FIG. 14 , the oral image processing apparatus 300 may display the selection region 1470 in different colors according to at least one identified object of the oral cavity image 1450 . Specifically, the oral cavity image processing apparatus 300 may identify the selection area 1470 based on location information on a plurality of points of the brush 1460 and the oral cavity image 1450 . Also, the oral image processing apparatus 300 may display the selection area 1470 in different colors according to at least one object included in the selection area 1470 . For example, as shown in FIG. 14 , the oral image processing apparatus 300 may display the area 1481 corresponding to the tooth 1491 among the selection areas 1470 in the oral cavity image as a first color, and the oral image processing apparatus 300 may display the area 1481 in the oral cavity image. The area 1482 corresponding to the tooth 1492 among the selection areas 1470 may be displayed as a second color, and the oral image processing apparatus 300 may display the area corresponding to the gum 1493 among the selection areas 1470 in the mouth image as a third color. The area corresponding to the gum 1493 may correspond to an area other than the area 1481 and the area 1482 in the selection area 1470 . That is, the oral image processing apparatus 300 may display the area 1480 in a different color based on the boundary between the teeth (it may include the teeth 1491 and 1492) and the gums 1493 . Accordingly, the oral image processing apparatus 300 may identify the tooth 1491 , the tooth 1492 , and the gum 1493 which are at least one object within the selection area 1470 , and the oral image processing apparatus 300 determines the selection area 1470 according to the teeth 1491 , the tooth 1492 , and the gum 1493 . can be displayed in different colors. The oral image processing apparatus 300 may provide a more suitable selection region to the user by displaying the region within the oral cavity image on the display unit 310 in consideration of the boundary between the teeth 1491, 1492, and the gum 1493 together.

도 15는 3차원 브러시에 기초하여 선택 영역을 식별하는 경우, 구강 이미지에서 선택 영역을 표시하는 실시예를 설명하기 위한 참고도이다.15 is a reference diagram for explaining an embodiment of displaying a selection region in an oral image when a selection region is identified based on a three-dimensional brush.

도 15을 참고하면, 구강 이미지 처리 장치 300에 의해 구강 이미지에서 선택 영역을 표시하는 실시예를 도시하고 있다.Referring to FIG. 15 , an embodiment of displaying a selection area in an oral image by the oral image processing apparatus 300 is illustrated.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 구강 이미지의 기준 포인트 및 복수 개의 포인트에 대한 위치 정보에 따라 선택 영역을 식별하고, 구강 이미지에서 선택 영역을 표시할 수 있다. 예를 들어, 도 15를 참조하면, 구강 이미지 처리 장치 300는 구강 이미지 1500의 기준 포인트 1510를 식별할 수 있다. 브러시가 구인 경우, 구강 이미지 처리 장치 300는 기준 포인트 1510와 기 설정된 거리에 기초하여 3차원 브러시인 구 1520를 식별할 수 있다. 구강 이미지 1500는 치아의 전면부에 대응되는 구강 이미지인 바, 사용자는 치아 1520의 후면부, 치아 1522의 후면부와 3차원 브러시인 구 1520가 중첩되는지 여부를 명확하게 식별하지 못할 수 있다.The oral cavity image processing apparatus 300 according to an embodiment of the present disclosure may identify a selection region according to a reference point of the oral cavity image and location information for a plurality of points, and display the selection region in the oral cavity image. For example, referring to FIG. 15 , the oral cavity image processing apparatus 300 may identify a reference point 1510 of the oral cavity image 1500 . When the brush is a sphere, the oral image processing apparatus 300 may identify the sphere 1520, which is a three-dimensional brush, based on the reference point 1510 and a preset distance. Since the oral image 1500 is an oral image corresponding to the front part of the tooth, the user may not be able to clearly identify whether the rear part of the tooth 1520 and the rear part of the tooth 1522 and the three-dimensional brush sphere 1520 overlap.

구강 이미지 1550는 구강 이미지 1500의 치아 1520의 후면부, 치아 1522의 후면부와 3차원 브러시인 구 1520가 중첩되는지 여부를 명확하게 식별할 수 있는 이미지일 수 있다.The oral image 1550 may be an image that can clearly identify whether the rear portion of the tooth 1520 and the rear portion of the tooth 1522 of the oral image 1500 overlap with the sphere 1520, which is a three-dimensional brush.

본 개시의 실시예에 따른 구강 이미지 처리 장치 300는 구강 이미지 1550의 기준 포인트 및 복수 개의 포인트에 대한 위치 정보에 따라 선택 영역 1570을 식별하고, 구강 이미지의 선택 영역 1570을 표시할 수 있다. 예를 들어, 선택 영역 1570의 경계에는 점 A 1530 및 점 B 1540가 포함될 수 있다. 구체적으로, 구강 이미지 1550의 치아 1521에 위치한 점 A 1530 및 치아 1522에 위치한 점 B 1540는 각각의 치아의 전면부의 가장 상단에 위치한 점일 수 있다. 따라서, 치아 1521, 치아 1522의 후면부에 위치한 서브 영역 1560 및 서브 영역 1560에 대응되는 경계 1580는 전면에서는 관찰되지 않는 치아의 영역일 수 있다. 따라서, 구강 이미지 1550을 통해, 구강 이미지 처리 장치 300는 치아 1521, 치아 1522의 후면부에 위치한 서브 영역 1560이 3차원 브러시인 구 1520에 의해 결정된 구강 이미지 1550 내의 선택 영역 1570에 포함되는 것을 명확하게 식별할 수 있다. 따라서, 3차원 브러시의 일 예인 구 1520을 통해, 구강 이미지 내의 선택 영역을 식별함으로써, 사용자는 치아의 전면부에서 명확하게 관찰되지 않는 영역인 서브 영역 1560도 구강 이미지 내의 선택 영역 1570의 일부로 식별할 수 있다.The oral cavity image processing apparatus 300 according to an embodiment of the present disclosure may identify the selection area 1570 according to the reference point of the oral cavity image 1550 and location information on a plurality of points, and display the selection area 1570 of the oral cavity image. For example, a boundary of the selection area 1570 may include a point A 1530 and a point B 1540 . Specifically, a point A 1530 located on the tooth 1521 of the oral cavity image 1550 and a point B 1540 located on the tooth 1522 may be points located at the top of the front portion of each tooth. Accordingly, the tooth 1521, the sub-region 1560 located at the rear portion of the tooth 1522, and the boundary 1580 corresponding to the sub-region 1560 may be a region of a tooth that is not observed from the front. Therefore, through the oral image 1550, the oral image processing apparatus 300 clearly identifies that the sub-region 1560 located on the rear part of the teeth 1521 and 1522 is included in the selection region 1570 in the oral image 1550 determined by the sphere 1520, which is the three-dimensional brush. can do. Therefore, by identifying the selected area in the oral image through the sphere 1520, which is an example of a three-dimensional brush, the user can identify the sub-region 1560, which is an area not clearly observed in the front part of the tooth, as a part of the selected area 1570 in the oral image. can

도 16은 3차원 브러시에 기초하여 식별된 영역 안에 홀이 있는 경우, 홀이 표시된 선택 영역을 디스플레이하는 실시예를 설명하기 위한 참고도이다.16 is a reference diagram for explaining an embodiment of displaying a selected area in which a hole is displayed when there is a hole in an area identified based on a three-dimensional brush.

도 16을 참조하면, 구강 이미지 처리 장치 300는 기준 포인트 1631에 따라 식별된 선택 영역 1630 내에 위치한 홀 1620을 식별할 수 있고, 구강 이미지 처리 장치 300는 선택 영역 1630에 홀 1620을 표시할 수 있다.Referring to FIG. 16 , the oral image processing apparatus 300 may identify a hole 1620 located in a selection area 1630 identified according to a reference point 1631 , and the oral image processing apparatus 300 may display the hole 1620 in the selection area 1630 .

본 개시의 실시예에 따른 구강 이미지의 홀은 치과 치료 과정에서 발생될 수 있고, 홀은 기술적인 결함에 따라 포인트 데이터가 존재하지 않는 영역을 의미할 수도 있다. 구강 이미지 처리 장치 300은 선택된 영역에 식별되면 홀을 영역에 표시하여 사용자에게 제공할 필요가 있을 수 있다.A hole in an oral image according to an embodiment of the present disclosure may be generated during a dental treatment process, and a hole may mean an area in which point data does not exist according to a technical defect. When the oral image processing apparatus 300 is identified in the selected area, it may be necessary to display the hole in the area and provide it to the user.

구강 이미지 처리 장치 300는 기준 포인트 1631의 위치 정보에 대응되는 치아 1610에 존재하는 홀 1620을 식별할 수 있다. 구체적으로, 구강 이미지 처리 장치 300는 선택 영역 1630에 위치하는 복수 개의 포인트들 중에서 포인트 데이터가 존재하지 않는 적어도 하나의 영역을 선택 영역 1630의 홀 1620로 결정할 수 있다.The oral image processing apparatus 300 may identify a hole 1620 existing in the tooth 1610 corresponding to the location information of the reference point 1631 . Specifically, the oral image processing apparatus 300 may determine at least one area in which point data does not exist among a plurality of points located in the selection area 1630 as the hole 1620 of the selection area 1630 .

따라서, 구강 이미지 처리 장치 300는 선택 영역 1630과 함께 홀 1620을 표시함으로써, 사용자에게 더 적합한 구강 이미지 1600 내의 선택 영역 1630을 표시할 수 있다.Accordingly, the oral cavity image processing apparatus 300 may display the selection area 1630 in the oral cavity image 1600 more suitable for the user by displaying the hole 1620 together with the selection area 1630 .

본 개시의 실시예에 따른 구강 이미지의 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 구강 이미지의 처리 방법을 실행하는 적어도 하나의 인스트럭션을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 저장 매체가 될 수 있다. The method of processing an oral image according to an embodiment of the present disclosure may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. In addition, an embodiment of the present disclosure may be a computer-readable storage medium in which one or more programs including at least one instruction for executing a method of processing an oral image are recorded.

본 명세서에서 실시예에 의한 방법은 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.In the method according to the embodiment herein, the device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (eg, electromagnetic wave). It does not distinguish the case where it is stored as For example, the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.

실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to the embodiment, the method according to the various embodiments disclosed in this document may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store or between two user devices (eg smartphones). It can be distributed directly or online (eg, downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product (eg, a downloadable app) is stored at least in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or a relay server. It may be temporarily stored or temporarily created.

전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present disclosure described above is for illustration, and those of ordinary skill in the art to which the present disclosure pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present disclosure. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may also be implemented in a combined form.

본 개시의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present disclosure is indicated by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present disclosure. .

Claims (11)

구강 이미지 내의 선택 영역을 식별하는 방법에 있어서,
상기 구강 이미지를 획득하는 단계;
상기 구강 이미지의 기준 포인트를 결정하는 단계;
상기 기준 포인트 및 적어도 하나의 거리 정보에 기초하여, 브러시를 결정하는 단계;
상기 구강 이미지에서 상기 브러시에 의해 정해지는 영역과 중첩되는 영역을 상기 선택 영역으로 식별하는 단계; 및
상기 구강 이미지에서 상기 선택 영역을 표시하는 단계; 를 포함하는 구강 이미지 내의 선택 영역을 식별하는 방법.
A method of identifying a selection region in an oral image comprising:
acquiring the oral image;
determining a reference point of the oral image;
determining a brush based on the reference point and at least one piece of distance information;
identifying an area overlapping the area defined by the brush in the oral image as the selection area; and
displaying the selection area in the oral image; A method of identifying a selection region in an oral image comprising:
제 1항에 있어서, 상기 선택 영역을 식별하는 단계는,
상기 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 상기 구강 이미지의 복수 개의 포인트에 대한 위치 정보에 기초하여, 상기 브러시에 의해 정해지는 영역과 상기 구강 이미지가 중첩되는 적어도 하나의 경계를 식별하는 단계; 및
상기 적어도 하나의 경계에 기초하여, 상기 선택 영역을 식별하는 단계; 를 포함하는 구강 이미지 내의 선택 영역을 식별하는 방법.
The method of claim 1, wherein identifying the selection region comprises:
Based on the location information for a plurality of points in the area defined by the brush and location information for a plurality of points of the oral image, at least one boundary where the area defined by the brush and the oral image overlap identifying; and
identifying the selection region based on the at least one boundary; A method of identifying a selection region in an oral image comprising:
제 2항에 있어서,
상기 선택 영역은 상기 적어도 하나의 경계 및 상기 식별된 적어도 하나의 경계 내에 위치한 상기 구강 이미지의 영역을 포함하는 것인, 구강 이미지 내의 선택 영역을 식별하는 방법.
3. The method of claim 2,
wherein the selection area comprises the at least one boundary and an area of the oral cavity image located within the identified at least one boundary.
제 1항에 있어서, 상기 선택 영역을 표시하는 단계는,
상기 선택 영역의 적어도 하나의 경계를 강조하여 상기 선택 영역을 표시하는 단계; 를 포함하는 구강 이미지 내의 선택 영역을 식별하는 방법.
The method of claim 1, wherein displaying the selection area comprises:
displaying the selection area by emphasizing at least one boundary of the selection area; A method of identifying a selection region in an oral image comprising:
제 4항에 있어서, 상기 선택 영역의 적어도 하나의 경계를 강조하여 상기 선택 영역을 표시하는 단계는,
상기 선택 영역의 적어도 하나의 경계를 기 설정된 색상으로 표시하고, 상기 적어도 하나의 경계 내에 위치한 상기 구강 이미지의 영역은 상기 구강 이미지의 색상 및 상기 기 설정된 색상을 중첩 또는 블렌딩하여 표시하는 단계; 를 포함하는 구강 이미지 내의 선택 영역을 식별하는 방법.
5. The method of claim 4, wherein the displaying of the selection area by emphasizing at least one boundary of the selection area comprises:
displaying at least one boundary of the selection region with a preset color, and displaying the region of the oral cavity image located within the at least one boundary by overlapping or blending the color of the oral cavity image and the preset color; A method of identifying a selection region in an oral image comprising:
제 1항에 있어서, 상기 선택 영역을 식별하는 단계는,
상기 기준 포인트의 위치 정보에 기초하여, 상기 구강 이미지의 적어도 하나의 오브젝트를 식별하는 단계; 및
상기 식별된 적어도 하나의 오브젝트의 영역에 더 기초하여, 상기 선택 영역을 식별하는 단계; 를 포함하는 구강 이미지 내의 선택 영역을 식별하는 방법.
The method of claim 1, wherein identifying the selection region comprises:
identifying at least one object of the oral cavity image based on the location information of the reference point; and
identifying the selection region further based on the region of the identified at least one object; A method of identifying a selection region in an oral image comprising:
제 1항에 있어서, 상기 선택 영역을 표시하는 단계는,
상기 선택 영역에 포함되는 상기 구강 이미지의 적어도 하나의 오브젝트를 식별하는 단계; 및
상기 적어도 하나의 오브젝트에 따라 상이한 색상으로 상기 선택 영역을 표시하는 단계; 를 포함하는 구강 이미지 내의 선택 영역을 식별하는 방법.
The method of claim 1, wherein displaying the selection area comprises:
identifying at least one object of the oral cavity image included in the selection area; and
displaying the selection area in different colors according to the at least one object; A method of identifying a selection region in an oral image comprising:
제 1항에 있어서,
상기 적어도 하나의 거리 정보는 상기 기준 포인트와 구강 이미지의 다른 포인트 간의 거리 정보를 포함하는 것인, 구강 이미지 내의 선택 영역을 식별하는 방법.
The method of claim 1,
wherein the at least one distance information includes distance information between the reference point and another point in the oral cavity image.
구강 이미지를 처리하는 장치에 있어서,
상기 구강 이미지를 표시하는 디스플레이부;
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서; 를 포함하며,
상기 적어도 하나의 프로세서는 상기 구강 이미지를 획득하고,
상기 구강 이미지의 기준 포인트를 결정하고,
상기 기준 포인트 및 적어도 하나의 거리 정보에 기초하여, 브러시를 결정하고,
상기 구강 이미지에서 상기 브러시에 의해 정해지는 영역과 중첩되는 영역을 선택 영역으로 식별하고, 및
상기 구강 이미지에서 상기 선택 영역을 표시하도록 상기 디스플레이부를 제어하는, 구강 이미지를 처리하는 장치.
In the apparatus for processing an oral image,
a display unit for displaying the oral image;
a memory storing one or more instructions; and
at least one processor executing the one or more instructions; includes,
The at least one processor acquires the oral image,
determining a reference point of the oral image;
determine a brush based on the reference point and the at least one distance information;
Identifying an area overlapping the area defined by the brush in the oral image as a selection area, and
An apparatus for processing an oral cavity image, which controls the display unit to display the selection region in the oral cavity image.
제 9항에 있어서,
상기 프로세서는 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 브러시에 의해 정해지는 영역의 복수 개의 포인트에 대한 위치 정보 및 상기 구강 이미지의 복수 개의 포인트에 대한 위치 정보에 기초하여, 상기 브러시에 의해 정해지는 영역과 상기 구강 이미지가 중첩되는 적어도 하나의 경계를 식별하고, 및
상기 적어도 하나의 경계에 기초하여, 상기 선택 영역을 식별하는, 구강 이미지를 처리하는 장치.
10. The method of claim 9,
The processor executes the one or more instructions stored in the memory,
Based on the location information for a plurality of points in the area defined by the brush and location information for a plurality of points of the oral image, at least one boundary where the area defined by the brush and the oral image overlap identify, and
identifying the selection region based on the at least one boundary.
제1항 내지 제8항 중 어느 한 항의 방법을 컴퓨터에서 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체. A computer-readable recording medium in which a program for performing the method of any one of claims 1 to 8 on a computer is recorded.
KR1020220030315A 2021-03-11 2022-03-10 Device and method for identifying selection region in intraoral image KR20220127764A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP22767561.8A EP4307240A1 (en) 2021-03-11 2022-03-11 Method for identifying selection area in oral image and device therefor
CN202280020214.8A CN116964639A (en) 2021-03-11 2022-03-11 Method of identifying selected regions within an oral image and apparatus therefor
PCT/KR2022/003459 WO2022191665A1 (en) 2021-03-11 2022-03-11 Method for identifying selection area in oral image and device therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210031871 2021-03-11
KR1020210031871 2021-03-11

Publications (1)

Publication Number Publication Date
KR20220127764A true KR20220127764A (en) 2022-09-20

Family

ID=83446460

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220030315A KR20220127764A (en) 2021-03-11 2022-03-10 Device and method for identifying selection region in intraoral image

Country Status (1)

Country Link
KR (1) KR20220127764A (en)

Similar Documents

Publication Publication Date Title
US11704876B2 (en) Mobile device for viewing of dental treatment outcomes
US20230337898A1 (en) Oral image processing method, oral diagnostic device for performing operation according thereto, and computer-readable storage medium in which program for performing method is stored
US20230386119A1 (en) Oral image processing device and oral image processing method
KR20220127764A (en) Device and method for identifying selection region in intraoral image
US20230390032A1 (en) Method for determining object area from three-dimensional model, and three-dimensional model processing device
KR102534778B1 (en) Method and apparatus for obtaining three dimensional data and computer readable medium storing a program for performing the same method
KR20220059908A (en) A data processing apparatus, a data processing method
US20240161278A1 (en) Method for identifying selection area in oral image and device therefor
EP4307240A1 (en) Method for identifying selection area in oral image and device therefor
CN116964639A (en) Method of identifying selected regions within an oral image and apparatus therefor
EP4364692A1 (en) Intraoral image processing device and intraoral image processing method
KR20230002049A (en) An intraoral image processing apparatus and an intraoral image processing method
US20230306554A1 (en) Oral image processing device and oral image processing method
KR102605094B1 (en) A data processing apparatus, a data processing method
EP4321128A1 (en) Data processing device, scanner, and method for operating same
KR102591976B1 (en) Method for providing margin line information for oral cavity and electronic apparatus performing the same method
US20230401804A1 (en) Data processing device and data processing method
KR102493440B1 (en) Method for determining region of object from three dimensional model and apparatus for processing three dimensional model
EP4318306A1 (en) Data processing device and data processing method
US20220343528A1 (en) Intraoral image processing apparatus, and intraoral image processing method
KR20230007909A (en) Method for adding text on three dimensional model and apparatus for processing three dimensional model
KR20220145598A (en) An intraoral image processing apparatus, an intraoral image processing method
KR20230029554A (en) An image processing apparatus, and an image processing method
KR20230054605A (en) An intraoral image processing apparatus, and an intraoral image processing method
KR20230014628A (en) An image processing apparatus, and an image processing method