KR20230134828A - Method and apparatus for supporting editing of 3d tooth model - Google Patents

Method and apparatus for supporting editing of 3d tooth model Download PDF

Info

Publication number
KR20230134828A
KR20230134828A KR1020220032102A KR20220032102A KR20230134828A KR 20230134828 A KR20230134828 A KR 20230134828A KR 1020220032102 A KR1020220032102 A KR 1020220032102A KR 20220032102 A KR20220032102 A KR 20220032102A KR 20230134828 A KR20230134828 A KR 20230134828A
Authority
KR
South Korea
Prior art keywords
area
masking
tooth model
cross
edit
Prior art date
Application number
KR1020220032102A
Other languages
Korean (ko)
Inventor
주원형
김종문
박수희
최규옥
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Priority to KR1020220032102A priority Critical patent/KR20230134828A/en
Publication of KR20230134828A publication Critical patent/KR20230134828A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Abstract

3차원 치아 모델 편집 지원 방법 및 장치를 제공한다. 일 실시예에 따른 편집 지원 방법은, 3차원 치아 모델에 포함된 단면 영상의 마스킹 영역을 그래픽 요소를 이용하여 마스킹 처리하는 단계와, 상기 마스킹 영역의 외곽선에 복수의 영역 조절 핸들을 표출하는 단계와, 상기 복수의 영역 조절 핸들 중에서 하나 이상의 영역 조절 핸들에 대한 이동 입력을 사용자로부터 수신하는 단계와, 상기 하나 이상의 영역 조절 핸들의 이동 입력에 근거하여, 상기 마스킹 영역을 변경하는 단계를 포함할 수 있다. Provides a method and device for supporting 3D tooth model editing. An editing support method according to an embodiment includes the steps of masking a masking area of a cross-sectional image included in a 3D tooth model using a graphic element, displaying a plurality of area control handles on the outline of the masking area, and , receiving a movement input for one or more area control handles among the plurality of area control handles from the user, and changing the masking area based on the movement input for the one or more area control handles. .

Description

3차원 치아 모델 편집 방법 및 장치{METHOD AND APPARATUS FOR SUPPORTING EDITING OF 3D TOOTH MODEL}3D tooth model editing method and device {METHOD AND APPARATUS FOR SUPPORTING EDITING OF 3D TOOTH MODEL}

본 발명은 3차원 치아 모델 편집 방법에 관한 것이다. 보다 자세하게는 3차원 치아 모델의 편집 작업을 편리하게 지원할 수 있는 편집 방법 및 장치에 관한 것이다. The present invention relates to a method of editing a 3D tooth model. More specifically, it relates to an editing method and device that can conveniently support editing of a 3D tooth model.

디지털 덴티스트리는 환자의 구강 관련 정보를 디지털화하여 분석하는 것을 의미한다. 디지털 덴티스트리를 활용하여 치과 교정을 위한 치료 계획을 수립할 경우, 현재의 치아 상태보다 개선된 치아 배열을 안정적이고 편리하게 예측할 수 있다. 또한, 디지털 덴티스트리 환경에서 제공되는 치아 모형을 이용하는 경우, 3차원 방향으로 치아를 자유롭게 볼 수 있어, 다양한 치료 계획을 수립할 수 있다.Digital dentistry refers to digitizing and analyzing a patient's oral information. When establishing a treatment plan for orthodontic treatment using digital dentistry, an improved tooth arrangement can be reliably and conveniently predicted compared to the current dental condition. Additionally, when using a tooth model provided in a digital dentistry environment, teeth can be freely viewed in three dimensions, allowing various treatment plans to be established.

디지털 덴티스트리 환경에서는, 골격과 치아가 3차원으로 구현된 3차원 치아 모델이 술자에게 제공되고, 술자는 3차원 치아 모델을 이용하여 치료 대상이 되는 치아를 선정할 수 있다. 또한, 술자는 3차원 치아 모델에서 치료 대상이 되는 치아를 채색하여 3차원 치아 모델을 편집할 수 있다. In a digital dentistry environment, a 3D tooth model in which the skeleton and teeth are realized in 3D is provided to the surgeon, and the surgeon can select a tooth to be treated using the 3D tooth model. Additionally, the surgeon can edit the 3D tooth model by coloring the teeth to be treated in the 3D tooth model.

그런데 술자가 3차원 치아 모델에서 특정 치아를 편집하기 위해서는, 3차원 치아 모델의 기초가 되는 2차원 단면 영상 각각을 편집해야 한다. 하지만 단면 영상은 그 개수가 수백 장 이상으로 이루어져 있어, 완벽한 편집을 위해서는 단면 영상의 개수만큼의 편집이 수행되어야 하는 불편함이 있다. 이러한 편집 방식은 술자의 노동력을 많이 요구하고, 더불어 편집 시간도 많이 소요되게 한다.However, in order for the operator to edit a specific tooth in a 3D tooth model, each 2D cross-sectional image that is the basis of the 3D tooth model must be edited. However, since the number of cross-sectional images consists of hundreds or more, there is an inconvenience in that for perfect editing, editing must be performed as many as the number of cross-sectional images. This editing method requires a lot of labor from the operator and also takes a lot of editing time.

한국공개특허 제10-2021-0100248호 (2021.08.17 공개)Korean Patent Publication No. 10-2021-0100248 (published on August 17, 2021)

본 발명이 해결하고자 하는 기술적 과제는, 신속하고 편리하게 3차원 치아 모델의 편집을 지원하는 편집 방법 및 장치를 제공하는 것이다.The technical problem to be solved by the present invention is to provide an editing method and device that supports editing of a 3D tooth model quickly and conveniently.

본 발명이 해결하고자 하는 다른 기술적 과제는, 술자의 편집 작업에 대한 효율을 향상시키는 편집 방법 및 장치를 제공하는 것이다.Another technical problem to be solved by the present invention is to provide an editing method and device that improves the efficiency of the operator's editing work.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

상기 기술적 과제를 해결하기 위한 일 실시예에 따른 3차원 치아 모델 편집 방법은, 3차원 치아 모델에 포함된 단면 영상의 마스킹 영역을 그래픽 요소를 이용하여 마스킹 처리하는 단계와, 상기 마스킹 영역의 외곽선에 복수의 영역 조절 핸들을 표출하는 단계와, 상기 복수의 영역 조절 핸들 중에서 하나 이상의 영역 조절 핸들에 대한 이동 입력을 사용자로부터 수신하는 단계와, 상기 하나 이상의 영역 조절 핸들의 이동 입력에 근거하여, 상기 마스킹 영역을 변경하는 단계를 포함할 수 있다. A 3D tooth model editing method according to an embodiment to solve the above technical problem includes the steps of masking a masking area of a cross-sectional image included in the 3D tooth model using a graphic element, and adding an outline of the masking area to the outline of the masking area. displaying a plurality of area control handles, receiving a movement input for one or more area control handles among the plurality of area control handles from a user, and based on the movement input of the one or more area control handles, performing the masking. It may include the step of changing the area.

일 실시예에서, 상기 복수의 영역 조절 핸들을 표출하는 단계는, 상기 마스킹 영역의 외곽선에서 나타나는 곡률을 계산하는 단계와, 상기 계산된 곡률이 임계값 이상인 지점에 상기 영역 조절 핸들을 표출하는 단계를 포함할 수 있다.In one embodiment, the step of displaying the plurality of area control handles includes calculating a curvature appearing at the outline of the masking area, and displaying the area control handle at a point where the calculated curvature is greater than or equal to a threshold value. It can be included.

일 실시예에서, 상기 마스킹 영역은 제1 오브젝트를 포함하고, 상기 마스킹 영역을 변경하는 단계는, 상기 마스킹 영역의 크기가 확대된 경우, 확대된 영역에 상기 제1 오브젝트와 상이한 제2 오브젝트가 포함되어 있는지 여부를 판정하는 단계와, 상기 판정 결과 상기 확대된 영역에 제2 오브젝트가 포함된 경우, 상기 제2 오브젝트를 상기 그래픽 요소와 상이한 그래픽 요소를 이용하여 마스킹 처리하는 단계를 포함할 수 있다.In one embodiment, the masking area includes a first object, and the step of changing the masking area includes, when the size of the masking area is enlarged, the enlarged area includes a second object that is different from the first object. It may include determining whether a second object is included in the enlarged area as a result of the determination, and masking the second object using a graphic element different from the graphic element.

일 실시예에서, 상기 확대된 영역에 상기 제1 오브젝트와 상이한 제2 오브젝트가 포함되어 있는지 여부를 판정하는 단계는, 상기 마스킹 영역의 제1 HU 값과 상기 확대된 영역의 제2 HU 값의 차이가 임계범위를 이탈하였는지 여부를 판정하는 단계와, 상기 제1 HU 값과 상기 제2 HU 값의 차이가 상기 임계범위를 이탈하면, 상기 확대된 영역에 상기 제1 오브젝트와 상이한 제2 오브젝트가 포함된 것으로 판정하는 단계를 포함할 수 있다.In one embodiment, the step of determining whether the enlarged area includes a second object different from the first object includes the difference between the first HU value of the masking area and the second HU value of the enlarged area. determining whether the first HU value and the second HU value are outside the threshold range, and if the difference between the first HU value and the second HU value is outside the threshold range, the enlarged area includes a second object that is different from the first object. It may include a step of determining that it has been done.

상기 기술적 과제를 해결하기 위한 다른 실시예에 따른 편집 지원 방법은, 3차원 치아 모델에 포함된 단면 영상을 디스플레이하는 단계와, 상기 디스플레이된 단면 영상에서 어느 한 지점에 입력 정보를 수신하는 단계와, 상기 지점을 포함하는 오브젝트를 상기 단면 영상에서 식별하는 단계와, 상기 식별된 오브젝트를 마스킹 영역으로 설정하고, 상기 설정된 마스킹 영역을 그래픽 요소를 이용하여 마스킹 처리하는 단계와, 상기 마스킹 영역을 포함하는 복수의 단면 영상들을 획득하는 단계와, 상기 그래픽 요소를 이용하여, 상기 획득된 단면 영상 각각에 포함된 마스킹 영역을 상기 그래픽 요소를 이용하여 마스킹 처리하는 단계를 포함할 수 있다.An editing support method according to another embodiment for solving the above technical problem includes displaying a cross-sectional image included in a three-dimensional tooth model, receiving input information at a point in the displayed cross-sectional image, Identifying an object including the point in the cross-sectional image, setting the identified object as a masking area, masking the set masking area using a graphic element, and a plurality of devices including the masking area. It may include the step of acquiring cross-sectional images, and using the graphic element to mask a masking area included in each of the obtained cross-sectional images using the graphic element.

상기 기술적 과제를 해결하기 위한 또 다른 실시예에 따른 편집 지원 방법은, 3차원 치아 모델에 포함된 단면 영상을 디스플레이하는 단계와, 상기 디스플레이된 단면 영상에서 선 그리기 입력을 수신하는 단계와, 상기 선 그리기 입력을 기초로 특정 영역을 생성하는 단계와, 상기 생성된 특정 영역을 마스킹 영역으로 설정하고, 상기 설정된 마스킹 영역을 그래픽 요소를 이용하여 마스킹 처리하는 단계와, 상기 마스킹 영역을 포함하는 복수의 단면 영상들을 획득하는 단계와, 상기 그래픽 요소를 이용하여, 상기 획득된 단면 영상 각각에 포함된 마스킹 영역을 상기 그래픽 요소를 이용하여 마스킹 처리하는 단계를 포함할 수 있다.An editing support method according to another embodiment for solving the above technical problem includes displaying a cross-sectional image included in a three-dimensional tooth model, receiving a line drawing input from the displayed cross-sectional image, and drawing the line Creating a specific area based on a drawing input, setting the generated specific area as a masking area, masking the set masking area using a graphic element, and forming a plurality of cross sections including the masking area. It may include acquiring images and masking a masking area included in each of the obtained cross-sectional images using the graphic element.

상기 기술적 과제를 해결하기 위한 또 다른 실시예에 따른 편집 장치는, 하나 이상의 프로세서와, 상기 프로세서에 의하여 수행되는 컴퓨터 프로그램을 로드(load)하는 메모리와, 상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되, 상기 컴퓨터 프로그램은, 3차원 치아 모델에 포함된 단면 영상의 마스킹 영역을 그래픽 요소를 이용하여 마스킹 처리하는 동작과, 상기 마스킹 영역의 외곽선에 복수의 영역 조절 핸들을 표출하는 동작과, 상기 복수의 영역 조절 핸들 중에서 하나 이상의 영역 조절 핸들에 대한 이동 입력을 사용자로부터 수신하는 동작과, 상기 하나 이상의 영역 조절 핸들의 이동 입력에 근거하여, 상기 마스킹 영역을 변경하는 동작을 수행하기 위한 인스트럭션들(instructions)을 포함할 수 있다.An editing device according to another embodiment for solving the technical problem includes one or more processors, a memory for loading a computer program executed by the processor, and storage for storing the computer program, The computer program includes an operation of masking a masking area of a cross-sectional image included in a 3D tooth model using a graphic element, an operation of displaying a plurality of area control handles on the outline of the masking area, and an operation of controlling the plurality of areas. Instructions for receiving a movement input for one or more area control handles among the control handles from the user and performing an operation for changing the masking area based on the movement input for the one or more area control handles. It can be included.

본 실시예에 따르면, 편리하게 3차원 치아 모델을 편집할 수 있는 편집 툴(tool)을 제공하여, 술자로 하여금은 편리하고 신속하게 3차원 치아 모델을 편집하게 할 수 있다.According to this embodiment, an editing tool that can conveniently edit a 3D tooth model is provided, allowing the operator to conveniently and quickly edit the 3D tooth model.

본 실시예에 따르면, 3차원 치아 모델에 포함된 복수의 단면 영상 중에서, 하나의 단면 영상이 편집되면 다른 단면 영상들의 편집도 일괄적으로 처리되게 함으로써, 편집 작업에서의 술자의 노동력과 시간을 절감시킬 수 있다.According to this embodiment, among the plurality of cross-sectional images included in the 3D tooth model, when one cross-sectional image is edited, the editing of other cross-sectional images is also processed at once, thereby saving the operator's labor and time in editing work. You can do it.

본 실시예에 따르면, 술자의 잘못된 편집을 술자에게 알려주거나 또는 3차원 치아 모델에 반영되지 않게 처리함으로써, 편집 오류를 최소화시키는 효과도 있다.According to this embodiment, there is also the effect of minimizing editing errors by notifying the operator of the operator's incorrect edits or processing them so that they are not reflected in the 3D tooth model.

도 1은 본 발명의 일 실시예에 따른, 3차원 치아 모델 편집 시스템을 예시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른, 3차원 치아 모델의 편집 방법을 설명하는 순서도이다.
도 3은 복수의 영역 조절 핸들을 표출하는 도 2의 S130 단계를 구체적으로 설명하기 위한 순서도이다.
도 4는 복수의 영역 조절 핸들을 표출한 단면 영상을 나타내는 도면이다.
도 5는 마스킹 영역을 변경하는 도 2의 S140 단계를 구체적으로 설명하기 위한 순서도이다.
도 6a와 도 6b는 단면 영상에서 영역 조절 핸들 위치가 변경되는 것을 예시하는 도면이다.
도 7은 복수의 오브젝트가 서로 다른 그래픽 요소로서 마스킹 처리된 상태를 예시하는 도면이다.
도 8은 편집 결과 화면을 예시하는 도면이다.
도 9는 단면 영상을 이용하여 마스킹 한 데이터를 3차원 치아 모델에 표현한 예시 도면이다.
도 10은 본 발명의 다른 실시예에 따른, 3차원 치아 모델의 편집 방법을 설명하는 순서도이다.
도 11은 브러시 툴을 통해서 마스킹 영역이 마스킹 처리되는 것을 예시하는 도면이다.
도 12는 본 발명의 또 다른 실시예에 따른, 3차원 치아 모델의 편집 방법을 설명하는 순서도이다.
도 13은 선 그리기 툴을 통해서 마스킹 영역이 마스킹 처리되는 것을 예시하는 도면이다.
도 14는 도 1을 참조하여 설명한 편집 장치의 하드웨어 구성도이다.
1 is a diagram illustrating a 3D tooth model editing system according to an embodiment of the present invention.
Figure 2 is a flowchart explaining a method of editing a 3D tooth model according to an embodiment of the present invention.
FIG. 3 is a flowchart specifically explaining step S130 of FIG. 2 for displaying a plurality of area control handles.
Figure 4 is a diagram showing a cross-sectional image displaying a plurality of area control handles.
FIG. 5 is a flowchart specifically explaining step S140 of FIG. 2 for changing the masking area.
Figures 6a and 6b are diagrams illustrating changes in the position of the area adjustment handle in a cross-sectional image.
Figure 7 is a diagram illustrating a state in which a plurality of objects are masked as different graphic elements.
Figure 8 is a diagram illustrating an editing result screen.
Figure 9 is an example diagram showing masked data using a cross-sectional image expressed in a 3D tooth model.
Figure 10 is a flowchart explaining a method of editing a 3D tooth model according to another embodiment of the present invention.
Figure 11 is a diagram illustrating a masking area being masked using a brush tool.
Figure 12 is a flowchart explaining a method of editing a 3D tooth model according to another embodiment of the present invention.
Figure 13 is a diagram illustrating a masking area being masked using a line drawing tool.
FIG. 14 is a hardware configuration diagram of the editing device described with reference to FIG. 1.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명의 기술적 사상을 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the technical idea of the present invention is not limited to the following embodiments and may be implemented in various different forms. The following examples are merely intended to complete the technical idea of the present invention and to be used in the technical field to which the present invention pertains. It is provided to fully inform those skilled in the art of the scope of the present invention, and the technical idea of the present invention is only defined by the scope of the claims.

본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.

이하, 도면들을 참조하여 본 발명의 몇몇 실시예들을 설명한다.Hereinafter, several embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른, 편집 시스템을 예시하는 도면이다.1 is a diagram illustrating an editing system, according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 실시예에 따른 편집 시스템은 영상 수집 장치(200) 및 편집 장치(100)를 포함할 수 있으며, 영상 수집 장치(200)와 편집 장치(100)는 네트워크(300)를 통해서 서로 통신할 수 있다. As shown in FIG. 1, the editing system according to this embodiment may include an image collection device 200 and an editing device 100, and the image collection device 200 and the editing device 100 are connected to a network 300. ) can communicate with each other.

영상 수집 장치(200)는 환자의 구강을 3차원 스캔한 치아 스캔 데이터를 수집할 수 있고, 또한 골격 영상 데이터(CT 영상 데이터)를 촬영하여 수집할 수 있다. 영상 수집 장치(200)는 3D 구강 스캐너, 모델 스캐너 등으로부터 치아 스캔 데이터를 수집할 수 있고, CT(Computed Tomography) 촬영 장치 등으로부터 골격 영상 데이터를 수집할 수 있다. 상기 치아 스캔 데이터는 상악에 포함된 치아 영상과 하악에 포함된 치아 영상을 포함할 수 있다. 일 실시예에서, 영상 수집 장치(200)는 치아 스캔 데이터와 골격 영상 데이터를 정합할 수 있다. 이때, 영상 수집 장치(200)는 복수의 치아 특징점의 3차원적인 위치를 이용하여, 치아 스캔 데이터와 골격 영상 데이터를 정합할 수 있다. The image collection device 200 can collect tooth scan data obtained by 3D scanning the patient's oral cavity, and can also capture and collect skeletal image data (CT image data). The image collection device 200 may collect tooth scan data from a 3D intraoral scanner, a model scanner, etc., and may collect skeletal image data from a CT (Computed Tomography) imaging device, etc. The tooth scan data may include a tooth image included in the upper jaw and a tooth image included in the lower jaw. In one embodiment, the image collection device 200 may match dental scan data and skeletal image data. At this time, the image collection device 200 may match tooth scan data and skeletal image data using the three-dimensional positions of a plurality of tooth feature points.

일 실시예에서, 영상 수집 장치(200)는 골격 영상 데이터와 정합된 치아 스캔 데이터를 기초로 3차원 치아 모델을 생성할 수 있다. 여기서, 3차원 치아 모델은 복수의 단면 영상을 포함할 수 있다. 그리고 나서, 영상 수집 장치(200)는 복수의 단면 영상을 포함하는 3차원 치아 모델을 편집 장치(100)로 제공할 수 있다. 각각의 단면 영상에는 시퀀스 넘버가 할당될 수 있다. 예를 들어, 600장의 단면 영상이 3차원 치아 모델에 포함된 경우, 각각의 단면 영상은 1번부터 600번까지의 시퀀스 넘버가 할당될 수 있다.In one embodiment, the image collection device 200 may generate a three-dimensional tooth model based on tooth scan data matched with skeletal image data. Here, the 3D tooth model may include a plurality of cross-sectional images. Then, the image collection device 200 may provide a 3D tooth model including a plurality of cross-sectional images to the editing device 100. Each cross-sectional image may be assigned a sequence number. For example, if 600 cross-sectional images are included in a 3D tooth model, each cross-sectional image may be assigned a sequence number from 1 to 600.

편집 장치(100)는 하나 이상의 프로세서와 메모리를 포함하는 컴퓨팅 장치일 수 있다. 편집 장치(100)는 영상 수집 장치(200)로부터 3차원 치아 모델을 획득하고, 그 3차원 치아 모델을 편집할 수 있는 편집 툴(tool)를 제공할 수 있다. 편집 장치(100)는 편집 툴을 통해서 입력된 입력 정보를 기초로, 3차원 치아 모델을 편집할 수 있다. The editing device 100 may be a computing device including one or more processors and memory. The editing device 100 may obtain a 3D tooth model from the image collection device 200 and provide an editing tool for editing the 3D tooth model. The editing device 100 can edit a 3D tooth model based on input information input through an editing tool.

도 1에 도시된 편집 지원 시스템은 영상 수집 장치(200)와 편집 장치(100)가 서로 물리적으로 분리된 장치인 것으로 도시하고 있으나, 몇몇 실시예들에서 영상 수집 장치(200)와 편집 장치(100)가 동일한 컴퓨팅 장치를 통해 실행되는 별도의 소프트웨어 모듈의 형태로 구현될 수도 있을 것이다.In the editing support system shown in FIG. 1, the image collection device 200 and the editing device 100 are shown as physically separate devices. However, in some embodiments, the image collection device 200 and the editing device 100 are physically separated from each other. ) may be implemented in the form of a separate software module that runs through the same computing device.

이하, 도 2 내지 도 13을 참조하여, 본 발명의 3차원 치아 모델을 편집하는 다양한 실시예에 대해서 설명하기로 한다.Hereinafter, various embodiments of editing a 3D tooth model of the present invention will be described with reference to FIGS. 2 to 13.

도 2는 본 발명의 일 실시예에 따른, 3차원 치아 모델의 편집 방법을 설명하는 순서도이다.Figure 2 is a flowchart explaining a method of editing a 3D tooth model according to an embodiment of the present invention.

도 2에 도시된 방법의 각 단계는 컴퓨팅 장치에 의해 수행될 수 있다. 다시 말하면, 본 방법의 각 단계는 컴퓨팅 장치의 프로세서에 의해 실행되는 하나 이상의 인스트럭션들로 구현될 수 있다. 본 방법에 포함되는 제1 단계들은 제1 컴퓨팅 장치에 의하여 수행되고, 본 방법의 제2 단계들은 제2 컴퓨팅 장치에 의하여 수행될 수 있다. 이하에서는, 본 방법의 각 단계가 도 1을 참조하여 설명한 편집 장치(100)에 의해 수행되는 것을 가정하여 설명을 이어가도록 하되, 각 단계의 수행 주체는 단지 예시일 뿐, 본 발명이 이하의 설명에 의해 한정되는 아니며, 설명의 편의를 위해 상기 방법에 포함되는 일부 단계의 동작 주체는 그 기재가 생략될 수도 있다.Each step of the method shown in FIG. 2 may be performed by a computing device. In other words, each step of the method may be implemented as one or more instructions executed by a processor of a computing device. The first steps included in the method may be performed by a first computing device, and the second steps included in the method may be performed by a second computing device. In the following, the description will be continued assuming that each step of the present method is performed by the editing device 100 described with reference to FIG. 1. However, the performer of each step is only an example, and the present invention is not intended to be described in the following description. It is not limited by this, and for convenience of explanation, the description of some of the operating entities included in the method may be omitted.

도 2를 참조하면, 편집 장치(100)는 3차원 치아 모델에 대한 편집을 사용자(예컨대, 술자)로부터 요청받은 경우, 3차원 치아 모델에 포함된 치아 단면을 디스플레이할 수 있다(S110). 일 실시예에서, 편집 장치(100)는 3차원 치아 모델에 대한 편집 요청이 입력되는 경우에, 복수의 단면 영상을 디스플레이할 수 있으며, 이 중에서 사용자가 선택한 단면 영상을 확대하여 디스플레이할 수 있다.Referring to FIG. 2, when a user (eg, surgeon) requests to edit a 3D tooth model, the editing device 100 may display a tooth cross section included in the 3D tooth model (S110). In one embodiment, when a request to edit a 3D tooth model is input, the editing device 100 may display a plurality of cross-sectional images, and among these, the cross-sectional image selected by the user may be enlarged and displayed.

이어서, 편집 장치(100)는 단면 영상에 포함된 하나 이상의 오브젝트들 중에서 어느 하나를 소정의 기준에 따라 선택하거나 또는 사용자로부터 선택받을 수 있고, 선택하거나 또는 사용자로부터 선택받은 오브젝트를 포함하여 마스킹(Masking) 영역을 설정할 수 있다. 편집 장치(100)는 설정된 상기 마스킹 영역을 제1 그래픽 요소를 이용하여 마스킹 처리할 수 있다(S120). Subsequently, the editing device 100 selects one of one or more objects included in the cross-sectional image according to a predetermined criterion or is selected by the user, and performs masking including the selected object or the object selected by the user. ) You can set the area. The editing device 100 may mask the set masking area using a first graphic element (S120).

일 실시예에서, 상기 오브젝트는 치아 등의 구조물일 수 있으며, 편집 장치(100)는 HU(hounsfield unit) 값을 기초로, 단면 영상에서 오브젝트를 식별할 수 있다. 예컨대, 편집 장치(100)는 소정의 오차 범위 이내의 HU 값을 가지는 영역을 하나의 오브젝트로서 식별할 수 있다. 상기 마스킹 영역은 사용자가 선택한 구조물에 해당하는 영역일 수 있다. In one embodiment, the object may be a structure such as a tooth, and the editing device 100 may identify the object in a cross-sectional image based on a Hounsfield Unit (HU) value. For example, the editing device 100 may identify an area with an HU value within a predetermined error range as one object. The masking area may be an area corresponding to a structure selected by the user.

또한, 편집 장치(100)는 제1 그래픽 요소로서 제1 색상을 선택하고, 상기 마스킹 영역을 제1 색상으로 채우는 방식으로 마스킹 처리할 수 있다. 편집 장치(100)는 상기 마스킹 영역을 반투명한 방식으로 채울 수도 있을 것이다. 또한, 편집 장치(100)는 상기 마스킹 영역을 그라데이션(gradiation) 방식으로 채우거나, 소정의 반투명 패턴을 채울 수도 있을 것이다.Additionally, the editing device 100 may perform masking by selecting a first color as the first graphic element and filling the masking area with the first color. The editing device 100 may fill the masking area in a semi-transparent manner. Additionally, the editing device 100 may fill the masking area using a gradient method or a predetermined translucent pattern.

다음으로, 편집 장치(100)는 상기 마스킹 영역의 외곽선을 식별하고, 상기 외곽선에 복수의 영역 조정 핸들을 디스플레이할 수 있다(S130). 상기 복수의 영역 조정 핸들은 상기 외곽선 상에 소정의 그래픽 객체로서 디스플레이 될 수 있으며, 사용자는 상기 영역 조정에 대한 사용자 입력을 입력함으로써, 상기 마스킹 영역을 의도에 따라 조정할 수 있다. 이하, 도 3 내지 도 4를 참조하여 상기 외곽선에 복수의 영역 조정 핸들을 디스플레이 하는 동작을 보다 상세하게 설명한다.Next, the editing device 100 may identify the outline of the masking area and display a plurality of area adjustment handles on the outline (S130). The plurality of area adjustment handles may be displayed as predetermined graphic objects on the outline, and the user may adjust the masking area according to intention by inputting a user input for area adjustment. Hereinafter, the operation of displaying a plurality of area adjustment handles on the outline will be described in more detail with reference to FIGS. 3 and 4.

먼저, 편집 장치(100)는 마스킹 영역의 외곽선을 식별한다(S131). 상기 외곽선의 식별은 이미지 프로세싱 기술 기반의 알고리즘에 의하여 수행될 수도 있고, 기계 학습된 마스킹 영역 식별 모델에 의하여 수행될 수도 있다. 예를 들어, 편집 장치(100)는 상기 마스킹 영역 식별 모델에 치아 단면의 영상에서 추출된 특징 벡터(feature vector)를 입력하고, 상기 마스킹 영역 식별 모델로부터 출력된 데이터를 이용하여 상기 마스킹 영역의 외곽선을 결정할 수 있을 것이다.First, the editing device 100 identifies the outline of the masking area (S131). Identification of the outline may be performed using an algorithm based on image processing technology or may be performed using a machine-learned masking area identification model. For example, the editing device 100 inputs a feature vector extracted from an image of a tooth cross-section into the masking area identification model, and uses the data output from the masking area identification model to create an outline of the masking area. You will be able to decide.

상기 마스킹 영역 식별 모델은, 후술될 영역 조정 핸들 조작을 통한 마스킹 영역 조정의 결과를 이용하여 생성된 트레이닝 데이터(training data)를 이용하여 기계 학습된 것일 수 있다. 이 경우, 영역 조정 핸들을 통한 사용자의 마스킹 영역 조정의 결과가 축적됨에 따라 상기 마스킹 영역 식별 모델이 추가적으로 기계 학습될 수 있고, 그 결과, 상기 마스킹 영역 식별 모델이 마스킹 영역의 외곽선을 보다 정확하게 결정할 수 있는 효과를 얻을 수 있다.The masking area identification model may be machine-learned using training data generated using the results of masking area adjustment through manipulation of the area adjustment handle, which will be described later. In this case, as the results of the user's masking area adjustment through the area adjustment handle are accumulated, the masking area identification model can be additionally machine learned, and as a result, the masking area identification model can more accurately determine the outline of the masking area. You can achieve certain effects.

이어서, 편집 장치(100)는 마스킹 영역의 외곽선 상의 각 위치에 대한 곡률을 계산할 수 있다(S132). 다음으로, 상기 계산된 곡률 값이 임계값 이상인 위치에 상기 영역 조정 핸들을 디스플레이할 수 있다(S133). 이 때의 상기 영역 조정 핸들은 제1 형상의 그래픽 객체로서 상기 외곽선 상에 표시될 수 있다.Next, the editing device 100 may calculate the curvature for each position on the outline of the masking area (S132). Next, the area adjustment handle can be displayed at a position where the calculated curvature value is greater than or equal to the threshold (S133). At this time, the area adjustment handle may be displayed on the outline as a graphic object of the first shape.

또한, 몇몇 실시예들에서, 편집 장치(100)는 지정된 개수의 영역 조정 핸들을 디스플레이 할 수도 있다. 이 때, 편집 장치(100)는 상기 곡률 값을 값이 큰 순서대로 영역 조정 핸들의 개수만큼 선정한 후, 상기 선정된 곡률 값을 가지는 상기 외곽선 상의 위치에 상기 영역 조정 핸들을 디스플레이할 수도 있을 것이다. 이 때의 상기 영역 조정 핸들은 제2 형상의 그래픽 객체로서 상기 외곽선 상에 표시될 수 있다.Additionally, in some embodiments, the editing device 100 may display a designated number of area adjustment handles. At this time, the editing device 100 may select the curvature value as many as the number of area adjustment handles in order of increasing value, and then display the area adjustment handle at a position on the outline having the selected curvature value. At this time, the area adjustment handle may be displayed on the outline as a graphic object of a second shape.

또한, 몇몇 실시예들에서, 편집 장치(100)는 외곽선 상에서 소정의 간격을 가지는 복수의 영역 조정 핸들을 마스킹 영역의 외곽선에 디스플레이 할 수도 있을 것이다(S133). 이 때의 상기 영역 조정 핸들은 제3 형상의 그래픽 객체로서 상기 외곽선 상에 표시될 수 있다.Additionally, in some embodiments, the editing device 100 may display a plurality of area adjustment handles at predetermined intervals on the outline of the masking area (S133). At this time, the area adjustment handle may be displayed on the outline as a third-shaped graphic object.

또한, 몇몇 실시예들에서, 상기 복수의 영역 조정 핸들의 위치는, 사용자 입력이 있었던 영역 조정 핸들의 속성 값을 이용하여 생성된 트레이닝 데이터(training data)를 이용하여 기계 학습된 영역 조정 핸들 위치 모델에 의하여 결정된 것일 수 있다. 이 때의 상기 영역 조정 핸들은 제4 형상의 그래픽 객체로서 상기 외곽선 상에 표시될 수 있다. 이 경우, 영역 조정 핸들을 통한 사용자의 마스킹 영역 조정의 결과가 축적됨에 따라 상기 마스킹 영역 식별 모델이 추가적으로 기계 학습될 수 있고, 그 결과, 조작의 가능성이 높은 위치에 한하여 영역 조정 핸들이 표시됨으로써, 사용자가 마스킹 영역을 최소한의 조작만으로 신속하게 조정할 수 있는 효과를 얻을 수 있을 것이다.In addition, in some embodiments, the positions of the plurality of region adjustment handles are machine-learned region adjustment handle position models using training data generated using attribute values of region adjustment handles where user input was input. It may have been decided by . At this time, the area adjustment handle may be displayed on the outline as a fourth-shaped graphic object. In this case, as the results of the user's masking area adjustment through the area adjustment handle are accumulated, the masking area identification model can be additionally machine learned, and as a result, the area adjustment handle is displayed only in locations with a high possibility of manipulation, Users will be able to quickly adjust the masking area with minimal manipulation.

상술된 바와 같이, 상기 복수의 영역 조정 핸들의 형상이, 영역 조정 핸들의 위치 결정 방식에 따라 제1 형상 내지 제4 형상으로 다양할 수 있는 점을 설명한 바 있다. 이로써, 사용자는 영역 조정 핸들의 위치 결정 방식을 직관적으로 이해할 수 있을 것이다. 다만, 몇몇 실시예들에서는 시각적 복잡성을 회피하기 위해 상기 제1 형상 내지 제4 형상 중 적어도 일부가 동일한 형상일 수도 있을 것이다.As described above, it has been explained that the shapes of the plurality of area adjustment handles may vary from the first shape to the fourth shape depending on the positioning method of the area adjustment handles. As a result, the user will be able to intuitively understand how to determine the position of the area adjustment handle. However, in some embodiments, at least some of the first to fourth shapes may have the same shape to avoid visual complexity.

다시 도 2를 참조하면, 편집 장치(100)는 마스킹 영역의 외곽선에 표출된 복수의 영역 조절 핸들들 중에서, 어느 한 영역 조절 핸들에 대한 위치 변경 입력 정보를 사용자로부터 수신하고, 그 위치 변경 입력 정보를 기초로 마스킹 영역을 변경할 수 있다(S140). Referring again to FIG. 2, the editing device 100 receives position change input information for an area control handle from the user among a plurality of area control handles displayed on the outline of the masking area, and inputs the position change input information. The masking area can be changed based on (S140).

도 4에는 마스킹 영역(10) 및 영역 조정 핸들(10a)이 도시된다. 영역 조정 핸들(10a)은 마스킹 영역(10)을 조정하기 위한 사용자 입력의 대상이 되는 컨트롤 객체이다. 예를 들어, 영역 조정 핸들(10a)에 대한 드래깅 입력에 따라 영역 조정 핸들(10a)의 위치가 변경되면, 영역 조정 핸들(10a)의 변경된 위치를 반영하도록 마스킹 영역(10)이 조정될 수 있을 것이다. 이하, 도 5를 참조하여 자세히 설명한다.4 shows a masking area 10 and an area adjustment handle 10a. The area adjustment handle 10a is a control object that is subject to user input for adjusting the masking area 10. For example, if the position of the area adjustment handle 10a changes according to a dragging input to the area adjustment handle 10a, the masking area 10 may be adjusted to reflect the changed position of the area adjustment handle 10a. . Hereinafter, it will be described in detail with reference to FIG. 5.

도 5는 마스킹 영역을 변경하는 도 2의 S140 단계를 구체적으로 설명하기 위한 순서도이다.FIG. 5 is a flowchart specifically explaining step S140 of FIG. 2 for changing the masking area.

편집 장치(100)는 마스킹 영역의 외곽선에 표출된 복수의 영역 조절 핸들들 중에서, 특정 영역 조절 핸들에 대한 위치 변경 입력 정보를 사용자로부터 수신할 수 있다(S141). 예를 들어, 상기 위치 변경 입력 정보는 드래깅 조작에 대한 정보 및 상기 드래깅 조작의 대상이 되는 영역 조절 핸들에 대한 정보를 포함할 수 있다.The editing device 100 may receive position change input information for a specific area control handle from the user among a plurality of area control handles displayed on the outline of the masking area (S141). For example, the position change input information may include information about a dragging operation and information about an area adjustment handle that is the target of the dragging operation.

몇몇 실시예들에서, 편집 장치(100)는 두개 이상의 영역 조절 핸들들에 대한 위치 변경 정보를 수신할 수도 있을 것이다. 또한, 몇몇 실시예들에서, 편집 장치(100)는 상기 복수의 영역 조절 핸들들 전체에 대한 일괄적인 위치 변경 입력 정보를 수신할 수도 있을 것이다. In some embodiments, the editing device 100 may receive position change information for two or more area adjustment handles. Additionally, in some embodiments, the editing device 100 may receive batch position change input information for all of the plurality of area adjustment handles.

예를 들어, 사용자는 외곽선에 표출된 복수의 영역 조절 핸들들 전체에 대한 영역 확대 조작을 입력함으로써, 마스킹 영역을 미세 확대할 수 있을 것이다.For example, the user may be able to finely enlarge the masking area by inputting an area enlargement operation for all of the plurality of area control handles displayed on the outline.

이어서, 편집 장치(100)는 수신된 위치 변경 입력 정보에 따라, 특정 영역 조절 핸들의 위치를 변경하고, 위치가 변경된 영역 조절 핸들과 인접된 영역 조절 핸들들을 연결하여 마스킹 영역의 외곽선을 변경할 수 있다(S142). 즉, 편집 장치(100)는 사용자가 이동시킨 영역 조절 핸들을 기초로, 조정된 마스킹 영역을 결정하고, 상기 조정된 마스킹 영역을 디스플레이할 수 있다.Subsequently, the editing device 100 changes the position of the specific area control handle according to the received position change input information, and changes the outline of the masking area by connecting the repositioned area control handle and adjacent area control handles. (S142). That is, the editing device 100 may determine the adjusted masking area based on the area adjustment handle moved by the user and display the adjusted masking area.

몇몇 실시예들에서, 편집 장치(100)는 영역 조절 핸들에 대한 위치 조정의 결과로, 하나 이상의 신규 영역 조절 핸들을 추가로 디스플레이 할 수도 있을 것이다. 이 경우, 사용자는 마스킹 영역을 보다 정교하게 조정할 수 있을 것이다. 상기 신규 영역 조절 핸들의 형상은 기존의 영역 조절 핸들의 형상과 서로 상이할 수 있다. 이로써, 사용자는 신규 영역 조절 핸들을 이용한 마스킹 영역의 조정이 필요할 수 있는 점을 직관적으로 이해할 수 있을 것이다.In some embodiments, the editing device 100 may additionally display one or more new region adjustment handles as a result of adjusting the position of the region adjustment handles. In this case, the user will be able to more precisely adjust the masking area. The shape of the new area control handle may be different from the shape of the existing area control handle. As a result, the user will be able to intuitively understand that the masking area may need to be adjusted using the new area adjustment handle.

도 6a 및 도 6b에 예시된 바와 같이, 도 6a의 마스킹 영역(10)에서 표출된 영역 조절 핸들들 중에서, 11a 지점에 위치한 영역 조절 핸들이 도 6b의 11b 지점으로 이동될 수 있다. 이 경우, 편집 장치(100)는 도 6b에서와 같이 마스킹 영역(20)의 크기를 변경할 수 있다. As illustrated in FIGS. 6A and 6B, among the area adjustment handles displayed in the masking area 10 in FIG. 6A, the area adjustment handle located at point 11a may be moved to point 11b in FIG. 6B. In this case, the editing device 100 can change the size of the masking area 20 as shown in FIG. 6B.

한편, 사용자는 마스킹 영역의 외곽선에서, 영역 조절 핸들이 표출되지 않은 지점에 대한 선택 입력을 입력할 수 있다. 상기 선택 입력은, 예를 들어 클릭 입력일 수 있다. 이 경우, 편집 장치(100)는 상기 선택 입력에 응답하여, 사용자가 선택한 지점에 새로운 영역 조절 핸들을 생성하고 표출하며, 그 새롭게 생성된 영역 조절 핸들이 사용자의 입력에 따라 이동할 수 있도록 제어할 수 있다. 편집 장치(100)는 새롭게 생성된 영역 조절 핸들이 이동하는 경우에, 그 이동된 영역 조절 핸들을 기초로 마스킹 영역의 크기를 변경할 수 있다.Meanwhile, the user can enter a selection input for a point on the outline of the masking area where the area control handle is not displayed. The selection input may be, for example, a click input. In this case, the editing device 100 creates and displays a new area control handle at the point selected by the user in response to the selection input, and controls the newly created area control handle to move according to the user's input. there is. When the newly created area control handle is moved, the editing device 100 may change the size of the masking area based on the moved area control handle.

다시 도 5로 돌아와서 설명한다. 편집 장치(100)는 영역 조절 핸들 이동에 따라, 마스킹 영역이 확대되었는지 여부를 판정할 수 있다(S143).Let's return to Figure 5 again for explanation. The editing device 100 may determine whether the masking area has been enlarged according to the movement of the area adjustment handle (S143).

마스킹 영역이 확대된 것으로 판정되면, 편집 장치(100)는 확대된 마스킹 영역에 타 오브젝트가 포함되어 있는지 여부를 판정할 수 있다(S144). 즉, 편집 장치(100)는 영역 조절 핸들 이동에 따라 확대된 마스킹 영역에 기존의 오브젝트 이외에 새로운 타 오브젝트가 포함되는지 여부를 판정할 수 있다. 상기 타 오브젝트는, 예를 들어 확대 전 마스킹 영역에 포함되어 있던 제1 치아에 인접한 인접치의 오브젝트일 수 있다. 즉, 상기 타 오브젝트는 확대 전 마스킹 영역에 포함되지 않았던 새로운 오브젝트로 이해될 수 있을 것이다.If it is determined that the masking area is enlarged, the editing device 100 may determine whether another object is included in the enlarged masking area (S144). That is, the editing device 100 can determine whether the masking area enlarged according to the movement of the area control handle includes new objects in addition to the existing objects. For example, the other object may be an object of an adjacent tooth adjacent to the first tooth included in the masking area before enlargement. In other words, the other object may be understood as a new object that was not included in the masking area before enlargement.

일 실시예에서, 편집 장치(100)는 확대 전 마스킹 영역에 포함된 오브젝트의 제1 HU 값과, 확대 후 마스킹 영역의 제2 HU 값을 비교하여, 확대 후 마스킹 영역에 타 오브젝트가 포함되는지 여부를 판정할 수 있다. In one embodiment, the editing device 100 compares the first HU value of the object included in the masking area before enlargement with the second HU value of the masking area after enlargement to determine whether other objects are included in the masking area after enlargement. can be judged.

몇몇 실시예에서, 편집 장치(100)는 확대 전 마스킹 영역의 HU 값의 평균을 상기 제1 HU 값으로 설정할 수 있고, 또한 영역 조절 핸들 이동에 따라 추가적으로 확대된 영역에서의 HU 값의 평균을 상기 제2 HU 값으로 설정할 수 있다. In some embodiments, the editing device 100 may set the average of the HU values of the masked area before enlargement as the first HU value, and may also set the average of the HU values in the additionally enlarged area as the area control handle is moved. It can be set to the second HU value.

편집 장치(100)는 상기 제1 HU 값과 상기 제2 HU 값의 차이가 소정의 범위를 벗어나는 경우, 확대된 영역에 타 오브젝트가 포함되지 않은 것으로 판정할 수 있고, 상기 제1 HU 값과 상기 제2 HU 값의 차이가 상기 소정의 범위에 포함되면 확대된 마스킹 영역에 타 오브젝트가 포함된 것으로 판정할 수 있다.If the difference between the first HU value and the second HU value is outside a predetermined range, the editing device 100 may determine that the enlarged area does not include other objects, and the first HU value and the If the difference between the second HU values is within the predetermined range, it may be determined that another object is included in the enlarged masking area.

이어서, 편집 장치(100)는 확대된 마스킹 영역에 타 오브젝트가 포함되는 경우, 기존의 오브젝트를 제1 그래픽 요소로서 마스킹 처리한 상태에서, 타 오브젝트를 제2 그래픽 요소를 이용하여 마스킹 처리할 수 있다(S145). 즉, 편집 장치(100)는 확대된 영역에 포함되는 복수의 오브젝트를 서로 다른 그래픽 요소를 이용하여 마스킹 처리할 수 있다. Subsequently, when other objects are included in the enlarged masking area, the editing device 100 may mask the other objects using a second graphic element while masking the existing object as a first graphic element. (S145). That is, the editing device 100 can mask a plurality of objects included in the enlarged area using different graphic elements.

몇몇 실시예들에서, 편집 장치(100)는 확대 후 마스킹 영역에 타 오브젝트가 포함된 경우, 제2 그래픽 요소를 이용하여 상기 타 오브젝트에 대한 마스킹을 표시할 수 있다. 즉, 편집 장치(100)는 확대 전 마스킹 영역에 포함되어 있던 오브젝트와 확대 후 마스킹 영역에 새롭게 포함된 오브젝트를 서로 다른 그래픽 요소를 이용하여 마스킹 표시함으로써, 사용자에게 마스킹 영역의 확대 조작을 다시 확인하도록 유도할 수 있을 것이다. 이하, 도 7을 참조하여 보다 자세히 설명한다.In some embodiments, when another object is included in the masking area after enlargement, the editing device 100 may display masking for the other object using a second graphic element. That is, the editing device 100 masks and displays objects included in the masking area before enlargement and objects newly included in the masking area after enlargement using different graphic elements, allowing the user to re-confirm the enlargement operation of the masking area. It may be possible to induce Hereinafter, it will be described in more detail with reference to FIG. 7.

도 7은 복수의 오브젝트가 서로 다른 그래픽 요소로서 마스킹 처리된 상태를 예시하는 도면이다.Figure 7 is a diagram illustrating a state in which a plurality of objects are masked as different graphic elements.

도 7에 예시된 바와 제1 오브젝트(21)는 제1 그래픽 요소를 이용하여 마스킹 처리되어 있고, 제2 오브젝트(22)는 제2 그래픽 요소를 이용하여 마스킹 처리되어 있다. 예컨대, 마스킹 영역이 확대되기 전에 제1 오브젝트(21)만을 포함한 상태에서, 영역 조절 핸들 이동을 통해서 제2 오브젝트(22)를 포함하는 영역까지 확대되는 경우, 제2 오브젝트(22)를 제1 오브젝트(21)와 상이한 그래픽 요소를 이용하여 마스킹 처리할 수 있다.As illustrated in FIG. 7, the first object 21 is masked using a first graphic element, and the second object 22 is masked using a second graphic element. For example, when the masking area includes only the first object 21 before being expanded and is expanded to the area including the second object 22 by moving the area control handle, the second object 22 is changed to the first object. Masking can be done using graphic elements different from (21).

한편, 또 다른 실시예에서는, 편집 장치(100)는 확대된 마스킹 영역에서 타 오브젝트가 포함된 경우, 사용자가 잘못된 편집을 수행한 것으로 판정하여, 타 오브젝트에 대한 마스킹 처리를 수행하지 않을 수도 있다. 도 7을 예를 들어 설명하면, 편집 장치(100)는 참조부호 22에 해당하는 영역에 대한 마스킹 처리를 수행하지 않을 수 있다.Meanwhile, in another embodiment, when other objects are included in the enlarged masking area, the editing device 100 may determine that the user has performed incorrect editing and may not perform masking processing on the other objects. Taking FIG. 7 as an example, the editing device 100 may not perform masking processing on the area corresponding to reference numeral 22.

편집 장치(100)는 다양한 방식으로 제1 오브젝트와 제2 오브젝트를 시각적으로 다르게 표시할 수 있다. 예컨대, 편집 장치(100)는 제1 오브젝트를 제1 색상으로 채색하고, 제2 오브젝트를 제2 색상으로 채색할 수 있다. 즉, 상기 제1 그래픽 요소와 상기 제2 그래픽 요소의 차이는 색상일 수 있다. The editing device 100 may display the first object and the second object visually differently in various ways. For example, the editing device 100 may color a first object with a first color and a second object with a second color. That is, the difference between the first graphic element and the second graphic element may be color.

또한, 몇몇 실시예들에서, 상기 제1 그래픽 요소와 상기 제2 그래픽 요소의 차이는 대상 영역을 채우는 방식일 수도 있다. 예를 들어, 상기 제1 그래픽 요소는 제1 투명도로 대상 영역을 채우는 것이고, 상기 제2 그래픽 요소는 제2 투명도로 대상 영역을 채우는 것일 수 있다. 또한, 상기 제1 그래픽 요소는 제1 패턴으로 대상 영역을 채우는 것이고, 상기 제2 그래픽 요소는 제2 패턴으로 대상 영역을 채우는 것일 수 있다. 또한, 상기 제1 그래픽 요소는 제1 방향의 그라데이션으로 대상 영역을 채우는 것이고, 상기 제2 그래픽 요소는 제2 방향의 그라데이션으로 대상 영역을 채우는 것일 수도 있다.Additionally, in some embodiments, the difference between the first graphic element and the second graphic element may be a method of filling the target area. For example, the first graphic element may fill the target area with first transparency, and the second graphic element may fill the target area with second transparency. Additionally, the first graphic element may fill the target area with a first pattern, and the second graphic element may fill the target area with a second pattern. Additionally, the first graphic element may fill the target area with a gradient in a first direction, and the second graphic element may fill the target area with a gradient in a second direction.

한편, S143 단계의 판정 결과, 마스킹 영역이 축소된 경우, 편집 장치(100)는 제1 그래픽 요소를 이용하여 축소된 마스킹 영역을 마스킹 처리하고, 축소에 따라 제외된 영역에 대해서는 마스킹 처리된 제1 그래픽 요소를 제거할 수 있다(S146).Meanwhile, if the masking area is reduced as a result of the determination in step S143, the editing device 100 masks the reduced masking area using the first graphic element, and the area excluded due to the reduction is masked with the first graphic element. Graphic elements can be removed (S146).

S144 단계의 판정 결과, 확대된 마스킹 영역에 타 오브젝트가 포함되지 않은 경우, 편집 장치(100)는 확대된 마스킹 영역을 제1 그래픽 요소를 이용하여 추가적으로 마스킹 처리할 수 있다(S147).If, as a result of the determination in step S144, no other objects are included in the enlarged masking area, the editing device 100 may additionally mask the enlarged masking area using the first graphic element (S147).

다시 도 2를 참조하면, 편집 장치(100)는 마스킹 영역을 포함하는 복수의 단면 영상을 3차원 치아 모델에서 획득할 수 있다(S150). 이어서, 편집 장치(100)는 획득한 각 단면 영상에서 마스킹 영역을 식별하고, 각 단면 영상의 마스킹 영역을 제1 그래픽 요소를 이용하여 마스킹 처리할 수 있다(S160). Referring again to FIG. 2, the editing device 100 may acquire a plurality of cross-sectional images including a masking area from the 3D tooth model (S150). Next, the editing device 100 may identify a masking area in each obtained cross-sectional image and mask the masking area of each cross-sectional image using the first graphic element (S160).

본 실시예에 따르면, 영역 조절 핸들을 이동함에 따라, 편리하게 마스킹 영역을 변경할 수 있다. 또한, 본 실시예에 따르면, 특정 단면 영상에 포함된 오브젝트가 마스킹 영역으로 설정되어 마스킹 처리되면, 다른 단면 영상에 포함된 오브젝트도 일괄적으로 마스킹 처리할 수 있다. 이러한 일괄적인 마스킹 처리에 따라, 사용자가 일일이 단면 영상을 마스킹 처리해야 되는 기존의 방식과 비교하여, 편집의 편의성과 속도가 향상될 수 있다. According to this embodiment, the masking area can be conveniently changed by moving the area adjustment handle. Additionally, according to this embodiment, when an object included in a specific cross-sectional image is set as a masking area and is masked, objects included in other cross-sectional images can also be collectively masked. According to this batch masking process, the convenience and speed of editing can be improved compared to the existing method in which the user must mask each cross-sectional image one by one.

몇몇 실시예에서, 편집 장치(100)는 전체의 단면 영상들 중에서, 마스킹 영역을 적용하는 단면 영상의 범위를 사용자로부터 입력받고, 그 입력된 범위에 해당하는 단면 영상 각각에서 마스킹 영역을 식별하고, 각 단면 영상의 마스킹 영역을 제1 그래픽 요소를 이용하여 마스킹 처리할 수 있다. In some embodiments, the editing device 100 receives from the user a range of cross-sectional images to which a masking area is applied among all cross-sectional images, identifies a masking area in each cross-sectional image corresponding to the input range, and The masking area of each cross-sectional image can be masked using the first graphic element.

몇몇 실시예에서, 편집 장치(100)는, 마스킹 영역이 표시된 복수의 단면 영상이 순서(즉, 시퀀스 넘버)에 따라 배열되는 편집 결과 화면을 디스플레이할 수 있다. 또한, 편집 장치(100)는 마스킹 처리된 마스킹 영역을 포함하는 3차원 치아 모델을 디스플레이할 수 있다. In some embodiments, the editing device 100 may display an editing result screen in which a plurality of cross-sectional images with masking areas displayed are arranged in order (i.e., sequence number). Additionally, the editing device 100 may display a three-dimensional tooth model including a masked area.

도 8은 편집 결과 화면을 예시하는 도면이다. Figure 8 is a diagram illustrating an editing result screen.

도 8에 예시된 바와 같이, 편집 장치(100)는 마스킹 처리된 각각의 단면 영상이 시퀀스 넘버에 따라 배열된 편집 결과 화면을 사용자에게 제공할 수 있다. 사용자는 편집 결과 화면의 페이지 변경을 통해, 각 단면 영상이 의도된 대로 마스킹 처리되었는지를 검증할 수 있다. As illustrated in FIG. 8 , the editing device 100 may provide the user with an editing result screen in which each masked cross-sectional image is arranged according to sequence number. Users can verify whether each cross-sectional image has been masked as intended by changing the page of the editing result screen.

도 9는 단면 영상을 이용하여 마스킹 한 데이터를 3차원 치아 모델에 표현한 예시 도면으로서, 특정 치아(30)가 마스킹 처리된 것을 예시하고 있다.Figure 9 is an example diagram showing masked data using a cross-sectional image expressed in a 3D tooth model, illustrating a specific tooth 30 that has been masked.

도 10은 본 발명의 다른 실시예에 따른, 3차원 치아 모델의 편집을 지원하는 방법을 설명하는 순서도이다.Figure 10 is a flowchart explaining a method for supporting editing of a 3D tooth model according to another embodiment of the present invention.

도 10을 참조하면, 편집 장치(100)는 3차원 치아 모델에 대한 편집을 사용자(예컨대, 술자)로부터 요청받은 경우, 3차원 치아 모델에 포함된 치아 단면을 디스플레이할 수 있다(S210). 일 실시예에서, 편집 장치(100)는 3차원 치아 모델에 대한 편집 요청이 입력되는 경우에, 복수의 단면 영상을 디스플레이할 수 있으며, 이 중에서 사용자가 선택한 단면 영상을 전체 화면에 디스플레이할 수 있다.Referring to FIG. 10 , when a user (eg, surgeon) requests to edit a 3D tooth model, the editing device 100 may display a tooth cross section included in the 3D tooth model (S210). In one embodiment, when a request to edit a 3D tooth model is input, the editing device 100 may display a plurality of cross-sectional images, and among these, the cross-sectional image selected by the user may be displayed on the entire screen. .

이어서, 편집 장치(100)는 브러시 툴을 사용자에게 제공하고, 그 브러시 툴을 통해 단면 영상에 포함된 하나 이상의 오브젝트들 중에서 어느 하나를 선택하는 사용자의 입력 정보를 수신할 수 있다(S220). Next, the editing device 100 may provide a brush tool to the user and receive input information from the user selecting one of one or more objects included in the cross-sectional image through the brush tool (S220).

다음으로, 편집 장치(100)는 브러시 툴이 선택된 지점에 위치하는 오브젝트를 식별하고, 그 오브젝트를 마스킹 영역으로 설정할 수 있다(S230). 일 실시예에서, 편집 장치(100)는 브러시 툴이 선택된 지점의 HU 값을 식별하고, 상기 선택된 지점과 소정의 반경 내에 포함되는 범위에서, 상기 HU 값과 임계차이 이내의 HU 값을 가지는 영역을 식별하고, 그 식별된 영역을 상기 오브젝트로서 식별할 수 있다. Next, the editing device 100 may identify an object located at the point where the brush tool is selected and set the object as a masking area (S230). In one embodiment, the editing device 100 identifies the HU value of a point where a brush tool is selected, and selects an area that has an HU value within a threshold difference from the HU value within a range included in the selected point and a predetermined radius. identification, and the identified area can be identified as the object.

이어서, 편집 장치(100)는 상기 설정된 마스킹 영역을 제1 그래픽 요소를 표시함으로써, 마스킹 영역을 마스킹 처리할 수 있다(S240).Next, the editing device 100 may process the masking area by displaying the first graphic element in the set masking area (S240).

도 11은 브러시 툴을 통해서 마스킹 영역이 마스킹 처리되는 것을 예시하는 도면이다. Figure 11 is a diagram illustrating a masking area being masked using a brush tool.

도 11에 예시된 바와 같이, 사용자가 브러시 툴(41)을 이용하여 특정 지점을 선택하면, 그 지점에 대응되는 오브젝트가 마스킹 영역(42)으로 설정되어 특정 색상으로 마스킹 처리될 수 있다. 상기 선택 지점에 대응되는 오브젝트는 HU 값을 이용하여 식별될 수 있다. 즉, 선택 지점의 HU 값을 기준으로 소정의 범위 내의 HU 값을 가지는 영역이 상기 오브젝트로서 식별될 수 있을 것이다.As illustrated in FIG. 11 , when a user selects a specific point using the brush tool 41, the object corresponding to that point is set as the masking area 42 and can be masked with a specific color. The object corresponding to the selection point can be identified using the HU value. That is, an area having an HU value within a predetermined range based on the HU value of the selected point may be identified as the object.

이어서, 편집 장치(100)는 마스킹 영역을 포함하는 복수의 단면 영상을 3차원 치아 모델에서 획득할 수 있다(S250). 이어서, 편집 장치(100)는 획득한 각 단면 영상에서 마스킹 영역을 식별하고, 각 단면 영상에 포함된 마스킹 영역을 제1 그래픽 요소를 이용하여 마스킹 처리할 수 있다(S260). 몇몇 실시예에서, 편집 장치(100)는 전체의 단면 영상들 중에서, 마스킹 영역을 적용하는 단면 영상의 범위를 사용자로부터 입력받고, 그 입력된 범위에 해당하는 단면 영상 각각에 포함된 마스킹 영역을 제1 그래픽 요소를 이용하여 마스킹 처리할 수 있다. Next, the editing device 100 may acquire a plurality of cross-sectional images including the masking area from the 3D tooth model (S250). Next, the editing device 100 may identify a masking area in each obtained cross-sectional image and mask the masking area included in each cross-sectional image using the first graphic element (S260). In some embodiments, the editing device 100 receives a range of cross-sectional images to which a masking area is applied from the user among all cross-sectional images, and selects a masking area included in each cross-sectional image corresponding to the input range. 1 Masking can be done using graphic elements.

또한, 편집 장치(100)는 마스킹 처리된 마스킹 영역을 포함하는 3차원 치아 모델(도 9 참조)을 디스플레이할 수 있고, 또한 마스킹 영역이 표시된 복수의 단면 영상이 순서(즉, 시퀀스 넘버)에 따라 배열되는 편집 결과 화면(도 8 참조)을 디스플레이할 수 있다.In addition, the editing device 100 may display a three-dimensional tooth model (see FIG. 9) including a masked area, and may display a plurality of cross-sectional images showing the masking area in order (i.e., sequence number). An arranged editing result screen (see FIG. 8) can be displayed.

도 12는 본 발명의 또 다른 실시예에 따른, 3차원 치아 모델의 편집을 지원하는 방법을 설명하는 순서도이다.Figure 12 is a flowchart explaining a method for supporting editing of a 3D tooth model according to another embodiment of the present invention.

도 12를 참조하면, 편집 장치(100)는 3차원 치아 모델에 대한 편집을 사용자로부터 요청받은 경우, 3차원 치아 모델에 포함된 치아 단면을 디스플레이할 수 있다(S310). 일 실시예에서, 편집 장치(100)는 3차원 치아 모델에 대한 편집 요청이 입력되는 경우에, 복수의 단면 영상을 디스플레이할 수 있으며, 이 중에서 사용자가 선택한 단면 영상을 전체 화면에 디스플레이할 수 있다.Referring to FIG. 12, when a user requests to edit a 3D tooth model, the editing device 100 may display a tooth cross section included in the 3D tooth model (S310). In one embodiment, when a request to edit a 3D tooth model is input, the editing device 100 may display a plurality of cross-sectional images, and among these, the cross-sectional image selected by the user may be displayed on the entire screen. .

이어서, 편집 장치(100)는 선 그리기 툴을 사용자에게 제공하고, 선 그리기 툴을 통해 선 그리기 입력을 사용자로부터 수신할 수 있다(S320). Next, the editing device 100 may provide a line drawing tool to the user and receive a line drawing input from the user through the line drawing tool (S320).

다음으로, 편집 장치(100)는 선 그리기가 완료되면, 선 그리기 툴을 통해서 입력된 선을 기초로 폐곡선을 생성할 수 있다(S330). 일 실시예에서, 편집 장치(100)는 첫 번째 입력 지점(즉, 첫번째 포인트)과 마지막 입력 지점(즉, 마지막 포인트)를 연결하여, 폐곡선을 생성할 수 있다. 상기 폐곡선의 내부 영역이 마스킹 영역이 될 수 있을 것이다. 즉, 상기 폐곡선은 마스킹 영역의 외곽선일 수 있다.Next, when the line drawing is completed, the editing device 100 may generate a closed curve based on the line input through the line drawing tool (S330). In one embodiment, the editing device 100 may generate a closed curve by connecting the first input point (ie, first point) and the last input point (ie, last point). The inner area of the closed curve may be a masking area. That is, the closed curve may be the outline of the masking area.

일 실시예에서, 편집 장치(100)는 상기 폐곡선을 보정함으로써, 상기 마스킹 영역을 조정할 수 있다. 이 때, 편집 장치(100)는 상기 마스킹 영역을 구성하는 픽셀들 및 상기 폐곡선의 인접 픽셀들의 HU 값을 식별할 수 있다. 상기 인접 픽셀들은 상기 마스킹 영역이 소정 거리만큼 확장되거나 축소될 때 새롭게 포함되는 픽셀들로 이해될 수 있을 것이다.In one embodiment, the editing device 100 may adjust the masking area by correcting the closed curve. At this time, the editing device 100 may identify the HU values of pixels constituting the masking area and adjacent pixels of the closed curve. The adjacent pixels may be understood as pixels that are newly included when the masking area is expanded or contracted by a predetermined distance.

다음으로 편집 장치(100)는 상기 마스킹 영역의 대표 HU 값을 결정할 수 있다. 예를 들어, 상기 마스킹 영역의 대표 HU 값은 상기 마스킹 영역의 평균 HU 값 또는 상기 마스킹 영역의 중심점의 HU 값일 수 있다.Next, the editing device 100 may determine a representative HU value of the masking area. For example, the representative HU value of the masking area may be the average HU value of the masking area or the HU value of the center point of the masking area.

다음으로, 편집 장치(100)는 상기 인접 픽셀들 중, 상기 마스킹 영역의 대표 HU 값과의 HU 값 차이가 소정 범위 이내인 제1 인접 픽셀들을 식별할 수 있다. 다음으로, 편집 장치(100)는 상기 제1 인접 픽셀들로 구성되는 제1 영역의 외곽선을 이용하여 상기 폐곡선을 조정할 수 있다. 예를 들어, 편집 장치(100)는 상기 제1 영역의 외곽선이 조정 후의 폐곡선이 되도록 결정할 수 있다.Next, the editing device 100 may identify first adjacent pixels among the adjacent pixels whose HU value difference with the representative HU value of the masking area is within a predetermined range. Next, the editing device 100 may adjust the closed curve using the outline of the first area composed of the first adjacent pixels. For example, the editing device 100 may determine that the outline of the first area is a closed curve after adjustment.

이어서, 편집 장치(100)는 폐곡선 내 특정 영역을 생성하고, 생성된 영역을 기초로 마스킹 영역을 설정할 수 있다(S340). 일 실시예에서, 편집 장치(100)는 상기 생성된 폐곡선이 상기 마스킹 영역이 되도록 설정할 수 있다.Next, the editing device 100 may create a specific area within the closed curve and set a masking area based on the created area (S340). In one embodiment, the editing device 100 may set the generated closed curve to be the masking area.

다음으로, 편집 장치(100)는 상기 설정된 마스킹 영역을 제1 그래픽 요소를 표시함으로써, 상기 마스킹 영역을 마스킹 처리할 수 있다(S350).Next, the editing device 100 may perform masking processing on the set masking area by displaying a first graphic element in the set masking area (S350).

도 13은 선 그리기 툴을 통해서 마스킹 영역이 마스킹 처리되는 것을 예시하는 도면이다. Figure 13 is a diagram illustrating a masking area being masked using a line drawing tool.

도 13에 예시된 바와 같이, 사용자가 선 그리기 툴(51)을 이용하여 선을 그리면, 그 선을 기초로 마스킹 영역(52)이 설정되어 특정 색상으로 마스킹 처리될 수 있다.As illustrated in FIG. 13 , when a user draws a line using the line drawing tool 51, a masking area 52 is set based on the line and can be masked with a specific color.

이어서, 편집 장치(100)는 마스킹 영역을 포함하는 복수의 단면 영상을 3차원 치아 모델에서 획득할 수 있다(S360). 이어서, 편집 장치(100)는 획득한 각 단면 영상에서 상기 마스킹 영역을 식별하고, 각 단면 영상에 포함된 마스킹 영역을 제1 그래픽 요소를 이용하여 마스킹 처리할 수 있다(S370). 몇몇 실시예에서, 편집 장치(100)는 전체의 단면 영상들 중에서, 마스킹 영역을 적용하는 단면 영상의 범위를 사용자로부터 입력받고, 그 입력된 범위에 해당하는 단면 영상 각각에 포함된 마스킹 영역을 제1 그래픽 요소를 이용하여 마스킹 처리할 수 있다. Next, the editing device 100 may acquire a plurality of cross-sectional images including the masking area from the 3D tooth model (S360). Next, the editing device 100 may identify the masking area in each obtained cross-sectional image and mask the masking area included in each cross-sectional image using the first graphic element (S370). In some embodiments, the editing device 100 receives a range of cross-sectional images to which a masking area is applied from the user among all cross-sectional images, and selects a masking area included in each cross-sectional image corresponding to the input range. 1 Masking can be done using graphic elements.

또한, 편집 장치(100)는 마스킹 처리된 마스킹 영역을 포함하는 3차원 치아 모델(도 9 참조)을 디스플레이할 수 있고, 또한 마스킹 영역이 표시된 복수의 단면 영상이 순서(즉, 시퀀스 넘버)에 따라 배열되는 편집 결과 화면(도 8 참조)을 디스플레이할 수 있다.In addition, the editing device 100 may display a three-dimensional tooth model (see FIG. 9) including a masked area, and may display a plurality of cross-sectional images showing the masking area in order (i.e., sequence number). An arranged editing result screen (see FIG. 8) can be displayed.

도 14는 편집 장치(100)의 하드웨어 구성도이다. 편집 장치(100)는 하나 이상의 프로세서(1100), 시스템 버스(1600), 통신 인터페이스(1200), 프로세서(1100)에 의하여 수행되는 컴퓨터 프로그램(1500)을 로드(load)하는 메모리(1400)와, 컴퓨터 프로그램(1500)을 저장하는 스토리지(1300)를 포함할 수 있다.Figure 14 is a hardware configuration diagram of the editing device 100. The editing device 100 includes one or more processors 1100, a system bus 1600, a communication interface 1200, and a memory 1400 that loads a computer program 1500 executed by the processor 1100, It may include a storage 1300 that stores a computer program 1500.

프로세서(1100)는 영상 수집 장치(200)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1100)는 본 발명의 다양한 실시예들에 따른 방법/동작을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 메모리(1400)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(1400)는 본 발명의 다양한 실시예들에 따른 방법/동작들을 실행하기 위하여 스토리지(1300)로부터 하나 이상의 컴퓨터 프로그램(1500)을 로드(load) 할 수 있다. 버스(1600)는 영상 수집 장치(200)의 구성 요소 간 통신 기능을 제공한다. 통신 인터페이스(1200)는 영상 수집 장치(200)의 인터넷 통신을 지원한다. 스토리지(1300)는 하나 이상의 컴퓨터 프로그램(1500)을 비임시적으로 저장할 수 있다. 컴퓨터 프로그램(1500)은 본 발명의 다양한 실시예들에 따른 방법/동작들이 구현된 하나 이상의 인스트럭션들(instructions)을 포함할 수 있다. 컴퓨터 프로그램(1500)이 메모리(1400)에 로드 되면, 프로세서(1100)는 상기 하나 이상의 인스트럭션들을 실행시킴으로써 본 발명의 다양한 실시예들에 따른 방법/동작들을 수행할 수 있다.The processor 1100 controls the overall operation of each component of the image collection device 200. The processor 1100 may perform operations on at least one application or program to execute methods/operations according to various embodiments of the present invention. The memory 1400 stores various data, commands and/or information. The memory 1400 may load one or more computer programs 1500 from the storage 1300 to execute methods/operations according to various embodiments of the present invention. The bus 1600 provides communication functions between components of the image collection device 200. The communication interface 1200 supports Internet communication of the image collection device 200. Storage 1300 may non-temporarily store one or more computer programs 1500. The computer program 1500 may include one or more instructions implementing methods/operations according to various embodiments of the present invention. When the computer program 1500 is loaded into the memory 1400, the processor 1100 can perform methods/operations according to various embodiments of the present invention by executing the one or more instructions.

컴퓨터 프로그램(1500)은 3차원 치아 모델에 포함된 단면 영상의 마스킹 영역을 그래픽 요소를 이용하여 마스킹 처리하는 동작과, 마스킹 영역의 외곽선에 복수의 영역 조절 핸들을 표출하는 동작과, 복수의 영역 조절 핸들 중에서 하나 이상의 영역 조절 핸들에 대한 이동 입력을 사용자로부터 수신하는 동작과, 하나 이상의 영역 조절 핸들의 이동 입력에 근거하여, 마스킹 영역을 변경하는 동작을 수행하기 위한 인스트럭션들(instructions)을 포함할 수 있다.The computer program 1500 includes an operation of masking a masking area of a cross-sectional image included in a 3D tooth model using graphic elements, an operation of displaying a plurality of area adjustment handles on the outline of the masking area, and an operation of controlling a plurality of areas. It may include instructions for receiving a movement input for one or more area control handles from the user and performing an operation for changing the masking area based on the movement input for one or more area control handles. there is.

지금까지 도 1 내지 도 14를 참조하여 본 발명의 다양한 실시예들 및 그 실시예들에 따른 효과들을 언급하였다. 본 발명의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.So far, various embodiments of the present invention and effects according to the embodiments have been mentioned with reference to FIGS. 1 to 14. The effects according to the technical idea of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below.

지금까지 설명된 본 발명의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The technical idea of the present invention described so far can be implemented as computer-readable code on a computer-readable medium. The computer program recorded on the computer-readable recording medium can be transmitted to another computing device through a network such as the Internet, installed on the other computing device, and thus used on the other computing device.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 발명이 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although operations are shown in the drawings in a specific order, it should not be understood that the operations must be performed in the specific order shown or sequential order or that all illustrated operations must be performed to obtain the desired results. In certain situations, multitasking and parallel processing may be advantageous. Although embodiments of the present invention have been described above with reference to the attached drawings, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing the technical idea or essential features. I can understand that there is. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of protection of the present invention shall be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope shall be construed as being included in the scope of rights of the technical ideas defined by the present invention.

Claims (16)

컴퓨터 장치가 3차원 치아 모델을 편집하는 방법으로서,
상기 3차원 치아 모델에 포함된 단면 영상의 마스킹(Masking) 영역을 그래픽 요소를 이용하여 마스킹 처리하는 단계;
상기 마스킹 영역의 외곽선에 위치하는 복수의 영역 조절 핸들을 표출하는 단계;
상기 복수의 영역 조절 핸들 중에서 선택되는 하나 이상의 영역 조절 핸들에 대한 이동 입력을 사용자로부터 수신하는 단계; 및
상기 하나 이상의 영역 조절 핸들의 이동 입력을 반영하여 상기 마스킹 영역을 변경하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
A method for a computer device to edit a three-dimensional tooth model, comprising:
masking a masking area of the cross-sectional image included in the 3D tooth model using a graphic element;
displaying a plurality of area adjustment handles located on the outline of the masking area;
Receiving a movement input for one or more area control handles selected from the plurality of area control handles from the user; and
Including a step of changing the masking area by reflecting a movement input of the one or more area adjustment handles.
How to edit a 3D tooth model.
제1항에 있어서,
상기 복수의 영역 조절 핸들을 표출하는 단계는,
상기 마스킹 영역의 외곽선에서 나타나는 곡률을 계산하는 단계; 및
상기 계산된 곡률이 임계값 이상인 지점에 상기 영역 조절 핸들을 표출하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
According to paragraph 1,
The step of displaying the plurality of area control handles includes:
calculating a curvature appearing at the outline of the masking area; and
Including, displaying the area adjustment handle at a point where the calculated curvature is greater than or equal to a threshold value.
How to edit a 3D tooth model.
제1항에 있어서,
상기 마스킹 영역은 제1 오브젝트를 포함하고,
상기 마스킹 영역을 변경하는 단계는,
상기 마스킹 영역의 크기가 확대된 경우, 확대된 영역에 상기 제1 오브젝트와 상이한 제2 오브젝트가 포함되어 있는지 여부를 판정하는 단계; 및
상기 판정 결과 상기 확대된 영역에 제2 오브젝트가 포함된 경우, 상기 제2 오브젝트를 상기 그래픽 요소와 상이한 그래픽 요소를 이용하여 마스킹 처리하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
According to paragraph 1,
The masking area includes a first object,
The step of changing the masking area is,
When the size of the masking area is enlarged, determining whether the enlarged area includes a second object different from the first object; and
If, as a result of the determination, a second object is included in the enlarged area, masking the second object using a graphic element different from the graphic element,
How to edit a 3D tooth model.
제3항에 있어서,
상기 마스킹 영역을 변경하는 단계는,
상기 판정 결과 상기 확대된 영역에 상기 제1 오브젝트가 포함되어 있는 경우, 상기 확대된 영역을 상기 그래픽 요소를 이용하여 마스킹 처리하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
According to paragraph 3,
The step of changing the masking area is,
If, as a result of the determination, the first object is included in the enlarged area, masking the enlarged area using the graphic element.
How to edit a 3D tooth model.
제3항에 있어서,
상기 확대된 영역에 상기 제1 오브젝트와 상이한 제2 오브젝트가 포함되어 있는지 여부를 판정하는 단계는,
상기 마스킹 영역의 제1 HU 값과 상기 확대된 영역의 제2 HU 값의 차이가 임계범위를 이탈하였는지 여부를 판정하는 단계; 및
상기 제1 HU 값과 상기 제2 HU 값의 차이가 상기 임계범위를 이탈하면, 상기 확대된 영역에 상기 제1 오브젝트와 상이한 제2 오브젝트가 미포함된 것으로 판정하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
According to paragraph 3,
The step of determining whether the enlarged area includes a second object different from the first object includes:
determining whether a difference between a first HU value of the masking area and a second HU value of the enlarged area is outside a threshold range; and
If the difference between the first HU value and the second HU value is outside the threshold range, determining that the enlarged area does not contain a second object that is different from the first object.
How to edit a 3D tooth model.
제1항에 있어서,
상기 마스킹 영역을 변경하는 단계 이후에,
상기 마스킹 영역을 포함하는 복수의 단면 영상들을 획득하는 단계; 및
상기 그래픽 요소를 이용하여, 상기 획득된 각 단면 영상에 포함된 마스킹 영역을 상기 그래픽 요소를 이용하여 마스킹 처리하는 단계;를 더 포함하는,
3차원 치아 모델 편집 방법.
According to paragraph 1,
After changing the masking area,
acquiring a plurality of cross-sectional images including the masking area; and
Further comprising: using the graphic element to mask a masking area included in each of the obtained cross-sectional images using the graphic element.
How to edit a 3D tooth model.
제6항에 있어서,
상기 획득된 각 단면 영상에 포함된 마스킹 영역을 상기 그래픽 요소를 이용하여 마스킹 처리하는 단계는,
상기 마스킹 영역이 표시된 복수의 단면 영상이 시퀀스 넘버에 따라 배열되는 편집 결과 화면을 디스플레이하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
According to clause 6,
The step of masking the masking area included in each obtained cross-sectional image using the graphic element,
Including, displaying an editing result screen in which a plurality of cross-sectional images displaying the masking area are arranged according to sequence numbers.
How to edit a 3D tooth model.
제1항에 있어서,
상기 마스킹 영역을 변경하는 단계는,
상기 마스킹 영역의 크기가 감소된 경우, 크기 감소에 따라 상기 마스킹 영역에서 제외되는 영역을 식별하는 단계; 및
상기 식별된 제외 영역에 표시되는 상기 그래픽 요소를 제거하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
According to paragraph 1,
The step of changing the masking area is,
When the size of the masking area is reduced, identifying an area excluded from the masking area according to the size reduction; and
Including, removing the graphic element displayed in the identified exclusion area.
How to edit a 3D tooth model.
제1항에 있어서,
상기 그래픽 요소는 사전에 설정된 색상이고,
상기 그래픽 요소를 이용하여 마스킹 처리하는 단계는,
상기 마스킹 영역을 상기 색상으로 채색하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
According to paragraph 1,
The graphic element is a preset color,
The step of masking using the graphic elements is,
Including; coloring the masking area with the color,
How to edit a 3D tooth model.
컴퓨터 장치가 3차원 치아 모델을 편집하는 방법으로서,
상기 3차원 치아 모델에 포함된 단면 영상을 디스플레이하는 단계;
상기 디스플레이된 단면 영상에서 어느 한 지점에 입력 정보를 수신하는 단계;
상기 지점을 포함하는 오브젝트를 상기 단면 영상에서 식별하는 단계;
상기 식별된 오브젝트를 마스킹 영역으로 설정하고, 상기 설정된 마스킹 영역을 그래픽 요소를 이용하여 마스킹 처리하는 단계;
상기 마스킹 영역을 포함하는 복수의 단면 영상들을 획득하는 단계; 및
상기 그래픽 요소를 이용하여, 상기 획득된 단면 영상 각각에 포함된 마스킹 영역을 상기 그래픽 요소를 이용하여 마스킹 처리하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
A method for a computer device to edit a three-dimensional tooth model, comprising:
Displaying a cross-sectional image included in the three-dimensional tooth model;
Receiving input information at a point in the displayed cross-sectional image;
identifying an object including the point in the cross-sectional image;
Setting the identified object as a masking area and masking the set masking area using a graphic element;
acquiring a plurality of cross-sectional images including the masking area; and
Including, using the graphic element, masking a masking area included in each of the obtained cross-sectional images using the graphic element.
How to edit a 3D tooth model.
제10항에 있어서,
상기 오브젝트를 상기 단면 영상에서 식별하는 단계는,
상기 지점의 HU 값을 식별하는 단계;
상기 지점과 소정의 거리 내에 포함되는 영역에서, 상기 HU 값과 임계차이 이내의 HU 값을 가지는 영역을 식별하는 단계; 및
상기 식별된 영역을 상기 오브젝트로서 식별하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
According to clause 10,
The step of identifying the object in the cross-sectional image includes:
identifying the HU value of the point;
identifying an area having an HU value within a threshold difference from the HU value in an area included within a predetermined distance from the point; and
Including, identifying the identified area as the object.
How to edit a 3D tooth model.
컴퓨터 장치가 3차원 치아 모델을 편집하는 방법으로서,
상기 3차원 치아 모델에 포함된 단면 영상을 디스플레이하는 단계;
상기 디스플레이된 단면 영상에서 선 그리기 입력을 수신하는 단계;
상기 선 그리기 입력을 기초로 특정 영역을 생성하는 단계;
상기 생성된 특정 영역을 마스킹 영역으로 설정하고, 상기 설정된 마스킹 영역을 그래픽 요소를 이용하여 마스킹 처리하는 단계;
상기 마스킹 영역을 포함하는 복수의 단면 영상들을 획득하는 단계; 및
상기 그래픽 요소를 이용하여, 상기 획득된 단면 영상 각각에 포함된 마스킹 영역을 상기 그래픽 요소를 이용하여 마스킹 처리하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
A method for a computer device to edit a three-dimensional tooth model, comprising:
Displaying a cross-sectional image included in the three-dimensional tooth model;
Receiving a line drawing input from the displayed cross-sectional image;
generating a specific area based on the line drawing input;
Setting the created specific area as a masking area and masking the set masking area using a graphic element;
acquiring a plurality of cross-sectional images including the masking area; and
Including, using the graphic element, masking a masking area included in each of the obtained cross-sectional images using the graphic element.
How to edit a 3D tooth model.
제12항에 있어서,
상기 특정 영역을 생성하는 단계는,
상기 선 그리기 입력의 시작점과 끝점을 연결하여, 폐곡선을 생성하는 단계; 및
상기 폐곡선 내 특정 영역을 생성하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
According to clause 12,
The step of creating the specific area is,
Connecting the start and end points of the line drawing input to create a closed curve; and
Including, generating a specific area within the closed curve,
How to edit a 3D tooth model.
제12항에 있어서,
상기 폐곡선을 생성하는 단계는,
상기 폐곡선의 HU 값을 식별하는 단계;
상기 폐곡선에서부터 소정의 거리까지의 범위에서, 상기 특정 영역의 HU 값과 임계차이 이내의 HU 값을 가지는 영역을 식별하는 단계; 및
상기 식별된 영역의 외곽선과 일치하도록, 상기 폐곡선을 보정하는 단계;를 포함하는,
3차원 치아 모델 편집 방법.
According to clause 12,
The step of generating the closed curve is,
Identifying the HU value of the closed curve;
identifying an area having an HU value within a threshold difference from the HU value of the specific area within a range from the closed curve to a predetermined distance; and
Comprising: correcting the closed curve to match the outline of the identified area,
How to edit a 3D tooth model.
제14항에 있어서,
상기 특정 영역의 HU 값은, 상기 특정 영역의 중심점에 대한 HU 값 또는 상기 특정 영역 전체의 HU 값에 대한 평균인 것인,
3차원 치아 모델 편집 방법.
According to clause 14,
The HU value of the specific area is the HU value of the center point of the specific area or the average of the HU values of the entire specific area,
How to edit a 3D tooth model.
하나 이상의 프로세서;
상기 프로세서에 의하여 수행되는 컴퓨터 프로그램을 로드(load)하는 메모리; 및
상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되,
상기 컴퓨터 프로그램은,
3차원 치아 모델에 포함된 단면 영상의 마스킹 영역을 그래픽 요소를 이용하여 마스킹 처리하는 동작;
상기 마스킹 영역의 외곽선에 복수의 영역 조절 핸들을 표출하는 동작;
상기 복수의 영역 조절 핸들 중에서 하나 이상의 영역 조절 핸들에 대한 이동 입력을 사용자로부터 수신하는 동작; 및
상기 하나 이상의 영역 조절 핸들의 이동 입력에 근거하여, 상기 마스킹 영역을 변경하는 동작을 수행하기 위한 인스트럭션들(instructions)을 포함하는,
3차원 치아 모델 편집 장치.
One or more processors;
a memory that loads a computer program executed by the processor; and
Including storage for storing the computer program,
The computer program is,
An operation of masking a masking area of a cross-sectional image included in a 3D tooth model using a graphic element;
An operation of displaying a plurality of area adjustment handles on the outline of the masking area;
Receiving a movement input for one or more area control handles among the plurality of area control handles from a user; and
Comprising instructions for performing an operation to change the masking area based on a movement input of the one or more area adjustment handles,
3D tooth model editing device.
KR1020220032102A 2022-03-15 2022-03-15 Method and apparatus for supporting editing of 3d tooth model KR20230134828A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220032102A KR20230134828A (en) 2022-03-15 2022-03-15 Method and apparatus for supporting editing of 3d tooth model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220032102A KR20230134828A (en) 2022-03-15 2022-03-15 Method and apparatus for supporting editing of 3d tooth model

Publications (1)

Publication Number Publication Date
KR20230134828A true KR20230134828A (en) 2023-09-22

Family

ID=88190118

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220032102A KR20230134828A (en) 2022-03-15 2022-03-15 Method and apparatus for supporting editing of 3d tooth model

Country Status (1)

Country Link
KR (1) KR20230134828A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210100248A (en) 2020-02-05 2021-08-17 오스템임플란트 주식회사 Method for establishing diagnosis and treatment plan and 3D dental image providing device therefor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210100248A (en) 2020-02-05 2021-08-17 오스템임플란트 주식회사 Method for establishing diagnosis and treatment plan and 3D dental image providing device therefor

Similar Documents

Publication Publication Date Title
JP6355766B2 (en) User-induced shape morphing in bone segmentation for medical imaging
JP2022000211A (en) Method and device for removing teeth row mesh braces
EP4287121A1 (en) Device and method for automatically matching oral scan data and computed tomography image by means of crown segmentation of oral scan data
US9792525B2 (en) Systems and methods for contouring a set of medical images
US8970581B2 (en) System and method for interactive contouring for 3D medical images
JP5210615B2 (en) Medical image diagnosis support apparatus and medical image diagnosis support program
KR102179153B1 (en) Automatic restitching of 3-d surfaces
US9530238B2 (en) Image processing apparatus, method and program utilizing an opacity curve for endoscopic images
JPWO2007013300A1 (en) Abnormal shadow candidate detection method and abnormal shadow candidate detection apparatus
JP6643821B2 (en) Image processing device
JP3989896B2 (en) Medical image processing apparatus, region of interest extraction method, and program
US9020232B2 (en) Per vessel, vessel tree modelling with shared contours
KR20230134828A (en) Method and apparatus for supporting editing of 3d tooth model
JP4201939B2 (en) Image processing apparatus and radiation therapy planning system
CN111862001A (en) Semi-automatic labeling method and device for CT image, electronic equipment and storage medium
JPH06215153A (en) Image processor
US20230390032A1 (en) Method for determining object area from three-dimensional model, and three-dimensional model processing device
KR102641953B1 (en) Tooth segmentation apparatus and method for tooth image
KR102418811B1 (en) Method for picking insertion path setting interface and dental CAD device for same
KR102231215B1 (en) Automatic generation method of neural tube line and medical image processing apparatus therefor
KR102210341B1 (en) Neural tube line detecting method using medical image processing and simulation and apparatus thereof
KR102418810B1 (en) Margin line point picking method in margin line design process and dental CAD device for same
JP2017196041A (en) Ocular fundus image analysis device, ocular fundus image analysis method, and program
KR102456703B1 (en) Method for creating nerve tube line and dental implant surgery planning device therefor
JP7390669B2 (en) Information processing system, information processing method, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal