KR102672239B1 - Method, device and recording medium for displaying orthodontic diagnosis images using landmarks - Google Patents

Method, device and recording medium for displaying orthodontic diagnosis images using landmarks Download PDF

Info

Publication number
KR102672239B1
KR102672239B1 KR1020210144608A KR20210144608A KR102672239B1 KR 102672239 B1 KR102672239 B1 KR 102672239B1 KR 1020210144608 A KR1020210144608 A KR 1020210144608A KR 20210144608 A KR20210144608 A KR 20210144608A KR 102672239 B1 KR102672239 B1 KR 102672239B1
Authority
KR
South Korea
Prior art keywords
landmarks
landmark
bilateral
image
location
Prior art date
Application number
KR1020210144608A
Other languages
Korean (ko)
Other versions
KR20230060185A (en
Inventor
김가희
권민정
이명훈
이혜림
최규옥
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Priority to KR1020210144608A priority Critical patent/KR102672239B1/en
Publication of KR20230060185A publication Critical patent/KR20230060185A/en
Application granted granted Critical
Publication of KR102672239B1 publication Critical patent/KR102672239B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Dentistry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Processing Or Creating Images (AREA)

Abstract

일 실시 예에 따라, 3D 이미지를 이용하여 복수개의 랜드마크의 위치를 결정하고, 복수개의 랜드마크 중 양측성 랜드마크에 대한 기준점의 위치를 결정하여 2D 이미지에 제공함으로써, 3D 이미지에서 결정되는 랜드마크가 2D 이미지에서 어느 위치에 있는지에 대해서 실시간 확인이 용이하고 양측성 구조물의 좌우측 랜드마크 위치에 대해서 보다 직관적인 분석이 가능한 방법이 개시된다.According to one embodiment, the positions of a plurality of landmarks are determined using a 3D image, and the positions of reference points for bilateral landmarks among the plurality of landmarks are determined and provided in the 2D image, so that the land determined in the 3D image is determined. A method is disclosed that facilitates real-time confirmation of where a mark is located in a 2D image and enables more intuitive analysis of the locations of left and right landmarks of bilateral structures.

Description

랜드마크를 이용한 교정 진단 이미지 표시 방법, 디바이스 및 그 기록매체{METHOD, DEVICE AND RECORDING MEDIUM FOR DISPLAYING ORTHODONTIC DIAGNOSIS IMAGES USING LANDMARKS}Method for displaying orthodontic diagnostic images using landmarks, device and recording medium thereof {METHOD, DEVICE AND RECORDING MEDIUM FOR DISPLAYING ORTHODONTIC DIAGNOSIS IMAGES USING LANDMARKS}

본 개시는 랜드마크를 이용하여 교정 진단에 이용되는 이미지를 디스플레이하는 방법, 디바이스 및 그 기록매체에 관한 것이다.The present disclosure relates to a method, device, and recording medium for displaying images used for orthodontic diagnosis using landmarks.

일반적으로 교정 치료를 진행할 때 환자의 문제를 진단하기 위해 2D 분석법이 이용되고 있다. 최근에 환자의 치료 부위에 대한 3D 데이터를 정밀하게 촬영하기 위한 CBCT(cone beam computed tomography) 등의 다양한 장비 기술이 개발되었다. 하지만, 이러한 3D 데이터를 이용하여 환자의 문제점을 진단하는 3D 분석법은 아직까지는 2D 분석법에 비해 연구자료가 부족한 실정이다.In general, 2D analysis methods are used to diagnose patient problems when undergoing orthodontic treatment. Recently, various equipment technologies, such as CBCT (cone beam computed tomography), have been developed to precisely photograph 3D data of the patient's treatment area. However, 3D analysis methods that use 3D data to diagnose patient problems still lack research data compared to 2D analysis methods.

이에, 상술한 문제점을 해결하고 교정 환자 진단을 위해 데이터 정확성이 높은 3D 데이터를 활용하되, 오랜 기간 동안 축적된 2D 분석법을 적용하여 효율적이고 신뢰성 높은 분석 결과를 제공하기 위한 기술이 요구되고 있다.Accordingly, there is a need for technology to solve the above-mentioned problems and utilize 3D data with high data accuracy to diagnose orthodontic patients, while providing efficient and reliable analysis results by applying 2D analysis methods accumulated over a long period of time.

한국공개특허 제10-2017-0007309 (2017.01.18) 3-D 두부 방사선 계측 분석을 위한 방법Korean Patent Publication No. 10-2017-0007309 (2017.01.18) Method for 3-D head radiography analysis

본 개시의 일 실시 예는 전술한 종래 기술의 문제점을 해결하기 위한 것으로, 교정 진단 시, 3D 데이터를 기반으로 2D 분석법에 따라 분석을 수행하여 효율적으로 분석 결과를 제공할 수 있는 방법, 디바이스 및 기록매체를 제공하고자 한다.An embodiment of the present disclosure is intended to solve the problems of the prior art described above, and provides a method, device, and record that can efficiently provide analysis results by performing analysis according to a 2D analysis method based on 3D data during correction diagnosis. We want to provide media.

해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제들이 더 포함될 수 있다.The technical challenges to be solved are not limited to the technical challenges described above, and may further include various technical challenges within the scope apparent to those skilled in the art.

본 개시의 제 1 측면에 따른 이미지를 디스플레이하는 방법은 대상체에 대한 3D 이미지를 획득하는 단계; 상기 3D 이미지 내 포함된 복수개의 랜드마크의 위치를 결정하는 단계; 상기 결정된 복수개의 랜드마크 중 양측성 구조물에 대한 랜드마크인 양측성 랜드마크의 위치를 지정하는 단계; 상기 지정된 양측성 랜드마크의 위치에 기초하여 상기 양측성 랜드마크에 대한 기준점의 위치를 결정하는 단계; 및 상기 복수개의 랜드마크 및 상기 양측성 랜드마크에 대한 기준점이 표시된 상기 대상체에 대한 2D 이미지를 디스플레이하는 단계;를 포함할 수 있다.A method of displaying an image according to a first aspect of the present disclosure includes acquiring a 3D image of an object; determining the positions of a plurality of landmarks included in the 3D image; Specifying the location of a bilateral landmark, which is a landmark for a bilateral structure, among the determined plurality of landmarks; determining a location of a reference point for the bilateral landmark based on the location of the designated bilateral landmark; and displaying a 2D image of the object in which reference points for the plurality of landmarks and the bilateral landmarks are displayed.

또한, 상기 양측성 랜드마크에 대한 상기 기준점의 위치를 결정하는 단계는 상기 양측성 랜드마크를 구성하는 제 1 양측성 랜드마크와 제 2 양측성 랜드마크를 결정하는 단계; 상기 제 1 양측성 랜드마크의 위치와 상기 제 2 양측성 랜드마크의 위치에 대한 평균 위치를 결정하는 단계; 및 상기 평균 위치에 대응하도록 상기 기준점의 위치를 결정하는 단계;를 포함할 수 있다.In addition, determining the position of the reference point with respect to the bilateral landmark may include determining a first bilateral landmark and a second bilateral landmark constituting the bilateral landmark; determining an average position for the positions of the first bilateral landmarks and the positions of the second bilateral landmarks; and determining the position of the reference point to correspond to the average position.

또한, 상기 2D 이미지에 표시된 상기 복수개의 랜드마크 및 상기 양측성 랜드마크에 대한 기준점의 위치는 원근투영(perspective projection) 방식 및 직교투영(orthographic project) 방식 중 적어도 하나의 방식으로 결정될 수 있다.Additionally, the positions of reference points for the plurality of landmarks and the bilateral landmarks displayed in the 2D image may be determined using at least one of a perspective projection method and an orthographic projection method.

또한, 상기 복수개의 랜드마크의 위치를 결정하는 단계는 상기 대상체에 대한 전체 랜드마크 중 위치 결정의 대상이 되는 상기 복수개의 랜드마크를 결정하는 단계; 상기 복수개의 랜드마크 중 현재 단계에서 위치 결정의 대상이 되는 대상 랜드마크의 위치를 확인하는 메시지를 제공하는 단계; 및 상기 메시지에 대한 응답에 기초하여 상기 대상 랜드마크의 위치를 결정하는 단계;를 포함할 수 있다.In addition, determining the positions of the plurality of landmarks may include determining the plurality of landmarks that are subject to position determination among all landmarks for the object; Providing a message confirming the location of a target landmark that is the target of location determination at the current stage among the plurality of landmarks; and determining the location of the target landmark based on the response to the message.

또한, 상기 대상 랜드마크의 위치를 결정하는 단계는 상기 3D 이미지의 일 측면에 대해서 획득되는 상기 메시지에 대한 사용자 입력에 기초하여 상기 대상 랜드마크에 대한 상기 일 측면 상의 위치를 결정하는 단계; 상기 대상 랜드마크의 타 측면 상의 위치를 상기 대상 랜드마크의 속성에 기초하여 결정하는 단계; 및 상기 일 측면 상의 위치 및 상기 타 측면 상의 위치에 기초하여 상기 대상 랜드마크의 위치를 결정하는 단계;를 포함할 수 있다.In addition, determining the location of the target landmark may include determining a location on the one side of the 3D image based on a user input for the message obtained for one side of the 3D image; determining a location on the other side of the target landmark based on attributes of the target landmark; and determining the location of the target landmark based on the location on the one side and the location on the other side.

또한, 상기 대상 랜드마크의 위치를 결정하는 단계는 상기 양측성 랜드마크를 구성하는 제 1 양측성 랜드마크와 제 2 양측성 랜드마크 각각의 위치를 상기 3D 이미지에 표시하여 하나의 화면 내 서로 다른 윈도우에서 동시에 디스플레이하는 단계; 및 상기 서로 다른 윈도우를 통해 수신되는 사용자 입력에 기초하여 상기 제 1 양측성 랜드마크 또는 상기 제 2 양측성 랜드마크의 위치를 결정하는 단계;를 더 포함할 수 있다.In addition, the step of determining the location of the target landmark involves displaying the positions of each of the first bilateral landmark and the second bilateral landmark constituting the bilateral landmark on the 3D image to display different locations within one screen. simultaneously displaying in windows; and determining the location of the first bilateral landmark or the second bilateral landmark based on user input received through the different windows.

또한, 상기 복수개의 랜드마크의 위치를 결정하는 단계는 기 획득된 학습 데이터를 이용하여 상기 3D 이미지에 포함된 상기 복수개의 랜드마크의 위치를 결정하는 단계;를 포함할 수 있다.Additionally, determining the positions of the plurality of landmarks may include determining the positions of the plurality of landmarks included in the 3D image using previously acquired training data.

또한, 상기 복수개의 랜드마크의 위치를 결정하는 단계는 상기 학습 데이터를 통해 결정된 복수개의 랜드마크의 위치를 상기 3D 이미지 상에 표시하는 단계; 및 상기 3D 이미지를 통해 수신되는 사용자 입력에 기초하여 상기 복수개의 랜드마크의 위치를 갱신하는 단계;를 더 포함할 수 있다.In addition, determining the positions of the plurality of landmarks may include displaying the positions of the plurality of landmarks determined through the learning data on the 3D image; and updating the positions of the plurality of landmarks based on user input received through the 3D image.

또한, 상기 3D 이미지 및 상기 2D 이미지는 서로 구별되는 영역에서 동시에 디스플레이되고, 상기 3D 이미지에 대한 사용자 입력에 기초하여 결정된 상기 복수개의 랜드마크의 위치에 따라 상기 2D 이미지에서 표시되는 상기 복수개의 랜드마크의 위치가 실시간으로 갱신될 수 있다.In addition, the 3D image and the 2D image are displayed simultaneously in distinct areas, and the plurality of landmarks displayed in the 2D image according to the positions of the plurality of landmarks determined based on user input for the 3D image. The location can be updated in real time.

또한, 상기 2D 이미지는 상기 대상체에 대한 라테럴 이미지, 프론트 이미지, 파노라마 이미지 및 SMV 이미지 중 적어도 하나를 포함하고, 상기 기준점은 상기 복수개의 랜드마크와 상이한 방식으로 디스플레이될 수 있다.Additionally, the 2D image includes at least one of a lateral image, a front image, a panoramic image, and an SMV image for the object, and the reference point may be displayed in a different manner from the plurality of landmarks.

본 개시의 제 2 측면에 따른 이미지를 디스플레이하는 디바이스는 대상체에 대한 3D 이미지를 획득하고, 상기 3D 이미지 내 포함된 복수개의 랜드마크의 위치를 결정하고, 상기 결정된 복수개의 랜드마크 중 양측성 구조물에 대한 랜드마크인 양측성 랜드마크의 위치를 지정하고, 상기 지정된 양측성 랜드마크의 위치에 기초하여 상기 양측성 랜드마크에 대한 기준점의 위치를 결정하는 프로세서; 및 상기 복수개의 랜드마크 및 상기 양측성 랜드마크에 대한 기준점이 표시된 상기 대상체에 대한 2D 이미지를 디스플레이하는 디스플레이;를 포함할 수 있다.A device for displaying an image according to a second aspect of the present disclosure acquires a 3D image of an object, determines the positions of a plurality of landmarks included in the 3D image, and locates a bilateral structure among the determined plurality of landmarks. a processor that specifies the location of a bilateral landmark, which is a landmark for the bilateral landmark, and determines a location of a reference point for the bilateral landmark based on the location of the designated bilateral landmark; and a display that displays a 2D image of the object on which reference points for the plurality of landmarks and the bilateral landmarks are displayed.

또한, 상기 프로세서는 상기 양측성 랜드마크를 구성하는 제 1 양측성 랜드마크와 제 2 양측성 랜드마크를 결정하고, 상기 제 1 양측성 랜드마크의 위치와 상기 제 2 양측성 랜드마크의 위치에 대한 평균 위치를 결정하고, 상기 평균 위치에 대응하도록 상기 기준점의 위치를 결정할 수 있다.In addition, the processor determines a first bilateral landmark and a second bilateral landmark constituting the bilateral landmark, and determines the location of the first bilateral landmark and the location of the second bilateral landmark. The average position can be determined, and the position of the reference point can be determined to correspond to the average position.

또한, 상기 2D 이미지에 표시된 상기 복수개의 랜드마크 및 상기 양측성 랜드마크에 대한 기준점의 위치는 원근투영(perspective projection) 방식 및 직교투영(orthographic project) 방식 중 적어도 하나의 방식으로 결정될 수 있다.Additionally, the positions of reference points for the plurality of landmarks and the bilateral landmarks displayed in the 2D image may be determined using at least one of a perspective projection method and an orthographic projection method.

또한, 상기 프로세서는 상기 대상체에 대한 전체 랜드마크 중 위치 결정의 대상이 되는 상기 복수개의 랜드마크를 결정하고, 상기 복수개의 랜드마크 중 현재 단계에서 위치 결정의 대상이 되는 대상 랜드마크의 위치를 확인하는 메시지를 제공하고, 상기 메시지에 대한 응답에 기초하여 상기 대상 랜드마크의 위치를 결정할 수 있다.In addition, the processor determines the plurality of landmarks that are the target of location determination among all landmarks for the object, and determines the location of the target landmark that is the target of location determination at the current stage among the plurality of landmarks. A message may be provided, and the location of the target landmark may be determined based on the response to the message.

또한, 상기 디스플레이는 상기 양측성 랜드마크를 구성하는 제 1 양측성 랜드마크와 제 2 양측성 랜드마크 각각의 위치를 상기 3D 이미지에 표시하여 하나의 화면 내 서로 다른 윈도우에서 동시에 제공하고, 상기 프로세서는 상기 서로 다른 윈도우를 통해 수신되는 사용자 입력에 기초하여 상기 제 1 양측성 랜드마크 또는 상기 제 2 양측성 랜드마크의 위치를 결정할 수 있다.In addition, the display displays the positions of each of the first and second bilateral landmarks constituting the bilateral landmarks on the 3D image and simultaneously provides them in different windows within one screen, and the processor may determine the location of the first bilateral landmark or the second bilateral landmark based on user input received through the different windows.

또한, 상기 프로세서는 기 획득된 학습 데이터를 이용하여 상기 3D 이미지에 포함된 상기 복수개의 랜드마크의 위치를 결정할 수 있다. Additionally, the processor may determine the positions of the plurality of landmarks included in the 3D image using previously acquired learning data.

본 발명의 제 3 측면은 제 1 측면에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. 또는, 본 발명의 제 4 측면은 제 1 측면에 따른 방법을 구현하기 위하여 기록매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.A third aspect of the present invention can provide a computer-readable recording medium recording a program for executing the method according to the first aspect on a computer. Alternatively, the fourth aspect of the present invention may provide a computer program stored in a recording medium to implement the method according to the first aspect.

일 실시 예에 따르면, 랜드마크 위치 입력에 이용되는 3D 이미지와 3D 이미지로부터 추출되는 2D 이미지를 동시에 제공할 수 있다. 이에 따라, 사용자는 3D 이미지에서 결정되는 랜드마크가 2D 이미지에서 어느 위치에 있는지에 대해서 실시간으로 확인할 수 있다.According to one embodiment, a 3D image used to input a landmark location and a 2D image extracted from the 3D image can be provided at the same time. Accordingly, the user can check in real time where the landmark determined in the 3D image is located in the 2D image.

또한, 양측성 랜드마크에 대한 기준점을 3D 이미지 및 2D 이미지에 제공함으로써, 양측성 구조물의 좌우측 랜드마크 위치에 대해서 보다 직관적인 분석이 가능한 효과가 있다.In addition, by providing reference points for bilateral landmarks in 3D images and 2D images, it is possible to more intuitively analyze the locations of the left and right landmarks of bilateral structures.

또한, 3D 이미지에서 랜드마크를 한번만 입력하더라도 기준점이 자동 도출될 뿐만 아니라, 여러 개의 2D 이미지까지 자동으로 제공될 수 있다. 또한, 3D 이미지를 통해 랜드마크의 위치가 입력되기 때문에 보다 정확하게 랜드마크 위치가 결정될 수 있다.Additionally, even if a landmark is entered only once in a 3D image, not only can a reference point be automatically derived, but multiple 2D images can also be automatically provided. Additionally, because the location of the landmark is input through a 3D image, the location of the landmark can be determined more accurately.

또한, 3D 이미지의 랜드마크 위치와 2D 이미지의 랜드마크 위치를 실시간 연동하여 디스플레이함으로써 사용자 편의성을 향상시킬 수 있다.Additionally, user convenience can be improved by displaying the landmark positions of the 3D image and the landmark positions of the 2D image in real time.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the effects described above, and should be understood to include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 일 실시 예에 따른 디바이스의 구성의 일 예를 나타내는 블록도이다.
도 2는 일 실시 예에 따른 디바이스가 랜드마크에 대한 사용자 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 3은 일 실시 예에 따른 디바이스가 복수개의 랜드마크 및 기준점이 표시된 3D 이미지로부터 2D 이미지를 획득하는 동작을 설명하기 위한 도면이다.
도 4는 일 실시 예에 따른 디바이스가 2D 이미지에 표시되는 복수개의 랜드마크에 대한 분석 결과를 제공하는 동작을 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 디바이스가 이미지를 디스플레이하는 방법을 나타내는 흐름도이다.
1 is a block diagram showing an example of the configuration of a device according to an embodiment.
FIG. 2 is a diagram illustrating an operation in which a device receives a user input for a landmark, according to an embodiment.
FIG. 3 is a diagram illustrating an operation in which a device acquires a 2D image from a 3D image displaying a plurality of landmarks and reference points according to an embodiment.
FIG. 4 is a diagram illustrating an operation in which a device provides analysis results for a plurality of landmarks displayed in a 2D image, according to an embodiment.
Figure 5 is a flowchart showing a method by which a device displays an image, according to an embodiment.

실시 예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments are general terms that are currently widely used as much as possible while considering the function in the present invention, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a part “includes” a certain element throughout the specification, this means that it does not exclude other elements, but may further include other elements, unless specifically stated to the contrary. In addition, “…” stated in the specification. Terms such as “unit” refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement it. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein.

이하에서는 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 일 실시 예에 따른 디바이스(100)의 구성의 일 예를 나타내는 블록도이다.FIG. 1 is a block diagram illustrating an example of the configuration of a device 100 according to an embodiment.

도 1을 참조하면, 디바이스(100)는 프로세서(110) 및 디스플레이(120)를 포함할 수 있다.Referring to FIG. 1, device 100 may include a processor 110 and a display 120.

프로세서(110)는 대상체에 대한 3D 이미지를 획득할 수 있다. 여기에서, 대상체는 환자의 신체 부위(예: 두부)를 포함할 수 있다. 일 실시 예에서, 3D 이미지는 단층 촬영 방식에 기초하여 획득되는 CT(computed tomography) 이미지일 수 있으나, 이에 제한되지 않는다. 예를 들면, 3D 이미지는 환자의 치아 부분에 대한 내부 공간, 밀도 및 다수의 단면에 관한 정보를 포함하는 3D CBCT(cone beam CT) 이미지일 수 있다. 다른 예를 들면, 3D 이미지는 DICOM(digital imaging and communications in medicine) 디지털 이미지나 그 밖의 다양한 유형의 의료 이미지일 수도 있다. 일 실시 예에서, 3D 이미지는 치아의 진단을 위해 머리 부분에 대한 복셀(voxel)로 이루어진 3D CT 이미지, 치아부분의 영역만 촬영된 3D CT 이미지, 또는 신체 전체가 촬영된 3D CT 이미지를 포함할 수 있다.The processor 110 may acquire a 3D image of the object. Here, the object may include a body part (eg, head) of the patient. In one embodiment, the 3D image may be a computed tomography (CT) image obtained based on a tomography method, but is not limited thereto. For example, the 3D image may be a 3D cone beam CT (CBCT) image that includes information about the internal space, density, and multiple cross-sections of a portion of the patient's teeth. As another example, the 3D image may be a DICOM (digital imaging and communications in medicine) digital image or various other types of medical images. In one embodiment, the 3D image may include a 3D CT image consisting of voxels for the head for diagnosis of teeth, a 3D CT image in which only the area of the tooth is captured, or a 3D CT image in which the entire body is captured. You can.

일 실시 예에서, 프로세서(110)는 대상체에 대해서 촬영된 3D 이미지를 다른 디바이스(예: 이미지 촬영 장치)로부터 수신할 수 있다. 다른 일 실시 예에서, 프로세서(110)는 디바이스(100)에 포함된 이미지 촬영 장치(미도시)를 제어하여 대상체에 대한 3D 이미지를 촬영할 수 있다. 또 다른 일 실시 예에서, 프로세서(110)는 메모리에 저장된 3D 이미지를 로딩할 수 있다.In one embodiment, the processor 110 may receive a 3D image captured about an object from another device (eg, an image capturing device). In another embodiment, the processor 110 may control an image capture device (not shown) included in the device 100 to capture a 3D image of an object. In another embodiment, the processor 110 may load a 3D image stored in memory.

프로세서(110)는 3D 이미지에 대한 복수개의 랜드마크(10)의 위치를 결정할 수 있다. 여기에서, 랜드마크(10)는 교정 진단에 요구되는 3D 이미지 상의 해부학적 지점을 나타내고, 2차원(x, y) 또는 3차원(x, y, z) 방향에 기반하여 정의될 수 있다. 일 실시 예에서, 랜드마크(10)는 교정 진단에 이용되는 셀라(sella), 네이지온(nasion), 외측익돌근(pterygoid), 안와(orbitale), 베이지온(basion), 포리온(porion), 코퍼스(corpus), 포고니온(pogonion), ANS(anterior nasal spine), PNS(posterior nasal spine), 상악 전치 1번 치근(예: maxilla 1 root), 하악 전치 1번 치관(예: mandible 1 crown) 등을 포함할 수 있으나, 이에 제한되지 않으며, 그밖에 다양한 해부학적 지점들이 이용될 수 있다. 이에 관한 내용은 도 2를 더 참조하여 서술하도록 한다.The processor 110 may determine the positions of the plurality of landmarks 10 with respect to the 3D image. Here, the landmark 10 represents an anatomical point on a 3D image required for orthodontic diagnosis, and may be defined based on a two-dimensional (x, y) or three-dimensional (x, y, z) direction. In one embodiment, the landmarks 10 include the sella, nasion, pterygoid, orbitale, basis, and porion, which are used in orthodontic diagnosis. , corpus, pogonion, anterior nasal spine (ANS), posterior nasal spine (PNS), maxilla 1 root (e.g. maxilla 1 root), mandible 1 crown (e.g. mandible 1 crown) ), etc., but is not limited thereto, and various anatomical points may be used. Details regarding this will be described with further reference to FIG. 2.

도 2는 일 실시 예에 따른 디바이스(100)가 랜드마크(10)에 대한 사용자 입력을 수신하는 동작을 설명하기 위한 도면이다.FIG. 2 is a diagram illustrating an operation of the device 100 receiving a user input for the landmark 10 according to an embodiment.

도 2를 참조하면, 프로세서(110)는 대상체에 대한 3D 이미지를 로딩하여 디스플레이(120)에 전송하고, 디스플레이(120)는 수신된 3D 이미지를 디스플레이할 수 있다. 또한, 프로세서(110)는 3D 이미지를 통해 수신되는 랜드마크(10)에 대한 사용자 입력에 기초하여 랜드마크(10)의 위치를 결정할 수 있다. 예를 들면, 디스플레이(120)는 사용자 입력에 따라 결정된 환자 정보에 대응하는 3D 이미지를 제 1 윈도우(210)에 디스플레이하고, 랜드마크(10)의 명칭을 포함하거나 위치를 확인하는 메시지를 함께 디스플레이할 수 있다. 예컨대, 설정된 랜드마크 순서에 따라 위치 입력이 요구되는 랜드마크(10)에 대응하는 명칭(예: '네이지온' 또는 네이지온의 약어 'N')이 디스플레이되고, 해당 명칭 상에 마우스 커서가 위치하는 경우, 해당 랜드마크(10)의 정의가 툴 팁 메시지로서 표시될 수 있다. 또한, 프로세서(110)는 다음 순서의 랜드마크(10)로의 이동을 요청하는 사용자 입력(예: 화살표 버튼에 대한 선택 입력, 스페이스바 버튼의 입력 등)이 수신되는 경우, 설정된 랜드마크 순서에 따라 다음 순서의 랜드마크(10)의 위치를 확인하기 위한 명칭 또는 메시지를 출력할 수 있다.Referring to FIG. 2, the processor 110 may load a 3D image of an object and transmit it to the display 120, and the display 120 may display the received 3D image. Additionally, the processor 110 may determine the location of the landmark 10 based on a user input for the landmark 10 received through a 3D image. For example, the display 120 displays a 3D image corresponding to the patient information determined according to the user input in the first window 210, and also displays a message including the name of the landmark 10 or confirming the location. can do. For example, according to the set landmark order, the name corresponding to the landmark 10 for which location input is required (e.g., 'Nage On' or 'N', the abbreviation for Naige On) is displayed, and the mouse cursor is positioned on the name. In this case, the definition of the corresponding landmark 10 may be displayed as a tool tip message. In addition, when the processor 110 receives a user input requesting movement to the next landmark 10 (e.g., a selection input for an arrow button, an input for a space bar button, etc.), the processor 110 moves according to the set landmark order. A name or message can be output to confirm the location of the next landmark 10.

이어서, 프로세서(110)는 메시지에 대한 응답으로서 3D 이미지 상에서 특정 위치에 대한 사용자 입력(예: 선택 입력, 위치 좌표값 입력 등)이 수신되는 경우, 선택된 위치에 따라 랜드마크(10)의 위치를 결정할 수 있다. 또한, 프로세서(110)는 결정된 랜드마크(10)의 위치가 표시되도록 3D 이미지를 갱신할 수 있다. 명세서 전반에서, 사용자 입력은 마우스, 키보드, 조이스틱 등을 이용하여 인가되는 사용자의 선택 입력, 텍스트 입력 등을 폭넓게 의미할 수 있다. 또한, '표시'는 이미지 상에 숫자나 기호 등을 마킹하거나 값을 보여주는 것을 의미할 수 있다.Subsequently, when a user input (e.g., selection input, location coordinate value input, etc.) for a specific location on the 3D image is received as a response to the message, the processor 110 determines the location of the landmark 10 according to the selected location. You can decide. Additionally, the processor 110 may update the 3D image so that the determined location of the landmark 10 is displayed. Throughout the specification, user input can broadly refer to user selection input, text input, etc. authorized using a mouse, keyboard, joystick, etc. Additionally, 'display' may mean marking numbers or symbols on an image or showing a value.

프로세서(110)는 전체 랜드마크 중 위치 결정의 대상이 되는 복수개의 랜드마크(10)를 결정할 수 있다. 일 실시 예에서, 디스플레이(120)는 전체 랜드마크(예: 50개)의 종류를 포함하는 전체 랜드마크 리스트를 디스플레이하고, 프로세서(110)는 전체 랜드마크 리스트에 대한 사용자의 선택 입력에 따라 위치 결정의 대상이 되는 복수개(예: 10개)의 랜드마크(10)를 결정할 수 있다. 다른 일 실시 예에서, 프로세서(110)는 위치 결정의 대상이 되는 복수개의 랜드마크(10)에 대한 설정 정보(예: 랜드마크 종류)를 메모리에서 로딩할 수 있다.The processor 110 may determine a plurality of landmarks 10 that are the target of location determination among all landmarks. In one embodiment, the display 120 displays a complete landmark list including all landmarks (e.g., 50 types), and the processor 110 positions the entire landmark list according to the user's selection input. A plurality of landmarks (10) (e.g., 10) that are the target of decision may be determined. In another embodiment, the processor 110 may load setting information (eg, landmark type) for a plurality of landmarks 10 that are the target of location determination from memory.

프로세서(110)는 복수개의 랜드마크(10) 중 현재 단계에서 위치 결정의 대상이 되는 대상 랜드마크의 위치를 문의하는 메시지를 제공하고, 메시지에 대한 사용자 입력에 기초하여 대상 랜드마크의 위치를 결정할 수 있다. 예를 들면, 프로세서(110)는 지정된 랜드마크 순서(예: 우측 안와, 좌측 안와, 포고니온 등)에 따라 현재 단계에서 대상 랜드마크(예: 우측 안와)에 대한 위치 문의, 사용자 입력 수신, 위치 결정 등의 제 1 단계를 수행할 수 있다. 이어서, 프로세서(110)는 지정된 랜드마크 순서에 따라 다음 단계에서 갱신된 대상 랜드마크(예: 좌측 안와)에 대한 위치 문의, 사용자 입력 수신, 위치 결정 등의 제 2 단계를 수행할 수 있다. 이와 같이, 프로세서(110)는 제 1 단계 내지 제 N 단계에 따라 상술한 동작을 반복하여 N 개의 랜드마크(10)의 위치들을 순차적으로 결정할 수 있다.The processor 110 provides a message to inquire about the location of the target landmark that is the target of location determination at the current stage among the plurality of landmarks 10, and determines the location of the target landmark based on the user input to the message. You can. For example, the processor 110 may query the location of a target landmark (e.g., right orbit) in the current step according to a specified landmark order (e.g., right orbit, left orbit, pogonion, etc.), receive user input, and determine the location. The first step, such as decision, can be performed. Subsequently, the processor 110 may perform a second step, such as inquiring about the location of the updated target landmark (e.g., left eye socket), receiving user input, and determining the location, in the next step according to the designated landmark order. In this way, the processor 110 may sequentially determine the positions of the N landmarks 10 by repeating the above-described operations according to the first to Nth steps.

일 실시 예에서, 프로세서(110)는 전체 랜드마크 중 위치 결정의 대상이 되는 복수개의 랜드마크(10)에 대해서는 사용자 입력에 따라 위치를 결정하고, 나머지 랜드마크에 대해서는 설정된 방식에 따라 3D 이미지로부터 각각의 위치를 결정할 수 있다. 예를 들면, 프로세서(110)는 이미지를 기반으로 획득된 학습 데이터를 이용하여 3D 이미지에서 나머지 랜드마크 각각의 위치를 검출할 수 있다.In one embodiment, the processor 110 determines the location of a plurality of landmarks 10 that are the target of location determination among all landmarks according to user input, and determines the location of the remaining landmarks from the 3D image according to a set method. Each location can be determined. For example, the processor 110 may detect the location of each remaining landmark in the 3D image using training data obtained based on the image.

프로세서(110)는 기 획득된 AI(Artificial Intelligence) 기반의 학습 데이터를 이용하여 3D 이미지에 포함된 복수개의 랜드마크의 위치를 결정할 수 있다. 일 실시 예에서, 프로세서(110)는 학습 데이터에 포함된 학습 데이터 세트에 CNN(Convolutional Neural Network)을 적용하여 3D 이미지에서 랜드마크(10)의 위치 좌표를 트레이싱할 수 있다. 예를 들면, 학습 데이터는 상술한 다양한 해부학적 지점의 위치가 표시된 학습 이미지 세트에 대한 학습을 통해 입력 이미지로부터 랜드마크(10)의 위치를 트레이싱하는 CNN 모델을 포함할 수 있다. 또한, 학습 이미지 세트는 GAN(Generative Adversarial Net) 알고리즘에 기초하여 샘플 이미지로부터 이미지를 증강하는 방식으로 생성될 수 있다. 프로세서(110)는 CNN 모델에 3D 이미지를 입력하여 3D 이미지 내에 포함된 복수개의 랜드마크(10)의 위치를 각각 검출할 수 있다. 일 실시 예에서, 프로세서(110)는 상술한 학습을 수행하는 외부 디바이스(예: 서버)로부터 학습 데이터를 수신할 수 있고, 3D 이미지에 대한 사용자 입력을 통해 결정되는 랜드마크(10)의 위치 정보를 이용하여 학습 데이터를 지속적으로 업데이트할 수 있다.The processor 110 may determine the positions of a plurality of landmarks included in the 3D image using previously acquired AI (Artificial Intelligence)-based learning data. In one embodiment, the processor 110 may apply a convolutional neural network (CNN) to a training data set included in the training data to trace the position coordinates of the landmark 10 in the 3D image. For example, the training data may include a CNN model that traces the position of the landmark 10 from the input image through learning on a set of training images showing the positions of the various anatomical points described above. Additionally, the learning image set can be created by augmenting images from sample images based on the GAN (Generative Adversarial Net) algorithm. The processor 110 may input a 3D image into the CNN model and detect the positions of each of the plurality of landmarks 10 included in the 3D image. In one embodiment, the processor 110 may receive learning data from an external device (e.g., a server) that performs the above-described learning, and location information of the landmark 10 determined through user input for the 3D image. You can continuously update learning data using .

프로세서(110)는 학습 데이터를 이용하여 결정되는 복수개의 랜드마크(10)의 위치를 3D 이미지 상에 표시하고, 3D 이미지를 통해 수신되는 사용자 입력에 기초하여 복수개의 랜드마크(10)의 위치를 갱신할 수 있다. 예를 들면, 프로세서(110)는 CNN 모델을 통해 검출되는 랜드마크(10)의 위치를 3D 이미지에 우선적으로 표시하여 랜드마크 위치를 선제시한 후, 이에 대해서 위치 수정을 요청하는 사용자 입력이 수신됨에 따라 랜드마크(10)의 위치를 수정할 수 있다.The processor 110 displays the positions of a plurality of landmarks 10 determined using learning data on a 3D image, and determines the positions of the plurality of landmarks 10 based on user input received through the 3D image. It can be renewed. For example, the processor 110 first displays the location of the landmark 10 detected through the CNN model on the 3D image to preempt the landmark location, and then receives a user input requesting location correction. As a result, the position of the landmark 10 can be modified.

프로세서(110)는 결정된 복수개의 랜드마크(10) 중 양측성 구조물에 대한 랜드마크인 양측성 랜드마크(11)의 위치를 지정할 수 있다. 일 실시 예에서, 프로세서(110)는 사용자 입력에 따라 위치가 결정된 랜드마크(10)를 양측성 구조물(예: 눈 뼈)에 대한 랜드마크인 양측성 랜드마크(11) 또는 양측성 구조물을 제외한 나머지 구조물(예: 포고니온)에 대한 랜드마크인 비-양측성 랜드마크(12)로 분류할 수 있다.The processor 110 may specify the location of the bilateral landmark 11, which is a landmark for the bilateral structure, among the determined plurality of landmarks 10. In one embodiment, the processor 110 divides the landmark 10, the location of which is determined according to the user input, into the remaining landmarks 11, which are landmarks for bilateral structures (e.g., eye bones) or the bilateral structures. They can be classified as non-bilateral landmarks (12), which are landmarks for structures (e.g. pogonions).

여기에서, 양측성 구조물(예: 눈 뼈)은 환자의 신체 부위(예: 두부)에 대해서 기준면(예: 관상면, 시상면 또는 수평면)을 기준으로 양측에 두 개의 하위 구조물(예: 우측 눈 뼈, 좌측 눈 뼈)이 분리되어 위치하는 구조물을 나타낸다. 일 실시 예에서, 양측성 구조물(예: 눈 뼈)에 대한 양측성 랜드마크(11)는 안와(예: 눈 뼈 가장 아래), 포리온 등을 포함할 수 있다. 도 2에는 양측성 랜드마크(11)의 일 예로서 '안와'를 도시하였고, 비-양측성 랜드마크(12)의 일 예로서 '포고니온'을 도시하였으나, 이에 제한되지 않는다. 예컨대, 셀라, 포리온 등의 다양한 랜드마크(10)들이 양측성 랜드마크(11)에 해당될 수 있고, 네이지온, 상악 전치 1번 치근, 하악 전치 1번 치관 등의 다양한 랜드마크(10)들이 비-양측성 랜드마크(12)에 해당될 수 있다.Here, a bilateral structure (e.g., eye bone) has two substructures (e.g., right eye) on either side of a reference plane (e.g., coronal, sagittal, or horizontal plane) for a body part of the patient (e.g., head). Bone, left eye bone) represents a structure located separately. In one embodiment, the bilateral landmarks 11 for bilateral structures (e.g., eye bones) may include the orbits (e.g., lowest part of the eye bones), porions, etc. In Figure 2, 'orbital' is shown as an example of a bilateral landmark 11, and 'pogonion' is shown as an example of a non-bilateral landmark 12, but the present invention is not limited thereto. For example, various landmarks (10) such as the sella and the porion may correspond to the bilateral landmarks (11), and various landmarks (10) such as the nasion, the root of the maxillary incisor No. 1, and the crown of the mandibular incisor No. 1. These may correspond to non-bilateral landmarks 12.

프로세서(110)는 양측성 랜드마크(11)를 구성하는 제 1 양측성 랜드마크(11a)와 제 2 양측성 랜드마크(11b)의 위치를 지정할 수 있다. 일 실시 예에서, 프로세서(110)는 결정된 양측성 랜드마크(11)에 대해서, 양측성 랜드마크(11)를 기준면을 기준으로 일 측(예: 우측)에 위치하는 제 1 양측성 랜드마크(11a)와, 기준면을 기준으로 다른 일 측(예: 좌측)에 위치하는 제 2 양측성 랜드마크(11b)로 구분할 수 있다.The processor 110 may specify the positions of the first bilateral landmark 11a and the second bilateral landmark 11b constituting the bilateral landmark 11. In one embodiment, the processor 110, with respect to the determined bilateral landmark 11, creates a first bilateral landmark (e.g., right side) located on one side (e.g., right) with respect to the reference plane of the bilateral landmark 11. It can be divided into 11a) and a second bilateral landmark 11b located on the other side (eg, left) with respect to the reference plane.

일 실시 예에서, 프로세서(110)는 사용자 입력에 따라 위치 결정된 복수개의 랜드마크(10) 중 양측성 구조물에 대응하는 우측 안와(right orbitale) 및 좌측 안와(left orbitale)에 대한 랜드마크(10)를 검출하여 양측성 랜드마크(11)의 위치를 지정할 수 있다. 또한, 프로세서(110)는 우측 안와에 대한 랜드마크(10)의 위치에 따라 제 1 양측성 랜드마크(11a)의 위치를 지정하고, 좌측 안와에 대한 랜드마크(10)의 위치에 따라 제 2 양측성 랜드마크(11b)의 위치를 지정할 수 있다.In one embodiment, the processor 110 selects a landmark 10 for the right orbitale and left orbitale corresponding to the bilateral structure among the plurality of landmarks 10 positioned according to the user input. By detecting, the location of the bilateral landmarks 11 can be specified. In addition, the processor 110 specifies the position of the first bilateral landmark 11a according to the position of the landmark 10 with respect to the right orbit, and the second bilateral landmark 11a according to the position of the landmark 10 with respect to the left orbit. The location of the bilateral landmarks 11b can be specified.

프로세서(110)는 상술한 실시 예들 이외에도 다음과 같은 실시 예들에 따라 양측성 랜드마크(11)의 위치를 지정할 수 있다.In addition to the above-described embodiments, the processor 110 may specify the location of the bilateral landmarks 11 according to the following embodiments.

제 1 실시 예에서, 프로세서(110)는 3D 이미지를 통해 양측성 랜드마크(11)에 대한 양 측면의 사용자 입력을 모두 수신하고, 수신된 양 측면의 사용자 입력에 따라 제 1 양측성 랜드마크(11a)의 위치와 제 2 양측성 랜드마크(11b)의 위치를 각각 지정할 수 있다. 예를 들면, 디스플레이(120)는 3D 이미지를 특정 뷰 포인트(예: 정면)로 디스플레이하고, 프로세서(110)는 해당 뷰 포인트에서 디스플레이되는 3D 이미지 상에서 일 제 1 양측성 랜드마크(11a)의 위치와 제 2 양측성 랜드마크(11b)의 위치에 대한 사용자 입력을 순차적으로 수신할 수 있다.In the first embodiment, the processor 110 receives user inputs from both sides of the bilateral landmark 11 through a 3D image, and creates a first bilateral landmark (11) according to the received user inputs from both sides. The location of 11a) and the location of the second bilateral landmark 11b can be designated, respectively. For example, the display 120 displays a 3D image at a specific view point (e.g., the front), and the processor 110 determines the position of the first bilateral landmark 11a on the 3D image displayed at the view point. and user input regarding the positions of the second bilateral landmarks 11b may be sequentially received.

제 2 실시 예에서, 프로세서(110)는 3D 이미지를 통해 양측성 랜드마크(11)에 대한 일 측면의 사용자 입력만 수신하고, 수신된 일 측면의 사용자 입력을 이용하여 제 1 양측성 랜드마크(11a)의 위치와 제 2 양측성 랜드마크(11b)의 위치를 모두 지정할 수 있다.In the second embodiment, the processor 110 receives only a user input from one side of the bilateral landmark 11 through a 3D image, and uses the received user input from one side to create a first bilateral landmark ( Both the location of 11a) and the location of the second bilateral landmark 11b can be specified.

구체적으로, 프로세서(110)는 3D 이미지의 일 측면에 대해서 획득되는 메시지에 대한 사용자 입력에 기초하여 대상 랜드마크에 대한 일 측면 상의 위치를 결정할 수 있다. 이어서, 프로세서(110)는 대상 랜드마크의 타 측면 상의 위치를 대상 랜드마크의 속성에 기초하여 결정할 수 있다. 또한, 프로세서(110)는 일 측면 상의 위치 및 타 측면 상의 위치에 기초하여 대상 랜드마크의 위치를 결정할 수 있다. 예를 들면, 프로세서(110)는 '우측 안와'의 위치를 문의하는 메시지를 출력하고, 시상면 기준으로 우측면 상의 위치에 대한 사용자 입력이 수신됨에 따라, 제 1 양측성 랜드마크(11a)의 위치를 결정할 수 있다. 이어서, 프로세서(110)는 '안와'라는 대상 랜드마크의 속성(예: 종류)에 대응하는 기준면(예: 시상면)을 결정하고, 해당 기준면을 기준으로 제 1 양측성 랜드마크(11a)의 위치와 대향하는 위치를 검출하여 제 2 양측성 랜드마크(11b)의 위치를 결정할 수 있다.Specifically, the processor 110 may determine a location on one side of the target landmark based on a user input for a message obtained for one side of the 3D image. Subsequently, the processor 110 may determine a location on the other side of the target landmark based on the properties of the target landmark. Additionally, the processor 110 may determine the location of the target landmark based on the location on one side and the location on the other side. For example, the processor 110 outputs a message inquiring about the location of the 'right orbit', and as a user input for the location on the right side based on the sagittal plane is received, the location of the first bilateral landmark 11a can be decided. Subsequently, the processor 110 determines a reference plane (e.g., sagittal plane) corresponding to the attribute (e.g., type) of the target landmark called 'orbital', and determines the first bilateral landmark 11a based on the reference plane. The position of the second bilateral landmark 11b can be determined by detecting the position opposite the position.

이와 같이, 프로세서(110)는 사용자 입력에 따라 위치 결정된 제 1 양측성 랜드마크(11a)를 활용하여, 제 2 양측성 랜드마크(11b)의 위치를 추정함으로써, 양측성 랜드마크(11)의 위치를 결정할 수 있다. 이에 따라, 사용자 관점에서 일 측면에 대한 위치만 지정하더라도 랜드마크 속성에 따라 타 측면의 위치가 자동 예측되기 때문에, 사용자 편의성이 향상될 수 있다.In this way, the processor 110 utilizes the first bilateral landmark 11a, whose position is determined according to the user input, to estimate the location of the second bilateral landmark 11b, thereby determining the position of the bilateral landmark 11. The location can be determined. Accordingly, even if only the location of one side is specified from the user's perspective, the location of the other side is automatically predicted based on landmark properties, thereby improving user convenience.

제 3 실시 예에서, 프로세서(110)는 3D 이미지를 통해 양측성 랜드마크(11)에 대한 일 측면의 사용자 입력을 수신한 후, 회전 요청에 따라 제공되는 3D 이미지의 타 측면에 대한 사용자 입력을 수신하여 양측성 랜드마크(11)의 위치를 결정할 수 있다.In the third embodiment, the processor 110 receives user input on one side of the bilateral landmark 11 through a 3D image, and then receives user input on the other side of the 3D image provided according to the rotation request. By receiving the information, the location of the bilateral landmarks 11 can be determined.

구체적으로, 프로세서(110)는 3D 이미지의 일 측면에 대해서 획득되는 메시지에 대한 사용자 입력에 기초하여 대상 랜드마크에 대한 일 측면 상의 위치를 결정할 수 있다. 이어서, 프로세서(110)는 3D 이미지의 타 측면을 제공할 것을 요청하는 회전 요청을 획득할 수 있다. 또한, 프로세서(110)는 타 측면에 대한 사용자 추가 입력에 기초하여 대상 랜드마크의 타 측면 상의 위치를 결정할 수 있다. 예를 들면, 디스플레이(120)는 3D 이미지를 특정 뷰 포인트(예: 정면)로 디스플레이하고, '우측 안와'의 위치를 문의하는 메시지를 출력할 수 있다. 또한, 프로세서(110)는 해당 뷰 포인트에서 2차원적으로 디스플레이되는 3D 이미지 상에서 시상면 기준으로 일 측방(예: 우측)의 위치에 대한 사용자 입력이 수신됨에 따라, 제 1 양측성 랜드마크(11a)의 위치를 결정할 수 있다. 이어서, 프로세서(110)는 해당 뷰 포인트(예: 정면)의 3D 이미지를 특정 축(예: x, y, z), 특정 각도(예: 90도)로 회전시킬 것을 요청하는 사용자 입력(예: 드래그 앤 드롭 입력, 축 입력, 각도 입력 등)을 수신할 수 있고, 디스플레이(120)는 사용자 입력에 따른 다른 뷰 포인트(예: 측면, 상부 등)로 3D 이미지를 갱신하여 디스플레이할 수 있다. 또한, 프로세서(110)는 다른 뷰 포인트로 디스플레이되는 3D 이미지 상에서 시상면 기준으로 다른 측방(예: 좌측)의 위치에 대한 사용자 입력이 수신됨에 따라, 제 2 양측성 랜드마크(12b)의 위치를 결정할 수 있다.Specifically, the processor 110 may determine a location on one side of the target landmark based on a user input for a message obtained for one side of the 3D image. Processor 110 may then obtain a rotation request requesting to provide another side of the 3D image. Additionally, the processor 110 may determine the location of the target landmark on the other side based on a user's additional input for the other side. For example, the display 120 may display a 3D image at a specific view point (e.g., front view) and output a message inquiring about the location of the 'right orbit'. In addition, as the processor 110 receives a user input for the location of one side (e.g., right side) based on the sagittal plane on the 3D image displayed two-dimensionally at the corresponding viewpoint, the first bilateral landmark 11a ) can be determined. Subsequently, the processor 110 receives a user input (e.g., front view) requesting to rotate the 3D image of the corresponding view point (e.g., front view) by a specific axis (e.g., x, y, z) and a specific angle (e.g., 90 degrees). drag and drop input, axis input, angle input, etc.), and the display 120 can update and display the 3D image with a different view point (e.g., side, top, etc.) according to the user input. In addition, the processor 110 determines the location of the second bilateral landmark 12b as a user input for the location of the other side (e.g., left) is received based on the sagittal plane on the 3D image displayed as a different view point. You can decide.

디스플레이(120)는 제 1 양측성 랜드마크(11a)와 제 2 양측성 랜드마크(11b) 각각의 위치를 3D 이미지에 표시하여 하나의 화면 내 서로 다른 윈도우에서 동시에 디스플레이할 수 있다. 일 실시 예에서, 디스플레이(120)는 제 1 양측성 랜드마크(11a)의 위치가 표시된 3D 이미지를 제 1-1 윈도우(예: 제 1 윈도우(210)의 일단)에서 디스플레이하고, 제 2 양측성 랜드마크(11b)의 위치가 표시된 3D 이미지를 제 1-2 윈도우(예: 제 1 윈도우(210)의 다른 일단)에서 디스플레이할 수 있다. 예컨대, 프로세서(110)는 서로 분리되는 윈도우에서 제 1 양측성 랜드마크(11a) 및 제 2 양측성 랜드마크(11b) 각각의 위치가 3D 이미지에 표시되도록 할 수 있다. 이에 따라, 양측성 랜드마크(11)에 대해서 좌측과 우측의 위치를 서로 다른 영역에서 3D 이미지로 동시 제공함으로써, 사용자 편의성을 향상시킬 수 있다.The display 120 can display the positions of each of the first bilateral landmark 11a and the second bilateral landmark 11b on a 3D image simultaneously in different windows within one screen. In one embodiment, the display 120 displays a 3D image indicating the position of the first bilateral landmark 11a in the 1-1 window (e.g., one end of the first window 210), and displays the 3D image in the second bilateral landmark 11a. A 3D image showing the location of the castle landmark 11b may be displayed in the first and second windows (eg, the other end of the first window 210). For example, the processor 110 may display the positions of each of the first bilateral landmarks 11a and the second bilateral landmarks 11b on the 3D image in separate windows. Accordingly, user convenience can be improved by simultaneously providing the left and right positions of the bilateral landmarks 11 as 3D images in different areas.

프로세서(110)는 서로 다른 윈도우를 통해 수신되는 사용자 입력에 기초하여 제 1 양측성 랜드마크(11a) 또는 제 2 양측성 랜드마크(11b)의 위치를 갱신할 수 있다. 일 실시 예에서, 프로세서(110)는 제 1-1 윈도우를 통해 수신되는 사용자 입력에 기초하여 제 1 양측성 랜드마크(11a)의 위치를 갱신할 수 있고, 제 1-2 윈도우를 통해 수신되는 사용자 입력에 기초하여 제 2 양측성 랜드마크(11b)의 위치를 갱신할 수 있다. 예를 들면, 프로세서(110)는 제 1-1 윈도우를 통해 3D 이미지에 대한 회전 요청이 수신되고, 회전된 3D 이미지 상의 일 지점에 대한 사용자 입력이 수신되는 경우, 제 1 양측성 랜드마크(11a)의 위치를 해당 지점으로 갱신할 수 있다. 다른 예를 들면, 프로세서(110)는 제 1-2 윈도우를 통해 3D 이미지에 대한 회전 요청이 수신되고, 회전된 3D 이미지 상의 일 지점에 대한 사용자 입력이 수신되는 경우, 제 2 양측성 랜드마크(11b)의 위치를 해당 지점으로 갱신할 수 있다.The processor 110 may update the position of the first bilateral landmark 11a or the second bilateral landmark 11b based on user input received through different windows. In one embodiment, the processor 110 may update the location of the first bilateral landmark 11a based on the user input received through the 1-1 window, and the location of the first bilateral landmark 11a received through the 1-2 window. The location of the second bilateral landmark 11b may be updated based on user input. For example, when a rotation request for a 3D image is received through the 1-1 window and a user input for a point on the rotated 3D image is received, the processor 110 generates the first bilateral landmark 11a ) can be updated to that point. For another example, when a rotation request for a 3D image is received through the 1-2 window and a user input for a point on the rotated 3D image is received, the processor 110 generates a second bilateral landmark ( The location of 11b) can be updated to the corresponding point.

이에 따라, 프로세서(110)는 AI를 기반으로 랜드마크(10)의 위치를 선제시하고, 제 1 양측성 랜드마크(11a)와 제 2 양측성 랜드마크(11b)의 위치가 각각 표시된 좌측의 3D 이미지와 우측의 3D 이미지를 서로 구분되는 윈도우에 분할하여 하나의 화면에 제시할 수 있다. 또한, 각각의 3D 이미지는 사용자 입력에 따라 회전되어 사용자에 의한 위치 보정에 이용될 수 있으므로, 사용자 편의성을 향상시킬 수 있다.Accordingly, the processor 110 preempts the location of the landmark 10 based on AI, and places the positions of the first bilateral landmark 11a and the second bilateral landmark 11b on the left side, respectively. The 3D image and the 3D image on the right can be divided into separate windows and presented on one screen. Additionally, each 3D image can be rotated according to user input and used for position correction by the user, thereby improving user convenience.

이와 같이, 프로세서(110)는 3D 이미지의 뷰 포인트에 대한 회전이 가능한 인터페이스를 제공할 수 있다. 이에 따라, 사용자 관점에서 3D 이미지 상에서 양측성 랜드마크(11)의 3차원 위치를 디테일하게 설정할 수 있으므로 사용자 편의성이 향상될 수 있다.In this way, the processor 110 may provide an interface that allows rotation of the view point of the 3D image. Accordingly, user convenience can be improved because the 3D position of the bilateral landmarks 11 can be set in detail on the 3D image from the user's perspective.

일반적으로, 사용자가 2D 이미지에서 랜드마크 위치를 입력하는 경우, 그 2D 이미지에 대해서는 랜드마크 위치가 특정되지만 다른 2D 이미지에 대해서는 랜드마크 위치를 다시 입력해야하는 번거로움이 야기된다.Generally, when a user inputs a landmark position in a 2D image, the landmark position is specified for that 2D image, but the inconvenience of having to re-enter the landmark position for other 2D images is caused.

그러나, 상술한 실시 예에 따르면, 사용자가 3D 이미지에서 랜드마크 위치를 입력하는 경우, 2D 이미지에서 랜드마크 위치를 입력하는 경우보다 정확한 3차원 위치 정보가 입력된다. 뿐만 아니라, 사용자 관점에서 한 번만 랜드마크 위치를 입력하더라도 랜드마크 위치가 3차원적으로 특정됨에 따라, 랜드마크(10)가 표시된 2D 이미지를 다양한 각도에 대해서 제한 없이 획득할 수 있는 효과가 있다.However, according to the above-described embodiment, when a user inputs a landmark location in a 3D image, more accurate 3D location information is input than when the user inputs the landmark location in a 2D image. In addition, even if the landmark location is entered only once from the user's perspective, the landmark location is specified in three dimensions, so a 2D image displaying the landmark 10 can be obtained without limitation at various angles.

제 4 실시 예에서, 프로세서(110)는 3D 이미지를 통해 수신되는 일 측면의 사용자 입력에 따라 제 1 양측성 랜드마크(11a)의 위치를 결정하고, 제 1 양측성 랜드마크(11a)의 위치에 따라 제 2 양측성 랜드마크(11b)의 초기 위치를 결정할 수 있다. 이어서, 프로세서(110)는 회전 요청에 따라 제공되는 3D 이미지의 타 측면에 대한 사용자 입력을 수신하여 제 2 양측성 랜드마크(11b)의 위치를 갱신할 수 있다. 예를 들면, 프로세서(110)는 일 측면에 대한 위치 지정만으로 다른 일 측면의 예측 위치를 제공하고, 회전된 3D 이미지를 통한 사용자 입력에 따라 다른 일 측면의 예측 위치를 세부 조정할 수 있다.In the fourth embodiment, the processor 110 determines the position of the first bilateral landmark 11a according to a user input of one side received through a 3D image, and determines the position of the first bilateral landmark 11a Accordingly, the initial position of the second bilateral landmark 11b can be determined. Subsequently, the processor 110 may update the position of the second bilateral landmark 11b by receiving a user input regarding the other side of the 3D image provided according to the rotation request. For example, the processor 110 may provide the predicted position of one side only by specifying the position of one side, and may finely adjust the predicted position of the other side according to user input through a rotated 3D image.

일 실시 예에서, 프로세서(110)는 대상 랜드마크에 대한 일 측면 상의 위치가 결정된 시점부터 설정 시간 이내에 회전 요청이 수신되지 않는 경우, 현재 뷰 포인트 및 대상 랜드마크의 속성을 이용하여 타 측면을 나타내기에 적합한 회전 축 및 회전 각도를 결정할 수 있다. 이어서, 디스플레이(120)는 결정된 회전 축 및 회전 각도에 따라 회전된 3D 이미지를 디스플레이하고, 회전된 3D 이미지 상에서 타 측면 상의 위치 결정을 문의하는 메시지를 출력할 수 있다. 예컨대, 프로세서(110)는 정면 3D 이미지에서 사용자 입력에 따라 우측 코퍼스인 제 1 양측성 랜드마크(11a)의 위치가 결정된 후 설정 시간(예: 30초) 내 회전 요청이 없는 경우, 좌측 코퍼스에 대응하는 시상면에 수직하는 축(예: x축)을 중심으로 90도 회전된 뷰 포인트(예: 액시얼 뷰)로 3D 이미지를 디스플레이(120)에 디스플레이할 수 있다.In one embodiment, if a rotation request is not received within a set time from the time the position on one side of the target landmark is determined, the processor 110 indicates the other side using the current viewpoint and the properties of the target landmark. The rotation axis and rotation angle suitable for the machine can be determined. Next, the display 120 may display a 3D image rotated according to the determined rotation axis and rotation angle, and output a message inquiring about positioning on the other side on the rotated 3D image. For example, if there is no request for rotation within a set time (e.g., 30 seconds) after the position of the first bilateral landmark 11a, which is the right corpus, is determined according to the user input in the frontal 3D image, the processor 110 moves the position to the left corpus. A 3D image may be displayed on the display 120 with a view point (e.g., axial view) rotated 90 degrees about an axis (e.g., x-axis) perpendicular to the corresponding sagittal plane.

프로세서(110)는 결정된 양측성 랜드마크(11)의 위치에 기초하여 양측성 랜드마크(11)에 대한 기준점(20)의 위치를 결정할 수 있다. 여기에서, 기준점(20)은 양측성 랜드마크(11)의 위치가 적절한지에 대한 정보 제공에 이용될 수 있는 지점을 나타낸다. 예컨대, 기준점(20)의 위치는 시상면을 중심으로 제 1 양측성 랜드마크(11a) 또는 제 2 양측성 랜드마크(11b)가 어느 일 측 방향으로 치우치지 않았는지에 대한 기준 위치로서 이용될 수 있다.The processor 110 may determine the position of the reference point 20 with respect to the bilateral landmarks 11 based on the determined positions of the bilateral landmarks 11 . Here, the reference point 20 represents a point that can be used to provide information about whether the location of the bilateral landmarks 11 is appropriate. For example, the position of the reference point 20 can be used as a reference position for whether the first bilateral landmark 11a or the second bilateral landmark 11b is not biased in one direction with respect to the sagittal plane. there is.

프로세서(110)는 제 1 양측성 랜드마크(11a)의 위치와 제 2 양측성 랜드마크(11b)의 위치에 대한 평균 위치를 결정하고, 평균 위치에 대응하도록 기준점(20)의 위치를 결정할 수 있다. 예를 들면, 프로세서(110)는 3D 이미지 내에서 제 1 양측성 랜드마크(11a)의 위치 좌표 (x1, y1, z1)와 제 2 양측성 랜드마크(11b)의 위치 좌표 (x2, y2, z2)를 각각의 축에 대해 평균한 평균 위치 ((x1+x2)/2, (y1+y2)/2, (z1+z2)/2)를 산출할 수 있다. 이어서, 프로세서(110)는 평균 위치 ((x1+x2)/2, (y1+y2)/2, (z1+z2)/2)에 대응하는 위치 좌표에 따라 기준점(20)의 위치 좌표를 결정할 수 있다. 여기에서, 위치가 대응한다는 것은 대상 지점과 위치가 일치하거나 대상 지점으로부터 설정 범위 내에 위치하는 경우를 포함할 수 있다.The processor 110 may determine the average position of the position of the first bilateral landmark 11a and the second bilateral landmark 11b, and determine the position of the reference point 20 to correspond to the average position. there is. For example, the processor 110 uses the position coordinates (x 1 , y 1 , z 1 ) of the first bilateral landmark 11a and the position coordinates (x) of the second bilateral landmark 11b within the 3D image. 2 , y 2 , z 2 ) for each axis, the average position ((x 1 +x 2 )/2, (y 1 +y 2 )/2, (z 1 +z 2 )/2) It can be calculated. Subsequently, the processor 110 determines the reference point 20 according to the position coordinates corresponding to the average position ((x 1 +x 2 )/2, (y 1 +y 2 )/2, (z 1 +z 2 )/2). ) can be determined. Here, the fact that the location corresponds may include a case where the location matches the target point or is located within a set range from the target point.

일 실시 예에서, 프로세서(110)는 제 1 양측성 랜드마크(11a)의 위치와 제 2 양측성 랜드마크(11b)의 위치를 연결한 라인(예: 직선)을 획득하고, 획득한 라인 상의 일 점에 기초하여 기준점(20)의 위치를 결정할 수 있다. 예를 들면, 프로세서(110)는 제 1 양측성 랜드마크(11a)의 위치 좌표와 제 2 양측성 랜드마크(11b)의 위치 좌표를 연결하는 직선의 중점 좌표를 산출하여 기준점(20)의 위치를 결정할 수 있다. 다른 예를 들면, 프로세서(110)는 해당 직선 상에서 제 1 양측성 랜드마크(11a) 또는 제 2 양측성 랜드마크(11b)를 향해 설정 비율만큼 근접하게 위치하는 위치 좌표를 산출하여 기준점(20)의 위치를 결정할 수도 있다. 일 실시 예에서, 프로세서(110)는 3D로 표현되는 양측성 랜드마크(11)를 이용하여 3차원 상의 직선 또는 곡선을 정의할 수 있는 알고리즘들(예: 베지어 곡선, 스플라인 보간법, 다항회귀(polynomial regression) 등)을 이용하여 라인의 위치 정보를 결정할 수 있다.In one embodiment, the processor 110 acquires a line (e.g., a straight line) connecting the position of the first bilateral landmark 11a and the position of the second bilateral landmark 11b, and The position of the reference point 20 can be determined based on one point. For example, the processor 110 calculates the midpoint coordinates of a straight line connecting the position coordinates of the first bilateral landmark 11a and the position coordinates of the second bilateral landmark 11b to determine the position of the reference point 20. can be decided. For another example, the processor 110 calculates the position coordinates located as close as a set ratio toward the first bilateral landmark 11a or the second bilateral landmark 11b on the corresponding straight line to determine the reference point 20. You can also determine the location of . In one embodiment, the processor 110 uses the bilateral landmarks 11 expressed in 3D to use algorithms that can define a straight line or curve in 3D (e.g., Bezier curve, spline interpolation, polynomial regression ( The position information of the line can be determined using polynomial regression, etc.).

프로세서(110)는 3D 이미지에서 복수개의 랜드마크(10)의 위치 및 기준점(20)의 위치를 결정하는 트레이싱을 수행한 후, 3D 이미지로부터 복수개의 랜드마크(10) 및 기준점(20)이 표시된 2D 이미지를 획득할 수 있다. 여기에서, 2D 이미지는 3D 이미지로부터 추출되는 단면 이미지로서, 일 실시 예에서, 대상체에 대한 라테럴(lateral) 이미지, 프론트(front) 이미지, 파노라마 이미지 및 SMV(SubMentoVertex) 이미지 중 적어도 하나를 포함할 수 있다. 일 실시 예에서, 라테럴 이미지는 대상체를 측면에서(예: 오른쪽을 보고 뒤에서 나타낸 이미지) 나타낸 이미지일 수 있다. 프론트 이미지는 대상체를 정면에서 나타낸 이미지일 수 있다. SMV 이미지는 턱을 90도 들어올린 상태에서 턱 밑에서 바라본 뷰 포인트의 이미지를 나타내고, 턱관절에 대한 좌우 비대칭의 정도를 수치화하기 위해 이용될 수 있다.The processor 110 performs tracing to determine the positions of the plurality of landmarks 10 and the reference point 20 in the 3D image, and then displays the plurality of landmarks 10 and the reference point 20 from the 3D image. 2D images can be acquired. Here, the 2D image is a cross-sectional image extracted from a 3D image, and in one embodiment, may include at least one of a lateral image, a front image, a panoramic image, and a SubMentoVertex (SMV) image for the object. You can. In one embodiment, the lateral image may be an image showing the object from the side (e.g., an image viewed from behind while looking to the right). The front image may be an image showing the object from the front. The SMV image represents an image of the view point seen from underneath the chin with the chin lifted 90 degrees, and can be used to quantify the degree of left and right asymmetry of the temporomandibular joint.

도 3은 일 실시 예에 따른 디바이스(100)가 복수개의 랜드마크(10) 및 기준점(20)이 표시된 3D 이미지로부터 2D 이미지를 획득하는 동작을 설명하기 위한 도면이다.FIG. 3 is a diagram illustrating an operation in which the device 100 acquires a 2D image from a 3D image displaying a plurality of landmarks 10 and reference points 20 according to an embodiment.

도 3을 참조하면, 프로세서(110)는 원근투영(perspective projection) 방식으로 대상체에 대한 3D 이미지로부터 복수개의 랜드마크(10) 및 기준점(20)이 표시된 2D 이미지를 획득할 수 있다. 일 실시 예에서, 프로세서(110)는 원근투영 방식으로 2D 이미지에 표시된 복수개의 랜드마크(10) 및 기준점(20)의 위치를 결정할 수 있다. 예를 들면, 프로세서(110)는 3D 이미지 내에 있는 복수개의 랜드마크(10) 및 기준점(20)을 원근 투영의 기준이 되는 원근투영 포인트(30)로 투영시킬 수 있다. 이어서, 프로세서(110)는 원근투영 포인트(30)로부터 멀리 위치한 제 1 클립 평면(far clip plane)(310)과 가까이 위치한 제 2 클립 평면(near clip plane)(320)을 획득할 수 있다. 또한, 프로세서(110)는 제 1 및 제 2 클립 평면 사이의 원근 거리 관계에 따른 비례식을 결정하고, 비례식에 따라 3D 투영 이미지(예: 3D CBCT 이미지)로부터 추출되어 2D 투영 이미지(예: real 2D X-ray)에 표시되는 복수개의 랜드마크(10) 및 기준점(20)의 위치를 결정할 수 있다.Referring to FIG. 3 , the processor 110 may obtain a 2D image displaying a plurality of landmarks 10 and reference points 20 from a 3D image of an object using a perspective projection method. In one embodiment, the processor 110 may determine the positions of a plurality of landmarks 10 and reference points 20 displayed in a 2D image using a perspective projection method. For example, the processor 110 may project a plurality of landmarks 10 and reference points 20 in the 3D image onto the perspective projection point 30, which is the standard for perspective projection. Processor 110 may then obtain a first clip plane (far clip plane) 310 located far from perspective projection point 30 and a second clip plane (near clip plane) 320 located near. In addition, the processor 110 determines a proportional expression according to the perspective distance relationship between the first and second clip planes, and is extracted from the 3D projection image (e.g., 3D CBCT image) according to the proportional expression to produce a 2D projection image (e.g., real 2D The positions of a plurality of landmarks 10 and reference points 20 displayed on an X-ray can be determined.

다른 일 실시 예에서, 프로세서(110)는 직교투영(orthographic projection) 방식으로 대상체에 대한 3D 이미지로부터 복수개의 랜드마크(10) 및 기준점(20)이 표시된 2D 이미지를 획득할 수도 있다.In another embodiment, the processor 110 may obtain a 2D image displaying a plurality of landmarks 10 and reference points 20 from a 3D image of the object using an orthographic projection method.

일 실시 예에서, 프로세서(110)는 상술한 트레이싱을 수행한 후 축 설정을 통해 3D 이미지로부터 2D 이미지를 획득할 수 있다. 일 실시 예에서, 축 설정은 최초에 특정 개수(예: 5개)의 랜드마크(예: 네이지온, 우측/좌측 안와, 우측/좌측 포리온)의 위치를 사용자로부터 입력 받고, 해당 랜드마크 위치를 이용해서 축을 설정하는 것을 의미한다. 예를 들면, 프로세서(110)는 네이지온의 위치를 (0, 0, 0)으로 두고 좌표축을 설정할 수 있다. 프로세서(110)는 축 설정 상태에서 트레이싱을 통해 도출되는 복수개의 랜드마크(10)를 이용하여 3D 이미지에서 원근투영 방식으로 2D 이미지를 생성할 수 있다.In one embodiment, the processor 110 may obtain a 2D image from a 3D image through axis settings after performing the above-described tracing. In one embodiment, the axis setting initially receives the positions of a certain number (e.g., 5) of landmarks (e.g., naigeon, right/left orbit, right/left porion) from the user, and sets the corresponding landmark locations. This means setting the axis using . For example, the processor 110 may set the coordinate axis with the position of Navigation at (0, 0, 0). The processor 110 may generate a 2D image using a perspective projection method from a 3D image using a plurality of landmarks 10 derived through tracing in an axis setting state.

디스플레이(120)는 복수개의 랜드마크(10) 및 기준점(20)이 표시된 대상체에 대한 2D 이미지를 디스플레이할 수 있다. 예를 들면, 도 2에 도시된 것처럼, 디스플레이(120)는 대상체에 대한 3D 이미지로부터 추출되는 2D 이미지를 제 2 윈도우(220)에 디스플레이할 수 있다.The display 120 may display a 2D image of an object on which a plurality of landmarks 10 and reference points 20 are displayed. For example, as shown in FIG. 2, the display 120 may display a 2D image extracted from a 3D image of an object on the second window 220.

일 실시 예에서, 대상체에 대한 3D 이미지 및 2D 이미지는 서로 구별되는 영역에서 동시에 디스플레이될 수 있다. 디스플레이(120)는 복수개의 랜드마크(10) 및 기준점(20)이 표시된 3D 이미지를 제 1 윈도우(210)에 디스플레이하고, 3D 이미지로부터 추출되는 2D 이미지를 제 1 윈도우(210)에 인접한 제 2 윈도우(220)에 동시에 디스플레이할 수 있다.In one embodiment, a 3D image and a 2D image of an object may be displayed simultaneously in distinct areas. The display 120 displays a 3D image showing a plurality of landmarks 10 and reference points 20 on a first window 210, and displays a 2D image extracted from the 3D image on a second window 210 adjacent to the first window 210. It can be displayed simultaneously on the window 220.

일 실시 예에서, 3D 이미지에 대한 사용자 입력에 기초하여 결정된 복수개의 랜드마크(10)의 위치에 따라, 2D 이미지에서 표시되는 복수개의 랜드마크(10)의 위치가 실시간으로 갱신될 수 있다. 프로세서(110)는 제 1 윈도우(210)를 통해 이미 위치가 결정된 랜드마크(10)에 대한 위치 갱신 입력 또는 아직 위치가 결정되지 않은 랜드마크(10)에 대한 위치 결정 입력을 수신할 수 있다. 프로세서(110)는 이러한 사용자 입력에 따라 랜드마크(10)의 위치를 갱신 또는 결정하여 3D 이미지를 갱신하고, 디스플레이(120)는 갱신된 3D 이미지로부터 추출되는 2D 이미지를 제 2 윈도우(220)에 실시간으로 갱신하여 디스플레이할 수 있다.In one embodiment, the positions of the plurality of landmarks 10 displayed in the 2D image may be updated in real time according to the positions of the plurality of landmarks 10 determined based on user input for the 3D image. The processor 110 may receive a position update input for the landmark 10 whose position has already been determined or a position determination input for the landmark 10 whose position has not yet been determined through the first window 210. The processor 110 updates or determines the location of the landmark 10 according to the user input to update the 3D image, and the display 120 displays the 2D image extracted from the updated 3D image in the second window 220. It can be updated and displayed in real time.

일 실시 예에서, 프로세서(110)는 제 1 윈도우(210)를 통해 랜드마크(10) 또는 기준점(20)의 위치 이동을 요청하는 사용자 입력을 수신할 수 있다. 예를 들면, 프로세서(110)는 3D 이미지에 표시된 특정 랜드마크(10) 또는 기준점(20)의 위치를 현재 위치인 제 1 지점에서 새로운 위치인 제 2 지점으로 이동할 것을 요청하는 사용자 입력(예: 드래그 앤 드롭 입력, 위치 좌표값 입력 등)을 수신할 수 있다. 이러한 경우, 프로세서(110)는 수신된 사용자 입력에 따라 랜드마크(10) 또는 기준점(20)의 위치를 제 2 지점으로 갱신하고, 갱신된 위치에 따라 3D 이미지 및 2D 이미지를 순차적으로 갱신할 수 있다.In one embodiment, the processor 110 may receive a user input requesting to move the location of the landmark 10 or the reference point 20 through the first window 210. For example, the processor 110 may receive a user input (e.g., Drag and drop input, location coordinate value input, etc.) can be received. In this case, the processor 110 updates the position of the landmark 10 or the reference point 20 to the second point according to the received user input, and sequentially updates the 3D image and the 2D image according to the updated position. there is.

일 실시 예에서, 디스플레이(120)는 기준점(20)을 복수개의 랜드마크(10)와 상이한 방식으로 디스플레이할 수 있다. 예를 들면, 디스플레이(120)는 기준점(20)으로 표시되는 점의 색깔, 크기, 표시 방식 등을 양측성 랜드마크(11)를 포함하는 복수개의 랜드마크(10)와 상이하게 디스플레이할 수 있다.In one embodiment, the display 120 may display the reference point 20 in a different manner from the plurality of landmarks 10. For example, the display 120 may display the color, size, display method, etc. of the point displayed as the reference point 20 differently from the plurality of landmarks 10 including the bilateral landmarks 11. .

일 실시 예에서, 디스플레이(120)는 양측성 랜드마크(11)를 복수개의 랜드마크(10) 중 양측성 랜드마크(11)를 제외한 나머지 랜드마크와 상이한 방식으로 디스플레이할 수 있다. 예를 들면, 디스플레이(120)는 양측성 랜드마크(11)를 제 1 색상(예: 적색) 및 제 1 크기(예: 1)의 점으로, 나머지 랜드마크(10)를 제 2 색상(예: 흑색) 및 제 1 크기의 점으로 디스플레이할 수 있다. 또한, 디스플레이(120)는 기준점(20)을 제 1 색상(예: 적색) 및 제 2 크기(예: 2)의 점으로 디스플레이할 수 있다.In one embodiment, the display 120 may display the bilateral landmark 11 in a different manner from the landmarks other than the bilateral landmark 11 among the plurality of landmarks 10. For example, the display 120 displays the bilateral landmarks 11 as dots of a first color (e.g., red) and a first size (e.g., 1) and the remaining landmarks 10 as dots of a second color (e.g., 1). : black) and can be displayed as dots of the first size. Additionally, the display 120 may display the reference point 20 as a dot of a first color (eg, red) and a second size (eg, 2).

일 실시 예에서, 디스플레이(120)는 3D 이미지 상에 양측성 랜드마크(11)를 연결한 라인을 함께 디스플레이할 수 있다. 예를 들면, 디스플레이(120)는 3D 이미지를 디스플레이할 때 우측 안와인 제 1 양측성 랜드마크(11a)와 좌측 안와인 제 2 양측성 랜드마크(11b)를 연결한 직선을 제 3 색상(예: 청색)으로 함께 디스플레이할 수 있다.In one embodiment, the display 120 may display lines connecting the bilateral landmarks 11 on a 3D image. For example, when displaying a 3D image, the display 120 displays a straight line connecting the first bilateral landmark 11a, which is the right orbit, and the second bilateral landmark 11b, which is the left orbit, in a third color (e.g. : blue) can be displayed together.

도 4는 일 실시 예에 따른 디바이스(100)가 2D 이미지에 표시되는 복수개의 랜드마크(10)에 대한 분석 결과를 제공하는 동작을 설명하기 위한 도면이다.FIG. 4 is a diagram illustrating an operation in which the device 100 provides analysis results for a plurality of landmarks 10 displayed in a 2D image according to an embodiment.

도 4를 참조하면, 프로세서(110)는 2D 이미지에 표시되는 복수개의 랜드마크(10) 및/또는 기준점(20)에 기초하여 복수개의 분석 항목에 대한 복수개의 측정값을 결정할 수 있다. 여기에서, 분석 항목은 설정된 분석 방식에 따라 분석이 요구되는 대상 항목(예: Facial Convexity)을 나타내고, 예컨대, 특정 랜드마크(10)의 위치, 어느 하나와 다른 하나의 랜드마크(10) 간의 위치 차이, 기울기 차이 등을 포함할 수 있다. 또한, 측정값은 분석 항목에 대해서 해당 랜드마크 위치로 측정된 값(예: 10.52)을 나타낸다. 일 실시 예에서, 프로세서(110)는 복수개의 분석 방식 중 어느 하나를 선택하는 사용자 입력을 획득하고, 사용자 입력에 대응하는 분석 방식에서 제공하는 복수개의 분석 항목에 대한 복수개의 측정값을 결정할 수 있다. 디스플레이(120)는 각 랜드마크(10)의 위치, 각 분석 항목 및 측정값 중 적어도 하나를 나타내는 심볼 또는 텍스트를 중첩 이미지 상에서 대응되는 위치에 중첩하여 디스플레이할 수 있다.Referring to FIG. 4 , the processor 110 may determine a plurality of measurement values for a plurality of analysis items based on a plurality of landmarks 10 and/or reference points 20 displayed in the 2D image. Here, the analysis item represents a target item (e.g., Facial Convexity) that requires analysis according to a set analysis method, for example, the location of a specific landmark 10, the location between one landmark 10 and another landmark 10. May include differences, slope differences, etc. Additionally, the measured value represents the value (e.g., 10.52) measured at the corresponding landmark location for the analysis item. In one embodiment, the processor 110 may obtain a user input for selecting one of a plurality of analysis methods and determine a plurality of measurement values for a plurality of analysis items provided by the analysis method corresponding to the user input. . The display 120 may display a symbol or text representing at least one of the location of each landmark 10, each analysis item, and the measurement value, overlapping the corresponding location on the overlapping image.

프로세서(110)는 분석 방식에 따른 복수개의 분석 항목, 복수개의 측정값 및 통계값을 포함하는 분석 결과를 획득하고, 디스플레이(120)는 분석 결과를 제 3 윈도우(230)에 디스플레이할 수 있다. 예컨대, 프로세서(110)는 사용자에 의해 선택된 분석 방식(예: Integra by CJH)에 따라, 'Facial Convexity' 등의 분석 항목을 측정한 측정값(예: 10.52), 각 분석 항목에 대해서 데이터베이스에 축적된 이미지들을 이용하여 산출된 통계값(예: 평균값(Mean), 표준편차(Standard Deviation), 중간값(Median) 등), 측정값과 통계값 간의 차이값 등을 산출할 수 있다. 또한, 디스플레이(120)는 산출된 값들을 포함하는 분석 결과를 제 2 윈도우(220)와 분리된 제 3 윈도우(230)에 디스플레이할 수 있다. 일 실시 예에서, 분석 방식은 리케츠(Ricketts) 분석 기법, 스테이너(Steiner) 분석 기법, 다운스(Downs) 분석 기법 등을 포함할 수 있다.The processor 110 may obtain analysis results including a plurality of analysis items, a plurality of measurement values, and statistical values according to the analysis method, and the display 120 may display the analysis results on the third window 230. For example, the processor 110 accumulates measurement values (e.g., 10.52) of analysis items such as 'Facial Convexity' and each analysis item in the database according to the analysis method selected by the user (e.g., Integra by CJH). Statistical values (e.g., mean, standard deviation, median, etc.), differences between measured values and statistical values, etc. can be calculated using the images. Additionally, the display 120 may display analysis results including the calculated values on a third window 230 that is separate from the second window 220. In one embodiment, the analysis method may include Ricketts analysis technique, Steiner analysis technique, Downs analysis technique, etc.

프로세서(110)는 설정된 분석 방식에 기초하여 복수개의 측정값에 대한 이상 가능성을 결정할 수 있다. 일 실시 예에서, 프로세서(110)는 분석 항목에 대한 평균 및/또는 표준편차에 기초하여 복수개의 측정값에 대한 이상 가능성을 결정할 수 있다. 예컨대, 프로세서(110)는 각각의 분석 항목에 대해서 측정값과 통계값 간의 차이값에 비례하도록 이상 가능성을 산출할 수 있다.The processor 110 may determine the possibility of an abnormality for a plurality of measured values based on a set analysis method. In one embodiment, the processor 110 may determine the probability of an anomaly for a plurality of measurement values based on the average and/or standard deviation for the analysis item. For example, the processor 110 may calculate the probability of an abnormality for each analysis item in proportion to the difference between the measured value and the statistical value.

프로세서(110)는 이상 가능성에 기초하여 복수개의 측정값 중 일부 측정값에 대응되는 문제 예상 항목을 결정하고, 디스플레이(120)는 문제 예상 항목을 제 3 윈도우(230)에 디스플레이할 수 있다. 여기에서, 문제 예상 항목은 디스플레이한다는 것은 측정값에 대한 분석을 통해 정상적인 범위에서 벗어난 수치를 도출하여 이에 대해서 디스플레이하는 것을 의미한다. 일 실시 예에서, 문제 예상 항목은 돌출형 안면을 나타내는 Convex Profile, 함몰형 안면을 나타내는 Concave Facial, 돌출교합을 나타내는 Protrusive Mx., 원심교합을 나타내는 Pretrusive Mx. 등을 포함할 수 있으나, 이에 제한되지 않으며, 진료 과정에서 이용되는 다양한 의학적 용어들을 포함할 수 있다. 일 실시 예에서, 프로세서(110)는 각각의 분석 항목에 대해서 이상 가능성이 기준값 이상인지 여부에 따라 문제 예상 항목(예: Facial Convexity)을 결정할 수 있다. 다른 일 실시 예에서, 프로세서(110)는 이상 가능성이 큰 정도, 차이가 나는 방향성(예: 양(+)의 차이, 음(-)의 차이) 등에 기초하여 문제 예상 항목(예: Concave Facial)을 결정할 수 있다.The processor 110 may determine expected problem items corresponding to some of the plurality of measured values based on the probability of an abnormality, and the display 120 may display the predicted problem items on the third window 230 . Here, displaying expected problem items means deriving values that are outside the normal range through analysis of measured values and displaying them. In one embodiment, the problem prediction items are Convex Profile indicating a protruding face, Concave Facial indicating a depressed face, Protrusive Mx. indicating a protruding occlusion, and Pretrusive Mx indicating a distal occlusion. It may include, but is not limited to, various medical terms used in the treatment process. In one embodiment, the processor 110 may determine an expected problem item (eg, facial convexity) based on whether the probability of an abnormality for each analysis item is greater than or equal to a reference value. In another embodiment, the processor 110 predicts problem items (e.g., Concave Facial) based on the degree of likelihood of an abnormality, the direction of the difference (e.g., positive (+) difference, negative (-) difference), etc. can be decided.

일 실시 예에서, 프로세서(110)는 이미지를 디스플레이하는 일련의 동작들을 수행할 수 있고, 디스플레이(120) 및 그 밖의 구성요소들과 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 이를 위해 프로세서(110)는 디바이스(100)의 동작 전반을 제어하는 CPU(central processor unit)로 구현될 수 있다. 또한, 디스플레이(120)는 이미지를 디스플레이하는 이미지 출력 장치를 포괄적으로 의미할 수 있으며, 예를 들면, 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 등일 수 있다.In one embodiment, the processor 110 may perform a series of operations to display an image and may be electrically connected to the display 120 and other components to control data flow between them. To this end, the processor 110 may be implemented as a central processor unit (CPU) that controls the overall operation of the device 100. In addition, the display 120 may comprehensively refer to an image output device that displays an image, for example, a liquid crystal display, a thin film transistor-liquid crystal display, and an organic light emitting device. It may be an organic light-emitting diode, a flexible display, a 3D display, an electrophoretic display, etc.

또한, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 디바이스(100)에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 일 실시 예에 따를 경우, 디바이스(100)는 다른 디바이스와 유무선 네트워크를 통해 통신하기 위한 통신부, 사용자 입력을 수신하는 사용자 인터페이스, 데이터를 저장하는 저장부(예: 메모리, 데이터베이스, 클라우드) 등을 더 포함할 수 있다. 다른 실시 예에 따를 경우, 도 1에 도시된 구성요소들 중 일부는 생략될 수도 있다.Additionally, those skilled in the art can understand that other general-purpose components in addition to the components shown in FIG. 1 may be further included in the device 100. According to one embodiment, the device 100 further includes a communication unit for communicating with other devices through a wired or wireless network, a user interface for receiving user input, and a storage unit for storing data (e.g., memory, database, cloud), etc. It can be included. According to another embodiment, some of the components shown in FIG. 1 may be omitted.

도 5는 일 실시 예에 따른 디바이스(100)가 이미지를 디스플레이하는 방법을 나타내는 흐름도이다.FIG. 5 is a flowchart illustrating a method by which the device 100 displays an image according to an embodiment.

단계 S510에서 디바이스(100)는 대상체에 대한 3D 이미지를 획득할 수 있다. 일 실시 예에서, 3D 이미지는 CBCT 이미지를 포함할 수 있다.In step S510, the device 100 may acquire a 3D image of the object. In one embodiment, the 3D image may include a CBCT image.

단계 S520에서 디바이스(100)는 3D 이미지 내 포함된 복수개의 랜드마크(10)의 위치를 결정할 수 있다. 일 실시 예에서, 디바이스(100)는 기 획득된 학습 데이터를 이용하여 3D 이미지에 포함된 복수개의 랜드마크(10)의 위치를 결정하고, 복수개의 랜드마크(10)의 위치를 3D 이미지 상에 표시하고, 3D 이미지를 통해 수신되는 사용자 입력에 기초하여 복수개의 랜드마크(10)의 위치를 갱신할 수 있다. 다른 일 실시 예에서, 디바이스(100)는 3D 이미지를 통해 수신되는 사용자 입력에 기초하여 복수개의 랜드마크(10)의 위치를 결정할 수 있다. In step S520, the device 100 may determine the positions of a plurality of landmarks 10 included in the 3D image. In one embodiment, the device 100 determines the positions of a plurality of landmarks 10 included in a 3D image using previously acquired learning data, and displays the positions of the plurality of landmarks 10 on the 3D image. It is possible to display and update the positions of a plurality of landmarks 10 based on user input received through a 3D image. In another embodiment, the device 100 may determine the positions of the plurality of landmarks 10 based on user input received through a 3D image.

일 실시 예에서, 디바이스(100)는 전체 랜드마크 중 위치 결정의 대상이 되는 복수개의 랜드마크(10)를 결정할 수 있다. 이어서, 디바이스(100)는 복수개의 랜드마크(10) 중 현재 단계에서 위치 결정의 대상이 되는 대상 랜드마크의 명칭을 포함하는 메시지를 제공할 수 있다. 이어서, 디바이스(100)는 메시지에 대한 사용자 입력에 기초하여 대상 랜드마크의 위치를 결정할 수 있다. 예를 들면, 디바이스(100)는 어떤 랜드마크의 위치를 결정할 지에 대한 사용자 입력에 따라, 위치 결정의 대상이 되는 복수개(예: 10개)의 랜드마크(10)를 결정할 수 있다. 또한, 디바이스(100)는 결정된 복수개의 랜드마크(10)(예: 좌측 안와, 우측 안와 등) 각각에 대해서 위치 입력을 요청하는 메시지를 디스플레이하고, 3D 이미지를 통해 수신되는 각 랜드마크(10)의 위치에 대한 사용자 입력(예: 터치, 버튼 클릭)에 따라 각 랜드마크(10)의 위치를 결정할 수 있다.In one embodiment, the device 100 may determine a plurality of landmarks 10 that are the target of location determination among all landmarks. Subsequently, the device 100 may provide a message including the name of a target landmark that is the target of location determination at the current stage among the plurality of landmarks 10. Subsequently, the device 100 may determine the location of the target landmark based on the user input for the message. For example, the device 100 may determine a plurality of landmarks 10 (eg, 10) that are the target of location determination, according to a user input regarding which landmark's location to determine. In addition, the device 100 displays a message requesting location input for each of the determined plurality of landmarks 10 (e.g., left orbit, right orbit, etc.), and displays each landmark 10 received through a 3D image. The location of each landmark 10 can be determined according to user input (e.g., touch, button click) about the location.

단계 S530에서 디바이스(100)는 결정된 복수개의 랜드마크(10) 중 양측성 구조물에 대한 랜드마크인 양측성 랜드마크(11)의 위치를 지정할 수 있다 예를 들면, 디바이스(100)는 복수의 랜드마크(10)의 위치에 대한 사용자 입력이 모두 수신되면, 복수의 랜드마크(10) 각각에 대해서 양측성 랜드마크(11)인지 또는 비-양측성 랜드마크(12)인지 결정할 수 있다.In step S530, the device 100 may specify the location of the bilateral landmark 11, which is a landmark for the bilateral structure, among the determined plurality of landmarks 10. For example, the device 100 may select the plurality of landmarks 10. When all user inputs for the positions of (10) are received, it can be determined whether each of the plurality of landmarks (10) is a bilateral landmark (11) or a non-bilateral landmark (12).

단계 S540에서 디바이스(100)는 지정된 양측성 랜드마크(11)의 위치에 기초하여 양측성 랜드마크(11)에 대한 기준점(20)의 위치를 결정할 수 있다. 일 실시 예에서, 디바이스(100)는 양측성 랜드마크(11)를 구성하는 제 1 양측성 랜드마크(11a)와 제 2 양측성 랜드마크(11b)를 결정할 수 있다. 이어서, 디바이스(100)는 제 1 양측성 랜드마크(11a)의 위치와 제 2 양측성 랜드마크(11b)의 위치에 대한 평균 위치를 결정하고, 평균 위치에 대응하도록 기준점(20)의 위치를 결정할 수 있다. 예를 들면, 디바이스(100)는 각각의 양측성 랜드마크(11)에 대해서, 제 1 양측성 랜드마크(11a) 및 제 2 양측성 랜드마크(11b)의 평균 위치를 산출하여 해당 양측성 랜드마크(11)에 대한 기준점(20)의 위치를 결정할 수 있다. 예컨대, 좌측과 우측이 정확히 일치하지 않기 때문에, 좌우 평균값으로 도출되는 기준점(20)에 대한 정보를 제공함으로써 교정 진단에 관한 분석, 의사결정 등이 수행될 수 있다.In step S540, the device 100 may determine the location of the reference point 20 for the bilateral landmark 11 based on the location of the designated bilateral landmark 11. In one embodiment, the device 100 may determine the first bilateral landmark 11a and the second bilateral landmark 11b constituting the bilateral landmark 11. Subsequently, the device 100 determines the average position of the position of the first bilateral landmark 11a and the second bilateral landmark 11b, and sets the position of the reference point 20 to correspond to the average position. You can decide. For example, the device 100 calculates the average position of the first bilateral landmark 11a and the second bilateral landmark 11b for each bilateral landmark 11 and calculates the average position of the corresponding bilateral landmark 11. The position of the reference point 20 with respect to the mark 11 can be determined. For example, since the left and right sides do not exactly match, analysis and decision-making regarding orthodontic diagnosis can be performed by providing information about the reference point 20 derived from the left and right average values.

단계 S550에서 디바이스(100)는 복수개의 랜드마크(10) 및 양측성 랜드마크(11)에 대한 기준점(20)이 표시된 대상체에 대한 2D 이미지를 디스플레이할 수 있다. 일 실시 예에서, 2D 이미지에 표시된 복수개의 랜드마크(10) 및 기준점(20)의 위치는 원근투영 방식으로 결정될 수 있다. 예를 들면, 디바이스(100)는 복수개의 랜드마크(10)를 이용하여 3D 이미지로부터 2D 라테럴 이미지, 2D 프론트 이미지, 2D 파노라마 이미지 및 2D SMV 이미지를 각각 획득할 수 있다. 또한, 디바이스(100)는 양측성 랜드마크(11), 양측성 랜드마크(11)로부터 결정된 기준점(20) 및 비-양측성 랜드마크(12)가 모두 시각적으로 구별되도록 표시된 2D 이미지를 제공할 수 있다.In step S550, the device 100 may display a 2D image of the object in which reference points 20 for a plurality of landmarks 10 and bilateral landmarks 11 are displayed. In one embodiment, the positions of the plurality of landmarks 10 and reference points 20 displayed in the 2D image may be determined using perspective projection. For example, the device 100 may respectively acquire a 2D lateral image, a 2D front image, a 2D panoramic image, and a 2D SMV image from a 3D image using a plurality of landmarks 10. In addition, the device 100 may provide a 2D image in which the bilateral landmarks 11, the reference point 20 determined from the bilateral landmarks 11, and the non-bilateral landmarks 12 are all visually distinguished. You can.

본 개시의 일 실시 예에 따르면, 디바이스(100)는 사용자가 3D 이미지에서 랜드마크 위치만 입력하면, 랜드마크(10)의 위치, 기준점(20)의 위치 등이 정확하게 표시된 여러 종류의 2D 이미지를 즉시 제공하여 사용자 편의성을 향상시킬 수 있다.According to an embodiment of the present disclosure, the device 100 produces various types of 2D images that accurately display the location of the landmark 10 and the location of the reference point 20 when the user inputs only the location of the landmark in the 3D image. User convenience can be improved by providing it immediately.

또한, 디바이스(100)는 3D 이미지를 이용하여 보다 정확하게 랜드마크 위치에 대한 트레이싱을 수행하는 한편, 3D 이미지로부터 획득된 2D 이미지를 제공함으로써 오랜 기간 축적되어 데이터 신뢰성이 높은 2D 분석법을 적용해 보다 정확한 분석 결과를 제공할 수 있다.In addition, the device 100 performs tracing of landmark positions more accurately using 3D images, while providing 2D images obtained from 3D images, applying 2D analysis methods with high data reliability that have been accumulated over a long period of time to provide more accurate Analysis results can be provided.

또한, 디바이스(100)는 랜드마크 위치 입력에 이용되는 3D 이미지와 3D 이미지로부터 추출되는 2D 이미지를 동시에 제공할 수 있다. 이에 따라, 사용자는 3D 이미지에서 결정되는 랜드마크(10)가 2D 이미지에서 어느 위치에 있는지에 대해서 실시간으로 확인할 수 있다.Additionally, the device 100 can simultaneously provide a 3D image used to input a landmark location and a 2D image extracted from the 3D image. Accordingly, the user can check in real time where the landmark 10 determined in the 3D image is located in the 2D image.

또한, 디바이스(100)는 양측성 랜드마크에 대한 기준점을 3D 이미지 및 2D 이미지에 제공할 수 있다. 이에 따라, 양측성 구조물의 좌우측 랜드마크 위치에 대해서 보다 직관적인 분석이 가능한 효과가 있다.Additionally, the device 100 can provide reference points for bilateral landmarks in 3D images and 2D images. Accordingly, there is an effect of enabling a more intuitive analysis of the left and right landmark positions of bilateral structures.

이상에서 도시된 단계들의 순서 및 조합은 일 실시 예이고, 명세서에 기재된 각 구성요소들의 본질적인 특성에서 벗어나지 않는 범위에서 순서, 조합, 분기, 기능 및 그 수행 주체가 추가, 생략 또는 변형된 형태로 다양하게 실시될 수 있음을 알 수 있다. 또한, 명세서 전체에서 '제공'은 대상이 특정 정보를 획득하거나 직간접적으로 특정 대상에게 송수신하는 과정을 포함하며 이러한 과정에서 요구되는 관련 동작의 수행을 포괄적으로 포함하는 것으로 해석될 수 있다.The order and combination of steps shown above is an example, and the order, combination, branch, function, and performer thereof may be added, omitted, or modified without departing from the essential characteristics of each component described in the specification. It can be seen that this can be implemented. In addition, throughout the specification, 'provision' includes the process of an object acquiring specific information or directly or indirectly sending and receiving it to a specific object, and can be interpreted to comprehensively include the performance of related operations required in this process.

본 발명의 다양한 실시예들은 기기(machine)(예를 들어, 디스플레이 장치 또는 컴퓨터)에 의해 읽을 수 있는 저장 매체(storage medium)(예를 들어, 메모리)에 저장된 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서(예를 들어, 프로세서(110))는, 저장 매체로부터 저장된 하나 이상의 인스트럭션들 중 적어도 하나의 인스트럭션을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 인스트럭션에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 인스트럭션들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present invention are implemented as software including one or more instructions stored in a storage medium (e.g., memory) that can be read by a machine (e.g., a display device or computer). It can be. For example, the device's processor (eg, processor 110) may call at least one instruction among one or more instructions stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.

일 실시예에 따르면, 본 발명에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in the present invention may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or via an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.

본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.Those skilled in the art related to this embodiment will understand that the above-described base material can be implemented in a modified form without departing from the essential characteristics. Therefore, the disclosed methods should be considered from an explanatory rather than a restrictive perspective. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.

100: 디바이스
110: 프로세서 120: 디스플레이
10: 복수개의 랜드마크 11: 양측성 랜드마크
11a: 제 1 양측성 랜드마크 11b: 제 2 양측성 랜드마크
20: 기준점
100: device
110: Processor 120: Display
10: Multiple landmarks 11: Bilateral landmarks
11a: first bilateral landmark 11b: second bilateral landmark
20: reference point

Claims (17)

이미지를 디스플레이하는 방법에 있어서,
대상체에 대한 3D 이미지를 획득하는 단계;
상기 3D 이미지 내 포함된 복수개의 랜드마크의 위치를 결정하는 단계;
상기 결정된 복수개의 랜드마크 중 양측성 구조물에 대한 랜드마크인 양측성 랜드마크의 위치를 지정하는 단계;
상기 지정된 양측성 랜드마크의 위치에 기초하여 상기 양측성 랜드마크에 대한 기준점의 위치를 결정하는 단계; 및
상기 복수개의 랜드마크 및 상기 양측성 랜드마크에 대한 기준점이 표시된 상기 대상체에 대한 2D 이미지를 디스플레이하는 단계;를 포함하고,
상기 복수개의 랜드마크의 위치를 결정하는 단계는
상기 대상체에 대한 전체 랜드마크 중 위치 결정의 대상이 되는 상기 복수개의 랜드마크를 결정하는 단계;
상기 복수개의 랜드마크 중 지정된 랜드마크 순서에 따라 현재 단계에서 위치 결정의 대상이 되는 대상 랜드마크의 위치를 확인하는 메시지를 제공하는 단계; 및
상기 메시지에 대한 응답에 기초하여 상기 대상 랜드마크의 위치를 결정하는 단계;를 포함하는, 방법.
In a method of displaying an image,
Obtaining a 3D image of an object;
determining the positions of a plurality of landmarks included in the 3D image;
Specifying the location of a bilateral landmark, which is a landmark for a bilateral structure, among the determined plurality of landmarks;
determining a location of a reference point for the bilateral landmark based on the location of the designated bilateral landmark; and
Comprising: displaying a 2D image of the object in which reference points for the plurality of landmarks and the bilateral landmarks are displayed,
The step of determining the positions of the plurality of landmarks is
determining the plurality of landmarks that are subject to position determination among all landmarks for the object;
Providing a message confirming the location of a target landmark that is the target of location determination at the current stage according to a designated landmark order among the plurality of landmarks; and
Method comprising: determining the location of the target landmark based on the response to the message.
제 1 항에 있어서,
상기 양측성 랜드마크에 대한 상기 기준점의 위치를 결정하는 단계는
상기 양측성 랜드마크를 구성하는 제 1 양측성 랜드마크와 제 2 양측성 랜드마크를 결정하는 단계;
상기 제 1 양측성 랜드마크의 위치와 상기 제 2 양측성 랜드마크의 위치에 대한 평균 위치를 결정하는 단계; 및
상기 평균 위치에 대응하도록 상기 기준점의 위치를 결정하는 단계;를 포함하는, 방법.
According to claim 1,
The step of determining the location of the reference point for the bilateral landmark is
determining a first bilateral landmark and a second bilateral landmark constituting the bilateral landmark;
determining an average position for the positions of the first bilateral landmarks and the positions of the second bilateral landmarks; and
Method comprising: determining a position of the reference point to correspond to the average position.
제 1 항에 있어서,
상기 2D 이미지에 표시된 상기 복수개의 랜드마크 및 상기 양측성 랜드마크에 대한 기준점의 위치는 원근투영(perspective projection) 방식 및 직교투영(orthographic project) 방식 중 적어도 하나의 방식으로 결정되는, 방법.
According to claim 1,
The location of reference points for the plurality of landmarks and the bilateral landmarks displayed in the 2D image are determined by at least one of a perspective projection method and an orthographic projection method.
삭제delete 제 1 항에 있어서,
상기 대상 랜드마크의 위치를 결정하는 단계는
사용자 입력에 기초하여 네이지온, 양측 안와 및 양측 포리온에 대응되는 지점을 상기 대상 랜드마크의 위치를 결정하는 단계;를 포함하고,
상기 대상체에 대한 2D 이미지를 디스플레이하는 단계는
상기 네이지온, 상기 양측 안와 및 상기 양측 포리온의 위치에 대응되는 좌표 축을 설정 축으로 결정하는 단계; 및
상기 설정 축에서 3D 트레이싱을 통해 획득되는 상기 복수개의 랜드마크를 이용하여 상기 3D 이미지에서 원근투영 방식에 따라 상기 2D 이미지를 획득하는 단계;를 포함하고,
상기 양측성 랜드마크의 위치는 우측 및 좌측 눈 뼈를 나타내는 상기 양측성 구조물에 대한 안와 최하단 지점으로 결정되고,
비 양측성 랜드마크 위치는 포고니온 지점으로 결정되는, 방법.
According to claim 1,
The step of determining the location of the target landmark is
A step of determining the location of the target landmark at a point corresponding to the nasion, both orbits, and both porions based on user input,
The step of displaying a 2D image for the object is
determining a coordinate axis corresponding to the positions of the nasion, both orbits, and both porions as a setting axis; and
Comprising: acquiring the 2D image according to a perspective projection method from the 3D image using the plurality of landmarks obtained through 3D tracing on the set axis,
The location of the bilateral landmarks is determined to be the lowest point of the orbit relative to the bilateral structures representing the right and left eye bones,
Non-bilateral landmark locations are determined by pogonion points.
제 1 항에 있어서,
상기 대상 랜드마크의 위치를 결정하는 단계는
상기 양측성 랜드마크를 구성하는 제 1 양측성 랜드마크와 제 2 양측성 랜드마크 각각의 위치를 상기 3D 이미지에 표시하여 하나의 화면 내 서로 다른 윈도우에서 동시에 디스플레이하는 단계; 및
상기 서로 다른 윈도우를 통해 수신되는 사용자 입력에 기초하여 상기 제 1 양측성 랜드마크 또는 상기 제 2 양측성 랜드마크의 위치를 결정하는 단계;를 더 포함하는, 방법.
According to claim 1,
The step of determining the location of the target landmark is
Displaying the positions of each of the first and second bilateral landmarks constituting the bilateral landmarks on the 3D image simultaneously in different windows within one screen; and
The method further comprising: determining a location of the first bilateral landmark or the second bilateral landmark based on user input received through the different windows.
제 1 항에 있어서,
상기 복수개의 랜드마크의 위치를 결정하는 단계는
기 획득된 학습 데이터를 이용하여 상기 3D 이미지에 포함된 상기 복수개의 랜드마크의 위치를 결정하는 단계;를 포함하는, 방법.
According to claim 1,
The step of determining the positions of the plurality of landmarks is
A method comprising: determining the positions of the plurality of landmarks included in the 3D image using previously acquired training data.
제 7 항에 있어서,
상기 복수개의 랜드마크의 위치를 결정하는 단계는
상기 학습 데이터를 통해 결정된 복수개의 랜드마크의 위치를 상기 3D 이미지 상에 표시하는 단계; 및
상기 3D 이미지를 통해 수신되는 사용자 입력에 기초하여 상기 복수개의 랜드마크의 위치를 갱신하는 단계;를 더 포함하고,
상기 복수개의 랜드마크 및 상기 기준점에 기초하여 복수개의 분석 항목에 따른 특정 랜드마크의 위치, 상기 특정 랜드마크의 위치에 따라 결정되는 어느 하나와 다른 하나의 랜드마크 간의 위치 차이 및 상기 랜드마크 간의 기울기 차이에 대한 복수개의 측정값을 결정하는 단계;
데이터 베이스에 축적된 복수개의 이미지에 기초하여 상기 복수개의 분석 항목 각각에 대한 평균값 및 표준편차를 나타내는 통계값을 결정하는 단계;
상기 통계값에 기초하여 상기 복수개의 측정값에 대한 이상 가능성을 결정하는 단계;
상기 이상 가능성에 기초하여 상기 복수개의 측정값 중 일부 측정값에 대응되는 문제 예상 항목을 결정하는 단계; 및
상기 측정값이 정상 범위에서 벗어난 수치 정보를 포함하는 상기 문제 예상 항목을 디스플레이하는 단계;를 더 포함하는, 방법.
According to claim 7,
The step of determining the positions of the plurality of landmarks is
Displaying the positions of a plurality of landmarks determined through the learning data on the 3D image; and
Further comprising: updating the positions of the plurality of landmarks based on user input received through the 3D image,
The location of a specific landmark according to a plurality of analysis items based on the plurality of landmarks and the reference point, the position difference between one landmark and the other determined according to the location of the specific landmark, and the slope between the landmarks determining a plurality of measures of difference;
Determining statistical values representing the average value and standard deviation for each of the plurality of analysis items based on the plurality of images accumulated in the database;
determining a probability of an anomaly for the plurality of measured values based on the statistical values;
determining expected problem items corresponding to some of the plurality of measured values based on the abnormality probability; and
The method further comprising displaying the predicted problem item including numerical information in which the measured value is outside a normal range.
제 1 항에 있어서,
상기 3D 이미지 및 상기 2D 이미지는 서로 구별되는 영역에서 동시에 디스플레이되고,
상기 3D 이미지에 대한 사용자 입력에 기초하여 결정된 상기 복수개의 랜드마크의 위치에 따라 상기 2D 이미지에서 표시되는 상기 복수개의 랜드마크의 위치가 실시간으로 갱신되는, 방법.
According to claim 1,
The 3D image and the 2D image are displayed simultaneously in distinct areas,
A method in which the positions of the plurality of landmarks displayed in the 2D image are updated in real time according to the positions of the plurality of landmarks determined based on user input for the 3D image.
제 1 항에 있어서,
상기 2D 이미지는 상기 대상체에 대한 라테럴 이미지, 프론트 이미지, 파노라마 이미지 및 SMV 이미지 중 적어도 하나를 포함하고,
상기 기준점은 상기 복수개의 랜드마크와 상이한 방식으로 디스플레이되는, 방법.
According to claim 1,
The 2D image includes at least one of a lateral image, a front image, a panoramic image, and an SMV image for the object,
The method of claim 1, wherein the reference point is displayed in a different manner than the plurality of landmarks.
이미지를 디스플레이하는 디바이스에 있어서,
대상체에 대한 3D 이미지를 획득하고, 상기 3D 이미지 내 포함된 복수개의 랜드마크의 위치를 결정하고, 상기 결정된 복수개의 랜드마크 중 양측성 구조물에 대한 랜드마크인 양측성 랜드마크의 위치를 지정하고, 상기 지정된 양측성 랜드마크의 위치에 기초하여 상기 양측성 랜드마크에 대한 기준점의 위치를 결정하고, 상기 대상체에 대한 전체 랜드마크 중 위치 결정의 대상이 되는 상기 복수개의 랜드마크를 결정하고, 상기 복수개의 랜드마크 중 지정된 랜드마크 순서에 따라 현재 단계에서 위치 결정의 대상이 되는 대상 랜드마크의 위치를 확인하는 메시지를 제공하고, 상기 메시지에 대한 응답에 기초하여 상기 대상 랜드마크의 위치를 결정하는 프로세서; 및
상기 복수개의 랜드마크 및 상기 양측성 랜드마크에 대한 기준점이 표시된 상기 대상체에 대한 2D 이미지를 디스플레이하는 디스플레이;를 포함하는, 디바이스.
In a device that displays an image,
Obtaining a 3D image of the object, determining the location of a plurality of landmarks included in the 3D image, specifying the location of a bilateral landmark that is a landmark for a bilateral structure among the determined plurality of landmarks, and Determine the location of a reference point for the bilateral landmark based on the location of the designated bilateral landmark, determine the plurality of landmarks that are the target of positioning among all landmarks for the object, and determine the plurality of landmarks. a processor that provides a message confirming the location of a target landmark that is the target of location determination at the current stage according to a designated landmark order among landmarks, and determines the location of the target landmark based on a response to the message; and
A display that displays a 2D image of the object on which reference points for the plurality of landmarks and the bilateral landmarks are displayed.
제 11 항에 있어서,
상기 프로세서는
상기 양측성 랜드마크를 구성하는 제 1 양측성 랜드마크와 제 2 양측성 랜드마크를 결정하고,
상기 제 1 양측성 랜드마크의 위치와 상기 제 2 양측성 랜드마크의 위치에 대한 평균 위치를 결정하고,
상기 평균 위치에 대응하도록 상기 기준점의 위치를 결정하는, 디바이스.
According to claim 11,
The processor is
Determining a first bilateral landmark and a second bilateral landmark constituting the bilateral landmark,
Determining an average position for the positions of the first bilateral landmarks and the positions of the second bilateral landmarks,
A device that determines the location of the reference point to correspond to the average location.
제 11 항에 있어서,
상기 2D 이미지에 표시된 상기 복수개의 랜드마크 및 상기 양측성 랜드마크에 대한 기준점의 위치는 원근투영(perspective projection) 방식 및 직교투영(orthographic project) 방식 중 적어도 하나의 방식으로 결정되는, 디바이스.
According to claim 11,
The device wherein the positions of reference points for the plurality of landmarks and the bilateral landmarks displayed in the 2D image are determined by at least one of a perspective projection method and an orthographic projection method.
제 11 항에 있어서,
상기 프로세서는
사용자 입력에 기초하여 네이지온, 양측 안와 및 양측 포리온에 대응되는 지점을 상기 대상 랜드마크의 위치를 결정하고,
상기 네이지온, 상기 양측 안와 및 상기 양측 포리온의 위치에 대응되는 좌표 축을 설정 축으로 결정하고,
상기 설정 축에서 3D 트레이싱을 통해 획득되는 상기 복수개의 랜드마크를 이용하여 상기 3D 이미지에서 원근투영 방식에 따라 상기 2D 이미지를 획득하고,
상기 양측성 랜드마크의 위치는 우측 및 좌측 눈 뼈를 나타내는 상기 양측성 구조물에 대한 안와 최하단 지점으로 결정되고,
비 양측성 랜드마크 위치는 포고니온 지점으로 결정되는, 디바이스.
According to claim 11,
The processor is
Based on the user input, the location of the target landmark is determined at points corresponding to the nasion, both orbits, and both porions,
Determine a coordinate axis corresponding to the positions of the nasion, both orbits, and both porions as a setting axis,
Obtaining the 2D image according to a perspective projection method from the 3D image using the plurality of landmarks obtained through 3D tracing on the setting axis,
The location of the bilateral landmarks is determined to be the lowest point of the orbit relative to the bilateral structures representing the right and left eye bones,
Non-bilateral landmark locations are determined by the pogonion point, the device.
제 14 항에 있어서,
상기 디스플레이는
상기 양측성 랜드마크를 구성하는 제 1 양측성 랜드마크와 제 2 양측성 랜드마크 각각의 위치를 상기 3D 이미지에 표시하여 하나의 화면 내 서로 다른 윈도우에서 동시에 디스플레이하고,
상기 프로세서는
상기 서로 다른 윈도우를 통해 수신되는 사용자 입력에 기초하여 상기 제 1 양측성 랜드마크 또는 상기 제 2 양측성 랜드마크의 위치를 결정하는, 디바이스.
According to claim 14,
The display is
Displaying the positions of each of the first and second bilateral landmarks constituting the bilateral landmarks on the 3D image and displaying them simultaneously in different windows within one screen,
The processor is
A device that determines the location of the first bilateral landmark or the second bilateral landmark based on user input received through the different windows.
제 11 항에 있어서,
상기 프로세서는
기 획득된 학습 데이터를 이용하여 상기 3D 이미지에 포함된 상기 복수개의 랜드마크의 위치를 정하고,
상기 복수개의 랜드마크 및 상기 기준점에 기초하여 복수개의 분석 항목에 따른 특정 랜드마크의 위치, 상기 특정 랜드마크의 위치에 따라 결정되는 어느 하나와 다른 하나의 랜드마크 간의 위치 차이 및 상기 랜드마크 간의 기울기 차이에 대한 복수개의 측정값을 결정하고,
데이터 베이스에 축적된 복수개의 이미지에 기초하여 상기 복수개의 분석 항목 각각에 대한 평균값 및 표준편차를 나타내는 통계값을 결정하고,
상기 통계값에 기초하여 상기 복수개의 측정값에 대한 이상 가능성을 결정하고,
상기 이상 가능성에 기초하여 상기 복수개의 측정값 중 일부 측정값에 대응되는 문제 예상 항목을 결정하고,
상기 디스플레이는
상기 측정값이 정상 범위에서 벗어난 수치 정보를 포함하는 상기 문제 예상 항목을 디스플레이하는, 디바이스.
According to claim 11,
The processor is
Determine the positions of the plurality of landmarks included in the 3D image using previously acquired learning data,
The location of a specific landmark according to a plurality of analysis items based on the plurality of landmarks and the reference point, the position difference between one landmark and the other determined according to the location of the specific landmark, and the slope between the landmarks Determine a plurality of measures of difference,
Determine statistical values representing the average value and standard deviation for each of the plurality of analysis items based on the plurality of images accumulated in the database,
Determine the probability of an abnormality for the plurality of measured values based on the statistical values,
Based on the abnormality probability, determine expected problem items corresponding to some of the plurality of measurement values,
The display is
A device that displays the problem prediction item including numerical information in which the measured value is outside a normal range.
제 1 항 내지 제 3 항 및 제 5 항 내지 제 10 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체. A computer-readable recording medium recording a program for executing the method of any one of claims 1 to 3 and 5 to 10 on a computer.
KR1020210144608A 2021-10-27 2021-10-27 Method, device and recording medium for displaying orthodontic diagnosis images using landmarks KR102672239B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210144608A KR102672239B1 (en) 2021-10-27 2021-10-27 Method, device and recording medium for displaying orthodontic diagnosis images using landmarks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210144608A KR102672239B1 (en) 2021-10-27 2021-10-27 Method, device and recording medium for displaying orthodontic diagnosis images using landmarks

Publications (2)

Publication Number Publication Date
KR20230060185A KR20230060185A (en) 2023-05-04
KR102672239B1 true KR102672239B1 (en) 2024-06-04

Family

ID=86379683

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210144608A KR102672239B1 (en) 2021-10-27 2021-10-27 Method, device and recording medium for displaying orthodontic diagnosis images using landmarks

Country Status (1)

Country Link
KR (1) KR102672239B1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2941715T3 (en) 2014-05-22 2023-05-25 Carestream Dental Tech Topco Ltd Procedure for 3D cephalometric analysis
KR20200109292A (en) * 2017-08-25 2020-09-22 쇼우푸 첸 How to optimize in orthodontic applications
KR102070256B1 (en) * 2018-06-01 2020-01-29 오스템임플란트 주식회사 Cephalo image processing method for orthodontic treatment planning, apparatus, and method thereof
KR102373429B1 (en) * 2020-03-20 2022-03-15 부산대학교 산학협력단 Method and System for Determining Soft-Tissue Reference Point and Method and System for Predicting Corrected Soft-Tissue Reference Point after Sugery
KR102373428B1 (en) * 2020-03-20 2022-03-15 부산대학교 산학협력단 Method and System for Determining Reference Point for Three-Dimensional Cephalometry

Also Published As

Publication number Publication date
KR20230060185A (en) 2023-05-04

Similar Documents

Publication Publication Date Title
EP3595574B1 (en) Automatic dental arch mapping system and method
ES2976882T3 (en) Procedure and apparatus for orthodontic treatment planning
US11793605B2 (en) Apparatus and methods for orthodontic treatment planning
US10117727B2 (en) Method and system for user interaction in 3-D cephalometric analysis
JP6273149B2 (en) Facial correction image providing method and system
US8805048B2 (en) Method and system for orthodontic diagnosis
CN110326023B (en) Method for head shadow measurement analysis
US11045290B2 (en) Dynamic dental arch map
JP6607364B2 (en) Prediction system
US20210196217A1 (en) Dynamic 3-d anatomical mapping and visualization
KR102566541B1 (en) Method for establishing orthodontic treatment plan and apparatus thereof
Ahn et al. Automated analysis of three-dimensional CBCT images taken in natural head position that combines facial profile processing and multiple deep-learning models
KR102672239B1 (en) Method, device and recording medium for displaying orthodontic diagnosis images using landmarks
US20240099812A1 (en) Method of optimization in orthodontic applications
KR20200012707A (en) Method for predicting anatomical landmarks and device for predicting anatomical landmarks using the same
KR20230053888A (en) Method, device and recording medium for displaying a screen according to a plurality of menus
CN117999615A (en) Automatic tooth management in dental restoration workflow
KR102583135B1 (en) Method, device and recording medium for displaying a plurality of images by superimposing them
KR102680143B1 (en) Method, device and recording medium for displaying a predicted line used for orthodontic diagnosis based on landmark positions
KR20230075177A (en) Method, device and recording medium for displaying analysis results regarding the problem expected items according to analysis method for orthodontic diagnosis
KR102596666B1 (en) System and method for providing integrated medical service based on medical image
KR102602121B1 (en) Method for obtaining images of teeth based on arch line, device and recording medium thereof
KR20230087151A (en) Method, device and recording medium for displaying treatment schedule
CN116115366A (en) Real-time tooth movement amount measuring method based on image
CN117461018A (en) Imaging with adjustable anatomical planes

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant