KR20230075178A - Method, device and recording medium for displaying a plurality of images - Google Patents

Method, device and recording medium for displaying a plurality of images Download PDF

Info

Publication number
KR20230075178A
KR20230075178A KR1020210161516A KR20210161516A KR20230075178A KR 20230075178 A KR20230075178 A KR 20230075178A KR 1020210161516 A KR1020210161516 A KR 1020210161516A KR 20210161516 A KR20210161516 A KR 20210161516A KR 20230075178 A KR20230075178 A KR 20230075178A
Authority
KR
South Korea
Prior art keywords
images
image
modality
displaying
user input
Prior art date
Application number
KR1020210161516A
Other languages
Korean (ko)
Inventor
권민정
김형목
안호성
이명훈
김가희
이혜림
최규옥
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Priority to KR1020210161516A priority Critical patent/KR20230075178A/en
Publication of KR20230075178A publication Critical patent/KR20230075178A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/14Applications or adaptations for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4417Constructional features of apparatus for radiation diagnosis related to combined acquisition of different diagnostic modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • A61B6/51
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • A61C2007/004Automatic construction of a set of axes for a tooth or a plurality of teeth

Abstract

일 실시 예에 따라, 학습된 신경망에 기초하여 교정 진단에 이용되는 복수개의 이미지 각각에 대한 모달리티를 결정하고, 모달리티에 따라 복수개의 이미지를 디스플레이할 수 있는 방법이 개시된다. 이에 따라, 교정 진단에 관한 이미지의 분류를 위해 사용자에게 요구되는 번거로운 절차를 최소화하고, 모달리티에 따른 디스플레이를 통해 사용자에게 직관적인 디스플레이 인터페이스를 제공할 수 있다.According to an embodiment, a method of determining a modality of each of a plurality of images used for calibration diagnosis based on a learned neural network and displaying the plurality of images according to the modality is disclosed. Accordingly, it is possible to minimize a cumbersome procedure required of a user for classifying images related to calibration diagnosis, and provide an intuitive display interface to the user through a display according to modality.

Description

교정 진단에 이용되는 복수개의 이미지를 디스플레이하는 방법, 디바이스 및 그 기록매체{METHOD, DEVICE AND RECORDING MEDIUM FOR DISPLAYING A PLURALITY OF IMAGES}Method, device, and recording medium for displaying a plurality of images used for calibration diagnosis

본 개시는 교정 진단에 이용되는 다양한 이미지들을 디스플레이하는 방법, 디바이스 및 그 기록매체에 관한 것이다.The present disclosure relates to a method, a device, and a recording medium for displaying various images used for calibration diagnosis.

일반적으로 교정 치료를 진행할 때 환자의 문제를 진단하기 위해 임상적으로 다양한 영상들을 이용한 진단이 필수적으로 요구된다. 예컨대, 문제 진단을 위해서 방사선 영상뿐만 아니라 안모사진, 구내사진 등이 촬영되고, 교정치료 기간 중에는 치아 및 안모변화를 확인하기 위해 추가적으로 방사선 영상 및 안모, 구내사진 등이 촬영된다. 이러한 다양한 영상들은 치과의사의 효율적인 진단을 위해 현재 환자가 교정 치료 과정 중 어떠한 단계에 있는지, 어떠한 방식으로 치료되고 있는지 등을 고려한 다양한 치료 그룹으로 분류되어야 한다.In general, when performing orthodontic treatment, diagnosis using various clinical images is required to diagnose a patient's problem. For example, not only radiographic images but also facial and intraoral photographs are taken to diagnose problems, and during orthodontic treatment, additional radiographic images and facial and intraoral photographs are taken to confirm changes in teeth and facial appearance. These various images should be classified into various treatment groups in consideration of what stage of the current patient's orthodontic treatment process and how they are being treated for efficient diagnosis by a dentist.

종래에는 이와 같이 교정 치료에 필요한 다양한 영상들을 사용자가 직접 해당 영상이 현재 환자의 어떠한 치료 그룹에 해당하는지 일일이 확인하면서 분류하였다. 이러한 종래의 기술은 사용자가 교정 분석을 진행할 때마다 환자에 대해 새롭게 촬영된 영상들을 분류하는 수작업을 반복해야 하므로 사용자 편의성이 떨어지는 단점이 있다.In the prior art, a user directly identifies various images necessary for orthodontic treatment while checking which treatment group of the current patient the corresponding image corresponds to and classifying them. This conventional technique has a disadvantage in that the user's convenience is poor because the user has to repeat the manual process of classifying newly captured images of the patient every time the user proceeds with the calibration analysis.

이에, 상술한 문제점을 해결하고 교정 진단 전에 사용자의 번거로운 절차를 최소화시키기 위한 기술이 요구되고 있다.Accordingly, there is a need for a technique for solving the above problems and minimizing a user's cumbersome procedure before calibration diagnosis.

한국공개특허 제10-2006-0100737호 (2006.09.21) 인터넷을 이용한 치과 환자 진료 서비스 방법 및 그 시스템Korean Patent Publication No. 10-2006-0100737 (2006.09.21) Dental patient treatment service method and system using the Internet

본 개시의 일 실시 예는 전술한 종래 기술의 문제점을 해결하기 위한 것으로, 교정 진단에 관한 이미지의 분류를 위해 사용자에게 요구되는 번거로운 절차를 최소화하여 사용자 편의성을 향상시키고자 한다.One embodiment of the present disclosure is to solve the above-mentioned problems of the prior art, and to improve user convenience by minimizing cumbersome procedures required by users for classifying images related to calibration diagnosis.

해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제들이 더 포함될 수 있다.The technical problem to be solved is not limited to the technical problems as described above, and various technical problems may be further included within a range obvious to those skilled in the art.

본 개시의 제 1 측면에 따른 복수개의 이미지를 디스플레이하는 방법은 교정 진단에 이용되는 복수개의 이미지를 획득하는 단계; 학습된 신경망에 기초하여 상기 복수개의 이미지의 종류에 대한 분석 결과를 획득하는 단계; 상기 분석 결과에 기초하여 상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 단계; 상기 모달리티에 따라서 결정되는 순서 또는 위치에 따라 상기 복수개의 이미지를 디스플레이하는 단계;를 포함할 수 있다.A method for displaying a plurality of images according to a first aspect of the present disclosure includes acquiring a plurality of images used for calibration diagnosis; obtaining an analysis result for the types of the plurality of images based on the learned neural network; determining a modality for each of the plurality of images based on a result of the analysis; and displaying the plurality of images in an order or position determined according to the modality.

또한, 상기 모달리티에 따라서 상기 복수개의 이미지를 디스플레이하는 단계는 상기 모달리티에 따라서 상기 복수개의 이미지를 복수개의 이미지 그룹 중 어느 하나로 분류하는 단계; 및 이미지 그룹에 따라 상기 복수개의 이미지를 디스플레이하는 단계;를 포함하고, 상기 복수개의 이미지 그룹은 투영 이미지 그룹, 안모 이미지 그룹 및 오럴 이미지 그룹 중 적어도 둘을 포함할 수 있다.The displaying of the plurality of images according to the modality may include classifying the plurality of images into one of a plurality of image groups according to the modality; and displaying the plurality of images according to image groups, wherein the plurality of image groups may include at least two of a projection image group, a facial image group, and an oral image group.

또한, 상기 복수개의 이미지가 디스플레이되는 영역은 상기 복수개의 이미지 중 상기 모달리티가 결정된 하나 이상의 제 1 이미지가 디스플레이되는 제 1 영역; 및 상기 복수개의 이미지 중 상기 모달리티가 결정되지 않은 하나 이상의 제 2 이미지가 디스플레이되는 제 2 영역을 포함할 수 있다.The area where the plurality of images are displayed may include a first area where one or more first images of which the modality is determined among the plurality of images are displayed; and a second area in which one or more second images of which the modality is not determined among the plurality of images are displayed.

또한, 상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 단계는 상기 모달리티의 결정을 요청하는 제 1 사용자 입력이 수신되는 경우, CNN (Convolution Neural Network) 기반의 분류 모델을 통해 상기 복수개의 이미지 각각의 모달리티를 결정하는 단계; 및 상기 모달리티를 선택하는 제 2 사용자 입력이 수신되는 경우, 상기 분류 모델을 통하지 않고 상기 하나 이상의 제 2 이미지의 모달리티를 상기 제 2 사용자 입력에 대응하는 모달리티로 결정할 수 있다.In addition, the step of determining the modality of each of the plurality of images may include, when a first user input requesting the determination of the modality is received, the modality of each of the plurality of images through a CNN (Convolution Neural Network)-based classification model. determining; and when a second user input for selecting the modality is received, the modality of the one or more second images may be determined as a modality corresponding to the second user input without going through the classification model.

또한, 상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 단계는 사용자 단말이 상기 제 1 사용자 입력을 수신하는 경우, 상기 사용자 단말은 상기 복수개의 이미지 각각에 대한 모달리티의 결정을 서버에 요청하고, 상기 서버는 상기 요청에 따라 상기 분류 모델을 통해 상기 복수개의 이미지 각각에 대한 모달리티를 결정한 결과를 응답할 수 있다.In the step of determining the modality of each of the plurality of images, when the user terminal receives the first user input, the user terminal requests the server to determine the modality of each of the plurality of images, and the server may respond with a result of determining the modality of each of the plurality of images through the classification model according to the request.

또한, 상기 복수개의 이미지를 분류하여 디스플레이하는 단계는 상기 모달리티가 동일한 제 3 이미지 및 제 4 이미지 중 획득 시점이 더 늦은 제 3 이미지를 디스플레이할 수 있다.In addition, in the step of classifying and displaying the plurality of images, a third image obtained later from among the third image and the fourth image having the same modality may be displayed.

또한, 상기 복수개의 이미지를 분류하여 디스플레이하는 단계는 상기 제 3 이미지와 인접한 영역에 추가 이미지가 있음을 나타내는 UI 이미지를 디스플레이할 수 있다.Also, in the classifying and displaying of the plurality of images, a UI image indicating that there is an additional image may be displayed in an area adjacent to the third image.

또한, 상기 분석 결과를 획득하는 단계는 CNN (Convolution Neural Network) 중 ResNet(Residual Connection) 모델에 기초하여 상기 분석 결과를 획득할 수 있다.In the obtaining of the analysis result, the analysis result may be obtained based on a Residual Connection (ResNet) model among convolution neural networks (CNNs).

본 개시의 제 2 측면에 따른 복수개의 이미지를 디스플레이하는 디바이스는 교정 진단에 이용되는 복수개의 이미지를 획득하는 이미지 획득부; 학습된 신경망에 기초하여 상기 복수개의 이미지의 종류에 대한 분석 결과를 획득하고, 상기 분석 결과에 기초하여 상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 프로세서; 및 상기 모달리티에 따라서 결정되는 순서 또는 위치에 따라 상기 복수개의 이미지를 디스플레이하는 디스플레이;를 포함할 수 있다.A device for displaying a plurality of images according to a second aspect of the present disclosure includes an image acquiring unit acquiring a plurality of images used for calibration diagnosis; a processor that obtains an analysis result for the types of the plurality of images based on a learned neural network, and determines a modality for each of the plurality of images based on the analysis result; and a display configured to display the plurality of images in an order or position determined according to the modality.

또한, 상기 프로세서는 상기 모달리티에 따라서 상기 복수개의 이미지를 복수개의 이미지 그룹 중 어느 하나로 분류하고, 상기 디스플레이는 이미지 그룹에 따라 상기 복수개의 이미지를 디스플레이하고, 상기 복수개의 이미지 그룹은 투영 이미지 그룹, 안모 이미지 그룹 및 오럴 이미지 그룹 중 적어도 둘을 포함할 수 있다.In addition, the processor classifies the plurality of images into one of a plurality of image groups according to the modality, and the display displays the plurality of images according to the image group, and the plurality of image groups include a projection image group, facial hair It may include at least two of an image group and an oral image group.

또한, 상기 복수개의 이미지가 디스플레이되는 영역은 상기 복수개의 이미지 중 상기 모달리티가 결정된 하나 이상의 제 1 이미지가 디스플레이되는 제 1 영역; 및 상기 복수개의 이미지 중 상기 모달리티가 결정되지 않은 하나 이상의 제 2 이미지가 디스플레이되는 제 2 영역을 포함할 수 있다.The area where the plurality of images are displayed may include a first area where one or more first images of which the modality is determined among the plurality of images are displayed; and a second area in which one or more second images of which the modality is not determined among the plurality of images are displayed.

또한, 상기 프로세서는 상기 모달리티의 결정을 요청하는 제 1 사용자 입력이 수신되는 경우, CNN (Convolution Neural Network) 기반의 분류 모델을 통해 상기 복수개의 이미지 각각의 모달리티를 결정하고, 상기 모달리티를 선택하는 제 2 사용자 입력이 수신되는 경우, 상기 분류 모델을 통하지 않고 상기 하나 이상의 제 2 이미지의 모달리티를 상기 제 2 사용자 입력에 대응하는 모달리티로 결정할 수 있다.In addition, the processor determines the modality of each of the plurality of images through a classification model based on a CNN (Convolution Neural Network) when a first user input requesting the determination of the modality is received, and selects the modality. When two user inputs are received, the modality of the at least one second image may be determined as a modality corresponding to the second user input without going through the classification model.

또한, 상기 디스플레이는 상기 모달리티가 동일한 제 3 이미지 및 제 4 이미지 중 획득 시점이 더 늦은 제 3 이미지를 디스플레이할 수 있다.Also, the display may display a third image obtained later from among the third image and the fourth image having the same modality.

본 개시의 제 3 측면은 제 1 측면에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. 또는, 본 개시의 제 4 측면은 제 1 측면에 따른 방법을 구현하기 위하여 기록매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.A third aspect of the present disclosure may provide a computer readable recording medium recording a program for executing the method according to the first aspect in a computer. Alternatively, the fourth aspect of the present disclosure may provide a computer program stored in a recording medium to implement the method according to the first aspect.

일 실시 예에 따르면, 교정 진단에 관한 이미지의 분류를 위해 사용자에게 요구되는 번거로운 절차를 최소화하여 사용자 편의성을 향상시킬 수 있다.According to an embodiment, user convenience may be improved by minimizing cumbersome procedures required of a user for classifying images related to calibration diagnosis.

또한, 인공지능을 통해 이미지를 분류하여 이미지 분류에 소요되는 시간을 줄일 수 있다.In addition, it is possible to reduce the time required for image classification by classifying images through artificial intelligence.

또한, 학습된 신경망을 통해 분류 정확도를 향상시켜 업무 효율성을 향상시킬 수 있다.In addition, it is possible to improve work efficiency by improving classification accuracy through a trained neural network.

또한, 모달리티에 따라서 이미지들을 적절하게 분류하여 디스플레이함으로써, 사용자에게 직관적인 디스플레이 인터페이스를 제공할 수 있다.In addition, by appropriately classifying and displaying images according to modality, an intuitive display interface may be provided to the user.

본 개시의 효과는 상기한 효과로 한정되는 것은 아니며, 본 개시의 상세한 설명 또는 특허청구범위에 기재된 개시의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present disclosure are not limited to the above effects, and should be understood to include all effects that can be inferred from the configuration of the disclosure described in the detailed description or claims of the present disclosure.

도 1은 일 실시 예에 따른 디바이스의 구성의 일 예를 나타내는 블록도이다.
도 2는 일 실시 예에 따른 디바이스가 복수개의 이미지를 디스플레이하는 방법을 나타내는 흐름도이다.
도 3은 일 실시 예에 따른 디바이스가 이미지 획득을 요청하는 사용자 입력을 수신하는 동작을 예시하는 도면이다.
도 4는 일 실시 예에 따른 디바이스가 이미지 획득을 위한 폴더를 선택하는 사용자 입력을 수신하는 동작을 예시하는 도면이다.
도 5는 일 실시 예에 따른 모달리티를 예시하는 도면이다.
도 6은 일 실시 예에 따른 투영 이미지 그룹, 안모 이미지 그룹 및 오럴 이미지 그룹을 예시하는 도면이다.
도 7은 일 실시 예에 따른 디바이스가 이미지 그룹에 따라 복수개의 이미지를 분류하여 디스플레이하는 동작을 예시하는 도면이다.
도 8은 다른 일 실시 예에 따른 디바이스가 이미지 그룹에 따라 복수개의 이미지를 분류하여 디스플레이하는 동작을 예시하는 도면이다.
1 is a block diagram illustrating an example of a configuration of a device according to an exemplary embodiment.
2 is a flowchart illustrating a method of displaying a plurality of images by a device according to an exemplary embodiment.
3 is a diagram illustrating an operation of receiving a user input requesting image acquisition by a device according to an exemplary embodiment.
4 is a diagram illustrating an operation in which a device receives a user input for selecting a folder for acquiring an image, according to an exemplary embodiment.
5 is a diagram illustrating a modality according to an embodiment.
6 is a diagram illustrating a projection image group, a facial image group, and an oral image group according to an exemplary embodiment.
7 is a diagram illustrating an operation of classifying and displaying a plurality of images according to an image group by a device according to an exemplary embodiment.
8 is a diagram illustrating an operation of classifying and displaying a plurality of images according to an image group by a device according to another embodiment.

실시 예들에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments have been selected as general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but they may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technologies, and the like. In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the disclosure. Therefore, terms used in the present disclosure should be defined based on the meaning of the term and the general content of the present disclosure, not simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part is said to "include" a certain component, it means that it may further include other components, not excluding other components unless otherwise stated. In addition, as described in the specification, "... Terms such as “unit” refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present disclosure. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein.

이하에서는 도면을 참조하여 본 개시의 실시 예들을 상세히 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.

도 1은 일 실시 예에 따른 디바이스(100)의 구성의 일 예를 나타내는 블록도이다. 또한, 도 2는 일 실시 예에 따른 디바이스(100)가 복수개의 이미지를 디스플레이하는 방법을 나타내는 흐름도이다.1 is a block diagram illustrating an example of a configuration of a device 100 according to an embodiment. 2 is a flowchart illustrating a method of displaying a plurality of images by the device 100 according to an exemplary embodiment.

도 1 내지 도 2를 참조하면, 디바이스(100)는 이미지 획득부(110), 프로세서(120) 및 디스플레이(130)를 포함할 수 있다.Referring to FIGS. 1 and 2 , the device 100 may include an image acquisition unit 110 , a processor 120 and a display 130 .

단계 S210에서 이미지 획득부(110)는 교정 진단에 이용되는 복수개의 이미지를 획득할 수 있다. 여기에서, 교정 진단에 이용되는 이미지는 환자의 치아 교정 진단 과정에서 환자에 대해 촬영된 이미지를 나타낸다. 일 실시 예에서, 교정 진단에 이용되는 이미지는 환자의 치아 교정 진단 과정에서 환자의 치아 또는 안면에 대해서 X-ray 등을 이용하여 획득되는 방사선 이미지, 이미지 센서 등을 이용하여 촬영되는 이미지 등을 포함할 수 있으나, 이에 제한되지 않는다. 일 실시 예에서, 교정 진단에 이용되는 이미지는 3D 스캐너를 통해 획득되는 스캔 이미지, CT(Computed Tomography) 이미지 등 그 밖의 다양한 유형의 의료 이미지를 더 포함할 수 있다.In step S210, the image acquisition unit 110 may acquire a plurality of images used for calibration diagnosis. Here, the image used for orthodontic diagnosis represents an image taken of a patient in a patient orthodontic diagnosis process. In one embodiment, the image used for orthodontic diagnosis includes a radiographic image obtained using an X-ray, etc., an image captured using an image sensor, etc. It can, but is not limited thereto. In an embodiment, the image used for orthodontic diagnosis may further include various other types of medical images, such as a scan image acquired through a 3D scanner and a computed tomography (CT) image.

일 실시 예에서, 복수개의 이미지는 교정 진단의 대상으로서 등록된 환자 정보와 대응될 수 있다. 이미지 획득부(110)는 사용자 입력에 따라 교정 진단의 대상에 해당하는 환자 정보(예: 환자이름, 생년월일, 성별, 차트번호 등)를 수신하거나 메모리에서 로딩하고, 환자 정보에 대응되는 복수개의 이미지를 획득할 수 있다.In one embodiment, a plurality of images may correspond to patient information registered as a subject of corrective diagnosis. The image acquisition unit 110 receives or loads patient information (e.g., patient name, date of birth, sex, chart number, etc.) corresponding to a subject of corrective diagnosis according to a user input or loads from memory, and a plurality of images corresponding to the patient information. can be obtained.

일 실시 예에서, 이미지 획득부(110)는 메모리(미도시)에 저장된 복수개의 이미지를 로딩할 수 있다. 다른 일 실시 예에서, 이미지 획득부(110)는 이미지 촬영 장치(미도시)와의 연동을 통해 이미지 촬영 장치에서 촬영되는 이미지를 이미지 촬영 장치로부터 수신할 수 있다. 또 다른 일 실시 예에서, 이미지 획득부(110)는 환자에 대한 이미지 촬영을 수행하여 이미지를 생성할 수도 있다.In one embodiment, the image acquisition unit 110 may load a plurality of images stored in a memory (not shown). In another embodiment, the image capture unit 110 may receive an image captured by the image capture device (not shown) from the image capture device through interworking with the image capture device. In another embodiment, the image acquisition unit 110 may generate an image by capturing an image of the patient.

이하, 도 3 내지 도 4를 참조하여 단계 S210에 관한 실시 예들에 대해서 서술하도록 한다.Hereinafter, embodiments of step S210 will be described with reference to FIGS. 3 and 4 .

도 3은 일 실시 예에 따른 디바이스(100)가 이미지 획득을 요청하는 사용자 입력을 수신하는 동작을 예시하는 도면이다.3 is a diagram illustrating an operation in which the device 100 receives a user input requesting image acquisition, according to an exemplary embodiment.

도 3을 참조하면, 이미지 획득부(110)는 이미지 분류 대상이 되는 이미지의 획득을 요청하는 사용자 입력을 수신할 수 있다. 예를 들면, 이미지 획득부(110)는 이미지의 분류 제공을 위한 제 1 인터페이스 화면(300)을 제공하고, 제 1 인터페이스 화면(300)을 통해 이미지 로딩을 요청하는 사용자 입력(예: 마우스 우측 버튼 클릭 후 '임포트 매니져(Import Manager)' 선택)을 수신할 수 있다. 명세서 전반에서, '사용자 입력'은 사용자 인터페이스를 통해 마우스, 키보드, 조이스틱 등을 이용하여 인가되는 사용자의 선택 입력, 텍스트 입력 등을 폭넓게 의미할 수 있다.Referring to FIG. 3 , the image acquisition unit 110 may receive a user input requesting acquisition of an image to be classified. For example, the image acquiring unit 110 provides a first interface screen 300 for providing classification of images, and a user input requesting image loading through the first interface screen 300 (eg, a right mouse button) After clicking, select 'Import Manager'). Throughout the specification, 'user input' may broadly mean a user's selection input, text input, and the like applied using a mouse, keyboard, joystick, or the like through a user interface.

도 4는 일 실시 예에 따른 디바이스(100)가 이미지 획득을 위한 폴더를 선택하는 사용자 입력을 수신하는 동작을 예시하는 도면이다.4 is a diagram illustrating an operation in which the device 100 receives a user input for selecting a folder for image acquisition according to an exemplary embodiment.

도 4를 참조하면, 이미지 획득부(110)는 이미지 획득을 위한 폴더를 선택하는 사용자 입력이 수신됨에 따라, 폴더 선택을 위한 제 2 인터페이스 화면(400)을 제공할 수 있다. 일 실시 예에서, 제 2 인터페이스 화면(400)은 폴더를 선택하기 위한 폴더 UI(User Interface)가 디스플레이되는 제 1 윈도우(410), 선택된 폴더 내에 포함된 이미지들에 대한 정보가 디스플레이되는 제 2 윈도우(420) 및 선택된 이미지들에 대한 분류 결과가 디스플레이되는 제 3 윈도우(430)를 포함할 수 있다.Referring to FIG. 4 , the image acquisition unit 110 may provide a second interface screen 400 for folder selection when a user input for selecting a folder for image acquisition is received. In one embodiment, the second interface screen 400 includes a first window 410 displaying a folder user interface (UI) for selecting a folder, and a second window displaying information about images included in the selected folder. 420 and a third window 430 displaying classification results for the selected images.

이미지 획득부(110)는 제 1 윈도우(410)를 통해 복수개의 폴더에 대한 사용자 입력을 수신할 수 있다. 또한, 이미지 획득부(110)는 사용자 입력에 기초하여 복수개의 폴더 중 어느 하나의 폴더를 결정하고, 결정된 폴더 내에 포함된 복수개의 이미지를 획득할 수 있다. 예를 들면, 이미지 획득부(110)는 특정 폴더(411)를 선택하는 사용자 입력(예: 마우스 좌측 버튼 클릭)이 수신됨에 따라, 해당 특정 폴더(411)에 대응되는 저장 경로에 액세스하여 해당 폴더 내에 저장된 복수개의 이미지를 로딩할 수 있다. 이어서, 이미지 획득부(110)는 로딩된 복수개의 이미지에 대한 요약 정보(예: 썸네일 이미지, 파일명)를 제 2 윈도우(420)에 디스플레이할 수 있다.The image acquisition unit 110 may receive a user input for a plurality of folders through the first window 410 . Also, the image acquisition unit 110 may determine one of a plurality of folders based on a user input, and acquire a plurality of images included in the determined folder. For example, upon receiving a user input (eg, clicking a left mouse button) for selecting a specific folder 411, the image acquisition unit 110 accesses a storage path corresponding to the specific folder 411 to access the corresponding folder. You can load multiple images stored in it. Subsequently, the image acquisition unit 110 may display summary information (eg, thumbnail images, file names) of the plurality of loaded images on the second window 420 .

이미지 획득부(110)는 결정된 폴더 내에 포함된 복수개의 이미지에 대해서 모달리티의 결정을 요청하는 제 1 사용자 입력을 수신할 수 있다. 예를 들면, 이미지 획득부(110)는 제 2 인터페이스 화면(400)의 하단에 디스플레이되는 임포트 버튼(440)을 통해 제 1 사용자 입력을 수신하고, 제 1 사용자 입력이 수신됨에 따라 복수개의 이미지에 대한 분석을 수행할 수 있다.The image acquisition unit 110 may receive a first user input requesting determination of modalities for a plurality of images included in the determined folder. For example, the image acquisition unit 110 receives a first user input through an import button 440 displayed at the bottom of the second interface screen 400, and as the first user input is received, a plurality of images are displayed. analysis can be performed.

단계 S220에서 프로세서(120)는 학습된 신경망에 기초하여 복수개의 이미지의 종류에 대한 분석 결과를 획득할 수 있다. 일 실시 예에서, 프로세서(120)는 복수개의 이미지를 학습된 신경망으로 분석하여 각 이미지의 종류와 연관된 촬영 방법, 촬영 방향, 부위, 피사체 등의 속성에 대한 분석 결과를 획득할 수 있다. 일 실시 예에서, 학습된 신경망은 디바이스(100)에 기 저장되어 있거나, 이미지 기반의 기계 학습 및 검증을 수행하여 학습된 신경망을 획득하는 학습 서버로부터 제공될 수 있다. 일 실시 예에서, 학습된 신경망은 CNN (Convolution Neural Network) 중 ResNet(Residual Connection) 모델에 기초하여 획득될 수 있다. 여기에서, CNN은 합성곱 층(Convolutional Layer)을 이용하여 변수 특징을 추출한 뒤 원하는 출력값을 내는 심층 신경망의 한 종류에 해당한다. 또한, ResNet 모델은 합성곱 층의 출력에 전의 전 계층에 사용된 입력을 더함으로써 특징이 유실되지 않도록 하고 학습 성능을 향상시킬 수 있다. 다른 일 실시 예에서, 학습된 신경망은 CNN 중 AlexNet 모델, DenseNet 모델 등에 기초하여 획득될 수도 있으며, 그밖에 다양한 딥러닝 알고리즘이 이용될 수 있다.In step S220, the processor 120 may obtain analysis results for the types of a plurality of images based on the learned neural network. In an embodiment, the processor 120 may analyze a plurality of images with the trained neural network to obtain analysis results of attributes such as a photographing method, a photographing direction, a region, and a subject associated with each type of image. In an embodiment, the trained neural network may be pre-stored in the device 100 or may be provided from a learning server that obtains the trained neural network by performing image-based machine learning and verification. In an embodiment, the trained neural network may be obtained based on a Residual Connection (ResNet) model among convolution neural networks (CNNs). Here, CNN corresponds to a type of deep neural network that extracts variable features using a convolutional layer and produces a desired output value. In addition, the ResNet model can prevent feature loss and improve learning performance by adding the input used in the previous layer to the output of the convolution layer. In another embodiment, the trained neural network may be obtained based on an AlexNet model or a DenseNet model among CNNs, and various other deep learning algorithms may be used.

일 실시 예에서, 프로세서(120)는 학습된 신경망에 기초하여 이미지의 형상 또는 포맷에 대한 분석을 통해 각 이미지의 종류에 대한 분석 결과를 획득할 수 있다. 일 실시 예에서, 학습 서버가 CNN의 ResNet 모델을 이용하여 데이터베이스에 저장된 이미지들의 특징에 대한 유사도를 학습하여 학습된 ResNet 기반의 분류 모델을 획득하면, 프로세서(120)는 학습 서버로부터 학습된 ResNet 기반의 분류 모델을 포함하는 학습된 신경망을 수신할 수 있다. 또한, 프로세서(120)는 교정 진단을 위해 폴더로부터 임포트되는 복수개의 이미지를 학습된 ResNet 기반의 분류 모델에 입력함에 따라, 이미지의 종류와 연관된 특징을 추출하고, 이러한 특징에 대한 분석을 수행하여 촬영 방법, 촬영 방향, 부위, 피사체 등을 식별할 수 있다. 이러한 분석 결과는 이후 단계에서 이미지의 종류를 분류하는 과정에 이용될 수 있다.In an embodiment, the processor 120 may obtain an analysis result for each type of image by analyzing the shape or format of the image based on the learned neural network. In one embodiment, when the learning server obtains a trained ResNet-based classification model by learning the similarity of features of images stored in the database using the CNN's ResNet model, the processor 120 performs a ResNet-based learning from the learning server. A trained neural network including a classification model of may be received. In addition, the processor 120 inputs a plurality of images imported from a folder for calibration diagnosis to the learned ResNet-based classification model, extracts features associated with the type of images, analyzes these features, and captures images. It is possible to identify the method, shooting direction, part, subject, etc. These analysis results can be used in the process of classifying the types of images in a later step.

단계 S230에서 프로세서(120)는 복수개의 이미지의 종류에 대한 분석 결과에 기초하여 복수개의 이미지 각각에 대한 모달리티를 결정할 수 있다. 예를 들면, 프로세서(120)는 분석 결과에 포함된 촬영 방법, 촬영 방향, 부위, 피사체 등의 속성에 대한 식별값에 따라 복수개의 이미지 각각에 대한 모달리티를 결정할 수 있다.In step S230, the processor 120 may determine a modality for each of the plurality of images based on the analysis result of the types of the plurality of images. For example, the processor 120 may determine a modality for each of a plurality of images according to identification values of attributes such as a photographing method, a photographing direction, a region, and a subject included in the analysis result.

여기에서, 모달리티는 교정 진단에 이용되는 이미지 종류를 나타낸다. 일 실시 예에서, 모달리티의 개수는 설정 개수(예: 19개, 20개) 이하일 수 있다. 또한, 동일한 모달리티 내에서 이미지가 여러 번 촬영됨에 따라 이미지 개수가 많을 수는 있으나, 모달리티의 최대 개수(예: 19개)는 고정된 값일 수 있다. 이에 관한 내용은 도 5를 더 참조하여 서술하도록 한다.Here, the modality represents the type of image used for calibration diagnosis. In one embodiment, the number of modalities may be less than or equal to a set number (eg, 19 or 20). Also, although the number of images may be large as images are captured several times within the same modality, the maximum number of modalities (eg, 19) may be a fixed value. Details regarding this will be further described with reference to FIG. 5 .

도 5는 일 실시 예에 따른 모달리티를 예시하는 도면이다.5 is a diagram illustrating a modality according to an embodiment.

도 5를 참조하면, 모달리티는 이미지의 촬영 방법 별로 대상체(예: 환자)에 대한 촬영 방향, 촬영 부위, 피사체 속성 등의 모달리티 특성에 기초하여 구분되는 이미지 종류로 정의될 수 있다.Referring to FIG. 5 , a modality may be defined as an image type classified according to an image capturing method based on modality characteristics such as a capturing direction of an object (eg, a patient), a capturing region, and subject properties.

일 실시 예에서, 촬영 방법은 투영 이미지(Film X-ray), 안모 이미지(Face Photo), 오럴 이미지(Oral Photo), 모델 이미지(Model Photo) 등을 포함할 수 있다. 예컨대, 투영 이미지는 X-ray를 이용하여 획득되는 이미지를 나타내고, 안모 이미지는 얼굴 이미지(예: 증명사진)를 나타내고, 오럴 이미지는 구강에 대한 이미지를 나타내고, 모델 이미지는 구강을 본 뜬 석고 모형 이미지를 나타낼 수 있다.In one embodiment, the photographing method may include a projection image (Film X-ray), a facial image (Face Photo), an oral image (oral photo), a model image (Model Photo), and the like. For example, the projection image represents an image obtained using X-rays, the face image represents a face image (eg, ID photo), the oral image represents an image of the oral cavity, and the model image represents a plaster model modeled after the oral cavity. images can be displayed.

일 실시 예에서, 대상체에 대한 촬영 방향에 따른 모달리티는 측면(Lateral), 정면(PA(Posterior, Anterior)/AP(Anterior, Posterior), Frontal), 파노라마(Panorama), 좌측(Left), 우측(Right), CBCT(Cone Beam CT), SMV(SubMentoVertex), 대각(a45) 등을 포함할 수 있다. 예컨대, 측면은 오른쪽을 보고 뒤에서 찍은 이미지를 나타내고, PA/AP는 후부 전기 또는 전부 후기의 정면 이미지를 나타낸다. 또한, SMV는 턱을 90도 들어올린 상태에서 턱 밑에서 촬영하여 획득하는 이미지를 나타내고, 턱관절 좌우 비대칭을 알아내기 위해 이용된다. 또한, a45는 우측 내지 좌측으로 45도 각도에서 획득되는 이미지를 나타내고, 파노라마는 전경 각도 범위에서 획득되는 파노라마 이미지를 나타내며, CBCT는 CBCT 촬영을 통해 획득되는 3D 이미지를 나타낸다.In an embodiment, modalities according to the direction of imaging of an object may include lateral, frontal (PA (Posterior, Anterior)/AP (Anterior, Posterior), Frontal), Panorama, Left, Right ( Right), CBCT (Cone Beam CT), SMV (SubMentoVertex), diagonal (a45), etc. may be included. For example, lateral denotes an image taken from behind looking to the right, and PA/AP denotes anterior posterior or posterior anterior frontal image. In addition, SMV represents an image obtained by photographing from under the chin in a state where the chin is lifted 90 degrees, and is used to find out the left-right asymmetry of the temporomandibular joint. In addition, a45 denotes an image acquired at an angle of 45 degrees from right to left, panorama denotes a panoramic image obtained in a foreground angle range, and CBCT denotes a 3D image obtained through CBCT imaging.

일 실시 예에서, 촬영 부위에 따른 모달리티는 하악(Lower), 상악(Upper), 수완부(Hand wrist) 등을 포함할 수 있다. 또한, 피사체 속성에 따른 모달리티는 미소(Smile)(예: 미소를 지은 상태에서 얼굴을 촬영) 등을 포함할 수 있다.In one embodiment, the modality according to the region to be captured may include the lower jaw, the upper jaw, the wrist, and the like. In addition, the modality according to the object attribute may include a smile (eg, photographing a face in a smiling state) and the like.

일 실시 예에서, 이미지의 모달리티는 도 5(a)에 도시된 것처럼, 측면 투영 이미지, 정면 투영 이미지, 파노라마 투영 이미지, 수완부 투영 이미지, SMV 투영 이미지, 측면 안모 이미지, 정면 안모 이미지, 대각 안모 이미지, 미소 안모 이미지, 우측 오럴 이미지, 좌측 오럴 이미지, 정면 오럴 이미지, 상악 오럴 이미지, 하악 오럴 이미지, 우측 모델 이미지, 정면 모델 이미지, 좌측 모델 이미지, 상악 모델 이미지 및 하악 모델 이미지를 포함하는 19개의 이미지 종류 중 하나일 수 있다. 다른 일 실시 예에서, 이미지의 모달리티는 도 5(b)에 도시된 것처럼, CBCT 투영 이미지를 더 포함하는 20개의 이미지 종류 중 하나일 수 있다. 그러나, 이에 제한되는 것은 아니며, 또 다른 일 실시 예에서, 모달리티는 그 밖의 이미지 종류를 더 포함할 수 있다. 또한, 모달리티 명칭 및 특성 정보는 모달리티의 추가, 삭제 등과 같은 사용자 입력에 기초하여 갱신될 수 있다.In one embodiment, the modalities of the images are a side projection image, a frontal projection image, a panoramic projection image, a forearm projection image, an SMV projection image, a side facial image, a frontal facial image, and a diagonal facial image, as shown in FIG. 5(a). image, smile face image, right oral image, left oral image, frontal oral image, maxillary oral image, mandibular oral image, right model image, frontal model image, left model image, maxillary model image and mandibular model image. It can be one of the image types. In another embodiment, the modality of the image may be one of 20 image types further including a CBCT projection image, as shown in FIG. 5(b). However, it is not limited thereto, and in another embodiment, the modality may further include other image types. In addition, the modality name and characteristic information may be updated based on user input such as addition or deletion of modality.

일 실시 예에서, 프로세서(120)는 모달리티에 따라서 복수개의 이미지를 투영 이미지 그룹, 안모 이미지 그룹 및 오럴 이미지 그룹 중 적어도 하나를 포함하는 복수개의 이미지 그룹 중 어느 하나로 분류할 수 있다. 예를 들면, 프로세서(120)는 복수개의 이미지 각각을 모달리티 특성별 유사성에 기초하여 투영 이미지 그룹, 안모 이미지 그룹 또는 오럴 이미지 그룹으로 분류할 수 있다. 이에 관한 내용은 도 6을 더 참조하여 서술하도록 한다.// 분류로 통일In an embodiment, the processor 120 may classify the plurality of images into one of a plurality of image groups including at least one of a projection image group, a facial image group, and an oral image group according to the modality. For example, the processor 120 may classify each of the plurality of images into a projection image group, a facial image group, or an oral image group based on similarity for each modality characteristic. Details regarding this will be further described with reference to FIG. 6. // Unified by classification.

도 6은 일 실시 예에 따른 투영 이미지 그룹(610), 안모 이미지 그룹(620) 및 오럴 이미지 그룹(630)을 예시하는 도면이다.6 is a diagram illustrating a projection image group 610, a facial image group 620, and an oral image group 630 according to an exemplary embodiment.

도 6을 참조하면, 프로세서(120)는 복수개의 이미지 각각을 투영 이미지 그룹(610), 안모 이미지 그룹(620) 또는 오럴 이미지 그룹(630)으로 분류할 수 있다.Referring to FIG. 6 , the processor 120 may classify each of the plurality of images into a projection image group 610 , a facial image group 620 , or an oral image group 630 .

투영 이미지 그룹(610)은 투영 이미지에 관한 이미지 그룹에 해당하고, 측면 투영 이미지, 정면 투영 이미지, 파노라마 투영 이미지 및 SMV 투영 이미지 중 적어도 하나를 포함할 수 있다. 프로세서(120)는 복수개의 이미지 중에서 투영 이미지에 해당하고 측면, 정면, 파노라마 및 SMV의 모달리티를 갖는 이미지들을 투영 이미지 그룹(610)으로 분류할 수 있다.The projection image group 610 corresponds to an image group related to projection images, and may include at least one of a side projection image, a front projection image, a panoramic projection image, and an SMV projection image. The processor 120 may classify images corresponding to projection images among a plurality of images and having modalities of side, front, panorama, and SMV into the projection image group 610 .

안모 이미지 그룹(620)은 안모 이미지에 관한 이미지 그룹에 해당하고, 측면 안모 이미지, 정면 안모 이미지, 대각 안모 이미지 및 미소 안모 이미지 중 적어도 하나를 포함할 수 있다. 프로세서(120)는 복수개의 이미지 중에서 안모 이미지에 해당하고 측면, 정면, 대각 및 미소의 모달리티를 갖는 이미지들을 안모 이미지 그룹(620)으로 분류할 수 있다.The facial image group 620 corresponds to an image group related to facial images, and may include at least one of a side facial image, a frontal facial image, a diagonal facial image, and a smiling facial image. The processor 120 may classify images corresponding to facial images among a plurality of images and having modalities of side, front, diagonal, and smile into the facial image group 620 .

오럴 이미지 그룹(630)은 오럴 이미지에 관한 이미지 그룹에 해당하고, 우측 오럴 이미지, 좌측 오럴 이미지, 정면 오럴 이미지, 상악 이미지 및 하악 이미지 중 적어도 하나를 포함할 수 있다. 일 실시 예에서, 프로세서(120)는 복수개의 이미지 중에서, 오럴 이미지 또는 모델 이미지에 해당하면서 우측, 좌측, 정면, 상악 및 하악의 모달리티를 갖는 이미지들을 오럴 이미지 그룹(630)으로 분류할 수 있다. 다른 일 실시 예에서, 프로세서(120)는 복수개의 이미지 중에서 모델 이미지에 해당하고 우측, 좌측, 정면, 상악 및 하악의 모달리티를 갖는 이미지들을 별개의 모델 이미지 그룹으로 분류할 수도 있다.The oral image group 630 corresponds to an image group related to an oral image, and may include at least one of a right oral image, a left oral image, a front oral image, an upper jaw image, and a lower jaw image. In an embodiment, the processor 120 may classify images corresponding to an oral image or a model image and having modalities of right, left, front, upper jaw, and lower jaw among a plurality of images into the oral image group 630 . In another embodiment, the processor 120 may classify images corresponding to model images among a plurality of images and having modalities of right, left, front, upper jaw, and lower jaw into a separate model image group.

일 실시 예에서, 프로세서(120) 복수개의 이미지 각각에 포함되는 세팅값에 기초하여 복수개의 이미지 각각에 대한 모달리티를 결정할 수도 있다. 이미지가 촬영될 때 어떤 부분에 대한 촬영인지 미리 세팅한 후 촬영이 이루어지므로, 복수개의 이미지 각각에는 촬영 과정에서 해당 이미지가 어떤 종류인지 나타내는 세팅값이 해당 이미지의 메타데이터로서 저장될 수 있다. 프로세서(120)는 각 이미지의 메타데이터로부터 촬영 방법, 촬영 방향, 부위, 피사체 등의 속성에 대한 정보를 획득할 수 있다.In one embodiment, the processor 120 may determine a modality for each of the plurality of images based on a setting value included in each of the plurality of images. When an image is captured, since the image is captured after setting in advance which part is to be captured, a setting value representing the type of the corresponding image may be stored as metadata of the image in each of the plurality of images. The processor 120 may obtain information about attributes such as a photographing method, a photographing direction, a region, and a subject from metadata of each image.

일 실시 예에서, 프로세서(120)는 복수개의 이미지 각각에 대한 파일명에 기초하여 복수개의 이미지 각각에 대한 모달리티를 결정할 수도 있다. 예를 들면, 프로세서(120)는 이미지의 파일명으로부터 추출되는 텍스트에 특정 모달리티의 명칭 또는 이와 연관된 단어가 포함된 경우, 해당 이미지의 모달리티를 해당 명칭의 모달리티로 결정할 수 있다.In one embodiment, the processor 120 may determine the modality of each of the plurality of images based on the file name of each of the plurality of images. For example, when a name of a specific modality or a word related thereto is included in text extracted from a file name of an image, the processor 120 may determine the modality of the corresponding image as the modality of the corresponding name.

단계 S240에서 디스플레이(130)는 모달리티에 따라서 결정되는 순서 또는 위치에 따라 복수개의 이미지를 디스플레이할 수 있다. 예를 들면, 디스플레이(130)는 복수개의 모달리티 각각에 대해서 사전에 설정된 순서에 따라 순차적으로 정렬되도록 복수개의 이미지를 각각의 모달리티에 따라서 제 3 윈도우(430)에 디스플레이할 수 있다. 다른 예를 들면, 디스플레이(130)는 복수개의 이미지가 디스플레이되는 제 3 윈도우(430) 내에서 복수개의 모달리티 각각에 대해서 사전에 설정된 위치에 해당 모달리티를 갖는 이미지가 표시되도록 복수개의 이미지를 디스플레이할 수 있다.In step S240, the display 130 may display a plurality of images according to the order or position determined according to the modality. For example, the display 130 may display a plurality of images on the third window 430 according to each modality so as to be sequentially arranged according to a preset order for each of the plurality of modalities. For another example, the display 130 may display a plurality of images so that an image having a corresponding modality is displayed at a position set in advance for each of the plurality of modalities within the third window 430 where the plurality of images are displayed. there is.

디스플레이(130)는 복수개의 이미지에 대응되는 이미지 그룹에 따라 복수개의 이미지를 디스플레이할 수 있다. 예를 들면, 디스플레이(130)는 분류되는 이미지 그룹에 따라 결정되는 순서 또는 위치에 따라서, 동일 이미지 그룹 내의 이미지들은 인접하게 위치하도록, 다른 이미지 그룹 내의 이미지들은 화면 내의 서로 다른 영역에서 시각적으로 구별되도록 복수개의 이미지를 디스플레이할 수 있다. 이에 대해서는 도 7을 참조하여 후술한다.The display 130 may display a plurality of images according to image groups corresponding to the plurality of images. For example, the display 130 allows images in the same image group to be located adjacently and images in different image groups to be visually distinguished from each other in different regions of the screen according to an order or position determined according to the image group to be classified. A plurality of images can be displayed. This will be described later with reference to FIG. 7 .

도 7은 일 실시 예에 따른 디바이스(100)가 이미지 그룹에 따라 복수개의 이미지를 분류하여 디스플레이하는 동작을 예시하는 도면이다.7 is a diagram illustrating an operation of classifying and displaying a plurality of images according to an image group by the device 100 according to an exemplary embodiment.

도 7을 참조하면, 프로세서(120)는 이미지 그룹에 따라 복수개의 이미지를 분류한 결과를 제 3 윈도우(430)에 제공할 수 있다. 일 실시 예에서, 프로세서(120)는 임포트 버튼(440)에 대한 제 1 사용자 입력이 수신되기 전에는 각 모달리티에 기설정된 대표 이미지(720)를 제 3 윈도우(430)에 디스플레이할 수 있다(도 4 참조). 여기에서, 대표 이미지(720)는 모달리티가 아직 결정되지 않은 이미지를 표시할 때 썸네일로서 시각화되는 이미지를 의미한다. 일 실시 예에서, 대표 이미지(720)는 각각의 모달리티를 시각적으로 형상화한 아이콘 등을 포함할 수 있다.Referring to FIG. 7 , the processor 120 may provide a result of classifying a plurality of images according to image groups to a third window 430 . In one embodiment, the processor 120 may display the representative image 720 preset in each modality on the third window 430 before the first user input for the import button 440 is received (FIG. 4). reference). Here, the representative image 720 means an image visualized as a thumbnail when displaying an image whose modality has not yet been determined. In one embodiment, the representative image 720 may include an icon that visually shapes each modality.

또한, 프로세서(120)는 임포트 버튼(440)에 대한 제 1 사용자 입력이 수신된 후에는 상술한 분석 결과에 따라 이미지 그룹별로 복수개의 이미지를 분류 및 정렬하여 제 3 윈도우(430)에 디스플레이할 수 있다(도 7 참조). 모달리티가 결정되어 각 모달리티에 따라서 이미지가 디스플레이되는 경우, 제 3 윈도우(430) 내에서 해당 모달리티에 대응하는 위치에는 대표 이미지(720)를 대신하여 해당 이미지가 디스플레이될 수 있다. 만일 모달리티가 결정되지 않은 이미지가 있다면, 해당 모달리티에 대응하는 위치에는 대표 이미지(720)가 그대로 표시될 수 있다. 여기에서, 모달리티에 대응하는 위치는 복수개의 이미지가 디스플레이되는 영역 내에서 해당 모달리티를 갖는 이미지가 표시되도록 설정된 위치를 의미할 수 있다.Also, after the first user input to the import button 440 is received, the processor 120 may classify and arrange a plurality of images for each image group according to the above-described analysis result, and display the images on the third window 430. Yes (see FIG. 7). When the modality is determined and the image is displayed according to each modality, the corresponding image may be displayed instead of the representative image 720 at a position corresponding to the corresponding modality within the third window 430 . If there is an image whose modality is not determined, the representative image 720 may be displayed as it is at a location corresponding to the modality. Here, a position corresponding to a modality may mean a position set to display an image having a corresponding modality within an area where a plurality of images are displayed.

프로세서(120)는 이미지 그룹에 관해 설정된 우선 순위에 따라 복수개의 이미지를 정렬하여 디스플레이할 수 있다. 일 실시 예에서, 프로세서(120)는 투영 이미지 그룹(610), 안모 이미지 그룹(620) 및 오럴 이미지 그룹(630)의 순서로 높게 부여되는 우선 순위에 따라 복수개의 이미지를 정렬하여 디스플레이할 수 있다. 예컨대, 프로세서(120)는 도 7에서와 같이, 투영 이미지 그룹(610)으로 분류되는 이미지들이 제 3 윈도우(430) 내에서 가장 상단(또는 가장 좌측)에 노출시키고, 안모 이미지 그룹(620)으로 분류되는 이미지들을 투영 이미지 그룹(610)의 다음 위치에, 오럴 이미지 그룹(630)으로 분류되는 이미지들을 안모 이미지 그룹(620)의 다음 위치에 순차적으로 노출시킬 수 있다. 일 실시 예에서, 이미지 그룹에 관한 설정 순서는 수술 종류에 따라 상이하게 결정될 수 있다. The processor 120 may arrange and display a plurality of images according to priorities set for image groups. In one embodiment, the processor 120 may sort and display a plurality of images according to priority given to the projection image group 610, the facial image group 620, and the oral image group 630 in the order of high priority. . For example, as shown in FIG. 7 , the processor 120 exposes the images classified as the projection image group 610 at the top (or leftmost) side of the third window 430, and displays them as the facial image group 620. The classified images may be sequentially exposed to the next position of the projection image group 610 and the images classified to the oral image group 630 to the next position of the facial image group 620 . In an embodiment, a setting order for image groups may be determined differently according to the type of surgery.

프로세서(120)는 동일한 이미지 그룹에 대응되는 이미지들에 대해서는 모달리티에 관한 설정 순서에 따라 정렬하여 디스플레이할 수 있다. 일 실시 예에서, 복수개의 이미지 그룹 각각에 적용되는 모달리티에 관한 설정 순서는 상이할 수 있다. 예를 들면, 투영 이미지 그룹(610)으로 분류되는 이미지들은 측면 투영 이미지, 정면 투영 이미지, 파노라마 투영 이미지, 수완부 투영 이미지 및 SMV 투영 이미지의 순서로 순차 정렬될 수 있다. 또한, 안모 이미지 그룹(620)으로 분류되는 이미지들은 측면 안모 이미지, 정면 안모 이미지, 대각 안모 이미지 및 미소 안모 이미지의 순서로 순차 정렬될 수 있다. 또한, 오럴 이미지 그룹(630)으로 분류되는 이미지들은 오럴 이미지 및 모델 이미지의 순서로 순차 정렬되고, 오럴 이미지 및 모델 이미지 각각에 대해서는 우측, 정면, 좌측, 상악 및 하악의 순서로 순차 정렬될 수 있다.The processor 120 may sort and display images corresponding to the same image group according to a modality setting order. In one embodiment, the order of setting modalities applied to each of the plurality of image groups may be different. For example, the images classified as the projection image group 610 may be sequentially arranged in the order of a side projection image, a front projection image, a panoramic projection image, a forearm projection image, and an SMV projection image. In addition, the images classified as the facial image group 620 may be sequentially arranged in the order of a side facial image, a frontal facial image, a diagonal facial image, and a smile facial image. In addition, the images classified as the oral image group 630 are sequentially arranged in the order of the oral image and the model image, and may be sequentially arranged in the order of right, front, left, upper jaw, and lower jaw for each of the oral image and the model image. .

일 실시 예에서, 모달리티에 관한 설정 순서는 모달리티의 유사성에 기초하여 모달리티가 유사한 이미지들이 인접하게 배치되도록 결정될 수 있다. 예를 들면, 프로세서(120)는 19개의 모달리티를 구분하는데 이용되는 이미지의 촬영 방법, 환자에 대한 촬영 방향, 촬영 부위 및 피사체 속성 중 하나가 동일하거나 그 속성이 유사한 경우, 모달리티의 유사성을 높게 결정할 수 있다. 일 실시 예에서, 모달리티에 관한 설정 순서는 사용자 입력에 따라 갱신될 수 있다.In an embodiment, the setting sequence of modalities may be determined based on the similarity of modalities such that images having similar modalities are adjacently arranged. For example, the processor 120 determines the similarity of the modalities to be high when one of the photographing method of the image used to distinguish the 19 modalities, the photographing direction of the patient, the photographed part, and the subject property is the same or similar. can In one embodiment, the setting order of the modality may be updated according to a user input.

이와 같이, 프로세서(120)는 복수개의 이미지를 이미지 그룹 및 모달리티에 따라 분류하여 디스플레이함으로써, 사용자 관점에서 시인성 높고 직관적인 디스플레이 인터페이스를 제공할 수 있다.In this way, the processor 120 may provide a highly visible and intuitive display interface from a user's point of view by classifying and displaying a plurality of images according to image groups and modalities.

복수개의 이미지가 디스플레이되는 영역은 모달리티와 연관된 제 1 영역과 모달리티와 연관되지 않는 제 2 영역으로 구성될 수 있다. 일 실시 예에서, 모달리티와 연관된 제 1 영역에는 복수개의 이미지 중 모달리티가 결정된 하나 이상의 제 1 이미지가 디스플레이될 수 있다. 또한, 모달리티와 연관되지 않는 제 2 영역에는 복수개의 이미지 중 모달리티가 결정되지 않은 하나 이상의 제 2 이미지가 디스플레이될 수 있다. 예를 들면, 제 1 영역과 제 2 영역은 제 3 윈도우(430) 내에서 서로 구별되고, 제 1 영역이 상위에 배치되고, 제 2 영역이 제 1 영역의 하위에 배치될 수 있다. 예를 들면, 모달리티의 결정을 요청하는 사용자 입력이 수신됨에 따라, 단계 S230이 수행되고, 단계 S230을 통해 모달리티가 결정된 제 1 이미지들은 제 3 윈도우(430) 내에서 제 1 영역에 디스플레이될 수 있다. 또한, 단계 S230을 통하였음에도 모달리티가 결정되지 않은 제 2 이미지들에 대해서 모달리티를 선택하는 사용자 입력이 수신되는 경우, 해당 사용자 입력에 따라 선택되는 모달리티에 따라 제 2 이미지가 제 2 영역에 디스플레이될 수 있다.An area where a plurality of images are displayed may be composed of a first area associated with a modality and a second area not associated with a modality. In an embodiment, one or more first images of which the modality is determined among a plurality of images may be displayed in the first region associated with the modality. In addition, one or more second images of which the modality is not determined among the plurality of images may be displayed in the second area not associated with the modality. For example, the first area and the second area may be distinguished from each other within the third window 430, the first area may be disposed above, and the second area may be disposed below the first area. For example, when a user input requesting modality determination is received, step S230 is performed, and the first images whose modality is determined through step S230 may be displayed in a first area within the third window 430. . In addition, when a user input for selecting a modality is received for the second images whose modality has not been determined even though step S230 has been performed, the second image may be displayed in the second area according to the modality selected according to the corresponding user input. there is.

프로세서(120)는 모달리티의 결정을 요청하는 제 1 사용자 입력이 수신되는 경우, CNN 기반의 분류 모델을 통해 복수개의 이미지 각각의 모달리티를 결정할 수 있다. 예를 들면, 프로세서(120)는 임포트 버튼(440)을 통해 제 1 사용자 입력을 수신하는 경우, 상술한 것처럼 CNN 기반의 분류 모델을 이용하여 상술한 이미지의 촬영 방법, 환자에 대한 촬영 방향, 촬영 부위 및 피사체를 식별한 분석 결과를 획득한 후 분석 결과를 통해 이미지의 모달리티를 결정하거나, CNN 기반의 분류 모델에 이미지를 입력하여 그 출력으로서 모달리티에 대한 결정값을 즉시 획득할 수 있다.When a first user input requesting modality determination is received, the processor 120 may determine the modality of each of the plurality of images through a CNN-based classification model. For example, when the processor 120 receives the first user input through the import button 440, the above-described image capturing method, the capturing direction of the patient, and the capturing using the CNN-based classification model as described above. After obtaining the analysis result of identifying the part and the subject, the modality of the image can be determined through the analysis result, or the determined value for the modality can be obtained immediately as an output by inputting the image to a CNN-based classification model.

일 실시 예에서, 디바이스(100)는 제 1 사용자 입력을 수신하는 경우, 복수개의 이미지 각각에 대한 모달리티의 결정을 학습 서버에 요청하고, 학습 서버로부터 해당 요청에 대한 응답으로서 분류 모델을 통해 복수개의 이미지 각각에 대한 모달리티를 결정한 결과를 수신할 수 있다. 예컨대, 학습 서버는 단계 S210 이전에 학습 및 검증을 통해 기 획득한 분류 모델을 디바이스(100)의 요청에 따라 실행시키고, 디바이스(100)로부터 수신되는 복수개의 이미지에 대해서 상술한 것처럼 분류 모델을 통해 분석하여 복수개의 이미지 각각에 대한 모달리티를 결정하고, 결정 결과를 디바이스(100)에 전송할 수 있다.In one embodiment, when the device 100 receives the first user input, the device 100 requests the learning server to determine the modality of each of the plurality of images, and as a response to the request from the learning server, the device 100 uses a classification model to determine the plurality of images. A result of determining the modality for each image may be received. For example, the learning server executes the classification model previously acquired through learning and verification before step S210 according to the request of the device 100, and through the classification model as described above for a plurality of images received from the device 100. The modality of each of the plurality of images may be determined by analysis, and the determination result may be transmitted to the device 100 .

다른 실시 예에서, 디바이스(100)는 제 1 사용자 입력을 수신하는 경우, 상술한 것처럼 기 획득된 분류 모델을 실행시키고, 분류 모델을 통해 복수개의 이미지를 분석하여 복수개의 이미지 각각에 대한 모달리티를 결정할 수 있다.In another embodiment, when the device 100 receives the first user input, the device 100 executes a previously obtained classification model as described above, analyzes a plurality of images through the classification model, and determines a modality for each of the plurality of images. can

프로세서(120)는 모달리티를 선택하는 제 2 사용자 입력이 수신되는 경우, CNN 기반의 분류 모델을 통하지 않고 복수개의 이미지 중 모달리티가 결정되지 않은 제 2 이미지에 대해서 모달리티를 선택하는 제 2 사용자 입력에 따라 제 2 이미지의 모달리티를 결정할 수 있다. 예를 들면, 프로세서(120)는 단계 S230을 수행하였음에도 모달리티가 결정되지 않은 제 2 이미지에 대해서, 해당 제 2 이미지가 디스플레이된 화면 내에서 제 3 윈도우(430) 내의 특정 모달리티에 대응하는 위치로 이미지의 위치를 이동시키는 드래그 앤 드롭 입력이 수신되는 경우, 제 2 이미지의 모달리티를 해당 모달리티로 결정할 수 있다.When the second user input for selecting the modality is received, the processor 120 selects the modality for the second image for which the modality is not determined among the plurality of images without going through the CNN-based classification model according to the second user input for selecting the modality. A modality of the second image may be determined. For example, for the second image whose modality has not been determined even though step S230 has been performed, the processor 120 moves the second image to a position corresponding to a specific modality in the third window 430 within the displayed screen. When a drag and drop input for moving the position of is received, the modality of the second image may be determined as the corresponding modality.

프로세서(120)는 모달리티가 동일한 제 3 이미지 및 제 4 이미지 중 획득 시점이 더 늦은 제 3 이미지를 디스플레이할 수 있다. 여기에서, 획득 시점은 이미지가 촬영된 시점 또는 이미지가 해당 폴더에 저장된 시점을 의미할 수 있다. 예를 들면, 프로세서(120)는 측면 투영 이미지에 대응되는 이미지가 복수개인 경우, 가장 최근 획득된 하나의 이미지만 제 3 윈도우(430)의 해당 위치에 디스플레이하고, 나머지 이미지들의 디스플레이를 생략할 수 있다. 일 실시 예에서, 사용자 설정 또는 선택 입력에 따라 획득 시점이 늦은 이미지가 아닌 다른 이미지를 이용할 수도 있다.The processor 120 may display a third image obtained later from among the third image and the fourth image having the same modality. Here, the acquisition time may mean a time when an image is captured or a time when an image is stored in a corresponding folder. For example, if there are a plurality of images corresponding to the side projection images, the processor 120 may display only the most recently acquired image at a corresponding position of the third window 430 and omit display of the remaining images. there is. In one embodiment, an image other than an image of a late acquisition point may be used according to a user setting or a selection input.

일 실시 예에서, 복수개의 이미지의 획득 시점은 기설정 시간 범위 내에 포함될 수 있다. 프로세서(120)는 복수개의 이미지의 획득 시점(예: 촬영 시점)에 기초하여 복수개의 폴더 중 어느 하나를 통해 액세스되는 저장 공간(예: 메모리, DB 등)으로 각각의 이미지를 분류하여 저장할 수 있다. 예를 들면, 프로세서(120)는 특정 환자에 대해서 동일 일자에 촬영되었거나 일정 기간 내에 촬영된 이미지들을 동일한 폴더로 분류시킬 수 있다.In one embodiment, acquisition time points of the plurality of images may be included within a preset time range. The processor 120 may classify and store each image in a storage space (eg, memory, DB, etc.) accessed through one of a plurality of folders based on the acquisition time (eg, shooting time) of the plurality of images. . For example, the processor 120 may classify images of a specific patient on the same date or within a certain period of time into the same folder.

프로세서(120)는 제 3 이미지와 인접한 영역에 추가 이미지가 있음을 나타내는 제 1 UI 이미지(710)를 디스플레이할 수 있다. 예를 들면, 프로세서(120)는 가장 최근의 제 3 이미지 뒤로 나머지 이미지들의 일부가 중첩되는 형태로 제 1 UI 이미지(710)를 디스플레이할 수 있다. 다른 예를 들면, 프로세서(120)는 가장 최근의 이미지의 옆에 나머지 이미지들의 개수가 숫자로 표시된 제 2 UI 이미지(730)를 디스플레이할 수 있다.The processor 120 may display the first UI image 710 indicating that there is an additional image in an area adjacent to the third image. For example, the processor 120 may display the first UI image 710 in a form in which some of the remaining images are overlapped behind the most recent third image. For another example, the processor 120 may display the second UI image 730 in which the number of remaining images is displayed as a number next to the most recent image.

프로세서(120)는 UI 이미지(710, 730)를 통해 모달리티가 동일한 이미지들의 디스플레이 순서를 결정할 수 있다. 예를 들면, 프로세서(120)는 제 1 UI 이미지(710) 또는 제 2 UI 이미지(730)에 대해 마우스 우측 버튼을 클릭하는 사용자 입력이 수신되는 경우, 제 1 UI 이미지(710) 또는 제 2 UI 이미지(730) 상에 선택된 이미지와 동일한 모달리티를 가지면서 획득 시점이 상이한 여러 이미지들의 파일명, 획득시점에 대한 리스트를 포함하는 이미지 선택 메뉴(740)를 제 3윈도우(430) 상에 중첩하여 디스플레이하고, 리스트를 통해 선택되는 이미지가 최상단에 노출되도록 제 1 UI 이미지(710) 또는 제 2 UI 이미지를 갱신할 수 있다.The processor 120 may determine the display order of images having the same modality through the UI images 710 and 730 . For example, when a user input of clicking the right mouse button on the first UI image 710 or the second UI image 730 is received, the processor 120 displays the first UI image 710 or the second UI. An image selection menu 740 including a list of file names and acquisition times of various images having the same modality as the image selected on the image 730 and having different acquisition times is superimposed on the third window 430 and displayed. , the first UI image 710 or the second UI image may be updated so that the image selected through the list is exposed at the top.

프로세서(120)는 복수개의 이미지 중 모달리티가 결정되지 않은 이미지의 모달리티를 선택하는 제 2 사용자 입력에 기초하여 복수개의 이미지에 대한 분류 결과를 갱신하여 디스플레이할 수 있다. 예를 들면, 프로세서(120)는 제 2 윈도우(420) 내에서 모달리티가 결정되지 않은 특정 이미지를 모달리티가 결정되지 않아 대신 표시되고 있던 대표 이미지(720)의 위치로 이동시키는 드래그 앤 드롭 입력이 수신되는 경우, 해당 위치에 대응되는 모달리티와 해당 이미지를 매칭시킬 수 있다. The processor 120 may update and display a classification result of a plurality of images based on a second user input for selecting a modality of an image whose modality has not been determined from among the plurality of images. For example, the processor 120 receives a drag-and-drop input for moving a specific image whose modality is not determined within the second window 420 to the position of the representative image 720 that is being displayed instead because the modality is not determined. In this case, the modality corresponding to the corresponding position may be matched with the corresponding image.

프로세서(120)는 복수개의 이미지 중 모달리티가 결정된 이미지의 모달리티를 선택하는 제 3 사용자 입력에 기초하여 복수개의 이미지에 대한 분류 결과를 갱신하여 디스플레이할 수 있다. 예를 들면, 프로세서(120)는 제 3 윈도우(430)에서 제 1 모달리티의 위치에 있는 이미지를 제 2 모달리티의 위치로 이동시키는 드래그 앤 드롭 입력이 수신되는 경우, 해당 이미지의 모달리티를 제 1 모달리티에서 제 2 모달리티로 갱신할 수 있다.The processor 120 may update and display a classification result of a plurality of images based on a third user input for selecting a modality of an image whose modality is determined from among the plurality of images. For example, when a drag and drop input for moving an image from a location of a first modality to a location of a second modality is received in the third window 430, the processor 120 converts the modality of the corresponding image to the first modality. can be updated to the second modality.

프로세서(120)는 모달리티에 관한 설정 순서에 따라 대응되는 이미지를 디스플레이할 때, 복수개의 이미지 중 어느 하나와도 대응되지 않는 모달리티가 존재하는 경우, 제 3 윈도우(430) 내에서 해당 모달리티에 대응되는 위치에 아직 모달리티가 결정되지 않았음을 의미하는 대표 이미지(720)를 디스플레이할 수 있다. 일 실시 예에서, 대표 이미지(720)는 공백의 이미지, 카메라 형상의 이미지, 해당 모달리티에 대응되는 형상의 이미지 등일 수 있다. 이에 따라, 해당 모달리티를 갖는 이미지가 아직 획득되지 않았음을 직관적으로 알릴 수 있다.When the processor 120 displays the corresponding image according to the setting order of the modality, if there is a modality that does not correspond to any one of the plurality of images, a modality corresponding to the corresponding modality is displayed in the third window 430. A representative image 720 indicating that the modality of the position has not yet been determined may be displayed. In one embodiment, the representative image 720 may be a blank image, a camera-shaped image, or a shape image corresponding to a corresponding modality. Accordingly, it may be intuitively notified that an image having a corresponding modality has not yet been obtained.

프로세서(120)는 복수개의 이미지에 대한 분류 완료를 요청하는 제 6 사용자 입력이 수신됨에 따라, 복수개의 이미지에 대한 분류 결과를 적용할 수 있다. 예를 들면, 프로세서(120)는 제 2 인터페이스 화면(400)의 하단에 디스플레이되는 완료 버튼(450)을 통해 제 6 사용자 입력을 수신할 수 있고, 도 8에서와 같이 복수개의 이미지에 대한 분류 결과를 적용하여 제 1 인터페이스 화면(300)에 복수개의 이미지를 이미지 그룹에 따라 분류하여 디스플레이할 수 있다.The processor 120 may apply a classification result to the plurality of images as a sixth user input requesting completion of classification of the plurality of images is received. For example, the processor 120 may receive a sixth user input through the completion button 450 displayed at the bottom of the second interface screen 400, and as shown in FIG. 8, a classification result for a plurality of images. may be applied to classify and display a plurality of images according to image groups on the first interface screen 300 .

프로세서(120)는 이미지의 분류가 완료되면, 환자 정보에 기초하여 이미지에 대한 파일 정보를 갱신할 수 있다. 예를 들면, 프로세서(120)는 교정 진단의 대상으로서 등록된 환자의 차트 번호, 환자 이름, 분류된 모달리티에 대한 내용이 포함되도록 파일명을 변경할 수 있다. 또한, 교정 진단을 위해 디스플레이되는 화면(예: 제 1 인터페이스 화면(300))에 해당 파일명을 기준으로 이미지에 대한 정보를 표시할 수 있다.When classification of the image is completed, the processor 120 may update file information about the image based on patient information. For example, the processor 120 may change the file name to include the contents of the chart number, patient name, and classified modality of a patient registered as a subject of corrective diagnosis. In addition, information on an image based on a corresponding file name may be displayed on a screen displayed for calibration diagnosis (eg, the first interface screen 300).

본 개시의 일 실시 예에 따르면, 딥러닝을 기반으로 이미지의 특징을 학습하여 모달리티에 따라 이미지 그룹을 분류하기 때문에 높은 수준의 인식 결과를 얻을 수 있어 분류 정확도를 향상시킬 수 있다.According to an embodiment of the present disclosure, since image groups are classified according to modalities by learning features of images based on deep learning, a high-level recognition result can be obtained and classification accuracy can be improved.

일 실시 예에서, 이미지 획득부(110)는 이미지 촬영 장치 또는 메모리로부터 이미지를 수신하는 통신 장치로 구현될 수도 있다. 또한, 프로세서(120)는 이미지를 디스플레이하기 위한 일련의 동작들을 수행할 수 있고, 이미지 획득부(110), 디스플레이(130) 및 그 밖의 구성요소들과 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(120)는 이를 위해 디바이스(100)의 동작 전반을 제어하는 CPU(central processor unit)로 구현될 수 있다. 디스플레이(130)는 이미지를 디스플레이하는 이미지 출력 장치를 포괄적으로 의미할 수 있으며, 예를 들면, 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 등일 수 있다.In one embodiment, the image acquisition unit 110 may be implemented as an image capture device or a communication device that receives an image from a memory. In addition, the processor 120 may perform a series of operations for displaying an image, and is electrically connected to the image acquisition unit 110, the display 130, and other components to control data flow between them. can The processor 120 may be implemented as a central processor unit (CPU) that controls overall operations of the device 100 for this purpose. The display 130 may comprehensively mean an image output device that displays an image, and includes, for example, a liquid crystal display, a thin film transistor-liquid crystal display, an organic light emitting diode (OLED). It may be an organic light-emitting diode, a flexible display, a 3D display, an electrophoretic display, and the like.

또한, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 디바이스(100)에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 일 실시 예에 따를 경우, 디바이스(100)는 다른 디바이스와 유무선 네트워크를 통해 통신하기 위한 통신부, 사용자 입력을 수신하는 사용자 인터페이스, 데이터를 저장하는 저장부(예: 메모리, 데이터베이스, 클라우드) 등을 더 포함할 수 있다. 다른 실시 예에 따를 경우, 도 1에 도시된 구성요소들 중 일부는 생략될 수도 있다.In addition, those of ordinary skill in the art may understand that other general-purpose components may be further included in the device 100 in addition to the components shown in FIG. 1 . According to an embodiment, the device 100 further includes a communication unit for communicating with other devices through a wired/wireless network, a user interface for receiving a user input, and a storage unit (eg, memory, database, cloud) for storing data. can include According to another embodiment, some of the components shown in FIG. 1 may be omitted.

이상에서 도시된 단계들의 순서 및 조합은 일 실시 예이고, 명세서에 기재된 각 구성요소들의 본질적인 특성에서 벗어나지 않는 범위에서 순서, 조합, 분기, 기능 및 그 수행 주체가 추가, 생략 또는 변형된 형태로 다양하게 실시될 수 있음을 알 수 있다. 또한, 명세서 전체에서 '제공'은 대상이 특정 정보를 획득하거나 직간접적으로 특정 대상에게 송수신하는 과정을 포함하며 이러한 과정에서 요구되는 관련 동작의 수행을 포괄적으로 포함하는 것으로 해석될 수 있다.The order and combination of the steps shown above is an embodiment, and the order, combination, branch, function, and subject of execution thereof may be added, omitted, or modified within the scope that does not deviate from the essential characteristics of each component described in the specification. It can be seen that this can be done. In addition, throughout the specification, 'providing' includes a process in which an object acquires specific information or directly or indirectly transmits/receives it to a specific object, and can be interpreted as comprehensively including the performance of related operations required in this process.

본 개시의 다양한 실시예들은 기기(machine)(예를 들어, 디스플레이 장치 또는 컴퓨터)에 의해 읽을 수 있는 저장 매체(storage medium)(예를 들어, 메모리)에 저장된 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서(예를 들어, 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 인스트럭션들 중 적어도 하나의 인스트럭션을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 인스트럭션에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 인스트럭션들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present disclosure are implemented as software including one or more instructions stored in a storage medium (eg, memory) readable by a machine (eg, a display device or a computer). It can be. For example, a processor (eg, processor 120 ) of the device may call at least one of one or more instructions stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the invoked at least one instruction. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' only means that the storage medium is a tangible device and does not contain signals (e.g., electromagnetic waves), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.

일 실시예에 따르면, 본 개시에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in the present disclosure may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smartphones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.

본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 개시의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 개시에 포함된 것으로 해석되어야 할 것이다.Those skilled in the art related to this embodiment will be able to understand that it can be implemented in a modified form within a range that does not deviate from the essential characteristics of the above description. Therefore, the disclosed methods are to be considered in an illustrative rather than a limiting sense. The scope of the present disclosure is shown in the claims rather than the foregoing description, and all differences within the equivalent scope will be construed as being included in the present disclosure.

100: 디바이스
110: 이미지 획득부 120: 프로세서
130: 디스플레이
410: 제 1 윈도우 420: 제 2 윈도우
430: 제 3 윈도우
610: 투영 이미지 그룹 620: 안모 이미지 그룹
630: 오럴 이미지 그룹
100: device
110: image acquisition unit 120: processor
130: display
410: first window 420: second window
430: third window
610: projection image group 620: facial image group
630: oral image group

Claims (14)

복수개의 이미지를 디스플레이하는 방법에 있어서,
교정 진단에 이용되는 복수개의 이미지를 획득하는 단계;
학습된 신경망에 기초하여 상기 복수개의 이미지의 종류에 대한 분석 결과를 획득하는 단계;
상기 분석 결과에 기초하여 상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 단계; 및
상기 모달리티에 따라서 결정되는 순서 또는 위치에 따라 상기 복수개의 이미지를 디스플레이하는 단계;를 포함하는, 방법.
A method for displaying a plurality of images,
acquiring a plurality of images used for calibration diagnosis;
obtaining an analysis result for the types of the plurality of images based on the learned neural network;
determining a modality for each of the plurality of images based on a result of the analysis; and
and displaying the plurality of images in an order or position determined according to the modality.
제 1 항에 있어서,
상기 모달리티에 따라서 상기 복수개의 이미지를 디스플레이하는 단계는
상기 모달리티에 따라서 상기 복수개의 이미지를 복수개의 이미지 그룹 중 어느 하나로 분류하는 단계; 및
이미지 그룹에 따라 상기 복수개의 이미지를 디스플레이하는 단계;를 포함하고,
상기 복수개의 이미지 그룹은 투영 이미지 그룹, 안모 이미지 그룹 및 오럴 이미지 그룹 중 적어도 둘을 포함하는, 방법.
According to claim 1,
Displaying the plurality of images according to the modality
classifying the plurality of images into one of a plurality of image groups according to the modality; and
Including; displaying the plurality of images according to the image group,
The method of claim 1 , wherein the plurality of image groups include at least two of a projection image group, a facial image group, and an oral image group.
제 1 항에 있어서,
상기 복수개의 이미지가 디스플레이되는 영역은
상기 복수개의 이미지 중 상기 모달리티가 결정된 하나 이상의 제 1 이미지가 디스플레이되는 제 1 영역; 및
상기 복수개의 이미지 중 상기 모달리티가 결정되지 않은 하나 이상의 제 2 이미지가 디스플레이되는 제 2 영역을 포함하는, 방법.
According to claim 1,
The area where the plurality of images are displayed is
a first area in which one or more first images of which the modality is determined among the plurality of images are displayed; and
and a second area in which one or more second images of which the modality is not determined among the plurality of images are displayed.
제 3 항에 있어서,
상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 단계는
상기 모달리티의 결정을 요청하는 제 1 사용자 입력이 수신되는 경우, CNN (Convolution Neural Network) 기반의 분류 모델을 통해 상기 복수개의 이미지 각각의 모달리티를 결정하는 단계; 및
상기 모달리티를 선택하는 제 2 사용자 입력이 수신되는 경우, 상기 분류 모델을 통하지 않고 상기 하나 이상의 제 2 이미지의 모달리티를 상기 제 2 사용자 입력에 대응하는 모달리티로 결정하는, 방법.
According to claim 3,
Determining the modality of each of the plurality of images
determining a modality of each of the plurality of images through a classification model based on a Convolution Neural Network (CNN) when a first user input requesting determination of the modality is received; and
determining a modality of the one or more second images as a modality corresponding to the second user input without going through the classification model when a second user input for selecting the modality is received.
제 4 항에 있어서,
상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 단계는
상기 제 1 사용자 입력을 수신하는 경우, 상기 복수개의 이미지 각각에 대한 모달리티의 결정을 서버에 요청하고, 상기 서버로부터 상기 요청에 대한 응답으로서 상기 분류 모델을 통해 상기 복수개의 이미지 각각에 대한 모달리티를 결정한 결과를 수신하는, 방법.
According to claim 4,
Determining the modality of each of the plurality of images
When receiving the first user input, requesting a server to determine the modality of each of the plurality of images, and determining the modality of each of the plurality of images through the classification model as a response to the request from the server How to receive results.
제 1 항에 있어서,
상기 복수개의 이미지를 분류하여 디스플레이하는 단계는
상기 모달리티가 동일한 제 3 이미지 및 제 4 이미지 중 획득 시점이 더 늦은 제 3 이미지를 디스플레이하는, 방법.
According to claim 1,
Classifying and displaying the plurality of images
A method of displaying a third image having a later acquisition time point among the third image and the fourth image having the same modality.
제 6 항에 있어서,
상기 복수개의 이미지를 분류하여 디스플레이하는 단계는
상기 제 3 이미지와 인접한 영역에 추가 이미지가 있음을 나타내는 UI 이미지를 디스플레이하는, 방법.
According to claim 6,
Classifying and displaying the plurality of images
A method of displaying a UI image indicating that an additional image is present in an area adjacent to the third image.
제 1 항에 있어서,
상기 분석 결과를 획득하는 단계는
CNN (Convolution Neural Network) 중 ResNet(Residual Connection) 모델에 기초하여 상기 분석 결과를 획득하는, 방법.
According to claim 1,
Obtaining the analysis result
A method of obtaining the analysis result based on a Residual Connection (ResNet) model of a Convolution Neural Network (CNN).
복수개의 이미지를 디스플레이하는 디바이스에 있어서,
교정 진단에 이용되는 복수개의 이미지를 획득하는 이미지 획득부;
학습된 신경망에 기초하여 상기 복수개의 이미지의 종류에 대한 분석 결과를 획득하고, 상기 분석 결과에 기초하여 상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 프로세서; 및
상기 모달리티에 따라서 결정되는 순서 또는 위치에 따라 상기 복수개의 이미지를 디스플레이하는 디스플레이;를 포함하는, 디바이스.
In a device displaying a plurality of images,
an image acquiring unit acquiring a plurality of images used for calibration diagnosis;
a processor that obtains an analysis result for the types of the plurality of images based on a learned neural network, and determines a modality for each of the plurality of images based on the analysis result; and
A device comprising a; display for displaying the plurality of images according to an order or position determined according to the modality.
제 9 항에 있어서,
상기 프로세서는
상기 모달리티에 따라서 상기 복수개의 이미지를 복수개의 이미지 그룹 중 어느 하나로 분류하고,
상기 디스플레이는
이미지 그룹에 따라 상기 복수개의 이미지를 디스플레이하고,
상기 복수개의 이미지 그룹은 투영 이미지 그룹, 안모 이미지 그룹 및 오럴 이미지 그룹 중 적어도 둘을 포함하는, 디바이스.
According to claim 9,
The processor
Classifying the plurality of images into one of a plurality of image groups according to the modality;
the display
displaying the plurality of images according to image groups;
The device of claim 1, wherein the plurality of image groups include at least two of a projection image group, a facial image group, and an oral image group.
제 9 항에 있어서,
상기 복수개의 이미지가 디스플레이되는 영역은
상기 복수개의 이미지 중 상기 모달리티가 결정된 하나 이상의 제 1 이미지가 디스플레이되는 제 1 영역; 및
상기 복수개의 이미지 중 상기 모달리티가 결정되지 않은 하나 이상의 제 2 이미지가 디스플레이되는 제 2 영역을 포함하는, 디바이스.
According to claim 9,
The area where the plurality of images are displayed is
a first area in which one or more first images of which the modality is determined among the plurality of images are displayed; and
And a second area in which one or more second images of which the modality is not determined among the plurality of images are displayed.
제 9 항에 있어서,
상기 프로세서는
상기 모달리티의 결정을 요청하는 제 1 사용자 입력이 수신되는 경우, CNN (Convolution Neural Network) 기반의 분류 모델을 통해 상기 복수개의 이미지 각각의 모달리티를 결정하고,
상기 모달리티를 선택하는 제 2 사용자 입력이 수신되는 경우, 상기 분류 모델을 통하지 않고 상기 하나 이상의 제 2 이미지의 모달리티를 상기 제 2 사용자 입력에 대응하는 모달리티로 결정하는, 디바이스.
According to claim 9,
The processor
When a first user input requesting the determination of the modality is received, a modality of each of the plurality of images is determined through a classification model based on a CNN (Convolution Neural Network),
and determining a modality of the one or more second images as a modality corresponding to the second user input without going through the classification model when a second user input for selecting the modality is received.
제 9 항에 있어서,
상기 디스플레이는
상기 모달리티가 동일한 제 3 이미지 및 제 4 이미지 중 획득 시점이 더 늦은 제 3 이미지를 디스플레이하는, 디바이스.
According to claim 9,
the display
A device that displays a third image having a later acquisition time point among the third image and the fourth image having the same modality.
제 1 항 내지 제 8 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recording a program for executing the method of any one of claims 1 to 8 in a computer.
KR1020210161516A 2021-11-22 2021-11-22 Method, device and recording medium for displaying a plurality of images KR20230075178A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210161516A KR20230075178A (en) 2021-11-22 2021-11-22 Method, device and recording medium for displaying a plurality of images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210161516A KR20230075178A (en) 2021-11-22 2021-11-22 Method, device and recording medium for displaying a plurality of images

Publications (1)

Publication Number Publication Date
KR20230075178A true KR20230075178A (en) 2023-05-31

Family

ID=86543728

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210161516A KR20230075178A (en) 2021-11-22 2021-11-22 Method, device and recording medium for displaying a plurality of images

Country Status (1)

Country Link
KR (1) KR20230075178A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060100737A (en) 2005-03-18 2006-09-21 양계식 The dental patient examination and treatment service system by internet

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060100737A (en) 2005-03-18 2006-09-21 양계식 The dental patient examination and treatment service system by internet

Similar Documents

Publication Publication Date Title
WO2021046241A1 (en) Automated medical image annotation and analysis
US10222954B2 (en) Image display apparatus, display control apparatus and display control method using thumbnail images
RU2451335C2 (en) Image- and context-dependent anatomic applications for effective diagnostics
JP2019121283A (en) Prediction model generation system and prediction system
JPWO2007000940A1 (en) Abnormal shadow candidate detection method, abnormal shadow candidate detection device
US20220249202A1 (en) Multiple bone density displaying method for establishing implant procedure plan, and image processing device therefor
JP6004875B2 (en) MEDICAL IMAGE DISPLAY DEVICE, MEDICAL IMAGE DISPLAY METHOD, AND PROGRAM
JP2024010085A (en) Information processing device, information processing method, and program
KR102413695B1 (en) Method for providing dentistry image and dentistry image processing device therefor
JP2018055278A (en) Medical information processing apparatus, medical information processing system, medical information processing method, and program
US20230274431A1 (en) Image processing apparatus, method for controlling same, and storage medium
KR102244459B1 (en) Automatic protocol selection for an imaging device
JP7433750B2 (en) Video clip selector used for medical image creation and diagnosis
KR20230075178A (en) Method, device and recording medium for displaying a plurality of images
CN111128321A (en) Information display method and system, device, electronic equipment and readable medium
KR20230053888A (en) Method, device and recording medium for displaying a screen according to a plurality of menus
KR102486053B1 (en) Apparatus for displaying the intra-oral image and method thereof
KR102200060B1 (en) Mhthod and apparatus for easy moving to precision diagnostic module for teeth
KR20230055760A (en) Medical image display method for orthodontic diagnosis, device and recording medium thereof
KR102413694B1 (en) Method for interlocking lesion detection and dentistry image processing device therefor
KR102583135B1 (en) Method, device and recording medium for displaying a plurality of images by superimposing them
KR102596666B1 (en) System and method for providing integrated medical service based on medical image
KR102550769B1 (en) Pharmaceutical auto-labeling method and device using artificial intelligence
KR102369100B1 (en) Method for displaying multi panoramic image and imaging processing apparatus thereof
CN117393114A (en) Display method and device of oral health examination information, computer equipment and medium