KR20230075178A - Method, device and recording medium for displaying a plurality of images - Google Patents
Method, device and recording medium for displaying a plurality of images Download PDFInfo
- Publication number
- KR20230075178A KR20230075178A KR1020210161516A KR20210161516A KR20230075178A KR 20230075178 A KR20230075178 A KR 20230075178A KR 1020210161516 A KR1020210161516 A KR 1020210161516A KR 20210161516 A KR20210161516 A KR 20210161516A KR 20230075178 A KR20230075178 A KR 20230075178A
- Authority
- KR
- South Korea
- Prior art keywords
- images
- image
- modality
- displaying
- user input
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000003745 diagnosis Methods 0.000 claims abstract description 23
- 238000013528 artificial neural network Methods 0.000 claims abstract description 22
- 230000001815 facial effect Effects 0.000 claims description 33
- 238000004458 analytical method Methods 0.000 claims description 24
- 238000013145 classification model Methods 0.000 claims description 22
- 230000004044 response Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 5
- 230000008676 import Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000000245 forearm Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011505 plaster Substances 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 210000001738 temporomandibular joint Anatomy 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0088—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1079—Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
- A61B5/4542—Evaluating the mouth, e.g. the jaw
- A61B5/4547—Evaluating teeth
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7425—Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/14—Applications or adaptations for dentistry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4417—Constructional features of apparatus for radiation diagnosis related to combined acquisition of different diagnostic modalities
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/46—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- A61B6/51—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
- A61C7/002—Orthodontic computer assisted systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
- A61C7/002—Orthodontic computer assisted systems
- A61C2007/004—Automatic construction of a set of axes for a tooth or a plurality of teeth
Abstract
일 실시 예에 따라, 학습된 신경망에 기초하여 교정 진단에 이용되는 복수개의 이미지 각각에 대한 모달리티를 결정하고, 모달리티에 따라 복수개의 이미지를 디스플레이할 수 있는 방법이 개시된다. 이에 따라, 교정 진단에 관한 이미지의 분류를 위해 사용자에게 요구되는 번거로운 절차를 최소화하고, 모달리티에 따른 디스플레이를 통해 사용자에게 직관적인 디스플레이 인터페이스를 제공할 수 있다.According to an embodiment, a method of determining a modality of each of a plurality of images used for calibration diagnosis based on a learned neural network and displaying the plurality of images according to the modality is disclosed. Accordingly, it is possible to minimize a cumbersome procedure required of a user for classifying images related to calibration diagnosis, and provide an intuitive display interface to the user through a display according to modality.
Description
본 개시는 교정 진단에 이용되는 다양한 이미지들을 디스플레이하는 방법, 디바이스 및 그 기록매체에 관한 것이다.The present disclosure relates to a method, a device, and a recording medium for displaying various images used for calibration diagnosis.
일반적으로 교정 치료를 진행할 때 환자의 문제를 진단하기 위해 임상적으로 다양한 영상들을 이용한 진단이 필수적으로 요구된다. 예컨대, 문제 진단을 위해서 방사선 영상뿐만 아니라 안모사진, 구내사진 등이 촬영되고, 교정치료 기간 중에는 치아 및 안모변화를 확인하기 위해 추가적으로 방사선 영상 및 안모, 구내사진 등이 촬영된다. 이러한 다양한 영상들은 치과의사의 효율적인 진단을 위해 현재 환자가 교정 치료 과정 중 어떠한 단계에 있는지, 어떠한 방식으로 치료되고 있는지 등을 고려한 다양한 치료 그룹으로 분류되어야 한다.In general, when performing orthodontic treatment, diagnosis using various clinical images is required to diagnose a patient's problem. For example, not only radiographic images but also facial and intraoral photographs are taken to diagnose problems, and during orthodontic treatment, additional radiographic images and facial and intraoral photographs are taken to confirm changes in teeth and facial appearance. These various images should be classified into various treatment groups in consideration of what stage of the current patient's orthodontic treatment process and how they are being treated for efficient diagnosis by a dentist.
종래에는 이와 같이 교정 치료에 필요한 다양한 영상들을 사용자가 직접 해당 영상이 현재 환자의 어떠한 치료 그룹에 해당하는지 일일이 확인하면서 분류하였다. 이러한 종래의 기술은 사용자가 교정 분석을 진행할 때마다 환자에 대해 새롭게 촬영된 영상들을 분류하는 수작업을 반복해야 하므로 사용자 편의성이 떨어지는 단점이 있다.In the prior art, a user directly identifies various images necessary for orthodontic treatment while checking which treatment group of the current patient the corresponding image corresponds to and classifying them. This conventional technique has a disadvantage in that the user's convenience is poor because the user has to repeat the manual process of classifying newly captured images of the patient every time the user proceeds with the calibration analysis.
이에, 상술한 문제점을 해결하고 교정 진단 전에 사용자의 번거로운 절차를 최소화시키기 위한 기술이 요구되고 있다.Accordingly, there is a need for a technique for solving the above problems and minimizing a user's cumbersome procedure before calibration diagnosis.
본 개시의 일 실시 예는 전술한 종래 기술의 문제점을 해결하기 위한 것으로, 교정 진단에 관한 이미지의 분류를 위해 사용자에게 요구되는 번거로운 절차를 최소화하여 사용자 편의성을 향상시키고자 한다.One embodiment of the present disclosure is to solve the above-mentioned problems of the prior art, and to improve user convenience by minimizing cumbersome procedures required by users for classifying images related to calibration diagnosis.
해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제들이 더 포함될 수 있다.The technical problem to be solved is not limited to the technical problems as described above, and various technical problems may be further included within a range obvious to those skilled in the art.
본 개시의 제 1 측면에 따른 복수개의 이미지를 디스플레이하는 방법은 교정 진단에 이용되는 복수개의 이미지를 획득하는 단계; 학습된 신경망에 기초하여 상기 복수개의 이미지의 종류에 대한 분석 결과를 획득하는 단계; 상기 분석 결과에 기초하여 상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 단계; 상기 모달리티에 따라서 결정되는 순서 또는 위치에 따라 상기 복수개의 이미지를 디스플레이하는 단계;를 포함할 수 있다.A method for displaying a plurality of images according to a first aspect of the present disclosure includes acquiring a plurality of images used for calibration diagnosis; obtaining an analysis result for the types of the plurality of images based on the learned neural network; determining a modality for each of the plurality of images based on a result of the analysis; and displaying the plurality of images in an order or position determined according to the modality.
또한, 상기 모달리티에 따라서 상기 복수개의 이미지를 디스플레이하는 단계는 상기 모달리티에 따라서 상기 복수개의 이미지를 복수개의 이미지 그룹 중 어느 하나로 분류하는 단계; 및 이미지 그룹에 따라 상기 복수개의 이미지를 디스플레이하는 단계;를 포함하고, 상기 복수개의 이미지 그룹은 투영 이미지 그룹, 안모 이미지 그룹 및 오럴 이미지 그룹 중 적어도 둘을 포함할 수 있다.The displaying of the plurality of images according to the modality may include classifying the plurality of images into one of a plurality of image groups according to the modality; and displaying the plurality of images according to image groups, wherein the plurality of image groups may include at least two of a projection image group, a facial image group, and an oral image group.
또한, 상기 복수개의 이미지가 디스플레이되는 영역은 상기 복수개의 이미지 중 상기 모달리티가 결정된 하나 이상의 제 1 이미지가 디스플레이되는 제 1 영역; 및 상기 복수개의 이미지 중 상기 모달리티가 결정되지 않은 하나 이상의 제 2 이미지가 디스플레이되는 제 2 영역을 포함할 수 있다.The area where the plurality of images are displayed may include a first area where one or more first images of which the modality is determined among the plurality of images are displayed; and a second area in which one or more second images of which the modality is not determined among the plurality of images are displayed.
또한, 상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 단계는 상기 모달리티의 결정을 요청하는 제 1 사용자 입력이 수신되는 경우, CNN (Convolution Neural Network) 기반의 분류 모델을 통해 상기 복수개의 이미지 각각의 모달리티를 결정하는 단계; 및 상기 모달리티를 선택하는 제 2 사용자 입력이 수신되는 경우, 상기 분류 모델을 통하지 않고 상기 하나 이상의 제 2 이미지의 모달리티를 상기 제 2 사용자 입력에 대응하는 모달리티로 결정할 수 있다.In addition, the step of determining the modality of each of the plurality of images may include, when a first user input requesting the determination of the modality is received, the modality of each of the plurality of images through a CNN (Convolution Neural Network)-based classification model. determining; and when a second user input for selecting the modality is received, the modality of the one or more second images may be determined as a modality corresponding to the second user input without going through the classification model.
또한, 상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 단계는 사용자 단말이 상기 제 1 사용자 입력을 수신하는 경우, 상기 사용자 단말은 상기 복수개의 이미지 각각에 대한 모달리티의 결정을 서버에 요청하고, 상기 서버는 상기 요청에 따라 상기 분류 모델을 통해 상기 복수개의 이미지 각각에 대한 모달리티를 결정한 결과를 응답할 수 있다.In the step of determining the modality of each of the plurality of images, when the user terminal receives the first user input, the user terminal requests the server to determine the modality of each of the plurality of images, and the server may respond with a result of determining the modality of each of the plurality of images through the classification model according to the request.
또한, 상기 복수개의 이미지를 분류하여 디스플레이하는 단계는 상기 모달리티가 동일한 제 3 이미지 및 제 4 이미지 중 획득 시점이 더 늦은 제 3 이미지를 디스플레이할 수 있다.In addition, in the step of classifying and displaying the plurality of images, a third image obtained later from among the third image and the fourth image having the same modality may be displayed.
또한, 상기 복수개의 이미지를 분류하여 디스플레이하는 단계는 상기 제 3 이미지와 인접한 영역에 추가 이미지가 있음을 나타내는 UI 이미지를 디스플레이할 수 있다.Also, in the classifying and displaying of the plurality of images, a UI image indicating that there is an additional image may be displayed in an area adjacent to the third image.
또한, 상기 분석 결과를 획득하는 단계는 CNN (Convolution Neural Network) 중 ResNet(Residual Connection) 모델에 기초하여 상기 분석 결과를 획득할 수 있다.In the obtaining of the analysis result, the analysis result may be obtained based on a Residual Connection (ResNet) model among convolution neural networks (CNNs).
본 개시의 제 2 측면에 따른 복수개의 이미지를 디스플레이하는 디바이스는 교정 진단에 이용되는 복수개의 이미지를 획득하는 이미지 획득부; 학습된 신경망에 기초하여 상기 복수개의 이미지의 종류에 대한 분석 결과를 획득하고, 상기 분석 결과에 기초하여 상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 프로세서; 및 상기 모달리티에 따라서 결정되는 순서 또는 위치에 따라 상기 복수개의 이미지를 디스플레이하는 디스플레이;를 포함할 수 있다.A device for displaying a plurality of images according to a second aspect of the present disclosure includes an image acquiring unit acquiring a plurality of images used for calibration diagnosis; a processor that obtains an analysis result for the types of the plurality of images based on a learned neural network, and determines a modality for each of the plurality of images based on the analysis result; and a display configured to display the plurality of images in an order or position determined according to the modality.
또한, 상기 프로세서는 상기 모달리티에 따라서 상기 복수개의 이미지를 복수개의 이미지 그룹 중 어느 하나로 분류하고, 상기 디스플레이는 이미지 그룹에 따라 상기 복수개의 이미지를 디스플레이하고, 상기 복수개의 이미지 그룹은 투영 이미지 그룹, 안모 이미지 그룹 및 오럴 이미지 그룹 중 적어도 둘을 포함할 수 있다.In addition, the processor classifies the plurality of images into one of a plurality of image groups according to the modality, and the display displays the plurality of images according to the image group, and the plurality of image groups include a projection image group, facial hair It may include at least two of an image group and an oral image group.
또한, 상기 복수개의 이미지가 디스플레이되는 영역은 상기 복수개의 이미지 중 상기 모달리티가 결정된 하나 이상의 제 1 이미지가 디스플레이되는 제 1 영역; 및 상기 복수개의 이미지 중 상기 모달리티가 결정되지 않은 하나 이상의 제 2 이미지가 디스플레이되는 제 2 영역을 포함할 수 있다.The area where the plurality of images are displayed may include a first area where one or more first images of which the modality is determined among the plurality of images are displayed; and a second area in which one or more second images of which the modality is not determined among the plurality of images are displayed.
또한, 상기 프로세서는 상기 모달리티의 결정을 요청하는 제 1 사용자 입력이 수신되는 경우, CNN (Convolution Neural Network) 기반의 분류 모델을 통해 상기 복수개의 이미지 각각의 모달리티를 결정하고, 상기 모달리티를 선택하는 제 2 사용자 입력이 수신되는 경우, 상기 분류 모델을 통하지 않고 상기 하나 이상의 제 2 이미지의 모달리티를 상기 제 2 사용자 입력에 대응하는 모달리티로 결정할 수 있다.In addition, the processor determines the modality of each of the plurality of images through a classification model based on a CNN (Convolution Neural Network) when a first user input requesting the determination of the modality is received, and selects the modality. When two user inputs are received, the modality of the at least one second image may be determined as a modality corresponding to the second user input without going through the classification model.
또한, 상기 디스플레이는 상기 모달리티가 동일한 제 3 이미지 및 제 4 이미지 중 획득 시점이 더 늦은 제 3 이미지를 디스플레이할 수 있다.Also, the display may display a third image obtained later from among the third image and the fourth image having the same modality.
본 개시의 제 3 측면은 제 1 측면에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. 또는, 본 개시의 제 4 측면은 제 1 측면에 따른 방법을 구현하기 위하여 기록매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.A third aspect of the present disclosure may provide a computer readable recording medium recording a program for executing the method according to the first aspect in a computer. Alternatively, the fourth aspect of the present disclosure may provide a computer program stored in a recording medium to implement the method according to the first aspect.
일 실시 예에 따르면, 교정 진단에 관한 이미지의 분류를 위해 사용자에게 요구되는 번거로운 절차를 최소화하여 사용자 편의성을 향상시킬 수 있다.According to an embodiment, user convenience may be improved by minimizing cumbersome procedures required of a user for classifying images related to calibration diagnosis.
또한, 인공지능을 통해 이미지를 분류하여 이미지 분류에 소요되는 시간을 줄일 수 있다.In addition, it is possible to reduce the time required for image classification by classifying images through artificial intelligence.
또한, 학습된 신경망을 통해 분류 정확도를 향상시켜 업무 효율성을 향상시킬 수 있다.In addition, it is possible to improve work efficiency by improving classification accuracy through a trained neural network.
또한, 모달리티에 따라서 이미지들을 적절하게 분류하여 디스플레이함으로써, 사용자에게 직관적인 디스플레이 인터페이스를 제공할 수 있다.In addition, by appropriately classifying and displaying images according to modality, an intuitive display interface may be provided to the user.
본 개시의 효과는 상기한 효과로 한정되는 것은 아니며, 본 개시의 상세한 설명 또는 특허청구범위에 기재된 개시의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present disclosure are not limited to the above effects, and should be understood to include all effects that can be inferred from the configuration of the disclosure described in the detailed description or claims of the present disclosure.
도 1은 일 실시 예에 따른 디바이스의 구성의 일 예를 나타내는 블록도이다.
도 2는 일 실시 예에 따른 디바이스가 복수개의 이미지를 디스플레이하는 방법을 나타내는 흐름도이다.
도 3은 일 실시 예에 따른 디바이스가 이미지 획득을 요청하는 사용자 입력을 수신하는 동작을 예시하는 도면이다.
도 4는 일 실시 예에 따른 디바이스가 이미지 획득을 위한 폴더를 선택하는 사용자 입력을 수신하는 동작을 예시하는 도면이다.
도 5는 일 실시 예에 따른 모달리티를 예시하는 도면이다.
도 6은 일 실시 예에 따른 투영 이미지 그룹, 안모 이미지 그룹 및 오럴 이미지 그룹을 예시하는 도면이다.
도 7은 일 실시 예에 따른 디바이스가 이미지 그룹에 따라 복수개의 이미지를 분류하여 디스플레이하는 동작을 예시하는 도면이다.
도 8은 다른 일 실시 예에 따른 디바이스가 이미지 그룹에 따라 복수개의 이미지를 분류하여 디스플레이하는 동작을 예시하는 도면이다.1 is a block diagram illustrating an example of a configuration of a device according to an exemplary embodiment.
2 is a flowchart illustrating a method of displaying a plurality of images by a device according to an exemplary embodiment.
3 is a diagram illustrating an operation of receiving a user input requesting image acquisition by a device according to an exemplary embodiment.
4 is a diagram illustrating an operation in which a device receives a user input for selecting a folder for acquiring an image, according to an exemplary embodiment.
5 is a diagram illustrating a modality according to an embodiment.
6 is a diagram illustrating a projection image group, a facial image group, and an oral image group according to an exemplary embodiment.
7 is a diagram illustrating an operation of classifying and displaying a plurality of images according to an image group by a device according to an exemplary embodiment.
8 is a diagram illustrating an operation of classifying and displaying a plurality of images according to an image group by a device according to another embodiment.
실시 예들에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments have been selected as general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but they may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technologies, and the like. In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the disclosure. Therefore, terms used in the present disclosure should be defined based on the meaning of the term and the general content of the present disclosure, not simply the name of the term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part is said to "include" a certain component, it means that it may further include other components, not excluding other components unless otherwise stated. In addition, as described in the specification, "... Terms such as “unit” refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present disclosure. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein.
이하에서는 도면을 참조하여 본 개시의 실시 예들을 상세히 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.
도 1은 일 실시 예에 따른 디바이스(100)의 구성의 일 예를 나타내는 블록도이다. 또한, 도 2는 일 실시 예에 따른 디바이스(100)가 복수개의 이미지를 디스플레이하는 방법을 나타내는 흐름도이다.1 is a block diagram illustrating an example of a configuration of a
도 1 내지 도 2를 참조하면, 디바이스(100)는 이미지 획득부(110), 프로세서(120) 및 디스플레이(130)를 포함할 수 있다.Referring to FIGS. 1 and 2 , the
단계 S210에서 이미지 획득부(110)는 교정 진단에 이용되는 복수개의 이미지를 획득할 수 있다. 여기에서, 교정 진단에 이용되는 이미지는 환자의 치아 교정 진단 과정에서 환자에 대해 촬영된 이미지를 나타낸다. 일 실시 예에서, 교정 진단에 이용되는 이미지는 환자의 치아 교정 진단 과정에서 환자의 치아 또는 안면에 대해서 X-ray 등을 이용하여 획득되는 방사선 이미지, 이미지 센서 등을 이용하여 촬영되는 이미지 등을 포함할 수 있으나, 이에 제한되지 않는다. 일 실시 예에서, 교정 진단에 이용되는 이미지는 3D 스캐너를 통해 획득되는 스캔 이미지, CT(Computed Tomography) 이미지 등 그 밖의 다양한 유형의 의료 이미지를 더 포함할 수 있다.In step S210, the
일 실시 예에서, 복수개의 이미지는 교정 진단의 대상으로서 등록된 환자 정보와 대응될 수 있다. 이미지 획득부(110)는 사용자 입력에 따라 교정 진단의 대상에 해당하는 환자 정보(예: 환자이름, 생년월일, 성별, 차트번호 등)를 수신하거나 메모리에서 로딩하고, 환자 정보에 대응되는 복수개의 이미지를 획득할 수 있다.In one embodiment, a plurality of images may correspond to patient information registered as a subject of corrective diagnosis. The
일 실시 예에서, 이미지 획득부(110)는 메모리(미도시)에 저장된 복수개의 이미지를 로딩할 수 있다. 다른 일 실시 예에서, 이미지 획득부(110)는 이미지 촬영 장치(미도시)와의 연동을 통해 이미지 촬영 장치에서 촬영되는 이미지를 이미지 촬영 장치로부터 수신할 수 있다. 또 다른 일 실시 예에서, 이미지 획득부(110)는 환자에 대한 이미지 촬영을 수행하여 이미지를 생성할 수도 있다.In one embodiment, the
이하, 도 3 내지 도 4를 참조하여 단계 S210에 관한 실시 예들에 대해서 서술하도록 한다.Hereinafter, embodiments of step S210 will be described with reference to FIGS. 3 and 4 .
도 3은 일 실시 예에 따른 디바이스(100)가 이미지 획득을 요청하는 사용자 입력을 수신하는 동작을 예시하는 도면이다.3 is a diagram illustrating an operation in which the
도 3을 참조하면, 이미지 획득부(110)는 이미지 분류 대상이 되는 이미지의 획득을 요청하는 사용자 입력을 수신할 수 있다. 예를 들면, 이미지 획득부(110)는 이미지의 분류 제공을 위한 제 1 인터페이스 화면(300)을 제공하고, 제 1 인터페이스 화면(300)을 통해 이미지 로딩을 요청하는 사용자 입력(예: 마우스 우측 버튼 클릭 후 '임포트 매니져(Import Manager)' 선택)을 수신할 수 있다. 명세서 전반에서, '사용자 입력'은 사용자 인터페이스를 통해 마우스, 키보드, 조이스틱 등을 이용하여 인가되는 사용자의 선택 입력, 텍스트 입력 등을 폭넓게 의미할 수 있다.Referring to FIG. 3 , the
도 4는 일 실시 예에 따른 디바이스(100)가 이미지 획득을 위한 폴더를 선택하는 사용자 입력을 수신하는 동작을 예시하는 도면이다.4 is a diagram illustrating an operation in which the
도 4를 참조하면, 이미지 획득부(110)는 이미지 획득을 위한 폴더를 선택하는 사용자 입력이 수신됨에 따라, 폴더 선택을 위한 제 2 인터페이스 화면(400)을 제공할 수 있다. 일 실시 예에서, 제 2 인터페이스 화면(400)은 폴더를 선택하기 위한 폴더 UI(User Interface)가 디스플레이되는 제 1 윈도우(410), 선택된 폴더 내에 포함된 이미지들에 대한 정보가 디스플레이되는 제 2 윈도우(420) 및 선택된 이미지들에 대한 분류 결과가 디스플레이되는 제 3 윈도우(430)를 포함할 수 있다.Referring to FIG. 4 , the
이미지 획득부(110)는 제 1 윈도우(410)를 통해 복수개의 폴더에 대한 사용자 입력을 수신할 수 있다. 또한, 이미지 획득부(110)는 사용자 입력에 기초하여 복수개의 폴더 중 어느 하나의 폴더를 결정하고, 결정된 폴더 내에 포함된 복수개의 이미지를 획득할 수 있다. 예를 들면, 이미지 획득부(110)는 특정 폴더(411)를 선택하는 사용자 입력(예: 마우스 좌측 버튼 클릭)이 수신됨에 따라, 해당 특정 폴더(411)에 대응되는 저장 경로에 액세스하여 해당 폴더 내에 저장된 복수개의 이미지를 로딩할 수 있다. 이어서, 이미지 획득부(110)는 로딩된 복수개의 이미지에 대한 요약 정보(예: 썸네일 이미지, 파일명)를 제 2 윈도우(420)에 디스플레이할 수 있다.The
이미지 획득부(110)는 결정된 폴더 내에 포함된 복수개의 이미지에 대해서 모달리티의 결정을 요청하는 제 1 사용자 입력을 수신할 수 있다. 예를 들면, 이미지 획득부(110)는 제 2 인터페이스 화면(400)의 하단에 디스플레이되는 임포트 버튼(440)을 통해 제 1 사용자 입력을 수신하고, 제 1 사용자 입력이 수신됨에 따라 복수개의 이미지에 대한 분석을 수행할 수 있다.The
단계 S220에서 프로세서(120)는 학습된 신경망에 기초하여 복수개의 이미지의 종류에 대한 분석 결과를 획득할 수 있다. 일 실시 예에서, 프로세서(120)는 복수개의 이미지를 학습된 신경망으로 분석하여 각 이미지의 종류와 연관된 촬영 방법, 촬영 방향, 부위, 피사체 등의 속성에 대한 분석 결과를 획득할 수 있다. 일 실시 예에서, 학습된 신경망은 디바이스(100)에 기 저장되어 있거나, 이미지 기반의 기계 학습 및 검증을 수행하여 학습된 신경망을 획득하는 학습 서버로부터 제공될 수 있다. 일 실시 예에서, 학습된 신경망은 CNN (Convolution Neural Network) 중 ResNet(Residual Connection) 모델에 기초하여 획득될 수 있다. 여기에서, CNN은 합성곱 층(Convolutional Layer)을 이용하여 변수 특징을 추출한 뒤 원하는 출력값을 내는 심층 신경망의 한 종류에 해당한다. 또한, ResNet 모델은 합성곱 층의 출력에 전의 전 계층에 사용된 입력을 더함으로써 특징이 유실되지 않도록 하고 학습 성능을 향상시킬 수 있다. 다른 일 실시 예에서, 학습된 신경망은 CNN 중 AlexNet 모델, DenseNet 모델 등에 기초하여 획득될 수도 있으며, 그밖에 다양한 딥러닝 알고리즘이 이용될 수 있다.In step S220, the
일 실시 예에서, 프로세서(120)는 학습된 신경망에 기초하여 이미지의 형상 또는 포맷에 대한 분석을 통해 각 이미지의 종류에 대한 분석 결과를 획득할 수 있다. 일 실시 예에서, 학습 서버가 CNN의 ResNet 모델을 이용하여 데이터베이스에 저장된 이미지들의 특징에 대한 유사도를 학습하여 학습된 ResNet 기반의 분류 모델을 획득하면, 프로세서(120)는 학습 서버로부터 학습된 ResNet 기반의 분류 모델을 포함하는 학습된 신경망을 수신할 수 있다. 또한, 프로세서(120)는 교정 진단을 위해 폴더로부터 임포트되는 복수개의 이미지를 학습된 ResNet 기반의 분류 모델에 입력함에 따라, 이미지의 종류와 연관된 특징을 추출하고, 이러한 특징에 대한 분석을 수행하여 촬영 방법, 촬영 방향, 부위, 피사체 등을 식별할 수 있다. 이러한 분석 결과는 이후 단계에서 이미지의 종류를 분류하는 과정에 이용될 수 있다.In an embodiment, the
단계 S230에서 프로세서(120)는 복수개의 이미지의 종류에 대한 분석 결과에 기초하여 복수개의 이미지 각각에 대한 모달리티를 결정할 수 있다. 예를 들면, 프로세서(120)는 분석 결과에 포함된 촬영 방법, 촬영 방향, 부위, 피사체 등의 속성에 대한 식별값에 따라 복수개의 이미지 각각에 대한 모달리티를 결정할 수 있다.In step S230, the
여기에서, 모달리티는 교정 진단에 이용되는 이미지 종류를 나타낸다. 일 실시 예에서, 모달리티의 개수는 설정 개수(예: 19개, 20개) 이하일 수 있다. 또한, 동일한 모달리티 내에서 이미지가 여러 번 촬영됨에 따라 이미지 개수가 많을 수는 있으나, 모달리티의 최대 개수(예: 19개)는 고정된 값일 수 있다. 이에 관한 내용은 도 5를 더 참조하여 서술하도록 한다.Here, the modality represents the type of image used for calibration diagnosis. In one embodiment, the number of modalities may be less than or equal to a set number (eg, 19 or 20). Also, although the number of images may be large as images are captured several times within the same modality, the maximum number of modalities (eg, 19) may be a fixed value. Details regarding this will be further described with reference to FIG. 5 .
도 5는 일 실시 예에 따른 모달리티를 예시하는 도면이다.5 is a diagram illustrating a modality according to an embodiment.
도 5를 참조하면, 모달리티는 이미지의 촬영 방법 별로 대상체(예: 환자)에 대한 촬영 방향, 촬영 부위, 피사체 속성 등의 모달리티 특성에 기초하여 구분되는 이미지 종류로 정의될 수 있다.Referring to FIG. 5 , a modality may be defined as an image type classified according to an image capturing method based on modality characteristics such as a capturing direction of an object (eg, a patient), a capturing region, and subject properties.
일 실시 예에서, 촬영 방법은 투영 이미지(Film X-ray), 안모 이미지(Face Photo), 오럴 이미지(Oral Photo), 모델 이미지(Model Photo) 등을 포함할 수 있다. 예컨대, 투영 이미지는 X-ray를 이용하여 획득되는 이미지를 나타내고, 안모 이미지는 얼굴 이미지(예: 증명사진)를 나타내고, 오럴 이미지는 구강에 대한 이미지를 나타내고, 모델 이미지는 구강을 본 뜬 석고 모형 이미지를 나타낼 수 있다.In one embodiment, the photographing method may include a projection image (Film X-ray), a facial image (Face Photo), an oral image (oral photo), a model image (Model Photo), and the like. For example, the projection image represents an image obtained using X-rays, the face image represents a face image (eg, ID photo), the oral image represents an image of the oral cavity, and the model image represents a plaster model modeled after the oral cavity. images can be displayed.
일 실시 예에서, 대상체에 대한 촬영 방향에 따른 모달리티는 측면(Lateral), 정면(PA(Posterior, Anterior)/AP(Anterior, Posterior), Frontal), 파노라마(Panorama), 좌측(Left), 우측(Right), CBCT(Cone Beam CT), SMV(SubMentoVertex), 대각(a45) 등을 포함할 수 있다. 예컨대, 측면은 오른쪽을 보고 뒤에서 찍은 이미지를 나타내고, PA/AP는 후부 전기 또는 전부 후기의 정면 이미지를 나타낸다. 또한, SMV는 턱을 90도 들어올린 상태에서 턱 밑에서 촬영하여 획득하는 이미지를 나타내고, 턱관절 좌우 비대칭을 알아내기 위해 이용된다. 또한, a45는 우측 내지 좌측으로 45도 각도에서 획득되는 이미지를 나타내고, 파노라마는 전경 각도 범위에서 획득되는 파노라마 이미지를 나타내며, CBCT는 CBCT 촬영을 통해 획득되는 3D 이미지를 나타낸다.In an embodiment, modalities according to the direction of imaging of an object may include lateral, frontal (PA (Posterior, Anterior)/AP (Anterior, Posterior), Frontal), Panorama, Left, Right ( Right), CBCT (Cone Beam CT), SMV (SubMentoVertex), diagonal (a45), etc. may be included. For example, lateral denotes an image taken from behind looking to the right, and PA/AP denotes anterior posterior or posterior anterior frontal image. In addition, SMV represents an image obtained by photographing from under the chin in a state where the chin is lifted 90 degrees, and is used to find out the left-right asymmetry of the temporomandibular joint. In addition, a45 denotes an image acquired at an angle of 45 degrees from right to left, panorama denotes a panoramic image obtained in a foreground angle range, and CBCT denotes a 3D image obtained through CBCT imaging.
일 실시 예에서, 촬영 부위에 따른 모달리티는 하악(Lower), 상악(Upper), 수완부(Hand wrist) 등을 포함할 수 있다. 또한, 피사체 속성에 따른 모달리티는 미소(Smile)(예: 미소를 지은 상태에서 얼굴을 촬영) 등을 포함할 수 있다.In one embodiment, the modality according to the region to be captured may include the lower jaw, the upper jaw, the wrist, and the like. In addition, the modality according to the object attribute may include a smile (eg, photographing a face in a smiling state) and the like.
일 실시 예에서, 이미지의 모달리티는 도 5(a)에 도시된 것처럼, 측면 투영 이미지, 정면 투영 이미지, 파노라마 투영 이미지, 수완부 투영 이미지, SMV 투영 이미지, 측면 안모 이미지, 정면 안모 이미지, 대각 안모 이미지, 미소 안모 이미지, 우측 오럴 이미지, 좌측 오럴 이미지, 정면 오럴 이미지, 상악 오럴 이미지, 하악 오럴 이미지, 우측 모델 이미지, 정면 모델 이미지, 좌측 모델 이미지, 상악 모델 이미지 및 하악 모델 이미지를 포함하는 19개의 이미지 종류 중 하나일 수 있다. 다른 일 실시 예에서, 이미지의 모달리티는 도 5(b)에 도시된 것처럼, CBCT 투영 이미지를 더 포함하는 20개의 이미지 종류 중 하나일 수 있다. 그러나, 이에 제한되는 것은 아니며, 또 다른 일 실시 예에서, 모달리티는 그 밖의 이미지 종류를 더 포함할 수 있다. 또한, 모달리티 명칭 및 특성 정보는 모달리티의 추가, 삭제 등과 같은 사용자 입력에 기초하여 갱신될 수 있다.In one embodiment, the modalities of the images are a side projection image, a frontal projection image, a panoramic projection image, a forearm projection image, an SMV projection image, a side facial image, a frontal facial image, and a diagonal facial image, as shown in FIG. 5(a). image, smile face image, right oral image, left oral image, frontal oral image, maxillary oral image, mandibular oral image, right model image, frontal model image, left model image, maxillary model image and mandibular model image. It can be one of the image types. In another embodiment, the modality of the image may be one of 20 image types further including a CBCT projection image, as shown in FIG. 5(b). However, it is not limited thereto, and in another embodiment, the modality may further include other image types. In addition, the modality name and characteristic information may be updated based on user input such as addition or deletion of modality.
일 실시 예에서, 프로세서(120)는 모달리티에 따라서 복수개의 이미지를 투영 이미지 그룹, 안모 이미지 그룹 및 오럴 이미지 그룹 중 적어도 하나를 포함하는 복수개의 이미지 그룹 중 어느 하나로 분류할 수 있다. 예를 들면, 프로세서(120)는 복수개의 이미지 각각을 모달리티 특성별 유사성에 기초하여 투영 이미지 그룹, 안모 이미지 그룹 또는 오럴 이미지 그룹으로 분류할 수 있다. 이에 관한 내용은 도 6을 더 참조하여 서술하도록 한다.// 분류로 통일In an embodiment, the
도 6은 일 실시 예에 따른 투영 이미지 그룹(610), 안모 이미지 그룹(620) 및 오럴 이미지 그룹(630)을 예시하는 도면이다.6 is a diagram illustrating a
도 6을 참조하면, 프로세서(120)는 복수개의 이미지 각각을 투영 이미지 그룹(610), 안모 이미지 그룹(620) 또는 오럴 이미지 그룹(630)으로 분류할 수 있다.Referring to FIG. 6 , the
투영 이미지 그룹(610)은 투영 이미지에 관한 이미지 그룹에 해당하고, 측면 투영 이미지, 정면 투영 이미지, 파노라마 투영 이미지 및 SMV 투영 이미지 중 적어도 하나를 포함할 수 있다. 프로세서(120)는 복수개의 이미지 중에서 투영 이미지에 해당하고 측면, 정면, 파노라마 및 SMV의 모달리티를 갖는 이미지들을 투영 이미지 그룹(610)으로 분류할 수 있다.The
안모 이미지 그룹(620)은 안모 이미지에 관한 이미지 그룹에 해당하고, 측면 안모 이미지, 정면 안모 이미지, 대각 안모 이미지 및 미소 안모 이미지 중 적어도 하나를 포함할 수 있다. 프로세서(120)는 복수개의 이미지 중에서 안모 이미지에 해당하고 측면, 정면, 대각 및 미소의 모달리티를 갖는 이미지들을 안모 이미지 그룹(620)으로 분류할 수 있다.The
오럴 이미지 그룹(630)은 오럴 이미지에 관한 이미지 그룹에 해당하고, 우측 오럴 이미지, 좌측 오럴 이미지, 정면 오럴 이미지, 상악 이미지 및 하악 이미지 중 적어도 하나를 포함할 수 있다. 일 실시 예에서, 프로세서(120)는 복수개의 이미지 중에서, 오럴 이미지 또는 모델 이미지에 해당하면서 우측, 좌측, 정면, 상악 및 하악의 모달리티를 갖는 이미지들을 오럴 이미지 그룹(630)으로 분류할 수 있다. 다른 일 실시 예에서, 프로세서(120)는 복수개의 이미지 중에서 모델 이미지에 해당하고 우측, 좌측, 정면, 상악 및 하악의 모달리티를 갖는 이미지들을 별개의 모델 이미지 그룹으로 분류할 수도 있다.The
일 실시 예에서, 프로세서(120) 복수개의 이미지 각각에 포함되는 세팅값에 기초하여 복수개의 이미지 각각에 대한 모달리티를 결정할 수도 있다. 이미지가 촬영될 때 어떤 부분에 대한 촬영인지 미리 세팅한 후 촬영이 이루어지므로, 복수개의 이미지 각각에는 촬영 과정에서 해당 이미지가 어떤 종류인지 나타내는 세팅값이 해당 이미지의 메타데이터로서 저장될 수 있다. 프로세서(120)는 각 이미지의 메타데이터로부터 촬영 방법, 촬영 방향, 부위, 피사체 등의 속성에 대한 정보를 획득할 수 있다.In one embodiment, the
일 실시 예에서, 프로세서(120)는 복수개의 이미지 각각에 대한 파일명에 기초하여 복수개의 이미지 각각에 대한 모달리티를 결정할 수도 있다. 예를 들면, 프로세서(120)는 이미지의 파일명으로부터 추출되는 텍스트에 특정 모달리티의 명칭 또는 이와 연관된 단어가 포함된 경우, 해당 이미지의 모달리티를 해당 명칭의 모달리티로 결정할 수 있다.In one embodiment, the
단계 S240에서 디스플레이(130)는 모달리티에 따라서 결정되는 순서 또는 위치에 따라 복수개의 이미지를 디스플레이할 수 있다. 예를 들면, 디스플레이(130)는 복수개의 모달리티 각각에 대해서 사전에 설정된 순서에 따라 순차적으로 정렬되도록 복수개의 이미지를 각각의 모달리티에 따라서 제 3 윈도우(430)에 디스플레이할 수 있다. 다른 예를 들면, 디스플레이(130)는 복수개의 이미지가 디스플레이되는 제 3 윈도우(430) 내에서 복수개의 모달리티 각각에 대해서 사전에 설정된 위치에 해당 모달리티를 갖는 이미지가 표시되도록 복수개의 이미지를 디스플레이할 수 있다.In step S240, the
디스플레이(130)는 복수개의 이미지에 대응되는 이미지 그룹에 따라 복수개의 이미지를 디스플레이할 수 있다. 예를 들면, 디스플레이(130)는 분류되는 이미지 그룹에 따라 결정되는 순서 또는 위치에 따라서, 동일 이미지 그룹 내의 이미지들은 인접하게 위치하도록, 다른 이미지 그룹 내의 이미지들은 화면 내의 서로 다른 영역에서 시각적으로 구별되도록 복수개의 이미지를 디스플레이할 수 있다. 이에 대해서는 도 7을 참조하여 후술한다.The
도 7은 일 실시 예에 따른 디바이스(100)가 이미지 그룹에 따라 복수개의 이미지를 분류하여 디스플레이하는 동작을 예시하는 도면이다.7 is a diagram illustrating an operation of classifying and displaying a plurality of images according to an image group by the
도 7을 참조하면, 프로세서(120)는 이미지 그룹에 따라 복수개의 이미지를 분류한 결과를 제 3 윈도우(430)에 제공할 수 있다. 일 실시 예에서, 프로세서(120)는 임포트 버튼(440)에 대한 제 1 사용자 입력이 수신되기 전에는 각 모달리티에 기설정된 대표 이미지(720)를 제 3 윈도우(430)에 디스플레이할 수 있다(도 4 참조). 여기에서, 대표 이미지(720)는 모달리티가 아직 결정되지 않은 이미지를 표시할 때 썸네일로서 시각화되는 이미지를 의미한다. 일 실시 예에서, 대표 이미지(720)는 각각의 모달리티를 시각적으로 형상화한 아이콘 등을 포함할 수 있다.Referring to FIG. 7 , the
또한, 프로세서(120)는 임포트 버튼(440)에 대한 제 1 사용자 입력이 수신된 후에는 상술한 분석 결과에 따라 이미지 그룹별로 복수개의 이미지를 분류 및 정렬하여 제 3 윈도우(430)에 디스플레이할 수 있다(도 7 참조). 모달리티가 결정되어 각 모달리티에 따라서 이미지가 디스플레이되는 경우, 제 3 윈도우(430) 내에서 해당 모달리티에 대응하는 위치에는 대표 이미지(720)를 대신하여 해당 이미지가 디스플레이될 수 있다. 만일 모달리티가 결정되지 않은 이미지가 있다면, 해당 모달리티에 대응하는 위치에는 대표 이미지(720)가 그대로 표시될 수 있다. 여기에서, 모달리티에 대응하는 위치는 복수개의 이미지가 디스플레이되는 영역 내에서 해당 모달리티를 갖는 이미지가 표시되도록 설정된 위치를 의미할 수 있다.Also, after the first user input to the
프로세서(120)는 이미지 그룹에 관해 설정된 우선 순위에 따라 복수개의 이미지를 정렬하여 디스플레이할 수 있다. 일 실시 예에서, 프로세서(120)는 투영 이미지 그룹(610), 안모 이미지 그룹(620) 및 오럴 이미지 그룹(630)의 순서로 높게 부여되는 우선 순위에 따라 복수개의 이미지를 정렬하여 디스플레이할 수 있다. 예컨대, 프로세서(120)는 도 7에서와 같이, 투영 이미지 그룹(610)으로 분류되는 이미지들이 제 3 윈도우(430) 내에서 가장 상단(또는 가장 좌측)에 노출시키고, 안모 이미지 그룹(620)으로 분류되는 이미지들을 투영 이미지 그룹(610)의 다음 위치에, 오럴 이미지 그룹(630)으로 분류되는 이미지들을 안모 이미지 그룹(620)의 다음 위치에 순차적으로 노출시킬 수 있다. 일 실시 예에서, 이미지 그룹에 관한 설정 순서는 수술 종류에 따라 상이하게 결정될 수 있다. The
프로세서(120)는 동일한 이미지 그룹에 대응되는 이미지들에 대해서는 모달리티에 관한 설정 순서에 따라 정렬하여 디스플레이할 수 있다. 일 실시 예에서, 복수개의 이미지 그룹 각각에 적용되는 모달리티에 관한 설정 순서는 상이할 수 있다. 예를 들면, 투영 이미지 그룹(610)으로 분류되는 이미지들은 측면 투영 이미지, 정면 투영 이미지, 파노라마 투영 이미지, 수완부 투영 이미지 및 SMV 투영 이미지의 순서로 순차 정렬될 수 있다. 또한, 안모 이미지 그룹(620)으로 분류되는 이미지들은 측면 안모 이미지, 정면 안모 이미지, 대각 안모 이미지 및 미소 안모 이미지의 순서로 순차 정렬될 수 있다. 또한, 오럴 이미지 그룹(630)으로 분류되는 이미지들은 오럴 이미지 및 모델 이미지의 순서로 순차 정렬되고, 오럴 이미지 및 모델 이미지 각각에 대해서는 우측, 정면, 좌측, 상악 및 하악의 순서로 순차 정렬될 수 있다.The
일 실시 예에서, 모달리티에 관한 설정 순서는 모달리티의 유사성에 기초하여 모달리티가 유사한 이미지들이 인접하게 배치되도록 결정될 수 있다. 예를 들면, 프로세서(120)는 19개의 모달리티를 구분하는데 이용되는 이미지의 촬영 방법, 환자에 대한 촬영 방향, 촬영 부위 및 피사체 속성 중 하나가 동일하거나 그 속성이 유사한 경우, 모달리티의 유사성을 높게 결정할 수 있다. 일 실시 예에서, 모달리티에 관한 설정 순서는 사용자 입력에 따라 갱신될 수 있다.In an embodiment, the setting sequence of modalities may be determined based on the similarity of modalities such that images having similar modalities are adjacently arranged. For example, the
이와 같이, 프로세서(120)는 복수개의 이미지를 이미지 그룹 및 모달리티에 따라 분류하여 디스플레이함으로써, 사용자 관점에서 시인성 높고 직관적인 디스플레이 인터페이스를 제공할 수 있다.In this way, the
복수개의 이미지가 디스플레이되는 영역은 모달리티와 연관된 제 1 영역과 모달리티와 연관되지 않는 제 2 영역으로 구성될 수 있다. 일 실시 예에서, 모달리티와 연관된 제 1 영역에는 복수개의 이미지 중 모달리티가 결정된 하나 이상의 제 1 이미지가 디스플레이될 수 있다. 또한, 모달리티와 연관되지 않는 제 2 영역에는 복수개의 이미지 중 모달리티가 결정되지 않은 하나 이상의 제 2 이미지가 디스플레이될 수 있다. 예를 들면, 제 1 영역과 제 2 영역은 제 3 윈도우(430) 내에서 서로 구별되고, 제 1 영역이 상위에 배치되고, 제 2 영역이 제 1 영역의 하위에 배치될 수 있다. 예를 들면, 모달리티의 결정을 요청하는 사용자 입력이 수신됨에 따라, 단계 S230이 수행되고, 단계 S230을 통해 모달리티가 결정된 제 1 이미지들은 제 3 윈도우(430) 내에서 제 1 영역에 디스플레이될 수 있다. 또한, 단계 S230을 통하였음에도 모달리티가 결정되지 않은 제 2 이미지들에 대해서 모달리티를 선택하는 사용자 입력이 수신되는 경우, 해당 사용자 입력에 따라 선택되는 모달리티에 따라 제 2 이미지가 제 2 영역에 디스플레이될 수 있다.An area where a plurality of images are displayed may be composed of a first area associated with a modality and a second area not associated with a modality. In an embodiment, one or more first images of which the modality is determined among a plurality of images may be displayed in the first region associated with the modality. In addition, one or more second images of which the modality is not determined among the plurality of images may be displayed in the second area not associated with the modality. For example, the first area and the second area may be distinguished from each other within the
프로세서(120)는 모달리티의 결정을 요청하는 제 1 사용자 입력이 수신되는 경우, CNN 기반의 분류 모델을 통해 복수개의 이미지 각각의 모달리티를 결정할 수 있다. 예를 들면, 프로세서(120)는 임포트 버튼(440)을 통해 제 1 사용자 입력을 수신하는 경우, 상술한 것처럼 CNN 기반의 분류 모델을 이용하여 상술한 이미지의 촬영 방법, 환자에 대한 촬영 방향, 촬영 부위 및 피사체를 식별한 분석 결과를 획득한 후 분석 결과를 통해 이미지의 모달리티를 결정하거나, CNN 기반의 분류 모델에 이미지를 입력하여 그 출력으로서 모달리티에 대한 결정값을 즉시 획득할 수 있다.When a first user input requesting modality determination is received, the
일 실시 예에서, 디바이스(100)는 제 1 사용자 입력을 수신하는 경우, 복수개의 이미지 각각에 대한 모달리티의 결정을 학습 서버에 요청하고, 학습 서버로부터 해당 요청에 대한 응답으로서 분류 모델을 통해 복수개의 이미지 각각에 대한 모달리티를 결정한 결과를 수신할 수 있다. 예컨대, 학습 서버는 단계 S210 이전에 학습 및 검증을 통해 기 획득한 분류 모델을 디바이스(100)의 요청에 따라 실행시키고, 디바이스(100)로부터 수신되는 복수개의 이미지에 대해서 상술한 것처럼 분류 모델을 통해 분석하여 복수개의 이미지 각각에 대한 모달리티를 결정하고, 결정 결과를 디바이스(100)에 전송할 수 있다.In one embodiment, when the
다른 실시 예에서, 디바이스(100)는 제 1 사용자 입력을 수신하는 경우, 상술한 것처럼 기 획득된 분류 모델을 실행시키고, 분류 모델을 통해 복수개의 이미지를 분석하여 복수개의 이미지 각각에 대한 모달리티를 결정할 수 있다.In another embodiment, when the
프로세서(120)는 모달리티를 선택하는 제 2 사용자 입력이 수신되는 경우, CNN 기반의 분류 모델을 통하지 않고 복수개의 이미지 중 모달리티가 결정되지 않은 제 2 이미지에 대해서 모달리티를 선택하는 제 2 사용자 입력에 따라 제 2 이미지의 모달리티를 결정할 수 있다. 예를 들면, 프로세서(120)는 단계 S230을 수행하였음에도 모달리티가 결정되지 않은 제 2 이미지에 대해서, 해당 제 2 이미지가 디스플레이된 화면 내에서 제 3 윈도우(430) 내의 특정 모달리티에 대응하는 위치로 이미지의 위치를 이동시키는 드래그 앤 드롭 입력이 수신되는 경우, 제 2 이미지의 모달리티를 해당 모달리티로 결정할 수 있다.When the second user input for selecting the modality is received, the
프로세서(120)는 모달리티가 동일한 제 3 이미지 및 제 4 이미지 중 획득 시점이 더 늦은 제 3 이미지를 디스플레이할 수 있다. 여기에서, 획득 시점은 이미지가 촬영된 시점 또는 이미지가 해당 폴더에 저장된 시점을 의미할 수 있다. 예를 들면, 프로세서(120)는 측면 투영 이미지에 대응되는 이미지가 복수개인 경우, 가장 최근 획득된 하나의 이미지만 제 3 윈도우(430)의 해당 위치에 디스플레이하고, 나머지 이미지들의 디스플레이를 생략할 수 있다. 일 실시 예에서, 사용자 설정 또는 선택 입력에 따라 획득 시점이 늦은 이미지가 아닌 다른 이미지를 이용할 수도 있다.The
일 실시 예에서, 복수개의 이미지의 획득 시점은 기설정 시간 범위 내에 포함될 수 있다. 프로세서(120)는 복수개의 이미지의 획득 시점(예: 촬영 시점)에 기초하여 복수개의 폴더 중 어느 하나를 통해 액세스되는 저장 공간(예: 메모리, DB 등)으로 각각의 이미지를 분류하여 저장할 수 있다. 예를 들면, 프로세서(120)는 특정 환자에 대해서 동일 일자에 촬영되었거나 일정 기간 내에 촬영된 이미지들을 동일한 폴더로 분류시킬 수 있다.In one embodiment, acquisition time points of the plurality of images may be included within a preset time range. The
프로세서(120)는 제 3 이미지와 인접한 영역에 추가 이미지가 있음을 나타내는 제 1 UI 이미지(710)를 디스플레이할 수 있다. 예를 들면, 프로세서(120)는 가장 최근의 제 3 이미지 뒤로 나머지 이미지들의 일부가 중첩되는 형태로 제 1 UI 이미지(710)를 디스플레이할 수 있다. 다른 예를 들면, 프로세서(120)는 가장 최근의 이미지의 옆에 나머지 이미지들의 개수가 숫자로 표시된 제 2 UI 이미지(730)를 디스플레이할 수 있다.The
프로세서(120)는 UI 이미지(710, 730)를 통해 모달리티가 동일한 이미지들의 디스플레이 순서를 결정할 수 있다. 예를 들면, 프로세서(120)는 제 1 UI 이미지(710) 또는 제 2 UI 이미지(730)에 대해 마우스 우측 버튼을 클릭하는 사용자 입력이 수신되는 경우, 제 1 UI 이미지(710) 또는 제 2 UI 이미지(730) 상에 선택된 이미지와 동일한 모달리티를 가지면서 획득 시점이 상이한 여러 이미지들의 파일명, 획득시점에 대한 리스트를 포함하는 이미지 선택 메뉴(740)를 제 3윈도우(430) 상에 중첩하여 디스플레이하고, 리스트를 통해 선택되는 이미지가 최상단에 노출되도록 제 1 UI 이미지(710) 또는 제 2 UI 이미지를 갱신할 수 있다.The
프로세서(120)는 복수개의 이미지 중 모달리티가 결정되지 않은 이미지의 모달리티를 선택하는 제 2 사용자 입력에 기초하여 복수개의 이미지에 대한 분류 결과를 갱신하여 디스플레이할 수 있다. 예를 들면, 프로세서(120)는 제 2 윈도우(420) 내에서 모달리티가 결정되지 않은 특정 이미지를 모달리티가 결정되지 않아 대신 표시되고 있던 대표 이미지(720)의 위치로 이동시키는 드래그 앤 드롭 입력이 수신되는 경우, 해당 위치에 대응되는 모달리티와 해당 이미지를 매칭시킬 수 있다. The
프로세서(120)는 복수개의 이미지 중 모달리티가 결정된 이미지의 모달리티를 선택하는 제 3 사용자 입력에 기초하여 복수개의 이미지에 대한 분류 결과를 갱신하여 디스플레이할 수 있다. 예를 들면, 프로세서(120)는 제 3 윈도우(430)에서 제 1 모달리티의 위치에 있는 이미지를 제 2 모달리티의 위치로 이동시키는 드래그 앤 드롭 입력이 수신되는 경우, 해당 이미지의 모달리티를 제 1 모달리티에서 제 2 모달리티로 갱신할 수 있다.The
프로세서(120)는 모달리티에 관한 설정 순서에 따라 대응되는 이미지를 디스플레이할 때, 복수개의 이미지 중 어느 하나와도 대응되지 않는 모달리티가 존재하는 경우, 제 3 윈도우(430) 내에서 해당 모달리티에 대응되는 위치에 아직 모달리티가 결정되지 않았음을 의미하는 대표 이미지(720)를 디스플레이할 수 있다. 일 실시 예에서, 대표 이미지(720)는 공백의 이미지, 카메라 형상의 이미지, 해당 모달리티에 대응되는 형상의 이미지 등일 수 있다. 이에 따라, 해당 모달리티를 갖는 이미지가 아직 획득되지 않았음을 직관적으로 알릴 수 있다.When the
프로세서(120)는 복수개의 이미지에 대한 분류 완료를 요청하는 제 6 사용자 입력이 수신됨에 따라, 복수개의 이미지에 대한 분류 결과를 적용할 수 있다. 예를 들면, 프로세서(120)는 제 2 인터페이스 화면(400)의 하단에 디스플레이되는 완료 버튼(450)을 통해 제 6 사용자 입력을 수신할 수 있고, 도 8에서와 같이 복수개의 이미지에 대한 분류 결과를 적용하여 제 1 인터페이스 화면(300)에 복수개의 이미지를 이미지 그룹에 따라 분류하여 디스플레이할 수 있다.The
프로세서(120)는 이미지의 분류가 완료되면, 환자 정보에 기초하여 이미지에 대한 파일 정보를 갱신할 수 있다. 예를 들면, 프로세서(120)는 교정 진단의 대상으로서 등록된 환자의 차트 번호, 환자 이름, 분류된 모달리티에 대한 내용이 포함되도록 파일명을 변경할 수 있다. 또한, 교정 진단을 위해 디스플레이되는 화면(예: 제 1 인터페이스 화면(300))에 해당 파일명을 기준으로 이미지에 대한 정보를 표시할 수 있다.When classification of the image is completed, the
본 개시의 일 실시 예에 따르면, 딥러닝을 기반으로 이미지의 특징을 학습하여 모달리티에 따라 이미지 그룹을 분류하기 때문에 높은 수준의 인식 결과를 얻을 수 있어 분류 정확도를 향상시킬 수 있다.According to an embodiment of the present disclosure, since image groups are classified according to modalities by learning features of images based on deep learning, a high-level recognition result can be obtained and classification accuracy can be improved.
일 실시 예에서, 이미지 획득부(110)는 이미지 촬영 장치 또는 메모리로부터 이미지를 수신하는 통신 장치로 구현될 수도 있다. 또한, 프로세서(120)는 이미지를 디스플레이하기 위한 일련의 동작들을 수행할 수 있고, 이미지 획득부(110), 디스플레이(130) 및 그 밖의 구성요소들과 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(120)는 이를 위해 디바이스(100)의 동작 전반을 제어하는 CPU(central processor unit)로 구현될 수 있다. 디스플레이(130)는 이미지를 디스플레이하는 이미지 출력 장치를 포괄적으로 의미할 수 있으며, 예를 들면, 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 등일 수 있다.In one embodiment, the
또한, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 디바이스(100)에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 일 실시 예에 따를 경우, 디바이스(100)는 다른 디바이스와 유무선 네트워크를 통해 통신하기 위한 통신부, 사용자 입력을 수신하는 사용자 인터페이스, 데이터를 저장하는 저장부(예: 메모리, 데이터베이스, 클라우드) 등을 더 포함할 수 있다. 다른 실시 예에 따를 경우, 도 1에 도시된 구성요소들 중 일부는 생략될 수도 있다.In addition, those of ordinary skill in the art may understand that other general-purpose components may be further included in the
이상에서 도시된 단계들의 순서 및 조합은 일 실시 예이고, 명세서에 기재된 각 구성요소들의 본질적인 특성에서 벗어나지 않는 범위에서 순서, 조합, 분기, 기능 및 그 수행 주체가 추가, 생략 또는 변형된 형태로 다양하게 실시될 수 있음을 알 수 있다. 또한, 명세서 전체에서 '제공'은 대상이 특정 정보를 획득하거나 직간접적으로 특정 대상에게 송수신하는 과정을 포함하며 이러한 과정에서 요구되는 관련 동작의 수행을 포괄적으로 포함하는 것으로 해석될 수 있다.The order and combination of the steps shown above is an embodiment, and the order, combination, branch, function, and subject of execution thereof may be added, omitted, or modified within the scope that does not deviate from the essential characteristics of each component described in the specification. It can be seen that this can be done. In addition, throughout the specification, 'providing' includes a process in which an object acquires specific information or directly or indirectly transmits/receives it to a specific object, and can be interpreted as comprehensively including the performance of related operations required in this process.
본 개시의 다양한 실시예들은 기기(machine)(예를 들어, 디스플레이 장치 또는 컴퓨터)에 의해 읽을 수 있는 저장 매체(storage medium)(예를 들어, 메모리)에 저장된 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서(예를 들어, 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 인스트럭션들 중 적어도 하나의 인스트럭션을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 인스트럭션에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 인스트럭션들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present disclosure are implemented as software including one or more instructions stored in a storage medium (eg, memory) readable by a machine (eg, a display device or a computer). It can be. For example, a processor (eg, processor 120 ) of the device may call at least one of one or more instructions stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the invoked at least one instruction. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' only means that the storage medium is a tangible device and does not contain signals (e.g., electromagnetic waves), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.
일 실시예에 따르면, 본 개시에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in the present disclosure may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smartphones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 개시의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 개시에 포함된 것으로 해석되어야 할 것이다.Those skilled in the art related to this embodiment will be able to understand that it can be implemented in a modified form within a range that does not deviate from the essential characteristics of the above description. Therefore, the disclosed methods are to be considered in an illustrative rather than a limiting sense. The scope of the present disclosure is shown in the claims rather than the foregoing description, and all differences within the equivalent scope will be construed as being included in the present disclosure.
100: 디바이스
110: 이미지 획득부
120: 프로세서
130: 디스플레이
410: 제 1 윈도우
420: 제 2 윈도우
430: 제 3 윈도우
610: 투영 이미지 그룹
620: 안모 이미지 그룹
630: 오럴 이미지 그룹100: device
110: image acquisition unit 120: processor
130: display
410: first window 420: second window
430: third window
610: projection image group 620: facial image group
630: oral image group
Claims (14)
교정 진단에 이용되는 복수개의 이미지를 획득하는 단계;
학습된 신경망에 기초하여 상기 복수개의 이미지의 종류에 대한 분석 결과를 획득하는 단계;
상기 분석 결과에 기초하여 상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 단계; 및
상기 모달리티에 따라서 결정되는 순서 또는 위치에 따라 상기 복수개의 이미지를 디스플레이하는 단계;를 포함하는, 방법.
A method for displaying a plurality of images,
acquiring a plurality of images used for calibration diagnosis;
obtaining an analysis result for the types of the plurality of images based on the learned neural network;
determining a modality for each of the plurality of images based on a result of the analysis; and
and displaying the plurality of images in an order or position determined according to the modality.
상기 모달리티에 따라서 상기 복수개의 이미지를 디스플레이하는 단계는
상기 모달리티에 따라서 상기 복수개의 이미지를 복수개의 이미지 그룹 중 어느 하나로 분류하는 단계; 및
이미지 그룹에 따라 상기 복수개의 이미지를 디스플레이하는 단계;를 포함하고,
상기 복수개의 이미지 그룹은 투영 이미지 그룹, 안모 이미지 그룹 및 오럴 이미지 그룹 중 적어도 둘을 포함하는, 방법.
According to claim 1,
Displaying the plurality of images according to the modality
classifying the plurality of images into one of a plurality of image groups according to the modality; and
Including; displaying the plurality of images according to the image group,
The method of claim 1 , wherein the plurality of image groups include at least two of a projection image group, a facial image group, and an oral image group.
상기 복수개의 이미지가 디스플레이되는 영역은
상기 복수개의 이미지 중 상기 모달리티가 결정된 하나 이상의 제 1 이미지가 디스플레이되는 제 1 영역; 및
상기 복수개의 이미지 중 상기 모달리티가 결정되지 않은 하나 이상의 제 2 이미지가 디스플레이되는 제 2 영역을 포함하는, 방법.
According to claim 1,
The area where the plurality of images are displayed is
a first area in which one or more first images of which the modality is determined among the plurality of images are displayed; and
and a second area in which one or more second images of which the modality is not determined among the plurality of images are displayed.
상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 단계는
상기 모달리티의 결정을 요청하는 제 1 사용자 입력이 수신되는 경우, CNN (Convolution Neural Network) 기반의 분류 모델을 통해 상기 복수개의 이미지 각각의 모달리티를 결정하는 단계; 및
상기 모달리티를 선택하는 제 2 사용자 입력이 수신되는 경우, 상기 분류 모델을 통하지 않고 상기 하나 이상의 제 2 이미지의 모달리티를 상기 제 2 사용자 입력에 대응하는 모달리티로 결정하는, 방법.
According to claim 3,
Determining the modality of each of the plurality of images
determining a modality of each of the plurality of images through a classification model based on a Convolution Neural Network (CNN) when a first user input requesting determination of the modality is received; and
determining a modality of the one or more second images as a modality corresponding to the second user input without going through the classification model when a second user input for selecting the modality is received.
상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 단계는
상기 제 1 사용자 입력을 수신하는 경우, 상기 복수개의 이미지 각각에 대한 모달리티의 결정을 서버에 요청하고, 상기 서버로부터 상기 요청에 대한 응답으로서 상기 분류 모델을 통해 상기 복수개의 이미지 각각에 대한 모달리티를 결정한 결과를 수신하는, 방법.
According to claim 4,
Determining the modality of each of the plurality of images
When receiving the first user input, requesting a server to determine the modality of each of the plurality of images, and determining the modality of each of the plurality of images through the classification model as a response to the request from the server How to receive results.
상기 복수개의 이미지를 분류하여 디스플레이하는 단계는
상기 모달리티가 동일한 제 3 이미지 및 제 4 이미지 중 획득 시점이 더 늦은 제 3 이미지를 디스플레이하는, 방법.
According to claim 1,
Classifying and displaying the plurality of images
A method of displaying a third image having a later acquisition time point among the third image and the fourth image having the same modality.
상기 복수개의 이미지를 분류하여 디스플레이하는 단계는
상기 제 3 이미지와 인접한 영역에 추가 이미지가 있음을 나타내는 UI 이미지를 디스플레이하는, 방법.
According to claim 6,
Classifying and displaying the plurality of images
A method of displaying a UI image indicating that an additional image is present in an area adjacent to the third image.
상기 분석 결과를 획득하는 단계는
CNN (Convolution Neural Network) 중 ResNet(Residual Connection) 모델에 기초하여 상기 분석 결과를 획득하는, 방법.
According to claim 1,
Obtaining the analysis result
A method of obtaining the analysis result based on a Residual Connection (ResNet) model of a Convolution Neural Network (CNN).
교정 진단에 이용되는 복수개의 이미지를 획득하는 이미지 획득부;
학습된 신경망에 기초하여 상기 복수개의 이미지의 종류에 대한 분석 결과를 획득하고, 상기 분석 결과에 기초하여 상기 복수개의 이미지 각각에 대한 모달리티를 결정하는 프로세서; 및
상기 모달리티에 따라서 결정되는 순서 또는 위치에 따라 상기 복수개의 이미지를 디스플레이하는 디스플레이;를 포함하는, 디바이스.
In a device displaying a plurality of images,
an image acquiring unit acquiring a plurality of images used for calibration diagnosis;
a processor that obtains an analysis result for the types of the plurality of images based on a learned neural network, and determines a modality for each of the plurality of images based on the analysis result; and
A device comprising a; display for displaying the plurality of images according to an order or position determined according to the modality.
상기 프로세서는
상기 모달리티에 따라서 상기 복수개의 이미지를 복수개의 이미지 그룹 중 어느 하나로 분류하고,
상기 디스플레이는
이미지 그룹에 따라 상기 복수개의 이미지를 디스플레이하고,
상기 복수개의 이미지 그룹은 투영 이미지 그룹, 안모 이미지 그룹 및 오럴 이미지 그룹 중 적어도 둘을 포함하는, 디바이스.
According to claim 9,
The processor
Classifying the plurality of images into one of a plurality of image groups according to the modality;
the display
displaying the plurality of images according to image groups;
The device of claim 1, wherein the plurality of image groups include at least two of a projection image group, a facial image group, and an oral image group.
상기 복수개의 이미지가 디스플레이되는 영역은
상기 복수개의 이미지 중 상기 모달리티가 결정된 하나 이상의 제 1 이미지가 디스플레이되는 제 1 영역; 및
상기 복수개의 이미지 중 상기 모달리티가 결정되지 않은 하나 이상의 제 2 이미지가 디스플레이되는 제 2 영역을 포함하는, 디바이스.
According to claim 9,
The area where the plurality of images are displayed is
a first area in which one or more first images of which the modality is determined among the plurality of images are displayed; and
And a second area in which one or more second images of which the modality is not determined among the plurality of images are displayed.
상기 프로세서는
상기 모달리티의 결정을 요청하는 제 1 사용자 입력이 수신되는 경우, CNN (Convolution Neural Network) 기반의 분류 모델을 통해 상기 복수개의 이미지 각각의 모달리티를 결정하고,
상기 모달리티를 선택하는 제 2 사용자 입력이 수신되는 경우, 상기 분류 모델을 통하지 않고 상기 하나 이상의 제 2 이미지의 모달리티를 상기 제 2 사용자 입력에 대응하는 모달리티로 결정하는, 디바이스.
According to claim 9,
The processor
When a first user input requesting the determination of the modality is received, a modality of each of the plurality of images is determined through a classification model based on a CNN (Convolution Neural Network),
and determining a modality of the one or more second images as a modality corresponding to the second user input without going through the classification model when a second user input for selecting the modality is received.
상기 디스플레이는
상기 모달리티가 동일한 제 3 이미지 및 제 4 이미지 중 획득 시점이 더 늦은 제 3 이미지를 디스플레이하는, 디바이스.
According to claim 9,
the display
A device that displays a third image having a later acquisition time point among the third image and the fourth image having the same modality.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210161516A KR20230075178A (en) | 2021-11-22 | 2021-11-22 | Method, device and recording medium for displaying a plurality of images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210161516A KR20230075178A (en) | 2021-11-22 | 2021-11-22 | Method, device and recording medium for displaying a plurality of images |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230075178A true KR20230075178A (en) | 2023-05-31 |
Family
ID=86543728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210161516A KR20230075178A (en) | 2021-11-22 | 2021-11-22 | Method, device and recording medium for displaying a plurality of images |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230075178A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060100737A (en) | 2005-03-18 | 2006-09-21 | 양계식 | The dental patient examination and treatment service system by internet |
-
2021
- 2021-11-22 KR KR1020210161516A patent/KR20230075178A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060100737A (en) | 2005-03-18 | 2006-09-21 | 양계식 | The dental patient examination and treatment service system by internet |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021046241A1 (en) | Automated medical image annotation and analysis | |
US10222954B2 (en) | Image display apparatus, display control apparatus and display control method using thumbnail images | |
RU2451335C2 (en) | Image- and context-dependent anatomic applications for effective diagnostics | |
JP2019121283A (en) | Prediction model generation system and prediction system | |
JPWO2007000940A1 (en) | Abnormal shadow candidate detection method, abnormal shadow candidate detection device | |
US20220249202A1 (en) | Multiple bone density displaying method for establishing implant procedure plan, and image processing device therefor | |
JP6004875B2 (en) | MEDICAL IMAGE DISPLAY DEVICE, MEDICAL IMAGE DISPLAY METHOD, AND PROGRAM | |
JP2024010085A (en) | Information processing device, information processing method, and program | |
KR102413695B1 (en) | Method for providing dentistry image and dentistry image processing device therefor | |
JP2018055278A (en) | Medical information processing apparatus, medical information processing system, medical information processing method, and program | |
US20230274431A1 (en) | Image processing apparatus, method for controlling same, and storage medium | |
KR102244459B1 (en) | Automatic protocol selection for an imaging device | |
JP7433750B2 (en) | Video clip selector used for medical image creation and diagnosis | |
KR20230075178A (en) | Method, device and recording medium for displaying a plurality of images | |
CN111128321A (en) | Information display method and system, device, electronic equipment and readable medium | |
KR20230053888A (en) | Method, device and recording medium for displaying a screen according to a plurality of menus | |
KR102486053B1 (en) | Apparatus for displaying the intra-oral image and method thereof | |
KR102200060B1 (en) | Mhthod and apparatus for easy moving to precision diagnostic module for teeth | |
KR20230055760A (en) | Medical image display method for orthodontic diagnosis, device and recording medium thereof | |
KR102413694B1 (en) | Method for interlocking lesion detection and dentistry image processing device therefor | |
KR102583135B1 (en) | Method, device and recording medium for displaying a plurality of images by superimposing them | |
KR102596666B1 (en) | System and method for providing integrated medical service based on medical image | |
KR102550769B1 (en) | Pharmaceutical auto-labeling method and device using artificial intelligence | |
KR102369100B1 (en) | Method for displaying multi panoramic image and imaging processing apparatus thereof | |
CN117393114A (en) | Display method and device of oral health examination information, computer equipment and medium |