KR20230137533A - Method, device and recording medium for providing a report using image - Google Patents

Method, device and recording medium for providing a report using image Download PDF

Info

Publication number
KR20230137533A
KR20230137533A KR1020220034894A KR20220034894A KR20230137533A KR 20230137533 A KR20230137533 A KR 20230137533A KR 1020220034894 A KR1020220034894 A KR 1020220034894A KR 20220034894 A KR20220034894 A KR 20220034894A KR 20230137533 A KR20230137533 A KR 20230137533A
Authority
KR
South Korea
Prior art keywords
images
image
capture
point
report
Prior art date
Application number
KR1020220034894A
Other languages
Korean (ko)
Inventor
김종문
박수희
주원형
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Priority to KR1020220034894A priority Critical patent/KR20230137533A/en
Publication of KR20230137533A publication Critical patent/KR20230137533A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0312Detection arrangements using opto-electronic means for tracking the rotation of a spherical or circular member, e.g. optical rotary encoders used in mice or trackballs using a tracking ball or in mouse scroll wheels
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Robotics (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

일 실시 예에 따라, 구강에 대한 복수개의 이미지들에 대한 사용자 입력을 기반으로 레포트 형식을 결정하고 이에 따라 레포트를 제공함으로써, 사용자 편의성을 향상시킬 수 있는 방법이 개시된다. 또한, 구강에 대한 복수개의 이미지를 획득하는 과정에서, 뷰 포인트가 상이한 그룹 이미지를 기반으로 셀렉티드 캡쳐를 수행하고, 오버레이 입력과 연계되는 카테고리별 이미지 정렬 기능을 제공하여 사용자 편의성을 향상시킬 수 있는 방법이 개시된다. 또한, 구강에 대한 복수개의 이미지를 획득하는 과정에서, 제 1 지점과 제 2 지점 간의 순차적인 단면 이미지를 기반으로 멀티 슬라이스 캡쳐를 수행하여 사용자 편의성을 향상시킬 수 있는 방법이 개시된다.According to one embodiment, a method for improving user convenience is disclosed by determining a report format based on user input for a plurality of images of the oral cavity and providing a report accordingly. In addition, in the process of acquiring multiple images of the oral cavity, selected capture is performed based on group images with different view points, and an image sorting function by category linked to overlay input is provided to improve user convenience. A method is disclosed. Additionally, in the process of acquiring a plurality of images of the oral cavity, a method of improving user convenience by performing multi-slice capture based on sequential cross-sectional images between a first point and a second point is disclosed.

Description

이미지를 이용한 레포트 제공 방법, 디바이스 및 기록매체{METHOD, DEVICE AND RECORDING MEDIUM FOR PROVIDING A REPORT USING IMAGE}Method of providing reports using images, devices and recording media {METHOD, DEVICE AND RECORDING MEDIUM FOR PROVIDING A REPORT USING IMAGE}

본 개시는 복수개의 구강 이미지에 기초하여 진단 및 치료 계획에 관한 레포트를 제공할 수 있는 기술에 관한 것이다.This disclosure relates to a technology that can provide a report on diagnosis and treatment plan based on a plurality of oral images.

일반적으로 환자의 의료용 이미지를 기반으로 환자의 구강에 대한 진단이 이루어질 때, 그에 적합한 양식을 이용하여 진단 결과에 대한 보고서가 제공된다.Generally, when a diagnosis of a patient's oral cavity is made based on the patient's medical image, a report on the diagnosis results is provided using an appropriate format.

종래 기술에서는 다수의 이미지를 이용하여 레포트를 작성할 때, 사용자가 일일이 원하는 이미지를 지정하여 레포트에 옮겨야 하는 작업이 요구됨에 따라 사용자 편의성이 떨어지는 단점이 있었다. 또한, 다수의 이미지들로 레포트를 작성할 때, 미리 제작된 고정 레이아웃에 따라 레포트를 작성해야 하고, 이를 벗어나는 다수의 이미지들을 레포트에 넣지 못하는 경우가 빈번하게 발생하는 단점이 있었다.In the prior art, when creating a report using multiple images, there was a disadvantage in that user convenience was reduced as the user had to specify the desired images one by one and transfer them to the report. Additionally, when writing a report with multiple images, the report had to be written according to a pre-made fixed layout, and there were frequent cases where multiple images that deviated from this could not be included in the report.

이에, 상술한 단점을 해결하고 이미지를 기반으로 레포트를 제공하는 과정 전반에서 사용자 편의성을 향상시키기 위한 기술이 요구되고 있다.Accordingly, there is a need for technology to solve the above-mentioned shortcomings and improve user convenience throughout the process of providing reports based on images.

한국공개특허 제10-2020-0118326호 (2020.10.15) 사용자 맞춤형 템플릿 기반 수술 보고서 제공방법 및 그 장치Korean Patent Publication No. 10-2020-0118326 (2020.10.15) Method and device for providing user-customized template-based surgery report

본 개시의 일 실시 예는 전술한 종래 기술의 문제점을 해결하기 위한 것으로, 이미지를 기반으로 레포트를 제공하는 과정 전반에서 사용자 편의성을 향상시킬 수 있는 방법, 디바이스 및 기록매체를 제공하고자 한다.One embodiment of the present disclosure is intended to solve the problems of the prior art described above, and seeks to provide a method, device, and recording medium that can improve user convenience throughout the process of providing reports based on images.

해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제들이 더 포함될 수 있다.The technical challenges to be solved are not limited to the technical challenges described above, and may further include various technical challenges within the scope of what is obvious to those skilled in the art.

본 개시의 제 1 측면에 따른 복수개의 이미지를 이용한 레포트 제공 방법은 구강에 대한 복수개의 이미지를 획득하는 단계; 관상면, 시상면 및 수평면에서의 CT 단면 이미지 및 3D 이미지 중 적어도 하나를 포함하는 카테고리에 대한 제 1 사용자 입력을 획득하는 단계; 상기 복수개의 이미지 중에서 상기 제 1 사용자 입력에 따라 결정된 카테고리에 대응하는 대응 이미지를 디스플레이하는 단계; 상기 대응 이미지 중에서 제 2 사용자 입력에 따라 결정된 선택 이미지의 개수에 기초하여 레포트 형식을 결정하는 단계; 및 상기 결정된 레포트 형식에 기초하여 획득된 레포트를 디스플레이하는 단계;를 포함할 수 있다.A method of providing a report using a plurality of images according to the first aspect of the present disclosure includes the steps of acquiring a plurality of images of the oral cavity; Obtaining a first user input for a category comprising at least one of CT cross-sectional images and 3D images in the coronal, sagittal, and horizontal planes; displaying a corresponding image corresponding to a category determined according to the first user input among the plurality of images; determining a report format based on the number of selected images among the corresponding images determined according to a second user input; and displaying a report obtained based on the determined report format.

또한, 상기 복수개의 이미지는 상기 CT 단면 이미지에서 기 설정 지점에 대해 뷰 포인트가 상이하고, 함께 제공되는 복수개의 그룹 이미지 중에서 어느 하나에 대한 셀렉티드 캡쳐 이미지를 포함할 수 있다.Additionally, the plurality of images may have different viewpoints with respect to a preset point in the CT cross-sectional image and may include a selected capture image for one of a plurality of group images provided together.

또한, 상기 CT 단면 이미지에서 기준 지점은 휠 입력에 기초하여 갱신될 수 있다.Additionally, the reference point in the CT cross-sectional image may be updated based on wheel input.

또한, 상기 셀렉티드 캡쳐 이미지가 획득될 때 상기 셀렉티드 캡쳐 이미지에 대응되는 영역에 플래쉬 효과를 제공하는 단계;를 더 포함할 수 있다.Additionally, the method may further include providing a flash effect to an area corresponding to the selected captured image when the selected captured image is acquired.

또한, 상기 뷰 포인트는 상기 CT 단면 이미지에서 관상면, 시상면 및 수평면 중 적어도 하나를 포함할 수 있다.Additionally, the view point may include at least one of a coronal plane, a sagittal plane, and a horizontal plane in the CT cross-sectional image.

또한, 상기 복수개의 이미지는 상기 CT 단면 이미지에서 기 설정 인터벌에 따른 제 1 지점과 제 2 지점 간의 순차적인 단면 이미지 중 어느 하나에 대한 멀티 슬라이스 캡쳐 이미지를 포함할 수 있다.Additionally, the plurality of images may include a multi-slice capture image of one of sequential cross-sectional images between a first point and a second point according to a preset interval in the CT cross-sectional image.

또한, 상기 순차적인 단면 이미지에 대응되는 지점은 상기 CT 단면 이미지에서 휠 입력에 기초하여 갱신될 수 있다.Additionally, points corresponding to the sequential cross-sectional images may be updated based on wheel input in the CT cross-sectional images.

또한, 상기 제 1 지점, 상기 제 2 지점, 상기 기 설정 인터벌 및 상기 순차적인 단면 이미지의 두께는 사용자 입력에 기초하여 결정될 수 있다.Additionally, the first point, the second point, the preset interval, and the thickness of the sequential cross-sectional images may be determined based on user input.

또한, 오버레이 캡쳐 기능이 활성화되는 경우, 상기 멀티 슬라이스 캡쳐 이미지는 측정 값, 메모 및 기호 중 적어도 하나를 포함하는 오버레이 텍스트를 포함하고, 상기 오버레이 캡쳐 기능은 오버레이 캡쳐 항목에 대한 선택 입력이 획득됨에 따라 활성화될 수 있다.Additionally, when the overlay capture function is activated, the multi-slice capture image includes overlay text including at least one of a measurement value, a note, and a symbol, and the overlay capture function is activated as a selection input for the overlay capture item is obtained. It can be activated.

또한, 상기 대응 이미지는 캡쳐 순서에 기초하여 배열될 수 있다.Additionally, the corresponding images may be arranged based on capture order.

또한, 상기 선택 이미지의 선택 순서에 기초하여 상기 레포트가 획득될 수 있다.Additionally, the report may be obtained based on the selection order of the selected images.

본 개시의 제 2 측면에 따른 복수개의 이미지를 이용한 레포트 제공 디바이스는 구강에 대한 복수개의 이미지를 획득하는 프로세서; 관상면, 시상면 및 수평면에서의 CT 단면 이미지 및 3D 이미지 중 적어도 하나를 포함하는 카테고리에 대한 제 1 사용자 입력을 획득하는 수신부; 및 상기 복수개의 이미지 중에서 상기 제 1 사용자 입력에 따라 결정된 카테고리에 대응하는 대응 이미지를 디스플레이하는 디스플레이;를 포함하고, 상기 프로세서는 상기 대응 이미지 중에서 제 2 사용자 입력에 따라 결정된 선택 이미지의 개수에 기초하여 레포트 형식을 결정하고, 상기 디스플레이는 상기 결정된 레포트 형식에 기초하여 획득된 레포트를 디스플레이할 수 있다.A report providing device using a plurality of images according to a second aspect of the present disclosure includes a processor that acquires a plurality of images of the oral cavity; a receiving unit that acquires a first user input for a category including at least one of CT cross-sectional images and 3D images in the coronal, sagittal, and horizontal planes; and a display that displays corresponding images corresponding to the category determined according to the first user input among the plurality of images, wherein the processor selects images based on the number of selected images determined according to the second user input among the corresponding images. A report format may be determined, and the display may display a report obtained based on the determined report format.

또한, 상기 복수개의 이미지는 상기 CT 단면 이미지에서 기 설정 지점에 대해 뷰 포인트가 상이하고, 함께 제공되는 복수개의 그룹 이미지 중에서 어느 하나에 대한 셀렉티드 캡쳐 이미지를 포함할 수 있다.Additionally, the plurality of images may have different viewpoints with respect to a preset point in the CT cross-sectional image and may include a selected capture image for one of a plurality of group images provided together.

또한, 상기 CT 단면 이미지에서 기준 지점은 휠 입력에 기초하여 갱신될 수 있다.Additionally, the reference point in the CT cross-sectional image may be updated based on wheel input.

또한, 상기 복수개의 이미지는 상기 CT 단면 이미지에서 기 설정 인터벌에 따른 제 1 지점과 제 2 지점 간의 순차적인 단면 이미지 중 어느 하나에 대한 멀티 슬라이스 캡쳐 이미지를 포함할 수 있다.Additionally, the plurality of images may include a multi-slice capture image of one of sequential cross-sectional images between a first point and a second point according to a preset interval in the CT cross-sectional image.

본 개시의 제 3 측면은 제 1 측면에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. 또는, 본 개시의 제 4 측면은 제 1 측면에 따른 방법을 구현하기 위하여 기록매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.A third aspect of the present disclosure may provide a computer-readable recording medium recording a program for executing the method according to the first aspect on a computer. Alternatively, the fourth aspect of the present disclosure may provide a computer program stored in a recording medium to implement the method according to the first aspect.

일 실시 예에 따르면, 복수개의 구강 이미지들을 사용자 입력 기반으로 결정된 레포트 형식에 따라 레포트를 생성하여 제공함으로써, 사용자 편의성을 향상시킬 수 있다.According to one embodiment, user convenience can be improved by generating and providing a report using a plurality of oral images according to a report format determined based on user input.

또한, 레포트 편집 영역에 추가되는 선택 이미지의 개수에 기초하여 레포트 형식을 결정함으로써, 유동적인 레포트 형식에 따라 레포트에 포함될 이미지를 자유롭게 추가할 수 있도록 지원하여 사용자 편의성을 향상시킬 수 있다.Additionally, by determining the report format based on the number of selected images added to the report editing area, user convenience can be improved by supporting the free addition of images to be included in the report according to a flexible report format.

또한, 사용자 편의성을 향상시킨 셀렉티드 캡쳐 방식 또는 멀티 슬라이스 캡쳐 방식을 통해 복수개의 이미지를 효율적으로 획득할 수 있다. 셀렉티드 캡쳐 방식의 경우, 오버레이 입력과 연계되는 카테고리별 이미지 정렬 기능을 제공하여 레포트 작성 과정에서 사용자 편의성을 향상시킬 수 있다. 한편, 멀티 슬라이스 캡쳐 방식의 경우, 휠 입력과 연계되는 순차적인 이미지 획득 기능을 제공하여 이미지 캡쳐 과정에서 사용자 편의성을 향상시킬 수 있다.In addition, multiple images can be efficiently acquired through the selected capture method or multi-slice capture method, which improves user convenience. In the case of the selected capture method, user convenience can be improved in the report creation process by providing an image sorting function by category linked to overlay input. Meanwhile, in the case of the multi-slice capture method, user convenience can be improved in the image capture process by providing a sequential image acquisition function linked to wheel input.

또한, 레포트 편집 영역 내에서 캡쳐된 이미지에 대한 조작을 통해 레포트에 포함될 이미지를 간편하게 편집할 수 있는 기능을 제공할 수 있다.In addition, it is possible to provide a function to easily edit images included in the report by manipulating the images captured within the report editing area.

본 개시의 효과는 상기한 효과로 한정되는 것은 아니며, 본 개시의 상세한 설명 또는 특허청구범위에 기재된 개시의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present disclosure are not limited to the effects described above, and should be understood to include all effects that can be inferred from the configuration of the disclosure described in the detailed description or claims of the present disclosure.

도 1은 일 실시 예에 따른 디바이스의 구성의 일 예를 나타내는 블록도이다.
도 2는 일 실시 예에 따른 디바이스가 복수개의 이미지를 이용하여 레포트를 제공하는 방법을 나타내는 흐름도이다.
도 3은 일 실시 예에 따른 디바이스가 카테고리에 대한 제 1 사용자 입력을 획득하는 동작을 설명하기 위한 도면이다.
도 4는 일 실시 예에 따른 디바이스가 제 1 사용자 입력에 따라 결정된 카테고리에 대응하는 대응 이미지를 디스플레이하는 동작을 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 디바이스가 제 2 사용자 입력에 따라 결정된 선택 이미지를 배치하는 동작을 설명하기 위한 도면이다.
도 6 내지 도 7은 일 실시 예에 따른 디바이스가 선택 이미지의 개수에 기초하여 레포트 형식을 결정하는 동작을 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른 디바이스가 레포트 편집 영역에 배치된 선택 이미지를 갱신하는 동작을 설명하기 위한 도면이다.
도 9 내지 도 11은 레포트 편집 영역에 배치된 선택 이미지의 갱신을 요청하는 사용자 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 12는 일 실시 예에 따른 디바이스가 레포트를 출력하는 동작을 설명하기 위한 도면이다.
도 13은 제 1 실시 예에 따른 디바이스가 셀렉티드 캡쳐 프로세스에 따라 셀렉티드 캡쳐 이미지를 포함하는 구강에 대한 복수개의 이미지를 획득하는 방법을 나타낸다.
도 14 내지 도 15는 제 1 실시 예에 따른 디바이스가 셀렉티드 캡쳐를 위한 제 1 캡쳐 인터페이스를 제공하는 동작을 설명하기 위한 도면이다.
도 16은 일 실시 예에 따른 디바이스가 셀렉티드 캡쳐 이미지가 획득될 때 셀렉티드 캡쳐 이미지에 대응되는 영역에 플래쉬 효과를 제공하는 동작을 설명하기 위한 도면이다.
도 17은 제 1 실시 예에 따라 획득된 셀렉티드 캡쳐 이미지를 예시하는 도면이다.
도 18은 제 2 실시 예에 따른 디바이스가 멀티 슬라이스 캡쳐 프로세스에 따라 멀티 슬라이스 캡쳐 이미지를 포함하는 구강에 대한 복수개의 이미지를 획득하는 방법을 나타낸다.
도 19 내지 도 20은 제 2 실시 예에 따른 디바이스가 멀티 슬라이스 캡쳐를 위한 제 2 캡쳐 인터페이스를 제공하는 동작을 설명하기 위한 도면이다.
도 21 내지 도 22는 제 2 실시 예에 따른 디바이스가 다양한 뷰 포인트에서 멀티 슬라이스 캡쳐를 위한 제 2 캡쳐 인터페이스를 제공하는 동작을 예시하는 도면이다.
도 23은 일 실시 에에 따른 디바이스가 멀티 슬라이스 캡쳐 이미지 중 사용자 주석 또는 측정 값에 대한 이미지를 획득하는 동작을 설명하기 위한 도면이다.
도 24는 제 2 실시 예에 따른 디바이스가 멀티 슬라이스 캡쳐 프로세스에 따라 레포트를 제공하는 방법을 나타내는 흐름도이다.
도 25는 제 2 실시 예에 따른 디바이스가 제 2 사용자 입력에 따라 결정되는 선택 이미지를 레포트 편집 영역에 추가하는 동작을 설명하기 위한 도면이다.
1 is a block diagram showing an example of the configuration of a device according to an embodiment.
Figure 2 is a flowchart showing a method in which a device provides a report using a plurality of images according to an embodiment.
FIG. 3 is a diagram illustrating an operation in which a device obtains a first user input for a category, according to an embodiment.
FIG. 4 is a diagram illustrating an operation of a device displaying a corresponding image corresponding to a category determined according to a first user input, according to an embodiment.
FIG. 5 is a diagram illustrating an operation of a device placing a selection image determined according to a second user input, according to an embodiment.
Figures 6 and 7 are diagrams for explaining an operation in which a device determines a report format based on the number of selected images, according to an embodiment.
FIG. 8 is a diagram illustrating an operation of a device updating a selected image placed in a report editing area according to an embodiment.
9 to 11 are diagrams for explaining an operation of receiving a user input requesting an update of a selected image placed in a report editing area.
Figure 12 is a diagram for explaining an operation of a device outputting a report according to an embodiment.
Figure 13 shows a method by which a device according to the first embodiment acquires a plurality of images of the oral cavity including a selected capture image according to a selected capture process.
Figures 14 and 15 are diagrams for explaining an operation in which a device according to the first embodiment provides a first capture interface for selected capture.
FIG. 16 is a diagram illustrating an operation of a device according to an embodiment of providing a flash effect to an area corresponding to a selected captured image when the selected captured image is acquired.
Figure 17 is a diagram illustrating a selected capture image acquired according to the first embodiment.
Figure 18 shows a method in which a device according to a second embodiment acquires a plurality of images of the oral cavity including multi-slice capture images according to a multi-slice capture process.
Figures 19 and 20 are diagrams for explaining an operation of a device according to a second embodiment providing a second capture interface for multi-slice capture.
21 and 22 are diagrams illustrating an operation of a device according to a second embodiment providing a second capture interface for multi-slice capture from various view points.
FIG. 23 is a diagram illustrating an operation in which a device acquires an image for a user annotation or measurement value from a multi-slice captured image according to an embodiment.
Figure 24 is a flowchart showing a method by which a device provides a report according to a multi-slice capture process according to the second embodiment.
FIG. 25 is a diagram illustrating an operation of a device according to a second embodiment of adding a selected image determined according to a second user input to a report editing area.

실시 예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments are general terms that are currently widely used as much as possible while considering the function in the present invention, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part in the entire specification is said to “include” a certain element, this means that it does not exclude other elements but may further include other elements, unless specifically stated to the contrary. In addition, “…” stated in the specification. Terms such as “unit” refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software.

명세서 전체에서 '제공'은 대상이 특정 정보를 획득하거나 직간접적으로 특정 대상에게 송수신하는 과정을 포함하며 이러한 과정에서 요구되는 관련 동작의 수행을 포괄적으로 포함하는 것으로 해석될 수 있다.Throughout the specification, 'provision' includes the process of an object acquiring specific information or sending and receiving it directly or indirectly to a specific object, and can be interpreted to comprehensively include the performance of related operations required in this process.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein.

이하에서는 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 일 실시 예에 따른 디바이스(100)의 구성의 일 예를 나타내는 블록도이다. 도 2는 일 실시 예에 따른 디바이스(100)가 복수개의 이미지를 이용하여 레포트를 제공하는 방법을 나타내는 흐름도이다.FIG. 1 is a block diagram illustrating an example of the configuration of a device 100 according to an embodiment. Figure 2 is a flowchart showing a method by which the device 100 provides a report using a plurality of images according to an embodiment.

도 1 내지 도 2를 참조하면, 디바이스(100)는 프로세서(110), 수신부(120) 및 디스플레이(130)를 포함할 수 있다.Referring to FIGS. 1 and 2 , the device 100 may include a processor 110, a receiver 120, and a display 130.

단계 S210에서 프로세서(110)는 구강에 대한 복수개의 이미지를 획득할 수 있다. 일 실시 예에서, 프로세서(110)는 CT(computed tomography) 데이터로부터 구강에 대한 복수개의 이미지를 획득할 수 있다. 여기에서, CT 데이터는 단층 촬영 방식에 기초하여 획득되는 CT 데이터일 수 있으나, 이에 제한되지 않는다. 예를 들면, CT 데이터는 환자의 치아 부분에 대한 내부 공간, 밀도 및 다수의 단면에 관한 정보를 포함하는 CT 볼륨 이미지일 수 있고, 다른 예를 들면, DICOM(digital imaging and communications in medicine) 디지털 이미지나 그 밖의 다양한 유형의 의료 이미지일 수도 있다.In step S210, the processor 110 may acquire a plurality of images of the oral cavity. In one embodiment, the processor 110 may acquire a plurality of images of the oral cavity from computed tomography (CT) data. Here, the CT data may be CT data acquired based on a tomography method, but is not limited thereto. For example, the CT data may be a CT volumetric image containing information about the internal space, density, and multiple cross-sections of a portion of the patient's teeth, or, for example, a DICOM (digital imaging and communications in medicine) digital image. It could also be various types of medical images.

일 실시 예에서, 프로세서(110)는 환자의 CT 데이터를 메모리에서 로딩하고, CT 데이터를 통해 시각화되는 구강에 대한 3D 이미지를 다양한 뷰 포인트에서 캡쳐하여 복수개의 캡쳐 이미지를 획득할 수 있다. 이에 관한 상세한 내용은 도 13 내지 도 25를 참조하며 후술하도록 한다. 다른 일 실시 예에서, 프로세서(110)는 구강에 대한 복수개의 이미지를 메모리에서 로딩할 수 있으며, 예컨대, 복수개의 캡쳐 이미지가 준비된 상태에서 이후 단계들이 진행될 수 있다.In one embodiment, the processor 110 may obtain a plurality of captured images by loading the patient's CT data from memory and capturing 3D images of the oral cavity visualized through the CT data from various viewpoints. Detailed information regarding this will be described later with reference to FIGS. 13 to 25. In another embodiment, the processor 110 may load a plurality of images of the oral cavity from memory, and for example, subsequent steps may be performed with a plurality of captured images prepared.

일 실시 예에서, 관상면, 시상면 및 수평면에서의 CT 단면 이미지 및 3D 이미지에는 서로 상이한 뷰 포인트가 대응될 수 있다. 여기에서, 관상면은 구강을 정면에서 본 상태에서 신체를 배쪽과 등쪽으로 나누는 해부학적 면을 나타내고, 시상면은 구강을 정면에서 본 상태에서 신체를 좌측과 우측으로 나누는 해부학적 면을 나타내고, 수평면은 구강을 상부에서 본 상태에서 신체를 상부와 하부로 나누는 수평면을 나타낸다. 또한, 3D 이미지의 뷰 포인트는 3D 이미지로 표현되는 구강에 대한 전면 뷰, 측면 뷰, 후면 뷰, 상면 뷰, 하면 뷰, 파노라믹(panoramic) 뷰 등을 포함하는 개념으로 이해될 수 있다.In one embodiment, different view points may correspond to CT cross-sectional images and 3D images in the coronal, sagittal, and horizontal planes. Here, the coronal plane represents the anatomical plane that divides the body into the ventral and dorsal parts when the mouth is viewed from the front, the sagittal plane represents the anatomical plane that divides the body into the left and right sides when the mouth is viewed from the front, and the horizontal plane represents the horizontal plane that divides the body into upper and lower parts when looking at the oral cavity from above. In addition, the view point of the 3D image can be understood as a concept including the front view, side view, rear view, top view, bottom view, panoramic view, etc. of the oral cavity expressed in the 3D image.

일 실시 예에서, 구강에 대한 복수개의 이미지 각각은 특정 카테고리에 대응될 수 있다. 여기에서, 카테고리는 관상면, 시상면 및 수평면에서의 CT 단면 이미지 및 3D 이미지 중 적어도 하나를 포함할 수 있다. 일 실시 예에서, 복수개의 이미지 각각은 뷰 포인트에 따라 복수개의 카테고리 중 어느 하나에 대응될 수 있다. 예를 들면, 뷰 포인트가 각각 관상면, 시상면 및 수평면에서의 CT 단면 이미지 및 3D 이미지인 제 1 이미지 내지 제 4 이미지에 대해서, 제 1 이미지는 관상면에 대한 카테고리(이하, '제 1 카테고리'라 함)에 대응하고, 제 2 이미지는 시상면에 대한 카테고리(이하, '제 2 카테고리'라 함)에 대응하고, 제 3 이미지는 수평면에 대한 카테고리(이하, '제 3 카테고리'라 함)에 대응하고, 제 4 이미지는 3D에 대한 카테고리(이하, '제 4 카테고리'라 함)에 대응할 수 있다.In one embodiment, each of the plurality of images of the oral cavity may correspond to a specific category. Here, the category may include at least one of CT cross-sectional images and 3D images in the coronal, sagittal, and horizontal planes. In one embodiment, each of the plurality of images may correspond to one of a plurality of categories depending on the viewpoint. For example, for the first to fourth images whose view points are CT cross-sectional images and 3D images in the coronal, sagittal, and horizontal planes, respectively, the first image is a category for the coronal plane (hereinafter referred to as 'first category') '), the second image corresponds to a category for the sagittal plane (hereinafter referred to as 'the second category'), and the third image corresponds to a category for the horizontal plane (hereinafter referred to as 'the third category'). ), and the fourth image may correspond to a category for 3D (hereinafter referred to as the 'fourth category').

단계 S220에서 수신부(120)는 카테고리에 대한 제 1 사용자 입력을 획득할 수 있다. 일 실시 예에서, 디스플레이(130)는 관상면, 시상면 및 수평면에서의 CT 단면 이미지 및 3D 이미지 중 적어도 하나를 포함하는 카테고리에 대한 정보를 디스플레이하고, 수신부(120)는 카테고리 중 어느 하나를 선택하는 제 1 사용자 입력을 수신할 수 있다. 이에 관한 내용은 도 3을 참조하여 보다 상세하게 서술하도록 한다.In step S220, the receiver 120 may obtain the first user input for the category. In one embodiment, the display 130 displays information about a category including at least one of CT cross-sectional images and 3D images in the coronal, sagittal, and horizontal planes, and the receiver 120 selects one of the categories. A first user input may be received. This will be described in more detail with reference to FIG. 3.

도 3은 일 실시 예에 따른 디바이스(100)가 카테고리에 대한 제 1 사용자 입력을 획득하는 동작을 설명하기 위한 도면이다.FIG. 3 is a diagram illustrating an operation in which the device 100 obtains a first user input for a category according to an embodiment.

도 3을 참조하면, 프로세서(110)는 레포트 편집 영역(310) 및 썸네일 영역(320)을 제공할 수 있다. 일 실시 예에서, 레포트 편집 영역(310)은 레포트를 위한 템플릿이 제공되는 영역으로서, 레포트에 포함될 이미지에 관한 정보가 제공될 수 있다. 예를 들면, 레포트 편집 영역(310)에는 레포트에 추가 가능한 이미지의 카테고리별 명칭, 카테고리별 이미지를 각 영역에 추가하기 위한 인터페이스 등이 제공될 수 있다. 또한, 썸네일 영역(320)은 레포트 편집 영역(310)에 추가 가능한 이미지들이 제공되는 영역으로서, 구강에 대한 복수개의 이미지가 제공될 수 있다.Referring to FIG. 3, the processor 110 may provide a report editing area 310 and a thumbnail area 320. In one embodiment, the report editing area 310 is an area where a template for a report is provided, and information about images to be included in the report may be provided. For example, the report editing area 310 may be provided with category names of images that can be added to the report, an interface for adding images by category to each area, etc. Additionally, the thumbnail area 320 is an area where images that can be added to the report editing area 310 are provided, and a plurality of images of the oral cavity may be provided.

일 실시 예에서, 레포트 편집 영역(310)은 제 1 카테고리 내지 제 4 카테고리 각각에 대응되는 영역을 나타내는 제 1 카테고리 영역(311) 내지 제 4 카테고리 영역(314)을 포함할 수 있다. 제 1 카테고리 영역(311) 내지 제 3 카테고리 영역(314)은 서로 다른 뷰 포인트에 대응될 수 있다. 예를 들면 제 1 카테고리 영역(311)은 관상면, 제 2 카테고리 영역(312)은 시상면, 제 3 카테고리 영역(313)은 수평면에 대한 카테고리에 대응될 수 있다. 일 실시 예에 따를 때, 제 4 카테고리 영역(314)는 3D 카테고리(예: 3D로 재구성된 구강의 전면 뷰에 대한 카테고리)에 대응될 수 있다. 디스플레이(130)는 제 1 카테고리 영역(311) 내지 제 4 카테고리 영역(314) 각각에 제 1 카테고리 내지 제 4 카테고리 각각에 대한 명칭(예: 관상면 CT 단면 이미지, 시상면 CT 단면 이미지, 수평면 CT 단면 이미지, 3D 이미지)을 디스플레이할 수 있다. 또한, 디스플레이(130)는 썸네일 영역(320)에 구강에 대한 복수개의 이미지를 정렬하여 디스플레이할 수 있고, 예를 들면, 촬영 순서, 카테고리, 캡쳐 순서 등에 기초하여 정렬하여 디스플레이할 수 있다. 촬영 순서 및 캡쳐 순서는 시간, 분, 초 단위로 결정될 수 있다.In one embodiment, the report editing area 310 may include first to fourth category areas 311 to 314, which represent areas corresponding to each of the first to fourth categories. The first to third category areas 311 to 314 may correspond to different view points. For example, the first category area 311 may correspond to the coronal plane, the second category area 312 may correspond to the sagittal plane, and the third category area 313 may correspond to the horizontal plane. According to one embodiment, the fourth category area 314 may correspond to a 3D category (eg, a category for a front view of the oral cavity reconstructed in 3D). The display 130 displays names for each of the first to fourth categories in each of the first to fourth category areas 311 to 314 (e.g., coronal CT cross-sectional image, sagittal CT cross-sectional image, horizontal CT cross-sectional image, 3D image) can be displayed. Additionally, the display 130 can display a plurality of images of the oral cavity by sorting them in the thumbnail area 320, for example, sorting and displaying them based on shooting order, category, capture order, etc. The shooting order and capture order can be determined in units of hours, minutes, and seconds.

일 실시 예에서, 수신부(120)는 레포트 편집 영역(310)을 통해 카테고리에 대한 제 1 사용자 입력을 획득할 수 있다. 예를 들면, 수신부(120)는 제 1 카테고리 영역(311) 내지 제 4 카테고리 영역(314) 중 제 1 카테고리 영역(311) 상에 마우스 포인터를 위치시키는 마우스 오버 입력을 제 1 카테고리를 선택하는 제 1 사용자 입력으로서 수신할 수 있다.In one embodiment, the receiver 120 may obtain a first user input for a category through the report editing area 310. For example, the receiver 120 may use a mouse over input to select the first category by placing the mouse pointer on the first category area 311 among the first to fourth category areas 311 to 314. 1 Can be received as user input.

다른 일 실시 예에서, 프로세서(110)는 썸네일 영역(320)을 통해 카테고리에 대한 제 1 사용자 입력을 획득할 수도 있다. 예를 들면, 썸네일 영역(320)에 디스플레이되는 복수개의 이미지 중 뷰 포인트가 관상면인 제 1 이미지를 선택하는 마우스 입력을 제 1 카테고리를 선택하는 제 1 사용자 입력으로서 수신할 수 있다. 또 다른 일 실시 예에서, 프로세서(110)는 카테고리 목록에 대한 사용자의 선택 입력을 제 1 사용자 입력으로서 수신할 수도 있다.In another embodiment, the processor 110 may obtain the first user input for the category through the thumbnail area 320. For example, a mouse input for selecting a first image whose view point is a coronal plane among a plurality of images displayed in the thumbnail area 320 may be received as a first user input for selecting the first category. In another embodiment, the processor 110 may receive a user's selection input for a category list as a first user input.

일 실시 예에서, 제 1 사용자 입력은 특정 레포트 편집 영역(310) 상에 마우스 포인터를 위치시키는 마우스 오버 입력, 특정 레포트 편집 영역(310) 내에 배치된 특정 아이콘(예: +)에 대한 선택 입력 등을 포함할 수 있다. 명세서 전반에서, 사용자 입력은 마우스, 키보드, 조이스틱 등을 이용하여 인가되는 사용자의 선택 입력, 텍스트 입력 등을 폭넓게 의미할 수 있다.In one embodiment, the first user input is a mouse over input for positioning the mouse pointer on a specific report editing area 310, a selection input for a specific icon (e.g., +) placed within the specific report editing area 310, etc. may include. Throughout the specification, user input may broadly refer to user selection input, text input, etc. authorized using a mouse, keyboard, joystick, etc.

단계 S230에서 디스플레이(130)는 복수개의 이미지 중에서 제 1 사용자 입력에 따라 결정된 카테고리에 대응하는 대응 이미지를 디스플레이할 수 있다. 이에 관한 내용은 도 4를 참조하여 보다 상세하게 서술하도록 한다.In step S230, the display 130 may display a corresponding image corresponding to the category determined according to the first user input from among the plurality of images. This will be described in more detail with reference to FIG. 4.

도 4는 일 실시 예에 따른 디바이스(100)가 제 1 사용자 입력에 따라 결정된 카테고리에 대응하는 대응 이미지를 디스플레이하는 동작을 설명하기 위한 도면이다.FIG. 4 is a diagram illustrating an operation in which the device 100 displays a corresponding image corresponding to a category determined according to a first user input, according to an embodiment.

도 4를 참조하면, 프로세서(110)는 제 1 사용자 입력에 따라 카테고리를 결정하고, 복수개의 이미지 중에서 해당 카테고리에 대응하는 이미지를 나타내는 대응 이미지를 디스플레이할 수 있다. 예컨대, 관상면의 제 1 카테고리 영역(311)이 선택된 경우, 복수개의 이미지 중 관상면에서 캡쳐된 이미지들만 썸네일 영역(320)에 디스플레이될 수 있다.Referring to FIG. 4, the processor 110 may determine a category according to a first user input and display a corresponding image representing an image corresponding to the category among a plurality of images. For example, when the first category area 311 of the coronal plane is selected, only images captured in the coronal plane among the plurality of images may be displayed in the thumbnail area 320.

일 실시 예에서, 제 1 카테고리 영역(311) 상에 마우스 포인터를 위치시키는 제 1 사용자 입력이 수신된 경우, 제 1 사용자 입력에 따라 결정되는 카테고리는 관상면에 대한 제 1 카테고리이고, 제 1 카테고리에 대응하는 대응 이미지는 복수개의 이미지 중 뷰 포인트가 관상면인 제 1 이미지이다.In one embodiment, when a first user input that positions the mouse pointer on the first category area 311 is received, the category determined according to the first user input is the first category for the coronal plane, and the first category The corresponding image corresponding to is a first image whose viewpoint is the coronal plane among the plurality of images.

다른 일 실시 예에서, 썸네일 영역(320)에 디스플레이되는 복수개의 이미지 중 뷰 포인트가 시상면에 대응되는 제 2 이미지를 선택하는 제 1 사용자 입력이 수신된 경우, 제 1 사용자 입력에 따라 결정되는 카테고리는 시상면에 대한 제 2 카테고리이고, 제 2 카테고리에 대응하는 대응 이미지는 복수개의 이미지 중 뷰 포인트가 시상면에 대응되는 제 2 이미지이다.In another embodiment, when a first user input for selecting a second image whose view point corresponds to the sagittal plane among the plurality of images displayed in the thumbnail area 320 is received, a category determined according to the first user input is a second category for the sagittal plane, and the corresponding image corresponding to the second category is a second image whose view point corresponds to the sagittal plane among a plurality of images.

일 실시 예에서, 디스플레이(130)는 대응 이미지를 캡쳐 순서에 기초하여 배열할 수 있다. 예를 들면, 디스플레이(130)는 캡쳐 시점이 최근인 순으로(또는 오래된 순으로) 대응 이미지를 순차 정렬하여 썸네일 영역(320)에 디스플레이할 수 있다. 일 실시 예에서, 디스플레이(130)는 대응 이미지를 촬영 순서, 카테고리, 중요도 등에 기초하여 배열할 수도 있다.In one embodiment, display 130 may arrange corresponding images based on capture order. For example, the display 130 may sequentially arrange corresponding images in the order of latest capture time (or oldest order) and display them in the thumbnail area 320. In one embodiment, the display 130 may arrange corresponding images based on shooting order, category, importance, etc.

일 실시 예에서, 제 1 사용자 입력이 마우스 오버 입력인 경우, 디스플레이(130)는 제 1 사용자 입력이 수신되는 동안 대응 이미지를 디스플레이할 수 있다. 예를 들면, 디스플레이(130)는 마우스 포인터가 제 1 카테고리 영역(311) 상에 위치하는 동안에만 제 1 카테고리에 대응하는 대응 이미지를 썸네일 영역(320)에 디스플레이하고, 제 2 카테고리 영역(312)으로 위치 이동한 경우에는 제 2 카테고리에 대응하는 대응이미지를 썸네일 영역(320)에 디스플레이할 수 있다. 또한, 디스플레이(130)는 마우스 포인터의 위치가 레포트 편집 영역(310)에서 벗어난 경우에는 다시 구강에 대한 복수개의 이미지 전체를 썸네일 영역(320)에 디스플레이할 수 있다.In one embodiment, when the first user input is a mouse over input, the display 130 may display a corresponding image while the first user input is received. For example, the display 130 displays the corresponding image corresponding to the first category in the thumbnail area 320 only while the mouse pointer is located on the first category area 311, and the second category area 312 When the location is moved to , the corresponding image corresponding to the second category can be displayed in the thumbnail area 320. Additionally, if the position of the mouse pointer deviates from the report editing area 310, the display 130 may display the entire plurality of images of the oral cavity in the thumbnail area 320 again.

일 실시 예에서, 제 1 사용자 입력이 마우스 오버 입력인 경우, 디스플레이(130)는 제 1 사용자 입력이 수신 후 유지되지 않는 경우라도 사용자의 추가 입력(예: 해당 카테고리 영역에 대한 클릭 입력)이 획득됨에 따라 대응 이미지의 디스플레이를 유지할 수 있다. 예를 들면, 디스플레이(130)는 마우스 포인터가 제 1 카테고리 영역(311) 상에 위치함에 따라 제 1 카테고리에 대응하는 대응 이미지를 썸네일 영역(320)에 디스플레이하고, 제 1 카테고리 영역(311) 상에 클릭 입력이 인가됨에 따라 썸네일 영역(320)에 제 1 카테고리에 대응하는 대응 이미지의 디스플레이를 유지할 수 있다. 제 1 카테고리 영역(311) 상에 클릭 입력이 인가된 이후에는 마우스 포인터가 제 1 카테고리 영역(311)을 벗어나는 경우라도 썸네일 영역(320)에 제 1 카테고리에 대응하는 대응 이미지가 계속 디스플레이될 수 있다.In one embodiment, when the first user input is a mouse over input, the display 130 obtains the user's additional input (e.g., a click input for the corresponding category area) even if the first user input is not maintained after being received. As a result, display of the corresponding image can be maintained. For example, when the mouse pointer is positioned on the first category area 311, the display 130 displays the corresponding image corresponding to the first category in the thumbnail area 320, and displays the corresponding image corresponding to the first category in the thumbnail area 320. As a click input is applied, display of the corresponding image corresponding to the first category may be maintained in the thumbnail area 320. After a click input is applied to the first category area 311, the corresponding image corresponding to the first category may continue to be displayed in the thumbnail area 320 even if the mouse pointer leaves the first category area 311. .

도 5는 일 실시 예에 따른 디바이스(100)가 제 2 사용자 입력에 따라 결정된 선택 이미지를 배치하는 동작을 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating an operation of the device 100 to place a selection image determined according to a second user input, according to an embodiment.

도 5를 참조하면, 프로세서(110)는 대응 이미지 중에서 제 2 사용자 입력에 따라 결정된 선택 이미지를, 레포트 편집 영역(310) 중 제 1 사용자 입력에 따라 결정된 카테고리에 대응되는 영역에 배치할 수 있다. 일 실시 예에서, 수신부(120)는 썸네일 영역(320)에 디스플레이된 복수개의 대응 이미지 중 하나 이상을 선택하는 제 2 사용자 입력을 수신할 수 있고, 프로세서(110)는 제 2 사용자 입력에 따라 선택되는 하나 이상의 선택 이미지를 레포트 편집 영역(310)에서 해당 카테고리에 대응되는 영역에 추가할 수 있다. Referring to FIG. 5 , the processor 110 may place the selected image determined according to the second user input among the corresponding images in an area of the report editing area 310 corresponding to the category determined according to the first user input. In one embodiment, the receiver 120 may receive a second user input for selecting one or more of a plurality of corresponding images displayed in the thumbnail area 320, and the processor 110 may select one or more of the plurality of corresponding images displayed in the thumbnail area 320. One or more selected images can be added to the area corresponding to the corresponding category in the report editing area 310.

일 실시 예에서, 제 2 사용자 입력은 드래그 앤 드롭 입력, 단일 선택 입력, 연속적인 선택 입력 등을 포함할 수 있다. 예를 들면, 프로세서(110)는 썸네일 영역(320)에 디스플레이된 관상면의 이미지들 중에서 하나를 드래그하여 제 1 카테고리 영역(311)으로 드롭시키는 드래그 앤 드롭 입력이 수신됨에 따라, 해당 선택 이미지를 관상면에 대응하는 제 1 카테고리 영역(311)에 추가할 수 있다. 다른 예를 들면, 프로세서(110)는 썸네일 영역(320)에 디스플레이된 복수개의 이미지들 중에서 하나를 연속 클릭하는 마우스 입력이 수신됨에 따라, 해당 선택 이미지를 해당 선택 이미지의 카테고리에 대응하는 제 1 카테고리 영역(311)에 추가할 수 있다. 동일 또는 유사한 방식으로, 제 2 카테고리 영역(312) 내지 제 4 카테고리 영역(314)에 대해서도 각 카테고리에 대응되는 대응 이미지들 중 선택되는 하나 이상의 선택 이미지가 각 카테고리 영역에 추가될 수 있다.In one embodiment, the second user input may include a drag and drop input, a single selection input, a continuous selection input, etc. For example, when the processor 110 receives a drag and drop input for dragging one of the coronal images displayed in the thumbnail area 320 and dropping it to the first category area 311, the processor 110 selects the selected image. It can be added to the first category area 311 corresponding to the coronal plane. For another example, as a mouse input of continuously clicking on one of the plurality of images displayed in the thumbnail area 320 is received, the processor 110 selects the selected image into a first category corresponding to the category of the selected image. It can be added to area 311. In the same or similar manner, one or more selected images selected from corresponding images corresponding to each category may be added to each category area for the second to fourth category areas 312 to 314.

도 5에는 하나의 선택 이미지가 각 카테고리 영역에 추가된 예시가 도시되어 있으나, 제 1 및 제 2 사용자 입력에 따라서 각 카테고리 영역에 다양한 개수의 선택 이미지들이 추가되는 방식으로 레포트 편집 영역(310)에서 각 카테고리에 대응하는 영역이 갱신될 수 있다.Figure 5 shows an example in which one selected image is added to each category area, but in the report editing area 310, various numbers of selected images are added to each category area according to the first and second user inputs. The area corresponding to each category may be updated.

단계 S240에서 프로세서(110)는 대응 이미지 중에서 제 2 사용자 입력에 따라 결정된 선택 이미지의 개수에 기초하여 레포트 형식을 결정할 수 있다. 이에 관한 내용은 도 6을 참조하여 보다 상세하게 서술하도록 한다.In step S240, the processor 110 may determine a report format based on the number of selected images among corresponding images determined according to the second user input. This will be described in more detail with reference to FIG. 6.

도 6 내지 도 7은 일 실시 예에 따른 디바이스(100)가 선택 이미지의 개수에 기초하여 레포트 형식을 결정하는 동작을 설명하기 위한 도면이다.Figures 6 and 7 are diagrams for explaining an operation of the device 100 determining a report format based on the number of selected images, according to an embodiment.

도 6 내지 도 7을 참조하면, 프로세서(110)는 선택 이미지의 개수에 기초하여 복수의 카테고리 중 어느 하나의 카테고리에 대응되는 영역에 적용되는 레포트 형식을 결정할 수 있다. 예를 들면, 프로세서(110)는 기 저장된 복수개의 기준 레포트 형식 중 각 카테고리 영역에 추가된 선택 이미지의 개수에 대응되는 어느 하나에 따라 복수개의 카테고리 영역 각각에 적용될 레포트 형식을 결정할 수 있다.Referring to FIGS. 6 and 7 , the processor 110 may determine a report format applied to an area corresponding to one of a plurality of categories based on the number of selected images. For example, the processor 110 may determine a report format to be applied to each of a plurality of category areas according to one of a plurality of pre-stored standard report formats corresponding to the number of selected images added to each category area.

여기에서, 레포트 형식은 선택 이미지를 포함하는 레포트를 제공할 때 적용되는 이미지에 대한 레이아웃을 포함하는 개념으로 이해될 수 있다. 일 실시 예에서, 레포트 형식은 각 카테고리 영역에서 가로 축 및 세로 축 방향으로 배열될 이미지의 개수, 이미지 특성, 카테고리 영역 크기 등에 대한 형식을 포함할 수 있다. 여기에서, 이미지 특성은 이미지의 크기, 가로세로비, 화질 등을 포함할 수 있다. 일 실시 예에서, 레포트 형식은 명세서 전반에서 기술된 이미지 외에도, 구강에 대한 이미지에 기초하여 획득되는 진단 결과 등에 대한 레이아웃을 더 포함할 수 있으며, 이미지에 대한 레이아웃에 제한되지 않는다.Here, the report format can be understood as a concept that includes a layout for images applied when providing a report including selected images. In one embodiment, the report format may include formats for the number of images to be arranged in the horizontal and vertical directions in each category area, image characteristics, category area size, etc. Here, image characteristics may include image size, aspect ratio, image quality, etc. In one embodiment, the report format may further include a layout for diagnostic results obtained based on images of the oral cavity in addition to the images described throughout the specification, and is not limited to the layout for the images.

예컨대, 각 카테고리 영역에 선택 이미지가 몇 장이 드래그 앤 드롭되는지에 따라 레포트 편집 영역(310)에 있는 각 카테고리 영역의 레포트 형식이 결정될 수 있다. 도 6에 도시된 것처럼, 시상면에 대한 선택 이미지의 개수가 9개인 경우, 제 2 카테고리 확대 영역(620)에 대한 레포트 형식은 (3 x 3)으로 결정될 수 있고, 도 7에 도시된 것처럼, 6개인 경우, (2 x 3)으로 결정될 수 있다.For example, the report format of each category area in the report editing area 310 may be determined depending on how many selected images are dragged and dropped into each category area. As shown in Figure 6, when the number of selected images for the sagittal plane is 9, the report format for the second category enlarged area 620 can be determined as (3 x 3), and as shown in Figure 7, In the case of 6, it can be determined as (2 x 3).

레포트는 카테고리 별로 구별되는 영역을 포함할 수 있다. 예를 들면 레포트는 시상면에 대응되는 영역, 관상면에 대응되는 영역, 수평면에 대응되는 영역 및 3D에 대응되는 영역을 포함할 수 있다. 레포트에서 시상면에 대응되는 영역은 시상면에 대한 선택 이미지를 포함하고, 관상면에 대응되는 영역은 관상면에 대한 선택 이미지를 포함하고, 수평면에 대응되는 영역은 수평면에 대한 선택 이미지를 포함하고, 3D에 대응되는 영역은 3D에 대한 선택 이미지를 포함할 수 있다. 도 6 및 도 7은 시상면에 대응되는 영역에 대한 예시를 도시한다. 카테고리 썸네일 영역(610)은 해당 카테고리에 대해서 추가 가능한 이미지들에 제공되는 영역으로서, 해당 카테고리에 대한 복수개의 이미지가 제공될 수 있다.The report may include areas differentiated by category. For example, the report may include an area corresponding to the sagittal plane, an area corresponding to the coronal plane, an area corresponding to the horizontal plane, and an area corresponding to 3D. In the report, the area corresponding to the sagittal plane contains the selected image for the sagittal plane, the area corresponding to the coronal plane contains the selected image for the coronal plane, and the area corresponding to the horizontal plane contains the selected image for the horizontal plane. , the area corresponding to 3D may include a selection image for 3D. Figures 6 and 7 show examples of regions corresponding to the sagittal plane. The category thumbnail area 610 is an area provided for images that can be added to the corresponding category, and a plurality of images for the corresponding category may be provided.

단계 S250에서 디스플레이(130)는 결정된 레포트 형식에 기초하여 획득된 레포트를 디스플레이할 수 있다. 프로세서(110)는 카테고리 별로 대응되는 선택 이미지의 개수에 따라 레포트 형식을 결정하고, 디스플레이(130)는 결정된 레포트 형식에 따라 레포트를 디스플레이할 수 있다. 예를 들면, 시상면에 대응되는 선택 이미지의 개수가 4개이고, 그 외의 카테고리에 대응되는 선택 이미지의 개수가 각각 2개인 경우, 디스플레이는 레포트에서 시상 면에 대응되는 영역에는 (2 x 2)의 형식으로 선택 이미지를 디스플레이하고, 그 외의 카테고리에 대응되는 각각의 영역에서는 (2 x 1)의 형식으로 선택 이미지를 디스플레이할 수 있다.In step S250, the display 130 may display a report obtained based on the determined report format. The processor 110 determines the report format according to the number of selected images corresponding to each category, and the display 130 may display the report according to the determined report format. For example, if the number of selected images corresponding to the sagittal plane is 4 and the number of selected images corresponding to the other categories is 2 each, the display will display (2 x 2) in the area corresponding to the sagittal plane in the report. Selected images can be displayed in a format, and in each area corresponding to other categories, selected images can be displayed in a (2 x 1) format.

일 실시 예에서, 프로세서(110)는 선택 이미지의 선택 순서에 기초하여 레포트를 획득할 수 있다. 예를 들면, 선택 이미지로서 레포트 편집 영역(310)에 추가된 시점이 빠른 순서 또는 느린 순서에 따라 선택 이미지들이 제 1 카테고리 영역(311)에 순차 배열될 수 있다. 다른 예를 들면, 선택 이미지가 추가된 순서가 빠른 순서 또는 느린 순서에 따라 제 1 카테고리 영역(311) 내지 제 4 카테고리 영역(314)의 레포트 편집 영역(310)에 순차 배열될 수도 있다. 선택 순서에 따른 선택 이미지의 위치는 다양한 기 설정된 방식에 따를 수 있다. 예를 들면 가장 먼저 선택된 선택 이미지가 좌상단에 위치할 수도 있고, 가장 나중에 선택된 선택 이미지가 좌상단에 위치할 수도 있다.In one embodiment, processor 110 may obtain a report based on the selection order of the selected images. For example, selected images may be sequentially arranged in the first category area 311 according to the earliest or latest order in which they were added to the report editing area 310. For another example, the selected images may be sequentially arranged in the report editing area 310 of the first to fourth category areas 311 to 314 according to the order in which the selected images are added, first or second. The position of the selected image according to the selection order may follow various preset methods. For example, the selection image selected first may be located in the upper left corner, and the selection image selected last may be located in the upper left corner.

일 실시 예에 따르면, 사용자가 캡쳐된 이미지를 이용하여 진단(예: 교정 진단) 및 치료 계획에 따른 레포트를 효율적으로 작성하도록 지원함으로써, 사용자 편의성을 향상시킬 수 있다.According to one embodiment, user convenience can be improved by supporting users to efficiently create reports based on diagnosis (eg, orthodontic diagnosis) and treatment plan using captured images.

도 8은 일 실시 예에 따른 디바이스(100)가 레포트 편집 영역(310)에 배치된 선택 이미지를 갱신하는 동작을 설명하기 위한 도면이다. 도 9 내지 도 11은 레포트 편집 영역(310)에 배치된 선택 이미지의 갱신을 요청하는 사용자 입력을 수신하는 동작을 설명하기 위한 도면이다.FIG. 8 is a diagram illustrating an operation of the device 100 to update a selected image placed in the report editing area 310 according to an embodiment. 9 to 11 are diagrams for explaining an operation of receiving a user input requesting an update of a selected image placed in the report editing area 310.

도 8에 개시된 단계는 도 2의 단계 S250의 이후의 동작을 나타낼 수 있다. 도 8을 참조하면, 단계 S810에서 프로세서(110)는 레포트 편집 영역(310)에 배치된 선택 이미지에 대한 갱신을 요청하는 사용자 입력을 수신할 수 있다. 예를 들면, 프로세서(110)는 도 5에 도시된 것처럼 각 카테고리 영역에 선택 이미지가 배치된 상태에서, 특정 카테고리 영역에 대한 선택 입력 및 해당 선택 이미지의 크기, 위치, 비율 등을 수정하기 위한 사용자 입력을 수신할 수 있다.The steps disclosed in FIG. 8 may represent operations subsequent to step S250 of FIG. 2 . Referring to FIG. 8 , in step S810, the processor 110 may receive a user input requesting an update to the selected image placed in the report editing area 310. For example, with the selection image arranged in each category area as shown in FIG. 5, the processor 110 inputs a selection for a specific category area and allows the user to modify the size, position, ratio, etc. of the selected image. Input can be received.

단계 S820에서 프로세서(110)는 사용자 입력에 따라 레포트 편집 영역(310)에 배치된 선택 이미지의 이미지 특성 및 위치 중 적어도 하나를 갱신할 수 있다. 예를 들면, 사용자 입력에 따라 특정 카테고리 영역에 배치된 선택 이미지의 크기, 가로세로비, 화질, 위치 등을 갱신할 수 있다. 일 실시 예에서, 사용자 입력은 드래그 앤 드롭 입력, 휠 입력, 선택 입력 등을 포함할 수 있다.In step S820, the processor 110 may update at least one of the image characteristics and location of the selected image placed in the report editing area 310 according to the user input. For example, the size, aspect ratio, image quality, location, etc. of selected images placed in a specific category area can be updated according to user input. In one embodiment, user input may include drag and drop input, wheel input, selection input, etc.

도 9를 참조하면, 프로세서(110)는 레포트 편집 영역(310)에 배치된 복수개의 선택 이미지 중 어느 하나의 선택 이미지에 대한 위치 갱신을 요청하는 사용자 입력에 따라, 해당 카테고리 영역 내에서 선택 이미지의 위치를 갱신할 수 있다. 예를 들면, 레포트 편집 영역(310)과 함께 제공되는 패닝(panning) 메뉴에 대한 선택 입력, 선택 이미지에 대한 패닝 입력(예: 손가락을 터치 패드에 접촉시킨 후 손을 떼지 않고 계속적으로 드래그하는 입력) 또는 드래그 앤 드롭 입력에 따라, 선택 이미지 중 사용자가 원하는 위치의 일부 이미지만 레포트 편집 영역(310)에 적용되도록 제어할 수 있다. 이를 통해 각 카테고리 영역의 프레임 내에서 이미지 자르기 기능의 효과를 얻을 수 있다.Referring to FIG. 9, the processor 110 selects the selected image within the corresponding category area according to a user input requesting a position update for one of the plurality of selected images arranged in the report editing area 310. The location can be updated. For example, a selection input for a panning menu provided with the report editing area 310, a panning input for a selected image (e.g., an input where a finger is brought into contact with the touch pad and then continuously dragged without releasing the hand) ) Alternatively, depending on the drag and drop input, it can be controlled so that only some images at the user's desired location among the selected images are applied to the report editing area 310. Through this, you can achieve the effect of the image cropping function within the frame of each category area.

도 10을 참조하면, 프로세서(110)는 레포트 편집 영역(310)에 배치된 복수개의 선택 이미지 중 어느 하나의 선택 이미지에 대한 이미지 특성의 갱신을 요청하는 사용자 입력에 따라, 해당 카테고리 영역 내에서 선택 이미지의 크기, 가로세로비 등을 갱신할 수 있다. 예를 들면, 레포트 편집 영역(310)과 함께 제공되는 줌 인/아웃(zoom in/out) 메뉴에 대한 선택 입력, 선택 이미지에 대한 줌 인 또는 줌 아웃 입력(예: 이미지를 선택한 후 좌/우 또는 상/하 방향으로 드래그하는 입력, 마우스 휠 업 또는 휠 다운하는 입력)에 따라, 선택 이미지 중 사용자가 원하는 확대 또는 축소된 일부 이미지만 레포트 편집 영역(310)에 적용되도록 제어할 수 있다. 마찬가지로, 이를 통해 각 카테고리 영역의 프레임 내에서 이미지 자르기 기능의 효과를 얻을 수 있다.Referring to FIG. 10, the processor 110 selects within the corresponding category area according to a user input requesting an update of image characteristics for one of the plurality of selected images arranged in the report editing area 310. You can update the image size, aspect ratio, etc. For example, selection input for the zoom in/out menu provided with the report editing area 310, zoom in or zoom out input for the selected image (e.g., left/right after selecting the image) Alternatively, depending on the input of dragging in the up/down direction, or the input of mouse wheel up or wheel down), only some enlarged or reduced images desired by the user among the selected images can be controlled to be applied to the report editing area 310. Likewise, this allows you to achieve the effect of cropping images within the frame of each category area.

도 11을 참조하면, 프로세서(110)는 레포트 편집 영역(310)에 배치된 복수개의 선택 이미지 중 둘 이상의(또는 전체) 선택 이미지에 대한 이미지 특성의 갱신을 요청하는 사용자 입력에 따라, 각각의 카테고리 영역 내에서 각각의 선택 이미지의 크기, 가로세로비 등을 동시에 갱신할 수 있다. 일 실시 예에서, 단일 또는 복수개의 선택 이미지에 대한 선택 입력은 마우스 클릭과 같은 방식으로 수신될 수도 있고, 단일 선택 또는 전부 선택의 토글 방식 기반 선택 메뉴를 통해 수신될 수도 있다. 단일 선택의 경우 한 개의 이미지에 대해서만 위치, 이미지 특성의 갱신이 이루어지고, 전부 선택의 경우 레포트 편집 영역(310)에 배치된 모든 이미지에 대해서 동시 갱신이 이루어질 수 있다.Referring to FIG. 11, the processor 110 selects each category according to a user input requesting an update of image characteristics for two or more (or all) selected images among a plurality of selected images placed in the report editing area 310. The size, aspect ratio, etc. of each selected image within the area can be updated simultaneously. In one embodiment, a selection input for a single or multiple selection images may be received in a manner such as a mouse click, or may be received through a selection menu based on a toggle method of single selection or all selection. In the case of single selection, the location and image characteristics are updated for only one image, and in the case of all selection, all images placed in the report editing area 310 can be updated simultaneously.

단계 S830에서 프로세서(110)는 갱신된 이미지 특성 및 위치 중 적어도 하나에 기초하여 레포트 편집 영역(310)을 포함하는 레포트를 출력할 수 있다. 예를 들면, 프로세서(110)는 갱신된 이미지 특성, 위치 등을 적용하여 갱신된 레포트 편집 영역(310)을 포함하는 레포트를 생성하고, 도 12에 도시된 것처럼 파일명, 저장 경로 등에 대한 사용자 입력에 따라 레포트를 기 설정 포맷(예: pdf)으로 저장할 수 있다. 또한, 디스플레이(130)는 레포트 편집 영역(310)을 포함하는 레포트를 디스플레이할 수 있다. 예컨대, 레포트는 상술한 패닝 입력에 따라 도 9에 도시된 레포트 편집 영역(310)과 같은 형태로, 상술한 단일 선택의 줌 인 입력에 따라 도 10에 도시된 레포트 편집 영역(310)과 같은 형태로, 상술한 전부 선택의 줌 인 입력에 따라 도 11에 도시된 레포트 편집 영역(310)과 같은 형태로 출력될 수 있다. 다른 예로, 사용자의 입력에 따라, 특정 카테고리 영역 내에 포함된 복수의 이미지에 대해서 일괄적으로 줌인 또는 줌 아웃이 적용될 수 있다.In step S830, the processor 110 may output a report including the report editing area 310 based on at least one of updated image characteristics and location. For example, the processor 110 generates a report including the updated report editing area 310 by applying the updated image characteristics, location, etc., and responds to user input for the file name, storage path, etc., as shown in FIG. 12. Accordingly, the report can be saved in a preset format (e.g. PDF). Additionally, the display 130 can display a report including the report editing area 310. For example, the report has the same form as the report editing area 310 shown in FIG. 9 according to the panning input described above, and the report editing area 310 shown in FIG. 10 according to the zoom-in input of the single selection described above. According to the zoom-in input of the above-described all selection, the report can be output in the same form as the report editing area 310 shown in FIG. 11. As another example, depending on the user's input, zoom-in or zoom-out may be applied to a plurality of images included in a specific category area.

앞서 기술한 것처럼, 프로세서(110)는 CT 데이터로부터 구강에 대한 복수개의 이미지를 획득할 수 있다. 예를 들면, 복수개의 이미지를 획득하는 방법에 대해서는 상술한 단계 S210을 참조할 수 있다. As described above, the processor 110 may acquire a plurality of images of the oral cavity from CT data. For example, for a method of acquiring a plurality of images, refer to step S210 described above.

프로세서(110)는 여러 방식에 기초하여 복수개의 이미지를 획득할 수 있다. 예를 들면, 프로세서(110)는 셀렉티드 캡쳐 프로세스 또는 멀티 슬라이스 캡쳐 프로세스에 따라 복수개의 이미지를 획득할 수 있다.The processor 110 may acquire a plurality of images based on various methods. For example, the processor 110 may acquire a plurality of images according to a selected capture process or a multi-slice capture process.

제 1 실시 예에서, 프로세서(110)는 셀렉티드 캡쳐 프로세스에 따라, 기준 지점에 대해 뷰 포인트가 상이하고, 함께 제공되는 복수개의 그룹 이미지 중에서 어느 하나에 대한 셀렉티드 캡쳐 이미지를 포함하는 복수개의 이미지를 획득할 수 있다. 예를 들면, 기준 지점이 전치에 대응되는 위치인 경우에 대해 설명한다. 이 경우, 전치의 위치에 대응되는 4개의 이미지(관상면의 CT 단면 이미지, 시상면의 CT 단면 이미지, 수평면의 CT 단면 이미지 및 3D 이미지)가 복수개의 그룹 이미지로서 함께 디스플레이될 수 있다. 복수개의 그룹 이미지 중 관상면의 CT 단면 이미지에 대한 사용자 입력(예: 터치, 클릭 등)이 인가됨에 따라, 전치의 위치에 대응하는 관상면의 CT 단면 이미지가 셀렉티드 캡쳐 이미지로서 저장될 수 있다.In the first embodiment, according to the selected capture process, the processor 110 generates a plurality of images having different viewpoints with respect to a reference point and including a selected capture image for one of a plurality of group images provided together. can be obtained. For example, a case where the reference point is a position corresponding to the transpose will be described. In this case, four images (CT cross-sectional image in the coronal plane, CT cross-sectional image in the sagittal plane, CT cross-sectional image in the horizontal plane, and 3D image) corresponding to the position of the anterior teeth can be displayed together as a plurality of group images. As a user input (e.g., touch, click, etc.) is applied to the coronal CT cross-sectional image among the plurality of group images, the coronal CT cross-sectional image corresponding to the position of the anterior teeth may be saved as a selected capture image. .

제 2 실시 예에서, 프로세서(110)는 멀티 슬라이스 캡쳐 프로세스에 따라, 기 설정 인터벌에 따른 제 1 지점과 제 2 지점 간의 순차적인 단면 이미지 중 어느 하나에 대한 멀티 슬라이스 캡쳐 이미지를 포함하는 복수개의 이미지를 획득할 수 있다. 예를 들면 사용자 입력에 따라 인터벌이 0.5mm로 결정되고, 제 1 지점이 수평면 CT 단면 이미지 상에서 송곳니에 대응되는 라인으로 결정되고, 제 2 지점이 수평면 CT 단면 이미지 상에서 제 1 구치에 대응되는 라인으로 결정된 경우, 프로세서(110)는 송곳니에 대응되는 라인으로부터 제 1 구치에 대응되는 라인 사이의 관상면 CT 단면 이미지를 0.5mm 간격으로 획득할 수 있다. 멀티 슬라이스 캡쳐 프로세스는 후술하는 도 20 내지 도 22 등에서 보다 상세히 설명한다.In a second embodiment, the processor 110 generates a plurality of images including a multi-slice capture image for any one of sequential cross-sectional images between a first point and a second point according to a preset interval according to a multi-slice capture process. can be obtained. For example, the interval is determined to be 0.5mm according to the user input, the first point is determined to be the line corresponding to the canine on the horizontal CT cross-sectional image, and the second point is determined to be the line corresponding to the first molar on the horizontal CT cross-sectional image. If determined, the processor 110 may acquire coronal CT cross-sectional images at intervals of 0.5 mm between the line corresponding to the canine tooth and the line corresponding to the first molar. The multi-slice capture process will be described in more detail in FIGS. 20 to 22, etc., described later.

프로세서(110)는 캡쳐 방식을 선택하는 사용자 입력에 따라 셀렉티드 캡쳐 프로세스 또는 멀티 슬라이스 캡쳐 프로세스를 선택적으로 수행할 수 있다.The processor 110 may selectively perform a selected capture process or a multi-slice capture process according to a user input for selecting a capture method.

이하, 도 13 내지 도 25를 참조하여 제 1 및 제 2 실시 예에 대해 보다 상세하게 서술하도록 한다.Hereinafter, the first and second embodiments will be described in more detail with reference to FIGS. 13 to 25.

도 13은 제 1 실시 예에 따른 디바이스(100)가 셀렉티드 캡쳐 프로세스에 따라 셀렉티드 캡쳐 이미지를 포함하는 구강에 대한 복수개의 이미지를 획득하는 방법을 나타낸다. 도 14 내지 도 15는 제 1 실시 예에 따른 디바이스(100)가 셀렉티드 캡쳐를 위한 제 1 캡쳐 인터페이스(1400)를 제공하는 동작을 설명하기 위한 도면이다.FIG. 13 illustrates a method by which the device 100 according to the first embodiment acquires a plurality of images of the oral cavity including a selected capture image according to a selected capture process. Figures 14 and 15 are diagrams for explaining an operation of the device 100 providing the first capture interface 1400 for selected capture according to the first embodiment.

도 13을 참조하면, 단계 S1310에서 프로세서(110)는 기준 지점에 대해 뷰 포인트가 상이한 복수개의 그룹 이미지를 획득할 수 있다. 일 실시 예에서, 프로세서(110)는 하나의 CT 데이터를 이용하여 기준 지점을 서로 다른 뷰 포인트에서 나타낸 복수개의 그룹 이미지를 획득할 수 있다. 여기에서, 기준 지점은 구강 또는 치아를 나타내고, 예컨대, 진단 및 치료 계획이 요구되는 특정 치아(예: 환자의 수술 예정 치아) 또는 기준 치아(예: 전치부) 상의 소정의 특징점에 해당할 수 있다.Referring to FIG. 13, in step S1310, the processor 110 may acquire a plurality of group images with different view points with respect to the reference point. In one embodiment, the processor 110 may use one CT data to acquire a plurality of group images showing the reference point from different viewpoints. Here, the reference point represents the oral cavity or a tooth, and may correspond to, for example, a specific tooth for which diagnosis and treatment plan is required (e.g., a patient's tooth scheduled for surgery) or a predetermined feature point on a reference tooth (e.g., anterior tooth).

도 14를 참조하면, 프로세서(110)는 셀렉티드 캡쳐를 위한 제 1 캡쳐 인터페이스(1400)를 제공할 수 있다. 일 실시 예에서, 제 1 캡쳐 인터페이스(1400)는 관상면의 이미지 캡쳐를 위한 제 1 캡쳐 영역(1410), 시상면의 이미지 캡쳐를 위한 제 2 캡쳐 영역(1420), 수평면의 이미지 캡쳐를 위한 제 3 캡쳐 영역(1430) 및 3D의 이미지 캡쳐를 위한 제 4 캡쳐 영역(1440)을 포함할 수 있다.Referring to FIG. 14, the processor 110 may provide a first capture interface 1400 for selected capture. In one embodiment, the first capture interface 1400 includes a first capture area 1410 for capturing images in the coronal plane, a second capture area 1420 for capturing images in the sagittal plane, and a second capture area 1420 for capturing images in the horizontal plane. It may include three capture areas 1430 and a fourth capture area 1440 for 3D image capture.

도 15를 참조하면, 프로세서(110)는 CT 데이터로부터 기준 지점이 포함된 관상면 이미지를 생성하고, 생성된 관상면 이미지를 제 1 그룹 이미지로서 제 1 캡쳐 영역(1410)에 제공할 수 있다. 프로세서(110)는 기준 지점이 포함되도록 CT 데이터를 시상면에 대응되는 단면 이미지를, 시상면의 뷰 포인트를 갖는 제 2 그룹 이미지로서 제 2 캡쳐 영역(1420)에 제공할 수 있다. 프로세서(110)는 기준 지점이 포함되도록 CT 데이터를 수평면에 대응되는 단면 이미지를, 수평면의 뷰 포인트를 갖는 제 3 그룹 이미지로서 제 3 캡쳐 영역(1430)에 제공할 수 있다. 프로세서(110)는 기준 지점이 포함되도록 CT 데이터를 3D로 재구성하고, 3D로 재구성된 구강의 전면 뷰 렌더링 이미지를 제 4 그룹 이미지로서 제 4 캡쳐 영역(1440)에 제공할 수 있다.Referring to FIG. 15 , the processor 110 may generate a coronal image including a reference point from CT data and provide the generated coronal image as a first group image to the first capture area 1410. The processor 110 may provide a cross-sectional image corresponding to the sagittal plane of the CT data to include a reference point as a second group image having a view point of the sagittal plane to the second capture area 1420. The processor 110 may provide a cross-sectional image corresponding to the horizontal plane of the CT data to include a reference point as a third group image having a view point of the horizontal plane to the third capture area 1430. The processor 110 may reconstruct the CT data in 3D to include a reference point, and provide a 3D reconstructed front view rendering image of the oral cavity as a fourth group image to the fourth capture area 1440.

일 실시 예에서, 제 1 그룹 이미지 내지 제 4 그룹 이미지는 기준 지점이 각 캡쳐 영역의 중심에 위치하도록 제 1 캡쳐 영역(1410) 내지 제 4 캡쳐 영역(1440)에 디스플레이 될 수 있다. 일 실시 예에서, 제 1 캡쳐 영역(1410) 내지 제 4 캡쳐 영역(1440) 각각에는 각각의 뷰 포인트에 대한 정보(예: 명칭)가 중첩하여 디스플레이 될 수 있다.In one embodiment, the first to fourth group images may be displayed in the first to fourth capture areas 1410 to 1440 so that the reference point is located at the center of each capture area. In one embodiment, information (e.g., name) about each view point may be displayed in an overlapping manner in each of the first to fourth capture areas 1410 to 1440.

단계 S1320에서 프로세서(110)는 사용자 입력(예: 휠 입력 등)에 기초하여 기준 지점을 갱신할 수 있다. 일 실시 예에서, 프로세서(110)는 복수개의 그룹 이미지 중 어느 하나에 대한 휠 입력에 기초하여 복수개의 그룹 이미지에 적용된 기준 지점의 위치를 뷰 포인트에 대응하는 방향으로 기 설정 값만큼 이동시킬 수 있다. 또한, 프로세서(110)는 기준 지점이 갱신됨에 따라 복수개의 뷰 포인트에 대응하는 CT 데이터로부터 단면 이미지를 획득하여 복수개의 그룹 이미지를 갱신할 수 있다. 예컨대, 어느 하나의 그룹 이미지에서 기준 지점이 갱신되는 경우, 갱신된 지점에 대응하도록 모든 그룹 이미지가 갱신될 수 있다.In step S1320, the processor 110 may update the reference point based on user input (eg, wheel input, etc.). In one embodiment, the processor 110 may move the position of the reference point applied to the plurality of group images by a preset value in the direction corresponding to the view point based on the wheel input for one of the plurality of group images. . Additionally, as the reference point is updated, the processor 110 may acquire a cross-sectional image from CT data corresponding to a plurality of view points and update a plurality of group images. For example, when a reference point is updated in one group image, all group images may be updated to correspond to the updated point.

일 실시 예에서, 그룹 이미지 내 특정 위치 좌표 상에서 휠 업 입력(또는 휠 다운 입력)이 수신되는 경우, 프로세서(110)는 해당 위치 좌표에 따라 기준 지점을 갱신하고 갱신된 기준 지점에 대응하도록 해당 위치 좌표에 대한 그룹 이미지를 갱신할 수 있다. 또한, 나머지 그룹 이미지들은 각각의 캡쳐 영역 내에서 갱신된 기준 지점에 대응하도록 갱신될 수 있다.In one embodiment, when a wheel up input (or wheel down input) is received on a specific location coordinate within a group image, the processor 110 updates the reference point according to the location coordinate and determines the location to correspond to the updated reference point. You can update the group image for coordinates. Additionally, the remaining group images may be updated to correspond to the updated reference point within each capture area.

일 실시 예에서, 프로세서(110)는 드래그 앤 드롭 입력에 기초하여 그룹 이미지에 대한 각도 또는 위치를 갱신할 수 있다. 예를 들면, 프로세서(110)는 그룹 이미지에 대한 드래그 앤 드롭 입력에 따라 3D의 제 4 그룹 이미지에 대한 뷰 포인트의 각도를 전면에서 측면으로 갱신하거나, 제 4 캡쳐 영역(1440) 내에서 제 4 그룹 이미지의 위치 등을 갱신할 수 있다.In one embodiment, processor 110 may update the angle or position for the group image based on drag and drop input. For example, the processor 110 updates the angle of the view point for the fourth group image in 3D from front to side according to the drag and drop input for the group image, or updates the angle of the view point from the front to the side within the fourth capture area 1440. The position of the group image can be updated.

이와 같이, 프로세서(110)는 CT 데이터에 대한 서로 다른 관점에서 획득된 이미지들을 서로 싱크를 맞추어 CT 이미지 뷰어의 형태로 제공할 수 있으며, 단면에 대한 각도, 단면의 위치 등도 조절할 수 있다.In this way, the processor 110 can synchronize images acquired from different viewpoints of CT data and provide them in the form of a CT image viewer, and can also adjust the angle of the cross section and the position of the cross section.

단계 S1330에서 프로세서(110)는 사용자 입력에 기초하여 복수개의 그룹 이미지 중에서 어느 하나에 대한 셀렉티드 캡쳐 이미지를 획득할 수 있다. 일 실시 예에서, 프로세서(110)는 복수개의 그룹 이미지 중에서 어느 하나에 대한 캡쳐를 요청하는 사용자 입력이 수신되는 경우, 해당 그룹 이미지를 셀렉티드 캡쳐 이미지로서 저장할 수 있다. 일 실시 예에서, 사용자 입력은 그룹 이미지에 대한 선택 입력, 그룹 이미지에 대한 단일 선택 입력, 연속적인 선택 입력 등을 포함할 수 있다. 예컨대, 제 1 캡쳐 영역(1410)에 대한 선택 입력을 통해 관상면의 제 1 그룹 이미지가 셀릭티드 캡쳐 이미지로서 획득될 수 있다.In step S1330, the processor 110 may obtain a selected capture image for one of a plurality of group images based on a user input. In one embodiment, when a user input requesting capture of one of a plurality of group images is received, the processor 110 may store the corresponding group image as a selected capture image. In one embodiment, the user input may include a selection input for a group image, a single selection input for a group image, a continuous selection input, etc. For example, the first group image of the coronal plane may be acquired as a selected capture image through a selection input to the first capture area 1410.

단계 S1340에서 프로세서(110)는 셀렉티드 캡쳐 이미지가 획득될 때 셀렉티드 캡쳐 이미지에 대응되는 영역(1510)에 플래쉬 효과를 제공할 수 있다. 예를 들면, 도 16에 도시된 것처럼, 제 1 캡쳐 영역(1410)에 디스플레이된 제 1 그룹 이미지가 셀릭티드 캡쳐 이미지로서 획득될 때, 셀렉티드 캡쳐 이미지에 대응되는 영역(1510)에 해당하는 제 1 캡쳐 영역(1410)에 플래쉬가 터지는 이미지 효과가 제공되면서 해당 그룹 이미지가 캡쳐 될 수 있다. 일 실시 예에서, 플래쉬 효과는 해당 영역을 시각적으로 강조하기 위한 다양한 패턴의 이미지 효과를 포함할 수 있다.In step S1340, the processor 110 may provide a flash effect to the area 1510 corresponding to the selected capture image when the selected capture image is acquired. For example, as shown in FIG. 16, when the first group image displayed in the first capture area 1410 is acquired as a selected capture image, the first group image corresponding to the area 1510 corresponding to the selected capture image 1 The group image can be captured while an image effect of a flash is provided in the capture area 1410. In one embodiment, the flash effect may include various patterns of image effects to visually emphasize the corresponding area.

도 17은 제 1 실시 예에 따라 획득된 셀렉티드 캡쳐 이미지를 예시하는 도면이다. 상술한 것처럼, 사용자는 휠 입력을 통해 원하는 지점에서 뷰 포인트를 갖도록 그룹 이미지를 조절할 수 있고, 원하는 이미지 부분에서 클릭하는 방식으로 이미지를 간편하게 캡쳐 할 수 있으며, 플래쉬 효과를 통해 화면 상의 어떤 영역에서 캡쳐가 수행되었는지 직관적으로 인식할 수 있는 이점이 있다.Figure 17 is a diagram illustrating a selected capture image acquired according to the first embodiment. As mentioned above, users can adjust group images to have a view point at a desired point through wheel input, easily capture images by clicking on the desired part of the image, and capture images from any area on the screen through a flash effect. There is an advantage in being able to intuitively recognize whether has been performed.

일 실시 예에서, 프로세서(110)는 셀렉티드 캡쳐 이미지를 해당 뷰 포인트와 함께 저장 및 관리할 수 있다. 예컨대, 프로세서(110)는 각각의 셀렉티드 캡쳐 이미지가 획득될 때 적용된 뷰 포인트에 따라 각각의 셀렉티드 캡쳐 이미지의 카테고리를 결정할 수 있고, 상술한 것처럼 레포트를 제공하는 과정에서 카테고리별로 셀렉티드 캡쳐 이미지들을 제공할 수 있다. 이에 따라, 상술한 것처럼, 카테고리에 대한 마우스 오버 입력에 따라 썸네일 영역(320)에 해당 카테고리에 대응되는 대응 이미지들만을 정렬하는 기능, 캡쳐 순서에 따라 정렬하는 기능 등을 제공할 수 있다.In one embodiment, the processor 110 may store and manage the selected captured image along with the corresponding view point. For example, the processor 110 may determine the category of each selected captured image according to the view point applied when each selected captured image is acquired, and select captured images by category in the process of providing a report as described above. can provide them. Accordingly, as described above, a function of sorting only corresponding images corresponding to the category in the thumbnail area 320 according to a mouse over input for a category, a function of sorting according to capture order, etc. can be provided.

수신부(120)는 셀렉티드 캡쳐 이미지가 획득되었음을 나타내는 메시지를 수신할 수 있고, 프로세서(110)는 셀렉티드 캡쳐 이미지를 포함하는 복수개의 이미지를 이용하여 상술한 도 2에서의 단계 S210 내지 S250을 수행할 수 있다.The receiver 120 may receive a message indicating that the selected capture image has been acquired, and the processor 110 performs steps S210 to S250 in FIG. 2 using a plurality of images including the selected capture image. can do.

도 18은 제 2 실시 예에 따른 디바이스(100)가 멀티 슬라이스 캡쳐 프로세스에 따라 멀티 슬라이스 캡쳐 이미지를 포함하는 구강에 대한 복수개의 이미지를 획득하는 방법을 나타낸다. 도 19 내지 도 20은 제 2 실시 예에 따른 디바이스(100)가 멀티 슬라이스 캡쳐를 위한 제 2 캡쳐 인터페이스(2000)를 제공하는 동작을 설명하기 위한 도면이다.FIG. 18 shows a method by which the device 100 according to the second embodiment acquires a plurality of images of the oral cavity including multi-slice capture images according to a multi-slice capture process. 19 to 20 are diagrams for explaining an operation of the device 100 providing a second capture interface 2000 for multi-slice capture according to the second embodiment.

도 18 내지 도 20을 참조하면, 프로세서(110)는 멀티 슬라이스 캡쳐를 위한 제 2 캡쳐 인터페이스(2000)를 제공할 수 있다. 보다 구체적으로, 디스플레이(130)는 CT 데이터를 디스플레이하고, 수신부(120)는 CT 데이터에 대한 멀티 슬라이스 캡쳐 프로세스의 진행을 요청하는 사용자 입력을 수신할 수 있다. 예를 들면, 디스플레이(130)는 도 19에 도시된 것처럼, CT 데이터를 사용자 입력에 따른 뷰 포인트(예: 시상면)에서 디스플레이 할 수 있다. 또한, 수신부(120)는 CT 데이터와 함께 제공되는 멀티 슬라이스 캡쳐 메뉴에 대한 선택 입력 및 CT 데이터에 대한 마우스 오버 입력을 수신할 수 있고, 디스플레이(130)는 마우스 오버 입력에 따라 CT 데이터 상에 캡쳐 버튼(1910)을 디스플레이 할 수 있다. 프로세서(110)는 캡쳐 버튼(1910)에 대한 선택 입력이 수신되는 경우, 도 19에 도시된 것처럼, 멀티 슬라이스 캡쳐를 위한 제 2 캡쳐 인터페이스(2000)를 제공할 수 있으며, 제 2 캡쳐 인터페이스(2000)에 기초하여 멀티 슬라이스 캡쳐 프로세스를 수행할 수 있다.Referring to FIGS. 18 to 20 , the processor 110 may provide a second capture interface 2000 for multi-slice capture. More specifically, the display 130 displays CT data, and the receiver 120 may receive a user input requesting to proceed with a multi-slice capture process for CT data. For example, the display 130 may display CT data at a view point (eg, sagittal plane) according to user input, as shown in FIG. 19 . In addition, the receiver 120 can receive a selection input for a multi-slice capture menu provided with CT data and a mouse-over input for the CT data, and the display 130 captures the CT data according to the mouse-over input. A button 1910 can be displayed. When a selection input for the capture button 1910 is received, the processor 110 may provide a second capture interface 2000 for multi-slice capture, as shown in FIG. 19, and the second capture interface 2000 ) Based on this, a multi-slice capture process can be performed.

단계 S1810에서 프로세서(110)는 사용자 입력에 기초하여 멀티 슬라이스 캡쳐에 이용되는 제 1 지점(2010)과 제 2 지점(2020)을 결정할 수 있다. 여기에서, 제 1 지점(2010)은 CT 데이터에서 멀티 슬라이스 캡쳐가 시작되는 지점에 대응되고, 제 2 지점(2020)은 CT 데이터에서 멀티 슬라이스 캡쳐가 종료되는 지점에 대응될 수 있다. 일 실시 예에서, 수신부(120)는 제 2 캡쳐 인터페이스(2000)에 기초하여 CT 데이터 상의 특정 지점에 대한 사용자 입력을 수신하고, 프로세서(110)는 수신된 사용자 입력에 따라 제 1 지점(2010)과 제 2 지점(2020)을 결정할 수 있다.In step S1810, the processor 110 may determine the first point 2010 and the second point 2020 used for multi-slice capture based on the user input. Here, the first point 2010 may correspond to the point where multi-slice capture begins in the CT data, and the second point 2020 may correspond to the point where multi-slice capture ends in the CT data. In one embodiment, the receiver 120 receives a user input for a specific point on the CT data based on the second capture interface 2000, and the processor 110 selects the first point 2010 according to the received user input. and the second point (2020) can be determined.

일 실시 예에서, 제 2 캡쳐 인터페이스(2000)는 CT 데이터가 디스플레이되는 캡쳐 범위 설정 영역(2100) 및 멀티 슬라이스 캡쳐를 수행하였을 때의 멀티 슬라이스 캡쳐 이미지를 미리 보여주는 캡쳐 프리뷰 영역(2200)을 포함할 수 있다. 예를 들면, 디스플레이(130)는 캡쳐 범위 설정 영역(2100)에 시상면의 CT 데이터를 디스플레이하고, 프로세서(110)는 캡쳐 범위 설정 영역(2100) 내 두 지점에 대해 수신되는 순차적인 선택 입력에 따라 제 1 지점(2010)과 제 2 지점(2020)을 결정할 수 있다. 또한, 프로세서(110)는 CT 데이터로부터 제 1 지점(2010)과 제 2 지점(2020) 사이의 어느 한 지점에 따라 멀티 슬라이스 캡쳐를 수행하였을 때의 예상 멀티 슬라이스 캡쳐 이미지를 획득하고, 디스플레이(130)는 캡쳐 프리뷰 영역(2200)에 예상 멀티 슬라이스 캡쳐 이미지를 디스플레이 할 수 있다.In one embodiment, the second capture interface 2000 may include a capture range setting area 2100 where CT data is displayed and a capture preview area 2200 that previews a multi-slice capture image when performing multi-slice capture. You can. For example, the display 130 displays sagittal CT data in the capture range setting area 2100, and the processor 110 responds to sequential selection inputs received for two points within the capture range setting area 2100. Accordingly, the first point (2010) and the second point (2020) can be determined. In addition, the processor 110 obtains an expected multi-slice capture image when multi-slice capture is performed according to a point between the first point 2010 and the second point 2020 from the CT data, and displays the display 130 ) can display the expected multi-slice capture image in the capture preview area 2200.

일 실시 예에서, 캡쳐 범위 설정 영역(2100)은 기준 지점에 대응되는 관상면 이미지, 시상면 이미지 및 수평면 이미지 중 어느 하나일 수 있다. 캡쳐 범위 설정 영역(2100) 상에 인가되는 순차적인 선택 입력에 따라 멀티 슬라이스 캡쳐가 시작되는 지점에 대응되는 제 1 지점(2010) 및 멀티 슬라이스 캡쳐가 종료되는 지점에 대응되는 제 2 지점(2020)이 결정될 수 있다. 프로세서는 제 1 지점(2010)으로부터 제 2 지점(2020)의 방향으로 기 설정 인터벌에 따라 멀티 슬라이스 캡쳐 이미지를 획득할 수 있다. In one embodiment, the capture range setting area 2100 may be any one of a coronal image, a sagittal image, and a horizontal image corresponding to a reference point. A first point (2010) corresponding to the point where multi-slice capture starts and a second point (2020) corresponding to the point where multi-slice capture ends according to sequential selection inputs applied to the capture range setting area (2100). This can be decided. The processor may acquire a multi-slice capture image according to a preset interval in the direction from the first point 2010 to the second point 2020.

일 실시 예에서, 멀티 슬라이스 캡쳐에 따라 획득되는 멀티 슬라이스 캡쳐 이미지는 캡쳐 범위 설정 영역(2100)에 디스플레이되는 이미지와 직교할 수 있다. 구체적으로, 제 1 지점(2010) 또는 제 2 지점(2020)을 나타내는 라인에 대응되는 단면 이미지의 뷰 포인트와 멀티 슬라이스 캡쳐 이미지의 뷰 포인트가 대응될 수 있다. 예를 들면, 도 20에서 도시된 바와 같이, 캡쳐 범위 설정 영역(2100)에 시상면 이미지가 디스플레이되고 있는 경우 멀티 슬라이스 캡쳐 이미지는 수평면 이미지일 수 있다. 다른 예로 캡쳐 범위 설정 영역(2100)에 수평면 이미지가 디스플레이되고 있는 경우 멀티 슬라이스 캡쳐 이미지는 관상면 이미지일 수 있고, 캡쳐 범위 설정 영역(2100)에 관상면 이미지가 디스플레이되고 있는 경우 멀티 슬라이스 캡쳐 이미지는 수평면 이미지일 수 있으나 이에 제한되지 않는다.In one embodiment, the multi-slice capture image obtained according to multi-slice capture may be orthogonal to the image displayed in the capture range setting area 2100. Specifically, the view point of the cross-sectional image corresponding to the line indicating the first point 2010 or the second point 2020 may correspond to the view point of the multi-slice capture image. For example, as shown in FIG. 20, when a sagittal image is displayed in the capture range setting area 2100, the multi-slice captured image may be a horizontal image. As another example, if a horizontal image is displayed in the capture range setting area 2100, the multi-slice captured image may be a coronal image, and if a coronal image is displayed in the capture range setting area 2100, the multi-slice captured image may be a coronal image. It may be a horizontal image, but is not limited thereto.

일 실시 예에서 제 3 지점(2030)이 나타내는 단면 이미지가 캡쳐 프리뷰 영역(2200)에 디스플레이 될 수 있다. 제 3 지점(2030)은 사용자 입력에 기초하여 갱신될 수 있으며, 제 1 지점(2010) 및 제 2 지점(2020)의 사이에 위치할 수 있다.In one embodiment, a cross-sectional image indicated by the third point 2030 may be displayed in the capture preview area 2200. The third point 2030 may be updated based on user input and may be located between the first point 2010 and the second point 2020.

일 실시 예에서, 캡쳐 범위 설정 영역(2100)에서 디스플레이되는 이미지의 뷰 포인트와 캡쳐 프리뷰 영역(2200)에 디스플레이되는 이미지의 뷰 포인트는 서로 상이(예: 직교)할 수 있다. 또한, 프로세서(110)는 제 2 뷰 포인트에 따른 CT 데이터 상에서 수신되는 사용자 입력에 따라 제 1 지점(2010)과 제 2 지점(2020)을 결정할 수 있다. 예를 들면, 수평면의 CT 데이터를 멀티 슬라이스 캡쳐하고자 하는 경우, 캡쳐 범위 설정 영역(2100)에 시상면의 CT 데이터가 디스플레이 될 수 있다. 또한, 시상면의 CT 데이터 상의 두 지점이 선택됨에 따라 제 1 지점(2010)과 제 2 지점(2020)이 결정되고, 해당 지점을 포함하는 수평면 상의 단면을 나타내는 기준 라인으로서 캡쳐 범위 설정 영역(2100)에 표시될 수 있다.In one embodiment, the view point of the image displayed in the capture range setting area 2100 and the view point of the image displayed in the capture preview area 2200 may be different (eg, orthogonal) to each other. Additionally, the processor 110 may determine the first point 2010 and the second point 2020 according to a user input received on CT data according to the second view point. For example, when attempting to capture multi-slice CT data in the horizontal plane, CT data in the sagittal plane may be displayed in the capture range setting area 2100. In addition, as two points on the CT data of the sagittal plane are selected, the first point 2010 and the second point 2020 are determined, and the capture range setting area 2100 is used as a reference line indicating a cross section on the horizontal plane including the corresponding point. ) can be displayed.

일 실시 예에서, 프로세서(110)는 사용자 입력에 기초하여 제 1 지점(2010), 제 2 지점(2020), 기 설정 인터벌 및 순차적인 단면 이미지의 두께를 결정할 수 있다. 여기에서, 인터벌은 제 1 지점(2010)과 제 2 지점(2020) 사이에서 순차적인 단면 이미지를 획득하기 위한 기준 간격을 나타낸다. 또한, 이미지의 두께는 CT 데이터를 캡쳐할 때 적용되는 이미지 슬라이스의 두께로서, 예컨대, 이미지의 해상도에 반비례하고 인체 부위에 대한 검출 범위에 비례할 수 있다. 예컨대, 프로세서(110)는 도 20에 도시된 것처럼, 캡쳐 범위 설정 영역(2100)을 통해 수신되는 사용자 입력에 따라 제 1 지점(2010)과 제 2 지점(2020)을 결정하고, 캡쳐 프리뷰 영역(2200)을 통해 수신되는 사용자 입력에 기초하여 인터벌, 두께 및 이미지 슬라이스 중 적어도 하나를 결정할 수 있다. 또한, 디스플레이(130)는 결정된 인터벌(0.5)을 제 1 지점(2010)과 제 2 지점(2020)에 적용하여 이미지 슬라이스(예: 100장)를 결정하거나, 이미지 슬라이스를 제 1 지점(2010)과 제 2 지점(2020)에 적용하여 인터벌(0.5)을 결정하고, 결정된 정보를 캡쳐 프리뷰 영역(2200)에 디스플레이 할 수 있다.In one embodiment, the processor 110 may determine the first point 2010, the second point 2020, a preset interval, and the thickness of sequential cross-sectional images based on user input. Here, the interval represents a reference interval for acquiring sequential cross-sectional images between the first point 2010 and the second point 2020. Additionally, the thickness of the image is the thickness of the image slice applied when capturing CT data, and may be, for example, inversely proportional to the resolution of the image and proportional to the detection range for the human body part. For example, as shown in FIG. 20, the processor 110 determines the first point 2010 and the second point 2020 according to the user input received through the capture range setting area 2100, and creates a capture preview area ( At least one of the interval, thickness, and image slice may be determined based on the user input received through 2200). Additionally, the display 130 applies the determined interval (0.5) to the first point 2010 and the second point 2020 to determine image slices (e.g., 100 images), or divides the image slices into the first point 2010. The interval (0.5) can be determined by applying it to the second point 2020, and the determined information can be displayed in the capture preview area 2200.

단계 S1820에서 프로세서(110)는 기 설정 인터벌에 따른 제 1 지점(2010)과 제 2 지점(2020) 간의 순차적인 단면 이미지를 획득할 수 있다. 일 실시 예에서, 프로세서(110)는 제 1 지점(2010)과 제 2 지점(2020) 간을 기 설정 인터벌에 따른 간격으로 구분한 복수개의 지점을 결정하고, 복수개의 지점 각각에서 CT 데이터로부터 제 1 뷰 포인트에 따른 순차적인 단면 이미지를 획득할 수 있다. 예를 들면, 프로세서(110)는 기준 지점을 제 1 지점(2010)에서 기 설정 인터벌(예: N(자연수))의 간격으로 제 2 지점(2020)까지 하방(또는 상방)으로 이동시켜가며 CT 데이터로부터 수평면의 단면 이미지들을 순차적으로 획득할 수 있다. 다른 예를 들면, 사용자 입력에 따라 결정된 슬라이스 이미지의 개수가 100장, 인터벌이 0.5mm, 두께가 0mm인 경우, 시상면의 CT 데이터에서 50mm에 해당하는 부분을 인터벌이 0.5mm되도록 수평면의 CT 데이터로부터 100장의 순차적인 단면 이미지를 획득할 수 있다.In step S1820, the processor 110 may acquire sequential cross-sectional images between the first point 2010 and the second point 2020 according to a preset interval. In one embodiment, the processor 110 determines a plurality of points divided by an interval according to a preset interval between the first point 2010 and the second point 2020, and obtains data from CT data at each of the plurality of points. 1 Sequential cross-sectional images can be acquired according to the view point. For example, the processor 110 moves the reference point downward (or upward) from the first point 2010 to the second point 2020 at a preset interval (e.g., N (natural number)) while CT Cross-sectional images of the horizontal plane can be sequentially obtained from the data. For another example, if the number of slice images determined according to user input is 100, the interval is 0.5mm, and the thickness is 0mm, the portion corresponding to 50mm in the CT data in the sagittal plane is converted to CT data in the horizontal plane with an interval of 0.5mm. 100 sequential cross-sectional images can be obtained from.

일 실시 예에서, 디스플레이(130)는 제 1 지점(2010)과 제 2 지점(2020)의 중간 지점인 제 3 지점(2030)을 캡쳐 범위 설정 영역(2100)에 디스플레이하고, 제 1 지점(2010), 제 2 지점(2020) 및 제 3 지점(2030) 중 어느 하나에 따라 CT 데이터로부터 단면 이미지를 획득하여 캡쳐 프리뷰 영역(2200)에 제공할 수 있다.In one embodiment, the display 130 displays a third point 2030, which is a midpoint between the first point 2010 and the second point 2020, in the capture range setting area 2100, and the first point 2010 ), a cross-sectional image may be obtained from CT data according to any one of the second point 2020 and the third point 2030 and provided to the capture preview area 2200.

도 21 내지 도 22는 제 2 실시 예에 따른 디바이스(100)가 다양한 뷰 포인트에서 멀티 슬라이스 캡쳐를 위한 제 2 캡쳐 인터페이스(2000)를 제공하는 동작을 예시하는 도면이다.21 and 22 are diagrams illustrating an operation of the device 100 according to the second embodiment to provide a second capture interface 2000 for multi-slice capture from various view points.

도 21을 참조하면, 디스플레이(130)는 관상면에 따른 단면 이미지를 획득하기 위해, CT 데이터를 수평면에서 캡쳐 범위 설정 영역(2100)에 디스플레이하고, 프로세서(110)는 수평면의 CT 데이터에 대한 사용자 입력에 따라 제 1 지점(2010)과 제 2 지점(2020)을 결정할 수 있다. 프로세서(110)는 결정된 제 1 지점(2010)과 제 2 지점(2020) 사이에서 인터벌에 따라 CT 데이터로부터 관상면에서의 순차적인 단면 이미지를 획득할 수 있다.Referring to FIG. 21, the display 130 displays CT data in the capture range setting area 2100 in the horizontal plane in order to acquire a cross-sectional image along the coronal plane, and the processor 110 displays user information on the CT data in the horizontal plane. The first point (2010) and the second point (2020) can be determined according to the input. The processor 110 may acquire sequential cross-sectional images in the coronal plane from CT data according to an interval between the determined first point 2010 and the second point 2020.

도 22를 참조하면, 디스플레이(130)는 시상면에 따른 단면 이미지를 획득하기 위해, CT 데이터를 관상면에서 캡쳐 범위 설정 영역(2100)에 디스플레이하고, 프로세서(110)는 관상면의 CT 데이터에 대한 사용자 입력에 따라 제 1 지점(2010)과 제 2 지점(2020)을 결정할 수 있다. 마찬가지로, 프로세서(110)는 결정된 제 1 지점(2010)과 제 2 지점(2020) 사이에서 인터벌에 따라 CT 데이터로부터 시상면에서의 순차적인 단면 이미지를 획득할 수 있다.Referring to FIG. 22, the display 130 displays CT data in the capture range setting area 2100 in the coronal plane to acquire a cross-sectional image along the sagittal plane, and the processor 110 displays CT data in the coronal plane. The first point (2010) and the second point (2020) can be determined according to the user input. Likewise, the processor 110 may acquire sequential cross-sectional images in the sagittal plane from CT data according to an interval between the determined first point 2010 and the second point 2020.

단계 S1830에서 프로세서(110)는 휠 입력에 기초하여 순차적인 단면 이미지에 대응되는 지점을 갱신할 수 있다. 일 실시 예에서, 수신부(120)는 캡쳐 범위 설정 영역(2100)에서 특정 뷰 포인트에 따른 CT 데이터에 대한 휠 입력을 수신할 수 있다. 프로세서(110)는 휠 입력에 따라 CT 데이터에서 해당 뷰 포인트가 적용된 기준 지점을 상방, 하방, 우측 또는 좌측으로 갱신할 수 있고, 갱신된 지점에 따라 CT 데이터를 해당 뷰 포인트에서 제공하도록 캡쳐 범위 설정 영역(2100)을 갱신할 수 있다.In step S1830, the processor 110 may update the point corresponding to the sequential cross-sectional image based on the wheel input. In one embodiment, the receiver 120 may receive a wheel input for CT data according to a specific view point in the capture range setting area 2100. The processor 110 can update the reference point to which the corresponding view point is applied in the CT data upward, downward, right, or left according to the wheel input, and set the capture range to provide CT data at the corresponding view point according to the updated point. Area 2100 can be updated.

예컨대, 프로세서(110)는 캡쳐 범위 설정 영역(2100)에 디스플레이되는 시상면의 CT 데이터 상에서 휠을 돌리는 휠 업 입력 또는 휠 다운 입력이 수신된 경우, 시상면이 적용된 기준 지점을 기존 위치 대비 우측 또는 좌측으로 기 설정 거리만큼 이동시키고, 이동된 지점을 적용하여 갱신된 시상면의 CT 데이터를 캡쳐 범위 설정 영역(2100)에 제공할 수 있다. 또한, 프로세서(110)는 수평면에서 정해진 인터벌로 획득된 100장의 순차적인 단면 이미지들을 해당 지점에 따라 수평면에서 다시 획득할 수 있다. 이와 같이, 휠 입력에 따라 순차적인 단면 이미지들이 상호 연동하여 순차적으로 변환될 수 있다.For example, when the processor 110 receives a wheel up or wheel down input for turning a wheel on the CT data of the sagittal plane displayed in the capture range setting area 2100, the processor 110 selects the reference point to which the sagittal plane is applied to the right or left compared to the existing position. By moving the point to the left by a preset distance and applying the moved point, updated sagittal CT data can be provided to the capture range setting area 2100. Additionally, the processor 110 can re-acquire 100 sequential cross-sectional images acquired at predetermined intervals in the horizontal plane according to the corresponding points. In this way, sequential cross-sectional images can be sequentially converted in conjunction with each other according to wheel input.

단계 S1840에서 프로세서(110)는 사용자 입력에 기초하여 순차적인 단면 이미지 중 어느 하나에 대한 멀티 슬라이스 캡쳐 이미지를 획득할 수 있다. 예를 들면, 디스플레이(130)는 멀티 슬라이스 캡쳐를 요청하는 사용자 입력에 따라 획득되는 100장의 순차적인 단면 이미지를 디스플레이하고, 프로세서(110)는 100장의 순차적인 단면 이미지 중 하나 이상에 대한 선택 입력에 따라 해당 단면 이미지를 멀티 슬라이스 캡쳐 이미지로서 저장할 수 있다. 다른 예를 들면, 프로세서(110)는 100장의 순차적인 단면 이미지를 멀티 슬라이스 캡쳐 이미지로서 저장할 수 있다.In step S1840, the processor 110 may acquire a multi-slice capture image for any one of the sequential cross-sectional images based on the user input. For example, the display 130 displays 100 sequential cross-sectional images obtained according to a user input requesting multi-slice capture, and the processor 110 selects one or more of the 100 sequential cross-sectional images. Accordingly, the cross-sectional image can be saved as a multi-slice capture image. For another example, the processor 110 may store 100 sequential cross-sectional images as multi-slice capture images.

이와 같이, 프로세서(110)는 멀티 슬라이스 캡쳐 프로세스를 통해 사용자 입력에 따라 이미지 내 특정 구간에 대한 제 1 지점(2010)과 제 2 지점(2020)을 설정할 수 있고, 순차적인 단면 이미지에 대한 개수, 인터벌 및 두께를 설정할 수 있으며, 이를 적용하여 CT 데이터의 해당 특정 구간에 대해서 순차적인 단면 이미지들을 캡쳐 할 수 있다.In this way, the processor 110 can set the first point 2010 and the second point 2020 for a specific section in the image according to user input through a multi-slice capture process, and the number of sequential cross-sectional images, Interval and thickness can be set, and by applying this, sequential cross-sectional images can be captured for the specific section of CT data.

도 23은 일 실시 에에 따른 디바이스(100)가 멀티 슬라이스 캡쳐 이미지 중 사용자 주석 또는 측정 값에 대한 이미지를 획득하는 동작을 설명하기 위한 도면이다.FIG. 23 is a diagram illustrating an operation of the device 100 to acquire an image for a user annotation or measurement value from a multi-slice captured image according to an embodiment.

도 23을 참조하면, 프로세서(110)는 순차적인 단면 이미지에 대해서 기 저장된 정보를 활용하여 멀티 슬라이스 캡쳐 이미지를 획득하기 위한 캡쳐 메뉴(2300)를 제공할 수 있다. 일 실시 예에서, 프로세서(110)는 CT 데이터의 특정 위치에 해당 해부학적 위치에 대한 측정 값(measurement), 사용자 주석(annotation) 등을 의미하는 오버레이 텍스트(2500)가 추가되어 있는 경우, 순차적인 단면 이미지 중에서 오버레이 텍스트(2500)가 포함된 단면 이미지의 위치, 이름 및 기본 정보 등에 대한 정보를 제공할 수 있다.Referring to FIG. 23, the processor 110 may provide a capture menu 2300 for acquiring multi-slice capture images using pre-stored information about sequential cross-sectional images. In one embodiment, if overlay text 2500 indicating measurement, user annotation, etc. for the anatomical location is added to a specific location in the CT data, the processor 110 sequentially Among the cross-sectional images, information about the location, name, and basic information of the cross-sectional image including the overlay text 2500 can be provided.

일 실시 예에서, 프로세서(110)는 순차적인 단면 이미지 중 오버레이 텍스트(2500)가 있는 단면 이미지의 번호를 저장 및 관리할 수 있으며, 예컨대, 해당 번호에 따라 단면 이미지를 분류하여 제공할 수 있다. 사용자가 값이나 메모를 오버레이를 했다는 것은 해당 부분을 레포트에 포함하고자 하는 의도가 있을 수 있으므로, 오버레이가 있는 단면 이미지들만 시각적으로 구분하여 제공함으로써 사용자 편의성을 향상시킬 수 있다. 프로세서(110)는 해당 단면 이미지의 원본과 오버레이된 항목을 함께 제공할 수 있으며, 해당 오버레이된 항목을 별도로 저장하여 따로 제공할 수도 있다.In one embodiment, the processor 110 may store and manage the number of the cross-sectional image with the overlay text 2500 among sequential cross-sectional images, and, for example, classify and provide the cross-sectional images according to the number. Since the user's intention to overlay a value or memo may be to include that part in the report, user convenience can be improved by visually distinguishing and providing only cross-sectional images with overlays. The processor 110 may provide both the original and overlaid items of the cross-sectional image, and may also store the overlaid items separately and provide them separately.

예컨대, 도 23에 도시된 것처럼, 멀티 슬라이스 캡쳐에 따른 순차적인 단면 이미지 중 몇 번째 이미지인지, 화면 이름, 툴 이름, 정보의 순서로 해당 정보가 표시될 수 있다. 또한, 프로파일과 같이 많은 정보가 입력되는 화면의 경우, 평균 등과 같은 요약 정보만 표시될 수 있다. 또한, 프로세서(110)는 캡쳐 메뉴(2300)에서 2D 영역과 3D 영역의 색상이 다르게 구분 표시되도록 제어할 수 있고, 3D 툴의 경우 2D 툴보다 상단에 정렬되도록 메뉴에 표시되는 순서를 제어할 수 있다.For example, as shown in FIG. 23, the corresponding information may be displayed in the order of which image is the sequential cross-sectional image according to multi-slice capture, screen name, tool name, and information. Additionally, in the case of a screen where a lot of information is input, such as a profile, only summary information such as average may be displayed. Additionally, the processor 110 can control the capture menu 2300 so that the colors of the 2D area and the 3D area are displayed differently, and in the case of 3D tools, can control the order in which they are displayed in the menu so that they are arranged at the top of the 2D tools. there is.

이에 따라, 사용자는 오버레이가 있는 부분을 찾기 힘들 때, 멀티 슬라이스 캡쳐를 통해 제 1 지점(2010)과 제 2 지점(2020)의 범위를 크게 설정한 후, 캡쳐 메뉴(2300)에서 오버레이가 있는 부분만을 선택하여 확인한 후 레포트 작성 시 선택적으로 포함시킬 수 있다. Accordingly, when it is difficult to find the part with the overlay, the user sets the range of the first point (2010) and the second point (2020) to be large through multi-slice capture, and then selects the part with the overlay in the capture menu 2300. After confirming by selecting only, you can optionally include it when writing a report.

일 실시 예에서, 프로세서(110)는 캡쳐 메뉴(2300)에 표시되는 정보들을 치아(tooth), 뼈(bone) 등의 탭 별로 영역을 구분하여 제공할 수 있다. 이에 따라, 사용자는 탭별 구분을 직관적으로 인지할 수 있다.In one embodiment, the processor 110 may provide information displayed on the capture menu 2300 by dividing areas into tabs such as teeth and bones. Accordingly, the user can intuitively recognize the division by tab.

일 실시 예에서, 디스플레이(130)는 순차적인 단면 이미지 중 캡쳐 메뉴(2300)를 통해 선택된 항목에 대응되는 단면 이미지를 프리뷰 영역(2400)에 디스플레이할 수 있다. 일 실시 예에서, 디스플레이(130)는 캡쳐 메뉴(2300)에서 사용자 입력에 따라 선택된 항목을 시각적으로 구별하여 표시할 수 있고, 예컨대, 사용자 선택에 따라 프리뷰 영역(2400)로 제공되고 있는 항목을 다른 색상으로 표시할 수 있다.In one embodiment, the display 130 may display a cross-sectional image corresponding to an item selected through the capture menu 2300 among sequential cross-sectional images in the preview area 2400. In one embodiment, the display 130 may visually distinguish and display items selected according to user input in the capture menu 2300. For example, the item provided in the preview area 2400 according to the user selection may be displayed as another item. It can be displayed in color.

일 실시 예에서, 프로세서(110)는 오버레이 캡쳐를 위한 사용자 입력이 수신되는 경우, 이미지 내에서 오버레이된 오버레이 텍스트(2500)를 포함하는 단면 이미지를 획득할 수 있다. 예를 들면, 수신부(120)는 도 20에 도시된 것처럼, 캡쳐 프리뷰 영역(2200)을 통해 제공되는 오버레이 캡쳐 항목(2210)에 대한 선택 입력을 수신할 수 있고, 프로세서(110)는 도 23에 도시된 것처럼, 캡쳐 범위 설정 영역(2100) 상에 오버레이되는 측정 값, 메모, 기호 등에 대한 오버레이 텍스트(2500)를 포함하는 단면 이미지를 멀티 슬라이스 캡쳐 이미지로서 저장할 수 있다. 프로세서(110)는 오버레이 캡쳐 기능이 활성화됨에 따라 오버레이 텍스트(2500)를 포함하는 단면 이미지를 획득할 수 있다. 오버레이 캡쳐 기능은 오버레이 캡쳐 항목(2210)에 대한 선택 입력이 획득됨에 따라 활성화될 수 있다.In one embodiment, when a user input for overlay capture is received, the processor 110 may obtain a cross-sectional image including overlay text 2500 overlaid within the image. For example, as shown in FIG. 20, the receiver 120 may receive a selection input for the overlay capture item 2210 provided through the capture preview area 2200, and the processor 110 may receive a selection input for the overlay capture item 2210 as shown in FIG. 23. As shown, a cross-sectional image including overlay text 2500 for measurement values, notes, symbols, etc. overlaid on the capture range setting area 2100 can be saved as a multi-slice capture image. The processor 110 may acquire a cross-sectional image including the overlay text 2500 as the overlay capture function is activated. The overlay capture function may be activated as a selection input for the overlay capture item 2210 is obtained.

프로세서(110)는 순차적인 단면 이미지 중 프리뷰 영역(2400)에 제공되는 단면 이미지에 대한 캡쳐 요청이 수신됨에 따라, 해당 단면 이미지를 멀티 슬라이스 캡쳐 이미지로서 저장할 수 있다. 예컨대, 100장의 순차적인 단면 이미지가 멀티 슬라이스 캡쳐 된 후, 이들 중 6장을 선택하는 사용자 입력에 따라 해당 6장의 멀티 슬라이스 캡쳐 이미지가 획득될 수 있다.As a capture request for a cross-sectional image provided to the preview area 2400 among sequential cross-sectional images is received, the processor 110 may store the corresponding cross-sectional image as a multi-slice capture image. For example, after 100 sequential cross-sectional images are multi-slice captured, the 6 multi-slice captured images may be obtained according to a user input to select 6 of them.

도 24는 제 2 실시 예에 따른 디바이스(100)가 멀티 슬라이스 캡쳐 프로세스에 따라 레포트를 제공하는 방법을 나타내는 흐름도이다. 도 25는 제 2 실시 예에 따른 디바이스(100)가 제 2 사용자 입력에 따라 결정되는 선택 이미지를 레포트 편집 영역(310)에 추가하는 동작을 설명하기 위한 도면이다.FIG. 24 is a flowchart showing a method by which the device 100 provides a report according to a multi-slice capture process according to the second embodiment. FIG. 25 is a diagram illustrating an operation of the device 100 according to the second embodiment of adding a selected image determined according to a second user input to the report editing area 310.

도 24 내지 도 25를 참조하면, 단계 S2410에서 수신부(120)는 멀티 슬라이스 캡쳐 이미지가 획득되었음을 나타내는 메시지를 수신할 수 있다. 예컨대, 상술한 멀티 슬라이스 캡쳐 프로세스에 따라 복수개의 멀티 슬라이스 캡쳐 이미지의 획득이 완료되었음을 나타내는 메시지가 출력될 수 있고, 수신부(120)가 해당 메시지를 수신함에 따라 이후 단계가 진행될 수 있다.Referring to FIGS. 24 and 25 , in step S2410, the receiver 120 may receive a message indicating that a multi-slice capture image has been obtained. For example, a message indicating that acquisition of a plurality of multi-slice capture images has been completed may be output according to the multi-slice capture process described above, and subsequent steps may proceed as the receiver 120 receives the message.

단계 S2420에서 프로세서(110)는 복수개의 멀티 슬라이스 캡쳐 이미지 중에서 제 2 사용자 입력에 따라 결정되는 선택 이미지를 레포트 편집 영역(310)에 추가할 수 있다. 예컨대, 멀티 슬라이스 캡쳐 이미지가 획득된 경우, 단계 S220 내지 S230은 생략될 수 있고, 단계 S230의 일 실시 예로서 단계 S2420이 수행될 수 있다.In step S2420, the processor 110 may add a selected image determined according to the second user input from among the plurality of multi-slice captured images to the report editing area 310. For example, when a multi-slice capture image is acquired, steps S220 to S230 may be omitted, and step S2420 may be performed as an example of step S230.

일 실시 예에서, 프로세서(110)는 멀티 슬라이스 캡쳐 이미지를 기반으로 레포트를 획득하기 위한 레포트 편집 영역(310) 및 썸네일 영역(320)을 제공할 수 있다. 레포트 편집 영역(310)은 멀티 슬라이스 캡쳐 이미지를 하나 이상 추가하기 위한 인터페이스인 섹션 영역(315)을 포함할 수 있다. 디스플레이(130)는 복수개의 멀티 슬라이스 캡쳐 이미지를 썸네일 영역(320)에 디스플레이하고, 수신부(120)는 복수개의 멀티 슬라이스 캡쳐 이미지 중 하나 이상을 선택하는 제 2 사용자 입력을 수신할 수 있다. 프로세서(110)는 복수개의 멀티 슬라이스 캡쳐 이미지 중 제 2 사용자 입력에 따라 선택된 이미지에 해당하는 선택 이미지를 섹션 영역(315)에 추가할 수 있다.In one embodiment, the processor 110 may provide a report editing area 310 and a thumbnail area 320 for obtaining a report based on a multi-slice captured image. The report editing area 310 may include a section area 315 that is an interface for adding one or more multi-slice captured images. The display 130 displays a plurality of multi-slice captured images in the thumbnail area 320, and the receiver 120 may receive a second user input for selecting one or more of the plurality of multi-slice captured images. The processor 110 may add a selected image corresponding to the image selected according to the second user input among the plurality of multi-slice captured images to the section area 315.

일 실시 예에서, 제 2 사용자 입력은 드래그 앤 드롭 입력을 포함할 수 있다. 예컨대, 복수개의 멀티 슬라이스 캡쳐 이미지 중 여러 개를 드래그 앤 드롭 입력에 따라 섹션 영역(315)에 순차적으로 배치할 수 있다. 또한, 셀렉티드 캡쳐의 실시 예에서 상술한 것과 마찬가지로, 섹션 영역(315)에 추가된 이미지들도 상술한 패닝 또는 줌 인/아웃을 통하여 자르기 기능을 제공할 수 있다.In one embodiment, the second user input may include a drag and drop input. For example, several of a plurality of multi-slice captured images can be sequentially placed in the section area 315 according to a drag and drop input. Additionally, as described above in the selected capture embodiment, images added to the section area 315 may also provide a cropping function through panning or zooming in/out as described above.

단계 S2430에서 프로세서(110)는 선택 이미지의 개수에 기초하여 레포트 형식을 결정할 수 있고, 단계 S2440에서 결정된 레포트 형식에 따라 레포트를 제공할 수 있다. 일 실시 예에서, 프로세서(110)는 기 저장된 기준 레포트 형식 중 섹션 영역(315)에 추가된 선택 이미지의 개수에 대응되는 레포트 형식을 결정할 수 있다. 앞서 도 6 내지 도 7을 참조하여 예시한 것처럼, 선택 이미지의 개수가 9개인 경우 레포트 형식은 (3 x 3)이고, 6개인 경우 (3 x 2)일 수 있다.In step S2430, the processor 110 may determine a report format based on the number of selected images and provide a report according to the report format determined in step S2440. In one embodiment, the processor 110 may determine a report format corresponding to the number of selected images added to the section area 315 among pre-stored standard report formats. As previously exemplified with reference to FIGS. 6 and 7, if the number of selected images is 9, the report format may be (3 x 3), and if there are 6, the report format may be (3 x 2).

일 실시 예에서, 선택 이미지의 개수가 2~4개인 경우, 레포트 형식은 (2 x 2) 레이아웃에 대응하고, 5~6개인 경우, (2 x 3) 레이아웃에 대응하고, 7~9개인 경우, (3 x 3) 레이아웃에 대응하고, 10~16개인 경우, (4 x 4) 레이아웃에 대응하고, 17~25개인 경우, (5 x 5) 레이아웃에 대응하고, 26~36개인 경우, (6 x 6) 레이아웃에 대응할 수 있다. In one embodiment, when the number of selected images is 2 to 4, the report format corresponds to a (2 x 2) layout, when the number of selected images is 5 to 6, it corresponds to a (2 x 3) layout, and when the number is 7 to 9 , (3 x 3) corresponds to a layout of 10 to 16, corresponds to a (4 x 4) layout, corresponds to a (4 It can support 6 x 6) layout.

이와 같이, 사용자는 멀티 슬라이스 캡쳐를 통해 여러 장을 순차적으로 캡쳐한 후 드래그 앤 드롭 방식으로 원하는 이미지를 레포트에 간편하게 추가할 수 있으며, 추가된 이미지의 개수에 따라 적절한 레포트 형식이 결정되어 사용자 편의성을 향상시킬 수 있다.In this way, users can capture multiple images sequentially through multi-slice capture and then easily add desired images to the report by dragging and dropping. The appropriate report format is determined depending on the number of added images, improving user convenience. It can be improved.

일 실시 예에 따른 프로세서(110)는 복수개의 이미지를 이용하여 레포트를 제공하는 일련의 동작들을 수행할 수 있고, 수신부(120), 디스플레이(130) 및 그 밖의 구성요소들과 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 이를 위해 프로세서(110)는 디바이스(100)의 동작 전반을 제어하는 CPU(central processor unit)로 구현될 수 있다.The processor 110 according to one embodiment can perform a series of operations that provide a report using a plurality of images, and is electrically connected to the receiver 120, the display 130, and other components. You can control the data flow between To this end, the processor 110 may be implemented as a central processor unit (CPU) that controls the overall operation of the device 100.

일 실시 예에 따른 수신부(120)는 네트워크를 통하거나 전기적으로 디바이스(100)의 구성요소들 또는 다른 디바이스(예: 단말, 서버)와 연결되어 명세서 전반에서 기술되는 다양한 정보들을 송수신할 수 있는 유무선 통신 장치를 포함할 수 있다. 여기에서, 네트워크는 유선 및 무선 등과 같은 다양한 통신망을 통해 구성될 수 있고, 예를 들면, 근거리 통신망(LAN: Local Area Network), 도시권 통신망(MAN: Metropolitan Area Network), 광역 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다.The receiving unit 120 according to an embodiment is connected to the components of the device 100 or other devices (e.g., terminals, servers) through a network or electrically to transmit and receive various information described throughout the specification. May include a communication device. Here, the network can be configured through various communication networks such as wired and wireless, for example, local area network (LAN), metropolitan area network (MAN), and wide area network (WAN). It can be composed of various communication networks such as Network).

또한, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 디바이스(100)에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 일 실시 예에 따를 경우, 디바이스(100)는 다른 디바이스와 유무선 네트워크를 통해 통신하기 위한 통신부, 사용자 입력을 수신하는 사용자 인터페이스, 데이터를 저장하는 저장부(예: 메모리, 데이터베이스, 클라우드) 등을 더 포함할 수 있다. 다른 실시 예에 따를 경우, 도 1에 도시된 구성요소들 중 일부는 생략될 수도 있다.Additionally, those skilled in the art can understand that other general-purpose components in addition to the components shown in FIG. 1 may be further included in the device 100. According to one embodiment, the device 100 further includes a communication unit for communicating with other devices through a wired or wireless network, a user interface for receiving user input, and a storage unit for storing data (e.g., memory, database, cloud), etc. It can be included. According to another embodiment, some of the components shown in FIG. 1 may be omitted.

이상에서 도시된 단계들의 순서 및 조합은 일 실시 예이고, 명세서에 기재된 각 구성요소들의 본질적인 특성에서 벗어나지 않는 범위에서 순서, 조합, 분기, 기능 및 그 수행 주체가 추가, 생략 또는 변형된 형태로 다양하게 실시될 수 있음을 알 수 있다. 또한, 명세서 전체에서 '제공'은 대상이 특정 정보를 획득하거나 직간접적으로 특정 대상에게 송수신하는 과정을 포함하며 이러한 과정에서 요구되는 관련 동작의 수행을 포괄적으로 포함하는 것으로 해석될 수 있다.The order and combination of steps shown above is an example, and the order, combination, branch, function, and performer thereof may be added, omitted, or modified without departing from the essential characteristics of each component described in the specification. It can be seen that this can be implemented. In addition, throughout the specification, 'provision' includes the process of an object acquiring specific information or directly or indirectly sending and receiving it to a specific object, and can be interpreted to comprehensively include the performance of related operations required in this process.

본 발명의 다양한 실시예들은 기기(machine)(예를 들어, 디스플레이 장치 또는 컴퓨터)에 의해 읽을 수 있는 저장 매체(storage medium)(예를 들어, 메모리)에 저장된 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present invention are implemented as software including one or more instructions stored in a storage medium (e.g., memory) that can be read by a machine (e.g., a display device or computer). It can be. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.

일 실시예에 따르면, 본 발명에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. According to one embodiment, methods according to various embodiments disclosed in the present invention may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or via an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online.

본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.Those skilled in the art related to this embodiment will understand that the above-described base material can be implemented in a modified form without departing from the essential characteristics. Therefore, the disclosed methods should be considered from an explanatory rather than a restrictive perspective. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.

100: 디바이스 110: 프로세서
120: 수신부 130: 디스플레이
310: 레포트 편집 영역
311: 제 1 카테고리 영역 312: 제 2 카테고리 영역
313: 제 3 카테고리 영역 314: 제 4 카테고리 영역
315: 섹션 영역
320: 썸네일 영역
610: 카테고리 썸네일 영역 620: 제 2 카테고리 확대 영역
2010: 제 1 지점 2020: 제 2 지점
100: device 110: processor
120: receiver 130: display
310: Report editing area
311: first category area 312: second category area
313: 3rd category area 314: 4th category area
315: section area
320: Thumbnail area
610: Category thumbnail area 620: Second category enlarged area
2010: Branch 1 2020: Branch 2

Claims (16)

복수개의 이미지를 이용한 레포트 제공 방법에 있어서,
구강에 대한 복수개의 이미지를 획득하는 단계;
관상면, 시상면 및 수평면에서의 CT 단면 이미지 및 3D 이미지 중 적어도 하나를 포함하는 카테고리에 대한 제 1 사용자 입력을 획득하는 단계;
상기 복수개의 이미지 중에서 상기 제 1 사용자 입력에 따라 결정된 카테고리에 대응하는 대응 이미지를 디스플레이하는 단계;
상기 대응 이미지 중에서 제 2 사용자 입력에 따라 결정된 선택 이미지의 개수에 기초하여 레포트 형식을 결정하는 단계; 및
상기 결정된 레포트 형식에 기초하여 획득된 레포트를 디스플레이하는 단계;를 포함하는, 방법.
In a method of providing a report using multiple images,
Obtaining a plurality of images of the oral cavity;
Obtaining a first user input for a category comprising at least one of CT cross-sectional images and 3D images in the coronal, sagittal, and horizontal planes;
displaying a corresponding image corresponding to a category determined according to the first user input among the plurality of images;
determining a report format based on the number of selected images among the corresponding images determined according to a second user input; and
A method comprising: displaying a report obtained based on the determined report format.
제 1 항에 있어서,
상기 복수개의 이미지는
상기 CT 단면 이미지에서 기 설정 지점에 대해 뷰 포인트가 상이하고, 함께 제공되는 복수개의 그룹 이미지 중에서 어느 하나에 대한 셀렉티드 캡쳐 이미지를 포함하는, 방법.
According to claim 1,
The plurality of images are
The method includes a different view point with respect to a preset point in the CT cross-sectional image and a selected capture image for one of a plurality of group images provided together.
제 2 항에 있어서,
상기 CT 단면 이미지에서 기준 지점은 휠 입력에 기초하여 갱신되는, 방법.
According to claim 2,
A reference point in the CT cross-sectional image is updated based on wheel input.
제 2 항에 있어서,
상기 셀렉티드 캡쳐 이미지가 획득될 때 상기 셀렉티드 캡쳐 이미지에 대응되는 영역에 플래쉬 효과를 제공하는 단계;를 더 포함하는, 방법.
According to claim 2,
The method further comprising providing a flash effect to an area corresponding to the selected capture image when the selected capture image is acquired.
제 2 항에 있어서,
상기 뷰 포인트는
상기 CT 단면 이미지에서 관상면, 시상면 및 수평면 중 적어도 하나를 포함하는, 방법.
According to claim 2,
The view point is
A method comprising at least one of a coronal plane, a sagittal plane, and a horizontal plane in the CT cross-sectional image.
제 1 항에 있어서,
상기 복수개의 이미지는 상기 CT 단면 이미지에서 기 설정 인터벌에 따른 제 1 지점과 제 2 지점 간의 순차적인 단면 이미지 중 어느 하나에 대한 멀티 슬라이스 캡쳐 이미지를 포함하는, 방법.
According to claim 1,
The method wherein the plurality of images include a multi-slice capture image for one of sequential cross-sectional images between a first point and a second point according to a preset interval in the CT cross-sectional image.
제 6 항에 있어서,
상기 순차적인 단면 이미지에 대응되는 지점은 상기 CT 단면 이미지에서 휠 입력에 기초하여 갱신되는, 방법.
According to claim 6,
A point corresponding to the sequential cross-sectional image is updated based on a wheel input in the CT cross-sectional image.
제 6 항에 있어서,
상기 제 1 지점, 상기 제 2 지점, 상기 기 설정 인터벌 및 상기 순차적인 단면 이미지의 두께는 사용자 입력에 기초하여 결정되는, 방법.
According to claim 6,
The first point, the second point, the preset interval, and the thickness of the sequential cross-sectional images are determined based on user input.
제 6 항에 있어서,
오버레이 캡쳐 기능이 활성화되는 경우, 상기 멀티 슬라이스 캡쳐 이미지는 측정 값, 메모 및 기호 중 적어도 하나를 포함하는 오버레이 텍스트를 포함하고,
상기 오버레이 캡쳐 기능은 오버레이 캡쳐 항목에 대한 선택 입력이 획득됨에 따라 활성화되는, 방법.
According to claim 6,
When the overlay capture function is activated, the multi-slice capture image includes overlay text including at least one of measurement values, notes, and symbols,
The method of claim 1, wherein the overlay capture function is activated as a selection input for an overlay capture item is obtained.
제 1 항에 있어서,
상기 대응 이미지는 캡쳐 순서에 기초하여 배열되는, 방법.
According to claim 1,
The method of claim 1, wherein the corresponding images are arranged based on capture order.
제 1 항에 있어서,
상기 선택 이미지의 선택 순서에 기초하여 상기 레포트가 획득되는, 방법.
According to claim 1,
The method wherein the report is obtained based on the selection order of the selected images.
복수개의 이미지를 이용한 레포트 제공 디바이스에 있어서,
구강에 대한 복수개의 이미지를 획득하는 프로세서;
관상면, 시상면 및 수평면에서의 CT 단면 이미지 및 3D 이미지 중 적어도 하나를 포함하는 카테고리에 대한 제 1 사용자 입력을 획득하는 수신부; 및
상기 복수개의 이미지 중에서 상기 제 1 사용자 입력에 따라 결정된 카테고리에 대응하는 대응 이미지를 디스플레이하는 디스플레이;를 포함하고,
상기 프로세서는 상기 대응 이미지 중에서 제 2 사용자 입력에 따라 결정된 선택 이미지의 개수에 기초하여 레포트 형식을 결정하고,
상기 디스플레이는 상기 결정된 레포트 형식에 기초하여 획득된 레포트를 디스플레이하는, 디바이스.
In a report providing device using a plurality of images,
A processor that acquires a plurality of images of the oral cavity;
a receiving unit that acquires a first user input for a category including at least one of CT cross-sectional images and 3D images in the coronal, sagittal, and horizontal planes; and
A display that displays a corresponding image corresponding to a category determined according to the first user input among the plurality of images,
The processor determines a report format based on the number of selected images among the corresponding images determined according to a second user input,
The device wherein the display displays a report obtained based on the determined report format.
제 12 항에 있어서,
상기 복수개의 이미지는
상기 CT 단면 이미지에서 기 설정 지점에 대해 뷰 포인트가 상이하고, 함께 제공되는 복수개의 그룹 이미지 중에서 어느 하나에 대한 셀렉티드 캡쳐 이미지를 포함하는, 디바이스.
According to claim 12,
The plurality of images are
The device has a different view point with respect to a preset point in the CT cross-sectional image and includes a selected capture image for one of a plurality of group images provided together.
제 13 항에 있어서,
상기 CT 단면 이미지에서 기준 지점은 휠 입력에 기초하여 갱신되는, 디바이스.
According to claim 13,
The device wherein the reference point in the CT cross-sectional image is updated based on wheel input.
제 12 항에 있어서,
상기 복수개의 이미지는 상기 CT 단면 이미지에서 기 설정 인터벌에 따른 제 1 지점과 제 2 지점 간의 순차적인 단면 이미지 중 어느 하나에 대한 멀티 슬라이스 캡쳐 이미지를 포함하는, 디바이스.
According to claim 12,
The plurality of images include a multi-slice capture image for one of sequential cross-sectional images between a first point and a second point according to a preset interval in the CT cross-sectional image.
제 1 항 내지 제 11 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium recording a program for executing the method of any one of claims 1 to 11 on a computer.
KR1020220034894A 2022-03-21 2022-03-21 Method, device and recording medium for providing a report using image KR20230137533A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220034894A KR20230137533A (en) 2022-03-21 2022-03-21 Method, device and recording medium for providing a report using image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220034894A KR20230137533A (en) 2022-03-21 2022-03-21 Method, device and recording medium for providing a report using image

Publications (1)

Publication Number Publication Date
KR20230137533A true KR20230137533A (en) 2023-10-05

Family

ID=88294174

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220034894A KR20230137533A (en) 2022-03-21 2022-03-21 Method, device and recording medium for providing a report using image

Country Status (1)

Country Link
KR (1) KR20230137533A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200118326A (en) 2019-04-05 2020-10-15 오스템임플란트 주식회사 Method and apparatus for providing surgical report using a user-customized template

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200118326A (en) 2019-04-05 2020-10-15 오스템임플란트 주식회사 Method and apparatus for providing surgical report using a user-customized template

Similar Documents

Publication Publication Date Title
US10667887B2 (en) Video-assisted margin marking for dental models
US10222954B2 (en) Image display apparatus, display control apparatus and display control method using thumbnail images
US7061484B2 (en) User-interface and method for curved multi-planar reformatting of three-dimensional volume data sets
US9262864B2 (en) Synchronized views of video data and three-dimensional model data
US7978191B2 (en) System and method for locating anatomies of interest in a 3D volume
KR101664166B1 (en) Apparatus and method for reconstruting X-ray panoramic image
US9792261B2 (en) Medical image display apparatus, medical image display method, and recording medium
JP4313910B2 (en) Image display device
JPWO2003037189A1 (en) Medical image processing apparatus, method, and processing program
US10324582B2 (en) Medical image display apparatus, method for controlling the same
JP2006075216A (en) Medical image processing system, program and method
KR102223475B1 (en) Method for displaying multi panoramic image and imaging processing apparatus thereof
KR20230137533A (en) Method, device and recording medium for providing a report using image
JP6572370B2 (en) MEDICAL IMAGE DISPLAY DEVICE, ITS CONTROL METHOD, PROGRAM
JP2014203275A (en) Dental treatment simulation device and dental treatment simulation program
KR20210128792A (en) Method and device for providing one or more images for an object
JP6643002B2 (en) Medical image display device, medical image display method, and program
JP2016158829A (en) Medical image display control device, method, and program
JP7483415B2 (en) Program, method, terminal, and system
JP5005979B2 (en) 3D image display device
TWM547152U (en) Medical imaging modeling apparatus
KR20220026235A (en) Analysis data matching system and method between medical images, a graphical user interface of an electronic device having a screen