KR20240053280A - Deep learning-based augmented reality system for medical diagnosis - Google Patents

Deep learning-based augmented reality system for medical diagnosis Download PDF

Info

Publication number
KR20240053280A
KR20240053280A KR1020220133181A KR20220133181A KR20240053280A KR 20240053280 A KR20240053280 A KR 20240053280A KR 1020220133181 A KR1020220133181 A KR 1020220133181A KR 20220133181 A KR20220133181 A KR 20220133181A KR 20240053280 A KR20240053280 A KR 20240053280A
Authority
KR
South Korea
Prior art keywords
information
lesion
module
medical
deep learning
Prior art date
Application number
KR1020220133181A
Other languages
Korean (ko)
Inventor
김민우
심상일
오일석
Original Assignee
전북대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전북대학교산학협력단 filed Critical 전북대학교산학협력단
Priority to KR1020220133181A priority Critical patent/KR20240053280A/en
Publication of KR20240053280A publication Critical patent/KR20240053280A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 실시 예에 따른 질병진단을 위한 딥러닝 기반 증강현실 시스템은, 최소 하나 이상의 의료용 장비를 통해 디지털 형식의 이미지 및 영상 의료 정보를 생성하고, 송수신하는 의료 단말, 상기 의료 단말의 의료 정보를 이미지 및 영상으로 송신 받아 시각화하는 클라이언트 단말 및 상기 클라이언트 단말과 연결되며, PACS 뷰어에 기재된 상기 의료 정보를 분석, 가공 및 저장하는 서버를 포함하고, 상기 서버는, 상기PACS 뷰어에 기재된 상기 의료 정보를 캡처하고, 캡처 된 상기 의료 정보를 토대로 ROI 추출을 통해 병변 예상 위치에 관심영역정보를 생성하는 ROI모듈, 상기 관심영역정보를 딥러닝 모델 학습을 통한 정보와 각 병변의 특징이 저장된 데이터베이스의 정보를 비교해 병변 정보를 추출하는 추출 모듈, 상기 병변 정보를 증강된 가상시각정보 형태로 변환하는 시각화 모듈 및 상기 가상시각정보를 상기 PACS 뷰어의 의료 정보에 오버레이 하는 오버레이 모듈을 포함하는 질병진단을 위한 딥러닝 기반 증강현실 시스템을 제공한다.
A deep learning-based augmented reality system for disease diagnosis according to an embodiment of the present invention generates, transmits and receives images and video medical information in digital format through at least one medical equipment, and medical information of the medical terminal. It includes a client terminal that receives and visualizes images and videos, and a server that is connected to the client terminal and analyzes, processes, and stores the medical information written in the PACS viewer, wherein the server stores the medical information written in the PACS viewer. ROI module that captures and generates region of interest information at the expected location of the lesion through ROI extraction based on the captured medical information, information on the region of interest through learning a deep learning model, and information in a database where the characteristics of each lesion are stored. Deep learning for disease diagnosis including an extraction module that compares and extracts lesion information, a visualization module that converts the lesion information into augmented virtual visual information, and an overlay module that overlays the virtual visual information on the medical information of the PACS viewer. Provides a base augmented reality system.

Description

질병 진단을 위한 딥러닝 기반 증강현실 시스템 {Deep learning-based augmented reality system for medical diagnosis} Deep learning-based augmented reality system for medical diagnosis}

본 발명은 의료용 장비를 통해 생성된 디지털 형식의 이미지 및 영상 의료정보를 토대로 딥러닝 학습을 통해 병변의 여부 및 위치를 손쉽게 파악할 수 있도록 PACS 뷰어에 증상현실형태로 오버레이하여 개시하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템에 관한 것이다.The present invention is a deep learning method for disease diagnosis that is initiated by overlaying the presence and location of lesions in the form of symptom reality on a PACS viewer based on digital image and video medical information generated through medical equipment through deep learning. This is about a learning-based augmented reality system.

의료에 있어서 데이터 분석을 통한 최적의 진단이나 처방의 중요성이 커지고 있다. 하지만 다양한 의료기기와 병원의 정보 시스템의 발전에 따라 생성되고 저장되는 의료데이터의 양은 폭발적으로 증가하고있다.In medicine, the importance of optimal diagnosis or prescription through data analysis is increasing. However, with the development of various medical devices and hospital information systems, the amount of medical data generated and stored is explosively increasing.

이러한 데이터 급증에 반해 의료진의 부족 현상이 가속화 될 것으로 예상되고 있다.Despite this surge in data, the shortage of medical staff is expected to accelerate.

이러한 의료진의 인력 부족을 해결하기 위해 의료진의 판단을 빠르게 하고, 판단의 정확성을 높여 신뢰성을 증가시키는 기술이 필요한 실정이다.In order to solve this shortage of medical personnel, there is a need for technology that speeds up the judgment of medical staff and increases reliability by increasing the accuracy of judgment.

대부분의 의료업계에서는 수많은 양의 의료 데이터를 처리하기 위해, 의료 영상의 저장 전송 시스템으로 PACS(Picture Archiving Communication System)를 사용하고 있다.Most medical industries use PACS (Picture Archiving Communication System) as a storage and transmission system for medical images to process large amounts of medical data.

PACS는 영상 및 이미지 정보를 디지털 상태로 획득 및 저장하고, 그 판독과 진료기록을 함께 전송하고 검색 할 수 있는 기능을 통합적으로 제공한다.PACS acquires and stores video and image information in a digital state, and provides integrated functions to transmit and search the readings and medical records.

특히, PACS는 CT, MRI, PET 및 SPECT 등에 의해 촬영된 모든 방사선 검사 결과를 디지털 이미지로 변환, 촬영과 동시에 대용량 기억장치에 저장시켜 영상의학과 전문가가 모니터를 통해 판독할 수 있도록 함으로써 환자의 상태를 찍은 필름을 의사가 수초 만에 컴퓨터 영상으로 띄워 진료에 이용할 수 있도록 한다.In particular, PACS converts all radiological test results taken by CT, MRI, PET, and SPECT into digital images and stores them in a large-capacity memory device at the same time as they are taken, so that radiologists can read them through a monitor to monitor the patient's condition. The doctor can upload the captured film into a computer image within seconds and use it for medical treatment.

하지만 이러한 PACS를 이용한 의료 데이터의 방식은 개시된 이미지를 보고 병변의 여부 및 병변의 종류 등을 판단한다.However, this method of medical data using PACS determines whether there is a lesion and the type of lesion by looking at the disclosed image.

이때, 의료진의 부주의로 인해 PACS에 개시된 병변을 실수로 확인하지 못하거나, 의료진의 의학적 지식이 부족해 이해하지 못하는 상황이 발생한다면, 이는 큰 의료사고가 발생할 수 있다.At this time, if the lesions disclosed in the PACS are not identified by mistake due to the carelessness of the medical staff, or if a situation occurs where the medical staff does not understand due to lack of medical knowledge, a serious medical accident may occur.

이러한 문제를 해결하기 위해 인공지능을 이용하여 병변 정보를 검출 및 개시하고 의료진의 의학적 지식을 더함으로써, PACS에 개시된 병변 정보에 대한 빠른 판단이 가능함과 동시에 의료진의 실수를 줄일 수 있는 질병 진단을 위한 딥러닝 기반 증강현실 시스템의 개발이 절실한 실정이었다.To solve this problem, by using artificial intelligence to detect and display lesion information and adding medical knowledge of the medical staff, a quick judgment on the lesion information disclosed in PACS is possible and at the same time, it is possible to diagnose diseases that can reduce medical staff's mistakes. The development of a deep learning-based augmented reality system was urgently needed.

선행기술로는 한국등록특허 제10-2108401호 "인공지능 판독서버, 이를 포함하는 PACS 기반 영상 처리 시스템 및 방법"이 개시되어 있다.As a prior art, Korean Patent No. 10-2108401 “Artificial intelligence reading server, PACS-based image processing system and method including same” is disclosed.

본 발명은 상기한 바와 같은 문제점을 해결하고자 발명한 것으로, 의료용 장비를 통해 획득한 의료 정보를 PACS에 디지털 이미지 형식으로 개시하고, 딥러닝 방식을 통해 기존 데이터베이스의 병변 정보와 PACS에 개시된 이미지를 비교해 병변 정보를 생성함과 동시에, 병변 정보를 가상시각정보로 변환하고, 가상시각정보를 선 개시된 PACS의 이미지에 오버레이하여, 병변 여부 검출의 신뢰성을 증가시키는 질병진단을 위한 딥러닝 기반 증강현실 시스템을 제공하는 것을 목적으로 한다.The present invention was invented to solve the problems described above. Medical information acquired through medical equipment is disclosed in a digital image format in PACS, and the lesion information in the existing database is compared with the images disclosed in PACS through a deep learning method. A deep learning-based augmented reality system for disease diagnosis that generates lesion information, converts the lesion information into virtual visual information, and overlays the virtual visual information on the image of the previously launched PACS to increase the reliability of lesion detection. The purpose is to provide

상기에 제시된 과제를 해결하기 위한 본 발명의 실시 예에 따른 질병진단을 위한 딥러닝 기반 증강현실 시스템은, 최소 하나 이상의 의료용 장비를 통해 디지털 형식의 이미지 및 영상 의료 정보를 생성하고, 송수신하는 의료 단말, 상기 의료 단말의 의료 정보를 이미지 및 영상으로 송신 받아 시각화하는 클라이언트 단말 및 상기 클라이언트 단말과 연결되며, PACS 뷰어에 기재된 상기 의료 정보를 분석, 가공 및 저장하는 서버를 포함하고, 상기 서버는, 상기 클라이언트 단말의 디스플레이 화면을 캡처하고, 캡처된 화면에서 의료 정보의 예상 위치에서 관심영역정보를 생성하는 ROI 모듈, 상기 관심영역정보를 딥러닝 모델 학습을 통한 정보와 각 병변의 특징이 저장된 데이터베이스의 정보를 비교해 병변 정보를 추출하는 추출 모듈, 상기 병변 정보를 증강된 가상시각정보 형태로 변환하는 시각화 모듈 및 상기 가상시각정보를 상기 PACS 뷰어의 의료 정보에 오버레이 하는 오버레이 모듈을 포함할 수 있다.A deep learning-based augmented reality system for disease diagnosis according to an embodiment of the present invention to solve the problems presented above is a medical terminal that generates, transmits and receives images and video medical information in digital format through at least one medical device. , a client terminal that receives and visualizes the medical information of the medical terminal as images and videos, and a server that is connected to the client terminal and analyzes, processes, and stores the medical information written in the PACS viewer, the server comprising: ROI module that captures the display screen of the client terminal and generates region of interest information from the expected location of medical information on the captured screen, information on the region of interest through learning a deep learning model, and information in a database where the characteristics of each lesion are stored It may include an extraction module that compares and extracts lesion information, a visualization module that converts the lesion information into an enhanced virtual visual information form, and an overlay module that overlays the virtual visual information on the medical information of the PACS viewer.

또한, 상기 클라이언트 단말은, UI모듈을 더 포함하고, 상기 UI모듈은, 상기 시각화 모듈을 통해 시각화된 상기 병변 정보를 선택에 따라 각각 표시하거나 숨기고, 상기 병변 정보의 투명도를 조절하는 UI기능을 포함할 수 있다.In addition, the client terminal further includes a UI module, and the UI module includes a UI function for displaying or hiding the lesion information visualized through the visualization module according to selection and adjusting transparency of the lesion information. can do.

또한, 상기 ROI 모듈은, 상기 의료 정보의 위치를 수동 및 자동으로 설정할 수 있는 것을 특징으로 할 수 있다.Additionally, the ROI module may be capable of manually and automatically setting the location of the medical information.

또한, 상기ROI 모듈은, 상기 의료 정보의 위치 지정 후 관심영역정보 추출 시, 해상도 크기를 조절하여 추출함으로써, 캡처 후 상기 관심영역정보와 캡처 전 상기 의료 정보의 해상도 차이를 최소화 하는 것을 특징으로 할 수 있다.In addition, the ROI module may be characterized in that it minimizes the difference in resolution between the region of interest information after capture and the medical information before capture by adjusting the resolution size when extracting region of interest information after specifying the location of the medical information. You can.

또한, 상기 추출 모듈은, 상기 병변 정보를 추출할 때, 병변의 종류 및 병변의 증상에 따라 세분화하는 것을 특징으로 할 수 있다.Additionally, the extraction module may be characterized in that, when extracting the lesion information, it is segmented according to the type of lesion and the symptoms of the lesion.

또한, 상기 추출 모듈은, 상기 병변 정보를 세분화 할 때, 각 병변의 종류 및 특징에 따른 색상의 차이를 설정 가능하게함으로써, 상기 병변 정보가 상기PACS 뷰어의 의료 정보에 오버레이 될 때, 가시성을 향상시키는 것을 특징으로 할 수 있다.In addition, the extraction module improves visibility when the lesion information is overlaid on the medical information of the PACS viewer by enabling setting color differences according to the type and characteristics of each lesion when segmenting the lesion information. It can be characterized as being ordered.

또한, 상기 시각화 모듈은, 상기 가상시각화정보의 깊이, 넓이 및 해상도를 일정 비율로 조정하여 병변 검출 정확도를 향상시키는 것을 특징으로 할 수 있다.Additionally, the visualization module may improve lesion detection accuracy by adjusting the depth, width, and resolution of the virtual visualization information at a certain ratio.

또한, 상기 오버레이 모듈은, 상기 가상시각화정보를 상기 PACS 뷰어에 오버레이 할 때, 병변의 명칭 및 병변의 정보가 함께 오버레이 되는 것을 특징으로 할 수 있다.In addition, the overlay module may be characterized in that when overlaying the virtual visualization information on the PACS viewer, the name of the lesion and information about the lesion are overlaid together.

또한, 상기 오버레이 모듈은 오버레이 완료 후 상기 병변 정보를 학습함으로써, 데이터베이스에 추가하는 학습 모듈을 더 포함하는 것을 특징으로 할 수 있다.Additionally, the overlay module may further include a learning module that adds the lesion information to the database by learning the lesion information after the overlay is completed.

본 발명의 실시 예에 따른 질병진단을 위한 딥러닝 기반 증강현실 시스템은 병변 정보를 가상시각정보로 변환하고, 가상시각정보를 선 개시된 PACS의 이미지에 오버레이하여, 병변 여부 검출의 신뢰성을 증가시킬 수 있다.The deep learning-based augmented reality system for disease diagnosis according to an embodiment of the present invention can increase the reliability of detecting lesions by converting lesion information into virtual visual information and overlaying the virtual visual information on the image of the previously launched PACS. there is.

또한, PACS 뷰어의 이미지를 캡처하고 이에 따른 가상시각정보를 생성하는 것으로, PACS 뷰어의 시스템적 구성 변화 없이 이용할 수 있다.Additionally, by capturing the image of the PACS viewer and generating virtual visual information accordingly, it can be used without changing the system configuration of the PACS viewer.

또한, 클라이언트 단말에 이동식 디스크 없이 PACS 뷰어의 이미지 및 영상을 송신 받을 수 있다.Additionally, images and videos from the PACS viewer can be transmitted to the client terminal without a removable disk.

도 1은 본 발명의 실시 예에 따른 질병진단을 위한 딥러닝 기반 증강현실 시스템의 블록도.
도 2는 의료 단말의 의료 정보 전달 과정을 나타낸 예시도.
도 3은 도 2의 UI 모듈을 확대해 도시한 확대도.
도 4는 본 발명의 실시 예에 따른 서버의 동작 방식에 대한 블록도.
도 5는 ROI 모듈을 통한 관심영역정보 생성과정을 나타낸 예시도.
도 6은 추출 모듈을 통한 병변 정보 생성과정을 나타낸 예시도.
도 7은 도 6을 통해 생성된 병변 정보를 나타낸 예시도.
도 8은 증강된 가상시각화정보를 나타낸 예시도.
도 9는 가상시각정보가 의료 정보에 오버레이 된 것을 나타낸 예시도.
1 is a block diagram of a deep learning-based augmented reality system for disease diagnosis according to an embodiment of the present invention.
Figure 2 is an example diagram showing the medical information transmission process of a medical terminal.
Figure 3 is an enlarged view showing the UI module of Figure 2.
Figure 4 is a block diagram of how a server operates according to an embodiment of the present invention.
Figure 5 is an example diagram showing the process of generating region of interest information through the ROI module.
Figure 6 is an example diagram showing the lesion information generation process through the extraction module.
Figure 7 is an example diagram showing lesion information generated through Figure 6.
Figure 8 is an example diagram showing augmented virtual visualization information.
Figure 9 is an example diagram showing virtual visual information overlaid on medical information.

이하, 도면을 참조한 본 발명의 설명은 특정한 실시 형태에 대해 한정되지 않으며, 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있다. 또한, 이하에서 설명하는 내용은 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the description of the present invention with reference to the drawings is not limited to specific embodiments, and various changes may be made and various embodiments may be possible. In addition, the content described below should be understood to include all conversions, equivalents, and substitutes included in the spirit and technical scope of the present invention.

이하의 설명에서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용되는 용어로서, 그 자체에 의미가 한정되지 아니하며, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following description, terms such as first, second, etc. are terms used to describe various components, and their meaning is not limited, and is used only for the purpose of distinguishing one component from other components.

본 명세서 전체에 걸쳐 사용되는 동일한 참조 번호는 동일한 구성요소를 나타낸다.Like reference numerals used throughout this specification refer to like elements.

본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 이하에서 기재되는 "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로 해석되어야 하며, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As used herein, singular expressions include plural expressions, unless the context clearly dictates otherwise. In addition, terms such as “comprise,” “provide,” or “have” used below are intended to designate the presence of features, numbers, steps, operations, components, parts, or a combination thereof described in the specification. It should be construed and understood as not precluding the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms such as those defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and should not be interpreted in an idealized or overly formal sense unless explicitly defined in the present application. No.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여 하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when describing with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted. In describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

이하, 본 발명의 실시 예를 첨부한 도 1 내지 도 9를 참조하여 상세히 설명하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying FIGS. 1 to 9.

도 1은 본 발명의 실시 예에 따른 질병진단을 위한 딥러닝 기반 증강현실 시스템의 블록도이고, 도 2는 디스플레이에 유저인터페이스 형태로 형성된 UI 모듈을 도시한 예시도이며, 도 3은 도 2의 UI 모듈을 확대해 도시한 확대도이다.Figure 1 is a block diagram of a deep learning-based augmented reality system for disease diagnosis according to an embodiment of the present invention, Figure 2 is an example diagram showing a UI module formed in the form of a user interface on a display, and Figure 3 is a diagram of Figure 2 This is an enlarged view of the UI module.

먼저 도 1을 참조하면, 질병진단을 위한 딥러닝 기반 증강현실 시스템(1)은 의료 단말(100), 클라이언트 단말(200), 서버(300)를 포함할 수 있다.First, referring to FIG. 1, the deep learning-based augmented reality system 1 for disease diagnosis may include a medical terminal 100, a client terminal 200, and a server 300.

의료 단말(100)은 CT(Computed Tomography), X-Ray, 내시경 장비 등의 의료 장비를 통해 환자의 신체 내부 및 외부를 이미지 또는 영상으로 촬영된 정보를 디지털화 할 수 있다.The medical terminal 100 can digitize information captured as images or images of the inside and outside of the patient's body through medical equipment such as computed tomography (CT), X-ray, and endoscopy equipment.

이때, 의료 단말(100)은 최소 하나 이상의 의료용 장비를 통해 디지털 형식의 이미지 및 영상 의료 정보(110)를 생성할 수 있다.At this time, the medical terminal 100 may generate images and video medical information 110 in digital format through at least one medical equipment.

의료 정보(110)는 DCM 형식의 파일 방식으로 형성되는 것이 바람직하나, 이에 한정하지 않는다.The medical information 110 is preferably formed in a DCM format file format, but is not limited to this.

이때,DCM(Digital Imaging and Communications in Medicine, DICOM)은 의료용 디지털 영상 및 통신 표준의 약자로 의료용 기기에 디지털 영상 표현과 통신에 사용되는 여러 가지 표준을 총칭하는 말로 사용하기로 한다.At this time, DCM (Digital Imaging and Communications in Medicine, DICOM) is an abbreviation for medical digital imaging and communication standard and will be used as a general term for various standards used for digital image expression and communication in medical devices.

클라이언트 단말(200)은 의료 단말(100)로부터 생성된 의료 정보(110)를 이미지 및 영상으로 송신 받을 수 있다.The client terminal 200 may receive medical information 110 generated from the medical terminal 100 in the form of images and videos.

이때, 클라이언트 단말(200)은 디스플레이(210)를 구비하는 형태로 형성되는 것이 바람직하다.At this time, the client terminal 200 is preferably formed to include a display 210.

디스플레이(210)는 클라이언트 단말(200)이 송신 받은 이미지 및 영상 형태의 의료 정보(110)를 시각화해 사용자에게 제공할 수 있다.The display 210 may visualize the medical information 110 in the form of images and videos received by the client terminal 200 and provide them to the user.

도 2를 참조하면, 디스플레이(210)는 UI 모듈(220)과 PACS 뷰어에 기재된 의료 정보(110)를 동시에 한 화면상에 표기할 수 있다.Referring to FIG. 2, the display 210 can simultaneously display the UI module 220 and the medical information 110 written in the PACS viewer on one screen.

이때, UI 모듈(220)은 디스플레이(210) 화면에 유저인터페이스 형태로 형성될 수 있다.At this time, the UI module 220 may be formed in the form of a user interface on the screen of the display 210.

유저인터페이스 형태란, 사전적 정의에 따라, 사람과 컴퓨터 시스템 프로그램 간 상호작용을 의미하는 것이며, 통상의 기술자가 이해하기에 어려움이 없는 것으로, 구체적인 설명은 생략하기로 한다.According to the dictionary definition, the user interface form refers to the interaction between a person and a computer system program, and as it is easy for a person skilled in the art to understand, detailed explanations will be omitted.

한편, UI 모듈(220)은 하기에서 자세히 설명할 병변 정보(321)를 선택에 따라 각각 표시하거나 숨기고, 병변 정보(321)의 투명도를 조절할 수 있다.Meanwhile, the UI module 220 can display or hide lesion information 321, which will be described in detail below, depending on selection, and adjust the transparency of the lesion information 321.

자세히는 도 3을 참조하면, UI 모듈(220)은 추출 범위 조절 UI(221), 병변 선택 UI(222) 및 투명도 조절 UI(223)을 포함 할 수 있다.Referring to FIG. 3 in detail, the UI module 220 may include an extraction range control UI 221, a lesion selection UI 222, and a transparency control UI 223.

이때, UI 모듈(220)은 디스플레이(210) 상에서 크기의 조절이 자유롭게 형성될 수 있다.At this time, the UI module 220 can be freely adjusted in size on the display 210.

서버(300)는 상기 클라이언트 단말(200)과 연결되어 형성될 수 있다.The server 300 may be formed by being connected to the client terminal 200.

이때, 서버(300)는 PACS 뷰어에 기재된 의료 정보(110)를 분석, 가공 및 저장할 수 있다.At this time, the server 300 may analyze, process, and store the medical information 110 recorded in the PACS viewer.

PACS 뷰어는 의료 영상 저장 전송 시스템으로, DCM 형식의 의료 정보(110)를 저장하고, 판독하며, 진단 기록 등을 추가함과 동시에 DICOM 프로토콜 규격에 따라 네트워크에 연결된 다른 단말로 전송이 가능하도록 하는 무선 통신 기능을 구비할 수 있다.The PACS viewer is a medical image storage and transmission system that stores and reads medical information (110) in DCM format, adds diagnostic records, etc., and transmits it wirelessly to other terminals connected to the network according to the DICOM protocol standard. It can be equipped with a communication function.

도 4는 본 발명의 실시 예에 따른 서버의 동작 방식에 대한 블록도이고, 도 5는 ROI 모듈을 통한 관심영역정보 생성과정을 나타낸 예시도이며, 도 6은 추출 모듈을 통한 병변 정보 생성과정을 나타낸 예시도이고, 도 7은 도 6을 통해 생성된 병변 정보를 나타낸 예시도이며, 도 8은 증강된 가상시각화정보를 나타낸 예시도이고, 도 9는 가상시각정보가 의료 정보에 오버레이 된 것을 나타낸 예시도 이다.Figure 4 is a block diagram of the operation method of the server according to an embodiment of the present invention, Figure 5 is an example diagram showing the process of generating region of interest information through the ROI module, and Figure 6 is a diagram showing the process of generating lesion information through the extraction module. Figure 7 is an example diagram showing lesion information generated through Figure 6, Figure 8 is an example diagram showing augmented virtual visualization information, and Figure 9 shows virtual visual information overlaid on medical information. This is also an example.

서버(300)는 ROI 모듈(310), 추출 모듈(320), 시각화 모듈(330) 및 오버레이 모듈(340)을 포함할 수 있다.The server 300 may include an ROI module 310, an extraction module 320, a visualization module 330, and an overlay module 340.

구체적으로 도 5를 참조하면, ROI 모듈(310)은 디스플레이(210) 화면을 캡처하고, 캡처된 화면에서 의료 정보(110)의 위치를 추정하여 관심영역정보(311)를 생성할 수 있다.Specifically, referring to FIG. 5 , the ROI module 310 may capture the screen of the display 210 and generate region of interest information 311 by estimating the location of the medical information 110 in the captured screen.

이때, 관심영역정보(311)는 추출 시, 해상도 크기를 조절하여 추출함으로써, 캡처 전 의료 정보(110)와 해상도 차이를 최소화 할 수 있다.At this time, the region of interest information 311 can be extracted by adjusting the resolution size at the time of extraction, thereby minimizing the difference in resolution from the medical information 110 before capture.

상기에 기술한 해상도 차이를 극복하기 위해, 이미지 및 영상의 단위 면적 당 존재하는 픽셀 수의 비율을 일정하게 유지하는 방법을 사용하여 해상도를 유지하도록 할 수 있다.In order to overcome the resolution difference described above, the resolution can be maintained by using a method of maintaining the ratio of the number of pixels per unit area of the image and video constant.

또한, ROI 모듈(310)은 추출 범위 조절 UI(221)를 통해 의료 정보(110)의 추출 범위(312)를 수동 및 자동으로 설정할 수 있다.Additionally, the ROI module 310 can manually and automatically set the extraction range 312 of the medical information 110 through the extraction range adjustment UI 221.

추출 범위(312)는 자동 설정 시, 딥러닝 모델 중 하나인 YOLO를 통해 기 학습된 관심영역정보(311)를 토대로, 디스플레이(210) 화면을 캡처한 이미지에서 추출할 수 있다.When automatically set, the extraction range 312 can be extracted from an image captured of the display 210 screen based on region of interest information 311 previously learned through YOLO, one of the deep learning models.

이때, 딥러닝 모델 YOLO는 객체 탐지 모델 중 하나로써, 합성곱 신경망을 통해 상기 과정을 통해 캡처된 이미지를 처리하고 이에 따라 디스플레이(210) 화면에서 관심영역정보(311)를 추정하고 표시할 수 있다.At this time, the deep learning model YOLO is one of the object detection models, and processes the image captured through the above process through a convolutional neural network. Accordingly, the region of interest information 311 can be estimated and displayed on the display 210 screen. .

여기서, 합성곱 신경망은 필터링 기법을 인공신경망에 적용하여 이미지를 효과적으로 처리할 수 있는 심층 신경망 기법으로 행렬로 표현된 필터의 각 요소가 데이터 처리에 적합하도록 자동으로 학습되는 과정을 통해 이미지를 분류하는 기법을 말하는 것이며. 통상의 기술자가 이해하기에 어려움이 없는 내용으로 구체적인 설명은 생략하기로 한다.Here, the convolutional neural network is a deep neural network technique that can effectively process images by applying filtering techniques to artificial neural networks. It classifies images through a process in which each element of the filter expressed in a matrix is automatically learned to be suitable for data processing. I'm talking about technique. Since the content is easy for a person skilled in the art to understand, detailed explanation will be omitted.

이때, YOLO는 캡처 된 이미지를 데이터베이스에 저장되어있는 관심영역정보(311) 데이터와 상세히 비교해 디스플레이(210) 화면에서 추출 범위(312)를 설정할 수 있다.At this time, YOLO can set the extraction range 312 on the display 210 screen by comparing the captured image in detail with the region of interest information 311 data stored in the database.

또한, 추출 범위(312)는 수동 설정 시, 직접 관심영역정보(311)를 설정함으로써, 자동 설정 시 발생할 수 있는 오류 상황에 대비할 수 있다.Additionally, when setting the extraction range 312 manually, the region of interest information 311 can be set directly to prepare for error situations that may occur during automatic setting.

다음으로 도 6 및 도 7을 참조하면, 추출 모듈(320)은 관심영역정보(311)를 딥러닝 모델 학습을 통한 정보와 각 병변의 특징이 저장된 데이터베이스(D) 정보를 비교해 병변 정보(321)를 추출할 수 있다.Next, referring to FIGS. 6 and 7, the extraction module 320 compares the region of interest information 311 with the information through deep learning model learning and the database (D) information in which the characteristics of each lesion are stored to obtain the lesion information 321. can be extracted.

병변 정보(321)는 병변의 종류 및 병변의 증상에 따라 세분화되어 추출 될 수 있다.The lesion information 321 can be subdivided and extracted according to the type of lesion and the symptoms of the lesion.

예를 들어 안저 질환의 경우, 병변 정보(321)를 세분화 하면, EX(Hard Exudate), SE(Soft Exudate), HE(Hemorrhage), MA(Microaneurysm) 등의 안저 질환으로 세분화 할 수 있다.For example, in the case of fundus disease, the lesion information 321 can be subdivided into fundus diseases such as EX (Hard Exudate), SE (Soft Exudate), HE (Hemorrhage), and MA (Microaneurysm).

이를 통해, 병변 정보(321)의 세분화 과정은 어느 위치에 어떤 병변이 발생했는지 단시간에 파악할 수 있어, 병변의 검출 속도 및 신뢰성을 증가 시킬 수 있다.Through this, the segmentation process of the lesion information 321 can identify which lesion occurred at which location in a short time, thereby increasing the detection speed and reliability of the lesion.

또한, 병변 정보(321)는 세분화 할 때, 각 병변의 종류 및 특징에 따른 색상의 차이를 보이도록 설정하게 할 수 있다.Additionally, the lesion information 321 can be set to show color differences according to the type and characteristics of each lesion when segmented.

이에 따라, 병변 정보(321)는 병변의 여부와 위치를 파악하고, 판단하는 사용자의 가시성을 증가 시킬 수 있다.Accordingly, the lesion information 321 can increase the visibility of the user who determines and determines the presence and location of the lesion.

병변 정보(321)의 세분화의 경우 상기에서 기술한 안저 질환에만 국한되어 사용되는 것이 아닌 PACS 뷰어를 통해 획득할 수 있는 이미지 및 영상에 모두 적용 할 수 있다.In the case of segmentation of lesion information 321, it is not limited to the fundus disease described above and can be applied to all images and images that can be acquired through the PACS viewer.

병변 정보(321)는 세분화되어 추출된 후, 병변 선택 UI(222)를 통해 병변의 종류 및 병변의 증상에 따라 표시 여부를 선택 할 수 있다.After the lesion information 321 is subdivided and extracted, the lesion selection UI 222 can be used to select whether to display it or not according to the type of lesion and the symptoms of the lesion.

이때, 병변 정보(321)는 병변 선택 UI(222)에 표시되어 있는 체크박스(C)를 통해 세분화된 병변의 표시 여부를 각각 제어할 수 있다.At this time, the lesion information 321 can control whether or not to display segmented lesions through the checkbox (C) displayed in the lesion selection UI 222.

도 8을 참조하면, 시각화 모듈(330)은 병변 정보(321)를 증강된 가상시각정보(331) 형태로 변환할 수 있다.Referring to FIG. 8, the visualization module 330 may convert lesion information 321 into enhanced virtual visual information 331.

이때, 시각화 모듈(330)은 병변 정보(321)를 투명도 조절 UI(223)를 통해 원하는 투명도로 조절 가능하게 할 수 있다.At this time, the visualization module 330 can adjust the lesion information 321 to a desired transparency through the transparency adjustment UI 223.

여기서, 가상시각정보(331)가 증강되었다는 것은 기존에 사용되는 AR(Augmented Reality)기술을 의미하는 것으로, 현실의 이미지 및 영상에 3차원 가상 이미지를 겹쳐서 하나의 영상 또는 이미지로 표현하는 기술을 의미하는 것으로 해석할 수 있다.Here, the fact that the virtual visual information 331 is augmented refers to the existing AR (Augmented Reality) technology, which refers to a technology that overlaps a 3D virtual image on a real image or video to express it as a single video or image. It can be interpreted as doing so.

이때, 가상시각정보(331)는 깊이, 넓이 및 해상도를 일정 비율로 조정하여 병변 검출 정확도를 향상시킬 수 있다.At this time, the virtual visual information 331 can improve lesion detection accuracy by adjusting the depth, width, and resolution at a certain ratio.

가상시각정보(331)는 EfficientNet를 통해 깊이, 넓이 및 해상도의 비율을 적절하게 조합하는 Compound Scaling 식을 도입하여 최적의 비율을 찾아 깊이 넓이 해상도를 일정 비율로 조정할 수 있다.The virtual visual information 331 can find the optimal ratio by introducing a Compound Scaling equation that appropriately combines the ratios of depth, width, and resolution through EfficientNet and adjust the depth, width, and resolution to a certain ratio.

오버레이 모듈(340)은 가상시각정보(331)를 PACS 뷰어의 의료 정보(110)에 오버레이 할 수 있다.The overlay module 340 can overlay the virtual visual information 331 on the medical information 110 of the PACS viewer.

도 9를 참조하면, 오버레이 모듈(340)은 가상시각화정보(331)를 PACS 뷰어의 의료 정보(110)에 오버레이 할 때, 병변의 명칭 및 병변의 정보를 함께 오버레이 할 수 있다.Referring to FIG. 9, when overlaying the virtual visualization information 331 on the medical information 110 of the PACS viewer, the overlay module 340 can overlay the name of the lesion and information about the lesion together.

이때, 오버레이 모듈(340)은 의료 정보(110)에 오버레이 된 후에도 UI 모듈(220)을 통해, 병변 정보(321)를 선택에 따라 각각 표시하거나 숨기고, 병변 정보(321)의 투명도를 조절할 수 있다.At this time, the overlay module 340 can display or hide the lesion information 321 according to selection and adjust the transparency of the lesion information 321 through the UI module 220 even after it is overlaid on the medical information 110. .

또한, 오버레이 모듈(340)은 오버레이 완료 후 병변 정보(321)를 학습함으로써, 데이터베이스(D)에 추가하는 학습 모듈(341)을 더 포함할 수 있다.Additionally, the overlay module 340 may further include a learning module 341 that adds the lesion information 321 to the database D by learning the lesion information 321 after the overlay is completed.

학습 모듈(341)은 피드백 작용을 통해 병변 정보(321)를 데이터베이스(D)로 전달하고, 이를 재학습하는 것으로써 병변 검출의 신뢰성을 증가시킬 수 있다.The learning module 341 can increase the reliability of lesion detection by transmitting the lesion information 321 to the database D through a feedback function and relearning it.

또한, 학습 모듈(341)은 상기 일련의 과정을 통해 의료 정보(110)에 가상시각정보(331)이 오버레이 될 때마다 피드백 작용을 통해 학습하는 것으로, 점차 병변 검출의 신뢰성 및 오버레이 정확성이 증가시킬 수 있다.In addition, the learning module 341 learns through a feedback action each time the virtual visual information 331 is overlaid on the medical information 110 through the above series of processes, which will gradually increase the reliability of lesion detection and overlay accuracy. You can.

이상으로 첨부된 도면을 참조하여 본 발명의 실시 예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시할 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시 예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.Although embodiments of the present invention have been described above with reference to the attached drawings, those skilled in the art can realize that the present invention can be implemented in other specific forms without changing the technical idea or essential features of the present invention. You will be able to understand it. Therefore, the embodiments described above are illustrative in all respects and are not restrictive.

1: 질병진단을 위한 딥러닝 기반 증강현실 시스템
100: 의료 단말
110: 의료 정보
200: 클라이언트 단말
210: 디스플레이
220: UI 모듈
221: 추출 범위 조절 UI
222: 병변 선택 UI
223: 투명도 조절 UI
300: 서버
310: ROI 모듈
311: 관심영역정보
312: 추출 범위
320: 추출 모듈
321: 병변 정보
330: 시각화 모듈
331: 가상시각정보
340: 오버레이 모듈
341: 학습 모듈
D: 데이터베이스
C: 체크박스 300
1: Deep learning-based augmented reality system for disease diagnosis
100: Medical terminal
110: Medical information
200: client terminal
210: display
220: UI module
221: Extraction range adjustment UI
222: Lesion selection UI
223: Transparency control UI
300: server
310: ROI module
311: Area of interest information
312: Extraction range
320: Extraction module
321: Lesion information
330: Visualization module
331: Virtual visual information
340: Overlay module
341: Learning module
D: database
C: checkbox 300

Claims (9)

최소 하나 이상의 의료용 장비를 통해 디지털 형식의 이미지 및 영상 의료 정보를 생성하고, 송수신하는 의료 단말;
상기 의료 단말의 의료 정보를 이미지 및 영상으로 송신 받아 시각화하는 클라이언트 단말 및
상기 클라이언트 단말과 연결되며, PACS 뷰어에 기재된 상기 의료 정보를 분석, 가공 및 저장하는 서버를 포함하고,
상기 서버는,
상기 클라이언트 단말의 디스플레이 화면을 캡처하고, 캡처된 화면에서 의료 정보의 예상 위치에서 관심영역정보를 생성하는 ROI 모듈; 상기 관심영역정보를 딥러닝 모델 학습을 통한 정보와 각 병변의 특징이 저장된 데이터베이스의 정보를 비교해 병변 정보를 추출하는 추출 모듈;
상기 병변 정보를 증강된 가상시각정보 형태로 변환하는 시각화 모듈 및
상기 가상시각정보를 상기PACS 뷰어의 의료 정보에 오버레이 하는 오버레이 모듈을 포함하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.

A medical terminal that generates, transmits and receives images and video medical information in digital format through at least one medical device;
A client terminal that receives and visualizes medical information from the medical terminal as images and videos, and
It is connected to the client terminal and includes a server that analyzes, processes, and stores the medical information recorded in the PACS viewer,
The server is,
an ROI module that captures a display screen of the client terminal and generates region of interest information at an expected location of medical information in the captured screen; An extraction module that extracts lesion information by comparing the region of interest information with information through deep learning model learning and information in a database storing the characteristics of each lesion;
A visualization module that converts the lesion information into enhanced virtual visual information and
A deep learning-based augmented reality system for disease diagnosis including an overlay module that overlays the virtual visual information on the medical information of the PACS viewer.

제 1항에 있어서,
상기 클라이언트 단말은,
UI모듈을 더 포함하고,
상기 UI모듈은,
상기 시각화 모듈을 통해 시각화된 상기 병변 정보를 선택에 따라 각각 표시하거나 숨기고, 상기 병변 정보의 투명도를 조절하는 UI기능을 포함하는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 1,
The client terminal is,
Includes more UI modules,
The UI module is,
A deep learning-based augmented reality system for disease diagnosis, comprising a UI function that displays or hides the lesion information visualized through the visualization module according to selection and adjusts transparency of the lesion information.
제 1항에 있어서,
상기 ROI 모듈은,
상기 의료 정보의 캡처 범위를 수동 및 자동으로 설정할 수 있는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 1,
The ROI module is,
A deep learning-based augmented reality system for disease diagnosis, characterized in that the capture range of the medical information can be manually and automatically set.
제 3항에 있어서,
상기 ROI 모듈은,
상기 캡처 후 관심영역정보 추출 시, 해상도 크기를 조절하여 추출함으로써, 캡처 후 상기 관심영역정보와 캡처 전 상기 의료 정보의 해상도 차이를 최소화 하는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 3,
The ROI module is,
A deep learning-based augmented reality system for disease diagnosis, characterized in that the resolution difference between the region of interest information after capture and the medical information before capture is minimized by extracting the region of interest information after capture by adjusting the resolution size.
제 1항에 있어서,
상기 추출 모듈은,
상기 병변 정보를 추출할 때, 병변의 종류 및 병변의 증상에 따라 세분화하는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 1,
The extraction module is,
A deep learning-based augmented reality system for disease diagnosis, characterized in that when extracting the lesion information, it is segmented according to the type of lesion and the symptoms of the lesion.
제 6항에 있어서,
상기 추출 모듈은,
상기 병변 정보를 세분화 할 때, 각 병변의 종류 및 특징에 따른 색상의 차이를 설정 가능하게함으로써, 상기 병변 정보가 상기PACS 뷰어의 의료 정보에 오버레이 될 때, 가시성을 향상시키는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 6,
The extraction module is,
When segmenting the lesion information, it is possible to set color differences according to the type and characteristics of each lesion, thereby improving visibility when the lesion information is overlaid on the medical information of the PACS viewer. A deep learning-based augmented reality system for.
제 1항에 있어서,
상기 시각화 모듈은,
상기 가상시각화정보의 깊이, 넓이 및 해상도를 일정 비율로 조정하여 병변 검출 정확도를 향상시키는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 1,
The visualization module is,
A deep learning-based augmented reality system for disease diagnosis, characterized in that it improves lesion detection accuracy by adjusting the depth, width, and resolution of the virtual visualization information at a certain ratio.
제 1항에 있어서,
상기 오버레이 모듈은,
상기 가상시각화정보를 상기 PACS 뷰어에 오버레이 할 때, 병변의 명칭 및 병변의 정보가 함께 오버레이 되는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 1,
The overlay module is,
A deep learning-based augmented reality system for disease diagnosis, characterized in that when the virtual visualization information is overlaid on the PACS viewer, the name of the lesion and information about the lesion are overlaid together.
제 1항에 있어서,
상기 오버레이 모듈은,
오버레이 완료 후 상기 병변 정보를 학습함으로써, 데이터베이스에 추가하는 학습 모듈을 더 포함하는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 1,
The overlay module is,
A deep learning-based augmented reality system for disease diagnosis, further comprising a learning module that adds to the database by learning the lesion information after completing the overlay.
KR1020220133181A 2022-10-17 2022-10-17 Deep learning-based augmented reality system for medical diagnosis KR20240053280A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220133181A KR20240053280A (en) 2022-10-17 2022-10-17 Deep learning-based augmented reality system for medical diagnosis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220133181A KR20240053280A (en) 2022-10-17 2022-10-17 Deep learning-based augmented reality system for medical diagnosis

Publications (1)

Publication Number Publication Date
KR20240053280A true KR20240053280A (en) 2024-04-24

Family

ID=90884094

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220133181A KR20240053280A (en) 2022-10-17 2022-10-17 Deep learning-based augmented reality system for medical diagnosis

Country Status (1)

Country Link
KR (1) KR20240053280A (en)

Similar Documents

Publication Publication Date Title
TWI793337B (en) Systems and methods for training generative adversarial networks and use of trained generative adversarial networks
JP2024069390A (en) System and method for processing real-time video from a medical imaging device and detecting objects in the video - Patents.com
US9526586B2 (en) Software tools platform for medical environments
US11600386B2 (en) System and method for enhanced data analysis with specialized video enabled software tools for medical environments
US11232604B2 (en) Device for marking image data
US20230029070A1 (en) Systems and methods for immediate image quality feedback
AU2004243199B2 (en) Medical image recording system
CN114864035A (en) Image report generation method, device, system, equipment and storage medium
US20240115329A1 (en) System and method for enhanced data analysis with video enabled software tools for medical environments
CN110197722B (en) AI-CPU system platform
US11998400B2 (en) System and method for enhanced data analysis with specialized video enabled software tools for medical environments
KR20240053280A (en) Deep learning-based augmented reality system for medical diagnosis
JP2007296079A (en) Apparatus and program for processing medical image
EP4036867A2 (en) System and method for classifying dermatological images using machine learning
US11961225B2 (en) Systems and methods for detecting potential malignancies
US11107572B1 (en) Cross-validation of data derived from images captured during diagnostic sessions
WO2022147453A1 (en) Systems and methods for classifying and annotating images taken during a medical procedure
JP2012174162A (en) Diagnostic reading report display device and diagnostic reading report preparation device
KR102633823B1 (en) Apparatus for discriminating medical image and method thereof
CN112750537A (en) Remote medical guide system
TWI842573B (en) Computer-implemented systems for processing real-time video
JP7502125B2 (en) Medical image processing device, medical image processing system, and medical image processing method
US11896196B2 (en) Method for enhanced data analysis with specialized video enabled software tools for medical environments
EP4252655A1 (en) Medical image display system, medical image display method, and program
US20230277249A1 (en) Apparatus, systems, and methods for intraoperative instrument tracking and information visualization