KR20240053280A - Deep learning-based augmented reality system for medical diagnosis - Google Patents
Deep learning-based augmented reality system for medical diagnosis Download PDFInfo
- Publication number
- KR20240053280A KR20240053280A KR1020220133181A KR20220133181A KR20240053280A KR 20240053280 A KR20240053280 A KR 20240053280A KR 1020220133181 A KR1020220133181 A KR 1020220133181A KR 20220133181 A KR20220133181 A KR 20220133181A KR 20240053280 A KR20240053280 A KR 20240053280A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- lesion
- module
- medical
- deep learning
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 26
- 238000013135 deep learning Methods 0.000 title claims abstract description 23
- 238000003745 diagnosis Methods 0.000 title claims abstract description 20
- 230000003902 lesion Effects 0.000 claims abstract description 89
- 238000000034 method Methods 0.000 claims abstract description 24
- 201000010099 disease Diseases 0.000 claims abstract description 22
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 230000000007 visual effect Effects 0.000 claims abstract description 20
- 238000012800 visualization Methods 0.000 claims abstract description 11
- 238000013136 deep learning model Methods 0.000 claims abstract description 6
- 239000000284 extract Substances 0.000 claims abstract description 3
- 238000001514 detection method Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 5
- 208000024891 symptom Diseases 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 210000000416 exudates and transudate Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 208000032843 Hemorrhage Diseases 0.000 description 1
- 208000009857 Microaneurysm Diseases 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012831 peritoneal equilibrium test Methods 0.000 description 1
- 238000012636 positron electron tomography Methods 0.000 description 1
- 238000012877 positron emission topography Methods 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Databases & Information Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
본 발명의 실시 예에 따른 질병진단을 위한 딥러닝 기반 증강현실 시스템은, 최소 하나 이상의 의료용 장비를 통해 디지털 형식의 이미지 및 영상 의료 정보를 생성하고, 송수신하는 의료 단말, 상기 의료 단말의 의료 정보를 이미지 및 영상으로 송신 받아 시각화하는 클라이언트 단말 및 상기 클라이언트 단말과 연결되며, PACS 뷰어에 기재된 상기 의료 정보를 분석, 가공 및 저장하는 서버를 포함하고, 상기 서버는, 상기PACS 뷰어에 기재된 상기 의료 정보를 캡처하고, 캡처 된 상기 의료 정보를 토대로 ROI 추출을 통해 병변 예상 위치에 관심영역정보를 생성하는 ROI모듈, 상기 관심영역정보를 딥러닝 모델 학습을 통한 정보와 각 병변의 특징이 저장된 데이터베이스의 정보를 비교해 병변 정보를 추출하는 추출 모듈, 상기 병변 정보를 증강된 가상시각정보 형태로 변환하는 시각화 모듈 및 상기 가상시각정보를 상기 PACS 뷰어의 의료 정보에 오버레이 하는 오버레이 모듈을 포함하는 질병진단을 위한 딥러닝 기반 증강현실 시스템을 제공한다.
A deep learning-based augmented reality system for disease diagnosis according to an embodiment of the present invention generates, transmits and receives images and video medical information in digital format through at least one medical equipment, and medical information of the medical terminal. It includes a client terminal that receives and visualizes images and videos, and a server that is connected to the client terminal and analyzes, processes, and stores the medical information written in the PACS viewer, wherein the server stores the medical information written in the PACS viewer. ROI module that captures and generates region of interest information at the expected location of the lesion through ROI extraction based on the captured medical information, information on the region of interest through learning a deep learning model, and information in a database where the characteristics of each lesion are stored. Deep learning for disease diagnosis including an extraction module that compares and extracts lesion information, a visualization module that converts the lesion information into augmented virtual visual information, and an overlay module that overlays the virtual visual information on the medical information of the PACS viewer. Provides a base augmented reality system.
Description
본 발명은 의료용 장비를 통해 생성된 디지털 형식의 이미지 및 영상 의료정보를 토대로 딥러닝 학습을 통해 병변의 여부 및 위치를 손쉽게 파악할 수 있도록 PACS 뷰어에 증상현실형태로 오버레이하여 개시하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템에 관한 것이다.The present invention is a deep learning method for disease diagnosis that is initiated by overlaying the presence and location of lesions in the form of symptom reality on a PACS viewer based on digital image and video medical information generated through medical equipment through deep learning. This is about a learning-based augmented reality system.
의료에 있어서 데이터 분석을 통한 최적의 진단이나 처방의 중요성이 커지고 있다. 하지만 다양한 의료기기와 병원의 정보 시스템의 발전에 따라 생성되고 저장되는 의료데이터의 양은 폭발적으로 증가하고있다.In medicine, the importance of optimal diagnosis or prescription through data analysis is increasing. However, with the development of various medical devices and hospital information systems, the amount of medical data generated and stored is explosively increasing.
이러한 데이터 급증에 반해 의료진의 부족 현상이 가속화 될 것으로 예상되고 있다.Despite this surge in data, the shortage of medical staff is expected to accelerate.
이러한 의료진의 인력 부족을 해결하기 위해 의료진의 판단을 빠르게 하고, 판단의 정확성을 높여 신뢰성을 증가시키는 기술이 필요한 실정이다.In order to solve this shortage of medical personnel, there is a need for technology that speeds up the judgment of medical staff and increases reliability by increasing the accuracy of judgment.
대부분의 의료업계에서는 수많은 양의 의료 데이터를 처리하기 위해, 의료 영상의 저장 전송 시스템으로 PACS(Picture Archiving Communication System)를 사용하고 있다.Most medical industries use PACS (Picture Archiving Communication System) as a storage and transmission system for medical images to process large amounts of medical data.
PACS는 영상 및 이미지 정보를 디지털 상태로 획득 및 저장하고, 그 판독과 진료기록을 함께 전송하고 검색 할 수 있는 기능을 통합적으로 제공한다.PACS acquires and stores video and image information in a digital state, and provides integrated functions to transmit and search the readings and medical records.
특히, PACS는 CT, MRI, PET 및 SPECT 등에 의해 촬영된 모든 방사선 검사 결과를 디지털 이미지로 변환, 촬영과 동시에 대용량 기억장치에 저장시켜 영상의학과 전문가가 모니터를 통해 판독할 수 있도록 함으로써 환자의 상태를 찍은 필름을 의사가 수초 만에 컴퓨터 영상으로 띄워 진료에 이용할 수 있도록 한다.In particular, PACS converts all radiological test results taken by CT, MRI, PET, and SPECT into digital images and stores them in a large-capacity memory device at the same time as they are taken, so that radiologists can read them through a monitor to monitor the patient's condition. The doctor can upload the captured film into a computer image within seconds and use it for medical treatment.
하지만 이러한 PACS를 이용한 의료 데이터의 방식은 개시된 이미지를 보고 병변의 여부 및 병변의 종류 등을 판단한다.However, this method of medical data using PACS determines whether there is a lesion and the type of lesion by looking at the disclosed image.
이때, 의료진의 부주의로 인해 PACS에 개시된 병변을 실수로 확인하지 못하거나, 의료진의 의학적 지식이 부족해 이해하지 못하는 상황이 발생한다면, 이는 큰 의료사고가 발생할 수 있다.At this time, if the lesions disclosed in the PACS are not identified by mistake due to the carelessness of the medical staff, or if a situation occurs where the medical staff does not understand due to lack of medical knowledge, a serious medical accident may occur.
이러한 문제를 해결하기 위해 인공지능을 이용하여 병변 정보를 검출 및 개시하고 의료진의 의학적 지식을 더함으로써, PACS에 개시된 병변 정보에 대한 빠른 판단이 가능함과 동시에 의료진의 실수를 줄일 수 있는 질병 진단을 위한 딥러닝 기반 증강현실 시스템의 개발이 절실한 실정이었다.To solve this problem, by using artificial intelligence to detect and display lesion information and adding medical knowledge of the medical staff, a quick judgment on the lesion information disclosed in PACS is possible and at the same time, it is possible to diagnose diseases that can reduce medical staff's mistakes. The development of a deep learning-based augmented reality system was urgently needed.
선행기술로는 한국등록특허 제10-2108401호 "인공지능 판독서버, 이를 포함하는 PACS 기반 영상 처리 시스템 및 방법"이 개시되어 있다.As a prior art, Korean Patent No. 10-2108401 “Artificial intelligence reading server, PACS-based image processing system and method including same” is disclosed.
본 발명은 상기한 바와 같은 문제점을 해결하고자 발명한 것으로, 의료용 장비를 통해 획득한 의료 정보를 PACS에 디지털 이미지 형식으로 개시하고, 딥러닝 방식을 통해 기존 데이터베이스의 병변 정보와 PACS에 개시된 이미지를 비교해 병변 정보를 생성함과 동시에, 병변 정보를 가상시각정보로 변환하고, 가상시각정보를 선 개시된 PACS의 이미지에 오버레이하여, 병변 여부 검출의 신뢰성을 증가시키는 질병진단을 위한 딥러닝 기반 증강현실 시스템을 제공하는 것을 목적으로 한다.The present invention was invented to solve the problems described above. Medical information acquired through medical equipment is disclosed in a digital image format in PACS, and the lesion information in the existing database is compared with the images disclosed in PACS through a deep learning method. A deep learning-based augmented reality system for disease diagnosis that generates lesion information, converts the lesion information into virtual visual information, and overlays the virtual visual information on the image of the previously launched PACS to increase the reliability of lesion detection. The purpose is to provide
상기에 제시된 과제를 해결하기 위한 본 발명의 실시 예에 따른 질병진단을 위한 딥러닝 기반 증강현실 시스템은, 최소 하나 이상의 의료용 장비를 통해 디지털 형식의 이미지 및 영상 의료 정보를 생성하고, 송수신하는 의료 단말, 상기 의료 단말의 의료 정보를 이미지 및 영상으로 송신 받아 시각화하는 클라이언트 단말 및 상기 클라이언트 단말과 연결되며, PACS 뷰어에 기재된 상기 의료 정보를 분석, 가공 및 저장하는 서버를 포함하고, 상기 서버는, 상기 클라이언트 단말의 디스플레이 화면을 캡처하고, 캡처된 화면에서 의료 정보의 예상 위치에서 관심영역정보를 생성하는 ROI 모듈, 상기 관심영역정보를 딥러닝 모델 학습을 통한 정보와 각 병변의 특징이 저장된 데이터베이스의 정보를 비교해 병변 정보를 추출하는 추출 모듈, 상기 병변 정보를 증강된 가상시각정보 형태로 변환하는 시각화 모듈 및 상기 가상시각정보를 상기 PACS 뷰어의 의료 정보에 오버레이 하는 오버레이 모듈을 포함할 수 있다.A deep learning-based augmented reality system for disease diagnosis according to an embodiment of the present invention to solve the problems presented above is a medical terminal that generates, transmits and receives images and video medical information in digital format through at least one medical device. , a client terminal that receives and visualizes the medical information of the medical terminal as images and videos, and a server that is connected to the client terminal and analyzes, processes, and stores the medical information written in the PACS viewer, the server comprising: ROI module that captures the display screen of the client terminal and generates region of interest information from the expected location of medical information on the captured screen, information on the region of interest through learning a deep learning model, and information in a database where the characteristics of each lesion are stored It may include an extraction module that compares and extracts lesion information, a visualization module that converts the lesion information into an enhanced virtual visual information form, and an overlay module that overlays the virtual visual information on the medical information of the PACS viewer.
또한, 상기 클라이언트 단말은, UI모듈을 더 포함하고, 상기 UI모듈은, 상기 시각화 모듈을 통해 시각화된 상기 병변 정보를 선택에 따라 각각 표시하거나 숨기고, 상기 병변 정보의 투명도를 조절하는 UI기능을 포함할 수 있다.In addition, the client terminal further includes a UI module, and the UI module includes a UI function for displaying or hiding the lesion information visualized through the visualization module according to selection and adjusting transparency of the lesion information. can do.
또한, 상기 ROI 모듈은, 상기 의료 정보의 위치를 수동 및 자동으로 설정할 수 있는 것을 특징으로 할 수 있다.Additionally, the ROI module may be capable of manually and automatically setting the location of the medical information.
또한, 상기ROI 모듈은, 상기 의료 정보의 위치 지정 후 관심영역정보 추출 시, 해상도 크기를 조절하여 추출함으로써, 캡처 후 상기 관심영역정보와 캡처 전 상기 의료 정보의 해상도 차이를 최소화 하는 것을 특징으로 할 수 있다.In addition, the ROI module may be characterized in that it minimizes the difference in resolution between the region of interest information after capture and the medical information before capture by adjusting the resolution size when extracting region of interest information after specifying the location of the medical information. You can.
또한, 상기 추출 모듈은, 상기 병변 정보를 추출할 때, 병변의 종류 및 병변의 증상에 따라 세분화하는 것을 특징으로 할 수 있다.Additionally, the extraction module may be characterized in that, when extracting the lesion information, it is segmented according to the type of lesion and the symptoms of the lesion.
또한, 상기 추출 모듈은, 상기 병변 정보를 세분화 할 때, 각 병변의 종류 및 특징에 따른 색상의 차이를 설정 가능하게함으로써, 상기 병변 정보가 상기PACS 뷰어의 의료 정보에 오버레이 될 때, 가시성을 향상시키는 것을 특징으로 할 수 있다.In addition, the extraction module improves visibility when the lesion information is overlaid on the medical information of the PACS viewer by enabling setting color differences according to the type and characteristics of each lesion when segmenting the lesion information. It can be characterized as being ordered.
또한, 상기 시각화 모듈은, 상기 가상시각화정보의 깊이, 넓이 및 해상도를 일정 비율로 조정하여 병변 검출 정확도를 향상시키는 것을 특징으로 할 수 있다.Additionally, the visualization module may improve lesion detection accuracy by adjusting the depth, width, and resolution of the virtual visualization information at a certain ratio.
또한, 상기 오버레이 모듈은, 상기 가상시각화정보를 상기 PACS 뷰어에 오버레이 할 때, 병변의 명칭 및 병변의 정보가 함께 오버레이 되는 것을 특징으로 할 수 있다.In addition, the overlay module may be characterized in that when overlaying the virtual visualization information on the PACS viewer, the name of the lesion and information about the lesion are overlaid together.
또한, 상기 오버레이 모듈은 오버레이 완료 후 상기 병변 정보를 학습함으로써, 데이터베이스에 추가하는 학습 모듈을 더 포함하는 것을 특징으로 할 수 있다.Additionally, the overlay module may further include a learning module that adds the lesion information to the database by learning the lesion information after the overlay is completed.
본 발명의 실시 예에 따른 질병진단을 위한 딥러닝 기반 증강현실 시스템은 병변 정보를 가상시각정보로 변환하고, 가상시각정보를 선 개시된 PACS의 이미지에 오버레이하여, 병변 여부 검출의 신뢰성을 증가시킬 수 있다.The deep learning-based augmented reality system for disease diagnosis according to an embodiment of the present invention can increase the reliability of detecting lesions by converting lesion information into virtual visual information and overlaying the virtual visual information on the image of the previously launched PACS. there is.
또한, PACS 뷰어의 이미지를 캡처하고 이에 따른 가상시각정보를 생성하는 것으로, PACS 뷰어의 시스템적 구성 변화 없이 이용할 수 있다.Additionally, by capturing the image of the PACS viewer and generating virtual visual information accordingly, it can be used without changing the system configuration of the PACS viewer.
또한, 클라이언트 단말에 이동식 디스크 없이 PACS 뷰어의 이미지 및 영상을 송신 받을 수 있다.Additionally, images and videos from the PACS viewer can be transmitted to the client terminal without a removable disk.
도 1은 본 발명의 실시 예에 따른 질병진단을 위한 딥러닝 기반 증강현실 시스템의 블록도.
도 2는 의료 단말의 의료 정보 전달 과정을 나타낸 예시도.
도 3은 도 2의 UI 모듈을 확대해 도시한 확대도.
도 4는 본 발명의 실시 예에 따른 서버의 동작 방식에 대한 블록도.
도 5는 ROI 모듈을 통한 관심영역정보 생성과정을 나타낸 예시도.
도 6은 추출 모듈을 통한 병변 정보 생성과정을 나타낸 예시도.
도 7은 도 6을 통해 생성된 병변 정보를 나타낸 예시도.
도 8은 증강된 가상시각화정보를 나타낸 예시도.
도 9는 가상시각정보가 의료 정보에 오버레이 된 것을 나타낸 예시도.
1 is a block diagram of a deep learning-based augmented reality system for disease diagnosis according to an embodiment of the present invention.
Figure 2 is an example diagram showing the medical information transmission process of a medical terminal.
Figure 3 is an enlarged view showing the UI module of Figure 2.
Figure 4 is a block diagram of how a server operates according to an embodiment of the present invention.
Figure 5 is an example diagram showing the process of generating region of interest information through the ROI module.
Figure 6 is an example diagram showing the lesion information generation process through the extraction module.
Figure 7 is an example diagram showing lesion information generated through Figure 6.
Figure 8 is an example diagram showing augmented virtual visualization information.
Figure 9 is an example diagram showing virtual visual information overlaid on medical information.
이하, 도면을 참조한 본 발명의 설명은 특정한 실시 형태에 대해 한정되지 않으며, 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있다. 또한, 이하에서 설명하는 내용은 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the description of the present invention with reference to the drawings is not limited to specific embodiments, and various changes may be made and various embodiments may be possible. In addition, the content described below should be understood to include all conversions, equivalents, and substitutes included in the spirit and technical scope of the present invention.
이하의 설명에서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용되는 용어로서, 그 자체에 의미가 한정되지 아니하며, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following description, terms such as first, second, etc. are terms used to describe various components, and their meaning is not limited, and is used only for the purpose of distinguishing one component from other components.
본 명세서 전체에 걸쳐 사용되는 동일한 참조 번호는 동일한 구성요소를 나타낸다.Like reference numerals used throughout this specification refer to like elements.
본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 이하에서 기재되는 "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로 해석되어야 하며, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As used herein, singular expressions include plural expressions, unless the context clearly dictates otherwise. In addition, terms such as “comprise,” “provide,” or “have” used below are intended to designate the presence of features, numbers, steps, operations, components, parts, or a combination thereof described in the specification. It should be construed and understood as not precluding the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms such as those defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and should not be interpreted in an idealized or overly formal sense unless explicitly defined in the present application. No.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여 하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when describing with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted. In describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.
이하, 본 발명의 실시 예를 첨부한 도 1 내지 도 9를 참조하여 상세히 설명하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying FIGS. 1 to 9.
도 1은 본 발명의 실시 예에 따른 질병진단을 위한 딥러닝 기반 증강현실 시스템의 블록도이고, 도 2는 디스플레이에 유저인터페이스 형태로 형성된 UI 모듈을 도시한 예시도이며, 도 3은 도 2의 UI 모듈을 확대해 도시한 확대도이다.Figure 1 is a block diagram of a deep learning-based augmented reality system for disease diagnosis according to an embodiment of the present invention, Figure 2 is an example diagram showing a UI module formed in the form of a user interface on a display, and Figure 3 is a diagram of Figure 2 This is an enlarged view of the UI module.
먼저 도 1을 참조하면, 질병진단을 위한 딥러닝 기반 증강현실 시스템(1)은 의료 단말(100), 클라이언트 단말(200), 서버(300)를 포함할 수 있다.First, referring to FIG. 1, the deep learning-based
의료 단말(100)은 CT(Computed Tomography), X-Ray, 내시경 장비 등의 의료 장비를 통해 환자의 신체 내부 및 외부를 이미지 또는 영상으로 촬영된 정보를 디지털화 할 수 있다.The
이때, 의료 단말(100)은 최소 하나 이상의 의료용 장비를 통해 디지털 형식의 이미지 및 영상 의료 정보(110)를 생성할 수 있다.At this time, the
의료 정보(110)는 DCM 형식의 파일 방식으로 형성되는 것이 바람직하나, 이에 한정하지 않는다.The
이때,DCM(Digital Imaging and Communications in Medicine, DICOM)은 의료용 디지털 영상 및 통신 표준의 약자로 의료용 기기에 디지털 영상 표현과 통신에 사용되는 여러 가지 표준을 총칭하는 말로 사용하기로 한다.At this time, DCM (Digital Imaging and Communications in Medicine, DICOM) is an abbreviation for medical digital imaging and communication standard and will be used as a general term for various standards used for digital image expression and communication in medical devices.
클라이언트 단말(200)은 의료 단말(100)로부터 생성된 의료 정보(110)를 이미지 및 영상으로 송신 받을 수 있다.The
이때, 클라이언트 단말(200)은 디스플레이(210)를 구비하는 형태로 형성되는 것이 바람직하다.At this time, the
디스플레이(210)는 클라이언트 단말(200)이 송신 받은 이미지 및 영상 형태의 의료 정보(110)를 시각화해 사용자에게 제공할 수 있다.The
도 2를 참조하면, 디스플레이(210)는 UI 모듈(220)과 PACS 뷰어에 기재된 의료 정보(110)를 동시에 한 화면상에 표기할 수 있다.Referring to FIG. 2, the
이때, UI 모듈(220)은 디스플레이(210) 화면에 유저인터페이스 형태로 형성될 수 있다.At this time, the
유저인터페이스 형태란, 사전적 정의에 따라, 사람과 컴퓨터 시스템 프로그램 간 상호작용을 의미하는 것이며, 통상의 기술자가 이해하기에 어려움이 없는 것으로, 구체적인 설명은 생략하기로 한다.According to the dictionary definition, the user interface form refers to the interaction between a person and a computer system program, and as it is easy for a person skilled in the art to understand, detailed explanations will be omitted.
한편, UI 모듈(220)은 하기에서 자세히 설명할 병변 정보(321)를 선택에 따라 각각 표시하거나 숨기고, 병변 정보(321)의 투명도를 조절할 수 있다.Meanwhile, the
자세히는 도 3을 참조하면, UI 모듈(220)은 추출 범위 조절 UI(221), 병변 선택 UI(222) 및 투명도 조절 UI(223)을 포함 할 수 있다.Referring to FIG. 3 in detail, the
이때, UI 모듈(220)은 디스플레이(210) 상에서 크기의 조절이 자유롭게 형성될 수 있다.At this time, the
서버(300)는 상기 클라이언트 단말(200)과 연결되어 형성될 수 있다.The
이때, 서버(300)는 PACS 뷰어에 기재된 의료 정보(110)를 분석, 가공 및 저장할 수 있다.At this time, the
PACS 뷰어는 의료 영상 저장 전송 시스템으로, DCM 형식의 의료 정보(110)를 저장하고, 판독하며, 진단 기록 등을 추가함과 동시에 DICOM 프로토콜 규격에 따라 네트워크에 연결된 다른 단말로 전송이 가능하도록 하는 무선 통신 기능을 구비할 수 있다.The PACS viewer is a medical image storage and transmission system that stores and reads medical information (110) in DCM format, adds diagnostic records, etc., and transmits it wirelessly to other terminals connected to the network according to the DICOM protocol standard. It can be equipped with a communication function.
도 4는 본 발명의 실시 예에 따른 서버의 동작 방식에 대한 블록도이고, 도 5는 ROI 모듈을 통한 관심영역정보 생성과정을 나타낸 예시도이며, 도 6은 추출 모듈을 통한 병변 정보 생성과정을 나타낸 예시도이고, 도 7은 도 6을 통해 생성된 병변 정보를 나타낸 예시도이며, 도 8은 증강된 가상시각화정보를 나타낸 예시도이고, 도 9는 가상시각정보가 의료 정보에 오버레이 된 것을 나타낸 예시도 이다.Figure 4 is a block diagram of the operation method of the server according to an embodiment of the present invention, Figure 5 is an example diagram showing the process of generating region of interest information through the ROI module, and Figure 6 is a diagram showing the process of generating lesion information through the extraction module. Figure 7 is an example diagram showing lesion information generated through Figure 6, Figure 8 is an example diagram showing augmented virtual visualization information, and Figure 9 shows virtual visual information overlaid on medical information. This is also an example.
서버(300)는 ROI 모듈(310), 추출 모듈(320), 시각화 모듈(330) 및 오버레이 모듈(340)을 포함할 수 있다.The
구체적으로 도 5를 참조하면, ROI 모듈(310)은 디스플레이(210) 화면을 캡처하고, 캡처된 화면에서 의료 정보(110)의 위치를 추정하여 관심영역정보(311)를 생성할 수 있다.Specifically, referring to FIG. 5 , the
이때, 관심영역정보(311)는 추출 시, 해상도 크기를 조절하여 추출함으로써, 캡처 전 의료 정보(110)와 해상도 차이를 최소화 할 수 있다.At this time, the region of
상기에 기술한 해상도 차이를 극복하기 위해, 이미지 및 영상의 단위 면적 당 존재하는 픽셀 수의 비율을 일정하게 유지하는 방법을 사용하여 해상도를 유지하도록 할 수 있다.In order to overcome the resolution difference described above, the resolution can be maintained by using a method of maintaining the ratio of the number of pixels per unit area of the image and video constant.
또한, ROI 모듈(310)은 추출 범위 조절 UI(221)를 통해 의료 정보(110)의 추출 범위(312)를 수동 및 자동으로 설정할 수 있다.Additionally, the
추출 범위(312)는 자동 설정 시, 딥러닝 모델 중 하나인 YOLO를 통해 기 학습된 관심영역정보(311)를 토대로, 디스플레이(210) 화면을 캡처한 이미지에서 추출할 수 있다.When automatically set, the
이때, 딥러닝 모델 YOLO는 객체 탐지 모델 중 하나로써, 합성곱 신경망을 통해 상기 과정을 통해 캡처된 이미지를 처리하고 이에 따라 디스플레이(210) 화면에서 관심영역정보(311)를 추정하고 표시할 수 있다.At this time, the deep learning model YOLO is one of the object detection models, and processes the image captured through the above process through a convolutional neural network. Accordingly, the region of
여기서, 합성곱 신경망은 필터링 기법을 인공신경망에 적용하여 이미지를 효과적으로 처리할 수 있는 심층 신경망 기법으로 행렬로 표현된 필터의 각 요소가 데이터 처리에 적합하도록 자동으로 학습되는 과정을 통해 이미지를 분류하는 기법을 말하는 것이며. 통상의 기술자가 이해하기에 어려움이 없는 내용으로 구체적인 설명은 생략하기로 한다.Here, the convolutional neural network is a deep neural network technique that can effectively process images by applying filtering techniques to artificial neural networks. It classifies images through a process in which each element of the filter expressed in a matrix is automatically learned to be suitable for data processing. I'm talking about technique. Since the content is easy for a person skilled in the art to understand, detailed explanation will be omitted.
이때, YOLO는 캡처 된 이미지를 데이터베이스에 저장되어있는 관심영역정보(311) 데이터와 상세히 비교해 디스플레이(210) 화면에서 추출 범위(312)를 설정할 수 있다.At this time, YOLO can set the
또한, 추출 범위(312)는 수동 설정 시, 직접 관심영역정보(311)를 설정함으로써, 자동 설정 시 발생할 수 있는 오류 상황에 대비할 수 있다.Additionally, when setting the
다음으로 도 6 및 도 7을 참조하면, 추출 모듈(320)은 관심영역정보(311)를 딥러닝 모델 학습을 통한 정보와 각 병변의 특징이 저장된 데이터베이스(D) 정보를 비교해 병변 정보(321)를 추출할 수 있다.Next, referring to FIGS. 6 and 7, the
병변 정보(321)는 병변의 종류 및 병변의 증상에 따라 세분화되어 추출 될 수 있다.The
예를 들어 안저 질환의 경우, 병변 정보(321)를 세분화 하면, EX(Hard Exudate), SE(Soft Exudate), HE(Hemorrhage), MA(Microaneurysm) 등의 안저 질환으로 세분화 할 수 있다.For example, in the case of fundus disease, the
이를 통해, 병변 정보(321)의 세분화 과정은 어느 위치에 어떤 병변이 발생했는지 단시간에 파악할 수 있어, 병변의 검출 속도 및 신뢰성을 증가 시킬 수 있다.Through this, the segmentation process of the
또한, 병변 정보(321)는 세분화 할 때, 각 병변의 종류 및 특징에 따른 색상의 차이를 보이도록 설정하게 할 수 있다.Additionally, the
이에 따라, 병변 정보(321)는 병변의 여부와 위치를 파악하고, 판단하는 사용자의 가시성을 증가 시킬 수 있다.Accordingly, the
병변 정보(321)의 세분화의 경우 상기에서 기술한 안저 질환에만 국한되어 사용되는 것이 아닌 PACS 뷰어를 통해 획득할 수 있는 이미지 및 영상에 모두 적용 할 수 있다.In the case of segmentation of
병변 정보(321)는 세분화되어 추출된 후, 병변 선택 UI(222)를 통해 병변의 종류 및 병변의 증상에 따라 표시 여부를 선택 할 수 있다.After the
이때, 병변 정보(321)는 병변 선택 UI(222)에 표시되어 있는 체크박스(C)를 통해 세분화된 병변의 표시 여부를 각각 제어할 수 있다.At this time, the
도 8을 참조하면, 시각화 모듈(330)은 병변 정보(321)를 증강된 가상시각정보(331) 형태로 변환할 수 있다.Referring to FIG. 8, the
이때, 시각화 모듈(330)은 병변 정보(321)를 투명도 조절 UI(223)를 통해 원하는 투명도로 조절 가능하게 할 수 있다.At this time, the
여기서, 가상시각정보(331)가 증강되었다는 것은 기존에 사용되는 AR(Augmented Reality)기술을 의미하는 것으로, 현실의 이미지 및 영상에 3차원 가상 이미지를 겹쳐서 하나의 영상 또는 이미지로 표현하는 기술을 의미하는 것으로 해석할 수 있다.Here, the fact that the virtual
이때, 가상시각정보(331)는 깊이, 넓이 및 해상도를 일정 비율로 조정하여 병변 검출 정확도를 향상시킬 수 있다.At this time, the virtual
가상시각정보(331)는 EfficientNet를 통해 깊이, 넓이 및 해상도의 비율을 적절하게 조합하는 Compound Scaling 식을 도입하여 최적의 비율을 찾아 깊이 넓이 해상도를 일정 비율로 조정할 수 있다.The virtual
오버레이 모듈(340)은 가상시각정보(331)를 PACS 뷰어의 의료 정보(110)에 오버레이 할 수 있다.The
도 9를 참조하면, 오버레이 모듈(340)은 가상시각화정보(331)를 PACS 뷰어의 의료 정보(110)에 오버레이 할 때, 병변의 명칭 및 병변의 정보를 함께 오버레이 할 수 있다.Referring to FIG. 9, when overlaying the
이때, 오버레이 모듈(340)은 의료 정보(110)에 오버레이 된 후에도 UI 모듈(220)을 통해, 병변 정보(321)를 선택에 따라 각각 표시하거나 숨기고, 병변 정보(321)의 투명도를 조절할 수 있다.At this time, the
또한, 오버레이 모듈(340)은 오버레이 완료 후 병변 정보(321)를 학습함으로써, 데이터베이스(D)에 추가하는 학습 모듈(341)을 더 포함할 수 있다.Additionally, the
학습 모듈(341)은 피드백 작용을 통해 병변 정보(321)를 데이터베이스(D)로 전달하고, 이를 재학습하는 것으로써 병변 검출의 신뢰성을 증가시킬 수 있다.The
또한, 학습 모듈(341)은 상기 일련의 과정을 통해 의료 정보(110)에 가상시각정보(331)이 오버레이 될 때마다 피드백 작용을 통해 학습하는 것으로, 점차 병변 검출의 신뢰성 및 오버레이 정확성이 증가시킬 수 있다.In addition, the
이상으로 첨부된 도면을 참조하여 본 발명의 실시 예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시할 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시 예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.Although embodiments of the present invention have been described above with reference to the attached drawings, those skilled in the art can realize that the present invention can be implemented in other specific forms without changing the technical idea or essential features of the present invention. You will be able to understand it. Therefore, the embodiments described above are illustrative in all respects and are not restrictive.
1: 질병진단을 위한 딥러닝 기반 증강현실 시스템
100: 의료 단말
110: 의료 정보
200: 클라이언트 단말
210: 디스플레이
220: UI 모듈
221: 추출 범위 조절 UI
222: 병변 선택 UI
223: 투명도 조절 UI
300: 서버
310: ROI 모듈
311: 관심영역정보
312: 추출 범위
320: 추출 모듈
321: 병변 정보
330: 시각화 모듈
331: 가상시각정보
340: 오버레이 모듈
341: 학습 모듈
D: 데이터베이스
C: 체크박스 300
1: Deep learning-based augmented reality system for disease diagnosis
100: Medical terminal
110: Medical information
200: client terminal
210: display
220: UI module
221: Extraction range adjustment UI
222: Lesion selection UI
223: Transparency control UI
300: server
310: ROI module
311: Area of interest information
312: Extraction range
320: Extraction module
321: Lesion information
330: Visualization module
331: Virtual visual information
340: Overlay module
341: Learning module
D: database
C:
Claims (9)
상기 의료 단말의 의료 정보를 이미지 및 영상으로 송신 받아 시각화하는 클라이언트 단말 및
상기 클라이언트 단말과 연결되며, PACS 뷰어에 기재된 상기 의료 정보를 분석, 가공 및 저장하는 서버를 포함하고,
상기 서버는,
상기 클라이언트 단말의 디스플레이 화면을 캡처하고, 캡처된 화면에서 의료 정보의 예상 위치에서 관심영역정보를 생성하는 ROI 모듈; 상기 관심영역정보를 딥러닝 모델 학습을 통한 정보와 각 병변의 특징이 저장된 데이터베이스의 정보를 비교해 병변 정보를 추출하는 추출 모듈;
상기 병변 정보를 증강된 가상시각정보 형태로 변환하는 시각화 모듈 및
상기 가상시각정보를 상기PACS 뷰어의 의료 정보에 오버레이 하는 오버레이 모듈을 포함하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
A medical terminal that generates, transmits and receives images and video medical information in digital format through at least one medical device;
A client terminal that receives and visualizes medical information from the medical terminal as images and videos, and
It is connected to the client terminal and includes a server that analyzes, processes, and stores the medical information recorded in the PACS viewer,
The server is,
an ROI module that captures a display screen of the client terminal and generates region of interest information at an expected location of medical information in the captured screen; An extraction module that extracts lesion information by comparing the region of interest information with information through deep learning model learning and information in a database storing the characteristics of each lesion;
A visualization module that converts the lesion information into enhanced virtual visual information and
A deep learning-based augmented reality system for disease diagnosis including an overlay module that overlays the virtual visual information on the medical information of the PACS viewer.
상기 클라이언트 단말은,
UI모듈을 더 포함하고,
상기 UI모듈은,
상기 시각화 모듈을 통해 시각화된 상기 병변 정보를 선택에 따라 각각 표시하거나 숨기고, 상기 병변 정보의 투명도를 조절하는 UI기능을 포함하는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 1,
The client terminal is,
Includes more UI modules,
The UI module is,
A deep learning-based augmented reality system for disease diagnosis, comprising a UI function that displays or hides the lesion information visualized through the visualization module according to selection and adjusts transparency of the lesion information.
상기 ROI 모듈은,
상기 의료 정보의 캡처 범위를 수동 및 자동으로 설정할 수 있는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 1,
The ROI module is,
A deep learning-based augmented reality system for disease diagnosis, characterized in that the capture range of the medical information can be manually and automatically set.
상기 ROI 모듈은,
상기 캡처 후 관심영역정보 추출 시, 해상도 크기를 조절하여 추출함으로써, 캡처 후 상기 관심영역정보와 캡처 전 상기 의료 정보의 해상도 차이를 최소화 하는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 3,
The ROI module is,
A deep learning-based augmented reality system for disease diagnosis, characterized in that the resolution difference between the region of interest information after capture and the medical information before capture is minimized by extracting the region of interest information after capture by adjusting the resolution size.
상기 추출 모듈은,
상기 병변 정보를 추출할 때, 병변의 종류 및 병변의 증상에 따라 세분화하는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 1,
The extraction module is,
A deep learning-based augmented reality system for disease diagnosis, characterized in that when extracting the lesion information, it is segmented according to the type of lesion and the symptoms of the lesion.
상기 추출 모듈은,
상기 병변 정보를 세분화 할 때, 각 병변의 종류 및 특징에 따른 색상의 차이를 설정 가능하게함으로써, 상기 병변 정보가 상기PACS 뷰어의 의료 정보에 오버레이 될 때, 가시성을 향상시키는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 6,
The extraction module is,
When segmenting the lesion information, it is possible to set color differences according to the type and characteristics of each lesion, thereby improving visibility when the lesion information is overlaid on the medical information of the PACS viewer. A deep learning-based augmented reality system for.
상기 시각화 모듈은,
상기 가상시각화정보의 깊이, 넓이 및 해상도를 일정 비율로 조정하여 병변 검출 정확도를 향상시키는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 1,
The visualization module is,
A deep learning-based augmented reality system for disease diagnosis, characterized in that it improves lesion detection accuracy by adjusting the depth, width, and resolution of the virtual visualization information at a certain ratio.
상기 오버레이 모듈은,
상기 가상시각화정보를 상기 PACS 뷰어에 오버레이 할 때, 병변의 명칭 및 병변의 정보가 함께 오버레이 되는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 1,
The overlay module is,
A deep learning-based augmented reality system for disease diagnosis, characterized in that when the virtual visualization information is overlaid on the PACS viewer, the name of the lesion and information about the lesion are overlaid together.
상기 오버레이 모듈은,
오버레이 완료 후 상기 병변 정보를 학습함으로써, 데이터베이스에 추가하는 학습 모듈을 더 포함하는 것을 특징으로 하는 질병 진단을 위한 딥러닝 기반 증강현실 시스템.
According to clause 1,
The overlay module is,
A deep learning-based augmented reality system for disease diagnosis, further comprising a learning module that adds to the database by learning the lesion information after completing the overlay.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220133181A KR20240053280A (en) | 2022-10-17 | 2022-10-17 | Deep learning-based augmented reality system for medical diagnosis |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220133181A KR20240053280A (en) | 2022-10-17 | 2022-10-17 | Deep learning-based augmented reality system for medical diagnosis |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240053280A true KR20240053280A (en) | 2024-04-24 |
Family
ID=90884094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220133181A KR20240053280A (en) | 2022-10-17 | 2022-10-17 | Deep learning-based augmented reality system for medical diagnosis |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240053280A (en) |
-
2022
- 2022-10-17 KR KR1020220133181A patent/KR20240053280A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI793337B (en) | Systems and methods for training generative adversarial networks and use of trained generative adversarial networks | |
JP2024069390A (en) | System and method for processing real-time video from a medical imaging device and detecting objects in the video - Patents.com | |
US9526586B2 (en) | Software tools platform for medical environments | |
US11600386B2 (en) | System and method for enhanced data analysis with specialized video enabled software tools for medical environments | |
US11232604B2 (en) | Device for marking image data | |
US20230029070A1 (en) | Systems and methods for immediate image quality feedback | |
AU2004243199B2 (en) | Medical image recording system | |
CN114864035A (en) | Image report generation method, device, system, equipment and storage medium | |
US20240115329A1 (en) | System and method for enhanced data analysis with video enabled software tools for medical environments | |
CN110197722B (en) | AI-CPU system platform | |
US11998400B2 (en) | System and method for enhanced data analysis with specialized video enabled software tools for medical environments | |
KR20240053280A (en) | Deep learning-based augmented reality system for medical diagnosis | |
JP2007296079A (en) | Apparatus and program for processing medical image | |
EP4036867A2 (en) | System and method for classifying dermatological images using machine learning | |
US11961225B2 (en) | Systems and methods for detecting potential malignancies | |
US11107572B1 (en) | Cross-validation of data derived from images captured during diagnostic sessions | |
WO2022147453A1 (en) | Systems and methods for classifying and annotating images taken during a medical procedure | |
JP2012174162A (en) | Diagnostic reading report display device and diagnostic reading report preparation device | |
KR102633823B1 (en) | Apparatus for discriminating medical image and method thereof | |
CN112750537A (en) | Remote medical guide system | |
TWI842573B (en) | Computer-implemented systems for processing real-time video | |
JP7502125B2 (en) | Medical image processing device, medical image processing system, and medical image processing method | |
US11896196B2 (en) | Method for enhanced data analysis with specialized video enabled software tools for medical environments | |
EP4252655A1 (en) | Medical image display system, medical image display method, and program | |
US20230277249A1 (en) | Apparatus, systems, and methods for intraoperative instrument tracking and information visualization |