KR102366326B1 - Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same - Google Patents
Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same Download PDFInfo
- Publication number
- KR102366326B1 KR102366326B1 KR1020210039107A KR20210039107A KR102366326B1 KR 102366326 B1 KR102366326 B1 KR 102366326B1 KR 1020210039107 A KR1020210039107 A KR 1020210039107A KR 20210039107 A KR20210039107 A KR 20210039107A KR 102366326 B1 KR102366326 B1 KR 102366326B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- unit
- mannequin
- big data
- mixed reality
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 46
- 230000003902 lesion Effects 0.000 title claims description 41
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 31
- 238000003384 imaging method Methods 0.000 claims abstract description 17
- 210000000056 organ Anatomy 0.000 claims abstract description 11
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 10
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 10
- 230000002194 synthesizing effect Effects 0.000 claims description 48
- 239000002131 composite material Substances 0.000 claims description 30
- 201000010099 disease Diseases 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000003800 pharynx Anatomy 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 208000002173 dizziness Diseases 0.000 description 1
- 210000000867 larynx Anatomy 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Epidemiology (AREA)
- General Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Geometry (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템 및 이를 이용한 의료 진료 방법에 관한 것으로서, 보다 상세하게는 가상현실과 증강현실이 복합된 혼합현실 기술을 통해 보다 직관적이고 편리한 진료 서비스를 제공할 수 있도록 하는 이비인후과 진료 시스템 및 이를 이용한 이비인후과 진료방법에 관한 것이다.The present invention relates to a medical treatment system using artificial intelligence big data based on mixed reality and a medical treatment method using the same. It relates to an otolaryngology treatment system that can provide
이비인후과는 귀, 코, 목(인두, 후두)에 관련된 질환에 대한 내과적 및 외과적 치료를 하는 전문 진료과이다.Otolaryngology is a specialized department that provides medical and surgical treatment for diseases related to the ear, nose, and throat (pharynx, larynx).
이와 같은 이비인후과는 그 특성 상 외부에서 질환 부위를 육안으로 확인하기가 어렵기 때문에, 일반적으로 치료를 위한 신체 기관의 내부에 내시경과 같은 별도의 촬상장치를 삽입하여 영상정보를 획득하고, 이를 외부 모니터를 통해 송출하여 질환 부위를 찾아내고 관찰하는 방식의 진료를 수행하고 있다.Since it is difficult to visually check the diseased area from the outside due to its characteristics, such an otolaryngology department generally inserts a separate imaging device such as an endoscope into the inside of a body organ for treatment to acquire image information and monitor it The treatment is carried out in a way that detects and observes the disease site by sending it through the
하지만, 의료 시행자가 영상을 평면의 모니터를 통해 환자에게 보여주며 진료 내용을 설명하는 과정에 있어서, 환자는 2D 화면을 주시하고 있기 때문에 질환이 발생한 자신의 신체 기관의 구조를 직관적으로 파악하기가 어렵다는 문제가 있다.However, in the process of the medical practitioner showing the image to the patient through the flat monitor and explaining the contents of the treatment, the patient is watching the 2D screen, so it is difficult to intuitively grasp the structure of his or her body organ where the disease has occurred. there is a problem.
이에 따라 의료 시행자가 전달하는 내용이 환자에게 충분히 전달되기가 쉽지 않으며, 경우에 따라서는 의미의 전달이 잘못되어 오해를 불러일으키는 상황이 발생하기도 한다.As a result, it is not easy for medical practitioners to convey the information to patients sufficiently, and in some cases, miscommunication may occur due to miscommunication.
따라서 이와 같은 문제점들을 해결하기 위한 방법이 요구된다.Therefore, a method for solving these problems is required.
본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여 안출된 발명으로서, 가상현실과 증강현실이 복합된 혼합현실 기술을 통해 의료 시행자의 진료 행위를 보조하고, 대상 환자가 보다 직관적이고 편리한 진료 서비스를 받을 수 있도록 하기 위한 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템 및 이를 이용한 의료 진료 방법을 제공하기 위한 목적을 가진다.The present invention is an invention devised to solve the problems of the prior art, and assists the medical practitioner's medical practice through a mixed reality technology that combines virtual reality and augmented reality, and provides a more intuitive and convenient medical service to the target patient It has a purpose to provide a medical treatment system using artificial intelligence big data based on mixed reality and a medical treatment method using the same.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상기한 목적을 달성하기 위한 본 발명의 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템은, 대상 환자의 치료 신체 기관의 내부 구조를 촬영하여 영상정보를 획득하는 촬상유닛, 상기 촬상유닛을 통해 획득한 영상정보를 이용하여 3D 이미지로 모델링하여 구현하는 이미지 구현부, 상기 이미지 구현부에 의해 모델링되어 구현된 3D 이미지를 저장하는 3D 이미지 데이터베이스, 인체의 두부를 모델링하여 기 제작된 마네킹 이미지를 저장하여 보관하는 마네킹 이미지 데이터베이스, 상기 마네킹 이미지 데이터베이스로부터 임의의 마네킹 이미지를 선택하여 로딩하고, 대상 환자의 3D 이미지를 상기 3D 이미지 데이터베이스로부터 로딩하여 서로 합성함에 따라 합성 이미지 영상을 구축하는 이미지 합성부 및 환자의 두부에 착용하도록 구비되며, 상기 이미지 합성부에 의해 합성된 합성 이미지 영상을 환자의 시야에 송출하는 제1디스플레이부를 포함하는 제1헤드마운트 디스플레이 디바이스를 포함한다.The medical treatment system using the mixed reality-based artificial intelligence big data of the present invention for achieving the above object includes an imaging unit that acquires image information by photographing the internal structure of a body organ to be treated of a target patient, the imaging unit An image implementation unit that models and implements a 3D image using the image information obtained through a 3D image database that stores the 3D image modeled and implemented by the image implementation unit, and a pre-made mannequin image by modeling the head of the human body. A mannequin image database to store and store, an image synthesizing unit that selects and loads an arbitrary mannequin image from the mannequin image database, loads a 3D image of a target patient from the 3D image database, and builds a composite image image by synthesizing each other; It is provided to be worn on the patient's head and includes a first head-mounted display device including a first display unit for transmitting the synthesized image image synthesized by the image synthesis unit to the patient's field of view.
그리고 상기 마네킹 이미지 데이터베이스에는 서로 다른 신체조건을 가지는 복수 개의 마네킹 이미지가 저장되며, 상기 이미지 합성부는, 환자의 신상정보를 입력받고, 환자의 신상정보를 기반으로 하여 기 설정된 선택기준에 따라 선택된 마네킹 이미지를 상기 마네킹 이미지 데이터베이스로부터 자동으로 로딩하도록 형성될 수 있다.In addition, a plurality of mannequin images having different body conditions are stored in the mannequin image database, and the image synthesizing unit receives the patient's personal information and selects a mannequin image based on a preset selection criterion based on the patient's personal information may be configured to automatically load from the mannequin image database.
또한 상기 이미지 합성부는, 로딩된 상기 마네킹 이미지와 상기 3D 이미지를 합성하는 과정에서, 상기 마네킹 이미지와 상기 3D 이미지의 스케일을 대비하여 스케일이 서로 일치되도록 보정할 수 있다.In addition, the image synthesizing unit, in a process of synthesizing the loaded mannequin image and the 3D image, compares the scales of the mannequin image and the 3D image and corrects them so that the scales match each other.
한편 본 발명은 의료 시행자의 두부에 착용하도록 구비되며, 상기 제1디스플레이부와 연동하여 상기 이미지 합성부에 의해 합성된 합성 이미지 영상을 의료 시행자의 시야에 송출하는 제2디스플레이부를 포함하는 제2헤드마운트 디스플레이 디바이스를 더 포함할 수 있다.On the other hand, the present invention is provided to be worn on the head of the medical practitioner, the second head including a second display unit for transmitting the synthesized image image synthesized by the image synthesizing unit in conjunction with the first display unit to the medical practitioner's field of vision It may further include a mount display device.
이때 본 발명은 상기 제1디스플레이부 및 제2디스플레이부 중 적어도 어느 하나에 송출되는 합성 이미지 영상 상에 보조 이미지를 보조적으로 투사하기 위한 보조 투사 이미지를 생성하는 보조 투사 이미지 생성부를 더 포함할 수 있다.In this case, the present invention may further include an auxiliary projection image generating unit for generating an auxiliary projection image for auxiliary projection of an auxiliary image on the composite image image transmitted to at least one of the first display unit and the second display unit. .
더불어 본 발명은 상기 3D 이미지에서 병변 부위를 식별하여 병변식별정보를 생성하는 병변 영역 식별부를 더 포함하며, 이와 같은 경우 상기 보조 투사 이미지 생성부는 상기 병변 영역 식별부에 의해 생성된 상기 병변식별정보를 기반으로 상기 합성 이미지 영상 상에서 병변 영역을 표시하는 보조 투사 이미지를 생성할 수 있다.In addition, the present invention further includes a lesion region identification unit for generating lesion identification information by identifying a lesion site in the 3D image. In this case, the auxiliary projection image generating unit receives the lesion identification information generated by the lesion region identification unit Based on the composite image image, an auxiliary projection image indicating the lesion area may be generated.
그리고 상기 촬상유닛, 상기 이미지 구현부, 상기 3D 이미지 데이터베이스, 상기 마네킹 이미지 데이터베이스 및 상기 이미지 합성부는 ENT장비에 구비될 수 있다.In addition, the imaging unit, the image realizing unit, the 3D image database, the mannequin image database, and the image synthesizing unit may be provided in the ENT equipment.
또한 상기한 목적을 달성하기 위한 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료방법은, 촬상유닛을 통해 대상 환자의 치료 신체 기관의 내부 구조를 촬영하여 영상정보를 획득하는 (a)단계, 이미지 구현부가 상기 촬상유닛에 의해 획득한 영상정보를 이용하여 3D 이미지를 모델링하여 구현하는 (b)단계, 3D 이미지 데이터베이스에 상기 (b)단계에 의해 구현된 3D 이미지를 저장하는 (c)단계, 이미지 합성부가 인체의 두부를 모델링하여 기 제작된 마네킹 이미지를 저장하여 보관하는 마네킹 이미지 데이터베이스로부터 임의의 마네킹 이미지를 선택하여 로딩하는 (d)단계, 이미지 합성부가 상기 3D 이미지 데이터베이스로부터 대상 환자의 3D 이미지를 로딩하는 (e)단계, 이미지 합성부가 상기 (d)단계에서 로딩한 마네킹 이미지와 상기 (e)단계에서 로딩한 3D 이미지를 합성하여 합성 이미지 영상을 구축하는 (f)단계 및 제1헤드마운트 디스플레이 디바이스의 제1디스플레이부를 통해 상기 (f)단계에서 구축된 합성 이미지 영상을 송출하는 (g)단계를 포함한다.In addition, the medical treatment method using artificial intelligence big data based on mixed reality to achieve the above object is a step (a) of acquiring image information by photographing the internal structure of the body organ of the target patient through an imaging unit, (b) of an image implementation unit modeling and implementing a 3D image using the image information acquired by the imaging unit, (c) of storing the 3D image implemented by the step (b) in a 3D image database; (d) selecting and loading an arbitrary mannequin image from a mannequin image database that stores and stores a mannequin image made by the image synthesizing unit modeling the human head, the image synthesizing unit 3D image of the target patient from the 3D image database (e) step of loading, (f) step of constructing a composite image image by synthesizing the 3D image loaded in step (e) with the mannequin image loaded in step (d) by the image synthesizing unit, and the first head mount and (g) transmitting the composite image image constructed in step (f) through the first display unit of the display device.
이때 상기 (d)단계는, 환자의 신상정보를 입력받는 (d-1)단계, 상기 이미지 합성부가 환자의 신상정보를 기반으로 하여 상기 마네킹 이미지 데이터베이스로부터 기 설정된 선택기준에 따라 마네킹 이미지를 서치하는 (d-2)단계 및 상기 이미지 합성부가 기 설정된 선택기준에 부합하는 마네킹 이미지를 선택하여 로딩하는 (d-3)단계를 포함할 수 있다.In this case, the step (d) is a step (d-1) of receiving the patient's personal information, and the image synthesizing unit searches the mannequin image according to a preset selection criterion from the mannequin image database based on the patient's personal information. Step (d-2) and the image synthesizing unit may include a step (d-3) of selecting and loading a mannequin image that meets a preset selection criterion.
그리고 상기 (f)단계는, 상기 이미지 합성부가 상기 (d)단계에서 로딩한 마네킹 이미지의 스케일을 분석하는 (f-1)단계, 상기 이미지 합성부가 상기 (e)단계에서 로딩한 3D 이미지의 스케일을 분석하는 (f-2)단계, 상기 이미지 합성부가 상기 (d)단계에서 로딩한 마네킹 이미지와 상기 (e)단계에서 로딩한 3D 이미지를 보정하여 서로의 스케일을 일치시키는 (f-3)단계 및 상기 이미지 합성부가 상기 (f-3)단계에 의해 스케일이 일치된 상기 마네킹 이미지와 상기 3D 이미지를 합성하여 합성 이미지 영상을 구축하는 (f-4)단계를 포함할 수 있다.And the step (f) is a (f-1) step of analyzing the scale of the mannequin image loaded in step (d) by the image synthesizing unit, and the scale of the 3D image loaded by the image synthesizing unit in step (e) (f-2) step of analyzing, (f-3) step in which the image synthesizing unit corrects the mannequin image loaded in step (d) and the 3D image loaded in step (e) to match each other's scales and (f-4) of the image synthesizing unit synthesizing the 3D image with the mannequin image whose scale is matched by the (f-3) step to construct a composite image image.
한편 상기 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템은, 의료 시행자의 두부에 착용하도록 구비되며, 상기 제1디스플레이부와 연동하여 상기 이미지 합성부에 의해 합성된 합성 이미지 영상을 의료 시행자의 시야에 송출하는 제2디스플레이부를 포함하는 제2헤드마운트 디스플레이 디바이스를 더 포함하며, 이와 같은 경우 상기 제2디스플레이부를 통해 상기 (f)단계에서 구축된 합성 이미지 영상을 송출하는 (h)단계를 더 포함할 수 있다.On the other hand, the medical treatment system using the mixed reality-based artificial intelligence big data is provided to be worn on the head of the medical practitioner, and the composite image image synthesized by the image synthesis unit in conjunction with the first display unit is displayed by the medical practitioner. Further comprising a second head-mounted display device comprising a second display unit for transmitting to the field of view of, in this case, the step (h) of transmitting the composite image image constructed in step (f) through the second display unit may include more.
또한 상기 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템은, 상기 제1디스플레이부 및 제2디스플레이부 중 적어도 어느 하나에 송출되는 합성 이미지 상에 보조 이미지를 보조적으로 투사하기 위한 보조 투사 이미지를 생성하는 보조 투사 이미지 생성부 및 상기 3D 이미지에서 병변 부위를 식별하여 병변식별정보를 생성하는 병변 영역 식별부를 더 포함하며, 이와 같은 경우 상기 (g)단계 및 상기 (h)단계 이후에는, 상기 병변 영역 식별부가 상기 3D 이미지에서 병변 영역을 식별하는 (i-1)단계 및 상기 보조 투사 이미지 생성부가 상기 병변식별정보를 기반으로 하여 상기 제1디스플레이부 및 상기 제2디스플레이부 중 적어도 어느 하나에 송출되는 상기 합성 이미지 상에 병변 영역을 표시하는 보조 투사 이미지를 생성하는 (i-2)단계를 포함하는 (i)단계가 더 수행될 수 있다.In addition, the medical treatment system using the mixed reality-based artificial intelligence big data is an auxiliary projection image for auxiliary projection of an auxiliary image on the composite image transmitted to at least one of the first display unit and the second display unit and a lesion region identification unit generating lesion identification information by identifying a lesion site in the 3D image and generating an auxiliary projection image generating unit. In this case, after steps (g) and (h), the Step (i-1) in which the lesion region identification unit identifies the lesion region in the 3D image, and the auxiliary projection image generation unit displays at least one of the first display unit and the second display unit based on the lesion identification information. Step (i) including the step (i-2) of generating an auxiliary projection image indicating the lesion area on the transmitted composite image may be further performed.
상기한 과제를 해결하기 위한 본 발명의 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템 및 이를 이용한 의료 진료 방법은, 마네킹 이미지 데이터베이스로부터 임의의 마네킹 이미지를 선택하여 로딩하고, 대상 환자의 3D 이미지를 상기 3D 이미지 데이터베이스로부터 로딩하여 서로 합성함에 따라 구축된 합성 이미지 영상을 대상 환자가 착용한 제1헤드마운트 디스플레이 디바이스에 제공하여, 대상 환자가 보다 직관적이고 편리한 진료 서비스를 받을 수 있도록 하고, 원활하게 일련의 진료 과정을 수행할 수 있는 장점이 있다.The medical treatment system using the mixed reality-based artificial intelligence big data of the present invention for solving the above problems and the medical treatment method using the same, select and load an arbitrary mannequin image from a mannequin image database, and 3D the target patient By providing a composite image image constructed by loading images from the 3D image database and synthesizing each other to the first head-mounted display device worn by the target patient, the target patient can receive more intuitive and convenient medical services, and It has the advantage of being able to carry out a series of medical procedures.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 구성하는 각 구성요소들을 개념적으로 나타낸 도면;
도 2는 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법의 각 과정을 나타낸 도면;
도 3은 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법에 있어서, (d)단계의 세부 과정을 나타낸 도면;
도 4는 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법에 있어서, (f)단계의 세부 과정을 나타낸 도면; 및
도 5는 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법에 있어서, (f)단계 이후 수행되는 각 과정을 나타낸 도면이다.1 is a diagram conceptually showing each component constituting a medical treatment system utilizing artificial intelligence big data based on mixed reality according to an embodiment of the present invention;
2 is a view showing each process of a medical treatment method using a medical treatment system utilizing artificial intelligence big data based on mixed reality according to an embodiment of the present invention;
3 is a view showing a detailed process of step (d) in a medical treatment method using a medical treatment system utilizing artificial intelligence big data based on mixed reality according to an embodiment of the present invention;
4 is a view showing a detailed process of step (f) in a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention; and
5 is a view showing each process performed after step (f) in a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention.
이하 본 발명의 목적이 구체적으로 실현될 수 있는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. 본 실시예를 설명함에 있어서, 동일 구성에 대해서는 동일 명칭 및 동일 부호가 사용되며 이에 따른 부가적인 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention in which the object of the present invention can be specifically realized will be described with reference to the accompanying drawings. In describing the present embodiment, the same names and the same reference numerals are used for the same components, and an additional description thereof will be omitted.
도 1은 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 구성하는 각 구성요소들을 개념적으로 나타낸 도면이다.1 is a diagram conceptually illustrating each component constituting a medical treatment system utilizing artificial intelligence big data based on mixed reality according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템은 제1헤드마운트 디스플레이 디바이스(100)와, 제2헤드마운트 디스플레이 디바이스(200)와, ENT장비(300)를 포함할 수 있다.As shown in FIG. 1 , the medical treatment system using AI big data based on mixed reality according to an embodiment of the present invention includes a first head-mounted
여기서 ENT장비(300)는 이비인후과에서 사용되는 진료장비로서, 일반적인 ENT장비(300)에 기본적으로 구비되는 다양한 구성들을 포함할 수 있으며, 이는 당업자에게 자명한 사항이므로 일반적인 구성에 대한 자세한 설명은 생략하도록 한다.Here, the
이때 본 실시예에서는 대상 환자가 이비인후과 질환을 가지고 있는 것으로 가정하여 본 발명의 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템이 이비인후과에 적용된 것으로 예시하였으나, 이는 본 실시예만으로 제한되는 것은 아니며 본 발명은 의료 분야 전반에 걸쳐 적용이 가능함은 물론이다.At this time, in this embodiment, assuming that the target patient has an otolaryngology disease, the medical treatment system using the mixed reality-based artificial intelligence big data of the present invention is exemplified as being applied to the otolaryngology, but this is not limited only to this embodiment. Of course, the present invention can be applied throughout the medical field.
그리고 본 실시예에서 ENT장비(300)는 혼합현실 기반의 의료 진료를 수행하기 위해 제공되는 세부적인 구성요소들을 더 포함할 수 있다.And in this embodiment, the
구체적으로 본 실시예의 경우, ENT장비(300)는 대상 환자의 치료 신체 기관의 내부 구조를 촬영하여 영상정보를 획득하는 촬상유닛(310)과, 촬상유닛(310)을 통해 획득한 영상정보를 이용하여 3D 이미지로 모델링하여 구현하는 이미지 구현부(320)와, 이미지 구현부(320)에 의해 모델링되어 구현된 3D 이미지를 저장하는 3D 이미지 데이터베이스(330)와, 인체의 두부를 모델링하여 기 제작된 마네킹 이미지를 저장하여 보관하는 마네킹 이미지 데이터베이스(340)와, 마네킹 이미지 데이터베이스(340)로부터 임의의 마네킹 이미지를 선택하여 로딩하고, 대상 환자의 3D 이미지를 3D 이미지 데이터베이스(330)로부터 로딩하여 서로 합성함에 따라 합성 이미지 영상을 구축하는 이미지 합성부(350)를 포함한다.Specifically, in the case of this embodiment, the
또한 제1헤드마운트 디스플레이 디바이스(100)는 환자의 두부에 착용하도록 구비되며, 이미지 합성부(350)에 의해 합성된 합성 이미지 영상을 환자의 시야에 송출하는 제1디스플레이부(110)를 포함한다.In addition, the first head-mounted
그리고 제2헤드마운트 디스플레이 디바이스(200)는 의료 시행자의 두부에 착용하도록 구비되며, 제1디스플레이부(110)와 연동하여 이미지 합성부(350)에 의해 합성된 합성 이미지 영상을 의료시행자의 시야에 송출하는 제2디스플레이부(210)를 포함한다.And the second head-mounted
한편 본 실시예에서 ENT장비(300)는 전술한 각 구성요소와 더불어 제1디스플레이부(110) 및 제2디스플레이부(210) 중 적어도 어느 하나에 송출되는 합성 이미지 영상 상에 보조 이미지를 보조적으로 투사하기 위한 보조 투사 이미지를 생성하는 보조 투사 이미지 생성부(260)와, 3D 이미지에서 병변 부위를 식별하여 병변식별정보를 생성하는 병변 영역 식별부(370)를 더 포함할 수 있다.On the other hand, in this embodiment, the
이때 보조 투사 이미지 생성부(260)는 병변 영역 식별부(370)에 의해 생성된 병변식별정보를 기반으로 합성 이미지 영상 상에서 병변 영역을 표시하는 보조 투사 이미지를 생성하게 된다.At this time, the auxiliary projection image generating unit 260 generates an auxiliary projection image indicating the lesion area on the composite image image based on the lesion identification information generated by the lesion
즉 보조 투사 이미지 생성부(260)는 마네킹 이미지와 3D 이미지가 서로 합성된 합성 이미지 영상에 추가적으로 임의의 보조 이미지를 표시할 수 있으며, 이와 같은 보조 이미지는 제한 없이 다양한 의료 정보를 제공할 수 있다. 특히 본 실시예에서 보조 투사 이미지 생성부(260)는 병변 영역 식별부(370)에 의해 생성된 병변식별정보를 기반으로 보조 투사 이미지를 제공한다.That is, the auxiliary projection image generator 260 may additionally display an arbitrary auxiliary image in the composite image image in which the mannequin image and the 3D image are synthesized with each other, and such auxiliary image may provide various medical information without limitation. In particular, in the present embodiment, the auxiliary projection image generator 260 provides an auxiliary projection image based on the lesion identification information generated by the lesion
더불어 본 실시예의 경우, 마네킹 이미지 데이터베이스(340)에는 서로 다른 다양한 신체조건을 가지는 복수 개의 마네킹 이미지가 저장되며, 이미지 합성부(350)는 환자의 신상정보를 입력받고, 환자의 신상정보를 기반으로 하여 기 설정된 선택기준에 따라 선택된 마네킹 이미지를 마네킹 이미지 데이터베이스(340)로부터 자동으로 로딩하도록 형성될 수 있다.In addition, in the present embodiment, a plurality of mannequin images having various different body conditions are stored in the
이는 마네킹 이미지 데이터베이스(340)를 통해 구축된 빅데이터로부터 현재 환자의 신상정보와 가장 유사한 신체조건을 가지는 마네킹 이미지를 이미지 합성부(350)를 통해 로딩하도록 하는 것이다.This is to load a mannequin image having a body condition most similar to the current patient's personal information from the big data built through the
이때 이미지 합성부(350)는, 로딩된 마네킹 이미지와 3D 이미지를 합성하는 과정에서, 마네킹 이미지와 3D 이미지의 스케일을 대비하여 스케일이 서로 일치되도록 보정할 수 있다. 이와 같이 하는 이유는 마네킹 이미지와 3D 이미지 간의 스케일을 일치시켜 자연스러운 합성 이미지 영상을 얻기 위한 것이다.In this case, in the process of synthesizing the loaded mannequin image and the 3D image, the
이상과 같이 본 발명의 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템은 마네킹 이미지 데이터베이스(340)로부터 임의의 마네킹 이미지를 선택하여 로딩하고, 대상 환자의 3D 이미지를 3D 이미지 데이터베이스(330)로부터 로딩하여 서로 합성함에 따라 구축된 합성 이미지 영상을 대상 환자가 착용한 제1헤드마운트 디스플레이 디바이스(100)에 제공하여, 대상 환자가 3D로 구축된 그래픽을 통해 보다 직관적이고 편리한 진료 서비스를 받을 수 있도록 하고, 원활하게 일련의 진료 과정을 수행할 수 있는 장점이 있다.As described above, the medical treatment system using the mixed reality-based artificial intelligence big data of the present invention selects and loads an arbitrary mannequin image from the
이하에서는, 이와 같은 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용하여 의료 진료를 수행하는 과정에 대해 자세히 설명하도록 한다.Hereinafter, a process of performing medical treatment using a medical treatment system using such mixed reality-based artificial intelligence big data will be described in detail.
도 2는 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법의 각 과정을 나타낸 도면이다.2 is a view showing each process of a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법은 (a)단계 내지 (g)단계를 포함한다.As shown in FIG. 2 , a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention includes steps (a) to (g).
먼저 (a)단계는, 촬상유닛(310)을 통해 대상 환자의 치료 신체 기관의 내부 구조를 촬영하여 영상정보를 획득하는 과정이다.First, step (a) is a process of acquiring image information by photographing the internal structure of a body organ to be treated through the
그리고 (b)단계에서는 이미지 구현부(320)가 촬상유닛(310)에 의해 획득한 영상정보를 이용하여 3D 이미지를 모델링하여 구현하고, (c)단계에서는 3D 이미지 데이터베이스(330)에 (b)단계에 의해 구현된 3D 이미지를 저장하게 된다.And in step (b), the
즉 (a)단계 내지 (c)단계를 통해 대상 환자의 치료 신체 기관의 내부 구조를 3D 그래픽으로 구현할 수 있다.That is, through steps (a) to (c), the internal structure of the body organ to be treated of the target patient may be implemented in 3D graphics.
다음으로 (d)단계에서는 이미지 합성부(350)가 인체의 두부를 모델링하여 기 제작된 마네킹 이미지를 저장하여 보관하는 마네킹 이미지 데이터베이스(340)로부터 임의의 마네킹 이미지를 선택하여 로딩하며, (e)단계에서는 이미지 합성부(350)가 3D 이미지 데이터베이스(330)로부터 대상 환자의 3D 이미지를 로딩한다.Next, in step (d), the
그리고 이후 (f)단계에서는, 이미지 합성부(350)가 (d)단계에서 로딩한 마네킹 이미지와 (e)단계에서 로딩한 3D 이미지를 합성하여 합성 이미지 영상을 구축하게 된다.Then, in step (f), the
이상과 같은 과정에 의해 합성된 합성 이미지 영상은, (g)단계에 의해 제1헤드마운트 디스플레이 디바이스(100)의 제1디스플레이부(110)를 통해 송출된다.The composite image image synthesized by the above process is transmitted through the
한편 도 3은 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법에 있어서, (d)단계의 세부 과정을 나타낸 도면이다.Meanwhile, FIG. 3 is a diagram illustrating a detailed process of step (d) in a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention.
도 3에 도시된 바와 같이, 이미지 합성부(350)가 인체의 두부를 모델링하여 기 제작된 마네킹 이미지를 저장하여 보관하는 마네킹 이미지 데이터베이스(340)로부터 임의의 마네킹 이미지를 선택하여 로딩하는 과정인 (d)단계는 세부적인 복수 단계를 포함한다.As shown in FIG. 3, the
구체적으로 본 실시예에서 (d)단계는, 환자의 신상정보를 입력받는 (d-1)단계와, 이미지 합성부(350)가 환자의 신상정보를 기반으로 하여 마네킹 이미지 데이터베이스(340)로부터 기 설정된 선택기준에 따라 마네킹 이미지를 서치하는 (d-2)단계와, 이미지 합성부(350)가 기 설정된 선택기준에 부합하는 마네킹 이미지를 선택하여 로딩하는 (d-3)단계를 포함한다.Specifically, step (d) in this embodiment includes a step (d-1) of receiving the patient's personal information, and the
이때 기 설정된 선택기준은 다양하게 정해질 수 있으며, 본 실시예에서는 마네킹 이미지 데이터베이스(340)를 통해 구축된 빅데이터로부터 현재 환자의 신상정보와 가장 유사한 신체조건을 가지는 마네킹 이미지를 이미지 합성부(350)를 통해 로딩하도록 하였다.At this time, the preset selection criteria can be set in various ways, and in this embodiment, the
그리고 도 4는 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법에 있어서, (f)단계의 세부 과정을 나타낸 도면이다.And FIG. 4 is a view showing a detailed process of step (f) in a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention.
도 4에 도시된 바와 같이, 이미지 합성부(350)가 (d)단계에서 로딩한 마네킹 이미지와 (e)단계에서 로딩한 3D 이미지를 합성하여 합성 이미지 영상을 구축하는 (f)단계 역시 세부적인 복수 단계를 포함할 수 있다.As shown in FIG. 4 , step (f) of constructing a composite image image by synthesizing the 3D image loaded in step (e) with the mannequin image loaded in step (d) by the
구체적으로 본 실시예에서 (f)단계는, 이미지 합성부(350)가 (d)단계에서 로딩한 마네킹 이미지의 스케일을 분석하는 (f-1)단계와, 이미지 합성부(350)가 (e)단계에서 로딩한 3D 이미지의 스케일을 분석하는 (f-2)단계와, 이미지 합성부(350)가 (d)단계에서 로딩한 마네킹 이미지와 (e)단계에서 로딩한 3D 이미지를 보정하여 서로의 스케일을 일치시키는 (f-3)단계와, 이미지 합성부(350)가 (f-3)단계에 의해 스케일이 일치된 마네킹 이미지와 3D 이미지를 합성하여 합성 이미지 영상을 구축하는 (f-4)단계를 포함한다.Specifically, step (f) in this embodiment includes a step (f-1) in which the
이와 같은 (f)단계의 세부 과정은 마네킹 이미지와 3D 이미지 간의 스케일을 일치시켜 자연스러운 합성 이미지 영상을 얻도록 할 수 있다.In the detailed process of step (f), it is possible to obtain a natural synthetic image image by matching the scale between the mannequin image and the 3D image.
한편 도 5는 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법에 있어서, (f)단계 이후 수행되는 각 과정을 나타낸 도면이다.Meanwhile, FIG. 5 is a view showing each process performed after step (f) in a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention.
도 5에 도시된 바와 같이, 본 실시예에서 (f)단계 이후에는, 합성 이미지 영상을 제1헤드마운트 디스플레이 디바이스(100)의 제1디스플레이부(110)를 통해 송출하는 (g)단계와 더불어, 제2헤드마운트 디스플레이 디바이스(200)의 제2디스플레이부(210)를 통해 (f)단계에서 구축된 합성 이미지 영상을 송출하는 (h)단계가 수행될 수 있다. 이에 따라 의료 시행자는 대상 환자가 현재 주시하고 있는 화면을 함께 확인할 수 있다.5, after step (f) in this embodiment, along with the step (g) of transmitting the composite image image through the
그리고 (g)단계 및 (h)단계 이후에는, 병변 영역 식별부(370)가 3D 이미지에서 병변 영역을 식별하는 (i-1)단계와, 보조 투사 이미지 생성부(360)가 병변식별정보를 기반으로 하여 제1디스플레이부(110) 및 제2디스플레이부(210) 중 적어도 어느 하나에 송출되는 합성 이미지 상에 병변 영역을 표시하는 보조 투사 이미지를 생성하는 (i-2)단계를 포함하는 (i)단계가 더 수행될 수 있다.And after steps (g) and (h), the lesion
본 과정을 통해 대상 환자는 자신의 병변 영역을 직관적으로 확인하여 이해할 수 있으며, 의료 시행자는 대상 환자에게 보다 높은 수준의 의료 서비스를 제공할 수 있게 된다.Through this process, the target patient can intuitively identify and understand their lesion area, and the medical practitioner can provide a higher level of medical service to the target patient.
한편 본 발명은 전술한 실시예에서 나타난 활용 방법 외에도 다양한 분야로 확장하여 적용이 가능하다. 예컨대, 본 발명에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템 및 이를 이용한 의료 진료방법은, 어지럼증 치료, 재활 치료, 심리 치료를 비롯하여 헬스 케어 분야에도 유용하게 적용이 가능하며, 적용 과정에서 인공지능의 기술력과 빅데이터의 정보력을 이용하여 높은 치료 효과를 얻을 수 있다.Meanwhile, the present invention can be extended and applied to various fields in addition to the application method shown in the above-described embodiment. For example, the medical treatment system using the mixed reality-based artificial intelligence big data according to the present invention and the medical treatment method using the same can be usefully applied to the health care field, including dizziness treatment, rehabilitation treatment, and psychological treatment. In the process, a high treatment effect can be obtained by using the technology of artificial intelligence and the information power of big data.
이상과 같이 본 발명에 따른 바람직한 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.As described above, preferred embodiments according to the present invention have been reviewed, and the fact that the present invention can be embodied in other specific forms without departing from the spirit or scope of the present invention other than the above-described embodiments is a fact having ordinary skill in the art. It is obvious to them. Therefore, the above-described embodiments are to be regarded as illustrative rather than restrictive, and accordingly, the present invention is not limited to the above description, but may be modified within the scope of the appended claims and their equivalents.
100: 제1헤드마운트 디스플레이 디바이스
110: 제1디스플레이부
200: 제2헤드마운트 디스플레이 디바이스
210: 제2디스플레이부
300: ENT장비
310: 촬상유닛
320: 이미지 구현부
330: 3D 이미지 데이터베이스
340: 마네킹 이미지 데이터베이스
350: 이미지 합성부
360: 보조 투사 이미지 생성부
370: 병변 영역 식별부100: first head-mounted display device
110: first display unit
200: second head-mounted display device
210: second display unit
300: ENT equipment
310: imaging unit
320: image implementation unit
330: 3D image database
340: mannequin image database
350: image synthesizing unit
360: auxiliary projection image generator
370: lesion region identification unit
Claims (12)
촬상유닛을 통해 대상 환자의 치료 신체 기관의 내부 구조를 촬영하여 영상정보를 획득하는 (a)단계;
이미지 구현부가 상기 촬상유닛에 의해 획득한 영상정보를 이용하여 치료 신체 기관의 내부 구조에 대한 3D 이미지를 모델링하여 구현하는 (b)단계;
3D 이미지 데이터베이스에 상기 (b)단계에 의해 구현된 치료 신체 기관의 내부 구조에 대한 3D 이미지를 저장하는 (c)단계;
이미지 합성부가 상기 대상 환자의 치료 신체 기관의 내부 구조를 포함하는 인체의 두부를 모델링하여 기 제작된 마네킹 이미지를 저장하여 보관하는 마네킹 이미지 데이터베이스로부터 임의의 마네킹 이미지를 선택하여 로딩하는 (d)단계;
이미지 합성부가 상기 3D 이미지 데이터베이스로부터 대상 환자의 3D 이미지를 로딩하는 (e)단계;
이미지 합성부가 상기 (d)단계에서 로딩한 마네킹 이미지의 치료 신체 기관의 내부 구조에 대한 이미지와 상기 (e)단계에서 로딩한 상기 촬상유닛에서 획득한 영상정보를 바탕으로 한 치료 신체 기관의 내부 구조에 대한 3D 이미지를 합성하여 합성 이미지 영상을 구축하는 (f)단계; 및
제1헤드마운트 디스플레이 디바이스의 제1디스플레이부를 통해 상기 (f)단계에서 구축된 합성 이미지 영상을 송출하는 (g)단계;
를 포함하고,
상기 제1디스플레이부에 송출되는 합성 이미지 상에 보조 이미지를 보조적으로 투사하기 위한 보조 투사 이미지를 생성하는 보조 투사 이미지 생성부; 및
상기 촬상유닛을 통하여 획득한 영상정보를 바탕으로 얻어진 3D 이미지에서 병변 부위를 식별하여 병변식별정보를 생성하는 병변 영역 식별부;
를 더 포함하며,
상기 (g)단계 이후에는,
상기 병변 영역 식별부가 상기 3D 이미지에서 병변 영역을 식별하는 (i-1)단계; 및
상기 보조 투사 이미지 생성부가 상기 병변식별정보를 기반으로 하여 상기 제1디스플레이부에 송출되는 상기 합성 이미지 상에 병변 영역을 표시하는 보조 투사 이미지를 생성하는 (i-2)단계;
를 포함하는 (i)단계가 더 수행되는,
는,
혼합현실 기반의 인공지능 빅데이터를 활용한 병변 정보 제공방법. In a medical treatment method using artificial intelligence big data based on mixed reality using a medical treatment system using AI big data based on mixed reality,
(a) acquiring image information by photographing the internal structure of a body organ to be treated through an imaging unit;
(b) of an image implementation unit modeling and implementing a 3D image of an internal structure of a body organ to be treated using the image information acquired by the imaging unit;
(c) storing a 3D image of the internal structure of the body organ to be treated implemented by the step (b) in a 3D image database;
(d) selecting and loading an arbitrary mannequin image from a mannequin image database that stores and stores a pre-fabricated mannequin image by an image synthesizing unit modeling the head of the human body including the internal structure of the body to be treated;
(e) loading the 3D image of the target patient from the 3D image database by the image synthesizing unit;
The internal structure of the body to be treated based on the image of the internal structure of the body to be treated in the mannequin image loaded in step (d) by the image synthesizing unit and the image information obtained from the imaging unit loaded in step (e) (f) constructing a composite image image by synthesizing a 3D image for and
(g) transmitting the composite image image constructed in the step (f) through the first display unit of the first head-mounted display device;
including,
an auxiliary projection image generating unit for generating an auxiliary projection image for auxiliary projection of an auxiliary image on the composite image transmitted to the first display unit; and
a lesion region identification unit for generating lesion identification information by identifying a lesion region in a 3D image obtained based on image information acquired through the imaging unit;
further comprising,
After step (g),
(i-1) step of the lesion region identification unit identifying the lesion region in the 3D image; and
(i-2) generating, by the auxiliary projection image generating unit, an auxiliary projection image displaying a lesion area on the composite image transmitted to the first display unit based on the lesion identification information;
(i) further comprising a step is performed,
Is,
A method of providing lesion information using artificial intelligence big data based on mixed reality.
상기 (d)단계는,
환자의 신상정보를 입력받는 (d-1)단계;
상기 이미지 합성부가 환자의 신상정보를 기반으로 하여 상기 마네킹 이미지 데이터베이스로부터 기 설정된 선택기준에 따라 마네킹 이미지를 서치하는 (d-2)단계; 및
상기 이미지 합성부가 기 설정된 선택기준에 부합하는 마네킹 이미지를 선택하여 로딩하는 (d-3)단계;
를 포함하는,
혼합현실 기반의 인공지능 빅데이터를 활용한 병변 정보 제공방법. 9. The method of claim 8,
Step (d) is,
(d-1) receiving the patient's personal information;
(d-2) of the image synthesizing unit searching for a mannequin image from the mannequin image database based on the patient's personal information according to a preset selection criterion; and
(d-3) step of loading by the image synthesizing unit selecting a mannequin image that meets a preset selection criterion;
containing,
A method of providing lesion information using artificial intelligence big data based on mixed reality.
상기 (f)단계는,
상기 이미지 합성부가 상기 (d)단계에서 로딩한 마네킹 이미지의 스케일을 분석하는 (f-1)단계;
상기 이미지 합성부가 상기 (e)단계에서 로딩한 3D 이미지의 스케일을 분석하는 (f-2)단계;
상기 이미지 합성부가 상기 (d)단계에서 로딩한 마네킹 이미지와 상기 (e)단계에서 로딩한 3D 이미지를 보정하여 서로의 스케일을 일치시키는 (f-3)단계; 및
상기 이미지 합성부가 상기 (f-3)단계에 의해 스케일이 일치된 상기 마네킹 이미지와 상기 3D 이미지를 합성하여 합성 이미지 영상을 구축하는 (f-4)단계;
를 포함하는,
혼합현실 기반의 인공지능 빅데이터를 활용한 병변 정보 제공방법. 9. The method of claim 8,
The step (f) is,
(f-1) step of analyzing the scale of the mannequin image loaded in step (d) by the image synthesizing unit;
(f-2) step of analyzing the scale of the 3D image loaded in the step (e) by the image synthesizing unit;
(f-3) step of the image synthesizing unit correcting the mannequin image loaded in step (d) and the 3D image loaded in step (e) to match each other's scales; and
(f-4) step of the image synthesizing unit synthesizing the 3D image with the mannequin image whose scale is matched by the (f-3) step to construct a composite image image;
containing,
A method of providing lesion information using artificial intelligence big data based on mixed reality.
상기 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템은,
의료 시행자의 두부에 착용하도록 구비되며, 상기 제1디스플레이부와 연동하여 상기 이미지 합성부에 의해 합성된 합성 이미지 영상을 의료 시행자의 시야에 송출하는 제2디스플레이부를 포함하는 제2헤드마운트 디스플레이 디바이스를 더 포함하며,
상기 제2디스플레이부를 통해 상기 (f)단계에서 구축된 합성 이미지 영상을 송출하는 (h)단계를 더 포함하는,
혼합현실 기반의 인공지능 빅데이터를 활용한 병변 정보 제공방법.9. The method of claim 8,
The medical treatment system using the artificial intelligence big data based on the mixed reality is,
A second head-mounted display device that is provided to be worn on the medical practitioner's head and includes a second display unit for transmitting the synthesized image image synthesized by the image synthesis unit to the medical practitioner's field of view in conjunction with the first display unit including more,
Further comprising the step (h) of transmitting the composite image image constructed in the step (f) through the second display unit,
A method of providing lesion information using artificial intelligence big data based on mixed reality.
상기 (i)단계에서는 상기 제2디스플레이부에 송출되는 상기 합성 이미지 상에 병변 영역을 표시하는 보조 투사 이미지를 생성하는 혼합현실 기반의 인공지능 빅데이터를 활용한 병변 정보 제공방법.12. The method of claim 11,
In step (i), a method for providing lesion information using mixed reality-based artificial intelligence big data to generate an auxiliary projection image for displaying a lesion area on the composite image transmitted to the second display unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210039107A KR102366326B1 (en) | 2021-03-25 | 2021-03-25 | Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210039107A KR102366326B1 (en) | 2021-03-25 | 2021-03-25 | Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102366326B1 true KR102366326B1 (en) | 2022-02-23 |
Family
ID=80495409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210039107A KR102366326B1 (en) | 2021-03-25 | 2021-03-25 | Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102366326B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117789563A (en) * | 2024-02-23 | 2024-03-29 | 湖南晟医智能科技有限公司 | AI and MR technology based virtual-real fusion simulation medical teaching method and system |
CN117789563B (en) * | 2024-02-23 | 2024-05-31 | 湖南晟医智能科技有限公司 | AI and MR technology based virtual-real fusion simulation medical teaching method and system |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100968280B1 (en) | 2008-02-13 | 2010-07-06 | 가자마 이엔티 (주) | Medical Apparatus for Otorhinolaryngology |
KR20150051618A (en) * | 2013-11-05 | 2015-05-13 | 한국디지털병원수출사업협동조합 | Medical device and its method for merging volume images in 3D ultrasound scanning |
KR20160076868A (en) * | 2014-12-23 | 2016-07-01 | 삼성전자주식회사 | Image processing apparatus, medical image apparatus and processing method for the medical image |
KR20180058693A (en) * | 2018-05-23 | 2018-06-01 | 박병준 | Head mounted display using augmented reality and short distance location tracking |
US20190239850A1 (en) * | 2018-02-06 | 2019-08-08 | Steven Philip Dalvin | Augmented/mixed reality system and method for the guidance of a medical exam |
KR20190096575A (en) * | 2018-02-09 | 2019-08-20 | 고려대학교 산학협력단 | Medical imaging system |
KR20200023968A (en) * | 2018-08-27 | 2020-03-06 | 오주영 | X-ray Image Display Method Based On Augmented Reality |
-
2021
- 2021-03-25 KR KR1020210039107A patent/KR102366326B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100968280B1 (en) | 2008-02-13 | 2010-07-06 | 가자마 이엔티 (주) | Medical Apparatus for Otorhinolaryngology |
KR20150051618A (en) * | 2013-11-05 | 2015-05-13 | 한국디지털병원수출사업협동조합 | Medical device and its method for merging volume images in 3D ultrasound scanning |
KR20160076868A (en) * | 2014-12-23 | 2016-07-01 | 삼성전자주식회사 | Image processing apparatus, medical image apparatus and processing method for the medical image |
US20190239850A1 (en) * | 2018-02-06 | 2019-08-08 | Steven Philip Dalvin | Augmented/mixed reality system and method for the guidance of a medical exam |
KR20190096575A (en) * | 2018-02-09 | 2019-08-20 | 고려대학교 산학협력단 | Medical imaging system |
KR20180058693A (en) * | 2018-05-23 | 2018-06-01 | 박병준 | Head mounted display using augmented reality and short distance location tracking |
KR20200023968A (en) * | 2018-08-27 | 2020-03-06 | 오주영 | X-ray Image Display Method Based On Augmented Reality |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117789563A (en) * | 2024-02-23 | 2024-03-29 | 湖南晟医智能科技有限公司 | AI and MR technology based virtual-real fusion simulation medical teaching method and system |
CN117789563B (en) * | 2024-02-23 | 2024-05-31 | 湖南晟医智能科技有限公司 | AI and MR technology based virtual-real fusion simulation medical teaching method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220405935A1 (en) | Augmented reality patient positioning using an atlas | |
CN108324246B (en) | Medical diagnosis assisting system and method | |
US10485614B2 (en) | Augmented reality system and method for implementing augmented reality for dental surgery | |
CN102525534B (en) | Medical image-processing apparatus, medical image processing method | |
CN107529968A (en) | For observing the device of cavity interior | |
JP2008301970A (en) | Medical guiding system | |
CN108629845B (en) | Surgical navigation device, apparatus, system, and readable storage medium | |
CN111770735B (en) | Operation simulation information generation method and program | |
JP6440135B1 (en) | Medical information virtual reality server, medical information virtual reality program, and medical information virtual reality data creation method | |
US20230401713A1 (en) | Systems and Methods for Displaying Augmented Anatomical Features | |
KR20180125793A (en) | Service Apparatus for Coordinating of Images for Dental Implant Procedure and Method for Coordinating of Images for thereof | |
US20230114385A1 (en) | Mri-based augmented reality assisted real-time surgery simulation and navigation | |
KR20200068992A (en) | Method, Apparatus and Recording For Computerizing Of Electro-Magnetic Resonance | |
JP2001218110A (en) | Inter-image arithmetic method and device, and image display method and device | |
KR102366326B1 (en) | Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same | |
CN108877897B (en) | Dental diagnosis and treatment scheme generation method and device and diagnosis and treatment system | |
CN110638525A (en) | Operation navigation method and system integrating augmented reality | |
US8265729B2 (en) | Third party acquisition of images at the direction of an independent imaging application | |
CN107230247A (en) | A kind of synthetic image imaging system and its three-dimensional image reconstruction algorithm | |
JP2015036858A (en) | Medical information processing device, system, and program | |
CN111053598A (en) | Augmented reality system platform based on projector | |
KR20190088419A (en) | Program and method for generating surgical simulation information | |
US20110242096A1 (en) | Anatomy diagram generation method and apparatus, and medium storing program | |
US20140043458A1 (en) | Digital image access system and human body data matching method for medical cosmetic applications | |
CN112447297A (en) | 3D prints operation preview operating system who combines VR virtual reality formation of image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |