KR102366326B1 - Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same - Google Patents

Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same Download PDF

Info

Publication number
KR102366326B1
KR102366326B1 KR1020210039107A KR20210039107A KR102366326B1 KR 102366326 B1 KR102366326 B1 KR 102366326B1 KR 1020210039107 A KR1020210039107 A KR 1020210039107A KR 20210039107 A KR20210039107 A KR 20210039107A KR 102366326 B1 KR102366326 B1 KR 102366326B1
Authority
KR
South Korea
Prior art keywords
image
unit
mannequin
big data
mixed reality
Prior art date
Application number
KR1020210039107A
Other languages
Korean (ko)
Inventor
박준
Original Assignee
박준
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박준 filed Critical 박준
Priority to KR1020210039107A priority Critical patent/KR102366326B1/en
Application granted granted Critical
Publication of KR102366326B1 publication Critical patent/KR102366326B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a medical treatment system using artificial intelligence (AI) big data based on mixed reality, which enables a patient to receive intuitive and convenient medical services. According to the present invention, the medical treatment system comprises: an imaging unit photographing the internal structure of a pats body organ to be treated to acquire image information; an image implementation unit using the image information acquired through the imaging unit to model and implement a 3D image; a 3D image database storing the 3D images modeled and implemented by the image implementation unit; a mannequin image database storing mannequin images made by modeling the head of the human body; an image synthesis unit selecting and loading an arbitrary mannequin image from the mannequin image database and loading the 3D images of the patient from the 3D image database to synthesize the loaded images and build a synthesized image; and a first head-mounted display device provided to be worn on the patient's head and including a first display unit transmitting the synthesized image synthesized by the image synthesis unit to the patient's field of view.

Description

혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템 및 이를 이용한 병변 정보 제공방법{Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same}Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same}

본 발명은 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템 및 이를 이용한 의료 진료 방법에 관한 것으로서, 보다 상세하게는 가상현실과 증강현실이 복합된 혼합현실 기술을 통해 보다 직관적이고 편리한 진료 서비스를 제공할 수 있도록 하는 이비인후과 진료 시스템 및 이를 이용한 이비인후과 진료방법에 관한 것이다.The present invention relates to a medical treatment system using artificial intelligence big data based on mixed reality and a medical treatment method using the same. It relates to an otolaryngology treatment system that can provide

이비인후과는 귀, 코, 목(인두, 후두)에 관련된 질환에 대한 내과적 및 외과적 치료를 하는 전문 진료과이다.Otolaryngology is a specialized department that provides medical and surgical treatment for diseases related to the ear, nose, and throat (pharynx, larynx).

이와 같은 이비인후과는 그 특성 상 외부에서 질환 부위를 육안으로 확인하기가 어렵기 때문에, 일반적으로 치료를 위한 신체 기관의 내부에 내시경과 같은 별도의 촬상장치를 삽입하여 영상정보를 획득하고, 이를 외부 모니터를 통해 송출하여 질환 부위를 찾아내고 관찰하는 방식의 진료를 수행하고 있다.Since it is difficult to visually check the diseased area from the outside due to its characteristics, such an otolaryngology department generally inserts a separate imaging device such as an endoscope into the inside of a body organ for treatment to acquire image information and monitor it The treatment is carried out in a way that detects and observes the disease site by sending it through the

하지만, 의료 시행자가 영상을 평면의 모니터를 통해 환자에게 보여주며 진료 내용을 설명하는 과정에 있어서, 환자는 2D 화면을 주시하고 있기 때문에 질환이 발생한 자신의 신체 기관의 구조를 직관적으로 파악하기가 어렵다는 문제가 있다.However, in the process of the medical practitioner showing the image to the patient through the flat monitor and explaining the contents of the treatment, the patient is watching the 2D screen, so it is difficult to intuitively grasp the structure of his or her body organ where the disease has occurred. there is a problem.

이에 따라 의료 시행자가 전달하는 내용이 환자에게 충분히 전달되기가 쉽지 않으며, 경우에 따라서는 의미의 전달이 잘못되어 오해를 불러일으키는 상황이 발생하기도 한다.As a result, it is not easy for medical practitioners to convey the information to patients sufficiently, and in some cases, miscommunication may occur due to miscommunication.

따라서 이와 같은 문제점들을 해결하기 위한 방법이 요구된다.Therefore, a method for solving these problems is required.

한국등록특허 제10-0968280호Korean Patent No. 10-0968280

본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여 안출된 발명으로서, 가상현실과 증강현실이 복합된 혼합현실 기술을 통해 의료 시행자의 진료 행위를 보조하고, 대상 환자가 보다 직관적이고 편리한 진료 서비스를 받을 수 있도록 하기 위한 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템 및 이를 이용한 의료 진료 방법을 제공하기 위한 목적을 가진다.The present invention is an invention devised to solve the problems of the prior art, and assists the medical practitioner's medical practice through a mixed reality technology that combines virtual reality and augmented reality, and provides a more intuitive and convenient medical service to the target patient It has a purpose to provide a medical treatment system using artificial intelligence big data based on mixed reality and a medical treatment method using the same.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기한 목적을 달성하기 위한 본 발명의 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템은, 대상 환자의 치료 신체 기관의 내부 구조를 촬영하여 영상정보를 획득하는 촬상유닛, 상기 촬상유닛을 통해 획득한 영상정보를 이용하여 3D 이미지로 모델링하여 구현하는 이미지 구현부, 상기 이미지 구현부에 의해 모델링되어 구현된 3D 이미지를 저장하는 3D 이미지 데이터베이스, 인체의 두부를 모델링하여 기 제작된 마네킹 이미지를 저장하여 보관하는 마네킹 이미지 데이터베이스, 상기 마네킹 이미지 데이터베이스로부터 임의의 마네킹 이미지를 선택하여 로딩하고, 대상 환자의 3D 이미지를 상기 3D 이미지 데이터베이스로부터 로딩하여 서로 합성함에 따라 합성 이미지 영상을 구축하는 이미지 합성부 및 환자의 두부에 착용하도록 구비되며, 상기 이미지 합성부에 의해 합성된 합성 이미지 영상을 환자의 시야에 송출하는 제1디스플레이부를 포함하는 제1헤드마운트 디스플레이 디바이스를 포함한다.The medical treatment system using the mixed reality-based artificial intelligence big data of the present invention for achieving the above object includes an imaging unit that acquires image information by photographing the internal structure of a body organ to be treated of a target patient, the imaging unit An image implementation unit that models and implements a 3D image using the image information obtained through a 3D image database that stores the 3D image modeled and implemented by the image implementation unit, and a pre-made mannequin image by modeling the head of the human body. A mannequin image database to store and store, an image synthesizing unit that selects and loads an arbitrary mannequin image from the mannequin image database, loads a 3D image of a target patient from the 3D image database, and builds a composite image image by synthesizing each other; It is provided to be worn on the patient's head and includes a first head-mounted display device including a first display unit for transmitting the synthesized image image synthesized by the image synthesis unit to the patient's field of view.

그리고 상기 마네킹 이미지 데이터베이스에는 서로 다른 신체조건을 가지는 복수 개의 마네킹 이미지가 저장되며, 상기 이미지 합성부는, 환자의 신상정보를 입력받고, 환자의 신상정보를 기반으로 하여 기 설정된 선택기준에 따라 선택된 마네킹 이미지를 상기 마네킹 이미지 데이터베이스로부터 자동으로 로딩하도록 형성될 수 있다.In addition, a plurality of mannequin images having different body conditions are stored in the mannequin image database, and the image synthesizing unit receives the patient's personal information and selects a mannequin image based on a preset selection criterion based on the patient's personal information may be configured to automatically load from the mannequin image database.

또한 상기 이미지 합성부는, 로딩된 상기 마네킹 이미지와 상기 3D 이미지를 합성하는 과정에서, 상기 마네킹 이미지와 상기 3D 이미지의 스케일을 대비하여 스케일이 서로 일치되도록 보정할 수 있다.In addition, the image synthesizing unit, in a process of synthesizing the loaded mannequin image and the 3D image, compares the scales of the mannequin image and the 3D image and corrects them so that the scales match each other.

한편 본 발명은 의료 시행자의 두부에 착용하도록 구비되며, 상기 제1디스플레이부와 연동하여 상기 이미지 합성부에 의해 합성된 합성 이미지 영상을 의료 시행자의 시야에 송출하는 제2디스플레이부를 포함하는 제2헤드마운트 디스플레이 디바이스를 더 포함할 수 있다.On the other hand, the present invention is provided to be worn on the head of the medical practitioner, the second head including a second display unit for transmitting the synthesized image image synthesized by the image synthesizing unit in conjunction with the first display unit to the medical practitioner's field of vision It may further include a mount display device.

이때 본 발명은 상기 제1디스플레이부 및 제2디스플레이부 중 적어도 어느 하나에 송출되는 합성 이미지 영상 상에 보조 이미지를 보조적으로 투사하기 위한 보조 투사 이미지를 생성하는 보조 투사 이미지 생성부를 더 포함할 수 있다.In this case, the present invention may further include an auxiliary projection image generating unit for generating an auxiliary projection image for auxiliary projection of an auxiliary image on the composite image image transmitted to at least one of the first display unit and the second display unit. .

더불어 본 발명은 상기 3D 이미지에서 병변 부위를 식별하여 병변식별정보를 생성하는 병변 영역 식별부를 더 포함하며, 이와 같은 경우 상기 보조 투사 이미지 생성부는 상기 병변 영역 식별부에 의해 생성된 상기 병변식별정보를 기반으로 상기 합성 이미지 영상 상에서 병변 영역을 표시하는 보조 투사 이미지를 생성할 수 있다.In addition, the present invention further includes a lesion region identification unit for generating lesion identification information by identifying a lesion site in the 3D image. In this case, the auxiliary projection image generating unit receives the lesion identification information generated by the lesion region identification unit Based on the composite image image, an auxiliary projection image indicating the lesion area may be generated.

그리고 상기 촬상유닛, 상기 이미지 구현부, 상기 3D 이미지 데이터베이스, 상기 마네킹 이미지 데이터베이스 및 상기 이미지 합성부는 ENT장비에 구비될 수 있다.In addition, the imaging unit, the image realizing unit, the 3D image database, the mannequin image database, and the image synthesizing unit may be provided in the ENT equipment.

또한 상기한 목적을 달성하기 위한 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료방법은, 촬상유닛을 통해 대상 환자의 치료 신체 기관의 내부 구조를 촬영하여 영상정보를 획득하는 (a)단계, 이미지 구현부가 상기 촬상유닛에 의해 획득한 영상정보를 이용하여 3D 이미지를 모델링하여 구현하는 (b)단계, 3D 이미지 데이터베이스에 상기 (b)단계에 의해 구현된 3D 이미지를 저장하는 (c)단계, 이미지 합성부가 인체의 두부를 모델링하여 기 제작된 마네킹 이미지를 저장하여 보관하는 마네킹 이미지 데이터베이스로부터 임의의 마네킹 이미지를 선택하여 로딩하는 (d)단계, 이미지 합성부가 상기 3D 이미지 데이터베이스로부터 대상 환자의 3D 이미지를 로딩하는 (e)단계, 이미지 합성부가 상기 (d)단계에서 로딩한 마네킹 이미지와 상기 (e)단계에서 로딩한 3D 이미지를 합성하여 합성 이미지 영상을 구축하는 (f)단계 및 제1헤드마운트 디스플레이 디바이스의 제1디스플레이부를 통해 상기 (f)단계에서 구축된 합성 이미지 영상을 송출하는 (g)단계를 포함한다.In addition, the medical treatment method using artificial intelligence big data based on mixed reality to achieve the above object is a step (a) of acquiring image information by photographing the internal structure of the body organ of the target patient through an imaging unit, (b) of an image implementation unit modeling and implementing a 3D image using the image information acquired by the imaging unit, (c) of storing the 3D image implemented by the step (b) in a 3D image database; (d) selecting and loading an arbitrary mannequin image from a mannequin image database that stores and stores a mannequin image made by the image synthesizing unit modeling the human head, the image synthesizing unit 3D image of the target patient from the 3D image database (e) step of loading, (f) step of constructing a composite image image by synthesizing the 3D image loaded in step (e) with the mannequin image loaded in step (d) by the image synthesizing unit, and the first head mount and (g) transmitting the composite image image constructed in step (f) through the first display unit of the display device.

이때 상기 (d)단계는, 환자의 신상정보를 입력받는 (d-1)단계, 상기 이미지 합성부가 환자의 신상정보를 기반으로 하여 상기 마네킹 이미지 데이터베이스로부터 기 설정된 선택기준에 따라 마네킹 이미지를 서치하는 (d-2)단계 및 상기 이미지 합성부가 기 설정된 선택기준에 부합하는 마네킹 이미지를 선택하여 로딩하는 (d-3)단계를 포함할 수 있다.In this case, the step (d) is a step (d-1) of receiving the patient's personal information, and the image synthesizing unit searches the mannequin image according to a preset selection criterion from the mannequin image database based on the patient's personal information. Step (d-2) and the image synthesizing unit may include a step (d-3) of selecting and loading a mannequin image that meets a preset selection criterion.

그리고 상기 (f)단계는, 상기 이미지 합성부가 상기 (d)단계에서 로딩한 마네킹 이미지의 스케일을 분석하는 (f-1)단계, 상기 이미지 합성부가 상기 (e)단계에서 로딩한 3D 이미지의 스케일을 분석하는 (f-2)단계, 상기 이미지 합성부가 상기 (d)단계에서 로딩한 마네킹 이미지와 상기 (e)단계에서 로딩한 3D 이미지를 보정하여 서로의 스케일을 일치시키는 (f-3)단계 및 상기 이미지 합성부가 상기 (f-3)단계에 의해 스케일이 일치된 상기 마네킹 이미지와 상기 3D 이미지를 합성하여 합성 이미지 영상을 구축하는 (f-4)단계를 포함할 수 있다.And the step (f) is a (f-1) step of analyzing the scale of the mannequin image loaded in step (d) by the image synthesizing unit, and the scale of the 3D image loaded by the image synthesizing unit in step (e) (f-2) step of analyzing, (f-3) step in which the image synthesizing unit corrects the mannequin image loaded in step (d) and the 3D image loaded in step (e) to match each other's scales and (f-4) of the image synthesizing unit synthesizing the 3D image with the mannequin image whose scale is matched by the (f-3) step to construct a composite image image.

한편 상기 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템은, 의료 시행자의 두부에 착용하도록 구비되며, 상기 제1디스플레이부와 연동하여 상기 이미지 합성부에 의해 합성된 합성 이미지 영상을 의료 시행자의 시야에 송출하는 제2디스플레이부를 포함하는 제2헤드마운트 디스플레이 디바이스를 더 포함하며, 이와 같은 경우 상기 제2디스플레이부를 통해 상기 (f)단계에서 구축된 합성 이미지 영상을 송출하는 (h)단계를 더 포함할 수 있다.On the other hand, the medical treatment system using the mixed reality-based artificial intelligence big data is provided to be worn on the head of the medical practitioner, and the composite image image synthesized by the image synthesis unit in conjunction with the first display unit is displayed by the medical practitioner. Further comprising a second head-mounted display device comprising a second display unit for transmitting to the field of view of, in this case, the step (h) of transmitting the composite image image constructed in step (f) through the second display unit may include more.

또한 상기 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템은, 상기 제1디스플레이부 및 제2디스플레이부 중 적어도 어느 하나에 송출되는 합성 이미지 상에 보조 이미지를 보조적으로 투사하기 위한 보조 투사 이미지를 생성하는 보조 투사 이미지 생성부 및 상기 3D 이미지에서 병변 부위를 식별하여 병변식별정보를 생성하는 병변 영역 식별부를 더 포함하며, 이와 같은 경우 상기 (g)단계 및 상기 (h)단계 이후에는, 상기 병변 영역 식별부가 상기 3D 이미지에서 병변 영역을 식별하는 (i-1)단계 및 상기 보조 투사 이미지 생성부가 상기 병변식별정보를 기반으로 하여 상기 제1디스플레이부 및 상기 제2디스플레이부 중 적어도 어느 하나에 송출되는 상기 합성 이미지 상에 병변 영역을 표시하는 보조 투사 이미지를 생성하는 (i-2)단계를 포함하는 (i)단계가 더 수행될 수 있다.In addition, the medical treatment system using the mixed reality-based artificial intelligence big data is an auxiliary projection image for auxiliary projection of an auxiliary image on the composite image transmitted to at least one of the first display unit and the second display unit and a lesion region identification unit generating lesion identification information by identifying a lesion site in the 3D image and generating an auxiliary projection image generating unit. In this case, after steps (g) and (h), the Step (i-1) in which the lesion region identification unit identifies the lesion region in the 3D image, and the auxiliary projection image generation unit displays at least one of the first display unit and the second display unit based on the lesion identification information. Step (i) including the step (i-2) of generating an auxiliary projection image indicating the lesion area on the transmitted composite image may be further performed.

상기한 과제를 해결하기 위한 본 발명의 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템 및 이를 이용한 의료 진료 방법은, 마네킹 이미지 데이터베이스로부터 임의의 마네킹 이미지를 선택하여 로딩하고, 대상 환자의 3D 이미지를 상기 3D 이미지 데이터베이스로부터 로딩하여 서로 합성함에 따라 구축된 합성 이미지 영상을 대상 환자가 착용한 제1헤드마운트 디스플레이 디바이스에 제공하여, 대상 환자가 보다 직관적이고 편리한 진료 서비스를 받을 수 있도록 하고, 원활하게 일련의 진료 과정을 수행할 수 있는 장점이 있다.The medical treatment system using the mixed reality-based artificial intelligence big data of the present invention for solving the above problems and the medical treatment method using the same, select and load an arbitrary mannequin image from a mannequin image database, and 3D the target patient By providing a composite image image constructed by loading images from the 3D image database and synthesizing each other to the first head-mounted display device worn by the target patient, the target patient can receive more intuitive and convenient medical services, and It has the advantage of being able to carry out a series of medical procedures.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 구성하는 각 구성요소들을 개념적으로 나타낸 도면;
도 2는 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법의 각 과정을 나타낸 도면;
도 3은 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법에 있어서, (d)단계의 세부 과정을 나타낸 도면;
도 4는 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법에 있어서, (f)단계의 세부 과정을 나타낸 도면; 및
도 5는 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법에 있어서, (f)단계 이후 수행되는 각 과정을 나타낸 도면이다.
1 is a diagram conceptually showing each component constituting a medical treatment system utilizing artificial intelligence big data based on mixed reality according to an embodiment of the present invention;
2 is a view showing each process of a medical treatment method using a medical treatment system utilizing artificial intelligence big data based on mixed reality according to an embodiment of the present invention;
3 is a view showing a detailed process of step (d) in a medical treatment method using a medical treatment system utilizing artificial intelligence big data based on mixed reality according to an embodiment of the present invention;
4 is a view showing a detailed process of step (f) in a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention; and
5 is a view showing each process performed after step (f) in a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention.

이하 본 발명의 목적이 구체적으로 실현될 수 있는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. 본 실시예를 설명함에 있어서, 동일 구성에 대해서는 동일 명칭 및 동일 부호가 사용되며 이에 따른 부가적인 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention in which the object of the present invention can be specifically realized will be described with reference to the accompanying drawings. In describing the present embodiment, the same names and the same reference numerals are used for the same components, and an additional description thereof will be omitted.

도 1은 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 구성하는 각 구성요소들을 개념적으로 나타낸 도면이다.1 is a diagram conceptually illustrating each component constituting a medical treatment system utilizing artificial intelligence big data based on mixed reality according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템은 제1헤드마운트 디스플레이 디바이스(100)와, 제2헤드마운트 디스플레이 디바이스(200)와, ENT장비(300)를 포함할 수 있다.As shown in FIG. 1 , the medical treatment system using AI big data based on mixed reality according to an embodiment of the present invention includes a first head-mounted display device 100 and a second head-mounted display device 200 . ) and ENT equipment 300 may be included.

여기서 ENT장비(300)는 이비인후과에서 사용되는 진료장비로서, 일반적인 ENT장비(300)에 기본적으로 구비되는 다양한 구성들을 포함할 수 있으며, 이는 당업자에게 자명한 사항이므로 일반적인 구성에 대한 자세한 설명은 생략하도록 한다.Here, the ENT equipment 300 is a medical equipment used in the otolaryngology department, and may include various configurations that are basically provided in the general ENT equipment 300, which is obvious to those skilled in the art, so a detailed description of the general configuration will be omitted. do.

이때 본 실시예에서는 대상 환자가 이비인후과 질환을 가지고 있는 것으로 가정하여 본 발명의 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템이 이비인후과에 적용된 것으로 예시하였으나, 이는 본 실시예만으로 제한되는 것은 아니며 본 발명은 의료 분야 전반에 걸쳐 적용이 가능함은 물론이다.At this time, in this embodiment, assuming that the target patient has an otolaryngology disease, the medical treatment system using the mixed reality-based artificial intelligence big data of the present invention is exemplified as being applied to the otolaryngology, but this is not limited only to this embodiment. Of course, the present invention can be applied throughout the medical field.

그리고 본 실시예에서 ENT장비(300)는 혼합현실 기반의 의료 진료를 수행하기 위해 제공되는 세부적인 구성요소들을 더 포함할 수 있다.And in this embodiment, the ENT equipment 300 may further include detailed components provided to perform mixed reality-based medical treatment.

구체적으로 본 실시예의 경우, ENT장비(300)는 대상 환자의 치료 신체 기관의 내부 구조를 촬영하여 영상정보를 획득하는 촬상유닛(310)과, 촬상유닛(310)을 통해 획득한 영상정보를 이용하여 3D 이미지로 모델링하여 구현하는 이미지 구현부(320)와, 이미지 구현부(320)에 의해 모델링되어 구현된 3D 이미지를 저장하는 3D 이미지 데이터베이스(330)와, 인체의 두부를 모델링하여 기 제작된 마네킹 이미지를 저장하여 보관하는 마네킹 이미지 데이터베이스(340)와, 마네킹 이미지 데이터베이스(340)로부터 임의의 마네킹 이미지를 선택하여 로딩하고, 대상 환자의 3D 이미지를 3D 이미지 데이터베이스(330)로부터 로딩하여 서로 합성함에 따라 합성 이미지 영상을 구축하는 이미지 합성부(350)를 포함한다.Specifically, in the case of this embodiment, the ENT equipment 300 uses the imaging unit 310 to acquire image information by photographing the internal structure of the body organ to be treated, and the image information acquired through the imaging unit 310. An image implementation unit 320 that is modeled and implemented as a 3D image, a 3D image database 330 that stores a 3D image modeled and implemented by the image implementation unit 320, and a previously manufactured head by modeling the human head The mannequin image database 340 that stores and stores the mannequin image, selects and loads an arbitrary mannequin image from the mannequin image database 340, and loads the 3D image of the target patient from the 3D image database 330 to synthesize them. It includes an image synthesizing unit 350 for constructing a composite image according to the image.

또한 제1헤드마운트 디스플레이 디바이스(100)는 환자의 두부에 착용하도록 구비되며, 이미지 합성부(350)에 의해 합성된 합성 이미지 영상을 환자의 시야에 송출하는 제1디스플레이부(110)를 포함한다.In addition, the first head-mounted display device 100 is provided to be worn on the patient's head, and includes a first display unit 110 that transmits the synthesized image image synthesized by the image synthesis unit 350 to the patient's field of view. .

그리고 제2헤드마운트 디스플레이 디바이스(200)는 의료 시행자의 두부에 착용하도록 구비되며, 제1디스플레이부(110)와 연동하여 이미지 합성부(350)에 의해 합성된 합성 이미지 영상을 의료시행자의 시야에 송출하는 제2디스플레이부(210)를 포함한다.And the second head-mounted display device 200 is provided to be worn on the head of the medical practitioner, and the combined image image synthesized by the image synthesizing unit 350 in conjunction with the first display unit 110 is displayed in the view of the medical practitioner. It includes a second display unit 210 for transmitting.

한편 본 실시예에서 ENT장비(300)는 전술한 각 구성요소와 더불어 제1디스플레이부(110) 및 제2디스플레이부(210) 중 적어도 어느 하나에 송출되는 합성 이미지 영상 상에 보조 이미지를 보조적으로 투사하기 위한 보조 투사 이미지를 생성하는 보조 투사 이미지 생성부(260)와, 3D 이미지에서 병변 부위를 식별하여 병변식별정보를 생성하는 병변 영역 식별부(370)를 더 포함할 수 있다.On the other hand, in this embodiment, the ENT equipment 300 supports the auxiliary image on the composite image image transmitted to at least one of the first display unit 110 and the second display unit 210 together with each of the above-described components. It may further include an auxiliary projection image generator 260 for generating an auxiliary projection image for projection, and a lesion region identification unit 370 for generating lesion identification information by identifying a lesion site in the 3D image.

이때 보조 투사 이미지 생성부(260)는 병변 영역 식별부(370)에 의해 생성된 병변식별정보를 기반으로 합성 이미지 영상 상에서 병변 영역을 표시하는 보조 투사 이미지를 생성하게 된다.At this time, the auxiliary projection image generating unit 260 generates an auxiliary projection image indicating the lesion area on the composite image image based on the lesion identification information generated by the lesion area identification unit 370 .

즉 보조 투사 이미지 생성부(260)는 마네킹 이미지와 3D 이미지가 서로 합성된 합성 이미지 영상에 추가적으로 임의의 보조 이미지를 표시할 수 있으며, 이와 같은 보조 이미지는 제한 없이 다양한 의료 정보를 제공할 수 있다. 특히 본 실시예에서 보조 투사 이미지 생성부(260)는 병변 영역 식별부(370)에 의해 생성된 병변식별정보를 기반으로 보조 투사 이미지를 제공한다.That is, the auxiliary projection image generator 260 may additionally display an arbitrary auxiliary image in the composite image image in which the mannequin image and the 3D image are synthesized with each other, and such auxiliary image may provide various medical information without limitation. In particular, in the present embodiment, the auxiliary projection image generator 260 provides an auxiliary projection image based on the lesion identification information generated by the lesion region identification unit 370 .

더불어 본 실시예의 경우, 마네킹 이미지 데이터베이스(340)에는 서로 다른 다양한 신체조건을 가지는 복수 개의 마네킹 이미지가 저장되며, 이미지 합성부(350)는 환자의 신상정보를 입력받고, 환자의 신상정보를 기반으로 하여 기 설정된 선택기준에 따라 선택된 마네킹 이미지를 마네킹 이미지 데이터베이스(340)로부터 자동으로 로딩하도록 형성될 수 있다.In addition, in the present embodiment, a plurality of mannequin images having various different body conditions are stored in the mannequin image database 340, and the image synthesizing unit 350 receives the patient's personal information, and based on the patient's personal information, Accordingly, the selected mannequin image may be automatically loaded from the mannequin image database 340 according to a preset selection criterion.

이는 마네킹 이미지 데이터베이스(340)를 통해 구축된 빅데이터로부터 현재 환자의 신상정보와 가장 유사한 신체조건을 가지는 마네킹 이미지를 이미지 합성부(350)를 통해 로딩하도록 하는 것이다.This is to load a mannequin image having a body condition most similar to the current patient's personal information from the big data built through the mannequin image database 340 through the image synthesizing unit 350 .

이때 이미지 합성부(350)는, 로딩된 마네킹 이미지와 3D 이미지를 합성하는 과정에서, 마네킹 이미지와 3D 이미지의 스케일을 대비하여 스케일이 서로 일치되도록 보정할 수 있다. 이와 같이 하는 이유는 마네킹 이미지와 3D 이미지 간의 스케일을 일치시켜 자연스러운 합성 이미지 영상을 얻기 위한 것이다.In this case, in the process of synthesizing the loaded mannequin image and the 3D image, the image synthesizing unit 350 may compare the scales of the mannequin image and the 3D image and correct the scales to match each other. The reason for doing this is to obtain a natural synthetic image image by matching the scale between the mannequin image and the 3D image.

이상과 같이 본 발명의 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템은 마네킹 이미지 데이터베이스(340)로부터 임의의 마네킹 이미지를 선택하여 로딩하고, 대상 환자의 3D 이미지를 3D 이미지 데이터베이스(330)로부터 로딩하여 서로 합성함에 따라 구축된 합성 이미지 영상을 대상 환자가 착용한 제1헤드마운트 디스플레이 디바이스(100)에 제공하여, 대상 환자가 3D로 구축된 그래픽을 통해 보다 직관적이고 편리한 진료 서비스를 받을 수 있도록 하고, 원활하게 일련의 진료 과정을 수행할 수 있는 장점이 있다.As described above, the medical treatment system using the mixed reality-based artificial intelligence big data of the present invention selects and loads an arbitrary mannequin image from the mannequin image database 340, and stores the 3D image of the target patient in the 3D image database 330. By providing the composite image image constructed by loading from and synthesizing with each other to the first head-mounted display device 100 worn by the target patient, the target patient can receive more intuitive and convenient medical services through 3D graphics. It has the advantage of being able to smoothly perform a series of treatment processes.

이하에서는, 이와 같은 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용하여 의료 진료를 수행하는 과정에 대해 자세히 설명하도록 한다.Hereinafter, a process of performing medical treatment using a medical treatment system using such mixed reality-based artificial intelligence big data will be described in detail.

도 2는 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법의 각 과정을 나타낸 도면이다.2 is a view showing each process of a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법은 (a)단계 내지 (g)단계를 포함한다.As shown in FIG. 2 , a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention includes steps (a) to (g).

먼저 (a)단계는, 촬상유닛(310)을 통해 대상 환자의 치료 신체 기관의 내부 구조를 촬영하여 영상정보를 획득하는 과정이다.First, step (a) is a process of acquiring image information by photographing the internal structure of a body organ to be treated through the imaging unit 310 .

그리고 (b)단계에서는 이미지 구현부(320)가 촬상유닛(310)에 의해 획득한 영상정보를 이용하여 3D 이미지를 모델링하여 구현하고, (c)단계에서는 3D 이미지 데이터베이스(330)에 (b)단계에 의해 구현된 3D 이미지를 저장하게 된다.And in step (b), the image implementation unit 320 models and implements a 3D image using the image information obtained by the imaging unit 310, and in step (c), it is stored in the 3D image database 330 (b) The 3D image implemented by the steps will be saved.

즉 (a)단계 내지 (c)단계를 통해 대상 환자의 치료 신체 기관의 내부 구조를 3D 그래픽으로 구현할 수 있다.That is, through steps (a) to (c), the internal structure of the body organ to be treated of the target patient may be implemented in 3D graphics.

다음으로 (d)단계에서는 이미지 합성부(350)가 인체의 두부를 모델링하여 기 제작된 마네킹 이미지를 저장하여 보관하는 마네킹 이미지 데이터베이스(340)로부터 임의의 마네킹 이미지를 선택하여 로딩하며, (e)단계에서는 이미지 합성부(350)가 3D 이미지 데이터베이스(330)로부터 대상 환자의 3D 이미지를 로딩한다.Next, in step (d), the image synthesizing unit 350 selects and loads an arbitrary mannequin image from the mannequin image database 340 that stores and stores a pre-fabricated mannequin image by modeling the head of the human body, (e) In the step, the image synthesizing unit 350 loads the 3D image of the target patient from the 3D image database 330 .

그리고 이후 (f)단계에서는, 이미지 합성부(350)가 (d)단계에서 로딩한 마네킹 이미지와 (e)단계에서 로딩한 3D 이미지를 합성하여 합성 이미지 영상을 구축하게 된다.Then, in step (f), the image synthesis unit 350 synthesizes the mannequin image loaded in step (d) and the 3D image loaded in step (e) to construct a composite image image.

이상과 같은 과정에 의해 합성된 합성 이미지 영상은, (g)단계에 의해 제1헤드마운트 디스플레이 디바이스(100)의 제1디스플레이부(110)를 통해 송출된다.The composite image image synthesized by the above process is transmitted through the first display unit 110 of the first head-mounted display device 100 by the step (g).

한편 도 3은 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법에 있어서, (d)단계의 세부 과정을 나타낸 도면이다.Meanwhile, FIG. 3 is a diagram illustrating a detailed process of step (d) in a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 이미지 합성부(350)가 인체의 두부를 모델링하여 기 제작된 마네킹 이미지를 저장하여 보관하는 마네킹 이미지 데이터베이스(340)로부터 임의의 마네킹 이미지를 선택하여 로딩하는 과정인 (d)단계는 세부적인 복수 단계를 포함한다.As shown in FIG. 3, the image synthesis unit 350 selects and loads an arbitrary mannequin image from the mannequin image database 340, which stores and stores the mannequin image pre-fabricated by modeling the head of the human body ( Step d) includes multiple detailed steps.

구체적으로 본 실시예에서 (d)단계는, 환자의 신상정보를 입력받는 (d-1)단계와, 이미지 합성부(350)가 환자의 신상정보를 기반으로 하여 마네킹 이미지 데이터베이스(340)로부터 기 설정된 선택기준에 따라 마네킹 이미지를 서치하는 (d-2)단계와, 이미지 합성부(350)가 기 설정된 선택기준에 부합하는 마네킹 이미지를 선택하여 로딩하는 (d-3)단계를 포함한다.Specifically, step (d) in this embodiment includes a step (d-1) of receiving the patient's personal information, and the image synthesizing unit 350 is generated from the mannequin image database 340 based on the patient's personal information. It includes a step (d-2) of searching for a mannequin image according to a set selection criterion, and a step (d-3) of the image synthesizing unit 350 selecting and loading a mannequin image that meets the preset selection criterion.

이때 기 설정된 선택기준은 다양하게 정해질 수 있으며, 본 실시예에서는 마네킹 이미지 데이터베이스(340)를 통해 구축된 빅데이터로부터 현재 환자의 신상정보와 가장 유사한 신체조건을 가지는 마네킹 이미지를 이미지 합성부(350)를 통해 로딩하도록 하였다.At this time, the preset selection criteria can be set in various ways, and in this embodiment, the image synthesizing unit 350 uses the mannequin image having the most similar physical condition to the current patient's personal information from the big data built through the mannequin image database 340 . ) to load it through.

그리고 도 4는 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법에 있어서, (f)단계의 세부 과정을 나타낸 도면이다.And FIG. 4 is a view showing a detailed process of step (f) in a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 이미지 합성부(350)가 (d)단계에서 로딩한 마네킹 이미지와 (e)단계에서 로딩한 3D 이미지를 합성하여 합성 이미지 영상을 구축하는 (f)단계 역시 세부적인 복수 단계를 포함할 수 있다.As shown in FIG. 4 , step (f) of constructing a composite image image by synthesizing the 3D image loaded in step (e) with the mannequin image loaded in step (d) by the image synthesizing unit 350 is also detailed. It may include multiple steps.

구체적으로 본 실시예에서 (f)단계는, 이미지 합성부(350)가 (d)단계에서 로딩한 마네킹 이미지의 스케일을 분석하는 (f-1)단계와, 이미지 합성부(350)가 (e)단계에서 로딩한 3D 이미지의 스케일을 분석하는 (f-2)단계와, 이미지 합성부(350)가 (d)단계에서 로딩한 마네킹 이미지와 (e)단계에서 로딩한 3D 이미지를 보정하여 서로의 스케일을 일치시키는 (f-3)단계와, 이미지 합성부(350)가 (f-3)단계에 의해 스케일이 일치된 마네킹 이미지와 3D 이미지를 합성하여 합성 이미지 영상을 구축하는 (f-4)단계를 포함한다.Specifically, step (f) in this embodiment includes a step (f-1) in which the image synthesis unit 350 analyzes the scale of the mannequin image loaded in step (d), and a step (f-1) in which the image synthesis unit 350 performs (e). Step (f-2) of analyzing the scale of the 3D image loaded in step ), and the image synthesizing unit 350 correcting the mannequin image loaded in step (d) and the 3D image loaded in step (e) to each other Step (f-3) of matching the scale of , and the image synthesizing unit 350 constructs a composite image image by synthesizing the 3D image with the mannequin image whose scale is matched by the step (f-3) (f-4) ) step.

이와 같은 (f)단계의 세부 과정은 마네킹 이미지와 3D 이미지 간의 스케일을 일치시켜 자연스러운 합성 이미지 영상을 얻도록 할 수 있다.In the detailed process of step (f), it is possible to obtain a natural synthetic image image by matching the scale between the mannequin image and the 3D image.

한편 도 5는 본 발명의 일 실시예에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 의료 진료방법에 있어서, (f)단계 이후 수행되는 각 과정을 나타낸 도면이다.Meanwhile, FIG. 5 is a view showing each process performed after step (f) in a medical treatment method using a medical treatment system using artificial intelligence big data based on mixed reality according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 본 실시예에서 (f)단계 이후에는, 합성 이미지 영상을 제1헤드마운트 디스플레이 디바이스(100)의 제1디스플레이부(110)를 통해 송출하는 (g)단계와 더불어, 제2헤드마운트 디스플레이 디바이스(200)의 제2디스플레이부(210)를 통해 (f)단계에서 구축된 합성 이미지 영상을 송출하는 (h)단계가 수행될 수 있다. 이에 따라 의료 시행자는 대상 환자가 현재 주시하고 있는 화면을 함께 확인할 수 있다.5, after step (f) in this embodiment, along with the step (g) of transmitting the composite image image through the first display unit 110 of the first head-mounted display device 100 , step (h) of transmitting the composite image image constructed in step (f) through the second display unit 210 of the second head-mounted display device 200 may be performed. Accordingly, the medical practitioner can check the screen the target patient is currently watching.

그리고 (g)단계 및 (h)단계 이후에는, 병변 영역 식별부(370)가 3D 이미지에서 병변 영역을 식별하는 (i-1)단계와, 보조 투사 이미지 생성부(360)가 병변식별정보를 기반으로 하여 제1디스플레이부(110) 및 제2디스플레이부(210) 중 적어도 어느 하나에 송출되는 합성 이미지 상에 병변 영역을 표시하는 보조 투사 이미지를 생성하는 (i-2)단계를 포함하는 (i)단계가 더 수행될 수 있다.And after steps (g) and (h), the lesion region identification unit 370 identifies the lesion region in the 3D image (i-1), and the auxiliary projection image generator 360 generates the lesion identification information. (i-2) generating an auxiliary projection image indicating the lesion area on the composite image transmitted to at least one of the first display unit 110 and the second display unit 210 based on (i-2) ( Step i) may be further performed.

본 과정을 통해 대상 환자는 자신의 병변 영역을 직관적으로 확인하여 이해할 수 있으며, 의료 시행자는 대상 환자에게 보다 높은 수준의 의료 서비스를 제공할 수 있게 된다.Through this process, the target patient can intuitively identify and understand their lesion area, and the medical practitioner can provide a higher level of medical service to the target patient.

한편 본 발명은 전술한 실시예에서 나타난 활용 방법 외에도 다양한 분야로 확장하여 적용이 가능하다. 예컨대, 본 발명에 따른 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템 및 이를 이용한 의료 진료방법은, 어지럼증 치료, 재활 치료, 심리 치료를 비롯하여 헬스 케어 분야에도 유용하게 적용이 가능하며, 적용 과정에서 인공지능의 기술력과 빅데이터의 정보력을 이용하여 높은 치료 효과를 얻을 수 있다.Meanwhile, the present invention can be extended and applied to various fields in addition to the application method shown in the above-described embodiment. For example, the medical treatment system using the mixed reality-based artificial intelligence big data according to the present invention and the medical treatment method using the same can be usefully applied to the health care field, including dizziness treatment, rehabilitation treatment, and psychological treatment. In the process, a high treatment effect can be obtained by using the technology of artificial intelligence and the information power of big data.

이상과 같이 본 발명에 따른 바람직한 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.As described above, preferred embodiments according to the present invention have been reviewed, and the fact that the present invention can be embodied in other specific forms without departing from the spirit or scope of the present invention other than the above-described embodiments is a fact having ordinary skill in the art. It is obvious to them. Therefore, the above-described embodiments are to be regarded as illustrative rather than restrictive, and accordingly, the present invention is not limited to the above description, but may be modified within the scope of the appended claims and their equivalents.

100: 제1헤드마운트 디스플레이 디바이스
110: 제1디스플레이부
200: 제2헤드마운트 디스플레이 디바이스
210: 제2디스플레이부
300: ENT장비
310: 촬상유닛
320: 이미지 구현부
330: 3D 이미지 데이터베이스
340: 마네킹 이미지 데이터베이스
350: 이미지 합성부
360: 보조 투사 이미지 생성부
370: 병변 영역 식별부
100: first head-mounted display device
110: first display unit
200: second head-mounted display device
210: second display unit
300: ENT equipment
310: imaging unit
320: image implementation unit
330: 3D image database
340: mannequin image database
350: image synthesizing unit
360: auxiliary projection image generator
370: lesion region identification unit

Claims (12)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템을 이용한 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료방법에 있어서,
촬상유닛을 통해 대상 환자의 치료 신체 기관의 내부 구조를 촬영하여 영상정보를 획득하는 (a)단계;
이미지 구현부가 상기 촬상유닛에 의해 획득한 영상정보를 이용하여 치료 신체 기관의 내부 구조에 대한 3D 이미지를 모델링하여 구현하는 (b)단계;
3D 이미지 데이터베이스에 상기 (b)단계에 의해 구현된 치료 신체 기관의 내부 구조에 대한 3D 이미지를 저장하는 (c)단계;
이미지 합성부가 상기 대상 환자의 치료 신체 기관의 내부 구조를 포함하는 인체의 두부를 모델링하여 기 제작된 마네킹 이미지를 저장하여 보관하는 마네킹 이미지 데이터베이스로부터 임의의 마네킹 이미지를 선택하여 로딩하는 (d)단계;
이미지 합성부가 상기 3D 이미지 데이터베이스로부터 대상 환자의 3D 이미지를 로딩하는 (e)단계;
이미지 합성부가 상기 (d)단계에서 로딩한 마네킹 이미지의 치료 신체 기관의 내부 구조에 대한 이미지와 상기 (e)단계에서 로딩한 상기 촬상유닛에서 획득한 영상정보를 바탕으로 한 치료 신체 기관의 내부 구조에 대한 3D 이미지를 합성하여 합성 이미지 영상을 구축하는 (f)단계; 및
제1헤드마운트 디스플레이 디바이스의 제1디스플레이부를 통해 상기 (f)단계에서 구축된 합성 이미지 영상을 송출하는 (g)단계;
를 포함하고,
상기 제1디스플레이부에 송출되는 합성 이미지 상에 보조 이미지를 보조적으로 투사하기 위한 보조 투사 이미지를 생성하는 보조 투사 이미지 생성부; 및
상기 촬상유닛을 통하여 획득한 영상정보를 바탕으로 얻어진 3D 이미지에서 병변 부위를 식별하여 병변식별정보를 생성하는 병변 영역 식별부;
를 더 포함하며,
상기 (g)단계 이후에는,
상기 병변 영역 식별부가 상기 3D 이미지에서 병변 영역을 식별하는 (i-1)단계; 및
상기 보조 투사 이미지 생성부가 상기 병변식별정보를 기반으로 하여 상기 제1디스플레이부에 송출되는 상기 합성 이미지 상에 병변 영역을 표시하는 보조 투사 이미지를 생성하는 (i-2)단계;
를 포함하는 (i)단계가 더 수행되는,
는,
혼합현실 기반의 인공지능 빅데이터를 활용한 병변 정보 제공방법.
In a medical treatment method using artificial intelligence big data based on mixed reality using a medical treatment system using AI big data based on mixed reality,
(a) acquiring image information by photographing the internal structure of a body organ to be treated through an imaging unit;
(b) of an image implementation unit modeling and implementing a 3D image of an internal structure of a body organ to be treated using the image information acquired by the imaging unit;
(c) storing a 3D image of the internal structure of the body organ to be treated implemented by the step (b) in a 3D image database;
(d) selecting and loading an arbitrary mannequin image from a mannequin image database that stores and stores a pre-fabricated mannequin image by an image synthesizing unit modeling the head of the human body including the internal structure of the body to be treated;
(e) loading the 3D image of the target patient from the 3D image database by the image synthesizing unit;
The internal structure of the body to be treated based on the image of the internal structure of the body to be treated in the mannequin image loaded in step (d) by the image synthesizing unit and the image information obtained from the imaging unit loaded in step (e) (f) constructing a composite image image by synthesizing a 3D image for and
(g) transmitting the composite image image constructed in the step (f) through the first display unit of the first head-mounted display device;
including,
an auxiliary projection image generating unit for generating an auxiliary projection image for auxiliary projection of an auxiliary image on the composite image transmitted to the first display unit; and
a lesion region identification unit for generating lesion identification information by identifying a lesion region in a 3D image obtained based on image information acquired through the imaging unit;
further comprising,
After step (g),
(i-1) step of the lesion region identification unit identifying the lesion region in the 3D image; and
(i-2) generating, by the auxiliary projection image generating unit, an auxiliary projection image displaying a lesion area on the composite image transmitted to the first display unit based on the lesion identification information;
(i) further comprising a step is performed,
Is,
A method of providing lesion information using artificial intelligence big data based on mixed reality.
제8항에 있어서,
상기 (d)단계는,
환자의 신상정보를 입력받는 (d-1)단계;
상기 이미지 합성부가 환자의 신상정보를 기반으로 하여 상기 마네킹 이미지 데이터베이스로부터 기 설정된 선택기준에 따라 마네킹 이미지를 서치하는 (d-2)단계; 및
상기 이미지 합성부가 기 설정된 선택기준에 부합하는 마네킹 이미지를 선택하여 로딩하는 (d-3)단계;
를 포함하는,
혼합현실 기반의 인공지능 빅데이터를 활용한 병변 정보 제공방법.
9. The method of claim 8,
Step (d) is,
(d-1) receiving the patient's personal information;
(d-2) of the image synthesizing unit searching for a mannequin image from the mannequin image database based on the patient's personal information according to a preset selection criterion; and
(d-3) step of loading by the image synthesizing unit selecting a mannequin image that meets a preset selection criterion;
containing,
A method of providing lesion information using artificial intelligence big data based on mixed reality.
제8항에 있어서,
상기 (f)단계는,
상기 이미지 합성부가 상기 (d)단계에서 로딩한 마네킹 이미지의 스케일을 분석하는 (f-1)단계;
상기 이미지 합성부가 상기 (e)단계에서 로딩한 3D 이미지의 스케일을 분석하는 (f-2)단계;
상기 이미지 합성부가 상기 (d)단계에서 로딩한 마네킹 이미지와 상기 (e)단계에서 로딩한 3D 이미지를 보정하여 서로의 스케일을 일치시키는 (f-3)단계; 및
상기 이미지 합성부가 상기 (f-3)단계에 의해 스케일이 일치된 상기 마네킹 이미지와 상기 3D 이미지를 합성하여 합성 이미지 영상을 구축하는 (f-4)단계;
를 포함하는,
혼합현실 기반의 인공지능 빅데이터를 활용한 병변 정보 제공방법.
9. The method of claim 8,
The step (f) is,
(f-1) step of analyzing the scale of the mannequin image loaded in step (d) by the image synthesizing unit;
(f-2) step of analyzing the scale of the 3D image loaded in the step (e) by the image synthesizing unit;
(f-3) step of the image synthesizing unit correcting the mannequin image loaded in step (d) and the 3D image loaded in step (e) to match each other's scales; and
(f-4) step of the image synthesizing unit synthesizing the 3D image with the mannequin image whose scale is matched by the (f-3) step to construct a composite image image;
containing,
A method of providing lesion information using artificial intelligence big data based on mixed reality.
제8항에 있어서,
상기 혼합현실 기반의 인공지능 빅데이터를 활용한 의료 진료 시스템은,
의료 시행자의 두부에 착용하도록 구비되며, 상기 제1디스플레이부와 연동하여 상기 이미지 합성부에 의해 합성된 합성 이미지 영상을 의료 시행자의 시야에 송출하는 제2디스플레이부를 포함하는 제2헤드마운트 디스플레이 디바이스를 더 포함하며,
상기 제2디스플레이부를 통해 상기 (f)단계에서 구축된 합성 이미지 영상을 송출하는 (h)단계를 더 포함하는,
혼합현실 기반의 인공지능 빅데이터를 활용한 병변 정보 제공방법.
9. The method of claim 8,
The medical treatment system using the artificial intelligence big data based on the mixed reality is,
A second head-mounted display device that is provided to be worn on the medical practitioner's head and includes a second display unit for transmitting the synthesized image image synthesized by the image synthesis unit to the medical practitioner's field of view in conjunction with the first display unit including more,
Further comprising the step (h) of transmitting the composite image image constructed in the step (f) through the second display unit,
A method of providing lesion information using artificial intelligence big data based on mixed reality.
제11항에 있어서,
상기 (i)단계에서는 상기 제2디스플레이부에 송출되는 상기 합성 이미지 상에 병변 영역을 표시하는 보조 투사 이미지를 생성하는 혼합현실 기반의 인공지능 빅데이터를 활용한 병변 정보 제공방법.
12. The method of claim 11,
In step (i), a method for providing lesion information using mixed reality-based artificial intelligence big data to generate an auxiliary projection image for displaying a lesion area on the composite image transmitted to the second display unit.
KR1020210039107A 2021-03-25 2021-03-25 Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same KR102366326B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210039107A KR102366326B1 (en) 2021-03-25 2021-03-25 Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210039107A KR102366326B1 (en) 2021-03-25 2021-03-25 Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same

Publications (1)

Publication Number Publication Date
KR102366326B1 true KR102366326B1 (en) 2022-02-23

Family

ID=80495409

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210039107A KR102366326B1 (en) 2021-03-25 2021-03-25 Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same

Country Status (1)

Country Link
KR (1) KR102366326B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117789563A (en) * 2024-02-23 2024-03-29 湖南晟医智能科技有限公司 AI and MR technology based virtual-real fusion simulation medical teaching method and system
CN117789563B (en) * 2024-02-23 2024-05-31 湖南晟医智能科技有限公司 AI and MR technology based virtual-real fusion simulation medical teaching method and system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100968280B1 (en) 2008-02-13 2010-07-06 가자마 이엔티 (주) Medical Apparatus for Otorhinolaryngology
KR20150051618A (en) * 2013-11-05 2015-05-13 한국디지털병원수출사업협동조합 Medical device and its method for merging volume images in 3D ultrasound scanning
KR20160076868A (en) * 2014-12-23 2016-07-01 삼성전자주식회사 Image processing apparatus, medical image apparatus and processing method for the medical image
KR20180058693A (en) * 2018-05-23 2018-06-01 박병준 Head mounted display using augmented reality and short distance location tracking
US20190239850A1 (en) * 2018-02-06 2019-08-08 Steven Philip Dalvin Augmented/mixed reality system and method for the guidance of a medical exam
KR20190096575A (en) * 2018-02-09 2019-08-20 고려대학교 산학협력단 Medical imaging system
KR20200023968A (en) * 2018-08-27 2020-03-06 오주영 X-ray Image Display Method Based On Augmented Reality

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100968280B1 (en) 2008-02-13 2010-07-06 가자마 이엔티 (주) Medical Apparatus for Otorhinolaryngology
KR20150051618A (en) * 2013-11-05 2015-05-13 한국디지털병원수출사업협동조합 Medical device and its method for merging volume images in 3D ultrasound scanning
KR20160076868A (en) * 2014-12-23 2016-07-01 삼성전자주식회사 Image processing apparatus, medical image apparatus and processing method for the medical image
US20190239850A1 (en) * 2018-02-06 2019-08-08 Steven Philip Dalvin Augmented/mixed reality system and method for the guidance of a medical exam
KR20190096575A (en) * 2018-02-09 2019-08-20 고려대학교 산학협력단 Medical imaging system
KR20180058693A (en) * 2018-05-23 2018-06-01 박병준 Head mounted display using augmented reality and short distance location tracking
KR20200023968A (en) * 2018-08-27 2020-03-06 오주영 X-ray Image Display Method Based On Augmented Reality

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117789563A (en) * 2024-02-23 2024-03-29 湖南晟医智能科技有限公司 AI and MR technology based virtual-real fusion simulation medical teaching method and system
CN117789563B (en) * 2024-02-23 2024-05-31 湖南晟医智能科技有限公司 AI and MR technology based virtual-real fusion simulation medical teaching method and system

Similar Documents

Publication Publication Date Title
US20220405935A1 (en) Augmented reality patient positioning using an atlas
CN108324246B (en) Medical diagnosis assisting system and method
US10485614B2 (en) Augmented reality system and method for implementing augmented reality for dental surgery
CN102525534B (en) Medical image-processing apparatus, medical image processing method
CN107529968A (en) For observing the device of cavity interior
JP2008301970A (en) Medical guiding system
CN108629845B (en) Surgical navigation device, apparatus, system, and readable storage medium
CN111770735B (en) Operation simulation information generation method and program
JP6440135B1 (en) Medical information virtual reality server, medical information virtual reality program, and medical information virtual reality data creation method
US20230401713A1 (en) Systems and Methods for Displaying Augmented Anatomical Features
KR20180125793A (en) Service Apparatus for Coordinating of Images for Dental Implant Procedure and Method for Coordinating of Images for thereof
US20230114385A1 (en) Mri-based augmented reality assisted real-time surgery simulation and navigation
KR20200068992A (en) Method, Apparatus and Recording For Computerizing Of Electro-Magnetic Resonance
JP2001218110A (en) Inter-image arithmetic method and device, and image display method and device
KR102366326B1 (en) Medical Treatment System Using AI Big Data Based on Mixed Reality and Lesion information providing Method Using the Same
CN108877897B (en) Dental diagnosis and treatment scheme generation method and device and diagnosis and treatment system
CN110638525A (en) Operation navigation method and system integrating augmented reality
US8265729B2 (en) Third party acquisition of images at the direction of an independent imaging application
CN107230247A (en) A kind of synthetic image imaging system and its three-dimensional image reconstruction algorithm
JP2015036858A (en) Medical information processing device, system, and program
CN111053598A (en) Augmented reality system platform based on projector
KR20190088419A (en) Program and method for generating surgical simulation information
US20110242096A1 (en) Anatomy diagram generation method and apparatus, and medium storing program
US20140043458A1 (en) Digital image access system and human body data matching method for medical cosmetic applications
CN112447297A (en) 3D prints operation preview operating system who combines VR virtual reality formation of image

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant