KR20220098321A - a First aid training type medical system based on extended reality first aid guide information - Google Patents

a First aid training type medical system based on extended reality first aid guide information Download PDF

Info

Publication number
KR20220098321A
KR20220098321A KR1020220072059A KR20220072059A KR20220098321A KR 20220098321 A KR20220098321 A KR 20220098321A KR 1020220072059 A KR1020220072059 A KR 1020220072059A KR 20220072059 A KR20220072059 A KR 20220072059A KR 20220098321 A KR20220098321 A KR 20220098321A
Authority
KR
South Korea
Prior art keywords
unit
aid
module
treatment
marker
Prior art date
Application number
KR1020220072059A
Other languages
Korean (ko)
Other versions
KR102637330B1 (en
Inventor
배종환
박선희
이수열
Original Assignee
주식회사 유토비즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유토비즈 filed Critical 주식회사 유토비즈
Priority to KR1020220072059A priority Critical patent/KR102637330B1/en
Publication of KR20220098321A publication Critical patent/KR20220098321A/en
Application granted granted Critical
Publication of KR102637330B1 publication Critical patent/KR102637330B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The present invention relates to a first aid man training medical system in accordance with an extended reality type first aid guide information, capable of recognizing each part of a human body, which comprises: a first aid man booth unit (100) including XR treatment equipment (110) and a treatment tool unit (130); an operation control server (200) including a data exchange module (210) and a database management module (240); and a remote medical center booth unit (300) including XR remote equipment (310) and remote treatment device unit (320).

Description

확장현실형 응급처지 가이드 정보에 따른 응급처치자 교육형 의료 시스템{a First aid training type medical system based on extended reality first aid guide information}First aid training type medical system based on extended reality first aid guide information based on extended reality first aid guide information

본 발명은 가상현실을 기반으로 하는 응급 의료 처치 시스템에 관한 발명으로서, 더욱 구체적으로는 인체 각부위를 인식할 수 있는 확장현실(eXtended Reality) 시스템에 대한 생체객체 인식용 마커 및 이를 이용한 XR 응급 의료 처치 시스템에 관한 발명이다.The present invention relates to an emergency medical treatment system based on virtual reality, and more specifically, a marker for bio-object recognition for an eXtended Reality system capable of recognizing each part of the human body, and XR emergency medical care using the same The invention relates to a treatment system.

일반적으로 증강현실(Augmented Reality)이란 컴퓨터가 만들어낸 컴퓨터그래픽(CG)을 실세계와 공존시켜 마치 컴퓨터그래픽이 실세계에 존재하는 것처럼 느낄 수 있도록 하는 기술이다. 현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 즉, 사용자가 보고 있는 실사 영상(객체)에 3차원 가상영상을 겹침(overlap)으로써 현실환경에 필요한 정보를 추가 제공하는 역할을 하는 것이다.In general, Augmented Reality is a technology that allows computer graphics (CG) created by computers to coexist with the real world so that computer graphics can feel as if they exist in the real world. Augmented reality, a concept that complements the real world with the virtual world, uses a virtual environment created with computer graphics, but the main character is the real environment. That is, it serves to provide additional information necessary for the real environment by overlapping the 3D virtual image on the actual image (object) viewed by the user.

이러한 증강현실기술은 가상현실(virtual reality)의 확장 개념으로 가상환경만으로 구성된 가상현실기술과 달리, 실제 환경과 가상의 객체가 혼합된 영상을This augmented reality technology is an extension of virtual reality, and unlike virtual reality technology that consists only of a virtual environment, an image in which the real environment and virtual objects are mixed.

제공하므로, 사용자가 실제 환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다. 따라서 증강현실기술은 원격의료진단·방송·건축설계·제조공정관리 등에 활용된다. 특히, 최근 스마트폰이 널리 보급되면서 본격적인 상업화 단계에 들어섰으며, 게임 및 모바일 솔루션 업계·교육 분야 등에서도 다양한 제품을 개발하고 있다.Therefore, the user can see the real environment, providing better realism and additional information. Therefore, augmented reality technology is used for remote medical diagnosis, broadcasting, architectural design, and manufacturing process management. In particular, with the recent widespread use of smartphones, they have entered the stage of full-scale commercialization, and are developing various products in the game and mobile solution industries and education fields.

예를 들어, 스마트폰 카메라로 주변을 비추면 인근에 있는 상점의 위치, 전화번호 등의 정보가 입체영상으로 표기되는 안내 서비스 등은 이미 상업적 서비스로 운영되고 있다.For example, a guide service in which information such as the location and phone number of a nearby store is displayed in a three-dimensional image when illuminating the surroundings with a smartphone camera has already been operated as a commercial service.

이러한 증강현실기술은 가상현실과 접목되어 혼합현실(Mixed Rality) 기술로 발전하고 있다.This augmented reality technology is being combined with virtual reality to develop into a mixed reality technology.

특히 이러한 기술은 의료기술분야에서 활발히 응용되어 활용되고 개발되고 있다. 특히 사고로 인해 긴급한 구호조치(응급처치)를 받아야 하는 환자들의 경우 신속한 처치가 매우 중요한데, 이를 완벽하게 배워야 하는 실습자들에게 현재 제공되는 환자처치실습교육은 의료적 응급상황을 상상에 의존하거나, 또는 같은 실습자나 마네킹을 대상으로 현장감 없는 실습을 반복하고 있는 것이 현실이다.In particular, these technologies are being actively applied, utilized, and developed in the field of medical technology. In particular, prompt treatment is very important for patients who need urgent relief measures (first aid) due to an accident. Or, the reality is that the same practitioner or mannequin is repeating the practice without realism.

한편, 증강현실의 구현에 있어서 중요한 기술적 과제로서, 실제 환경과 가상의 객체가 시간적 및 공간적으로 정확하게 정합된 영상이 구현되어야 하는 점이 중요한데, 이러한 영상 정합을 위해서, 기존에는 현실환경의 객체와 함께 인식될 수 있는 다양한 형태의 마커가 필요하다.On the other hand, as an important technical task in the implementation of augmented reality, it is important that an image in which the real environment and the virtual object are accurately matched temporally and spatially should be implemented. Various types of markers that can be used are needed.

종래기술에 있어 이러한 마커는 인위적으로 제작 또는 생성된 마커를 현실환경의 객체에 부착 또는 인쇄하거나, 영상 인식이 가능한 객체 자체의 특징점을 마커로서 미리 등록하는 등의 방식으로 제공된다.In the prior art, such a marker is provided in a manner such as attaching or printing an artificially produced or generated marker to an object in a real environment, or pre-registering a feature point of an object capable of image recognition as a marker.

이와 관련된 기술로 등록특허 10-2077607호(환자처치실습을 위한 증강현실구현방법, 이하 선행기술)는 "카메라와 디스플레이를 구비한 증강현실구현장치에서 실행되되, 상기 카메라를 통해 영상을 입력받는 단계와, 입력된 영상에 포함된 마커를 추출하여 인식하는 단계와, 상기 마커에 대응하는 가상 영상을 현실상의 객체 영상과 합성하여 증강현실 영상을 증강현실구현장치의 디스플레이에 출력하는 단계와, 상기 증강현실에서 사용될 다수개의 처치실습을 위한 가상영상을 데이터베이스에 저장함에 있어 각각의 처치실습 가상영상과 각 해당마커를 매칭하는 단계와, 상기 처치실습 가상영상을 증강현실구현장치에 표현될 객체의 좌표에 설정하는 단계를 포함하는 증강현실구현방법에 있어서, 상기 좌표에 객체의 위치를 설정함에 있어 증강현실구현장치의 디스플레이에 출력되는 마커와 처치실습 가상영상은 서로 소정간격 이격되게 표현되도록 하여 처치실습시 실습자에 의해 마커가 가려지는 것을 방지하도록 하고, 상기 마커에는 상처 또는 부상의 종류 및 표현되는 신체의 부위가 기재되도록 하여 학습자들이 어떤 교육 및 처치실습이 이루어지고 있는지를 쉽게 알 수 있도록 구성됨을 특징으로 하는 환자처치실습을 위한 증강현실구현방법"이 제시된바 있다.As a related technology, Registered Patent No. 10-2077607 (Augmented Reality Implementation Method for Patient Treatment Practice, hereinafter referred to as the prior art) is "executed in an augmented reality realization apparatus having a camera and a display, and receiving an image through the camera" and extracting and recognizing a marker included in the input image, synthesizing a virtual image corresponding to the marker with a real object image and outputting an augmented reality image to a display of an augmented reality realizing device; Matching each treatment practice virtual image with each corresponding marker in storing a plurality of virtual images for treatment practice to be used in reality in a database, and applying the treatment practice virtual image to the coordinates of the object to be expressed in the augmented reality implementation device In the augmented reality implementation method comprising the step of setting, in setting the position of the object in the coordinates, the marker output on the display of the augmented reality implementation device and the treatment practice virtual image are expressed to be spaced apart from each other at a predetermined interval during treatment practice. It is characterized in that the marker is prevented from being covered by the practitioner, and the type of wound or injury and the part of the body expressed are described in the marker so that learners can easily know what kind of education and treatment practice is being performed. Augmented reality implementation method for patient treatment practice" has been presented.

종래기술 및 선행기술의 경우 종래의 가상현실(Virtual Reality), 증강현실(Augmeneted Reality), 혼합현실(Mixed Reality) 또는 확장현실(eXtended Reality) 등에서 객체 인식 수단으로 사용되는 마커(Marker)는 본 발명에서 인식해야 하는 응급 환자의 출혈, 쇼크(얼굴 변형), 신체 부위 절단, 의류 착용 상태 등과 같은 다양한 상황에서의 생체 객체 인식에 어려움이 발생하게 된다.In the case of prior art and prior art, a marker used as an object recognition means in conventional virtual reality, augmented reality, mixed reality, or eXtended reality, etc. The present invention Difficulties arise in recognizing biometric objects in various situations, such as bleeding, shock (deformation of the face), cutting body parts, and wearing clothes in an emergency patient that needs to be recognized in the hospital.

특히, 종래의 대부분의 인식 분야에서는 특징점을 이용한 객체 인식 방법을 사용하지만 특징점을 찾기 어려운 환자의 신체 부위 및 주변환경(군복 패턴, 환자별 체형 등) 요소들에 의하여 마커 기반의 인식 기술을 적용하더라도 정확한 응급 환자의 손상 부위를 인식하는 것이 매우 어려운 현실이다.In particular, although most of the conventional recognition fields use the object recognition method using feature points, even if the marker-based recognition technology is applied by the factors of the patient's body part and surrounding environment (military uniform pattern, patient-specific body type, etc.), it is difficult to find the feature point. It is a very difficult reality to accurately recognize the injured area of an emergency patient.

또한, 응급 환자의 인체의 특징(팔, 다리 등) 부위에 대한 정보가 제공되더라도 컴퓨터인 운용통제 서버의 생체객체인식모듈은 해당 부위를 추측하기 어려울 뿐만 아니라 출혈, 쇼크(얼굴 변형), 신체 부위 절단, 의류 착용 상태 등과 같은 다양한 상황에서의 응급환자의 경우는 더더욱 객체 인식률이 현저히 낮은 문제점이 발생하게 된다.In addition, even if information on the body features (arms, legs, etc.) of the emergency patient is provided, the biometric object recognition module of the computer operation control server makes it difficult to guess the relevant part, as well as bleeding, shock (facial deformation), and body parts. In the case of emergency patients in various situations such as amputation and wearing clothes, the object recognition rate is significantly lower.

더불어, 딥러닝(deep learning)과 같은 기술을 사용한다고 해도 응급 환자의 수 많은 경우의 수를 학습시켜 응급 환자를 인식시키기에는 많은 어려움이 따르게 된다.In addition, even if a technology such as deep learning is used, it is difficult to recognize emergency patients by learning the number of emergency patients.

즉, 예측 불가능한 다양한 조건에 따른 응급환자 상태를 사전에 학습시키기 어렵게 되고 그에 따라 특징점에 의한 패턴화가 난해하여 응급 환자를 인식시키기에는 많은 어려움이 있게 된다.That is, it is difficult to learn the emergency patient state according to various unpredictable conditions in advance, and accordingly, the patterning by the feature point is difficult, so that there is a lot of difficulty in recognizing the emergency patient.

따라서, 본 발명은 이와 같은 객체 인식의 문제점을 해결하고자 응급처치자 시점의 영상을 이용한 생체객체 인식을 위한 인식용 마킹 및 트래킹 기술을 제공하고자 한다.Accordingly, the present invention intends to provide a recognition marking and tracking technology for recognizing a biometric object using an image from a first aid person's point of view in order to solve the object recognition problem.

또한 본 발명은 작전 상황시, 재난 발생시, 응급환자 상황시 응급처치자(출동 대원, 출동 의사, 출동 의무병 또는 군의관 등)가 XR 장비를 이용하여 직접 응급 환자를 치료할 수 있는 XR 응급 의료 처치 시스템에 대한 생체객체 인식용 마커를 제공하고자 한다.In addition, the present invention provides an XR emergency medical treatment system in which first responders (such as dispatchers, dispatch doctors, dispatch medics or surgeons) can directly treat emergency patients using XR equipment in operational situations, disasters, and emergency patient situations. It is intended to provide a marker for bio-object recognition.

또한 본 발명은 상기한 XR 응급 의료 처치 시스템에 대한 생체객체 인식용 마커를 이용한 XR 응급 의료 처치 시스템을 제공하고자 한다.Another object of the present invention is to provide an XR emergency medical treatment system using a bio-object recognition marker for the XR emergency medical treatment system.

본 발명은 상기한 요구 및 문제를 해결하기 위하여,The present invention in order to solve the above needs and problems,

XR 시스템에 사용되는 생체객체 인식용 마커에 있어서,In the marker for bio-object recognition used in the XR system,

테이핑몸체부(410), 거리산출부(420), 기울기 회전각 산출부(430)을 포함하여 구성되어 있는 XR 시스템에 대한 생체객체 인식용 마커(400)를 제공한다.It provides a marker 400 for bio-object recognition for the XR system, which includes a taping body part 410 , a distance calculation unit 420 , and a tilt rotation angle calculation unit 430 .

또한 본 발명은 상기한 테이핑몸체부(410)는 앞면부(411)와 뒷면부(412)로 형성되어 있고,In the present invention, the above-described taping body portion 410 is formed of a front portion 411 and a rear portion 412,

상기한 거리산출부(420)는 테이핑몸체부(410)에 일정한 거리(L)로 형성되어 있는 인식거리부(421)들로 형성되어 있고,The distance calculating part 420 is formed of recognition distance parts 421 formed at a predetermined distance L on the taping body part 410,

상기한 기울기 회전각 산출부(430)는 방향 특징점(431)이 형성되어 있어 마커의 중심 부위의 기울기 및 회전각 산출이 가능한 구조로 된 것을 특징으로 하는 XR 시스템에 대한 생체객체 인식용 마커(400)를 제공한다.The inclination rotation angle calculation unit 430 has a directional feature point 431, so that the inclination and rotation angle of the center of the marker can be calculated. ) is provided.

또한 본 발명은 상기한 기울기 회전각 산출부(430)는 다각형 형태 또는 불규칙 패턴으로 될 수 있으며 마커의 다른 구성 부분과 다른 색상으로 형성될 수 있는 것을 특징으로 하는 XR 시스템에 대한 생체객체 인식용 마커(400)를 제공한다.In the present invention, the above-described tilt rotation angle calculation unit 430 may have a polygonal shape or an irregular pattern, and may be formed in a color different from other constituent parts of the marker. (400) is provided.

또한 본 발명은 상기의 XR 시스템에 대한 생체객체 인식용 마커(400)를 포함하고,In addition, the present invention includes a marker 400 for bio-object recognition for the XR system,

응급처치자 부쓰부(100), 운용통제 서버(200), 원격의료관 부쓰부(300)를 포함하여 구성된 XR 응급 의료 처치 시스템을 제공한다.It provides an XR emergency medical treatment system configured to include a first responder boot unit 100 , an operation control server 200 , and a telemedicine office boot unit 300 .

또한 본 발명은 상기한 응급처치자 부쓰부(100)는 XR 처치장비(110), 치료장치부(120), 치료도구부(130)를 포함하여 구성되어 있고,In addition, the present invention is configured to include an XR treatment equipment 110, a treatment device unit 120, and a treatment tool unit 130.

상기한 원격의료관 부쓰부(300)는 XR 원격장비(310), 원격치료장치부(320)를 포함하여 구성되어 있는 것을 특징으로 하는 XR 응급 의료 처치 시스템을 제공한다.The above-described telemedicine booth unit 300 provides an XR emergency medical treatment system, characterized in that it includes an XR remote device 310 and a remote treatment device unit 320 .

본 발명에 따른 XR 시스템에 대한 생체객체 인식용 마커는 응급처치자 시점의 2D 영상을 이용하여 3차원 형태의 생체객체 인식기술을 제공하게 되며, 응급처치자 시점 변화 및 환자의 움직임을 빠르게 트래킹하는 기술을 제공하는 효과가 나타난다.The marker for bio-object recognition for the XR system according to the present invention provides a three-dimensional bio-object recognition technology using a 2D image from the first aid person's point of view, and it is a method that quickly tracks the change of the first aid person's point of view and the movement of the patient. It has the effect of providing technology.

또한 본 발명의 XR 시스템에 대한 생체객체 인식용 마커는 마킹 정보를 이용한 실시간 생체객체 크기 및 회전각 산출 계산이 도출되는 기능이 수행되어, 3차원 모델링된 생체객체의 정합률을 현저히 높이는 효과가 나타난다.In addition, the marker for bio-object recognition for the XR system of the present invention performs a function of deriving the calculation of real-time bio-object size and rotation angle calculation using the marking information, thereby significantly increasing the registration rate of the three-dimensional modeled bio-object. .

또한 본 발명의 XR 시스템에 대한 생체객체 인식용 마커는 테이핑 형태로 되어 있어서, XR 응급 의료 처치 시스템에서 응급처치자가 용이하게 사용할 수 있는 편의성 증진 효과가 나타난다.In addition, since the marker for bio-object recognition for the XR system of the present invention is in the form of a taping, the effect of improving the convenience that first responders can easily use in the XR emergency medical treatment system appears.

또한 본 발명의 XR 시스템에 대한 생체객체 인식용 마커를 이용한 XR 응급 의료 처치 시스템은 원격의료관 부쓰부로부터 운용통제 서버를 거쳐 제공받는 응급환자에 대한 가상현실, 증강현실 또는/및 혼합현실을 이용한 XR(확장현실) 응급처지 가이드 정보에 따라 응급 환자를 응급처치자가 정확하게 응급처치할 수 있도록 하게 하는 작용과 효과가 나타나게 된다.In addition, the XR emergency medical treatment system using the marker for bio-object recognition for the XR system of the present invention uses virtual reality, augmented reality or/and mixed reality for emergency patients that are provided from the remote medical center booth through the operation control server. According to the XR (extended reality) first aid guide information, the action and effect of enabling first responders to treat emergency patients accurately will appear.

도 1은 본 발명에 따른 XR(확장현실, eXtended Reality) 응급 의료 처치 시스템 구성도.
도 2는 본 발명에 따른 XR 응급 의료 처치 시스템의 응급처치자 부쓰부 구성도.
도 2b는 본 발명에 따른 XR 응급 의료 처치 시스템의 치료장치부 구성도.
도 3은 본 발명에 따른 XR 시스템에 대한 생체객체 인식용 마커의 구성도.
도 3b는 본 발명에 따른 XR 시스템에 대한 생체객체 인식용 마커의 뒷면 구성도.
도 3c는 본 발명에 따른 붕대형 XR 시스템에 대한 생체객체 인식용 마커 구성도.
도 3d는 본 발명에 따른 일회용 반창고형 XR 시스템에 대한 생체객체 인식용 마커 구성도.
도 3e는 본 발명에 따른 롤 형태의 반창고형 XR 시스템에 대한 생체객체 인식용 마커 구성도.
도 4는 본 발명에 따른 다수의 마커가 응급 환자의 신체 부위(손상 부위)에 부착된 경우의 사용도.
도 5는 본 발명에 따른 마커의 기울기 회전각 산출부의 구성도.
도 5b는 본 발명에 따른 십자형 구조의 기울기 회전각 산출부의 기울기 산출을 위한 교차각(θ2) 측정 개념도.
도 5c는 본 발명에 따른 사각형 구조의 기울기 회전각 산출부의 기울기 산출을 위한 교차각(θ2) 및 회전각 산출을 의한 교차각(θ1) 측정 개념도.
도 5d 및 도 5e는 본 발명에 따른 마름모형 구조의 기울기 회전각 산출부의 기울기 산출을 위한 교차각(θ2) 및 회전각 산출을 의한 교차각(θ1) 측정 개념도.
도 6은 본 발명에 따른 XR 응급 의료 처치 시스템의 세부 구성도 및 기능 작용도.
도 7은 본 발명에 따른 XR 응급 의료 처치 시스템의 영상내 3D객체 변환행렬 계산부의 작동 개념도.
도 8은 본 발명에 따른 XR 응급 의료 처치 시스템의 원격의료관 부쓰부 구성도.
도 8b는 본 발명에 따른 XR 응급 의료 처치 시스템의 원격치료장치부 구성도.
1 is an XR (extended reality, eXtended Reality) emergency medical treatment system configuration diagram according to the present invention.
Figure 2 is a configuration diagram of the first responder boots of the XR emergency medical treatment system according to the present invention.
Figure 2b is a configuration diagram of the treatment device of the XR emergency medical treatment system according to the present invention.
3 is a block diagram of a marker for bio-object recognition for the XR system according to the present invention.
3B is a rear view of the marker for bio-object recognition for the XR system according to the present invention.
3c is a block diagram of a marker for bio-object recognition for the bandage-type XR system according to the present invention.
3d is a block diagram of a bio-object recognition marker for the disposable band-aid type XR system according to the present invention.
Figure 3e is a block diagram of a marker for bio-object recognition for the roll-type band-aid type XR system according to the present invention.
Fig. 4 is a view of use when a plurality of markers according to the present invention are attached to a body part (injured part) of an emergency patient.
5 is a block diagram of a tilt rotation angle calculator of a marker according to the present invention.
5B is a conceptual diagram of measuring an intersection angle (θ2) for calculating the inclination of the inclination rotation angle calculating unit of the cross-shaped structure according to the present invention.
5C is a conceptual diagram of measuring an intersection angle (θ2) for calculating a slope of a tilt rotation angle calculating unit of a rectangular structure according to the present invention and an intersection angle (θ1) measurement by calculating the rotation angle;
5D and 5E are conceptual diagrams for measuring an intersection angle (θ2) and an intersection angle (θ1) by calculating the rotation angle for the slope calculation of the slope rotation angle calculation unit of the rhombus structure according to the present invention.
6 is a detailed configuration diagram and functional operation diagram of the XR emergency medical treatment system according to the present invention.
7 is a conceptual diagram of an operation of a 3D object transformation matrix calculator in an image of the XR emergency medical treatment system according to the present invention.
8 is a configuration diagram of a telemedicine booth unit of the XR emergency medical treatment system according to the present invention.
8B is a block diagram of the remote treatment device of the XR emergency medical treatment system according to the present invention.

이하 본 발명을 도면을 참고하여 상세히 설명하고자 한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

본 발명은 응급처치자 부쓰부(100), 운용통제 서버(200), 원격의료관 부쓰부(300)를 포함하여 구성된 XR(확장현실, eXtended Reality) 기반 응급 의료 처치 시스템을 제공한다.The present invention provides an XR (extended reality, eXtended Reality)-based emergency medical treatment system configured to include a first responder boot unit 100 , an operation control server 200 , and a telemedicine office boot unit 300 .

즉, 본 발명은 응급 환자 발생시 구급차 등에 설치되어 있는 응급처치자 부쓰부(100)에 응급 환자를 안치하여 응급처치자가 응급처치를 함에 있어, 원격의료관 부쓰부(300)로부터 운용통제 서버(200)를 거쳐 제공받는 응급환자에 대한 가상현실(VR), 증강현실(AR), 혼합현실(MR) 또는/및 이들을 이용한 XR(eXtended Reality, 확장현실)로 구현된 응급처지 가이드 정보에 따라 응급처치자가 응급 환자를 응급처치할 수 있도록 하게 하는 XR(확장현실, eXtended Reality) 기반 응급 의료 처치 시스템을 제공한다.That is, in the present invention, when an emergency patient occurs, the emergency patient is placed in the emergency responder's boot unit 100 installed in an ambulance, etc., and the first responder performs first aid, from the remote medical center's boot unit 300 to the operation control server 200 First aid treatment according to first aid guide information implemented in virtual reality (VR), augmented reality (AR), mixed reality (MR) and/or XR (eXtended Reality) using these It provides an XR (extended reality, eXtended Reality)-based emergency medical treatment system that enables self-medication for emergency patients.

본 발명에 사용되는 XR(eXtended Reality, 확장현실)은 가상현실(VR), 증강현실(AR), 혼합현실(MR) 또는/및 이들을 이용한 확장현실(XR) 개념을 모두 포함하는 개념이다.XR (eXtended Reality, extended reality) used in the present invention is a concept including all concepts of virtual reality (VR), augmented reality (AR), mixed reality (MR) and/or extended reality (XR) using them.

또한 본 발명은 상기한 바와 같은 작전 상황시, 재난 발생시, 응급환자 상황시 응급처치자(출동 대원, 출동 의사, 출동 의무병 또는 군의관 등)가 직접 응급 환자를 치료할 수 있는 XR 기반 응급 의료 처치 시스템에 사용되는 XR 시스템에 대한 생체객체 인식용 마커(400)를 제공한다.In addition, the present invention provides an XR-based emergency medical treatment system in which first responders (such as dispatchers, dispatch doctors, dispatch medics or surgeons) can directly treat emergency patients in operational situations, disasters, and emergency patient situations as described above. A marker 400 for bio-object recognition for the XR system used is provided.

도 1에서 보는 것처럼, 본 발명의 응급처치자 부쓰부(100)는 작전 상황시, 재난 발생시, 응급환자 상황시 응급처치자(출동 대원, 출동 의사, 출동 의무병 또는 군의관 등)가 직접 응급 환자를 처치(또는 치료)할 수 있는 장비와 공간을 제공해주는 장치 또는 수단을 의미한다.As shown in FIG. 1 , the first aid unit 100 of the present invention allows first aid personnel (emergency personnel, dispatch doctors, dispatch medics or surgeons, etc.) directly to emergency patients in operational situations, disasters, and emergency patient situations. A device or means that provides equipment and space for treatment (or treatment).

도 2에서 보는 것처럼, 본 발명의 응급처치자 부쓰부(100)는 XR 처치장비(110), 치료장치부(120), 치료도구부(130)를 포함하여 구성되어 있다.As shown in FIG. 2 , the first aid unit 100 of the present invention is configured to include an XR treatment device 110 , a treatment device unit 120 , and a treatment tool unit 130 .

본 발명의 XR 처치장비(110)는 디스플레이부(111), 헤드셋부(112), 센서감지부(113), 처치 제스쳐 트래킹부(Gesture tracking)(114)를 포함하여 구성되어 있다.The XR treatment equipment 110 of the present invention is configured to include a display unit 111 , a headset unit 112 , a sensor sensing unit 113 , and a treatment gesture tracking unit 114 .

본 발명의 XR 처치장비(110)는 가상현실, 증강현실, 혼합현실, 확장현실 등을 구현하는데 사용되는 장비 또는 수단을 포함하여 구성되어 있다. The XR treatment equipment 110 of the present invention is configured to include equipment or means used to implement virtual reality, augmented reality, mixed reality, extended reality, and the like.

본 발명의 상기한 디스플레이부(111)는 사용자가 작업하는 동시에 한눈에 가상정보를 쉽게 볼 수 있도록 표현하는 인터페이스 등을 의미하며 HMD(Head Mounted Display), FMD(Face Mounted Display)를 포함하는 장치 또는 수단을 의미한다.The display unit 111 of the present invention refers to an interface that allows a user to easily view virtual information at a glance while working, and includes a device including a Head Mounted Display (HMD), a Face Mounted Display (FMD), or means means.

응급처치자는 이와 같은 HMD 등을 착용하여 원격의료관으로부터 의료처치를 지시하는 영상 가이드 또는/및 환자의 손상 유형 및 부위에 따른 응급처치 방법/주의사항 영상 가이드에 따라 환자의 응급처치를 할 수 있게 하는 기능이 수행된다.First responders wear such HMDs so that they can provide first aid to the patient according to the video guide that instructs the medical treatment from the telemedicine officer or/and the first aid method/precautions according to the patient's injury type and area. function is performed.

본 발명의 상기한 헤드셋부(112)는 원격의료관으로부터 의료처치를 지시하는 사항 또는/및 환자의 손상 유형 및 부위에 따른 응급처치 방법/주의사항 가이드에 따른 사항을 들을 수 있게 하는 기능을 수행하는 장치 또는 수단을 의미한다.The above-described headset unit 112 of the present invention performs a function of allowing to listen to medical treatment instructions from a telemedicine officer or/and a first aid method/precaution guide according to the patient's injury type and site. means a device or means.

상기한 헤드셋부(112)는 마이크부(도면 미도시)가 부가될 수 있으며 의료처치자의 음성을 전송하게 하는 기능을 수행하게 된다.The headset unit 112 may include a microphone unit (not shown) and performs a function of transmitting the voice of a medical practitioner.

본 발명의 센서감지부(113)는 상기한 응급 환자의 처치 부위를 인식하는 마커를 센싱하고 또한/및 응급처치자의 응급처치과정을 센싱하여 치료장치부(120)에 전송하는 기능을 수행하는 장치 또는 수단을 의미한다.The sensor sensing unit 113 of the present invention senses a marker for recognizing the treatment site of the emergency patient and/or senses the first aid treatment process of the first aid responder and transmits it to the treatment device unit 120 . or means.

본 발명의 처치 제스쳐 트래킹부(Gesture tracking)(114)는 응급처치자의 손에 착용되는 기능이 수행되며 응급처치자가 응급 치료를 하는 과정을 센싱하고 그와 같이 센싱된 정보를 취득하는 기능을 수행하는 장치 또는 수단을 의미한다.The treatment gesture tracking unit (Gesture tracking) 114 of the present invention performs a function to be worn on the hand of the first responder, senses the process of the first responder giving emergency treatment, and performs a function of acquiring the sensed information. means a device or means.

본 발명의 XR 처치장비(110)에서 취득한 응급 환자에 대한 센싱정보 또는/및 응급처치자에 대한 치료과정이 센싱된 정보는 운용통제 서버(200)로 전송되고 다시 운용통제 서버(200)에서 원격의료관 부쓰부(300)로 전송되게 된다.The sensing information about the emergency patient and/or the sensed information about the treatment process for the first responder acquired by the XR treatment device 110 of the present invention is transmitted to the operation control server 200 and is again remote from the operation control server 200 . It is transmitted to the medical office booth unit 300 .

본 발명의 치료장치부(120)는 응급환자에 대한 치료를 위하여 필요한 사항을 입력하는 기능, 이와 같이 입력된 사항을 운용통제 서버(200)에 전송하는 기능, 응급환자에 대한 응급처치 방법 및 주의사항 가이드가 운용통제 서버(200)로부터 입력되는 기능을 수행하는 것과 같이 의료처치자가 응급처치를 하도록 보조하는 기능을 수행하는 장치 또는 수단을 의미한다.The treatment device unit 120 of the present invention has a function of inputting information necessary for treatment of an emergency patient, a function of transmitting the inputted information to the operation control server 200, a first aid treatment method and caution for an emergency patient It refers to a device or means that performs a function of assisting a medical practitioner to provide first aid, such as a matter guide performing a function input from the operation control server 200 .

상기한 치료장치부(120)는 통상의 중앙처리장치, 데이터입출력 시스템, 응용 프로그램, 제어장치, 메모리 등이 탑재된 컴퓨터, 서버 등으로 구현할 수 있다.The treatment device unit 120 can be implemented as a computer, a server, etc., equipped with a typical central processing unit, a data input/output system, an application program, a control device, a memory, and the like.

본 발명의 치료장치부(120)는 도구설정모듈(121), 정보입력모듈(122), 손상부위선택모듈(123), 손상발생위치정보모듈(124), 응급처치가이드모듈(125)을 포함하여 구성되어 있다.The treatment device unit 120 of the present invention includes a tool setting module 121 , an information input module 122 , a damage site selection module 123 , a damage location information module 124 , and a first aid guide module 125 . is composed of

본 발명의 상기한 모듈은 각각의 모듈에서 기능하고자 하는 것을 수행시키는 프로그램, 소프트웨어 상의 기능 또는 장치 등을 의미한다.The above-described module of the present invention means a program, a function or device on software, etc. that executes what is intended to function in each module.

상기한 도구설정모듈(121)은 응급처치자가 사용 가능한 의료 조치 도구를 설정할 수 있는 기능을 수행하는 것을 의미한다.The tool setting module 121 means performing a function for setting a medical treatment tool that can be used by the first responder.

상기한 도구설정모듈에서 응급처치자는 응급 환자를 처치하기 위한 의료 조치 도구를 설정하거나 입력한다.In the tool setting module, the first responder sets or inputs a medical action tool for treating an emergency patient.

상기한 정보입력모듈(122)은 응급 환자에 대한 인적사항 및 환자평가정보가 입력되는 기능이 수행된다.The above-described information input module 122 performs a function of inputting personal information and patient evaluation information for an emergency patient.

상기한 손상부위선택모듈(123)은 응급 환자의 손상 유형이 선택되고 손상 신체 부위가 선택되어 설정되는 기능이 수행된다.The above-described damaged part selection module 123 performs a function in which the type of injury of the emergency patient is selected and the damaged body part is selected and set.

상기한 손상발생위치정보모듈(124)은 응급 환자의 손상이 발생된 지리적 위치가 입력되거나 설정되는 기능이 수행된다.The damage occurrence location information module 124 performs a function of inputting or setting a geographic location where an emergency patient's damage occurred.

상기한 응급처치가이드모듈(125)은 상기에서 입력된 응급 환자의 손상 유형및 손상 부위에 따른 응급처치방법 및 주의사항이 제시되는 기능이 수행된다.The first aid guide module 125 performs a function of presenting first aid methods and precautions according to the inputted emergency patient's damage type and damage site.

이와 같은 응급처치가이드모듈(125)은 동영상 또는 음성으로 가이드가 될 수 있으며, 치료장치부(120)에 기설정되어 있을 수 있고 더불어 원격의료관에 의하여 제공되거나 업데이트 될 수 있다.The first aid guide module 125 may be a video or voice guide, and may be preset in the treatment device 120 and may be provided or updated by a telemedicine officer.

본 발명의 치료장치부(120)에 입력되거나 설정된 정보는 상기한 운용통제 서버(200)로 전송되며, 이와 같은 정보는 다시 응급처치자 부쓰부(100)로 제공되게 된다.Information input or set in the treatment device unit 120 of the present invention is transmitted to the operation control server 200 , and such information is again provided to the first responder boot unit 100 .

본 발명의 치료장치부(120)에는 모니터부가 부가되어 응급처치자가 모니터부를 통하여 치료장치부(120)를 운용할 수 있다.A monitor unit is added to the treatment device unit 120 of the present invention, so that an emergency responder can operate the treatment device unit 120 through the monitor unit.

본 발명의 치료도구부(130)는 응급 환자를 치료하기 위한 실질적인 수술도구, 약품, 장비 등이 구비된 장치 또는 수단 등을 의미한다.The treatment tool unit 130 of the present invention means a device or means equipped with a practical surgical tool, medicine, equipment, etc. for treating an emergency patient.

본 발명의 운용통제 서버(200)는 상기한 응급처치자 부쓰부(100)에서 제공하는 영상정보, 환자정보, 손상 정보 등의 각종 정보를 수신하여 생체객체를 인식하는 기능, 생체객체 3D 모델링 기능, 응급 처치자의 시각 위치에 따른 3차원 모델링 데이터 정합기능, 3차원 모델링 및 의료 데이터 정합 기능, 응급처치 가이드 정합 기능을 수행하고, 데이터를 교환하는 기능을 수행하며, 생체객체 인식 기능, 데이터베이스 관리를 하는 기능 등을 수행한다.The operation control server 200 of the present invention receives various information such as image information, patient information, damage information, etc. provided by the first aider boot unit 100 and recognizes a biological object, a 3D modeling function of a biological object , performs 3D modeling data matching function, 3D modeling and medical data matching function, first aid guide matching function according to the visual position of first responder, performs data exchange function, bio-object recognition function, database management functions, etc.

또한 운용통제 서버(200)는 원격의료관 부쓰부(300)에서 제공하거나 입력하는 정보를 수신하여 처리하는 기능 또는/및 이와 같이 처리된 정보를 응급처치자 부쓰부(100)에게 전송하는 기능을 수행한다.In addition, the operation control server 200 has a function of receiving and processing information provided or input from the telemedicine booth unit 300 and/or a function of transmitting the processed information to the first responder booth unit 100 . carry out

상기한 운용통제 서버(200)는 통상의 중앙처리장치, 데이터입출력 시스템, 응용 프로그램, 제어장치, 메모리 등이 탑재되어 있다.The operation control server 200 is equipped with a typical central processing unit, a data input/output system, an application program, a control device, a memory, and the like.

본 발명의 운용통제 서버(200)는 데이터 교환 모듈(210), 운용 통제 모듈(220), 생체객체인식모듈(230), 데이터베이스 관리모듈(240)을 포함하여 구성되어 있다.The operation control server 200 of the present invention is configured to include a data exchange module 210 , an operation control module 220 , a biometric object recognition module 230 , and a database management module 240 .

상기한 데이터 교환 모듈(210)은 응급처치자 부쓰부(100)에서 제공된 명령, 정보 또는/및 원격의료관 부쓰부(300)에서 제공된 명령, 정보 등을 서로 교환하거나 제공 받을 수 있도록 하는 기능을 수행한다.The above-described data exchange module 210 has a function of exchanging or receiving commands and information provided from the first aid unit 100 and/or commands and information provided from the telemedicine unit 300 with each other. carry out

상기한 운용 통제 모듈(220)은 운용통제 서버(200)의 관리자가 운용통제 서버(200), 응급처치자 부쓰부(100) 또는/및 원격의료관 부쓰부(300)의 각 구성 및 운용에 대한 통제를 할 수 있도록 하는 기능을 수행한다.The above-described operation control module 220 controls the configuration and operation of the operation control server 200 by the manager of the operation control server 200, the first aid unit 100 or/and the telemedicine unit 300. It performs the function that allows you to control the

상기한 생체객체인식모듈(230)은 상기한 응급처치자 부쓰부(100)의 XR 처치장비(110)에 인식되어 제공되는 응급 환자에 대한 인식 정보를 통하여 응급 환자 및 손상 부위를 확장현실(XR)로 인식하는 기능을 수행한다.The bio-object recognition module 230 recognizes the emergency patient and the damaged area through the recognition information on the emergency patient recognized and provided by the XR treatment equipment 110 of the first responder boot unit 100 in extended reality (XR). ) to perform the recognition function.

특히, 생체객체인식모듈(230)은 상기한 XR 처치장비(110)가 응급 환자에 부착된 마커를 인식하여 응급 환자의 손상부위를 인식하게 하고, 처치 제스쳐 트래킹부(Gesture tracking)(114)를 통하여 응급처치자의 응급 치료 처치하는 과정을 인식하게 하는 기능을 수행하게 된다.In particular, the bio-object recognition module 230 allows the XR treatment equipment 110 to recognize the damaged part of the emergency patient by recognizing the marker attached to the emergency patient, and the treatment gesture tracking unit 114 . Through this, it performs the function of recognizing the process of emergency treatment of first responders.

종래의 가상현실(Virtual Reality), 증강현실(Augmeneted Reality), 혼합현실(Mixed Reality) 등에서 객체 인식 수단으로 사용되는 마커(Marker)는 본 발명에서 인식해야 하는 응급 환자의 출혈, 쇼크(얼굴 변형), 신체 부위 절단, 의류 착용 상태 등과 같은 다양한 상황에서의 생체 객체 인식에 어려움이 발생하게 된다.Marker used as an object recognition means in conventional virtual reality, augmented reality, mixed reality, etc. bleeding, shock (face deformation) of emergency patients to be recognized in the present invention , body parts cutting, clothing worn state, etc., difficulties arise in recognizing biometric objects in various situations.

특히, 종래의 대부분의 인식 분야에서는 특징점을 이용한 객체 인식 방법을 사용하지만 특징점을 찾기 어려운 환자의 신체 부위 및 주변환경(군복 패턴, 환자별 체형 등) 요소들에 의하여 마커 기반의 인식 기술을 적용하더라도 정확한 응급 환자의 손상 부위를 인식하는 것이 매우 어려운 현실이다.In particular, although most of the conventional recognition fields use the object recognition method using feature points, even if the marker-based recognition technology is applied by the factors of the patient's body part and surrounding environment (military uniform pattern, patient-specific body type, etc.), it is difficult to find the feature point. It is a very difficult reality to accurately recognize the injured area of an emergency patient.

또한, 응급 환자의 인체의 특징(팔, 다리 등) 부위에 대한 정보가 제공되더라도 컴퓨터인 운용통제 서버(200)의 생체객체인식모듈(230)은 해당 부위를 추측하기 어려울 뿐만 아니라 출혈, 쇼크(얼굴 변형), 신체 부위 절단, 의류 착용 상태 등과 같은 다양한 상황에서의 응급환자의 경우는 더더욱 객체 인식률이 현저히 낮은 문제점이 발생하게 된다.In addition, even if information on the parts of the human body of an emergency patient (arms, legs, etc.) is provided, the biometric object recognition module 230 of the operation control server 200, which is a computer, makes it difficult to guess the part, as well as bleeding, shock ( In the case of an emergency patient in various situations such as face deformation), body part cutting, clothing worn state, etc., the object recognition rate is significantly lower.

더불어, 딥러닝(deep learning)과 같은 기술을 사용한다고 해도 응급 환자의 수 많은 경우의 수를 학습시켜 응급 환자를 인식시키기에는 많은 어려움이 따르게 된다.In addition, even if a technology such as deep learning is used, it is difficult to recognize emergency patients by learning the number of emergency patients.

즉, 예측 불가능한 다양한 조건에 따른 응급환자 상태를 사전에 학습시키기 어렵게 되고 그에 따라 특징점에 의한 패턴화가 난해하여 응급 환자를 인식시키기에는 많은 어려움이 있게 된다.That is, it is difficult to learn the emergency patient state according to various unpredictable conditions in advance, and accordingly, the patterning by the feature point is difficult, so that there is a lot of difficulty in recognizing the emergency patient.

따라서, 본 발명은 이와 같은 객체 인식의 문제점을 해결하고자 응급처치자 시점의 영상을 이용한 생체객체 인식을 위한 인식용 마킹 및 트래킹 기술을 제공한다.Accordingly, the present invention provides a recognition marking and tracking technology for recognizing a biometric object using an image from a first aid person's point of view in order to solve the object recognition problem.

따라서 본 발명의 XR 기반 응급 의료 처치 시스템은 XR 시스템에 대한 생체객체 인식용 마커(400)를 더 포함하게 된다.Therefore, the XR-based emergency medical treatment system of the present invention further includes a marker 400 for recognizing a biometric object for the XR system.

본 발명은 3차원 생체 객체의 방향 및 크기를 인식하기 위한 효과적인 XR 시스템에 대한 생체객체 인식용 마커(400)를 제공하게 된다.The present invention provides a marker 400 for bio-object recognition for an effective XR system for recognizing the direction and size of a three-dimensional bio-object.

따라서 본 발명은 상기한 마커(400)를 이용하여 응급처치자 시점의 2D 영상을 이용하여 3차원 형태의 생체객체 인식기술을 제공하게 되며, 응급처치자 시점 변화 및 환자의 움직임을 빠르게 트래킹하는 기술을 제공하게 된다.Therefore, the present invention provides a bio-object recognition technology in a three-dimensional form using the 2D image of the first aider's point of view using the above-described marker 400, and a technology for rapidly tracking the change of the first aid person's point of view and the movement of the patient will provide

본 발명의 XR 시스템에 대한 생체객체 인식용 마커(400)는 마킹 정보를 이용한 실시간 생체객체 크기 및 회전각 산출 계산이 도출되는 기능이 수행된다.The marker 400 for bio-object recognition for the XR system of the present invention performs a function of deriving real-time bio-object size and rotation angle calculation using marking information.

또한 본 발명의 XR 시스템에 대한 생체객체 인식용 마커(400)는 거리 산출이 가능하고, 기울기 및 회전각 산출이 가능하며, 테이핑 형태의 편리성이 구비되어 있다.In addition, the marker 400 for recognizing a biometric object for the XR system of the present invention is capable of calculating a distance, calculating an inclination and a rotation angle, and has the convenience of a taping type.

본 발명의 XR 시스템에 대한 생체객체 인식용 마커(400)는 테이핑몸체부(410), 거리산출부(420), 기울기 회전각 산출부(430)을 포함하여 구성되어 있다.The marker 400 for bio-object recognition for the XR system of the present invention is configured to include a taping body part 410 , a distance calculation unit 420 , and a tilt rotation angle calculation unit 430 .

도 3에서 보는 바와 같이, 테이핑몸체부(410)는 앞면부(411)와 뒷면부(412)로 형성되어 있다.As shown in FIG. 3 , the taping body part 410 is formed of a front part 411 and a back part 412 .

테이핑몸체부(410)는 다양향 형태로 형성될 수 있으며 띠 형태로 되어 있는 것이 일반적이다.The taping body 410 may be formed in various directions and is generally in the form of a band.

상기한 앞면부(411)는 상기한 거리산출부(420), 기울기 회전각 산출부(430)가 형성되어 있는 부분을 의미한다.The front part 411 means a part in which the distance calculating part 420 and the inclination rotation angle calculating part 430 are formed.

상기한 뒷면부(412)는 응급 환자에게 부착되는 기능을 수행하며, 따라서 뒷면부에는 접착물질이 형성되어 있는 접착부가 구비되어 응급 환자에서 용이하게 마커를 부착하게 하는 기능을 수행한다.The back part 412 performs a function of being attached to an emergency patient, and therefore, an adhesive part having an adhesive material formed thereon is provided on the back part to easily attach a marker to the emergency patient.

본 발명의 거리산출부(420)는 실제의 응급 환자에게 부착된 마커가 인식되는 경우 인식 대상인 응급 환자의 손상 부위를 실제적인 거리가 측정될 수 있도록 해 주는 기능을 수행하는 형상, 구조 또는 수단을 의미한다.The distance calculating unit 420 of the present invention is a shape, structure, or means that performs a function of allowing the actual distance to be measured to the injured part of the emergency patient, which is the recognition target, when the marker attached to the actual emergency patient is recognized. it means.

따라서 거리산출부(420)의 일실시예로 테이핑몸체부(410)에 일정한 거리(L)로 형성되어 있는 인식거리부(421)들로 형성되어 있을 수 있다.Accordingly, as an embodiment of the distance calculating unit 420 , it may be formed of recognition distance units 421 formed at a predetermined distance L on the taping body 410 .

도 3에서 보는 바와 같이 거리산출부(420)의 인식거리부(421)는 테이핑몸체부(410)에 일정한 거리(L)로 형성되어 있는 라인(421)들로 형성되어 있을 수 있다.As shown in FIG. 3 , the recognition distance part 421 of the distance calculating part 420 may be formed of lines 421 formed at a predetermined distance L on the taping body part 410 .

이 경우 기울기 회전각 산출부(430)를 사이에 둔 라인(421) 사이의 거리(L2)는 상기한 라인과 라인 사이의 거리(L)와 일정한 수식 관계로 기설정되어 있을 수 있어, 기울기 회전각 산출부(430)를 사이에 둔 라인(421) 사이의 거리(L2)는 라인과 라인 사이의 거리(L)를 알게 되면 수식으로 도출될 수 있다.In this case, the distance L2 between the lines 421 with the inclination rotation angle calculating unit 430 interposed therebetween may be preset with the above-described distance L between the lines and the lines in a predetermined formula relationship, The distance L2 between the lines 421 with each calculation unit 430 interposed therebetween may be derived by an equation when the distance L between the lines is known.

따라서 거리산출부의 라인(421)들의 간격은 기설정된 일정한 거리(L)로 설정되어 있어서 이러한 라인들이 인식되면 응급 환자의 손상 부위의 거리를 실제로 측정할 수 있게 되는 기능을 수행한다.Accordingly, the distance between the lines 421 of the distance calculating unit is set to a predetermined constant distance L, and when these lines are recognized, the distance between the injured part of the emergency patient can be actually measured.

도 4에서 보는 바와 같이, 치료가 필요한 응급 환자의 신체 부위(손상 부위)에 본 발명의 마커(400)를 하나 이상 부착하여 마커들을 인식하는 경우 마커들을 인식하게 되고 또한 마커에 형성된 거리산출부(420)를 인식하게 되어 응급 환자의 신체 부위(손상 부위) 간의 거리를 정확하게 측정하고 인식하게 되는 효과가 발휘된다.As shown in FIG. 4, when one or more markers 400 of the present invention are attached to a body part (injured part) of an emergency patient in need of treatment to recognize the markers, the markers are recognized and a distance calculating unit formed on the marker ( 420), the effect of accurately measuring and recognizing the distance between the body parts (damaged parts) of the emergency patient is exerted.

본 발명의 상기한 기울기 회전각 산출부(430)는 테이핑몸체부(410)에 형성되어 있으며, 마커의 중심 부위의 기울기 및 회전각 산출을 위하여 형성된 형상, 구조 또는 수단을 의미한다.The above-described inclination rotation angle calculation unit 430 of the present invention is formed in the taping body portion 410, and refers to a shape, structure or means formed for calculating the inclination and rotation angle of the central portion of the marker.

기울기 회전각 산출부(430)는 마커의 중심 부위의 기울기 및 회전각 산출을 위하여 다양한 형태로 형성될 수 있으며, 다각형 형태 또는 불규칙 패턴으로 될 수 있으며 마커의 다른 구성 부분과 다른 색상으로 형성될 수 있다.The tilt rotation angle calculation unit 430 may be formed in various shapes to calculate the tilt and rotation angle of the central portion of the marker, may have a polygonal shape or an irregular pattern, and may be formed in a color different from other constituent parts of the marker. have.

상기한 기울기 회전각 산출부(430)는 방향 특징점(431)이 형성되어 있으며, 이와 같은 방향 특징점은 2개 이상 형성되어 있는 것이 바람직하다. The above-described tilt rotation angle calculating unit 430 has a direction feature point 431 is formed, and it is preferable that two or more of the direction feature point are formed.

도 5에서 보는 것처럼, 본 발명의 방향 특징점(431)은 기울기 회전각 산출부(430)가 테이핑몸체부(410)와 구별되는 공간 좌표 상의 선 또는 면이 급격히 변하는 변곡점과 같은 것으로 설정되는 있는 것을 의미한다.As shown in FIG. 5, the direction feature point 431 of the present invention is set as an inflection point at which the inclination rotation angle calculation unit 430 rapidly changes a line or surface on the spatial coordinates distinguished from the taping body unit 410. it means.

따라서 이와 같은 방향 특징점(431)들은 마커의 공간좌표로 기설정되어 있다.Accordingly, the direction feature points 431 are preset as spatial coordinates of the marker.

도 5는 기울기 회전각 산출부(430)의 일실시 예로 십자형 구조의 기울기 회전각 산출부(430)를 보여준다.5 shows an inclination rotation angle calculating unit 430 having a cross-shaped structure as an example of the inclination rotation angle calculating unit 430 .

상기한 십자형 구조의 기울기 회전각 산출부(430)는 총 8개 이상의 방향 특징점(431)이 형성되어 있으며 동서남북 방향으로 각각 2개씩 형성되어 있고 각각의 각각의 방향 특징점(431)들은 마커의 공간좌표로 기설정되어 있다.The tilt rotation angle calculator 430 of the cross-shaped structure has a total of eight or more directional feature points 431 are formed, two each in the east, west, south, and north directions, and each of the directional feature points 431 is the spatial coordinate of the marker. is preset to

따라서, 마커가 응급 환자에 부착되었을 경우 응급처치자 부쓰부(100)의 XR 처치장비(110)에 인식되어 제공되는 인식정보에 대하여 생체객체인식모듈(230)은 상기한 기울기 회전각 산출부(430)의 방향 특징점(431)들에 대한 기설정된 공간좌표를 인식하게 된다.Therefore, when the marker is attached to the emergency patient, the bio-object recognition module 230 for the recognition information recognized and provided by the XR treatment equipment 110 of the first aid unit 100 is the above-described tilt rotation angle calculation unit ( Pre-set spatial coordinates of the direction feature points 431 of 430 are recognized.

도 5에서 보는 바와 같이, 이 경우 생체객체인식모듈(230)은 방향 특징점(431-1) 및 방향 특징점(431-2)를 잇는 방향선(D1)의 중심과 방향 특징점(431-5) 및 방향 특징점(431-6)를 잇는 방향선(D2)의 중심을 잇는 상하기준선(S1)을 인식하게 되고,As shown in FIG. 5 , in this case, the biometric object recognition module 230 includes the center of the direction line D1 connecting the direction feature point 431-1 and the direction feature point 431-2 and the direction feature point 431-5 and The upper and lower reference lines S1 connecting the centers of the direction lines D2 connecting the direction feature points 431-6 are recognized,

방향 특징점(431-3) 및 방향 특징점(431-4)를 잇는 방향선(D3)의 중심과 방향 특징점(431-7) 및 방향 특징점(431-8)를 잇는 방향선(D4)의 중심을 잇는 좌우기준선(S2)을 인식하게 된다.The center of the direction line D3 connecting the direction feature point 431-3 and the direction feature point 431-4 and the center of the direction line D4 connecting the direction feature point 431-7 and the direction feature point 431-8 The connecting left and right reference lines S2 are recognized.

도 5b에서 보는 것처럼, 본 발명은 처음에 인식된 마커(MF1)의 상하기준선(S1) 또는/및 좌우기준선(S2)를 기준으로 하여 응급처치자가 응급환자를 보는 시점 및 이동에 따른 경우(또는 마커가 부착된 환자가 움직이는 경우)에 인식된 마커(MF2)에서 인식된 상하기준선(S1-1) 또는/및 좌우기준선(S2-1)과의 교차각(θ2)을 측정함으로써 마커의 기울기를 산출할 수 있게 되며 이는 곧 환자의 움직임 기울기를 산출하게 된다.As shown in Figure 5b, the present invention is based on the upper and lower baseline (S1) or / and the left and right baseline (S2) of the initially recognized marker MF1. The inclination of the marker is measured by measuring the intersection angle (θ2) with the upper and lower reference lines (S1-1) and/or left and right reference lines (S2-1) recognized from the recognized marker (MF2) in the case where the patient with the marker is moved. can be calculated, which will soon calculate the patient's movement gradient.

또한 생체객체인식모듈(230)은 방향 특징점(431-2)와 방향 특징점(431-6)을 잇는 회전각선(T1)을 인식하게 된다.In addition, the bio-object recognition module 230 recognizes the rotation angle T1 connecting the direction feature point 431-2 and the direction feature point 431-6.

상기한 회전각은 상기한 상하기준선(S1) 또는/및 좌우기준선(S2)과 교차되어 형성되는 교차각(θ1)을 의미한다.The rotation angle means an intersection angle θ1 formed by crossing the upper and lower reference lines S1 and/or the left and right reference lines S2.

따라서 회전각선(T1)은 다수의 방향 특징점(431)에서 선택되는 2개를 연결하여 형성하는 선으로서 상하기준선(S1) 또는/및 좌우기준선(S2)과 교차되어 교차각(θ1)을 형성하는 선을 모두 포함하게 된다.Accordingly, the rotation angle line T1 is a line formed by connecting two selected from a plurality of direction feature points 431, and intersects the upper and lower reference lines S1 and/or the left and right reference lines S2 to form an intersection angle θ1. includes all lines.

이와 같이 회전각선(T1)을 형성하는 방향 특징점(431)은 기설정되어 있으며, 회전각선은 하나 이상 설정되어 형성될 수 있다,As such, the direction feature point 431 forming the angle of rotation T1 is preset, and one or more angles of rotation may be set and formed.

상기한 교차각(θ1)을 산출하여 공간 이동된 마커의 회전각을 산출할 수 있게 되며, 이와 같은 회전각 산출을 통하여 환자의 움직임을 더욱 더 정확하게 인식할 수 있게 된다.By calculating the intersection angle θ1, the rotation angle of the spatially moved marker can be calculated, and the movement of the patient can be more accurately recognized through the rotation angle calculation.

본 발명의 상기한 기울기 회전각 산출부(430)는 테이핑몸체부(410)에 형성되어 있으며, 마커의 중심 부위의 기울기 및 회전각 산출을 위하여 형성된 형상, 구조 또는 수단을 의미한다.The above-described inclination rotation angle calculation unit 430 of the present invention is formed in the taping body portion 410, and refers to a shape, structure or means formed for calculating the inclination and rotation angle of the central portion of the marker.

도 5c는 사각형 형상의 기울기 회전각 산출부(430)를 보여주는 것으로서, 방향 특징점(431)이 4개 설정되어 있으며, 그에 따라 상하기준선(S1) 또는/및 좌우기준선(S2)이 설정되고, 회전각선(T1)도 설정되는바 교차각(θ1)을 형성하여 회전각을 산출할 수 있게 된다.FIG. 5C shows the inclination rotation angle calculator 430 of a rectangular shape, in which four direction feature points 431 are set, and accordingly the upper and lower reference lines S1 and/or the left and right reference lines S2 are set and rotated Since the angle line T1 is also set, the rotation angle can be calculated by forming the intersection angle θ1.

더불어 처음에 인식된 마커(MF1)의 상하기준선(S1) 또는/및 좌우기준선(S2)를 기준으로 하여 응급처치자가 응급환자를 보는 시점 및 이동에 따른 경우(또는 마커가 부착된 환자가 움직이는 경우)에 인식된 마커(MF2)에서 인식된 상하기준선(S1-1) 또는/및 좌우기준선(S2-1)과의 교차각(θ2)이 측정되어 마커의 기울기를 산출할 수 있는 구조가 된다.In addition, based on the upper and lower baselines (S1) or/and the left and right baselines (S2) of the initially recognized marker (MF1), when the first responder sees the emergency patient and moves according to the movement (or when the patient with the marker moves) ), the intersection angle θ2 with the upper and lower reference lines S1-1 and/or the left and right reference lines S2-1 recognized by the recognized marker MF2 is measured to form a structure in which the slope of the marker can be calculated.

도 5d 및 도 5e는 마름모 형상의 기울기 회전각 산출부(430)를 보여주는 것으로서, 방향 특징점(431)이 5개 설정되어 있으며, 그에 따라 방향 특징점(431-1)과 방향 특징점(431-3) 및 방향 특징점(431-4)를 잇는 방향선(D3)의 중심을 잇는 상하기준선(S1)을 설정하게 되거나 방향 특징점(431-2) 및 방향 특징점(431-3)을 잇는 선의 중심과 방향 특징점(431-4) 및 방향 특징점(431-5)을 잇는 선의 중심을 연결하여 좌우기준선(S2)이 설정하게 된다.5D and 5E show a rhombus-shaped inclination rotation angle calculator 430, in which five directional feature points 431 are set, and accordingly, a directional feature point 431-1 and a directional feature point 431-3. and an upper and lower reference line S1 connecting the center of the direction line D3 connecting the direction feature point 431-4, or the center and the direction feature point of the line connecting the direction feature point 431-2 and the direction feature point 431-3 The left and right reference lines S2 are set by connecting the centers of the lines connecting 431-4 and the direction feature points 431-5.

따라서 이와 같은 상하기준선(S1) 또는/및 좌우기준선(S2)이 설정되고, 방향 특징점(431-2) 및 방향 특징점(431-4)를 연결하여 회전각선(T1)도 설정되는바 교차각(θ1)을 형성하여 회전각을 산출할 수 있게 된다.Accordingly, such an upper and lower reference line (S1) and/or left and right reference lines (S2) are set, and a rotation angle line (T1) is also set by connecting the direction feature points (431-2) and the direction feature points (431-4). By forming θ1), the rotation angle can be calculated.

더불어 처음에 인식된 마커(MF1)의 상하기준선(S1) 또는/및 좌우기준선(S2)를 기준으로 하여 응급처치자가 응급환자를 보는 시점 및 이동에 따른 경우(또는 마커가 부착된 환자가 움직이는 경우)에 인식된 마커(MF2)에서 인식된 상하기준선(S1-1) 또는/및 좌우기준선(S2-1)과의 교차각(θ2)이 측정되어 마커의 기울기를 산출할 수 있는 구조가 된다,In addition, based on the upper and lower baselines (S1) or/and the left and right baselines (S2) of the initially recognized marker (MF1), when the first responder sees the emergency patient and moves according to the movement (or when the patient with the marker moves) ), the intersection angle θ2 with the upper and lower reference lines S1-1 or/and the left and right reference lines S2-1 recognized by the recognized marker MF2 is measured to form a structure that can calculate the slope of the marker.

따라서 본 발명의 기울기 회전각 산출부(430)는 마커의 중심 부위의 기울기 및 회전각 산출을 위하여 형성된 다각형 또는 불규칙 패턴의 형상, 구조 또는 수단을 모두 포함한다.Therefore, the tilt rotation angle calculation unit 430 of the present invention includes all the shapes, structures, or means of polygons or irregular patterns formed to calculate the tilt and rotation angles of the center of the marker.

도 4에서 보는 바와 같이 본 발명의 마커(400)는 다수로 부착될 수 있는바, 이와 같이 다수로 부착된 마커(400)에 대한 각각의 거리산출, 기울기 및 회전각이 산출되고, 마커들 사이의 거리산출이 되는 경우 응급처치자에 이동 및 시점 변화에 따른 응급 환자의 손상 부위에 대한 정확한 인식이 가능해지게 된다.As shown in FIG. 4 , the marker 400 of the present invention can be attached to a plurality of bars. In this way, the distance calculation, inclination and rotation angle for each of the markers 400 attached to the plurality of markers are calculated, and between the markers. If the distance is calculated, it becomes possible for the first responder to accurately recognize the injured part of the emergency patient according to the change of movement and point of view.

즉, 본 발명의 마커(400)는 마커(400-1), 마커(400-2), 마커(400-3).....마커(400-n)과 같이 다수의 마커가 응급 환자(또는 손상부위)에 부착되어 각각의 마커들 간의 거리 산출이 개별 마커에 포함된 거리산출부(420)에 기설정된 거리값에에 의하여 가능하게 된다.That is, the marker 400 of the present invention is a marker 400-1, a marker 400-2, a marker 400-3, a plurality of markers such as the marker 400-n, an emergency patient ( or the damaged part), so that the distance calculation between the respective markers is enabled by the distance value preset in the distance calculating unit 420 included in the individual markers.

도 3c 내지 도 3 e에서 보는 것처럼, 본 발명의 마커는 붕대 형, 일회용 반창고 형, 롤 형태의 반창고형 등 다양한 형태로 형성될 수 있다.3c to 3e, the marker of the present invention may be formed in various forms, such as a bandage type, a disposable band-aid type, a roll type band-aid type, and the like.

마커가 일회용 반창고 형, 롤 형태의 반창고형의 부착형이 되면 지혈대, 피복, 인체 등 모든 부위에 부착이 가능하여 여려 형태의 상황에 대처가 가능하다.When the marker becomes a disposable band-aid type or a roll type band-aid type, it can be attached to all parts of the body, such as tourniquets, clothing, and the human body, so it is possible to cope with various types of situations.

본 발명의 상기한 생체객체인식모듈(230)은 원격의료관 부쓰부(300)에 제공하기 위한 응급 환자에 대한 3D 생체객체 정보, 3D 객체 변환 행렬 정보를 생성하는 기능을 수행하게 된다.The biometric object recognition module 230 of the present invention performs a function of generating 3D biometric object information and 3D object transformation matrix information for an emergency patient to be provided to the telemedicine booth unit 300 .

도 6에서 보는 바와 같이, 생체객체인식모듈(230)은 상기한 응급처치자 부쓰부(100)에서 제공되는 응급 환자에 대하여 인식된 영상 정보(PI)를 받은 후 영상정보획득부(231), 마킹정보 획득처리부(232), 생체객체 크기 기울기 회전각 산출부(233), 3D 생체객체간 모델링부(234), 시점자 및 생체객체간 상대좌표 계산부(235), 영상내 3D객체 변환행렬 계산부(236), 좌표변환 및 정합오차 계산부(237)을 통하여 응급 환자에 대한 3D 생체객체 정보 및 3D 객체 변환 행렬 정보(I)를 생성하여 원격의료관 부쓰부(300)에 제공한다.As shown in FIG. 6 , the biometric object recognition module 230 receives the image information (PI) recognized for the emergency patient provided by the first aid unit 100, and then the image information acquisition unit 231, Marking information acquisition processing unit 232, bio-object size gradient rotation angle calculation unit 233, 3D bio-object modeling unit 234, viewer and biological object relative coordinate calculation unit 235, 3D object transformation matrix in the image Through the calculation unit 236 , the coordinate transformation and registration error calculation unit 237 , 3D biological object information and 3D object transformation matrix information I for an emergency patient are generated and provided to the telemedicine booth 300 .

더불어 상기와 같이 생성된 응급 환자에 대한 3D 생체객체 정보 및 3D 객체 변환 행렬 정보(I)를 응급처치자 부쓰부(100)에 전송하여 XR 처치장비(110)를 통하여 응급환자에 출력되고 원격의료관 부쓰부(300)에서 전송한 응급처치 가이드 정보(GI)에 따라 응급처치자가 이를 토대로 의료 처치를 할 수 있게 한다.In addition, the 3D biological object information and the 3D object transformation matrix information (I) for the emergency patient generated as described above are transmitted to the first responder boot unit 100 and outputted to the emergency patient through the XR treatment device 110 and telemedicine According to the first aid guide information (GI) transmitted from the tube boot unit 300, the first aid person can perform medical treatment based on this.

본 발명의 상기한 영상정보획득부(231)는 응급처치자 부쓰부(100)에서 제공되는 응급 환자에 대하여 인식된 영상 정보를 수신하여 획득하는 기능을 수행하는 모듈, 프로그램, 장치 등의 수단을 의미한다.The image information acquisition unit 231 of the present invention includes a module, a program, a device, etc., that performs a function of receiving and acquiring image information recognized for an emergency patient provided by the first responder boot unit 100. it means.

상기한 마킹정보 획득처리부(232)는 응급처치자 부쓰부(100)에서 제공되는 응급 환자에 부착한 마커로부터 얻은 마킹 정보를 획득하는 기능을 수행하는 모듈, 프로그램, 장치 등의 수단을 의미한다. The above-described marking information acquisition processing unit 232 means a module, program, device, etc., which performs a function of acquiring marking information obtained from a marker attached to an emergency patient provided by the first aid unit 100 .

상기한 생체객체 크기 기울기 회전각 산출부(233)는 상기의 마킹정보 획득처리부(232)에서 제공하는 마킹 정보를 통하여 생체객체(응급 환자 등)의 크기, 기울기 및 회전각을 산출하는 기능을 수행하는 모듈, 프로그램, 장치 등의 수단을 의미한다.The biological object size gradient rotation angle calculation unit 233 performs a function of calculating the size, inclination and rotation angle of a biological object (emergency patient, etc.) through the marking information provided by the marking information acquisition processing unit 232 . means a module, program, device, etc.

상기한 3D 생체객체간 모델링부(234)는 상기에서 취득한 응급 환자에 대하여 인식된 영상 정보를 이용하여 통상의 3D(3차원) 모델로 모델링을 하는 기능을 수행하는 모듈, 프로그램, 장치 등의 수단을 의미한다.The 3D inter-object modeling unit 234 is a module, program, device, etc. that performs a function of modeling in a normal 3D (three-dimensional) model using the image information recognized for the emergency patient obtained above. means

이와 같은 3D(3차원) 모델은 3D 생체객체 정보 및 3D 객체 변환 행렬 정보(I)에 포함되게 된다.Such a 3D (three-dimensional) model is included in the 3D biological object information and the 3D object transformation matrix information (I).

상기한 시점자 및 생체객체간 상대좌표 계산부(235)는 응급처치자가 응급환자를 보는 시점에서 응급환자에 대한 3차원 좌표가 생성되거나 계산되는 모듈, 프로그램, 장치 등의 수단을 의미한다.The relative coordinate calculation unit 235 between the viewer and the living body object means a module, program, device, etc., that generates or calculates 3D coordinates for the emergency patient when the first responder sees the emergency patient.

시점자 및 생체객체간 상대좌표 계산부(235)는 상기한 영상정보획득부(231)에서 획득한 응급환자에 대한 영상정보를 통하여 시스템상의 기설정된 공간에서 응급환자에 대한 3차원 좌표로 생성되거나 또는/및 계산되는 기능이 수행된다. The relative coordinate calculation unit 235 between the viewer and the living object is generated as 3D coordinates for the emergency patient in a preset space on the system through the image information about the emergency patient acquired by the image information acquisition unit 231, or or/and the function being calculated is performed.

상기한 영상내 3D객체 변환행렬 계산부(236)는 상기의 3D 생체객체간 모델링부(234)에서 취득한 3D 모델, 상기의 시점자 및 생체객체간 상대좌표 계산부(235)에서 취득한 3차원 좌표, 상기의 생체객체 크기 기울기 회전각 산출부(233)에서 취득된 응급 환자에 대한 크기, 기울기 및 회전각을 통한 변환 행렬을 적용하여 변환 3D 인체 모델로 변환하는 기능을 수행하는 모듈, 프로그램, 장치 등의 수단을 의미한다.The 3D object transformation matrix calculation unit 236 in the image is the 3D model obtained from the 3D inter-object modeling unit 234, and the 3D coordinates obtained from the relative coordinate calculation unit 235 between the viewer and the living object. , A module, program, and device that performs a function of converting into a transformed 3D human body model by applying a transformation matrix through the size, gradient, and rotation angle of the emergency patient obtained by the bio-object size gradient rotation angle calculation unit 233 means such as

도 7에서 보는 바와 같이 3D 모듈(표준 3D 인체 모듈)(SM)은 변환 행렬(TR)을 통하고, 마커에서 인식한 객체(응급 환자, 손상 부위 등)의 크기(OS)를 적용하여 변환 3D 인체 모델(TM)로 변환되게 된다.As shown in Fig. 7, the 3D module (standard 3D human body module) (SM) is converted into 3D by applying the size (OS) of the object (emergency patient, damaged area, etc.) recognized by the marker through the transformation matrix (TR). It is converted into a human body model (TM).

이와 같은 변환 3D 인체 모델(TM)은 3D 생체객체 정보 및 3D 객체 변환 행렬 정보(I)에 포함되게 된다.Such a transformed 3D human body model (TM) is included in the 3D biological object information and the 3D object transformation matrix information (I).

상기한 변환 행렬(TR)은 통상의 변환 행렬을 사용할 수 있으며 다음의 [식 1]과 같은 변환 행렬은 하나의 실시예로 사용할 수 있다.As the above-described transformation matrix TR, a conventional transformation matrix may be used, and a transformation matrix such as the following [Equation 1] may be used as an embodiment.

[식 1][Equation 1]

Figure pat00001
Figure pat00001

상기한 Rx(θ)에서 X는 마커 및 생체객체에 대한 공간상의 X 좌표를 의미하고 θ는 기울기 또는/및 회전각을 의미한다.In the above R x (θ), X means the X coordinate in space with respect to the marker and the biological object, and θ means the inclination or/and the rotation angle.

또한, Ry(θ)에서 y는 마커 및 생체객체에 대한 공간상의 y 좌표를 의미하고 θ는 기울기 또는/및 회전각을 의미한다.In addition, in R y (θ), y denotes a spatial y coordinate for a marker and a biological object, and θ denotes a tilt or/and a rotation angle.

또한, Rz(θ)에서 z는 마커 및 생체객체에 대한 공간상의 z 좌표를 의미하고 θ는 기울기 또는/및 회전각을 의미한다.In addition, in R z (θ), z denotes a spatial z coordinate for a marker and a biological object, and θ denotes a tilt or/and a rotation angle.

이와 같이 변환 3D 인체 모델(TM)로 된 것을 XR 상에서 출력되도록 적용함으로써 실제의 객체(응급 환자)와의 정합률이 현저히 상승되게 되는 효과가 나타나게 된다.As such, by applying the converted 3D human body model (TM) to be output on XR, the matching rate with an actual object (emergency patient) is significantly increased.

따라서 이와 같이 변환된 변환 3D 인체 모델(TM)이 응급처치자 부쓰부(100) 또는/및 원격의료관 부쓰부(300)에 전송되어 응급 환자에 정확하게 정합되는 변환 3D 인체 모델(TM)을 제공받게 되어 원격의료관은 정확한 의료처치 가이드를 수행할 수 있고 응급처치자는 응급 환자의 정확한 치료부위에 대한 정확한 의료처치 가이드를 제공받아 응급 환자를 정확하게 치료할 수 있는 효과가 나타나게 된다.Accordingly, the converted 3D human body model (TM) converted in this way is transmitted to the first aid unit 100 and/or the telemedicine unit 300 to provide a transformed 3D human body model (TM) that is accurately matched to the emergency patient. As a result, the telemedicine officer can perform an accurate medical treatment guide, and the first responder is provided with an accurate medical treatment guide for the exact treatment area of the emergency patient, resulting in the effect of accurately treating the emergency patient.

상기한 좌표변환 및 정합오차 계산부(237)는 상기한 시점자 및 생체객체간 상대좌표 계산부(235)에서 획득한 응급처치자가 응급환자를 보는 시점에서의 응급환자에 대한 3차원 객체를 2차원 평면에 투영하기 위한 스크린 좌표로 일치시키는 계산을 하는 모듈, 프로그램, 장치 등의 수단을 의미한다.The coordinate transformation and matching error calculation unit 237 calculates the 3D object for the emergency patient at the point of view of the emergency patient by the first responder obtained from the relative coordinate calculation unit 235 between the viewpoint and the living object. Means a module, program, device, etc., that performs calculations to match screen coordinates for projection on a dimensional plane.

좌표변환 및 정합오차 계산부(237)는 통상의 3차원 객체를 2차원 평면에 투용하기 위한 스크린 좌표 변환 기술에 사용되는 통상의 가우시안 보간 방식(gausian inerpolation method)과 같은 정합률 계산 방법을 적용할 수 있다.Coordinate transformation and registration error calculation unit 237 may apply a registration rate calculation method such as a conventional Gaussian interpolation method used in screen coordinate transformation technology for applying a conventional three-dimensional object to a two-dimensional plane. can

이와 같은 좌표변환 및 정합오차 계산부(237)의 상기의 변환된 변환 3D 인체 모델(TM)에 대하여 실제 응급환자와의 정합률을 더욱 높이는 작용으로 재설정된 변환 3D 인체 모델(TM)이 응급처치자 부쓰부(100) 또는/및 원격의료관 부쓰부(300)에 전송되어 응급 환자에 정확하게 정합되는 변환 3D 인체 모델(TM)을 제공받게 되어 원격의료관은 더욱 더 정확한 의료처치 가이드를 수행할 수 있고 응급처치자는 응급 환자의 정확한 치료부위에 대한 정확한 의료처치 가이드를 제공받아 응급 환자를 더욱 더 정확하게 치료할 수 있는 효과가 나타나게 된다.The transformed 3D human body model (TM) reset by the action of further increasing the matching rate with the actual emergency patient with respect to the transformed 3D human body model (TM) of the coordinate transformation and matching error calculation unit 237 is first aid treatment It is transmitted to the self-boosting unit 100 and/or the telemedicine unit 300 and provided with a converted 3D human body model (TM) that is accurately matched to the emergency patient, so that the telemedicine unit can perform a more accurate medical treatment guide. The effect of treating emergency patients more accurately is shown by providing an accurate medical treatment guide for the exact treatment area of the emergency patient.

본 발명의 데이터베이스 관리모듈(240)은 운용통제 서버(200), 응급처치자 부쓰부(100) 또는/및 원격의료관 부쓰부(300)에서 생성되거나 인식되는 정보를 저장, 관리할 수 있는 기능을 수행한다.The database management module 240 of the present invention has a function to store and manage information generated or recognized by the operation control server 200 , the first aid unit 100 and/or the telemedicine unit 300 . carry out

본 발명의 원격의료관 부쓰부(300)는 응급처치자 부쓰부(100)에서 제공하는 영상정보, 환자정보, 손상 정보 등의 각종 정보 또는/및 이를 이용하여 운용통제 서버(200)를 통하여 제공되는 응급 환자에 대한 3D 생체객체 정보 및 3D 객체 변환 행렬 정보(I)를 제공받아 형성되는 XR 영상(확정 현실 영상)을 원격의료관이 이용하여 응급처치를 하는 것을 응급처치자 부쓰부(100)로 제공하는 기능을 수행하는 장치 수단을 의미한다.The telemedicine booth unit 300 of the present invention provides various information such as image information, patient information, and damage information provided by the first responder boot unit 100 or/and the operation control server 200 using the same. The first aid operator boots 100 for the telemedicine to perform first aid using the XR image (determined reality image) formed by receiving 3D biological object information and 3D object transformation matrix information (I) for an emergency patient means a device means to perform a function provided by

본 발명에서의 원격의료관은 원거리에서 응급치료를 가이딩하는 의사, 원격군의관, 원격 진료관 등을 포함하는 개념이다.The telemedicine in the present invention is a concept including a doctor, a telemedicine, a telemedicine, and the like who guide emergency treatment from a distance.

도 8에서 보는 것처럼, 본 발명의 원격의료관 부쓰부(300)는 XR 원격장비(310), 원격치료장치부(320)를 포함하여 구성되어 있다.As shown in FIG. 8 , the telemedicine booth unit 300 of the present invention is configured to include an XR remote device 310 and a remote treatment device unit 320 .

본 발명의 XR 원격장비(310)는 원격디스플레이부(311), 원격헤드셋부(312), 원격센서감지부(313), 가이드 제스쳐 트래킹부(Gesture tracking)(314)를 포함하여 구성되어 있다.The XR remote device 310 of the present invention is configured to include a remote display unit 311 , a remote headset unit 312 , a remote sensor sensing unit 313 , and a guide gesture tracking unit 314 .

본 발명의 XR 원격장비(310)는 가상현실, 증강현실, 혼합현실, 확장현실 등을 구현하는데 사용되는 장비 또는 수단을 포함하여 구성되어 있다. The XR remote device 310 of the present invention is configured to include equipment or means used to implement virtual reality, augmented reality, mixed reality, extended reality, and the like.

본 발명의 상기한 원격디스플레이부(311)는 사용자가 작업하는 동시에 한눈에 가상정보를 쉽게 볼 수 있도록 표현하는 인터페이스 등을 의미하며 HMD(Head Mounted Display), FMD(Face Mounted Display)를 포함하는 장치 또는 수단을 의미한다.The remote display unit 311 of the present invention refers to an interface that allows a user to easily view virtual information at a glance while working, and includes a head mounted display (HMD) and a face mounted display (FMD). or means.

원격의료관은 HMD를 착용하여 응급 환자에 대한 XR 영상(확장 현실 영상)을 보고 의료처치를 지시하는 영상 가이드를 생성하는 기능이 수행되는 장치 또는 수단을 의미한다.Telemedicine refers to a device or means in which a function of generating an image guide instructing medical treatment by viewing an XR image (extended reality image) of an emergency patient by wearing an HMD is performed.

본 발명의 상기한 원격헤드셋부(312)는 원격의료관이 의료처치를 지시하는 사항 또는/및 환자의 손상 유형 및 부위에 따른 응급처치 방법/주의사항 가이드에 대한 사항을 음성으로 입력하거나 출력하게 기능이 수행되는 장치 또는 수단을 의미한다.The remote headset unit 312 of the present invention allows the telemedicine officer to input or output information for instructing medical treatment or/and first aid method/precaution guide according to the patient's type and location of damage by voice. means a device or means by which a function is performed.

따라서 원격헤드셋부(312)는 마이크부가 부가될 수 있으며 원격의료관의 음성을 전송하게 하는 기능을 수행하게 된다.Therefore, the remote headset unit 312 may have a microphone unit added thereto, and performs a function of transmitting the voice of the telemedicine unit.

본 발명의 원격센서감지부(313)는 원격의료관이 응급 환자에 대한 XR 영상(확장 현실 영상)을 보고 처치 제스쳐 트래킹부(Gesture tracking)를 착용하여 의료처치를 수행하는 지시 동작에 대한 것을 센싱하여 원격치료장치부(320)에 전송하는 기능을 수행하는 장치 또는 수단을 의미한다.The remote sensor sensing unit 313 of the present invention senses an instructional operation for a telemedicine officer to view an XR image (extended reality image) of an emergency patient and perform medical treatment by wearing a treatment gesture tracking unit This means a device or means for performing a function of transmitting to the remote treatment device unit 320 .

본 발명의 처치 제스쳐 트래킹부(Gesture tracking)(314)는 원격의료관의 손에 착용되는 기능이 수행되며 원격의료관이 XR 영상(확장 현실 영상)을 통하여 응급 치료를 하는 손동작 및 움직임에 대한 정보를 제공하는 모션 디바이스 등과 같은 장치 또는 수단을 의미한다.The treatment gesture tracking unit (Gesture tracking) 314 of the present invention performs a function worn on the hands of the telemedicine, and information on the hand gestures and movements that the telemedicine performs emergency treatment through the XR image (extended reality image) means an apparatus or means such as a motion device that provides

본 발명의 XR 원격장비(310)에서 취득한 원격의료관의 응급처치 가이드는 운용통제 서버(200)로 전송되고 다시 운용통제 서버(200)에서 응급처치자 부쓰부(100)로 전송되게 된다.The first aid guide of the telemedicine obtained from the XR remote device 310 of the present invention is transmitted to the operation control server 200 , and is again transmitted from the operation control server 200 to the first aid unit 100 .

본 발명의 원격장치부(320)는 환자의료정보 입력 기능, 응급처치자의 사용 가능한 의료 조치 도구 확인 기능, 환자 인적 사항 및 평가 정보를 이용한 환자 상태 확인 기능, 응급 처지 가이드 정보 제공 기능 등을 수행하는 장치 또는 수단을 의미한다.The remote device unit 320 of the present invention performs a patient medical information input function, a function to check available medical treatment tools for first responders, a function to check patient status using patient personal information and evaluation information, and a function to provide emergency treatment guide information. means a device or means.

상기한 원격장치부(320)는 통상의 중앙처리장치, 데이터입출력 시스템, 응용 프로그램, 제어장치, 메모리 등이 탑재된 컴퓨터, 서버 등으로 구현할 수 있다.The remote device unit 320 may be implemented as a computer, a server, etc. equipped with a typical central processing unit, a data input/output system, an application program, a control device, a memory, and the like.

본 발명의 원격장치부(320)는 환자의료정보 입력 모듈(321), 응급처치자의 사용 가능한 의료 조치 도구 확인 모듈(322), 환자 인적 사항 및 평가 정보를 이용한 환자 상태 확인 모듈(323), 응급 처지 가이드 정보 제공 모듈(324), 영상 관리 모듈(325)를 포함하여 구성되어 있다.The remote device unit 320 of the present invention includes a patient medical information input module 321 , a medical treatment tool confirmation module 322 available for first responders, a patient status confirmation module 323 using patient personal information and evaluation information, and an emergency It is configured to include a condition guide information providing module 324 and an image management module 325 .

본 발명의 상기한 모듈은 각각의 모듈에서 기능하고자 하는 것을 수행시키는 프로그램, 소프트웨어 상의 기능 또는 장치 등을 의미한다.The above-mentioned module of the present invention means a program, software function or device, etc. that performs a function desired in each module.

상기한 환자의료정보 입력 모듈(321)은 원격의료관에 의하여 응급 환자에 대한 인적사항 및 환자평가정보가 입력되는 기능이 수행된다.The above-described patient medical information input module 321 performs a function of inputting personal information and patient evaluation information for an emergency patient by a telemedicine officer.

상기한 응급처치자의 사용 가능한 의료 조치 도구 확인 모듈(322)은 원격의료관에 의하여 응급 환자에 대하여 사용 가능한 의료 조치 도구를 설정할 수 있는 기능을 수행하는 것을 의미한다.The module 322 for checking available medical treatment tools of the first responder means that the telemedicine officer performs a function of setting available medical treatment tools for emergency patients.

상기한 응급처치자의 사용 가능한 의료 조치 도구 확인 모듈에서 원격의료관은 응급 환자를 처치하기 위한 의료 조치 도구를 설정하거나 입력한다.In the module for checking available medical treatment tools of the first responder, the telemedicine sets or inputs a medical action tool for treating an emergency patient.

상기한 환자 인적 사항 및 평가 정보를 이용한 환자 상태 확인 모듈(323)은 응급처치자 부쓰부(100)의 정보입력모듈(122)에서 입력되는 응급 환자에 대한 인적사항 및 환자평가정보를 통하여 환자 상태를 보여주는 기능을 수행한다.The patient status confirmation module 323 using the patient personal information and evaluation information described above uses the personal information and patient evaluation information for the emergency patient input from the information input module 122 of the first aid unit 100 to determine the patient status. function to show

상기한 응급 처지 가이드 정보 제공 모듈(324)은 상기한 응급처치가이드모듈(125)은 상기에서 입력된 응급 환자의 손상 유형및 손상 부위에 따른 응급처치방법 및 주의사항이 제공되는 기능을 수행한다.The first aid guide information providing module 324 and the first aid guide module 125 perform a function of providing first aid methods and precautions according to the inputted emergency patient's damage type and damage site.

이와 같은 응급 처지 가이드 정보 제공 모듈(324)은 동영상 또는 음성으로 응급처치가이드를 제공할 수 있으며, 원격의료관에 의하여 입력되거나 업데이트 될 수 있다.The first aid guide information providing module 324 may provide a first aid guide through video or voice, and may be input or updated by a telemedicine officer.

또한 응급 처지 가이드 정보 제공 모듈(324)은 원격의료관이 직접 응급 환자를 XR 원격장비(310)를 이용하여 처치(또는 치료)하는 것을 확장 현실을 통하여 직접 응급 처치 가이드를 시행할 수 있으며, 이와 같은 응급 처지 가이드 정보가 응급처치자 부쓰부(100)로 전송되게 하는 기능을 수행하게 된다.In addition, the first aid guide information providing module 324 can directly implement the first aid guide through extended reality when the telemedicine directly treats (or treats) the emergency patient using the XR remote device 310, The same first aid guide information is transmitted to the first responder boot unit 100 to perform a function.

상기한 영상 관리 모듈(325)은 원격의료관에 의하여 응급처치자 부쓰부(100)에서 전송되는 영상에 대하여 관리를 할 수 있는 기능을 수행하게 된다.The image management module 325 performs a function of managing the image transmitted from the first aid unit 100 by a telemedicine officer.

본 발명은 상기한 구성과 기능으로 이루어진 XR 시스템에 대한 생체객체 인식용 마커 및 이를 이용한 XR 기반 응급 의료 처치 시스템을 제공한다.The present invention provides a marker for bio-object recognition for an XR system having the above configuration and functions, and an XR-based emergency medical treatment system using the same.

본 발명은 가상현실, 증강현실, 혼합현실 또는 확장현실에 사용되는 마커를 생산, 제조, 판매, 유통, 연구하는 산업에 유용하다.The present invention is useful in industries that produce, manufacture, sell, distribute, and research markers used in virtual reality, augmented reality, mixed reality, or extended reality.

특히 가상현실, 증강현실, 혼합현실 또는 확장현실을 이용하는 응급 의료 처치 시스템에 매우 유용하다.In particular, it is very useful for emergency medical treatment systems using virtual reality, augmented reality, mixed reality, or extended reality.

응급처치자 부쓰부(100),
XR 처치장비(110), 치료장치부(120), 치료도구부(130),
운용통제 서버(200),
도구설정모듈(121), 정보입력모듈(122), 손상부위선택모듈(123), 손상발생위치정보모듈(124), 응급처치가이드모듈(125),
원격의료관 부쓰부(300),
XR 원격장비(310), 원격치료장치부(320),
XR 시스템에 대한 생체객체 인식용 마커(400),
테이핑몸체부(410), 거리산출부(420), 기울기 회전각 산출부(430),
First Aid Booth (100),
XR treatment equipment 110, treatment device unit 120, treatment tool unit 130,
operation control server 200,
Tool setting module 121, information input module 122, damaged part selection module 123, damage location information module 124, first aid guide module 125,
Telemedicine Center Bootsbu (300),
XR remote equipment 310, remote treatment device unit 320,
Marker 400 for bio-object recognition for the XR system;
Taping body portion 410, distance calculation unit 420, tilt rotation angle calculation unit 430,

Claims (3)

XR 처치장비(110), 치료장치부(120), 치료도구부(130)를 포함하여 구성되어있는 응급처치자 부쓰부(100),
데이터 교환 모듈(210), 운용 통제 모듈(220), 생체객체인식모듈(230), 데이터베이스 관리모듈(240)을 포함하여 구성되어 있는 운용통제 서버(200),
XR 원격장비(310), 원격치료장치부(320)를 포함하여 구성되어 있는 원격의료관 부쓰부(300)를 포함하여 구성된 확장현실형 응급처지 가이드 정보에 따른 응급처치자 교육형 의료 시스템.
XR treatment equipment 110, treatment device unit 120, first aid boot unit 100 comprising a treatment tool unit 130,
The operation control server 200 comprising a data exchange module 210 , an operation control module 220 , a biometric object recognition module 230 , and a database management module 240 ,
A first aid training type medical system according to the expanded reality first aid guide information configured including the remote medical center boot unit 300 including the XR remote equipment 310 and the remote treatment device unit 320 .
제1항에 있어서,
XR 처치장비(110)는 디스플레이부(111), 헤드셋부(112), 센서감지부(113), 처치 제스쳐 트래킹부(Gesture tracking)(114)를 포함하여 구성되어 있고,
치료장치부(120)는 도구설정모듈(121), 정보입력모듈(122), 손상부위선택모듈(123), 손상발생위치정보모듈(124), 응급처치가이드모듈(125)을 포함하여 구성되어 있는 것을 특징으로 하는 확장현실형 응급처지 가이드 정보에 따른 응급처치자 교육형 의료 시스템.
The method of claim 1,
The XR treatment equipment 110 is configured to include a display unit 111, a headset unit 112, a sensor sensing unit 113, and a treatment gesture tracking unit (Gesture tracking) 114,
The treatment device unit 120 includes a tool setting module 121, an information input module 122, a damaged site selection module 123, a damage location information module 124, and a first aid guide module 125. First responder education type medical system according to extended reality first aid guide information, characterized in that there is.
제1항에 있어서,
생체객체 인식용 마커(400)가 더 포함된 것을 특징으로 하는 확장현실형 응급처지 가이드 정보에 따른 응급처치자 교육형 의료 시스템.

The method of claim 1,
A first aid training type medical system according to extended reality first aid guide information, characterized in that the marker 400 for biometric object recognition is further included.

KR1020220072059A 2020-11-11 2022-06-14 a First aid training type medical system based on extended reality first aid guide information KR102637330B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220072059A KR102637330B1 (en) 2020-11-11 2022-06-14 a First aid training type medical system based on extended reality first aid guide information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200149816A KR102410812B1 (en) 2020-11-11 2020-11-11 a living object cognition marker for XR system and the XR emergency medical treatment system using thereof
KR1020220072059A KR102637330B1 (en) 2020-11-11 2022-06-14 a First aid training type medical system based on extended reality first aid guide information

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200149816A Division KR102410812B1 (en) 2020-11-11 2020-11-11 a living object cognition marker for XR system and the XR emergency medical treatment system using thereof

Publications (2)

Publication Number Publication Date
KR20220098321A true KR20220098321A (en) 2022-07-12
KR102637330B1 KR102637330B1 (en) 2024-02-19

Family

ID=81804134

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020200149816A KR102410812B1 (en) 2020-11-11 2020-11-11 a living object cognition marker for XR system and the XR emergency medical treatment system using thereof
KR1020220072044A KR102578334B1 (en) 2020-11-11 2022-06-14 a Deep Learning Medical Treatment System Using Extended Reality
KR1020220072059A KR102637330B1 (en) 2020-11-11 2022-06-14 a First aid training type medical system based on extended reality first aid guide information

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020200149816A KR102410812B1 (en) 2020-11-11 2020-11-11 a living object cognition marker for XR system and the XR emergency medical treatment system using thereof
KR1020220072044A KR102578334B1 (en) 2020-11-11 2022-06-14 a Deep Learning Medical Treatment System Using Extended Reality

Country Status (1)

Country Link
KR (3) KR102410812B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102673626B1 (en) * 2022-12-20 2024-06-12 주식회사 심시스글로벌 System and method for support remote medical service

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190087912A (en) * 2018-01-17 2019-07-25 대구보건대학교산학협력단 Simulation apparatus and method for training first aid treatment using augmented reality and virtual reality
KR20190136243A (en) * 2018-05-30 2019-12-10 호남대학교 산학협력단 Augmented Reality Projection Method For The First Aid Training To The Patient

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190097361A (en) * 2018-02-12 2019-08-21 경남대학교 산학협력단 Posture evaluation system for posture correction and method thereof
KR102225822B1 (en) * 2018-11-26 2021-03-10 국민대학교산학협력단 Apparatus and method for generating learning data for artificial intelligence performance

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190087912A (en) * 2018-01-17 2019-07-25 대구보건대학교산학협력단 Simulation apparatus and method for training first aid treatment using augmented reality and virtual reality
KR20190136243A (en) * 2018-05-30 2019-12-10 호남대학교 산학협력단 Augmented Reality Projection Method For The First Aid Training To The Patient

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102673626B1 (en) * 2022-12-20 2024-06-12 주식회사 심시스글로벌 System and method for support remote medical service

Also Published As

Publication number Publication date
KR102637330B1 (en) 2024-02-19
KR20220097862A (en) 2022-07-08
KR20220063893A (en) 2022-05-18
KR102578334B1 (en) 2023-09-14
KR102410812B1 (en) 2022-06-20

Similar Documents

Publication Publication Date Title
US20210174706A1 (en) Injection site training system
US10849688B2 (en) Sensory enhanced environments for injection aid and social training
US10359916B2 (en) Virtual object display device, method, program, and system
US9142144B2 (en) Hemorrhage control simulator
US11829526B2 (en) Gaze based interface for augmented reality environment
Andrews et al. Registration techniques for clinical applications of three-dimensional augmented reality devices
CN103735312A (en) Multimode image navigation system for ultrasonic guidance operation
US20230404680A1 (en) Method for determining the spatial position of objects
CN115835830A (en) Spatially-aware display for computer-assisted intervention
KR102578334B1 (en) a Deep Learning Medical Treatment System Using Extended Reality
Van Gestel et al. Neuro-oncological augmented reality planning for intracranial tumor resection
WO2021211570A1 (en) System and method for augmented reality data interaction for ultrasound imaging
KR102301863B1 (en) A method for verifying a spatial registration of a surgical target object, the apparatus therof and the system comprising the same
RU2451982C1 (en) Method for producing effect on virtual objects
TWI644285B (en) Acupuncture visualization Chinese medicine system and method thereof by using AR technology
TWI629662B (en) Method for realizing acupoint visualization by AR technology
JPH11237867A (en) Virtual space display device
KR102443956B1 (en) eXtended reality-based acupuncture system and method thereof
US20240206988A1 (en) Graphical user interface for a surgical navigation system
Coertze Visualisation and manipulation of 3D patient-specific bone geometry using augmented reality
Brell et al. Tactile guidance in multimodal computer navigated surgery
WO2024049942A1 (en) Techniques for updating a registration transform between an extended-reality system and a computer-assisted device
CN116453715A (en) Remote palpation method and system
CN116490126A (en) Motion assessment instrument
CN116725664A (en) Registration method and related device

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant