KR102443956B1 - eXtended reality-based acupuncture system and method thereof - Google Patents

eXtended reality-based acupuncture system and method thereof Download PDF

Info

Publication number
KR102443956B1
KR102443956B1 KR1020200152587A KR20200152587A KR102443956B1 KR 102443956 B1 KR102443956 B1 KR 102443956B1 KR 1020200152587 A KR1020200152587 A KR 1020200152587A KR 20200152587 A KR20200152587 A KR 20200152587A KR 102443956 B1 KR102443956 B1 KR 102443956B1
Authority
KR
South Korea
Prior art keywords
human body
acupuncture
body model
practitioner
model
Prior art date
Application number
KR1020200152587A
Other languages
Korean (ko)
Other versions
KR20220066495A (en
Inventor
김지성
권오상
Original Assignee
쿼드러쳐 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 쿼드러쳐 주식회사 filed Critical 쿼드러쳐 주식회사
Priority to KR1020200152587A priority Critical patent/KR102443956B1/en
Priority to PCT/KR2020/019050 priority patent/WO2022102863A1/en
Publication of KR20220066495A publication Critical patent/KR20220066495A/en
Application granted granted Critical
Publication of KR102443956B1 publication Critical patent/KR102443956B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H39/00Devices for locating or stimulating specific reflex points of the body for physical therapy, e.g. acupuncture
    • A61H39/08Devices for applying needles to such points, i.e. for acupuncture ; Acupuncture needles or accessories therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Rehabilitation Therapy (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Computer Graphics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Finger-Pressure Massage (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 확장현실을 기반으로 관절 조작이 가능한 인체 모형에 뼈 및 근육정보를 투영하여 표시하면서 취혈과 침술을 할 수 있도록 하는 확장현실 기반의 침술 시스템 및 그 방법을 제안한다. 본 발명의 확장현실 기반의 침술 시스템은, 소정 실습 공간 내에 위치하는 인체 모형과, 상기 인체 모형의 혈 자리에 시술되는 시술 침, 실습자의 시선 및 손 동작을 인식하고 상기 실습자의 시선에 따라 상기 인체 모형에 뼈 또는 근육 정보를 가지는 가상 모델이 투영된 상태로 표시하는 XR 헤드셋, 상기 실습 공간내에 위치하는 상기 인체 모형과 함께 상기 시술 침 및 실습자가 착용하는 상기 XR 헤드셋의 공간 좌표를 제공하는 모션 캡처 유닛, 그리고 상기 모션 캡처 유닛이 제공한 상기 공간 좌표를 기초로 상기 인체 모형에 투영될 상기 가상 모델을 생성하여 상기 XR 헤드셋에 제공하며, 취혈 및 침술과정에 필요한 정보들을 실습자의 시선에 맞게 재구성하여 상기 XR 헤드셋에 제공하는 중앙처리장치를 포함하여 구성된다. The present invention proposes an extended reality-based acupuncture system and method for performing blood collection and acupuncture while projecting and displaying bone and muscle information on a human body model capable of joint manipulation based on extended reality. The augmented reality-based acupuncture system of the present invention recognizes a human body model located in a predetermined practice space, acupuncture needles operated on the acupuncture points of the human body model, and the practitioner's gaze and hand motion, and recognizes the human body according to the practitioner's gaze. XR headset that displays a virtual model having bone or muscle information projected onto the model, motion capture that provides spatial coordinates of the surgical needle and the XR headset worn by the practitioner together with the human body model located in the practice space Based on the spatial coordinates provided by the unit and the motion capture unit, the virtual model to be projected onto the human body model is generated and provided to the XR headset, and information necessary for the acupuncture and acupuncture procedures is reconstructed to suit the practitioner's gaze. It is configured to include a central processing unit provided to the XR headset.

Description

확장현실 기반의 침술 시스템 및 그 방법{eXtended reality-based acupuncture system and method thereof}Extended reality-based acupuncture system and method thereof

본 발명은 취혈 및 침술시스템에 관한 것으로, 특히 관절 조작이 가능하며 뼈와 근육이 내재된 인체 모형과 근육 및 뼈의 3D 가상 모델을 홀로그램으로 합성하여 보여주는 확장현실 환경하에서 실습자가 인체 모형에 취혈과 침술을 할 수 있도록 하는 시스템 및 방법에 관한 것이다. The present invention relates to an acupuncture and acupuncture system, and in particular, joint manipulation is possible, and in an extended reality environment that synthesizes a human body model with bones and muscles and a 3D virtual model of muscles and bones as a hologram, a practitioner can perform acupuncture and acupuncture on the human body model. A system and method for enabling acupuncture.

한의학에서 시행되고 있는 침술은 인체에 분포되어 있는 각종 경혈에 침을 시술하여 각종 질병을 치료할 수 있는 의료행위다. 침술이 시술되는 부위인 경혈은 신체에 무수히 많이 분포되어 있으며, 질병의 종류에 따라 침을 시술하여야 하는 경혈의 부위는 각각 상이하다. 침술을 시술하기 위해서는 경혈의 위치를 올바르게 알고 있어야 하며, 경혈의 정확한 위치를 파악하기 위한 취혈이 무엇보다 중요하다. 침을 잘못 놓게 될 경우, 주변의 신경이나 혈관, 근육, 근막, 인대, 골막 등이 자극되어 상해를 입히거나 환자가 불쾌해하는 경우가 있다.Acupuncture, practiced in oriental medicine, is a medical practice that can treat various diseases by applying acupuncture to various acupoints distributed in the human body. Acupuncture points where acupuncture is to be performed are distributed in countless numbers throughout the body, and the areas where acupuncture should be performed are different depending on the type of disease. In order to perform acupuncture, it is necessary to know the location of the acupuncture points correctly. If the needle is placed incorrectly, the surrounding nerves, blood vessels, muscles, fascia, ligaments, and periosteum may be stimulated, causing injury or discomfort to the patient.

상기 경혈의 위치를 정확하게 찾아내고, 찾아낸 혈자리에 침을 시술하기 위해서는 사전에 많은 실습이나 훈련이 필요하다. 종래에는 실습이나 훈련에 참가한 실습자(교육생)가 직접 자신 또는 동료의 신체를 대상으로 시술을 하는 경우가 있었다. 그러나 이러한 행위는 신체의 신경조직이나 근육에 직접 침을 시술하기 때문에 상당한 위험을 초래할 수 있었고, 침술 횟수에 제한이 따를 수 밖에 없다. In order to accurately find the location of the acupoint and apply acupuncture to the found acupoint, a lot of practice or training is required in advance. In the past, there was a case in which a trainee (trainee) who participated in the practice or training directly performed the procedure on the body of himself or a colleague. However, such an action could pose a significant risk because acupuncture is directly applied to the nervous tissue or muscle of the body, and there is no choice but to limit the number of acupuncture.

다른 방법으로 한국공개특허 10-2020-0073492호의 선행문헌을 들 수 있다. 상기 선행문헌은 인체모형(인체더미)에 침을 직접 시침하면서 반복 실습할 수 있는 방안이다. 그러나 여기에 사용된 인체모형은 재질만 실리콘으로 제조됐을 뿐, 경혈 위치나 침술 행위를 위한 어떠한 정보도 제공하지 않아 학습효과가 떨어진다. 또 상기 선행문헌은 인체모형에 경혈점의 위치가 표시되어 있다. 그래서 경혈점의 위치가 표시된 인체모형에 침을 시침하기 때문에, 앞서 언급한 바와 같이 경혈점의 위치를 찾는 것이 무엇보다 중요한 한의학 분야에서 이러한 선행문헌은 경혈의 위치를 찾는 훈련이나 실습을 실질적이면 효과적으로 제공할 수 없어, 실습방법으로 부적합하다.As another method, the prior literature of Korean Patent Application Laid-Open No. 10-2020-0073492 can be cited. The prior literature is a method that can be practiced repeatedly while directly basting a needle on a human body model (human dummy). However, the manikin used here is only made of silicone and does not provide any information for the location of acupuncture points or acupuncture, so the learning effect is low. In addition, in the prior literature, the position of the acupoint point is indicated on the human body model. Therefore, in the field of oriental medicine, where finding the location of acupoints is more important than anything else, as mentioned earlier, these prior literatures provide training or practice to find the location of acupoints effectively and effectively. It cannot be done, so it is not suitable as a practice method.

근래에 더 나은 침술 실습방안으로 VR(Virtual Reality) 환경을 이용한 침술시스템이 제안되고 있다. 실제 침을 놓거나 인체모형을 이용한 방법보다 실습이 용이한 이점이 있다. Recently, an acupuncture system using a VR (Virtual Reality) environment has been proposed as a better acupuncture practice method. It has the advantage of being easier to practice than a method using actual needles or a human body model.

그러나 상기 VR 환경은 그래픽으로만 구성된 가상 환경 속에서 실습을 진행하기 때문에 실제 환경과 시각적 차이가 발생하며, 또한 가상 환경 속 인체 모형을 만질 수 없어 실습 효과가 떨어진다. 이를 해결하기 위해 실제 인체 모형과 상호작용하는 VR 실습 시스템도 제안되었으나, VR 속 가상 인체 모형과 실제 인체 모형의 연동을 위해서는 센서를 부착해야만 하기 때문에, 이 과정에서 인체 모형 변형이 일어난다. 이로 인하여 실제 침술 환경과 많은 차이가 있어 실습 효과가 떨어진다.However, since the VR environment is practiced in a virtual environment composed only of graphics, a visual difference from the real environment occurs, and the practical effect is reduced because the human body model in the virtual environment cannot be touched. To solve this problem, a VR practice system that interacts with a real human model has been proposed, but since a sensor must be attached in order to link the virtual human model and the real human model in VR, the human body model is deformed during this process. Due to this, there is a lot of difference from the actual acupuncture environment, and the practical effect is reduced.

따라서 본 발명의 목적은 상기한 문제점을 해결하기 위한 것으로, 뼈와 근육이 내재된 인체모형에 뼈와 근육에 대한 3D 가상모델을 홀로그램 형태로 합성하여 실제와 동일한 환경에서 취혈 및 침술 행위에 대한 피드백을 실시간으로 제공할 수 있는 확장현실 기반의 침술 시스템 및 그 방법을 제공하는 것이다. Therefore, an object of the present invention is to solve the above problems, by synthesizing a 3D virtual model for bones and muscles in a hologram form with a human body model with bones and muscles embedded therein to give feedback on acupuncture and acupuncture in the same environment as in the real world. It is to provide an extended reality-based acupuncture system and method that can provide acupuncture in real time.

이와 같은 목적을 달성하기 위한 본 발명은, 소정 실습 공간 내에 위치하는 인체 모형; 상기 인체 모형의 혈 자리에 시술되는 시술 침; 실습자의 시선 및 손 동작을 인식하고 상기 실습자의 시선에 따라 상기 인체 모형에 뼈 또는 근육 정보를 가지는 가상 모델이 투영된 상태로 표시하는 XR 헤드셋; 상기 실습 공간내에 위치하는 상기 인체 모형과 함께 상기 시술 침 및 실습자가 착용하는 상기 XR 헤드셋의 공간 좌표를 제공하는 모션 캡처 유닛; 및 상기 모션 캡처 유닛이 제공한 상기 공간 좌표를 기초로 상기 인체 모형에 투영될 상기 가상 모델을 생성하여 상기 XR 헤드셋에 제공하며, 취혈 및 침술과정에 필요한 정보들을 실습자의 시선에 맞게 재구성하여 상기 XR 헤드셋에 제공하는 중앙처리장치를 포함하는 것을 특징으로 하는 확장현실 기반의 침술 시스템을 제공한다.The present invention for achieving the above object, a human body model located in a predetermined practice space; a surgical needle to be operated on the acupoint of the human body model; an XR headset that recognizes the practitioner's gaze and hand motion and displays a projected virtual model having bone or muscle information on the human body model according to the practitioner's gaze; a motion capture unit for providing spatial coordinates of the surgical needle and the XR headset worn by the practitioner together with the human body model located in the practice space; and generating the virtual model to be projected onto the human body model based on the spatial coordinates provided by the motion capture unit and providing it to the XR headset, reconstructing the information required for acupuncture and acupuncture procedures according to the practitioner's gaze to fit the XR It provides an extended reality-based acupuncture system, characterized in that it includes a central processing unit provided to the headset.

상기 모션 캡처 유닛은, 상기 실습 공간 내에 위치하는 상기 인체 모형, 시술 침 및 XR 헤드셋을 촬영하는 복수 대의 카메라; 상기 인체 모형, 시술 침, XR 헤드셋과의 거리를 측정하는 거리 측정부; 측정된 상기 거리에 따라 인체 모형, 시술 침 및 XR 헤드셋의 위치 좌표를 계산하는 제1 계산부; 상기 인체 모형에 시술되는 시술 침의 위치, 방향 및 각도를 계산하는 제2 계산부를 포함하여 구성된다. The motion capture unit may include: a plurality of cameras for photographing the human body model, the surgical needle, and the XR headset located in the practice space; a distance measuring unit for measuring a distance between the human body model, the surgical needle, and the XR headset; a first calculation unit for calculating position coordinates of the human body model, the surgical needle, and the XR headset according to the measured distance; and a second calculation unit for calculating the position, direction, and angle of the surgical needle to be operated on the human body model.

상기 인체 모형은, 실리콘 재질로 만들어진 신체의 전부 또는 일부이며, 관절 움직임이 가능한 모형이다. The human body model is all or part of a body made of a silicone material, and is a model in which joint movement is possible.

상기 시술 침은, 3개의 축(x, y, z축) 방향을 가리키는 마커; 및 상기 마커를 시술 침에 부착하는 침 마커 부착 유닛을 포함한다.The surgical needle, a marker pointing to three axes (x, y, z-axis) directions; and a needle marker attaching unit for attaching the marker to the surgical needle.

상기 XR 헤드셋은, 머리에 착용 가능한 형상의 본체; 상기 본체의 전방에 설치되며 실습자의 시선과 손동작 인식을 위해 영상을 촬영하는 카메라; 상기 카메라가 촬영한 정보를 기초로 실습자의 손동작과 시선 정보를 처리하는 영상처리부; 상기 중앙처리장치와 정보 송수신을 위한 송수신부; 및 상기 중앙처리장치가 실습자에게 제공할 정보들을 실습자의 시선에 맞게 표시하는 투명재질의 디스플레이부를 포함하여 구성된다. The XR headset may include a body having a shape that can be worn on the head; a camera installed in front of the main body and photographing an image for recognizing a practitioner's gaze and hand gestures; an image processing unit for processing hand gestures and gaze information of a practitioner based on the information captured by the camera; a transceiver for transmitting and receiving information with the central processing unit; And the central processing unit is configured to include a display unit of a transparent material that displays the information to be provided to the practitioner according to the practitioner's gaze.

상기 디스플레이부는, 상기 본체의 전방에 상기 실습자의 눈의 전방에 이격되어 위치한다. The display unit is positioned in front of the main body and spaced apart from the front of the practitioner's eyes.

상기 가상 모델은, 상기 인체 모형의 뼈 및 근육 정보를 포함하며, 상기 인체 모형에 가상 모델이 투영되면 XR 헤드셋을 통해 상기 인체 모형으로부터 얻지 못하는 정보들을 표시해준다. The virtual model includes bone and muscle information of the human body model, and when the virtual model is projected onto the human body model, information that cannot be obtained from the human body model is displayed through an XR headset.

상기 인체 모형의 관절 움직임에 따라, 상기 가상 모델도 동일하게 움직인다.According to the joint movement of the human body model, the virtual model also moves in the same way.

본 발명의 다른 특징에 따르면, 확장현실 기반의 침술 시스템을 이용하여 침술 실습을 하는 침술방법에 있어서, 실습 공간에 위치한 인체 모형과 동일한 위치에 있도록 가상 모델을 생성하는 제1 단계; 상기 가상 모델이 합성된 인체 모형을 실습자가 XR 헤드셋을 통해 확인하는 제2 단계; 상기 XR 헤드셋을 통해 인체 모형과 더불어 가상 모델의 정보도 확인하면서 상기 인체 모형에서 시술 침을 놓을 경혈점을 찾는 제3 단계; 및 상기 경혈점에 시술 침을 시술하는 제4 단계를 포함하는 확장현실 기반의 침술 방법을 제공한다.According to another feature of the present invention, there is provided an acupuncture method for practicing acupuncture using an extended reality-based acupuncture system, the acupuncture method comprising: a first step of generating a virtual model so as to be in the same position as a human body model located in a practice space; a second step in which the practitioner confirms the human body model synthesized with the virtual model through an XR headset; a third step of finding an acupoint in the human body model to place a surgical needle while checking information on the virtual model as well as the human body model through the XR headset; and a fourth step of applying surgical acupuncture to the acupoints.

상기 제1 단계는, 상기 인체 모형의 움직임이 발생하면, 상기 움직임에 따라 변경된 좌표로 상기 가상 모델이 합성되도록 한다.In the first step, when the movement of the human body model occurs, the virtual model is synthesized with coordinates changed according to the movement.

상기 제3 단계는, 상기 경혈점을 찾지 못하면, 상기 확장현실 기반의 침술 시스템은 상기 실습자에게 경혈점을 찾아가는 손동작 위치정보를 순차적으로 제공한다. In the third step, if the acupuncture point is not found, the augmented reality-based acupuncture system sequentially provides hand gesture location information for finding the acupuncture point to the practitioner.

상기 제4 단계는, 상기 확장현실 기반의 침술 시스템이 상기 인체 모형에 시술된 상기 시술 침의 위치, 방향, 각도 정보를 제공받고, 상기 시술 침의 정상 시술여부를 판단한다.In the fourth step, the augmented reality-based acupuncture system receives information about the position, direction, and angle of the surgical needle treated on the human body model, and determines whether the surgical needle is normally operated.

상기 시술 침의 시술상태가 잘못된 경우, 수정된 상기 시술 침의 위치, 방향, 각도 정보를 안내한다. When the operation state of the operation needle is incorrect, the corrected position, direction, and angle information of the operation needle is guided.

이상과 같은 본 발명의 확장현실 기반의 침술 시스템 및 그 방법에 따르면, 기존의 가상현실이 아닌 실제와 같은 현실 조건에서 침술 실습을 할 수 있어, 실습 효과를 높일 수 있다.According to the extended reality-based acupuncture system and method of the present invention as described above, it is possible to practice acupuncture in real-world conditions instead of the existing virtual reality, thereby increasing the practice effect.

본 발명에 따르면, 실제 침술에 사용하는 침(시술침)을 사용하기 때문에 모형 침이나 각종 센서 등이 장착된 침을 이용한 실습보다 더 효율적인 실습을 기대할 수 있다. According to the present invention, since acupuncture needles (procedure needles) used for actual acupuncture are used, more efficient practice can be expected than practice using model needles or needles equipped with various sensors.

본 발명에 따르면, 실습과정에 대한 평가 정보가 실시간으로 제공되기 때문에, 사용자는 취혈 및 침술과정에서의 잘못을 바로 피드백 받을 수 있어, 취혈 및 침술동작을 수정해가면서 실습, 학습이 가능하다. According to the present invention, since the evaluation information on the practice process is provided in real time, the user can receive feedback on mistakes in the acupuncture and acupuncture processes immediately, so that the practice and learning are possible while correcting the acupuncture and acupuncture operations.

도 1은 본 발명의 바람직한 실시 예에 따른 확장현실 기반의 침술 시스템을 보인 구성도
도 2는 도 1의 모션 캡처 유닛에 구비된 유닛 박스의 구성도
도 3에 본 발명에 따라 마커가 부착된 시술 침의 예시도
도 4는 본 발명에 따라 실습자가 착용하는 XR 헤드셋의 블록 구성도
도 5는 본 발명에 따라 인체 모형에 가상 모델이 적용된 예시도
도 6은 본 발명의 바람직한 실시 예에 따른 확장현실 기반의 침술 방법을 설명하는 흐름도
도 7 내지 도 9는 본 발명에 따라 취혈 및 침술 과정의 일부를 나타내는 예시도면
1 is a configuration diagram showing an extended reality-based acupuncture system according to a preferred embodiment of the present invention;
Figure 2 is a block diagram of a unit box provided in the motion capture unit of Figure 1;
3 is an exemplary view of a surgical needle with a marker attached according to the present invention
4 is a block diagram of an XR headset worn by a practitioner according to the present invention;
5 is an exemplary view in which a virtual model is applied to a human body model according to the present invention;
6 is a flowchart illustrating an extended reality-based acupuncture method according to a preferred embodiment of the present invention.
7 to 9 are exemplary views showing a part of acupuncture and acupuncture procedures according to the present invention;

본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Objects and effects of the present invention, and technical configurations for achieving them will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.And the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to intentions or customs of users and operators.

그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. Only the present embodiments are provided so that the disclosure of the present invention is complete, and to completely inform those of ordinary skill in the art to which the present invention belongs, the scope of the invention, the present invention is defined by the scope of the claims it will only be Therefore, the definition should be made based on the content throughout this specification.

이하에서는 도면에 도시한 실시 예에 기초하면서 본 발명에 대하여 더욱 상세하게 설명하기로 한다. Hereinafter, the present invention will be described in more detail based on the embodiments shown in the drawings.

도 1은 본 발명의 실시 예에 따른 확장현실 기반의 취혈 및 침술 시스템을 보인 전체 구성도이다. 도 1과 같이 본 발명에 따라 취혈 및 침술을 위한 일련의 실습 공간과 상기 실습 공간 내에 위치하는 인체 모형(200), 실습자가 착용하는 XR 헤드셋(300), 시술 침(400, 도 3 참조)들의 각각의 위치를 인식하고 계산하는 모션 캡처 유닛(100)이 구비된다. 1 is an overall configuration diagram showing an extended reality-based blood collection and acupuncture system according to an embodiment of the present invention. As shown in FIG. 1, according to the present invention, a series of practice spaces for acupuncture and acupuncture, a human body model 200 located in the practice space, an XR headset 300 worn by the practitioner, and surgical needles (400, see FIG. 3) A motion capture unit 100 for recognizing and calculating each position is provided.

모션 캡처 유닛(100)은 복수 대의 카메라(101) 및 각 카메라(101)와 연결된 유닛 박스(102. 도 2 참조)를 포함한다. 카메라(101)들은 실습 공간에서 인체 모형(200)을 중심으로 둘러싸는 형태로 설치되며,유닛 박스(102)는 카메라(101)에 일체로 구성되거나 별개 구성으로 제공될 수 있다.The motion capture unit 100 includes a plurality of cameras 101 and a unit box 102 (refer to FIG. 2 ) connected to each camera 101 . The cameras 101 are installed in a form surrounding the human body model 200 in the practice space, and the unit box 102 may be integrally configured with the camera 101 or provided as a separate configuration.

상기 카메라(101)는 실습 공간과 상기 실습 공간내에 위치하는 상기 구성들(인체 모형, XR 헤드셋, 시술 침)을 촬영하는 역할을 한다. 각 구성들의 위치 좌표를 계산하기 위함이다. The camera 101 serves to photograph the practice space and the components (human body model, XR headset, and surgical needle) located in the practice space. This is to calculate the position coordinates of each component.

도 2는 유닛 박스(102)의 구성이다. 도시된 바와 같이 거리 측정부(104) 및 좌표 계산부(제1 계산부)(106)를 포함하고 있다. 거리 측정부(104)는 상기한 구성들과의 거리를 측정하고, 좌표 계산부(106)는 측정된 거리값에 따라 각 구성들의 위치 좌표를 계산하는 기능을 수행한다. 이처럼 상기 실습 공간(A) 내에서 각 구성들의 위치를 인식하는 것은 인체 모형(200)에 가상 모델(600)을 정확하게 일치시키기 위한 것이다. 즉 아래에서 설명하겠지만, 인체 모형(200)은 실제 신체와 같이 관절 움직임이 가능한 구조로서, 실습자가 인체 모형(200)의 관절을 움직이더라도(즉 인체 모형의 위치가 변경), 인체 모형(200)에 가상 모델(600)을 정확하게 투영시키기 위한 것이다. 여기서 가상 모델(600)은 상기 인체 모형(200)에 투영될 뼈나 근육정보 등을 포함한다. 그래서 인체 모형(200)에 가상 모델(600)이 투영되면 실습자는 실제 신체 내부와 동일한 형상을 볼 수 있는 것이다.2 is a configuration of the unit box 102. As shown, it includes a distance measurement unit 104 and a coordinate calculation unit (first calculation unit) 106 . The distance measuring unit 104 measures the distance to the above-described components, and the coordinate calculating unit 106 performs a function of calculating the position coordinates of each component according to the measured distance value. As such, recognizing the position of each component in the practice space A is to accurately match the virtual model 600 to the human body model 200 . That is, as will be described below, the human body model 200 is a structure that can move joints like a real body, and even if the practitioner moves the joints of the human body model 200 (that is, the position of the human model changes), the human body model 200 In order to accurately project the virtual model 600 to Here, the virtual model 600 includes information on bones or muscles to be projected on the human body model 200 . Therefore, when the virtual model 600 is projected on the human body model 200, the practitioner can see the same shape as the inside of the real body.

상기 가상 모델(600)이 적용된 인체 모형(200)의 예는 도 5에 도시하고 있다. 도 5a는 인체 모형(200)에 뼈와 근육 정보(602)가 투영된 상태, 도 5b는 인체 모형(200)에 뼈 정보(604)가 투영된 상태이다. 이처럼 실제 신체를 보는 것과 같이 효과를 제공한다.An example of the human body model 200 to which the virtual model 600 is applied is shown in FIG. 5 . FIG. 5A is a state in which bone and muscle information 602 is projected onto the human body model 200 , and FIG. 5B is a state in which bone information 604 is projected onto the human body model 200 . In this way, it provides the effect of seeing a real body.

다시 도 2를 살펴보면, 상기 모션 캡처 유닛(100)은 인체 모형(200)에 시술되는 시술 침(400)의 위치, 방향 및 각도를 계산하기 위한 제2 계산부(108)도 포함한다. 시술 침(400)이 인체 모형(200)의 경혈점에 정확하게 시술되고 있는가를 판단하기 위해서이다. Referring back to FIG. 2 , the motion capture unit 100 also includes a second calculator 108 for calculating the position, direction, and angle of the surgical needle 400 to be operated on the human body model 200 . This is to determine whether the operation needle 400 is being accurately operated on the acupoint point of the human body model 200 .

상기 인체 모형(200)은 취혈 및 침술 대상인 구조체의 인체 모형을 말한다. 인체 모형(200)은 신체의 전부 또는 일부가 될 수 있으며, 전부 또는 일부와 대응하는 모형으로 만들어진다. 본 실시 예에서 인체 모형(200)은 3차원 형상으로 형성되며, 실제 피부와 유사한 재질로 만들어지고, 무릎이나 발목 등의 관절이 실습자의 조작에 의해 움직일 수 있게 제작된다. 즉 일반적으로 실습에 사용되었던 단순한 인체 모형이 아닌 실제 신체와 유사한 재질 및 관절 움직임이 가능한 인체 모형이 사용된다. The human body model 200 refers to a human body model of a structure subject to acupuncture and acupuncture. The human body model 200 may be all or a part of the body, and is made of a model corresponding to all or part of the body. In this embodiment, the human body model 200 is formed in a three-dimensional shape, is made of a material similar to actual skin, and is manufactured so that joints such as knees and ankles can be moved by the operator's manipulation. In other words, not a simple human body model used in practice, but a human body model that can move with materials and joints similar to the actual body is used.

본 실시 예에 따르면, 도 3에 도시한 바와 같이 상기 모션 캡처 유닛(100)이 시술 침(400)의 움직임을 인식할 수 있도록 3개의 축(x, y, z축)이 표시된 마커(412, 414, 416)를 시술 침(400)에 부착할 수 있는 침 마커 부착유닛(410)이 구비된다. 침 마커 부착 유닛(410)은 시술 침(400)의 일단에 다양한 방식으로 부착할 수 있는 구조를 가진다. 예를 들면, 시술 침(400)의 끝단에 고정되거나 또는 시술 침(400)의 외경에 끼움 고정방식으로 부착하는 방법 등을 들 수 있다. 이처럼 본 발명은 실제 침술에 사용하는 동일한 시술 침을 그대로 사용할 수 있는 것이다. 즉 본 실시 예는 종래에 실습에 사용하는 모형 침이나 각종 센서 등이 부착된 시술 침을 사용하는 것이 아니다. 그만큼 실습과 실제 시술시의 침의 변경으로 인해 손 감각 등이 달라지는 문제 등을 방지할 수 있다.According to the present embodiment, as shown in FIG. 3 , the marker 412 on which three axes (x, y, z axes) are marked so that the motion capture unit 100 can recognize the movement of the surgical needle 400 . A needle marker attachment unit 410 capable of attaching 414 and 416 to the treatment needle 400 is provided. The needle marker attachment unit 410 has a structure that can be attached to one end of the surgical needle 400 in various ways. For example, there may be mentioned a method of being fixed to the end of the surgical needle 400 or attached to the outer diameter of the surgical needle 400 in a fitting and fixed manner. As such, the present invention can use the same surgical needle used for actual acupuncture as it is. That is, the present embodiment does not use a model needle conventionally used for practice or a surgical needle to which various sensors are attached. As such, it is possible to prevent problems such as changes in hand sensation due to changes in needles during practice and actual procedures.

상기 침 마커 부착 유닛(410) 및 마커(412, 414, 416)는 시술 침(400)의 길이나 직경 등에 따라 다양한 사이즈로 설계된다. 시술 침(400)의 크기에 대해 너무 작거나 크면 시술 침(400)의 움직임을 효과적으로 추적하지 못할 수도 있기 때문이다. The needle marker attachment unit 410 and the markers 412 , 414 , and 416 are designed in various sizes according to the length or diameter of the surgical needle 400 . This is because if the size of the treatment needle 400 is too small or too large, the movement of the treatment needle 400 may not be effectively tracked.

도 4는 본 발명에 따라 실습자가 착용하는 XR 헤드셋(300)의 블록 구성도이다. 도시된 바와 같이 상기 XR 헤드셋(300)은 실습자가 머리에 착용한 상태에서 실습자의 시선 및 손 동작을 인식하고 시선에 따라 각종 정보들을 표시하는 장치를 말한다. 이러한 XR 헤드셋(300)은 머리에 착용할 수 있도록 형성된 본체의 전방에 설치되는 카메라(310), 본체 내의 소정 위치에 구비되는 영상처리부(320) 및 송수신부(330), 실습자의 눈 전방에 위치하는 디스플레이부(340)를 포함하고 있다.4 is a block diagram of the XR headset 300 worn by the practitioner according to the present invention. As shown, the XR headset 300 refers to a device that recognizes the practitioner's gaze and hand motion while the practitioner wears it on the head, and displays various information according to the gaze. The XR headset 300 includes a camera 310 installed in front of the main body formed to be worn on the head, an image processing unit 320 and a transceiver 330 provided at a predetermined position in the main body, and a position in front of the practitioner's eyes. and a display unit 340 to

상기 카메라(310)는 실습자의 시선 및 손동작 인식을 위하여 영상을 촬영하기 위한 장치이다. 카메라(310)는 사용자의 시선과 대응될 수 있도록 시선과 손동작을 오차 없이 인식할 수 있도록 여러 개의 카메라 센서와 IR 카메라를 포함하여 구성된다. The camera 310 is a device for photographing an image in order to recognize the practitioner's gaze and hand gestures. The camera 310 is configured to include a plurality of camera sensors and an IR camera so that the gaze and hand gestures can be recognized without error so as to correspond to the user's gaze.

상기 영상처리부(320)는 상기 카메라(310)가 촬영한 정보를 기초로 실습자의 손동작와 시선 정보, 즉 시선 방향, 위치, 각도를 처리하기 위한 장치이다.The image processing unit 320 is a device for processing a practitioner's hand gestures and gaze information, ie, gaze direction, position, and angle, based on the information captured by the camera 310 .

상기 송수신부(330)는 중앙처리장치(500)와 각종 정보를 송수신하기 위한 장치로서, 송수신은 다양한 통신매체를 이용할 수 있다. 이러한 상기 송수신부(330)는 영상처리부(320)가 처리한 정보를 중앙처리장치(500)로 전송하고, 중앙처리장치(500)가 상기 XR 헤드셋(300)에 표시할 정보를 전송받는 역할을 한다. 송수신부(330)는 유선 통신방식 대신 편의를 위해 무선 통신 방식이 적용되는 것이 좋다. 무선 통신방식의 예로. 본 실시 예는 RF 모듈, 블루투스(BT) 모듈, 와이파이(WiFi) 모듈, 지그비(Zigbee) 모듈 등과 같이 다양한 방식을 적용할 수 있으나, 이외에도 다른 무선모듈을 이용한 통신방식이 얼마든지 적용될 수 있음은 당연하다.The transmitting/receiving unit 330 is a device for transmitting/receiving various types of information with the central processing unit 500, and may use various communication media for transmission/reception. The transceiver 330 transmits the information processed by the image processing unit 320 to the central processing unit 500, and the central processing unit 500 serves to receive information to be displayed on the XR headset 300. do. The transceiver 330 preferably employs a wireless communication method for convenience instead of a wired communication method. An example of a wireless communication method. In this embodiment, various methods such as RF module, Bluetooth (BT) module, Wi-Fi module, Zigbee module, etc. can be applied, but it goes without saying that communication methods using other wireless modules may be applied. do.

상기 디스플레이부(340)는 상기 중앙처리장치(500)가 실습자에게 제공할 정보들을 실습자의 시선에 맞게 표시하는 부분이다. 디스플레이부(340)는 가상현실에서 정보를 표시하는 것이 아니고, 실습자의 전방에 위치한 인체 모형(200)과 함께 상기 인체 모형(200)에 가상 모델(600)이 투영된 형상, 그리고 실습자의 손 움직임과 같은 실제 시야 정보를 볼 수 있어야 하기 때문에 투명 재질로 이루어진다. 이는 종래 VR과 같은 가상현실 정보를 표시하도록 만들어진 헤드셋과는 전혀 다른 구성이라 할 수 있다.The display unit 340 is a part that displays information to be provided to the practitioner by the central processing unit 500 according to the practitioner's gaze. The display unit 340 does not display information in virtual reality, but a shape in which the virtual model 600 is projected on the human body model 200 together with the human body model 200 located in front of the practitioner, and the practitioner's hand movement It is made of a transparent material because it is necessary to be able to see the actual field of view information, such as This can be said to be a completely different configuration from a headset made to display virtual reality information such as a conventional VR.

본 실시 예에 따르면, 실습 공간의 소정 위치에 마련된 중앙처리장치(500)를 포함한다. 중앙처리장치(500)는 일련의 컴퓨터 장치일 수 있다. 중앙처리장치(500)는 상기 모션 캡처 유닛(100)이 계산한 각 구성들의 좌표들을 실습자의 시선에 맞게 재구성하여 영상을 생성하는 역할을 한다. 즉 인체 모형(200)에 투영할 가상 모델(600)을 생성하는 것이다. According to this embodiment, it includes the central processing unit 500 provided at a predetermined position in the practice space. The central processing unit 500 may be a series of computer devices. The central processing unit 500 serves to generate an image by reconstructing the coordinates of each component calculated by the motion capture unit 100 according to the gaze of the practitioner. That is, the virtual model 600 to be projected on the human body model 200 is generated.

이러한 중앙처리장치(500)는 취혈 및 침술 과정에서 올바른 취혈 동작 및 시술 침(400)의 위치를 판단하고, 판단 결과를 XR 헤드셋(300)에 전송하는 기능도 제공한다. 또 중앙처리장치(500)는 취혈 및 침술 과정에 따른 각종 메뉴 정보를 XR 헤드셋(300)에 전송하기도 한다. 이때 상기 메뉴 정보는 실습자의 손동작에 따라 중앙처리장치(500)가 호출하여 XR 헤드셋(300)에 전송되며, 실습자는 표시되는 메뉴를 손으로 터치 조작하여 명령을 실행한다. 그리고 상기 중앙처리장치(500)는 실습자 이외의 다른 사용자가 실습 과정을 볼 수 있도록 취혈 및 침술 실습의 전 과정을 화면 표시할 수 있고, 이러한 화면 표시된 정보들을 다른 장소에 위치한 모니터 등에 표시하게 할 수 있다.The central processing unit 500 also provides a function of determining the correct blood collection operation and the position of the surgical needle 400 in the blood collection and acupuncture process, and transmitting the determination result to the XR headset 300 . In addition, the central processing unit 500 also transmits various menu information according to the blood collection and acupuncture procedures to the XR headset 300 . At this time, the menu information is transmitted to the XR headset 300 by calling the central processing unit 500 according to the hand gesture of the practitioner, and the practitioner executes a command by manipulating the displayed menu by hand. And the central processing unit 500 can display the entire process of blood collection and acupuncture practice so that users other than the practitioner can see the practice process, and display the information displayed on the screen on a monitor located in another place. can

다음에는 이와 같이 구성된 시스템을 이용한 취혈 및 침술 과정에 대하여 도 6을 참조하여 살펴본다. 본 발명의 취혈 및 침술과정은 크게 준비과정, 실습과정을 포함할 수 있고, 실습과정에는 평가 및 실습 결과에 대한 피드백을 수행하는 과정이 포함될 수 있다.Next, a blood collection and acupuncture process using the system configured as described above will be described with reference to FIG. 6 . The blood collection and acupuncture process of the present invention may largely include a preparation process and a practice process, and the practice process may include a process of performing evaluation and feedback on the practice results.

상기 준비과정은 취혈 및 침술을 위한 선행과정이라 할 수 있다.The preparation process can be said to be a preceding process for acupuncture and acupuncture.

실습을 위해 마련된 실습 공간에 카메라(101)를 포함한 모션 캡처 유닛(100)이 설치된다. 모션 캡처 유닛(100)은 인식 정확도를 높이도록 중앙의 인체 모형(200)을 중심으로 방사형으로 복수 개가 설치된다. 또 실습 공간에는 실습을 위해 실습자가 착용한 XR 헤드셋(300), 침술을 위한 시술 침 등이 위치한다(s100).A motion capture unit 100 including a camera 101 is installed in a practice space prepared for practice. A plurality of motion capture units 100 are radially installed around the central human body model 200 to increase recognition accuracy. In addition, in the practice space, the XR headset 300 worn by the practitioner for practice, acupuncture needles, etc. are located (s100).

이러한 환경하에서 모션 캡처 유닛(100)은 카메라(101)에 의해 상기 실습 공간의 전체 공간 좌표를 인식한다. 아울러 유닛 박스(102)에 구비된 거리 측정부(104)는 상기 카메라(101)가 촬영한 영상정보를 기초로 하여 상기 실습 공간에 위치한 인체 모형(200)과의 거리를 측정하고, 제1 계산부(106)는 상기 측정된 거리 정보를 이용하여 인체 모형(200)의 위치 좌표를 계산한다(s102). 이에 실습 공간에 위치하고 있는 인체 모형(200)의 정확한 위치를 알 수 있다. 여기서 상기한 거리 측정부(104) 및 제1 계산부(106)가 실습자나 시술 침(400)의 거리 측정 및 위치도 계산하는데, 이는 실제 취혈 및 침술 행위가 이루어질 때 수행될 것이다. 이처럼 일단은 실습 공간 및 인체 모형(200)의 위치를 인식하는 과정이 우선하여 진행된다.In this environment, the motion capture unit 100 recognizes the overall spatial coordinates of the practice space by the camera 101 . In addition, the distance measuring unit 104 provided in the unit box 102 measures the distance to the human body model 200 located in the practice space based on the image information captured by the camera 101, and calculates the first The unit 106 calculates the position coordinates of the human body model 200 by using the measured distance information (s102). Accordingly, it is possible to know the exact position of the human body model 200 located in the practice space. Here, the distance measurement unit 104 and the first calculation unit 106 also calculate the distance measurement and location of the practitioner or the surgical needle 400, which will be performed when actual blood collection and acupuncture is performed. In this way, the process of recognizing the location of the practice space and the human body model 200 takes precedence.

이와 같이 인체 모형(200)의 위치를 인식하는 이유는 인체 모형(200)에 투영하게 될 가상 모델(600)을 생성하기 위해서이다. 본 발명은 기존의 VR(가상현실)이 아닌 실제와 같은 현실환경하에서 실습하는 것이기 때문에 인체 모형(200)의 위치가 정확할 필요가 있기 때문이다. The reason for recognizing the position of the human body model 200 as described above is to generate a virtual model 600 to be projected on the human body model 200 . This is because the position of the human body model 200 needs to be accurate because the present invention is to practice in a real environment, not a conventional VR (virtual reality).

중앙처리장치(500)는 상기 모션 캡처 유닛(100)에 의해 계산된 인체 모형(200)의 좌표값을 기초로 하여 상기 인체 모형(200)에 투영할 가상 모델(600)을 생성한다(s104). 인체 모형(200)의 위치를 알 수 있기 때문에 그 인체 모형(200)에 그대로 투영할 수 있는 가상 모델의 생성이 가능한 것이다. 상기 가상 모델(600)은 실습 공간에 위치한 인체 모형(200)과 동일한 형상을 가지며, 도 5에 설명한 바와 같이 인체 모형(200)의 뼈, 근육, 경혈점 등의 정보를 가지는 모델을 의미한다. The central processing unit 500 generates a virtual model 600 to be projected onto the human body model 200 based on the coordinate values of the human body model 200 calculated by the motion capture unit 100 (s104). . Since the position of the human body model 200 can be known, it is possible to generate a virtual model that can be projected on the human body model 200 as it is. The virtual model 600 has the same shape as the human body model 200 located in the practice space, and as described in FIG. 5 , refers to a model having information such as bones, muscles, and acupoint points of the human body model 200 .

이러한 가상 모델(600)은 인체 모형(200)의 관절 움직임에 따라 대응되게 투영된다. 즉 인체 모형(200)의 위치 좌표는 실시간으로 계산되어 중앙처리장치(500)에 전달되고, 중앙처리장치(500)는 움직임 발생하는 상기 인체 모형(200)에 일치되게 투영할 가상 모델(600)을 이동시킬 수 있기 때문이다. 이에 따라 실습자는 인체 모형(200)을 보면, 상기 뼈나 근육이 합성된 인체 모형을 볼 수 있다. The virtual model 600 is projected correspondingly according to the joint movement of the human body model 200 . That is, the position coordinates of the human body model 200 are calculated in real time and transmitted to the central processing unit 500, and the central processing unit 500 is a virtual model 600 to be projected in conformity with the human body model 200 in which motion occurs. because it can move Accordingly, when the practitioner sees the human body model 200, the practitioner can see the human body model in which the bones or muscles are synthesized.

이처럼 인체 모형(200) 및 상기 인체 모형(200)에 투영할 가상 모델(600)이 생성되면 이후 실습과정을 할 수 있는 상태가 된다. 참고로 가상 모델(600)은 성/별에 따른 모델, 신체의 전부 또는 일부에 대한 모델이 될 수 있고, 이러한 모델들은 사전에 생성될 수도 있고, 이 경우 중앙처리장치(500)에 데이터베이스(DB)화 되어 제공될 수 있다. 그래서 실습한 인체 모형(200)에 대응하는 모델을 바로 불러올 수도 있다. 이렇게 하면 가상 모델(600)을 생성하는 과정을 생략할 수 있을 것이다.As such, when the human body model 200 and the virtual model 600 to be projected on the human body model 200 are generated, a practice process can be performed thereafter. For reference, the virtual model 600 may be a model according to sex/gender, a model for all or part of the body, and these models may be generated in advance, in this case, the database (DB) in the central processing unit 500 ) and can be provided. Therefore, a model corresponding to the practiced human body model 200 may be directly called. In this way, the process of generating the virtual model 600 may be omitted.

실습 과정은 실습자가 취혈 및 침술을 실습하는 과정이다. 실습을 위하여 실습자가 XR 헤드셋(300)을 착용한다(s106). XR 헤드셋(300)을 착용하더라도 VR 헤드셋과는 달리 중앙에 위치한 인체 모형(200)을 실습자는 육안으로 직접 볼 수 있어 전방 시야는 그대로 확보된다. The practice course is a process in which practitioners practice acupuncture and acupuncture. For the practice, the practitioner wears the XR headset 300 (s106). Even if the XR headset 300 is worn, unlike the VR headset, the practitioner can directly see the human body model 200 located in the center with the naked eye, so that the front view is secured as it is.

실습자가 XR 헤드셋(300)을 착용한 후 전방을 주시하면, XR 헤드셋(300)에 장착된 카메라(310)는 인체 모형(200)을 촬영한다. 또 실습자가 손을 움직이면 손 움직임을 촬영한다(s108). 이때 인체 모형(200) 및 손 움직임에 대한 좌표는 모션 캡처 유닛(100)에 의해 실시간 계산되어 중앙처리장치(500)로 전송되고 있다. 또 XR 헤드셋(300)의 상기 카메라(310)가 촬영한 정보는 영상처리부(320)가 처리하여 실습자의 손동작이나 시선 정보를 처리하여 중앙처리장치(500)로 전송되고 있다. 따라서 중앙처리장치(500)는 실습자의 시선에 맞춰 인체 모형(200)과 가상 모델(600)이 동일한 위치에 있도록 좌표를 설정할 수 있다(s110).When the practitioner looks forward after wearing the XR headset 300 , the camera 310 mounted on the XR headset 300 captures the human body model 200 . Also, when the practitioner moves his/her hand, the hand motion is photographed (s108). At this time, the coordinates of the human body model 200 and hand movements are calculated in real time by the motion capture unit 100 and transmitted to the central processing unit 500 . In addition, the information captured by the camera 310 of the XR headset 300 is processed by the image processing unit 320 to process the practitioner's hand gestures or gaze information, and is transmitted to the central processing unit 500 . Therefore, the central processing unit 500 may set the coordinates so that the human body model 200 and the virtual model 600 are in the same position according to the gaze of the practitioner (s110).

이와 같이 인체 모형(200)과 가상 모델(600)의 좌표가 동일한 위치에 있도록 셋팅되면, 실습자가 전달하는 사용자 명령에 따라 인체 모형(200)에 가상 모델(600)을 투영시킬 수 있다(s112). 이러한 작업은 사용자 인터페이스를 통해 가능하다. 즉 실습자가 미리 정의된 명령, 예를 들어 뼈 또는 근육 정보를 선택하는 메뉴 버튼들이 표시된 사용자 메뉴가 표시되고, 실습자는 다른 손으로 메뉴 버튼을 조작하면 인체 모형(200)에 뼈나 근육을 맵핑하여 합성한다. 합성된 예는 도 5을 보면 알 수 있다. 즉 인체 모형(200)과 가상 모델(600)의 좌표를 일치시키는 것이라 할 수 있다. 이에 실습자는 XR 헤드셋(300)을 통해 뼈 또는 근육이 투영된 상태의 인체 모형(200)을 볼 수 있게 된다.As described above, when the coordinates of the human body model 200 and the virtual model 600 are set to be in the same position, the virtual model 600 can be projected on the human body model 200 according to a user command transmitted by the practitioner (s112). . These operations are possible through the user interface. That is, a user menu is displayed where the practitioner displays menu buttons for selecting predefined commands, for example, bone or muscle information, and when the practitioner operates the menu button with the other hand, bones or muscles are mapped to the human body model 200 and synthesized do. A synthesized example can be seen in FIG. 5 . That is, it can be said that the coordinates of the human body model 200 and the virtual model 600 are matched. Accordingly, the practitioner can view the human body model 200 in a state in which bones or muscles are projected through the XR headset 300 .

실습자는 XR 헤드셋(300)을 계속 착용한 상태에서 실습 과정을 수행한다. 실습과정은 실습자의 선택에 따라 인체 모형(200)만을 대상으로 하거나, 인체 모형(200)에 뼈나 근육정보가 투영된 상태에서 할 수 있다. 실습을 하는 도중에 인체 모형(200)에 뼈 또는 근육을 투영시키거나, 반대로 투영된 뼈 또는 근육을 제거할 수 있다. The practitioner performs the practice process while continuing to wear the XR headset 300 . The practice process may be performed with only the human body model 200 as an object or with bone or muscle information projected onto the human body model 200 according to the selection of the practitioner. During the exercise, a bone or muscle may be projected onto the human body model 200, or the projected bone or muscle may be removed.

실습과정은 취혈 및 침술 순서로 진행된다. 취혈은 시술 침을 놓기 위한 혈자리를 찾는 과정으로, 병 종류나 증세에 따라 혈자리는 다양하기 때문에 취혈과정 역시 복잡하다 할 수 있다. 그리고 취혈 과정은 대부분 한 번에 혈자리를 찾는 것이 아니라 위치를 옮겨가면서 혈자리를 찾고 있다. The practice course is conducted in the order of blood collection and acupuncture. Acupuncture is the process of finding an acupuncture point for placing the surgical needle, and the acupuncture process is also complicated because the acupuncture point varies depending on the type of disease or symptoms. And most of the acupuncture processes do not find acupuncture points at once, but move locations to find acupuncture points.

취혈과정은 도 8에 도시한 바와 같이 실습자의 손 동작, 즉 인체 모형(200)을 잡은 상태에서 혈자리를 찾는 손동작을 취하는 것부터 시작된다(s114). 그리고 이러한 혈을 찾는 손 움직임은 모션 캡처 유닛(100) 및 XR 헤드셋(300)이 지속적으로 인식하고, 인식된 정보는 중앙처리장치(500)가 전달받는다. As shown in FIG. 8, the blood collection process starts with the practitioner's hand gesture, that is, the hand gesture to find the acupoint while holding the human body model 200 (s114). In addition, the motion capture unit 100 and the XR headset 300 continuously recognize the movement of the hand to find the blood, and the recognized information is transmitted to the central processing unit 500 .

그러면 중앙처리장치(500)는 손의 공간적 위치와 인체 모형(200)에서의 위치를 서로 비교하여 취혈 위치의 정확성을 판단한다(s116). 이에 대한 결과는 중앙처리장치(500)가 XR 헤드셋(300)에 실시간 전달하며, 따라서 실습자는 상기 결과를 확인하면서 취혈 동작을 계속할 수 있다. 상기 결과 정보는 취혈 위치가 정확한 경우, 별도의 정보를 표시하지 않을 수 있다. 반대로 취혈 위치가 정확하지 않는 경우에만 취혈 위치가 아님을 실습자가 확인할 수 있도록 표시한다(s117). 이러한 정보 표시에 따라 실습자는 자신의 손 위치를 옮겨가면서 혈자리를 찾는 과정을 계속 수행하게 되며, 이러한 과정은 침을 놓게될 정확한 혈자리를 찾을 때까지 반복된다. 정확한 혈자리를 찾게 되면 중앙처리장치(500)는 현재 누르고 있는 자리가 정확한 혈자리임을 알려주고, 필요에 따라 상기 혈자리를 소정 색상으로 표시할 수 있다.Then, the central processing unit 500 compares the spatial position of the hand with the position in the human body model 200 to determine the accuracy of the blood collection position (s116). The central processing unit 500 transmits the result to the XR headset 300 in real time, so that the practitioner can continue the blood collection operation while checking the result. The result information may not display separate information when the blood collection location is accurate. Conversely, only when the location of the blood collection is not accurate, it is displayed so that the practitioner can confirm that it is not the location of the blood collection (s117). According to this information display, the practitioner continues the process of finding the acupoint by moving his or her hand position, and this process is repeated until the correct acupuncture point is found. When the correct acupoint is found, the central processing unit 500 notifies that the currently pressed position is the correct acupoint, and may display the acupoint in a predetermined color if necessary.

이러한 취혈 과정이 끝나면, 해당 혈자리에 시술 침을 시술하는 침술 과정을 수행하게 된다(s118). 침술 과정은 도 9에 도시한 바와 같이 자침을 위한 안내 메시지를 참조하면서, 마커가 구비된 시술 침(400)을 이용한다. After the blood collection process is finished, an acupuncture process of operating the surgical needle on the corresponding acupoint is performed (s118). The acupuncture process uses a surgical needle 400 equipped with a marker while referring to the guidance message for needle needle as shown in FIG. 9 .

침술과정은 실습자가 상기 혈자리에 시술 침을 놓는 행위인데, 이러한 침술 과정시 모션 캡처 유닛(100)의 제2 계산부(108)는 시술 침(400)의 위치, 방향, 각도를 계산한다(s120). 즉 시술 침(400)에 부착된 x, y, z축 방향의 마커(412, 414, 416)를 이용하면 제2 계산부(108)는 인체 모형(200)에 놓게 되는 시술 침(400)의 위치, 방향, 각도를 계산할 수 있는 것이다. 계산된 이러한 정보들은 중앙처리장치(500)로 실시간 전송된다.In the acupuncture process, the practitioner places the surgical needle on the acupuncture point. During this acupuncture process, the second calculation unit 108 of the motion capture unit 100 calculates the position, direction, and angle of the surgical needle 400 ( s120). That is, if the markers 412 , 414 , 416 in the x, y, and z-axis directions attached to the surgical needle 400 are used, the second calculation unit 108 is the operation needle 400 placed on the human body model 200 . It can calculate position, direction, and angle. The calculated information is transmitted to the central processing unit 500 in real time.

그러면 중앙처리장치(500)는 인체 모형(200)의 혈자리에 올바르게 시술 침(400)이 시술되었는지를 판단한다(s122). 즉 중앙처리장치(500)는 혈자리 별로 시술되는 시술 침(400)의 올바른 침술에 대한 정보들을 가지고 있기 때문에, 인체 모형(200)에 시술된 시술 침의 위치, 방향, 각도에 기초하여 자침이 올바르게 되었는지를 알 수 있다. 이러한 판단 결과에 대한 정보는 상기한 취혈 과정과 같이 동일하게 적용된다. 즉 자침이 올바른 경우 정보를 별도 표시하지 않을 수 있다. 반대로 시출 침(400)의 위치나, 방향, 각도가 정확하지 않는 경우 중앙처리장치(500)는 위치, 방향, 각도 중 적어도 하나 이상의 정보를 실습자가 확인할 수 있도록 XR 헤드셋(300)의 디스플레이부(340)에 표시한다. Then, the central processing unit 500 determines whether the surgical needle 400 has been correctly operated on the acupoint of the human body model 200 (s122). That is, since the central processing unit 500 has information on the correct acupuncture of the surgical needle 400 to be operated for each acupoint, the needle is determined based on the position, direction, and angle of the surgical needle treated on the human body model 200 . You can see if it's done right. Information on the result of this determination is applied in the same manner as in the above-described blood collection process. That is, if the needle is correct, information may not be separately displayed. Conversely, if the position, direction, or angle of the viewing needle 400 is not accurate, the central processing unit 500 controls the display unit ( 340) is indicated.

실습자는 이렇게 전달되는 정보를 통해 시술 침(400)이 잘못된 경우 즉시 확인할 수 있으며, 정보를 확인하면서 시술 침의 위치나 방향, 각도 등을 수정하면서 실습을 계속 진행한다(s123). The practitioner can immediately check if the operation needle 400 is incorrect through the information transmitted in this way, and continues the practice while checking the information and correcting the position, direction, angle, etc. of the operation needle (s123).

이처럼 본 발명의 실시 예는 취혈 및 침술 실습시에 취혈 및 침술이 잘못된 경우 즉시 잘못된 정보를 실습자가 확인하고 수정할 수 있도록 한다. 따라서 실습자가 혼자 실습을 할 때, 단계별로 실수를 하거나 잘못한 경우 이를 쉽게 인지할 수 있어 올바른 실습이 이루어지도록 한다. As such, the embodiment of the present invention enables the practitioner to immediately check and correct incorrect information when the acupuncture and acupuncture are wrong during the practice of acupuncture and acupuncture. Therefore, when practitioners practice alone, if they make a mistake or make a mistake step by step, they can easily recognize it so that correct practice is made.

또 본 발명은 신체와 거의 유사한 인체 모형과 함께 실제 침을 이용하기 때문에 실제의 침술 환경과 동일한 환경에서 실습을 할 수 있음을 알 수 있다. 더욱이 인체 모형에 뼈나 근육 정보를 추가하여 투영하기 때문에, 실습자는 마치 실제 신체를 이용하여 실습하는 것과 같은 이점이 있다.In addition, it can be seen that the present invention can be practiced in the same environment as the actual acupuncture environment because actual acupuncture is used together with a human body model that is almost similar to the body. Furthermore, since bone or muscle information is added to the human body model and projected, the practitioner has the same advantage as if he or she is practicing using a real body.

이상과 같이 본 발명의 도시된 실시 예를 참고하여 설명하고 있으나, 이는 예시적인 것들에 불과하며, 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자라면 본 발명의 요지 및 범위에 벗어나지 않으면서도 다양한 변형, 변경 및 균등한 타 실시 예들이 가능하다는 것을 명백하게 알 수 있을 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적인 사상에 의해 정해져야 할 것이다.Although described with reference to the illustrated embodiments of the present invention as described above, these are merely exemplary, and those of ordinary skill in the art to which the present invention pertains can use various methods without departing from the spirit and scope of the present invention. It will be apparent that modifications, variations, and other equivalent embodiments are possible. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

100: 모션 캡처 유닛 101: (모션 캡처용) 카메라
102: 유닛 박스 104: 거리 측정부
106: 제1 계산부 108: 제2 계산부
200: 인체 모형 300: XR 헤드셋
310: (헤드셋용)카메라 320: 영상처리부
330: 송수신부 340: 디스플레이부
400: 시술 침 412, 414, 416: 마커
410: 침 마커 부착 유닛 500: 중앙처리장치
600: 가상 모델
100: motion capture unit 101: (for motion capture) camera
102: unit box 104: distance measuring unit
106: first calculation unit 108: second calculation unit
200: manikin 300: XR headset
310: (for headset) camera 320: image processing unit
330: transceiver 340: display unit
400: operation needle 412, 414, 416: marker
410: needle marker attachment unit 500: central processing unit
600: virtual model

Claims (13)

소정 실습 공간 내에 위치하는 인체 모형;
상기 인체 모형의 혈 자리에 시술되는 시술 침;
실습자의 시선 및 손 동작을 인식하고 상기 실습자의 시선에 따라 상기 인체 모형에 뼈 또는 근육 정보를 가지는 가상 모델이 투영된 상태로 표시하는 XR 헤드셋;
상기 실습 공간내에 위치하는 상기 인체 모형과 함께 상기 시술 침 및 실습자가 착용하는 상기 XR 헤드셋의 공간 좌표를 제공하는 모션 캡처 유닛; 및
상기 모션 캡처 유닛이 제공한 상기 공간 좌표를 기초로 상기 인체 모형에 투영될 상기 가상 모델을 생성하여 상기 XR 헤드셋에 제공하며, 취혈 및 침술과정에 필요한 정보들을 실습자의 시선에 맞게 재구성하여 상기 XR 헤드셋에 제공하는 중앙처리장치를 포함하는 것을 특징으로 하는 확장현실 기반의 침술 시스템.
a human body model located in a predetermined practice space;
a surgical needle to be operated on the acupoint of the human body model;
an XR headset that recognizes the practitioner's gaze and hand motion and displays a projected virtual model having bone or muscle information on the human body model according to the practitioner's gaze;
a motion capture unit for providing spatial coordinates of the surgical needle and the XR headset worn by the practitioner together with the human body model located in the practice space; and
Based on the spatial coordinates provided by the motion capture unit, the virtual model to be projected onto the human body model is generated and provided to the XR headset, and information necessary for acupuncture and acupuncture procedures is reconstructed according to the eyes of the practitioner and the XR headset Extended reality-based acupuncture system, characterized in that it includes a central processing unit provided to.
제 1 항에 있어서,
상기 모션 캡처 유닛은,
상기 실습 공간 내에 위치하는 상기 인체 모형, 시술 침 및 XR 헤드셋을 촬영하는 복수 대의 카메라;
상기 인체 모형, 시술 침, XR 헤드셋과의 거리를 측정하는 거리 측정부;
측정된 상기 거리에 따라 인체 모형, 시술 침 및 XR 헤드셋의 위치 좌표를 계산하는 제1 계산부; 및
상기 인체 모형에 시술되는 시술 침의 위치, 방향 및 각도를 계산하는 제2 계산부를 포함하는 확장현실 기반의 침술 시스템.
The method of claim 1,
The motion capture unit,
a plurality of cameras for photographing the human body model, the surgical needle, and the XR headset located in the practice space;
a distance measuring unit for measuring a distance between the human body model, the surgical needle, and the XR headset;
a first calculation unit for calculating position coordinates of the human body model, the surgical needle, and the XR headset according to the measured distance; and
An extended reality-based acupuncture system including a second calculation unit for calculating the position, direction, and angle of the surgical needle to be operated on the human body model.
제 1 항에 있어서,
상기 인체 모형은,
실리콘 재질로 만들어진 신체의 전부 또는 일부이며, 관절 움직임이 가능한 모형인 확장현실 기반의 침술 시스템.
The method of claim 1,
The human body model is
An extended reality-based acupuncture system that is all or part of the body made of silicon and is a model that can move joints.
제 1 항에 있어서,
상기 시술 침은,
3개의 축(x, y, z축) 방향을 가리키는 마커; 및
상기 마커를 시술 침에 부착하는 침 마커 부착 유닛을 포함하는 확장현실 기반의 침술 시스템.
The method of claim 1,
The treatment needle is
a marker pointing in the direction of three axes (x, y, z); and
An extended reality-based acupuncture system comprising an acupuncture marker attaching unit for attaching the marker to a surgical needle.
제 1 항에 있어서,
상기 XR 헤드셋은,
머리에 착용 가능한 형상의 본체; 상기 본체의 전방에 설치되며 실습자의 시선과 손동작 인식을 위해 영상을 촬영하는 카메라;
상기 카메라가 촬영한 정보를 기초로 실습자의 손동작과 시선 정보를 처리하는 영상처리부;
상기 중앙처리장치와 정보 송수신을 위한 송수신부; 및
상기 중앙처리장치가 실습자에게 제공할 정보들을 실습자의 시선에 맞게 표시하는 투명재질의 디스플레이부를 포함하는 확장현실 기반의 침술 시스템.
The method of claim 1,
The XR headset,
a body shaped to be worn on the head; a camera installed in front of the main body and photographing an image for recognizing a practitioner's gaze and hand gestures;
an image processing unit for processing hand gestures and gaze information of a practitioner based on the information captured by the camera;
a transceiver for transmitting and receiving information with the central processing unit; and
An extended reality-based acupuncture system including a transparent material display for displaying information to be provided by the central processing unit to the practitioner according to the practitioner's gaze.
제 5 항에 있어서,
상기 디스플레이부는,
상기 본체의 전방에 상기 실습자의 눈의 전방에 이격되어 위치하는 확장현실 기반의 침술 시스템.
6. The method of claim 5,
The display unit,
An extended reality-based acupuncture system spaced apart from the front of the practitioner's eyes in front of the main body.
제 1 항에 있어서,
상기 가상 모델은,
상기 인체 모형의 뼈 및 근육 정보를 포함하며,
상기 인체 모형에 가상 모델이 투영되면 XR 헤드셋을 통해 상기 인체 모형으로부터 얻지 못하는 정보들을 표시해주는 확장현실 기반의 침술 시스템.
The method of claim 1,
The virtual model is
Includes bone and muscle information of the human body model,
An extended reality-based acupuncture system that displays information that cannot be obtained from the human body model through an XR headset when the virtual model is projected onto the human body model.
제 1 항에 있어서,
상기 인체 모형의 관절 움직임에 따라, 상기 가상 모델도 동일하게 움직이는 확장현실 기반의 침술 시스템.
The method of claim 1,
An extended reality-based acupuncture system in which the virtual model also moves in the same manner according to the joint movement of the human body model.
확장현실 기반의 침술 시스템을 이용하여 침술 실습을 하는 침술방법에 있어서,
실습 공간에 위치한 인체 모형과 동일한 위치에 있도록 가상 모델을 생성하는 제1 단계;
상기 가상 모델이 합성된 인체 모형을 실습자가 XR 헤드셋을 통해 확인하는 제2 단계;
상기 XR 헤드셋을 통해 인체 모형과 더불어 가상 모델의 정보도 확인하면서 상기 인체 모형에서 시술 침을 놓을 경혈점을 찾는 제3 단계; 및
상기 경혈점에 시술 침을 시술하는 제4 단계를 포함하여 수행되는 것을 특징으로 하는 확장현실 기반의 침술 방법.
In an acupuncture method for acupuncture practice using an extended reality-based acupuncture system,
A first step of generating a virtual model so as to be in the same position as the human body model located in the practice space;
a second step in which the practitioner confirms the human body model synthesized with the virtual model through an XR headset;
a third step of finding an acupoint in the human body model to place a surgical needle while checking information on the virtual model as well as the human body model through the XR headset; and
An extended reality-based acupuncture method, characterized in that it is performed including a fourth step of operating acupuncture points on the acupoints.
제 9 항에 있어서,
상기 제1 단계는,
상기 인체 모형의 움직임이 발생하면, 상기 움직임에 따라 변경된 좌표로 상기 가상 모델이 합성되는 확장현실 기반의 침술 방법.
10. The method of claim 9,
The first step is
When the movement of the human body model occurs, the augmented reality-based acupuncture method in which the virtual model is synthesized with coordinates changed according to the movement.
제 9 항에 있어서,
상기 제3 단계는,
상기 경혈점을 찾지 못하면, 상기 확장현실 기반의 침술 시스템은 상기 실습자에게 경혈점을 찾아가는 손동작 위치정보를 순차적으로 제공하는 확장현실 기반의 침술 방법.
10. The method of claim 9,
The third step is
If the acupuncture points are not found, the augmented reality-based acupuncture system sequentially provides hand gesture location information for finding the acupuncture points to the practitioner.
제 9 항에 있어서,
상기 제4 단계는,
상기 확장현실 기반의 침술 시스템이 상기 인체 모형에 시술된 상기 시술 침의 위치, 방향, 각도 정보를 제공받고, 상기 시술 침의 정상 시술여부를 판단하는 확장현실 기반의 침술 방법.
10. The method of claim 9,
The fourth step is
An extended reality-based acupuncture method in which the augmented reality-based acupuncture system receives information about the position, direction, and angle of the surgical needle treated on the human body model, and determines whether the surgical needle is normally operated.
제 12 항에 있어서,
상기 시술 침의 시술상태가 잘못된 경우, 수정된 상기 시술 침의 위치, 방향, 각도 정보를 안내하는 확장현실 기반의 침술 방법.
13. The method of claim 12,
An extended reality-based acupuncture method for guiding the corrected position, direction, and angle information of the surgical needle when the surgical state of the surgical needle is incorrect.
KR1020200152587A 2020-11-16 2020-11-16 eXtended reality-based acupuncture system and method thereof KR102443956B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200152587A KR102443956B1 (en) 2020-11-16 2020-11-16 eXtended reality-based acupuncture system and method thereof
PCT/KR2020/019050 WO2022102863A1 (en) 2020-11-16 2020-12-24 Extended-reality-based acupuncture system and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200152587A KR102443956B1 (en) 2020-11-16 2020-11-16 eXtended reality-based acupuncture system and method thereof

Publications (2)

Publication Number Publication Date
KR20220066495A KR20220066495A (en) 2022-05-24
KR102443956B1 true KR102443956B1 (en) 2022-09-20

Family

ID=81601424

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200152587A KR102443956B1 (en) 2020-11-16 2020-11-16 eXtended reality-based acupuncture system and method thereof

Country Status (2)

Country Link
KR (1) KR102443956B1 (en)
WO (1) WO2022102863A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446548B1 (en) 2002-05-27 2004-09-01 신진태 Oriental medicine acupuncture system in virtual reality environment
KR101887805B1 (en) 2017-03-23 2018-08-10 최재용 System for simulating laparoscopic surgery base on augmented reality and method for using the same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2443620B1 (en) * 2009-06-16 2018-09-05 SimQuest LLC Hemorrhage control simulator
KR20140140205A (en) * 2013-05-28 2014-12-09 (주) 엔젤메디칼 Vertebra Operation Simulation System and Method using Dummy
KR101853190B1 (en) * 2016-07-19 2018-04-27 동의대학교 산학협력단 Oriental medicine acupuncture device and method using augmented reality
CN106327983A (en) * 2016-09-06 2017-01-11 成都华域天府数字科技有限公司 Acupuncture acupoint determination auxiliary teaching system
KR102199189B1 (en) * 2018-12-14 2021-01-06 아주통신(주) Acupuncture training system using mixed reality and acupuncture training method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446548B1 (en) 2002-05-27 2004-09-01 신진태 Oriental medicine acupuncture system in virtual reality environment
KR101887805B1 (en) 2017-03-23 2018-08-10 최재용 System for simulating laparoscopic surgery base on augmented reality and method for using the same

Also Published As

Publication number Publication date
WO2022102863A1 (en) 2022-05-19
KR20220066495A (en) 2022-05-24

Similar Documents

Publication Publication Date Title
US11024084B2 (en) Systems and methods for providing medical information and for performing a medically-related process using augmented reality technology
US11262841B2 (en) Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing
US10825251B2 (en) Systems and methods for providing medical information and for performing a medically-related process using augmented reality technology
JP6693507B2 (en) Information processing apparatus, information processing method, and information processing system
TWI678181B (en) Surgical guidance system
US9922578B2 (en) Injection site training system
KR101694402B1 (en) System and method for assisting ambulatory rehabilitation using projected image
CN109069103A (en) ultrasound imaging probe positioning
Hennessey et al. Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions
CN109288591A (en) Surgical robot system
WO2018129234A1 (en) Improved accuracy of displayed virtual data with optical head mount displays for mixed reality
CN109143581A (en) A kind of head-mounted display apparatus and its eyeball tracking method
KR102582154B1 (en) User terminal for providing augmented reality medical image using depth camera and method for providing augmented reality medical image
JP2019512299A (en) Apparatus and method for movement tracking and simulation
KR102443956B1 (en) eXtended reality-based acupuncture system and method thereof
KR20180099399A (en) Fitness Center and Sports Facility System Using a Augmented reality virtual trainer
TWI569794B (en) Equipment for visual motor and/or neuromuscular therapy and method for visual motor and/or neuromuscular therapy using said equipment
JP6795744B2 (en) Medical support method and medical support device
TWI644285B (en) Acupuncture visualization Chinese medicine system and method thereof by using AR technology
US20240053821A1 (en) Head mounted display with visual condition compensation
KR102410812B1 (en) a living object cognition marker for XR system and the XR emergency medical treatment system using thereof
KR20200068239A (en) A method of placing a stimulator for non-invasive brain stimulation using augmented reality device
JP6425355B2 (en) Upper limb motor learning device
US20240164643A1 (en) A system for treating visual neglect
CN116453715A (en) Remote palpation method and system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant