KR102199189B1 - 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법 - Google Patents

혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법 Download PDF

Info

Publication number
KR102199189B1
KR102199189B1 KR1020180161711A KR20180161711A KR102199189B1 KR 102199189 B1 KR102199189 B1 KR 102199189B1 KR 1020180161711 A KR1020180161711 A KR 1020180161711A KR 20180161711 A KR20180161711 A KR 20180161711A KR 102199189 B1 KR102199189 B1 KR 102199189B1
Authority
KR
South Korea
Prior art keywords
acupuncture
human body
unit
body model
value
Prior art date
Application number
KR1020180161711A
Other languages
English (en)
Other versions
KR20200073492A (ko
Inventor
류창주
Original Assignee
아주통신(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주통신(주) filed Critical 아주통신(주)
Priority to KR1020180161711A priority Critical patent/KR102199189B1/ko
Publication of KR20200073492A publication Critical patent/KR20200073492A/ko
Application granted granted Critical
Publication of KR102199189B1 publication Critical patent/KR102199189B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H39/00Devices for locating or stimulating specific reflex points of the body for physical therapy, e.g. acupuncture
    • A61H39/08Devices for applying needles to such points, i.e. for acupuncture ; Acupuncture needles or accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/90ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to alternative medicines, e.g. homeopathy or oriental medicines

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Rehabilitation Therapy (AREA)
  • Epidemiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Alternative & Traditional Medicine (AREA)
  • Educational Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Educational Administration (AREA)
  • Pain & Pain Management (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Primary Health Care (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Finger-Pressure Massage (AREA)
  • Instructional Devices (AREA)

Abstract

본 발명은 혼합현실을 통해 경혈점이 표시된 3차원 인체모형에 사용자가 직접 시침하면서 반복시술을 할 수 있어 침술의 학습효과를 향상시킬 수 있는 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법에 관한 것이다.
본 발명은 인체의 전부 또는 일부가 3차원 형상으로 모형화된 인체모형(10)을 촬영하여 상기 촬영되는 인체모형(10)에 미리 경혈점의 위치가 표시된 가상인체가 합성된 혼합현실을 디스플레이하기 위한 머리착용디스플레이(20)와, 사용자가 파지하여 상기 인체모형(10)에 시침하면서 가해지는 압력을 측정하는 침부(32)의 가속도와 각속도를 측정하여 센서값을 생성하기 위한 침술실습기(30)와, 상기 침술실습기(30) 및 상기 머리착용디스플레이(20)와 통신하기 위한 서버통신부(41)를 포함하면서 상기 침술실습기(30)가 위치된 경혈점을 추출하고, 상기 측정된 센서값을 수신받아 상기 인체모형(10)에 시침한 침의 깊이와 각도를 산출하여 디스플레이하기 위한 제어서버(40)를 포함하는 혼합현실을 이용한 침술 훈련시스템에 있어서, 상기 인체모형(10)은, 상기 침술실습기(30)의 침부(32)를 감지하여 감지좌표값을 생성하여 상기 침술실습기(30)로 전송하기 위한 감지센서가 내장되고, 상기 제어서버(40)는, 상기 침술실습기(30)로부터 수신받은 센서값을 이용하여 상기 인체모형(10)에 시침되는 침의 속도를 산출하기 위한 실습값산출부(44)와, 상기 산출된 침의 깊이와 각도와 속도를 수신받아 미리 저장된 정상범위값과 비교분석하여 평가하기 위한 실습평가부(45)와, 상기 실습평가부(45)를 통해 미리 저장된 정상범위값과 상기 산출된 침의 깊이와 각도와 속도 사이의 오차를 산출하여 오차정보를 제공하기 위한 오차산출부(46)와, 상기 오차산출부(46)의 오차정보를 이용하여 상기 정상범위값으로 가이드하기 위해 가이드정보를 생성하여 피드백하기 위한 피드백부(47)와, 상기 피드백부(47)에서 생성된 가이드정보와 상기 서버통신부(41)를 통해 상기 머리착용디스플레이(20)로부터 수신받은 영상을 디스플레이하기 위한 서버디스플레이부(48)를 포함하여 구성된다.

Description

혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법{ACUPUNCTURE TRAINING SYSTEM USING MIXED REALITY AND ACUPUNCTURE TRAINING METHOD THEREOF}
본 발명은 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법에 관한 것으로, 보다 상세하게는 혼합현실을 통해 경혈점이 표시된 3차원 인체모형에 사용자가 직접 시침하면서 반복시술을 할 수 있어 침술의 학습효과를 향상시킬 수 있는 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법에 관한 것이다.
침술은 침으로 신체의 특정 부위를 찔러서 자극함으로써 신경계에 자극을 주어 특정한 치료 효과를 거두고자 하는 기법이다. 침술의 자극 부위는 증상에 따라 다르며, 손을 자극하는 수지침, 귀를 자극하는 이침, 발을 자극하는 족침, 신체 전체를 자극 대상으로 하는 체침 등이 있다.
이러한 침술을 익히기 위해서는 강의교재와 함께 경혈인형을 구입하여 직접 실습해보는 과정을 거치게 된다. 또한, 경혈인형에 기재된 경혈점의 명칭을 이용하여 경혈점의 위치와 명칭을 암기하고 숙지하며, 자신의 신체나 동료 학생의 신체를 대상으로 경혈점을 조합하고 시침하거나 인체피부와 비슷한 동물피부에 실습하고 있다.
그러나, 경혈인형에 미리 경혈점의 명칭이 기재되어 있기 때문에 경혈점을 암기하기 어려움이 발생하고, 자신의 신체나 동료 학생의 신체를 대상으로 실습할 경우에 실제 인체를 대상으로 하기 때문에 위험성이 높으며 훈련 횟수에 제한이 있어 충분한 실습을 하기 어려운 문제점이 있다.
이러한 문제점을 해소하기 위해 등록특허 제10-1256050호(등록일자: 2013년 04월 12일)에 기재된 바와 같이, 인체의 전부 또는 일부가 2차원 또는 3차원 형상으로 모형화된 몸체부와, 인체에 존재하는 다수의 경혈이 상기 몸체부에 표시되되 가압시 발광하는 LED소자가 부착되어 표시되고 LED소자별로 식별번호가 부여된 경혈부와, 상기몸체부에 장착된 스피커와, 상기 몸체부에 내장되고 상기 경혈부의 식별번호별 경혈정보가 음성파일로 저장된 저장부와, 상기 경혈부, 스피커 및 저장부와 연결되도록 상기 몸체부에 내장되고 특정 경혈부에서 가압이 인지되면 상기 저장부에서 해당 경혈정보의 음성파일을 추출하여 상기 스피커로 송출하는 제어부를 포함하는 경혈모형 및 경혈정보DB가 구축된 관리서버를 포함하여 구성되며, 상기 관리서버는 상기 경혈모형의 저장부 또는 제어부와 유·무선통신으로 연결되어 상기 경혈정보를 주기적으로 갱신하는 경혈모형을 이용한 학습관리시스템을 사용하고 있다.
상기 등록특허는 경혈의 위치를 파악하고 익히는데 도움을 줄 수 있지만, 여전히 사용자가 직접 침술을 실습하기 어려워 침술의 정확성을 향상시키기 어려운 문제점이 있다.
또한, 침술 실습은 한 명의 피실습자와 다수의 실습자로 나눠 실습을 진행하지만, 안전성 등으로 인해 참관위주로 실습을 진행하기 때문에 참관위주의 실습으로 인해 정확한 침술 훈련을 하기 어려운 문제점이 있다.
또한, 전체 경혈에 일회성으로 실습을 진행한 후 자신이나 동료 학생을 대상으로 자침이나 시침으로 연습하지만, 안전의 위험이 있고 반복적인 실습이 불가능하기 때문에 충분한 실습과 훈련 없이 환자를 대상으로 임상실습을 진행하게 되어 빈번한 의료사고가 발생하는 문제점이 있다.
이에, 개별로 침술 훈련을 진행할 수 있으면서 안전하고 반복적인 실습을 할 수 있는 시스템의 개발이 요구되고 있는 실정이다.
본 발명은 상술한 문제점을 해결하기 위해 제안된 것으로, 혼합현실을 통해 3차원 인체모형에 경혈점을 표시하여 사용자가 경혈점의 위치를 파악할 수 있고, 경혈점이 표시된 3차원 인체모형에 직접 시침하면서 반복실습할 수 있는 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법을 제공하는 목적이 있다.
또한, 사용자가 3차원 인체모형에 시침을 실습하기 위해 사용되는 침술실습기를 통해 침의 깊이와 각도, 속도를 측정할 수 있는 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법을 제공하는 목적이 있다.
또한, 3차원 인체모형과 침술실습기를 통해 사용자의 시침을 인식하여 침술순서, 경혈점 위치, 제한시간에 대해 객관적으로 사용자의 침술 숙달 정도를 평가할 수 있는 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법을 제공하는 목적이 있다.
본 발명이 해결하려는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기의 목적을 달성하기 위한 본 발명에 의한 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법은, 인체의 전부 또는 일부가 3차원 형상으로 모형화된 인체모형(10)을 촬영하여 상기 촬영되는 인체모형(10)에 미리 경혈점의 위치가 표시된 가상인체가 합성된 혼합현실을 디스플레이하기 위한 머리착용디스플레이(20)와, 사용자가 파지하여 상기 인체모형(10)에 시침하면서 가해지는 압력을 측정하는 침부(32)의 가속도와 각속도를 측정하여 센서값을 생성하기 위한 침술실습기(30)와, 상기 침술실습기(30) 및 상기 머리착용디스플레이(20)와 통신하기 위한 서버통신부(41)를 포함하면서 상기 침술실습기(30)가 위치된 경혈점을 추출하고, 상기 측정된 센서값을 수신받아 상기 인체모형(10)에 시침한 침의 깊이와 각도를 산출하여 디스플레이하기 위한 제어서버(40)를 포함하는 혼합현실을 이용한 침술 훈련시스템에 있어서, 상기 인체모형(10)은, 상기 침술실습기(30)의 침부(32)를 감지하여 감지좌표값을 생성하여 상기 침술실습기(30)로 전송하기 위한 감지센서가 내장되고, 상기 제어서버(40)는, 상기 침술실습기(30)로부터 수신받은 센서값을 이용하여 상기 인체모형(10)에 시침되는 침의 속도를 산출하기 위한 실습값산출부(44)와, 상기 산출된 침의 깊이와 각도와 속도를 수신받아 미리 저장된 정상범위값과 비교분석하여 평가하기 위한 실습평가부(45)와, 상기 실습평가부(45)를 통해 미리 저장된 정상범위값과 상기 산출된 침의 깊이와 각도와 속도 사이의 오차를 산출하여 오차정보를 제공하기 위한 오차산출부(46)와, 상기 오차산출부(46)의 오차정보를 이용하여 상기 정상범위값으로 가이드하기 위해 가이드정보를 생성하여 피드백하기 위한 피드백부(47)와, 상기 피드백부(47)에서 생성된 가이드정보와 상기 서버통신부(41)를 통해 상기 머리착용디스플레이(20)로부터 수신받은 영상을 디스플레이하기 위한 서버디스플레이부(48)를 포함하여 구성된다.
또한, 상기 머리착용디스플레이(20)는, 상기 인체모형(10)을 촬영하여 영상을 생성하기 위한 카메라부(21)와, 상기 카메라부(21)를 통해 촬영되는 영상의 인체모형을 인식하기 위한 모형인식부(22)와, 상기 모형인식부(22)를 통해 인식된 인체모형에 미리 경혈점이 표시되어 저장된 가상인체를 합성하기 위한 영상합성부(23)와, 상기 영상합성부(23)에서 합성된 영상을 디스플레이하기 위한 영상플레이부(24)와, 상기 영상합성부(23)에서 합성된 영상을 상기 제어서버(40)로 전송하기 위해 상기 제어서버(40)와 통신하기 위한 송수신부(25)를 포함하여 구성될 수 있다.
이때, 상기 침술실습기(30)는, 사용자가 파지하기 위해 일정길이로 형성된 파지부(31)와, 상기 파지부(31)의 일측에 형성되며 상기 인체모형(10)에 시침하기 위해 접촉되면서 가해지는 압력값을 생성하기 위한 압력센서가 구비된 침부(32)와, 상기 파지부(31)의 타측에 구성되어 상기 인체모형(10)에 시침하는 침부(32)의 가속도와 각속도를 측정하여 센서값을 생성하기 위한 센서부(33)와, 상기 센서부(33)에서 측정된 센서값과 상기 침부(32)에서 측정된 압력값을 상기 제어서버(40)로 전송하기 위해 상기 제어서버(40)와 통신하고 상기 인체모형(10)과 통신하기 위한 실습기통신부(34)와, 상기 실습기통신부(34)를 통해 상기 침부(32)가 상기 인체모형(10)에 접촉되어 상기 인체모형(10)으로부터 전송되는 감지좌표값을 수신받아 상기 제어서버(40)로 전달하기 위한 좌표전달부(35)를 포함하여 구성되는 것이 바람직하다.
삭제
본 발명에 있어서, 사용자의 머리에 착용되는 머리착용디스플레이(20)를 이용하여 인체가 3차원 형상으로 모형화되어 감지센서가 내장된 인체모형(10)을 촬영하는 촬영단계와, 상기 머리착용디스플레이(20)에서 상기 촬영된 인체모형(10)에 미리 경혈점의 위치가 표시된 가상인체를 합성하여 합성된 영상을 생성하여 디스플레이하는 가상인체합성단계와, 상기 사용자가 파지하는 침술실습기(30)의 일측에 형성된 침부(32)를 상기 인체모형(10)에 접촉시켜 시침하는 시침단계와, 상기 인체모형(10)의 감지센서에서 상기 침술실습기(30)를 감지하여 감지좌표값을 생성하여 상기 침술실습기(30)로 전송하는 시침위치감지단계와, 상기 침술실습기(30)의 침부(32)에 압력센서가 구비되어 상기 인체모형(10)에 시침하면서 가해지는 압력을 측정하여 압력값을 생성하여 제어서버(40)로 전송하는 압력값측정단계와, 상기 침술실습기(30)의 타측에 구성된 각속도와 가속도를 측정하기 위한 센서부(33)를 통해 상기 인체모형(10)에 시침된 침술실습기(30)의 각속도와 가속도를 측정하여 센서값을 생성하여 상기 제어서버(40)로 전송하는 센서값측정단계와, 상기 침술실습기(30)로부터 감지좌표값을 전달받은 제어서버(40)에서 미리 경혈점의 위치별로 저장된 좌표 중 상기 감지좌표값과 동일한 좌표를 매칭하여 상기 인체모형(10)에 상기 침술실습기(30)가 위치된 경혈점을 추출하는 위치추출단계와, 상기 제어서버(40)에서 상기 침술실습기(30)로부터 압력값과 센서값을 수신받아 상기 인체모형(10)에 시침한 침의 깊이와 각도와 속도를 산출하는 실습값산출단계와, 상기 제어서버(40)에서 상기 산출한 침의 깊이와 각도와 속도를 미리 저장된 정상범위값과 비교하여 평가하는 평가단계와, 상기 제어서버(40)에서 상기 산출한 침의 깊이와 각도와 속도가 미리 저장된 정상범위값 내에 포함되지 않아 발생하는 오차를 산출하여 오차정보를 생성하는 오차산출단계와, 상기 제어서버(40)에서 상기 오차정보가 생성된 침의 깊이와 각도와 속도를 상기 정상범위값으로 가이드하기 위해 가이드정보를 생성하는 피드백단계와, 상기 제어서버(40)에서 상기 생성된 가이드정보를 디스플레이하는 디스플레이단계를 포함하여 구성된다.
상술한 바와 같이 본 발명에 따르면, 혼합현실을 통해 3차원 인체모형에 경혈점을 표시함으로써 사용자가 쉽게 경혈점의 위치를 파악할 수 있어 효과적으로 경혈점의 위치를 습득할 수 있게 되며, 경혈점이 표시된 3차원 인체모형에 직접 시침할 수 있어 학습효과를 향상시킬 수 있음은 물론 안전하게 반복실습할 수 있어 숙련된 침술기술을 획득할 수 있도록 도움을 줄 수 있는 효과가 있다.
또한, 사용자가 3차원 인체모형에 시침을 실습하기 위해 사용되는 침술실습기를 통해 사용자가 시침한 침의 깊이와 각도, 속도를 측정할 수 있어 사용자의 침술에 대한 정확성을 향상시킬 수 있을 뿐만 아니라 높은 수준의 환자 안전성을 보장할 수 있어 의료사고를 미연에 방지할 수 있는 효과가 있다.
또한, 3차원 인체모형과 침술실습기를 통해 사용자의 시침을 인식하여 침술순서, 경혈점 위치, 제한시간에 대해 공정하고 객관적으로 사용자의 침술 숙달 정도를 평가하여 피드백을 제공함으로 인해 사용자가 능동적으로 침술을 학습할 수 있는 효과가 있다.
도 1은 본 발명의 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템,
도 2는 본 발명의 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템의 머리착용디스플레이,
도 3 및 도 4는 본 발명의 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템의 침술실습기,
도 5는 본 발명의 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템의 제어서버,
도 6은 본 발명의 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템의 제어서버의 서버디스플레이부,
도 7은 본 발명의 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템을 이용한 침술 훈련방법.
이하, 첨부된 도면을 참조하여 본 발명에 의한 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법을 상세히 설명한다.
도 1은 본 발명의 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템이고, 도 2는 본 발명의 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템의 머리착용디스플레이이며, 도 3 및 도 4는 본 발명의 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템의 침술실습기이다.
또한, 도 5는 본 발명의 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템의 제어서버이며, 도 6은 본 발명의 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템의 제어서버의 서버디스플레이부이고, 도 7은 본 발명의 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템을 이용한 침술 훈련방법이다.
상기 도면의 구성 요소들에 인용부호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있으며, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 설명은 생략한다. 또한, '상부', '하부', '앞', '뒤', '선단', '전방', '후단' 등과 같은 방향성 용어는 개시된 도면(들)의 배향과 관련하여 사용된다. 본 발명의 실시 예의 구성요소는 다양한 배향으로 위치설정될 수 있기 때문에 방향성 용어는 예시를 목적으로 사용되는 것이지 이를 제한하는 것은 아니다.
본 발명의 바람직한 일실시 예에 의한 혼합현실을 이용한 침술 훈련시스템은, 상기 도 1에 도시된 바와 같이, 인체의 전부 또는 일부가 3차원 형상으로 모형화되어 감지좌표값을 생성하는 감지센서가 내장된 인체모형(10)과, 상기 인체모형(10)을 촬영하고 인식하여 상기 촬영되는 인체모형(10)에 미리 경혈점의 위치가 표시된 가상인체가 합성된 혼합현실을 디스플레이하기 위한 머리착용디스플레이(20)와, 사용자가 파지하여 상기 인체모형(10)의 감지센서에 감지되어 생성된 감지좌표값을 전달받을 수 있도록 상기 머리착용디스플레이(20)를 통해 경혈점의 위치가 표시되는 인체모형(10)에 시침하면서 가해지는 압력을 측정하기 위한 압력센서가 구비된 침부(32)와, 상기 침부(32)의 가속도와 각속도를 측정하여 센서값을 생성하기 위한 센서부(33)가 포함된 침술실습기(30)와, 상기 침술실습기(30)로부터 감지좌표값을 수신받아 미리 경혈점의 위치별로 저장된 좌표 중 상기 감지좌표값과 동일한 좌표를 매칭하여 상기 침술실습기(30)가 위치된 경혈점을 추출하고, 상기 측정된 센서값을 수신받아 상기 인체모형(10)에 시침한 침의 깊이와 각도를 산출하여 디스플레이하기 위한 제어서버(40)를 포함하여 구성될 수 있다.
상기 인체모형(10)은, 인체의 피부와 유사한 실리콘과 같은 연질의 재질을 이용하여 인체의 전부 또는 일부가 3차원 형상으로 모형화되어 제작된다.
상기와 같이 실리콘과 같은 연질의 재질을 이용함으로써 사용자가 상기 인체모형(10)에 시침을 할 때 촉감이 실제 인체와 유사하도록 하여 현실감을 향상시킬 수 있게 되며, 안전하게 침술을 반복실습할 수 있다.
또한, 상기 인체모형(10)은 인체의 부위별로 분리가능하도록 형성되는 것이 바람직하다. 상기 인체모형(10)이 인체의 부위별로 분리가능하도록 형성됨으로서 추후 고장 등이 발생할 경우에 부위별로 교체하여 조립할 수 있으며 사용자가 원하는 부위만 사용할 수 있게 된다.
상기 인체모형(10)에는 상기 침술실습기(30)가 접촉되면 감지하기 위한 감지센서가 내장되어 있으며, 상기 침술실습기(30)와 연동되어 상기 침술실습기(30)의 위치를 측정하기 위해 상기 침술실습기(30)를 감지하면 감지좌표값을 생성하여 상기 침술실습기(30)로 전송한다.
상기 인체모형(10)을 촬영하기 위한 머리착용디스플레이(20)는, 상기 도 2에 도시된 바와 같이, 상기 인체모형(10)을 촬영하여 영상을 생성하기 위한 카메라부(21)와, 상기 카메라부(21)를 통해 촬영되는 영상의 인체모형을 인식하기 위한 모형인식부(22)와, 상기 모형인식부(22)를 통해 인식된 인체모형에 미리 경혈점이 표시되어 저장된 가상인체를 합성하기 위한 영상합성부(23)와, 상기 영상합성부(23)에서 합성된 영상을 디스플레이하기 위한 영상플레이부(24)와, 상기 영상합성부(23)에서 합성된 영상을 상기 제어서버(40)로 전송하기 위해 상기 제어서버(40)와 통신하기 위한 송수신부(25)를 포함하여 구성된다.
상기 머리착용디스플레이(20)는 사용자의 머리에 착용하는 형태의 디스플레이 장치로서, 머리에 착용한 후 사용자의 눈에 근접한 위치에 소형 디스플레이가 있어 시차를 이용한 3차원 영상이 투영된다.
또한, 상기 머리착용디스플레이(20)는 사용자의 움직임을 트래킹하는 자이로 센서와 움직임에 따라 영상을 만드는 렌더링 기능 등이 있다.
상기 카메라부(21)는, 상기 사용자의 움직임에 따라 촬영되며, 상기 인체모형(10)을 촬영하여 영상을 생성한다.
상기 모형인식부(22)는, 상기 카메라부(21)를 통해 촬영되는 영상을 수신받아 상기 영상 속 인체모형을 인식하게 된다.
상기 영상합성부(23)는, 미리 경혈점이 표시되어 저장된 가상인체가 저장되어 있어야 하며, 상기 모형인식부(22)에서 인식된 인체모형(10)에 따라 상기 가상인체가 합성되어 합성된 영상을 생성한다.
상기 영상플레이부(24)는, 상기 합성된 영상을 디스플레이한다.
상기 영상플레이부(24)를 통해 상기 영상합성부(23)에서 상기 촬영되는 인체모형(10)에 상기 가상인체가 합성되어 혼합현실을 디스플레이할 수 있어 사용자가 경혈점의 위치를 쉽게 파악할 수 있게 될 뿐만 아니라 현실감을 향상시켜 학습효과를 향상시킬 수 있게 된다.
상기 송수신부(25)는, 상기 영상합성부(23)에서 합성된 영상을 실시간으로 상기 제어서버(40)로 전송하기 위한 것으로, 블루투스, 와이파이 등과 같은 무선네트워크를 이용하는 것이 바람직하다.
상기 침술실습기(30)는, 상기 도 3 내지 도 4에 도시된 바와 같이, 사용자가 파지하기 위해 일정길이로 형성된 파지부(31)와, 상기 파지부(31)의 일측에 형성되며 상기 인체모형(10)에 시침하기 위해 접촉되면서 가해지는 압력값을 생성하기 위한 압력센서가 구비된 침부(32)와, 상기 파지부(31)의 타측에 구성되어 상기 인체모형(10)에 시침하는 침부(32)의 가속도와 각속도를 측정하여 센서값을 생성하기 위한 센서부(33)와, 상기 센서부(33)에서 측정된 센서값과 상기 침부(32)에서 측정된 압력값을 상기 제어서버(40)로 전송하기 위해 상기 제어서버(40)와 통신하고 상기 인체모형(10)과 통신하기 위한 실습기통신부(34)와, 상기 실습기통신부(34)를 통해 상기 침부(32)가 상기 인체모형(10)에 접촉되어 상기 인체모형(10)으로부터 전송되는 감지좌표값을 수신받아 상기 제어서버(40)로 전달하기 위한 좌표전달부(35)를 포함할 수 있다.
상기 파지부(31)는, 일정길이를 갖는 바형상으로 형성되어 있으며, 사용자가 파지하게 된다.
상기 침부(32)는, 상기 파지부(31)의 일측에서 타측방향으로 갈수록 외경이 확장되도록 형성되는 것이 바람직하다. 상기 침부(32)가 상기 파지부(31)의 일측에서 타측방향으로 갈수록 외경이 확장되도록 형성됨으로써 상기 인체모형(10)에 시침할 경우에 사용자가 원하는 경혈점에 위치되도록 할 수 있다.
상기 침부(32)에는 상기 인체모형(10)에 시침하기 위해 접촉되면서 사용자의 힘에 의해 가해지는 압력값을 측정하기 위한 압력센서가 구비된다.
상기 침부(32)에 압력센서가 구비됨으로 인해 추후 사용자가 상기 인체모형(10)에 시침한 침의 깊이를 산출할 수 있게 된다. 즉, 사용자가 상기 침부(32)를 상기 인체모형(10)에 접촉하면서 가하는 압력에 따라 실제로 사용자가 시침할 경우에 인체 내로 놓아지는 침의 깊이를 산출할 수 있게 되어 침술의 정확성을 향상시킬 수 있게 된다.
상기 센서부(33)는, 상기 파지부(31)의 타측에 구성되며, 상기 인체모형(10)에 시침하는 침부(32)의 가속도와 각속도를 측정하기 위해 가속도계, 각속도계나 IMU를 사용할 수 있다.
또한, 상기 센서부(33)는 사용자가 상기 인체모형(10)에 상기 침부(32)를 접촉시킨 후 일정시간 정지하는 동안 가속도와 각속도를 측정하여 센서값을 생성한다.
상기 실습기통신부(34)는, 상기 제어서버(40)와 상기 인체모형(10)과 통신하기 위해 무선네트워크를 사용할 수 있다. 이때, 상기 무선네트워크는 블루투스, 와이파이 등을 사용할 수 있다.
상기 실습기통신부(34)를 통해 상기 침부(32)에서 측정된 압력값과 상기 센서부(33)에서 측정된 센서값을 상기 제어서버(40)로 전송하게 된다.
또한, 상기 실습기통신부(34)는 상기 침부(32)가 상기 인체모형(10)에 접촉되어 상기 인체모형(10)으로부터 감지좌표값을 수신받게 된다.
상기 좌표전달부(35)는, 상기 침부(32)가 상기 인체모형(10)에 위치된 지점을 추출하여 위치된 지점의 경혈점을 추출하기 위해 상기 인체모형(10)으로부터 수신받은 감지좌표값을 상기 제어서버(40)로 전달한다.
상기 제어서버(40)는, 상기 도 5에 도시된 바와 같이, 상기 침술실습기(30)와 상기 머리착용디스플레이(20)와 통신하기 위한 서버통신부(41)와, 상기 서버통신부(41)를 이용하여 상기 머리착용디스플레이(20)로 전송하기 위해 미리 경혈점의 위치가 표시된 가상인체를 생성하기 위한 가상인체생성부(42)와, 상기 서버통신부(41)를 통해 상기 침술실습기(30)로부터 감지좌표값을 전달받아 미리 경혈점의 위치별로 저장된 좌표 중에서 상기 감지좌표값과 동일한 좌표를 매칭하여 상기 침술실습기(30)의 침부(32)가 위치된 경혈점을 추출하기 위한 위치추출부(43)와, 상기 서버통신부(41)를 통해 상기 침술실습기(30)로부터 수신받은 센서값과 압력값을 이용하여 상기 인체모형(10)에 시침되는 침의 깊이와 각도와 속도를 산출하기 위한 실습값산출부(44)와, 상기 실습값산출부(44)에서 산출된 침의 깊이와 각도와 속도를 수신받아 미리 저장된 정상범위값과 비교분석하여 평가하기 위한 실습평가부(45)와, 상기 실습평가부(45)를 통해 미리 저장된 정상범위값과 상기 산출된 침의 깊이와 각도와 속도 사이의 오차를 산출하여 오차정보를 제공하기 위한 오차산출부(46)와, 상기 오차산출부(46)의 오차정보를 이용하여 상기 정상범위값으로 가이드하기 위해 가이드정보를 생성하여 피드백하기 위한 피드백부(47)와, 상기 피드백부(47)에서 생성된 가이드정보와 상기 서버통신부(41)를 통해 상기 머리착용디스플레이(20)로부터 수신받은 영상을 디스플레이하기 위한 서버디스플레이부(48)를 포함하여 구성될 수 있다.
상기 서버통신부(41)는, 상기 침술실습기(30)와 상기 머리착용디스플레이(20)와 통신하기 위해 와이파이, 블루투스 등과 같은 무선 네트워크를 사용한다.
상기 가상인체생성부(42)는, 미리 경혈점의 위치가 표시된 가상인체를 생성한다. 상기 가상인체는 사용자가 착용하는 머리착용디스플레이(20)로 전송되어 상기 머리착용디스플레이(20)에 촬영되어 인체모형(10)에 합성되어 디스플레이된다.
상기 가상인체에 표시되는 경혈점은 WHO 기준으로 361개의 혈자리와 그에 대한 위치 및 명칭을 사용할 수 있다.
상기 인체모형(10)에 합성할 수 있도록 상기 가상인체를 생성함으로써 사용자가 인체에 대한 경혈점의 위치를 쉽게 파악할 수 있게 되며, 상기 경혈점의 위치 및 명칭을 암기할 때 도움을 줄 수 있게 된다.
상기 위치추출부(43)는, 미리 상기 인체모형(10)에 표시되는 경혈점의 위치별로 좌표가 저장되어 있어야 하며, 상기 침술실습기(30)로부터 감지좌표값을 전달받아 미리 경혈점의 위치별로 저장된 좌표 중에서 상기 감지좌표값과 동일한 좌표를 매칭한다.
이때, 상기 경혈점의 위치별로 저장된 좌표는 각 경혈점별로 일정범위의 좌표가 저장되어 있어야 한다. 그 이유는 각 경혈점은 특정 좌표를 기준으로 일정범위 내에 시침할 수 있기 때문이다.
상기 위치추출부(43)를 통해 상기 인체모형(10)에 위치된 침술실습기(30)의 위치를 파악할 수 있게 되며, 상기 침술실습기(30)의 침부(32)가 위치된 경혈점을 추출할 수 있게 된다.
상기 위치추출부(43)는 상기 침술실습기(30)의 침부(32)가 위치된 경혈점을 추출한 후 누적하여 저장할 수 있고, 일정시간 지나면 리셋될 수 있다. 상기 위치추출부(43)에서 상기 침술실습기(30)가 위치된 경혈점을 누적저장함으로써 경혈점의 조합을 파악할 수 있게 되어 추후 증상별 경혈점의 조합이 정확히 되었는지 판단할 수 있도록 도움을 줄 수 있게 된다.
상기 실습값산출부(44)는, 상기 침술실습기(30)로부터 수신받은 센서값과 압력값을 이용하여 상기 인체모형(10)에 시침되는 침의 깊이와 각도와 속도를 산출할 수 있다.
다시 말해, 상기 실습값산출부(44)는 상기 침술실습기(30)로부터 수신받은 압력값을 이용하여 상기 인체모형(10)에 시침되는 침의 깊이를 산출하고, 상기 침술실습기(30)로부터 수신받은 센서값의 각속도값을 이용하여 상기 침술실습기(30)의 기울기를 산출하여 상기 인체모형(10)에 시침되는 침의 각도를 산출하며, 상기 침술실습기(30)로부터 수신받은 센서값의 가속도값을 이용하여 사용자가 상기 인체모형(10)에 시침하는 속도를 산출할 수 있게 된다.
상기 실습값산출부(44)를 통해 산출된 침의 깊이와 각도와 속도는 추후 상기 서버디스플레이부(48)로 디스플레이되어 사용자가 실시간으로 자신이 시침한 침에 대한 정보를 확인할 수 있게 되며, 사용자가 자신이 실습한 정보를 정확히 습득할 수 있어 침술 숙련도를 향상시킬 수 있게 된다.
또한, 상기 실습값산출부(44)는 상기 산출된 침의 깊이와 각도와 속도가 반영되어 상기 가상인체에 침이 놓아지는 영상을 생성할 수 있다.
상기 실습값산출부(44)에서 산출된 침의 깊이와 각도와 속도를 이용하여 사용자에 대한 실습을 평가할 수 있다.
상기 실습평가부(45)는, 상기 실습값산출부(44)에서 산출된 침의 깊이와 각도와 속도를 수신받아 미리 저장된 정상범위값과 비교분석하여 평가한다.
여기서, 상기 실습평가부(45)에는 남성, 여성, 연령층, 증상 등을 포함한 가상진료정보가 미리 설정되어 있어야 하며, 미리 설정된 가상진료정보에 따라 경혈점의 위치와 침의 깊이, 침의 각도, 침의 속도의 정상범위값이 설정되어 있을 수도 있다.
상기 정상범위값은 WHO의 규정에 따른 침의 깊이와 각도와 속도가 저장되어 있다.
상기 실습평가부(45)는 상기 산출된 침의 깊이와 각도와 속도가 미리 저장된 정상범위값 내에 포함될 경우에 상기 침술실습기(30)로 가해지는 압력과 기울기 등이 정상이라고 판단하고, 상기 산출된 침의 깊이와 각도와 속도가 미리 저장된 정상범위값 내에 포함되지 않을 경우에 비정상이라고 판단하여 추후 상기 오차산출부(46)를 통해 각각 상기 산출된 침의 깊이와 각도와 속도와 미리 저장된 정상범위값의 오차를 산출한다.
또한, 상기 실습평가부(45)는 상기 위치추출부(43)를 통해 추출된 상기 침술실습기(30)의 위치가
또한, 상기 실습평가부(45)는 상기 위치추출부(43)를 통해 추출된 상기 침술실습기(30)의 위치가 상기 가상진료정보에 따른 경혈점의 위치와 동일한지 평가할 수 있으며, 상기 위치추출부(43)에 누적저장된 상기 침술실습기(30)가 위치된 경혈점의 순서를 이용하여 침술순서를 평가할 수 있게 된다.
이때, 상기 실습평가부(45)에서 상기 침술실습기(30)의 위치를 평가할 경우에는 상기 머리착용디스플레이(20)를 통해 상기 인체모형(10)에 상기 가상인체를 합성하지 않고 디스플레이되는 것이 바람직하다.
상기 실습평가부(45)로 구성됨으로 인해 사용자의 시침을 공정하고 객관적으로 사용자의 침술 숙달 정도를 평가할 수 있게 된다.
상기 오차산출부(46)는, 상기 실습평가부(45)를 통해 미리 저장된 정상범위값과 상기 산출된
상기 산출된 침의 깊이와 각도와 속도가 미리 저장된 정상범위값 내에 포함되지 않아 비정상이라고 판단된 경우에 미리 저장된 정상범위값과 상기 산출된 침의 깊이와 각도와 속도를 비교하여 오차를 산출하여 오차정보를 생성하게 된다.
상기 오차산출부(46)는 생성된 오차정보를 상기 서버디스플레이부(48)나 상기 머리착용디스플레이(20)로 전송하여 디스플레이할 수 있으며, 사용자가 자신의 침술에 대한 오차를 확인할 수 있도록 한다.
상기 피드백부(47)는, 상기 오차정보가 생성된 침의 깊이와 각도와 속도를 상기 정상범위값으로 가이드하기 위해 가이드정보를 생성할 수 있다.
상기 생성된 가이드정보는 상기 서버디스플레이부(48)나 상기 머리착용디스플레이(20)로 디스플레이될 수 있으며, 상기 서버디스플레이부(48)나 상기 머리착용디스플레이(20)에 디스플레이되는 영상에 중첩되어 사용자가 상기 가이드정보에 따라 시침할 수 있도록 할 수 있다.
상기 서버디스플레이부(48)는, 상기 도 6에 도시된 바와 같이, 상기 피드백부(47)에서 생성된 가이드정보와 상기 서버통신부(41)를 통해 상기 머리착용디스플레이(20)로부터 수신받은 영상을 디스플레이할 수 있다.
상기와 같이 구성된 혼합현실을 이용한 침술 훈련시스템을 이용한 침술 훈련방법은, 상기 도 7에 도시된 바와 같이, 상기 머리착용디스플레이(20)의 카메라부(21)를 통해 상기 인체모형(10)을 촬영한다(S100).
상기 머리착용디스플레이(20)는 상기 촬영된 인체모형(10)에 상기 가상인체를 합성하여 합성된 영상을 생성한 후 상기 영상플레이부(24)를 통해 디스플레이한다(S110).
그 후 상기 사용자가 상기 경혈점이 표시된 인체모형(10)에 상기 침술실습기(30)의 침부(32)를 접촉시켜 시침한다(S120).
상기 인체모형(10)에 내장된 감지센서는 상기 침술실습기(30)를 갑지하여 상기 침술실습기(30)가 접촉된 감지좌표값을 생성하여 상기 침술실습기(30)로 전송한다(S130). 상기 침술실습기(30)는 상기 수신받은 감지좌표값을 상기 제어서버(40)로 전달한다.
상기 인체모형(10)에 접촉된 침술실습기(30)의 침부(32)에 구비된 압력센서를 통해 상기 침술실습기(30)에 가해지는 압력을 측정하여 압력값을 생성하여 상기 제어서버(40)로 전송한다(S140).
또한, 상기 인체모형(10)에 접촉된 침술실습기(30)의 센서부(33)는 상기 침술실습기(30)의 현상태에 대한 각속도와 가속도를 측정하여 센서값을 생성하고 상기 제어서버(40)로 전송한다(S150).
상기 제어서버(40)는 상기 침술실습기(30)로부터 상기 감지좌표값을 수신받고, 미리 상기 인체모형(10)에 표시되는 경혈점의 위치별로 저장된 좌표 중에서 상기 감지좌표값과 동일한 좌표를 매칭시킨 후 해당 좌표에 해당되는 경혈점을 추출한다(S160).
상기 경혈점을 추출함으로써 상기 인체모형(10)에 상기 침술실습기(30)가 위치된 경혈점을 파악할 수 있게 된다.
상기 제어서버(40)에서 상기 침술실습기(30)로부터 수신받은 압력값을 이용하여 사용자가 상기 인체모형(10)에 시침한 침의 깊이를 산출하며, 상기 침술실습기(30)로부터 수신받은 센서값을 이용하여 사용자가 상기 인체모형(10)에 시침한 침의 각도와 속도를 산출한다(S170).
상기 제어서버(40)에서 상기 산출한 침의 깊이와 각도와 속도가 미리 저장된 정상범위값 내에 포함되는지 비교하여 평가한다(S180).
상기 제어서버(40)는 상기 산출한 침의 깊이와 각도와 속도가 미리 저장된 정상범위값 내에 포함될 경우에는 정상으로 판단하여 오차를 산출하지 않고 서버디스플레이부(48)를 통해 디스플레이한다.
반면, 상기 제어서버(40)는 상기 산출한 침의 깊이와 각도와 속도가 미리 저장된 정상범위값 내에 포함되지 않을 경우에 비정상으로 판단하여 상기 산출한 침의 깊이와 각도와 속도를 각 정상범위값과 비교하여 발생하는 오차를 산출하고 오차정보를 생성한다(S190).
상기 제어서버(40)는 상기 오차정보가 생성된 침의 깊이와 각도와 속도를 상기 정상범위값으로 가이드하기 위한 가이드정보를 생성한다(S200).
상기 가이드정보는 영상, 문자 등 다양한 방식으로 형성될 수 있다.
상기 제어서버(40)는 상기 생성된 가이드정보를 디스플레이한다(S210). 이때, 상기 제어서버(40)는 상기 머리착용디스플레이(20)로부터 합성된 영상을 수신받아 디스플레이 할 수 있으며, 상기 합성된 영상에 상기 가이드정보를 중첩시켜 디스플레이할 수 있다.
상기와 같이 침술 훈련하는 혼합현실을 이용한 침술 훈련시스템은 혼합현실을 통해 3차원 인체모형(10)에 경혈점을 표시함으로써 사용자가 쉽게 경혈점의 위치를 파악할 수 있어 효과적으로 경혈점의 위치를 습득할 수 있게 되며, 경혈점이 표시된 3차원 인체모형에 직접 시침할 수 있어 학습효과를 향상시킬 수 있음은 물론 안전하게 반복실습할 수 있어 숙련된 침술기술을 획득할 수 있도록 도움을 줄 수 있는 효과가 있다.
또한, 사용자가 3차원 인체모형에 시침을 실습하기 위해 사용되는 침술실습기를 통해 사용자가 시침한 침의 깊이와 각도, 속도를 산출할 수 있어 사용자의 침술에 대한 정확성을 향상시킬 수 있을 뿐만 아니라 높은 수준의 환자 안전성을 보장할 수 있어 의료사고를 미연에 방지할 수 있게 된다.
또한, 3차원 인체모형과 침술실습기를 통해 사용자의 시침을 인식하여 침술순서, 경혈점 위치, 제한시간에 대해 공정하고 객관적으로 사용자의 침술 숙달 정도를 평가하여 피드백을 제공함으로 인해 사용자가 능동적으로 침술을 학습할 수 있는 효과가 있다.
앞에서 설명되고, 도면에 도시된 본 발명의 실시 예들은 본 발명의 기술적 사상을 한정하는 것으로 해석되어서는 안 된다. 본 발명의 보호범위는 청구범위에 기재된 사항에 의하여만 제한되고, 본 발명의 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 다양한 형태로 개량 변경하는 것이 가능하다. 따라서 이러한 개량 및 변경은 통상의 지식을 가진 자에게 자명한 것인 경우에는 본 발명의 보호범위에 속하게 될 것이다.
10: 인체모형 20: 머리착용디스플레이
21: 카메라부 22: 모형인식부
23: 영상합성부 24: 영상플레이부
25: 송수신부 30: 침술실습기
31: 파지부 32: 침부
33: 센서부 34: 실습기통신부
35: 좌표전달부 40: 제어서버
41: 서버통신부 42: 가상인체생성부
43: 위치추출부 44: 실습값산출부
45: 실습평가부 46: 오차산출부
47: 피드백부 48: 서버디스플레이부

Claims (5)

  1. 인체의 전부 또는 일부가 3차원 형상으로 모형화된 인체모형(10)을 촬영하여 상기 촬영되는 인체모형(10)에 미리 경혈점의 위치가 표시된 가상인체가 합성된 혼합현실을 디스플레이하기 위한 머리착용디스플레이(20)와, 사용자가 파지하여 상기 인체모형(10)에 시침하면서 가해지는 압력을 측정하는 침부(32)의 가속도와 각속도를 측정하여 센서값을 생성하기 위한 침술실습기(30)와, 상기 침술실습기(30) 및 상기 머리착용디스플레이(20)와 통신하기 위한 서버통신부(41)를 포함하면서 상기 침술실습기(30)가 위치된 경혈점을 추출하고, 상기 측정된 센서값을 수신받아 상기 인체모형(10)에 시침한 침의 깊이와 각도를 산출하여 디스플레이하기 위한 제어서버(40)를 포함하는 혼합현실을 이용한 침술 훈련시스템에 있어서,
    상기 인체모형(10)은, 상기 침술실습기(30)의 침부(32)를 감지하여 감지좌표값을 생성하여 상기 침술실습기(30)로 전송하기 위한 감지센서가 내장되고,
    상기 제어서버(40)는, 상기 침술실습기(30)로부터 수신받은 센서값을 이용하여 상기 인체모형(10)에 시침되는 침의 속도를 산출하기 위한 실습값산출부(44)와, 상기 산출된 침의 깊이와 각도와 속도를 수신받아 미리 저장된 정상범위값과 비교분석하여 평가하기 위한 실습평가부(45)와, 상기 실습평가부(45)를 통해 미리 저장된 정상범위값과 상기 산출된 침의 깊이와 각도와 속도 사이의 오차를 산출하여 오차정보를 제공하기 위한 오차산출부(46)와, 상기 오차산출부(46)의 오차정보를 이용하여 상기 정상범위값으로 가이드하기 위해 가이드정보를 생성하여 피드백하기 위한 피드백부(47)와, 상기 피드백부(47)에서 생성된 가이드정보와 상기 서버통신부(41)를 통해 상기 머리착용디스플레이(20)로부터 수신받은 영상을 디스플레이하기 위한 서버디스플레이부(48)를 포함하여 구성되는 혼합현실을 이용한 침술 훈련시스템.
  2. 청구항 1에 있어서,
    상기 머리착용디스플레이(20)는, 상기 인체모형(10)을 촬영하여 영상을 생성하기 위한 카메라부(21)와, 상기 카메라부(21)를 통해 촬영되는 영상의 인체모형을 인식하기 위한 모형인식부(22)와, 상기 모형인식부(22)를 통해 인식된 인체모형에 미리 경혈점이 표시되어 저장된 가상인체를 합성하기 위한 영상합성부(23)와, 상기 영상합성부(23)에서 합성된 영상을 디스플레이하기 위한 영상플레이부(24)와, 상기 영상합성부(23)에서 합성된 영상을 상기 제어서버(40)로 전송하기 위해 상기 제어서버(40)와 통신하기 위한 송수신부(25)를 포함하여 구성되는 혼합현실을 이용한 침술 훈련시스템.
  3. 청구항 2에 있어서,
    상기 침술실습기(30)는, 사용자가 파지하기 위해 일정길이로 형성된 파지부(31)와, 상기 파지부(31)의 일측에 형성되며 상기 인체모형(10)에 시침하기 위해 접촉되면서 가해지는 압력값을 생성하기 위한 압력센서가 구비된 침부(32)와, 상기 파지부(31)의 타측에 구성되어 상기 인체모형(10)에 시침하는 침부(32)의 가속도와 각속도를 측정하여 센서값을 생성하기 위한 센서부(33)와, 상기 센서부(33)에서 측정된 센서값과 상기 침부(32)에서 측정된 압력값을 상기 제어서버(40)로 전송하기 위해 상기 제어서버(40)와 통신하고 상기 인체모형(10)과 통신하기 위한 실습기통신부(34)와, 상기 실습기통신부(34)를 통해 상기 침부(32)가 상기 인체모형(10)에 접촉되어 상기 인체모형(10)으로부터 전송되는 감지좌표값을 수신받아 상기 제어서버(40)로 전달하기 위한 좌표전달부(35)를 포함하여 구성되는 혼합현실을 이용한 침술 훈련시스템.
  4. 사용자의 머리에 착용되는 머리착용디스플레이(20)를 이용하여 인체가 3차원 형상으로 모형화되어 감지센서가 내장된 인체모형(10)을 촬영하는 촬영단계와,
    상기 머리착용디스플레이(20)에서 상기 촬영된 인체모형(10)에 미리 경혈점의 위치가 표시된 가상인체를 합성하여 합성된 영상을 생성하여 디스플레이하는 가상인체합성단계와,
    상기 사용자가 파지하는 침술실습기(30)의 일측에 형성된 침부(32)를 상기 인체모형(10)에 접촉시켜 시침하는 시침단계와,
    상기 인체모형(10)의 감지센서에서 상기 침술실습기(30)를 감지하여 감지좌표값을 생성하여 상기 침술실습기(30)로 전송하는 시침위치감지단계와,
    상기 침술실습기(30)의 침부(32)에 압력센서가 구비되어 상기 인체모형(10)에 시침하면서 가해지는 압력을 측정하여 압력값을 생성하여 제어서버(40)로 전송하는 압력값측정단계와,
    상기 침술실습기(30)의 타측에 구성된 각속도와 가속도를 측정하기 위한 센서부(33)를 통해 상기 인체모형(10)에 시침된 침술실습기(30)의 각속도와 가속도를 측정하여 센서값을 생성하여 상기 제어서버(40)로 전송하는 센서값측정단계와,
    상기 침술실습기(30)로부터 감지좌표값을 전달받은 제어서버(40)에서 미리 경혈점의 위치별로 저장된 좌표 중 상기 감지좌표값과 동일한 좌표를 매칭하여 상기 인체모형(10)에 상기 침술실습기(30)가 위치된 경혈점을 추출하는 위치추출단계와,
    상기 제어서버(40)에서 상기 침술실습기(30)로부터 압력값과 센서값을 수신받아 상기 인체모형(10)에 시침한 침의 깊이와 각도와 속도를 산출하는 실습값산출단계와,
    상기 제어서버(40)에서 상기 산출한 침의 깊이와 각도와 속도를 미리 저장된 정상범위값과 비교하여 평가하는 평가단계와,
    상기 제어서버(40)에서 상기 산출한 침의 깊이와 각도와 속도가 미리 저장된 정상범위값 내에 포함되지 않아 발생하는 오차를 산출하여 오차정보를 생성하는 오차산출단계와,
    상기 제어서버(40)에서 상기 오차정보가 생성된 침의 깊이와 각도와 속도를 상기 정상범위값으로 가이드하기 위해 가이드정보를 생성하는 피드백단계와,
    상기 제어서버(40)에서 상기 생성된 가이드정보를 디스플레이하는 디스플레이단계를 포함하여 구성되는 혼합현실을 이용한 침술 훈련시스템을 이용한 침술 훈련방법.
  5. 삭제
KR1020180161711A 2018-12-14 2018-12-14 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법 KR102199189B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180161711A KR102199189B1 (ko) 2018-12-14 2018-12-14 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180161711A KR102199189B1 (ko) 2018-12-14 2018-12-14 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법

Publications (2)

Publication Number Publication Date
KR20200073492A KR20200073492A (ko) 2020-06-24
KR102199189B1 true KR102199189B1 (ko) 2021-01-06

Family

ID=71407727

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180161711A KR102199189B1 (ko) 2018-12-14 2018-12-14 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법

Country Status (1)

Country Link
KR (1) KR102199189B1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258921B (zh) * 2020-11-12 2023-06-16 胡玥 基于虚拟、混合现实的针灸互动教学系统和方法
KR102396104B1 (ko) 2020-11-16 2022-05-11 아주통신주식회사 Ar 융복합 한의학 교육 장치
KR102443956B1 (ko) * 2020-11-16 2022-09-20 쿼드러쳐 주식회사 확장현실 기반의 침술 시스템 및 그 방법
KR102330972B1 (ko) * 2020-11-26 2021-12-02 주식회사 글림시스템즈 침술 훈련기구
KR102444058B1 (ko) * 2020-11-27 2022-09-16 아주통신(주) 인체모형 및 침술 콘트롤러를 이용한 혼합현실 침술 훈련 시스템
KR102473978B1 (ko) * 2021-01-11 2022-12-06 동국대학교 와이즈캠퍼스 산학협력단 센서가 격자 구조로 배치된 인체모형을 이용한 침구실습 평가 시스템 및 방법
CN113763793B (zh) * 2021-08-23 2022-04-01 黑龙江中医药大学 一种针灸训练系统和方法
CN114220306B (zh) * 2021-10-22 2023-10-27 成都泰盟软件有限公司 一种基于虚实结合技术的中医针刺手法训练系统及方法
CN114927020A (zh) * 2022-05-19 2022-08-19 西交利物浦大学 基于混合现实的针灸教学方法、装置、设备及存储介质
CN115294826A (zh) * 2022-05-25 2022-11-04 戴广亮 基于混合现实、3d打印与空间微定位的针灸训练模拟系统
KR20240007514A (ko) 2022-07-08 2024-01-16 주식회사 이앤에프코리아 Ar 기반의 사용자 맞춤 의학 콘텐츠 제공 장치 및 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446548B1 (ko) * 2002-05-27 2004-09-01 신진태 가상현실의 한방침구 시스템
JP4590627B2 (ja) * 2004-03-31 2010-12-01 国立大学法人 名古屋工業大学 力触覚を活用した鍼治療訓練システム
KR20140140205A (ko) * 2013-05-28 2014-12-09 (주) 엔젤메디칼 인체모형을 이용한 척추수술 시뮬레이션 시스템 및 그 방법
KR101853190B1 (ko) * 2016-07-19 2018-04-27 동의대학교 산학협력단 증강현실을 이용한 침구실습장치 및 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
공개특허공보 제10-2014-0140205호(2014.12.9. 공개) 1부.*
공개특허공보 제10-2018-0009452호(2018.1.29. 공개) 1부.*

Also Published As

Publication number Publication date
KR20200073492A (ko) 2020-06-24

Similar Documents

Publication Publication Date Title
KR102199189B1 (ko) 혼합현실을 이용한 침술 훈련시스템 및 이를 이용한 침술 훈련방법
US20150004581A1 (en) Interactive physical therapy
Da Gama et al. Guidance and movement correction based on therapeutics movements for motor rehabilitation support systems
EP2451339B1 (en) Performance testing and/or training
US11900828B2 (en) Fistula cannulation simulator
EP3373275B1 (en) Cardiopulmonary resuscitation training mannequin
WO2012039467A1 (ja) 運動支援システム
KR102191027B1 (ko) 가상현실 기반의 심폐소생술 교육 시스템
KR20170010157A (ko) 인터랙티브 운동프로그램을 통한 사용자의 운동동작 유도 방법 및 그 장치
JP6995255B1 (ja) 立体認知能力評価システム
JPWO2012039467A1 (ja) 運動支援システム
CN115738188A (zh) 一种基于虚拟现实技术的平衡功能训练设备和方法
KR20190067966A (ko) 클라우드 기반 학습자 중심의 침술훈련과 평가를 위한 인체모형 및 가상 시뮬레이터
KR102049263B1 (ko) 재활 기능과 게임 기능이 접목된 실내 클라이밍 시스템
US9601031B1 (en) Medical attachment device position detection system and method of use thereof
KR102143784B1 (ko) 가상현실 기반 이비인후과 및 신경외과 시뮬레이터의 수술 평가 시스템
KR101554429B1 (ko) 자동제세동기를 이용한 심폐소생술 교육시스템
KR102444058B1 (ko) 인체모형 및 침술 콘트롤러를 이용한 혼합현실 침술 훈련 시스템
KR101945338B1 (ko) 체력 측정 진단에 대한 체력 개선 시스템
JP2017136248A (ja) 聴診システム
KR102443956B1 (ko) 확장현실 기반의 침술 시스템 및 그 방법
KR102447460B1 (ko) Xr 기반 바늘 감압술 응급처치 교육훈련시스템
KR102252249B1 (ko) 개선된 인체모형 및 침술 컨트롤러를 구비한 침술훈련시스템
KR20210061866A (ko) 침술 훈련 시스템에 활용하기 위한 경혈 평가 콘텐츠
EP3337392A1 (en) Medical attachment device tracking system and method of use thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant