KR20230099896A - Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment - Google Patents

Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment Download PDF

Info

Publication number
KR20230099896A
KR20230099896A KR1020210189328A KR20210189328A KR20230099896A KR 20230099896 A KR20230099896 A KR 20230099896A KR 1020210189328 A KR1020210189328 A KR 1020210189328A KR 20210189328 A KR20210189328 A KR 20210189328A KR 20230099896 A KR20230099896 A KR 20230099896A
Authority
KR
South Korea
Prior art keywords
unit
information
virtual reality
feature point
recognition
Prior art date
Application number
KR1020210189328A
Other languages
Korean (ko)
Inventor
박영신
이태양
김경민
Original Assignee
주식회사 뷰카마인드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰카마인드 filed Critical 주식회사 뷰카마인드
Priority to KR1020210189328A priority Critical patent/KR20230099896A/en
Publication of KR20230099896A publication Critical patent/KR20230099896A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Architecture (AREA)
  • Acoustics & Sound (AREA)
  • Psychology (AREA)
  • Anesthesiology (AREA)
  • Biomedical Technology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Hematology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Rehabilitation Tools (AREA)

Abstract

본 발명은 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템에 관한 것으로서, 더욱 상세하게는 3D 모델 라이브러리에서 불러온 3D 모델, 특징점, 표식 정보를 기반으로 수치 분석을 수행함으로써, 현재 영상에 잡힌 사물의 위치, 방향, 종류를 파악할 수 있고, 3D 모델 라이브러리에서 불러온 3D 모델링 정보와 현재의 위치, 방향, 미래의 예측 위치, 방향은 게임 로직에 입력됨으로써, 게임 로직의 변환에 따라 가상의 이미지와 소리로 재생할 수 있으며, 재활치료에 가상현실(VR) 기술을 활용한 게임적인 요소를 적용함으로써, 재활치료를 받는 환자가 지루하고 힘든 치료 과정을 이겨낼 수 있도록 하여 치료효과를 향상시킬 수 있고, 환자가 사물과 상호작용을 할 때 느끼는 촉각은 그대로 둔 채 시각과 청각 신호를 게임적 요소를 지닌 가상현실의 시각과 청각 신호로 위화감 없이 교체하여 줌으로써, 치료효과가 나타나기 전에도 지속해서 환자가 성취감을 느끼도록 하여 동기 부여를 할 수 있으며, 환자가 촉각으로 느끼는 물체의 종류, 위치, 작용/반작용과 이로부터 예측할 수 있는 시각적인 자극, 청각 신호가 일치되게 하여 줌으로써, 시각과 청각 신호를 가상의 신호로 대체할 때 재활 대상자가 혼란을 느끼지 않게 할 수 있는 효과가 있다.The present invention relates to an object information recognition and prediction system to which virtual reality technology is applied to rehabilitation treatment, and more particularly, by performing numerical analysis based on a 3D model, feature points, and mark information loaded from a 3D model library, The position, direction, and type of the captured object can be grasped, and the 3D modeling information, current position, direction, and future predicted position and direction, which are loaded from the 3D model library, are input to the game logic, so that the virtual It can be reproduced with images and sounds, and by applying game elements using virtual reality (VR) technology to rehabilitation treatment, it is possible to improve the treatment effect by helping patients undergoing rehabilitation treatment overcome the tedious and difficult treatment process, By replacing the visual and auditory signals with the visual and auditory signals of virtual reality with game elements while leaving the tactile sense that the patient feels when interacting with objects without discomfort, the patient continues to feel a sense of achievement even before the therapeutic effect appears. It is possible to motivate by making it feel, and by matching the type, location, action/reaction of the object that the patient feels with touch, and the visual stimulus and auditory signal that can be predicted from it, visual and auditory signals are combined with virtual signals. When replacing it, there is an effect that the rehabilitation subject does not feel confused.

Description

재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템{Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment}Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment}

본 발명은 3D 모델 라이브러리에서 불러온 3D 모델, 특징점, 표식 정보를 기반으로 수치 분석을 수행함으로써, 현재 영상에 잡힌 사물의 위치, 방향, 종류를 파악할 수 있고, 3D 모델 라이브러리에서 불러온 3D 모델링 정보와 현재의 위치, 방향, 미래의 예측 위치, 방향은 게임 로직에 입력됨으로써, 게임 로직의 변환에 따라 가상의 이미지와 소리로 재생할 수 있으며, 재활치료에 가상현실(VR) 기술을 활용한 게임적인 요소를 적용함으로써, 재활치료를 받는 환자가 지루하고 힘든 치료 과정을 이겨낼 수 있도록 하여 치료효과를 향상시킬 수 있고, 환자가 사물과 상호작용을 할 때 느끼는 촉각은 그대로 둔 채 시각과 청각 신호를 게임적 요소를 지닌 가상현실의 시각과 청각 신호로 위화감 없이 교체하여 줌으로써, 치료효과가 나타나기 전에도 지속해서 환자가 성취감을 느끼도록 하여 동기 부여를 할 수 있으며, 환자가 촉각으로 느끼는 물체의 종류, 위치, 작용/반작용과 이로부터 예측할 수 있는 시각적인 자극, 청각 신호가 일치되게 하여 줌으로써, 시각과 청각 신호를 가상의 신호로 대체할 때 재활 대상자가 혼란을 느끼지 않게 할 수 있는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템에 관한 기술이다.The present invention performs numerical analysis based on 3D models, feature points, and mark information loaded from a 3D model library, so that the position, direction, and type of an object caught in a current image can be grasped, and the 3D modeling information loaded from the 3D model library As the current position, direction, and predicted position and direction of the future are input into the game logic, it can be reproduced as virtual images and sounds according to the conversion of the game logic, and the game-like By applying elements, it is possible to improve the treatment effect by helping patients undergoing rehabilitation treatment overcome the tedious and difficult treatment process, and visual and auditory signals can be displayed in a game-like way while leaving the tactile sense that patients feel when interacting with objects. By replacing the visual and auditory signals of virtual reality with elements without discomfort, it is possible to motivate the patient by continuously feeling a sense of achievement even before the treatment effect appears, and the type, location, and action of objects felt by the patient's tactile sense /Virtual reality technology is applied to rehabilitation treatment that can prevent the rehabilitation subject from feeling confused when visual and auditory signals are replaced with virtual signals by matching the reaction and the visual stimulus and auditory signal that can be predicted from it. It is a technology related to object information recognition and prediction system.

과학기술과 의료기술의 발달로 인해 국내뿐만 아니라 전 세계적으로 고령화가 빠르게 진행되면서, 고령화 사회를 준비하기 위해 산업 트렌드가 변화하고 있다.Due to the development of science and technology and medical technology, the aging of the population is rapidly progressing not only in Korea but also around the world, and industrial trends are changing to prepare for an aging society.

가장 큰 관심을 받는 분야는 헬스케어로, 국민건강보험공단에 따르면 2005년부터 2010년까지 건강보험 진료비 지급자료를 분석한 결과 노인성 질환으로 인한 총 진료비는 271%, 공단부담금은 272.5% 증가한 것으로 나타나 노년층에 대한 헬스케어의 중요성을 실감하게 하고 있다.The field of greatest interest is healthcare. According to the National Health Insurance Corporation, as a result of analyzing health insurance treatment cost payment data from 2005 to 2010, the total medical cost due to geriatric diseases increased by 271% and the public corporation co-payment increased by 272.5%. It shows the importance of health care for the elderly.

노인성 질환 중 가장 대표적인 것 중 하나는 퇴행성 관절질환인데, 최근에는 노년층과 중/장년층뿐만 아니라 젊은 층에서도 발생하고 있다.One of the most representative of the geriatric diseases is degenerative joint disease, which recently occurs not only in the elderly and middle/elderly, but also in the young.

이에 대한 주된 원인은 잘못된 자세 습관, 나트륨과 당분의 과다 섭취, 체중 증가, 과중한 업무와 스트레스, 운동 부족 또는 격렬한 운동으로 인한 관절 부상 등을 들 수 있다.The main causes for this are incorrect posture habits, excessive intake of sodium and sugar, weight gain, heavy work and stress, lack of exercise or joint injuries due to strenuous exercise.

관절은 수술을 하더라도 즉시 회복되는 것이 아니라 이후의 회복치료에 따라 관절운동 범위와 회복의 속도가 달라지기 때문에 재활운동이 매우 중요하다.Rehabilitation exercise is very important because joints do not recover immediately even after surgery, but the range of joint motion and the speed of recovery vary according to subsequent recovery treatment.

그러나 관절 재활 운동 시 많은 통증이 수반되기 때문에 환자 스스로 운동하기가 어려워 결국 구축(Contracture), 염증(Inflammation) 등으로 인해 관절가동범위의 제한(LOM: Limitation Of Motion)이 나타나게 된다.However, since a lot of pain is accompanied during joint rehabilitation exercise, it is difficult for patients to exercise on their own, and eventually, limitation of motion (LOM) appears due to contracture and inflammation.

이를 방지하기 위해 관절가동범위운동이 실시되는데, 가장 보편화된 관절운동은 수동관절가동운동(CPM: Continuous Passive Motion)인데, 이것은 치료사나 기계적 장치 등의 순수한 외적인 힘에 의해 이루어지는 운동으로, 관절강직이 온 환자나 수술 환자들에게 지속적으로 수동적인 움직임을 제공함으로써 관절의 기능을 회복하게 한다.To prevent this, range of motion exercises are performed. The most common type of joint motion is CPM (Continuous Passive Motion), which is a motion performed by pure external force such as a therapist or mechanical device. It restores the function of the joint by continuously providing passive movement to patients who have come or undergo surgery.

CPM은 환자 스스로 움직이는 것이 아닌 기계장치에 의한 수동운동이기 때문에 근 피로가 일어나지 않으면서도 관절가동범위(ROM: Range of Motion)를 회복하게 하고 통증 감소 및 합병증 예방에 도움이 됨. 이에 따라 관절질환 환자가 가정에서도 운동할 수 있도록 CPM 기기를 대여해주는 업체도 크게 늘어난 상태이다.Since CPM is a passive exercise by a mechanical device, not by the patient's own movement, it helps to recover the range of motion (ROM) without causing muscle fatigue and helps to reduce pain and prevent complications. As a result, the number of companies lending CPM machines so that joint disease patients can exercise at home has also increased significantly.

그러나 기존의 CPM 기기는 물리치료사나 환자 본인이 임의로 운동 각도, 속도, 횟수 등을 설정하며, 처음 설정한 운동설정을 환자의 상태에 따라 실시간으로 변경하는 것이 현실적으로 어렵다는 문제점이 있다.However, existing CPM devices have a problem in that a physical therapist or a patient himself arbitrarily sets an exercise angle, speed, number of times, etc., and it is practically difficult to change the initially set exercise setting in real time according to the patient's condition.

또한, 이러한 문제에 따라 무리한 운동으로 부작용이 발생하거나, 너무 약한 운동으로 재활운동이 제대로 이루어지지 않는 경우가 빈번하다는 문제점도 있다.In addition, there is also a problem that side effects occur due to excessive exercise according to these problems, or rehabilitation exercise is not properly performed due to too weak exercise.

또한, CPM 기기만으로는 환자의 회복 정도를 파악할 수 없으므로, 각 환자별 운동 시 통증 여부와 ROM, 횟수, 시간 등의 데이터를 별도 기록관리하지 않는 한 맞춤형 재활치료는 실현이 불가능하다는 문제점도 있다.In addition, since the degree of recovery of the patient cannot be grasped with only the CPM device, there is a problem that customized rehabilitation treatment cannot be realized unless data such as pain during exercise for each patient and data such as ROM, number of times, and time are separately recorded and managed.

한편, 일반적으로 재활치료를 통한 치료 효과는 서서히 나타나기 때문에 환자가 성취도를 알기 어렵고 중도에 포기할 가능성이 크며, 재활치료에 가상현실(VR) 기술을 활용한 게임적인 요소를 적용하여 재활치료를 받는 환자가 지루하고 힘든 치료 과정을 이겨낼 수 있도록 하여 치료효과를 향상시킬 수 있고, 환자가 사물과 상호작용을 할 때 느끼는 촉각은 그대로 둔 채 시각과 청각 신호를 게임적 요소를 지닌 가상현실의 시각과 청각 신호로 위화감 없이 교체하여 주므로 치료효과가 나타나기 전에도 지속해서 환자가 성취감을 느끼도록 하여 동기 부여를 할 수 있으며, 환자가 촉각으로 느끼는 물체의 종류, 위치, 작용/반작용과 이로부터 예측할 수 있는 시각적인 자극, 청각 신호가 일치되게 하여 주므로 시각과 청각 신호를 가상의 신호로 대체할 때 재활 대상자가 혼란을 느끼지 않게 할 수 있는 시스템이 아직 없는 실정이다.On the other hand, in general, since the treatment effect through rehabilitation appears gradually, it is difficult for patients to know their achievement and is highly likely to give up in the middle. The treatment effect can be improved by enabling the patient to overcome the tedious and difficult treatment process, and the visual and auditory signals of virtual reality with game elements can be provided while leaving the tactile sense that the patient feels when interacting with objects. Since it is replaced without discomfort, it is possible to motivate the patient by continuously making the patient feel a sense of achievement even before the treatment effect appears, and the type, location, action/reaction of the object felt by the patient's tactile sense, and the visual stimulus that can be predicted from it However, since the auditory signal is matched, there is still no system that can prevent the rehabilitation subject from feeling confused when visual and auditory signals are replaced with virtual signals.

따라서, 3D 모델 라이브러리에서 불러온 3D 모델, 특징점, 표식 정보를 기반으로 수치 분석을 통하여 현재 영상에 잡힌 사물의 위치, 방향, 종류를 파악할 수 있고, 3D 모델 라이브러리에서 불러온 3D 모델링 정보와 현재의 위치, 방향, 미래의 예측 위치, 방향은 게임 로직에 입력되므로 게임 로직의 변환에 따라 가상의 이미지와 소리로 재생할 수 있으며, 재활치료에 가상현실(VR) 기술을 활용한 게임적인 요소를 적용하여 재활치료를 받는 환자가 지루하고 힘든 치료 과정을 이겨낼 수 있도록 하여 치료효과를 향상시킬 수 있고, 환자가 사물과 상호작용을 할 때 느끼는 촉각은 그대로 둔 채 시각과 청각 신호를 게임적 요소를 지닌 가상현실의 시각과 청각 신호로 위화감 없이 교체하여 주므로 치료효과가 나타나기 전에도 지속해서 환자가 성취감을 느끼도록 하여 동기 부여를 할 수 있으며, 환자가 촉각으로 느끼는 물체의 종류, 위치, 작용/반작용과 이로부터 예측할 수 있는 시각적인 자극, 청각 신호가 일치되게 하여 시각과 청각 신호를 가상의 신호로 대체할 때 재활 대상자가 혼란을 느끼지 않게 할 수 있는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템의 개발이 절실히 요구되고 있는 실정이다.Therefore, based on the 3D model, feature points, and mark information loaded from the 3D model library, the location, direction, and type of the object caught in the current image can be identified through numerical analysis, and the 3D modeling information loaded from the 3D model library and the current Position, direction, and future predicted position and direction are entered into game logic, so virtual images and sounds can be reproduced according to the conversion of game logic, and game elements using virtual reality (VR) technology are applied to rehabilitation treatment. It is possible to improve the treatment effect by enabling patients undergoing rehabilitation to overcome the tedious and difficult treatment process, and the virtual reality with game elements to transmit visual and auditory signals while leaving the tactile sense that patients feel when interacting with objects. Since the visual and auditory signals are replaced without discomfort, it is possible to motivate the patient by continuously making the patient feel a sense of achievement even before the therapeutic effect appears, and the type, location, action/reaction of the object felt by the patient's tactile sense and predictable Development of an object information recognition and prediction system applying virtual reality technology to rehabilitation treatment that can prevent rehabilitation recipients from feeling confused when visual and auditory signals are replaced with virtual signals by matching possible visual stimuli and auditory signals This is an urgent need.

등록번호 제 10-1501838호Registration No. 10-1501838

따라서 본 발명은 상기와 같은 문제점을 해결하기 위하여 착상된 것으로서, 3D 모델 라이브러리에서 불러온 3D 모델, 특징점, 표식 정보를 기반으로 수치 분석을 수행함으로써, 현재 영상에 잡힌 사물의 위치, 방향, 종류를 파악할 수 있는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템을 제공하는데 그 목적이 있다.Therefore, the present invention was conceived to solve the above problems, and by performing numerical analysis based on the 3D model, feature points, and mark information loaded from the 3D model library, the position, direction, and type of the object captured in the current image can be determined. The purpose is to provide an object information recognition and prediction system that applies virtual reality technology to rehabilitation treatment that can be grasped.

본 발명의 다른 목적은 3D 모델 라이브러리에서 불러온 3D 모델링 정보와 현재의 위치, 방향, 미래의 예측 위치, 방향은 게임 로직에 입력됨으로써, 게임 로직의 변환에 따라 가상의 이미지와 소리로 재생할 수 있는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템을 제공하는데 있다.Another object of the present invention is to obtain 3D modeling information from a 3D model library, current position, direction, and future predicted position and direction by inputting them into game logic, which can be reproduced as virtual images and sounds according to conversion of game logic. It is to provide an object information recognition and prediction system applying virtual reality technology to rehabilitation treatment.

본 발명의 다른 목적은 재활치료에 가상현실(VR) 기술을 활용한 게임적인 요소를 적용함으로써, 재활치료를 받는 환자가 지루하고 힘든 치료 과정을 이겨낼 수 있도록 하여 치료효과를 향상시킬 수 있는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템을 제공하는데 있다.Another object of the present invention is to improve the treatment effect by applying a game element using virtual reality (VR) technology to rehabilitation treatment, enabling patients receiving rehabilitation treatment to overcome boring and difficult treatment processes. It is to provide an object information recognition and prediction system to which virtual reality technology is applied.

본 발명의 다른 목적은 환자가 사물과 상호작용을 할 때 느끼는 촉각은 그대로 둔 채 시각과 청각 신호를 게임적 요소를 지닌 가상현실의 시각과 청각 신호로 위화감 없이 교체하여 줌으로써, 치료효과가 나타나기 전에도 지속해서 환자가 성취감을 느끼도록 하여 동기 부여를 할 수 있는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템을 제공하는데 있다.Another object of the present invention is to replace visual and auditory signals with visual and auditory signals of virtual reality with game elements without discomfort while leaving the patient's tactile sense when interacting with objects, even before the therapeutic effect appears. It is to provide an object information recognition and prediction system applying virtual reality technology to rehabilitation treatment that can continuously make patients feel a sense of achievement and motivate them.

본 발명의 다른 목적은 환자가 촉각으로 느끼는 물체의 종류, 위치, 작용/반작용과 이로부터 예측할 수 있는 시각적인 자극, 청각 신호가 일치되게 하여 줌으로써, 시각과 청각 신호를 가상의 신호로 대체할 때 재활 대상자가 혼란을 느끼지 않게 할 수 있는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템을 제공하는데 있다.Another object of the present invention is to match the type, position, action/reaction of an object felt by the patient with the visual stimulus and auditory signal that can be predicted therefrom, thereby replacing visual and auditory signals with virtual signals. It is to provide an object information recognition and prediction system applying virtual reality technology to rehabilitation treatment that can prevent rehabilitation subjects from feeling confused.

상기 목적을 달성하기 위한 본 발명의 바람직한 일실시예에 따른 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템은 사물을 인식하여 가상현실에서 표시하기 위해 환자가 상호작용을 하는 동안 사물을 촬영하는 카메라와; 상기 카메라에서 들어오는 영상으로부터 특징점들을 추출하는 특징점 추출부와; 상기 특징점 추출부로부터 각 특징점 간의 거리, 방향, 보이지 않는 특징점의 관계를 파악하는 특징점 간의 관계 도출부와; 상기 카메라로부터 들어오는 영상으로부터 표식(marker)을 인식하는 표식 인식부와; 상기 표식 인식부로부터 복수의 표식을 인식하여 각 표식 간의 거리와 관계를 파악하는 표식 간의 관계 도출부와; 3D 모델 라이브러리에서 불러온 3D 모델, 특징점, 표식 정보를 기반으로 수치 분석을 통하여 현재 영상에 잡힌 사물의 위치, 방향, 종류를 파악하는 사물의 위치, 방향, 사물의 종류부와; 상기 사물의 위치, 방향, 사물의 종류부로부터의 인식시간에 지연이 발생하는 경우 사람이 인지할 수 없는 시간 내에 소리를 재현해야 하거나, 다른 필요성이 있는 경우 위치와 방향의 변화도를 측정하여 근 미래에 사물이 있을 위치나 변화하는 방향을 예측하고, 환자의 신체 움직임을 같이 고려하여 사물의 현재 위치, 방향 정보를 예측하는 미래 위치, 방향 예측부와; 상기 3D 모델 라이브러리에서 불러온 3D 모델링 정보와 현재의 위치, 방향, 미래의 예측 위치, 방향이 입력되는 게임로직부와; 상기 게임로직부에서의 게임로직의 변환에 따라 가상의 이미지를 표출하는 가상의 이미지 표출부와; 상기 게임로직부에서의 게임로직의 변환에 따라 가상의 소리로 재생하는 가상의 소리 재생부; 을 포함함을 특징으로 한다.Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment according to a preferred embodiment of the present invention for achieving the above object is to recognize an object and display it in virtual reality while a patient interacts with the object and photographs it. with a camera that does; a feature point extraction unit extracting feature points from the image input from the camera; a relationship derivation unit between feature points that grasps a relationship between a distance, a direction, and an invisible feature point between each feature point from the feature point extractor; a marker recognizing unit recognizing a marker from an image received from the camera; a relationship derivation unit between the marks recognizing a plurality of marks from the mark recognizing unit and determining a distance and relationship between the marks; a location, direction, and type of object that determines the location, direction, and type of an object captured in the current image through numerical analysis based on 3D model, feature points, and mark information retrieved from a 3D model library; If there is a delay in the recognition time from the position, direction, and type of the object, the sound must be reproduced within a time that a person cannot perceive, or if there is another need, the degree of change in position and direction is measured a future position and direction prediction unit that predicts a position or changing direction of an object in the future and predicts current position and direction information of the object in consideration of the patient's body movement; a game logic unit for inputting 3D modeling information retrieved from the 3D model library, a current position and direction, and a predicted future position and direction; a virtual image display unit for displaying a virtual image according to the conversion of the game logic in the game logic unit; a virtual sound reproducing unit that reproduces a virtual sound according to the conversion of the game logic in the game logic unit; It is characterized by including.

상기 본 발명에 있어서, 상기 3D 모델 라이브러리는 환자가 현재 상호작용을 하는 사물을 인식하여 표현하기 위해 필요한 사물에 대한 정보와 컴퓨터 그래픽을 통하여 재현하기 위한 데이터를 저장하고 있는 것을 포함함을 특징으로 한다.In the present invention, the 3D model library is characterized by including storing information on objects necessary for recognizing and expressing objects with which the patient currently interacts and data for reproducing through computer graphics. .

상기 본 발명에 있어서, 상기 3D 모델 라이브러리의 구성은 실제 사물의 삼차원 데이터를 구성하여 수정하여 작성하는 방법을 제공하는 3D 스캐닝 솔루션과, 실제 사물의 치수를 반영하여 구성하여 사용하거나, 혼용하여 사용하게 하는 3D 모델링 도구와, 상기 3D 스캐닝 솔루션과 3D 모델링 도구로 구성되는 3D 모델부와, 상기 3D 모델부로부터 3D 모델의 종류, 위치, 방향을 파악하는데 사용할 수 있는 특징점(Feature Point) 정보를 도출하는 특징점 정보 추가부와, 상기 특징점 정보 추가부로부터의 특징점만으로는 사물의 종류와 방향 등을 정확히 파악하는 것에 한계가 있어서 특징점 정보를 보조하기 위한 표식(marker)을 등록하는 과정을 추가하는 표식정보 추가부와, 상기 3D 모델링과 특징점 정보, 마커 정보를 합쳐서 인식 가능한 3D 모델을 만드는 인식 가능한 3D 모델부와, 상기 인식 가능한 3D 모델부의 정보들은 추후 카메라를 통한 인식 및 컴퓨터 그래픽으로 재현하는데 사용할 수 있도록 저장하고 있는 3D 모델 라이브러리; 을 포함함을 특징으로 한다.In the present invention, the configuration of the 3D model library reflects the dimensions of the real object and the 3D scanning solution that provides a method of configuring, modifying, and writing three-dimensional data of a real object, so that it is configured and used, or used in combination. A 3D modeling tool, a 3D model unit composed of the 3D scanning solution and the 3D modeling tool, and feature point information that can be used to determine the type, location, and direction of the 3D model from the 3D model unit. To derive feature point information A feature point information addition unit and a marker information addition unit that adds a process of registering a marker to assist feature point information because there is a limit to accurately grasping the type and direction of an object using only the feature points from the feature point information addition unit. And, a recognizable 3D model unit that creates a recognizable 3D model by combining the 3D modeling, feature point information, and marker information, and the information of the recognizable 3D model unit is stored so that it can be used for later recognition through a camera and reproduction in computer graphics, 3D model library; It is characterized by including.

상기 본 발명에 있어서, 상기 특징점 정보 추가부에서의 특징점 정보는 카메라에서 실제 사물을 촬영하여 각 특징점 간의 관계를 통계적으로 분석하여 현재 사물의 종류나 위치, 방향 등을 추정하는 데 사용하는 것을 포함함을 특징으로 한다.In the present invention, the feature point information in the feature point information addition unit includes photographing a real object with a camera and statistically analyzing the relationship between each feature point and using it to estimate the type, location, direction, etc. of the current object. characterized by

상기 본 발명에 있어서, 상기 카메라는 복수개의 카메라를 사용하여 환자가 상호작용을 하는 동안 사물을 가리는 경우 사각을 줄일 수 있으며, 복수개의 카메라를 사용하므로 photogrammetry 기법을 사용하여 특징점 사이의 관계로 카메라부터의 사물의 거리, 방향 등을 파악할 수 있는 것을 포함함을 특징으로 한다.In the present invention, the camera can use a plurality of cameras to reduce blind spots when a patient covers an object while interacting, and since a plurality of cameras are used, a photogrammetry technique is used to determine the relationship between feature points from the camera. It is characterized in that it includes being able to grasp the distance, direction, etc. of an object.

상기 본 발명에 있어서, 상기 표식 인식부에서 표식(marker)은 사물의 종류 정보를 가지고 있어 3D 모델 라이브러리에서 사물을 파악하는데 사용할 수 있는 것을 포함함을 특징으로 한다.In the present invention, the marker in the mark recognizing unit is characterized in that it includes information on the type of object and can be used to identify the object in the 3D model library.

상기 본 발명에 있어서, 상기 미래 위치, 방향 예측부에서 젓가락이 부딪히는 순간에 소리를 재생하고자 할 때, 0.1초 뒤에 부딪히는 것으로 예상되지만, 위치 인식에 0.2초가 걸린다면 영상 인식 전에 미리 효과음을 재생하도록 할 수 있는 것을 포함함을 특징으로 한다.In the present invention, when the future position and direction prediction unit tries to reproduce the sound at the moment the chopsticks collide, it is expected that the chopsticks will collide after 0.1 second, but if it takes 0.2 seconds to recognize the position, the effect sound will be played in advance before image recognition It is characterized by including what can be.

상술한 바와 같이, 본 발명인 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템은 다음과 같은 효과를 가진다.As described above, the object information recognition and prediction system applying the virtual reality technology to the rehabilitation treatment of the present invention has the following effects.

첫째, 본 발명은 3D 모델 라이브러리에서 불러온 3D 모델, 특징점, 표식 정보를 기반으로 수치 분석을 수행함으로써, 현재 영상에 잡힌 사물의 위치, 방향, 종류를 파악할 수 있다.First, the present invention can grasp the position, direction, and type of an object caught in a current image by performing numerical analysis based on a 3D model, feature points, and mark information loaded from a 3D model library.

둘째, 본 발명은 3D 모델 라이브러리에서 불러온 3D 모델링 정보와 현재의 위치, 방향, 미래의 예측 위치, 방향은 게임 로직에 입력됨으로써, 게임 로직의 변환에 따라 가상의 이미지와 소리로 재생할 수 있다.Second, according to the present invention, 3D modeling information loaded from a 3D model library, current position and direction, and future predicted position and direction are input to game logic, so that virtual images and sounds can be reproduced according to conversion of game logic.

셋째, 본 발명은 재활치료에 가상현실(VR) 기술을 활용한 게임적인 요소를 적용함으로써, 재활치료를 받는 환자가 지루하고 힘든 치료 과정을 이겨낼 수 있도록 하여 치료효과를 향상시킬 수 있다.Third, the present invention can improve the treatment effect by applying a game element using virtual reality (VR) technology to rehabilitation treatment, so that the patient receiving rehabilitation treatment can overcome a tedious and difficult treatment process.

넷째, 본 발명은 환자가 사물과 상호작용을 할 때 느끼는 촉각은 그대로 둔 채 시각과 청각 신호를 게임적 요소를 지닌 가상현실의 시각과 청각 신호로 위화감 없이 교체하여 줌으로써, 치료효과가 나타나기 전에도 지속해서 환자가 성취감을 느끼도록 하여 동기 부여를 할 수 있다.Fourth, the present invention replaces visual and auditory signals with virtual reality visual and auditory signals with game elements without discomfort while leaving the patient's tactile sense when interacting with objects, so that the treatment effect continues even before the appearance. This can motivate patients by making them feel a sense of accomplishment.

다섯째, 본 발명은 환자가 촉각으로 느끼는 물체의 종류, 위치, 작용/반작용과 이로부터 예측할 수 있는 시각적인 자극, 청각 신호가 일치되게 하여 줌으로써, 시각과 청각 신호를 가상의 신호로 대체할 때 재활 대상자가 혼란을 느끼지 않게 할 수 있다.Fifth, the present invention matches the type, location, action/reaction of objects that the patient feels by touch, and visual stimulation and auditory signals that can be predicted therefrom, thereby providing rehabilitation when visual and auditory signals are replaced with virtual signals. It can make the subject not feel confused.

도 1은 본 발명의 일실시예에 따른 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템의 구성을 설명하기 위해 나타낸 도면.
도 2는 본 발명의 일실시예에 따른 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템의 구성 중 3D 모델 라이브러리의 세부구성을 설명하기 위해 나타낸 도면.
1 is a view to explain the configuration of an object information recognition and prediction system to which virtual reality technology is applied to rehabilitation treatment according to an embodiment of the present invention.
2 is a diagram showing a detailed configuration of a 3D model library among configurations of an object information recognition and prediction system to which virtual reality technology is applied to rehabilitation treatment according to an embodiment of the present invention.

이하 첨부된 도면과 함께 본 발명의 바람직한 실시예를 살펴보면 다음과 같은데, 본 발명을 설명함에 있어서 관련된 공지기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 것이며, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있으므로, 그 정의는 본 발명인 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템을 설명하는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, looking at preferred embodiments of the present invention together with the accompanying drawings, the detailed description of the known technology or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention. Descriptions will be omitted, and the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of the user or operator, so the definition is an object to which virtual reality technology is applied to rehabilitation treatment, which is the present invention. It should be made based on the contents throughout this specification describing the information recognition and prediction system.

이하, 본 발명의 바람직한 일실시예에 따른 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템을 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, an object information recognition and prediction system to which virtual reality technology is applied to rehabilitation treatment according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템의 구성을 설명하기 위해 나타낸 도면이고, 도 2는 본 발명의 일실시예에 따른 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템의 구성 중 3D 모델 라이브러리의 세부구성을 설명하기 위해 나타낸 도면이다.1 is a diagram showing the configuration of an object information recognition and prediction system to which virtual reality technology is applied to rehabilitation treatment according to an embodiment of the present invention, and FIG. It is a diagram shown to explain the detailed configuration of the 3D model library among the configurations of the object information recognition and prediction system to which real technology is applied.

본 발명인 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템은 3D 스캐닝 솔루션(1), 3D 모델링 도구(2), 3D 모델부(3), 특징점 정보 추가부(4), 표식정보 추가부(5), 3D 모델부(6), 3D 모델 라이브러리(7), 카메라(10), 특징점 추출부(20), 표식 인식부(30), 특징점 간의 관계 도출부(40), 표식 간의 관계 도출부(50), 사물의 위치, 방향, 사물의 종류부(60), 미래 위치, 방향 예측부(70), 게임로직부(80), 가상의 이미지 표출부(90), 가상의 소리 재생부(100) 등으로 구성된다.Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment of the present inventors includes a 3D scanning solution (1), a 3D modeling tool (2), a 3D model unit (3), a feature point information addition unit (4), a mark information addition unit (5), 3D model unit (6), 3D model library (7), camera 10, feature point extraction unit 20, mark recognition unit 30, relationship derivation unit 40 between feature points, relationship derivation between marks unit 50, object location, direction, object type unit 60, future location, direction prediction unit 70, game logic unit 80, virtual image display unit 90, virtual sound reproduction unit (100) and the like.

도 1 내지 도 2에 도시한 바와 같이, 본 발명인 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템은 사물을 인식하여 가상현실에서 표시하기 위해 환자가 상호작용을 하는 동안 사물을 촬영하는 카메라(10)와; 상기 카메라(10)에서 들어오는 영상으로부터 특징점들을 추출하는 특징점 추출부(20)와; 상기 특징점 추출부(20)로부터 각 특징점 간의 거리, 방향, 보이지 않는 특징점의 관계를 파악하는 특징점 간의 관계 도출부(40)와; 상기 카메라(10)로부터 들어오는 영상으로부터 표식(marker)을 인식하는 표식 인식부(30)와; 상기 표식 인식부(30)로부터 복수의 표식을 인식하여 각 표식 간의 거리와 관계를 파악하는 표식 간의 관계 도출부(50)와; 3D 모델 라이브러리(7)에서 불러온 3D 모델, 특징점, 표식 정보를 기반으로 수치 분석을 통하여 현재 영상에 잡힌 사물의 위치, 방향, 종류를 파악하는 사물의 위치, 방향, 사물의 종류부(60)와; 상기 사물의 위치, 방향, 사물의 종류부(60)로부터의 인식시간에 지연이 발생하는 경우 사람이 인지할 수 없는 시간 내에 소리를 재현해야 하거나, 다른 필요성이 있는 경우 위치와 방향의 변화도를 측정하여 근 미래에 사물이 있을 위치나 변화하는 방향을 예측하고, 환자의 신체 움직임을 같이 고려하여 사물의 현재 위치, 방향 정보를 예측하는 미래 위치, 방향 예측부(70)와; 상기 3D 모델 라이브러리(7)에서 불러온 3D 모델링 정보와 현재의 위치, 방향, 미래의 예측 위치, 방향이 입력되는 게임로직부(80)와; 상기 게임로직부(80)에서의 게임로직의 변환에 따라 가상의 이미지를 표출하는 가상의 이미지 표출부(90)와; 상기 게임로직부(80)에서의 게임로직의 변환에 따라 가상의 소리로 재생하는 가상의 소리 재생부(100); 을 구비한다.As shown in FIGS. 1 and 2, the object information recognition and prediction system to which virtual reality technology is applied to the rehabilitation treatment of the present invention is a camera that photographs objects while a patient interacts with them in order to recognize objects and display them in virtual reality. (10) and; a feature point extraction unit 20 that extracts feature points from the image input from the camera 10; a relationship derivation unit 40 between feature points that grasps the relationship between the distance, direction, and invisible feature points between the feature points from the feature point extractor 20; a marker recognizing unit 30 recognizing a marker from an image received from the camera 10; a relation derivation unit 50 between the marks recognizing a plurality of marks from the mark recognizing unit 30 and determining a distance and relationship between the marks; Object location, direction, and object type unit 60 that identifies the location, direction, and type of the object caught in the current image through numerical analysis based on the 3D model, feature points, and mark information imported from the 3D model library (7) and; If there is a delay in the recognition time from the position, direction, and object type unit 60 of the object, the sound must be reproduced within a time that a person cannot perceive, or if there is another need, the degree of change in position and direction a future position and direction prediction unit 70 that measures and predicts the position or changing direction of an object in the near future and predicts the current position and direction information of the object in consideration of the patient's body movement; a game logic unit 80 for inputting 3D modeling information retrieved from the 3D model library 7, current position and direction, and future predicted position and direction; a virtual image display unit 90 that displays a virtual image according to the conversion of the game logic in the game logic unit 80; a virtual sound reproducing unit 100 that reproduces a virtual sound according to the conversion of the game logic in the game logic unit 80; to provide

상기 본 발명인 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템을 구성하는 각 기술적 수단들의 기능을 설명하면 다음과 같다.The function of each technical means constituting the object information recognition and prediction system to which virtual reality technology is applied to the rehabilitation treatment of the present invention will be described as follows.

상기 카메라(10)는 사물을 인식하여 가상현실에서 표시하기 위해 환자가 상호작용을 하는 동안 사물을 촬영하는 것이다.The camera 10 captures objects while the patient interacts with them in order to recognize objects and display them in virtual reality.

여기서, 상기 카메라(10)는 복수개의 카메라(10)를 사용하여 환자가 상호작용을 하는 동안 사물을 가리는 경우 사각을 줄일 수 있으며, 복수개의 카메라(10)를 사용하므로 photogrammetry 기법을 사용하여 특징점 사이의 관계로 카메라(10)부터의 사물의 거리, 방향 등을 파악할 수 있는 것이다.Here, the camera 10 uses a plurality of cameras 10 to reduce blind spots when an object is covered while the patient interacts, and since the plurality of cameras 10 are used, a photogrammetry technique is used between feature points. It is possible to grasp the distance, direction, etc. of an object from the camera 10 in relation to .

또한, 일반적으로 HMD(Head Mounted Display) 카메라는 좌우 각각 2개씩 총 4개이고,이를 이용해 오브젝트의 실제 위치를 파악한 후 3D모델링 된 오브젝트를 해당 실제 위치에 매칭시키는 기술이며, Asynchronous Spacewarp technology를 통해 스테레오 카메라에 캡쳐된 이미지를 이용하여 실제 물체의 위치를 연산하여 정확하게 매칭할 수 있는 것이다.In addition, in general, there are a total of four HMD (Head Mounted Display) cameras, two each on the left and right, and it is a technology to match the 3D modeled object to the actual position after identifying the actual position of the object using this, and stereo camera through Asynchronous Spacewarp technology It is possible to accurately match by calculating the position of the real object using the captured image.

상기 특징점 추출부(20)는 상기 카메라(10)에서 들어오는 영상으로부터 특징점들을 추출하는 것이다.The feature point extraction unit 20 extracts feature points from an image input from the camera 10 .

상기 특징점 간의 관계 도출부(40)는 상기 특징점 추출부(20)로부터 각 특징점 간의 거리, 방향, 보이지 않는 특징점의 관계를 파악하는 것이다.The relationship derivation unit 40 between the feature points determines the relationship between the distance, direction, and invisible feature points between the feature points from the feature point extractor 20 .

상기 표식 인식부(30)는 상기 카메라(10)로부터 들어오는 영상으로부터 표식(marker)을 인식하는 것이다.The mark recognizing unit 30 recognizes a marker from an image received from the camera 10 .

여기서, 상기 표식 인식부(30)에서 표식(marker)은 사물의 종류 정보를 가지고 있어 3D 모델 라이브러리에서 사물을 파악하는데 사용할 수 있는 것이다.Here, in the mark recognizing unit 30, a marker has type information of an object and can be used to identify an object in a 3D model library.

상기 표식 간의 관계 도출부(50)는 상기 표식 인식부(30)로부터 복수의 표식을 인식하여 각 표식 간의 거리와 관계를 파악하는 것이다.The relationship derivation unit 50 between the marks recognizes a plurality of marks from the mark recognizing unit 30 and determines the distance and relationship between the marks.

상기 사물의 위치, 방향, 사물의 종류부(60)는 3D 모델 라이브러리(7)에서 불러온 3D 모델, 특징점, 표식 정보를 기반으로 수치 분석을 통하여 현재 영상에 잡힌 사물의 위치, 방향, 종류를 파악하는 것이다.The object location, direction, and object type unit 60 determines the location, direction, and type of the object captured in the current image through numerical analysis based on the 3D model, feature points, and mark information retrieved from the 3D model library 7. is to figure out

여기서, 상기 3D 모델 라이브러리(7)는 환자가 현재 상호작용을 하는 사물을 인식하여 표현하기 위해 필요한 사물에 대한 정보와 컴퓨터 그래픽을 통하여 재현하기 위한 데이터를 저장하고 있는 것이다.Here, the 3D model library 7 stores information on objects necessary for recognizing and expressing objects with which the patient currently interacts and data for reproducing through computer graphics.

또한, 상기 3D 모델 라이브러리(7)는 3D 스캐닝 솔루션(1)과, 3D 모델링 도구(2)와, 3D 모델부(3)와, 특징점 정보 추가부(4)와, 표식정보 추가부(5)와, 3D 모델부(6)와, 3D 모델 라이브러리(7)의 구성을 포함하는 것이다.In addition, the 3D model library 7 includes a 3D scanning solution 1, a 3D modeling tool 2, a 3D model unit 3, a feature point information addition unit 4, and a mark information addition unit 5 and the configuration of the 3D model unit 6 and the 3D model library 7.

상기 3D 스캐닝 솔루션(1)은 실제 사물의 삼차원 데이터를 구성하여 수정하여 작성하는 방법을 제공하는 것이다.The 3D scanning solution 1 provides a method of constructing, modifying, and creating three-dimensional data of a real object.

상기 3D 모델링 도구(2)는 실제 사물의 치수를 반영하여 구성하여 사용하거나, 혼용하여 사용하게 하는 것이다.The 3D modeling tool 2 is configured to reflect the dimensions of a real object, or used in combination.

상기 3D 모델부(3)는 상기 3D 스캐닝 솔루션(1)과 3D 모델링 도구(2)로 구성되는 것이다.The 3D model unit 3 is composed of the 3D scanning solution 1 and the 3D modeling tool 2.

상기 특징점 정보 추가부(4)는 상기 3D 모델부(3)로부터 3D 모델의 종류, 위치, 방향을 파악하는데 사용할 수 있는 특징점(Feature Point) 정보를 도출하는 것이다.The feature point information addition unit 4 derives feature point information that can be used to determine the type, location, and direction of the 3D model from the 3D model unit 3.

여기서, 상기 특징점 정보 추가부(4)에서의 특징점 정보는 카메라에서 실제 사물을 촬영하여 각 특징점 간의 관계를 통계적으로 분석하여 현재 사물의 종류나 위치, 방향 등을 추정하는 데 사용하는 것이다.Here, the feature point information in the feature point information adding unit 4 is used to estimate the type, location, direction, etc. of the current object by statistically analyzing the relationship between each feature point by photographing a real object with a camera.

또한, 상기 특징점 정보에서, 예를 들어, 정육면체의 경우 꼭짓점은 특징점들이 되며, 각 꼭지점 간의 거리 정보를 기록해야 하는 것이다.In addition, in the feature point information, for example, in the case of a cube, the vertices become feature points, and distance information between the respective vertices should be recorded.

상기 표식정보 추가부(5)는 상기 특징점 정보 추가부(4)로부터의 특징점만으로는 사물의 종류와 방향 등을 정확히 파악하는 것에 한계가 있어서 특징점 정보를 보조하기 위한 표식(marker)을 등록하는 과정을 추가하는 것이다.The marker information adding unit 5 has limitations in accurately grasping the type and direction of an object with only the feature points from the feature point information adding unit 4, so the process of registering a marker to assist feature point information is performed. is to add

여기서, 상기 특징점에서 한계가 있는 경우에 해당하는 것에는 예를 들어, 반사가 심한 표면을 가지고 있거나, 특징점을 도출하기 어려운 형태를 가진 경우인 것이다.Here, the case where there is a limit in the feature point is, for example, a case of having a highly reflective surface or having a shape in which it is difficult to derive the feature point.

또한, 상기 표식정보 추가부(5)의 표식(marker)을 등록하는 과정에서는 사물에 복수의 표식(marker)을 붙이고, 각 표식에 다른 색상을 할당하여 색상 코드 형태로 사물의 종류 정보를 기록할 수 있으며, 표식 간의 관계 정보를 기록하여 사물의 방향, 위치를 파악하는 데 사용할 수 있는 것이다.In addition, in the process of registering the markers of the marker information adding unit 5, a plurality of markers are attached to objects, and different colors are assigned to each marker to record object type information in the form of color codes. It can be used to identify the direction and position of an object by recording the relational information between the signs.

또한, 상기 마커에 사물의 종류 정보를 기록하고, 복수의 마커를 사물에 부착하여 마커의 거리 정보를 이용하여 사물의 위치, 방향을 파악하는 데 사용할 수 있고, 환자가 사물과 상호 작용을 하는 동안 마커가 가려질 수 있으며, 복수의 마커를 사용하여 사각으로 인한 영향을 최소화할 수 있는 것이다.In addition, it is possible to record object type information on the marker, attach a plurality of markers to the object, and use distance information of the markers to determine the position and direction of the object, while the patient interacts with the object. The markers can be covered, and the effect of blind spots can be minimized by using a plurality of markers.

상기 인식 가능한 3D 모델부(6)는 상기 3D 모델링과 특징점 정보, 마커 정보를 합쳐서 인식 가능한 3D 모델을 만드는 것이다.The recognizable 3D model unit 6 creates a recognizable 3D model by combining the 3D modeling, feature point information, and marker information.

상기 3D 모델 라이브러리(7)는 상기 인식 가능한 3D 모델부(6)의 정보들은 추후 카메라를 통한 인식 및 컴퓨터 그래픽으로 재현하는데 사용할 수 있도록 저장하고 있는 것이다.The 3D model library 7 stores the information of the recognizable 3D model unit 6 so that it can be used for later recognition through a camera and reproduction in computer graphics.

여기서, 상기 인식 가능한 3D 모델부(6)의 정보들을 가상현실에서 재현할 때 저장된 3D 모델의 색상, 표면 질감을 변경하거나, 정적인 사물을 동적으로 변하는 사물로 변경할 수 있고, 현실에서는 파란색 컵이지만 가상으로 표현할 때는 빨간색으로 표현할 수 있고, 또한, 도자기 형태의 컵을 금속 컵으로도 표현 가능하며, 계속 색상이 변하는 컵으로 표시할 수 있는 것이다.Here, when the information of the recognizable 3D model unit 6 is reproduced in virtual reality, the color and surface texture of the stored 3D model can be changed, or a static object can be changed to a dynamically changing object. When it is expressed virtually, it can be expressed in red, and a pottery cup can be expressed as a metal cup, and it can be displayed as a continuously changing color cup.

상기 미래 위치, 방향 예측부(70)는 상기 사물의 위치, 방향, 사물의 종류부(60)로부터의 인식시간에 지연이 발생하는 경우 사람이 인지할 수 없는 시간 내에 소리를 재현해야 하거나, 다른 필요성이 있는 경우 위치와 방향의 변화도를 측정하여 근 미래에 사물이 있을 위치나 변화하는 방향을 예측하고, 환자의 신체 움직임을 같이 고려하여 사물의 현재 위치, 방향 정보를 예측하는 것이다.The future position and direction prediction unit 70 must reproduce a sound within a time that a person cannot perceive when a delay occurs in the recognition time from the position, direction, and object type unit 60 of the object, or other If there is a need, the degree of change in position and direction is measured to predict the position or changing direction of the object in the near future, and the current position and direction information of the object is predicted in consideration of the patient's body movement.

여기서, 상기 미래 위치, 방향 예측부(70)에서 젓가락이 부딪히는 순간에 소리를 재생하고자 할 때, 0.1초 뒤에 부딪히는 것으로 예상되지만, 위치 인식에 0.2초가 걸린다면 영상 인식 전에 미리 효과음을 재생하도록 할 수 있는 것이다.Here, when the future position and direction prediction unit 70 tries to reproduce the sound at the moment the chopsticks collide, it is expected that the chopsticks will collide after 0.1 second, but if it takes 0.2 seconds to recognize the position, the effect sound can be played in advance before image recognition There is.

또한, 상기 환자의 신체 움직임을 같이 고려하여 사물의 현재 위치, 방향 정보를 예측하는 경우, 예를 들어, 손으로 물체를 잡은 채로 팔을 돌리면, 손에 잡혀 있는 물체는 원운동을 하게 되며, 물체의 위치나 방향 정보만으로 예측하는 것보다 손에 잡혀 있다는 정보를 같이 고려하게 되면 예측 정확도가 올라가게 되는 것이다.In addition, when predicting the current position and direction information of an object in consideration of the patient's body movement, for example, when the arm is rotated while holding the object by hand, the object held in the hand makes a circular motion, and the object Rather than predicting only the position or direction information of the hand, the prediction accuracy increases when the information held in the hand is also considered.

상기 게임로직부(80)는 상기 3D 모델 라이브러리(7)에서 불러온 3D 모델링 정보와 현재의 위치, 방향, 미래의 예측 위치, 방향이 입력되는 것이다.The game logic unit 80 inputs the 3D modeling information retrieved from the 3D model library 7, the current position and direction, and the predicted future position and direction.

상기 가상의 이미지 표출부(90)는 상기 게임로직부(80)에서의 게임로직의 변환에 따라 가상의 이미지를 표출하는 것이다.The virtual image display unit 90 displays a virtual image according to conversion of the game logic in the game logic unit 80 .

상기 가상의 소리 재생부(100)는 상기 게임로직부(80)에서의 게임로직의 변환에 따라 가상의 소리로 재생하는 것이다.The virtual sound reproducing unit 100 reproduces the virtual sound according to the conversion of the game logic in the game logic unit 80 .

상술한 바와 같은 본 발명은 환자가 사물과 상호작용을 할 때 느끼는 촉각은 그대로 둔 채 시각과 청각 신호를 게임적 요소를 지닌 가상현실의 시각과 청각 신호로 위화감 없이 교체하여 줄 수 있는 것이다.As described above, the present invention can replace visual and auditory signals with virtual reality visual and auditory signals having game elements without discomfort while leaving the patient's tactile sense when interacting with objects.

예를 들어, 물 컵을 집어서 옮기는 훈련을 하는 경우, 물 컵을 잡은 상태의 촉각은 그대로 느끼게 하지만, 물 컵의 모양은 컴퓨터 그래픽으로 구현한 가상의 사물을 가상현실용 디스플레이 상에 재현하고, 현실에서는 발생하지 않은 배경 음악이나 효과음을 만들어 내어 합성할 수 있는 것이다.For example, in the case of training to pick up and move a water cup, the tactile sense of holding the water cup is felt as it is, but the shape of the water cup is reproduced on a display for virtual reality as a virtual object implemented by computer graphics, It is possible to create and synthesize background music or sound effects that do not occur in reality.

또한, 본 발명은 환자가 촉각으로 느끼는 물체의 종류, 위치, 작용/반작용과 이로부터 예측할 수 있는 시각적인 자극, 청각 신호가 일치되게 하여 주므로 시각과 청각 신호를 가상의 신호로 대체할 때 재활 대상자가 혼란을 느끼지 않게 할 수 있는 것이다.In addition, since the present invention matches the type, location, action/reaction of an object felt by the patient with the visual stimulus and auditory signal that can be predicted therefrom, when visual and auditory signals are replaced with virtual signals, rehabilitation subjects can make you feel less confused.

예를 들어, 젓가락을 들어 음식을 집는 과정의 훈련을 할 때, 손으로 느끼는 젓가락의 모양, 위치, 방향을 가상의 시각 신호에서도 일치하여 보여줘야 하며, 젓가락이 부딪칠 때 나는 가상의 소리는 사람을 인지하기 어려운 시간 차이 내의 소리를 재생시 부딪치는 순간과 일치해야 하는 것이다.For example, when training in the process of lifting chopsticks and picking up food, the shape, position, and direction of the chopsticks felt by the hand must be matched with virtual visual cues, and the virtual sound produced when the chopsticks collide can guide people. When playing a sound within an imperceptible time difference, it must coincide with the moment of collision.

특히, 위화감 없이 물체를 가상으로 표현하려면, 1) 현재 환자가 상호작용을 하는 물체의 종류와 수를 인식할 수 있어야 하고, 2) 물체들의 위치와 방향을 계산할 수 있어야 하며, 3) 컴퓨터 그래픽으로 표현하기 위한 3D 모델이 필요한 것이다.In particular, to represent objects virtually without discomfort, 1) the patient must be able to recognize the type and number of objects that the patient is currently interacting with, 2) be able to calculate the location and direction of objects, and 3) use computer graphics. You need a 3D model to represent it.

그리고 환자가 상호작용을 하는 동안 물체의 일부 또는 전체가 가려질 수 있으므로 사각(死角)을 줄이기 위한 기술이 필요한 것이다. And since some or all of the objects may be obscured while the patient is interacting, a technique to reduce blind spots is needed.

또한, 상술한 바와 같은, 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템은 재활치료의 의료분야는 물론 교육훈련 관련 산업분야에 적용할 수 있으므로 그 사용 및 적용대상이 광범위하다. In addition, as described above, since the object information recognition and prediction system applying virtual reality technology to rehabilitation treatment can be applied to the medical field of rehabilitation treatment as well as the industrial field related to education and training, its use and application are wide.

도면과 명세서에서 최적의 실시예가 개시되었으며, 여기서 사용된 용어들은 단지 본 발명을 설명하기 위한 목적에서 사용된 것이며, 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능할 것이며, 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.The best embodiment has been disclosed in the drawings and specifications, and the terms used herein are only used for the purpose of describing the present invention, and are not used to limit the scope of the present invention described in the claims or limitation of meaning. Therefore, those skilled in the art will be able to make various modifications and equivalent other embodiments therefrom, and therefore, the true technical scope of protection of the present invention should be defined by the technical spirit of the appended claims.

1 : 3D 스캐닝 솔루션 2 : 3D 모델링 도구
3 : 3D 모델부 4 : 특징점 정보 추가부
5 : 표식정보 추가부 6 : 3D 모델부
7 : 3D 모델 라이브러리 10 : 카메라
20 : 특징점 추출부 30 : 표식 인식부
40 : 특징점 간의 관계 도출부 50 : 표식 간의 관계 도출부
60 : 사물의 위치, 방향, 사물의 종류부
70 : 미래 위치, 방향 예측부 80 : 게임로직부
90 : 가상의 이미지 표출부 100 : 가상의 소리 재생부
1: 3D scanning solutions 2: 3D modeling tools
3: 3D model part 4: feature point information addition part
5: Mark information addition part 6: 3D model part
7: 3D Model Library 10: Camera
20: feature point extraction unit 30: mark recognition unit
40: relationship derivation unit between feature points 50: relationship derivation unit between marks
60: object location, direction, type of object
70: future position, direction prediction unit 80: game logic unit
90: virtual image display unit 100: virtual sound playback unit

Claims (7)

재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템에 있어서,
사물을 인식하여 가상현실에서 표시하기 위해 환자가 상호작용을 하는 동안 사물을 촬영하는 카메라와;
상기 카메라에서 들어오는 영상으로부터 특징점들을 추출하는 특징점 추출부와;
상기 특징점 추출부로부터 각 특징점 간의 거리, 방향, 보이지 않는 특징점의 관계를 파악하는 특징점 간의 관계 도출부와;
상기 카메라로부터 들어오는 영상으로부터 표식(marker)을 인식하는 표식 인식부와;
상기 표식 인식부로부터 복수의 표식을 인식하여 각 표식 간의 거리와 관계를 파악하는 표식 간의 관계 도출부와;
3D 모델 라이브러리에서 불러온 3D 모델, 특징점, 표식 정보를 기반으로 수치 분석을 통하여 현재 영상에 잡힌 사물의 위치, 방향, 종류를 파악하는 사물의 위치, 방향, 사물의 종류부와;
상기 사물의 위치, 방향, 사물의 종류부로부터의 인식시간에 지연이 발생하는 경우 사람이 인지할 수 없는 시간 내에 소리를 재현해야 하거나, 다른 필요성이 있는 경우 위치와 방향의 변화도를 측정하여 근 미래에 사물이 있을 위치나 변화하는 방향을 예측하고, 환자의 신체 움직임을 같이 고려하여 사물의 현재 위치, 방향 정보를 예측하는 미래 위치, 방향 예측부와;
상기 3D 모델 라이브러리에서 불러온 3D 모델링 정보와 현재의 위치, 방향, 미래의 예측 위치, 방향이 입력되는 게임로직부와;
상기 게임로직부에서의 게임로직의 변환에 따라 가상의 이미지를 표출하는 가상의 이미지 표출부와;
상기 게임로직부에서의 게임로직의 변환에 따라 가상의 소리로 재생하는 가상의 소리 재생부; 을 포함함을 특징으로 하는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템.
In the object information recognition and prediction system applying virtual reality technology to rehabilitation treatment,
a camera for capturing an object while the patient interacts with it in order to recognize the object and display the object in virtual reality;
a feature point extraction unit extracting feature points from the image input from the camera;
a relationship derivation unit between feature points that grasps a relationship between a distance, a direction, and an invisible feature point between each feature point from the feature point extractor;
a marker recognizing unit recognizing a marker from an image received from the camera;
a relationship derivation unit between the marks recognizing a plurality of marks from the mark recognizing unit and determining a distance and relationship between the marks;
a location, direction, and type of object that determines the location, direction, and type of an object captured in the current image through numerical analysis based on 3D model, feature points, and mark information retrieved from a 3D model library;
If there is a delay in the recognition time from the position, direction, and type of the object, the sound must be reproduced within a time that a person cannot perceive, or if there is another need, the degree of change in position and direction is measured a future position and direction prediction unit that predicts a position or changing direction of an object in the future and predicts current position and direction information of the object in consideration of the patient's body movement;
a game logic unit for inputting 3D modeling information retrieved from the 3D model library, a current position and direction, and a predicted future position and direction;
a virtual image display unit for displaying a virtual image according to the conversion of the game logic in the game logic unit;
a virtual sound reproducing unit that reproduces a virtual sound according to the conversion of the game logic in the game logic unit; Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment, characterized in that it comprises a.
제 1항에 있어서,
상기 3D 모델 라이브러리는 환자가 현재 상호작용을 하는 사물을 인식하여 표현하기 위해 필요한 사물에 대한 정보와 컴퓨터 그래픽을 통하여 재현하기 위한 데이터를 저장하고 있는 것을 포함함을 특징으로 하는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템.
According to claim 1,
The 3D model library stores information about objects necessary for recognizing and expressing objects with which the patient currently interacts and data for reproducing through computer graphics Virtual reality technology in rehabilitation treatment, characterized in that Object information recognition and prediction system applied.
제 1항에 있어서,
상기 3D 모델 라이브러리의 구성은 실제 사물의 삼차원 데이터를 구성하여 수정하여 작성하는 방법을 제공하는 3D 스캐닝 솔루션과, 실제 사물의 치수를 반영하여 구성하여 사용하거나, 혼용하여 사용하게 하는 3D 모델링 도구와, 상기 3D 스캐닝 솔루션과 3D 모델링 도구로 구성되는 3D 모델부와, 상기 3D 모델부로부터 3D 모델의 종류, 위치, 방향을 파악하는데 사용할 수 있는 특징점(Feature Point) 정보를 도출하는 특징점 정보 추가부와, 상기 특징점 정보 추가부로부터의 특징점만으로는 사물의 종류와 방향 등을 정확히 파악하는 것에 한계가 있어서 특징점 정보를 보조하기 위한 표식(marker)을 등록하는 과정을 추가하는 표식정보 추가부와, 상기 3D 모델링과 특징점 정보, 마커 정보를 합쳐서 인식 가능한 3D 모델을 만드는 인식 가능한 3D 모델부와, 상기 인식 가능한 3D 모델부의 정보들은 추후 카메라를 통한 인식 및 컴퓨터 그래픽으로 재현하는데 사용할 수 있도록 저장하고 있는 3D 모델 라이브러리; 을 포함함을 특징으로 하는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템.
According to claim 1,
The configuration of the 3D model library includes a 3D scanning solution that provides a method of configuring, modifying, and creating three-dimensional data of a real object, a 3D modeling tool that reflects the dimensions of a real object and configures and uses it, or A 3D model unit composed of the 3D scanning solution and a 3D modeling tool, and a feature point information addition unit for deriving feature point information that can be used to determine the type, location, and direction of the 3D model from the 3D model unit; A marker information addition unit for adding a process of registering a marker to assist feature point information because there is a limit to accurately grasping the type and direction of an object only with the feature point from the feature point information addition unit, and the 3D modeling and A recognizable 3D model unit that creates a recognizable 3D model by combining feature point information and marker information, and a 3D model library that stores the information of the recognizable 3D model unit so that it can be used for later recognition through a camera and reproduction in computer graphics; Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment, characterized in that it comprises a.
제 3항에 있어서,
상기 특징점 정보 추가부에서의 특징점 정보는 카메라에서 실제 사물을 촬영하여 각 특징점 간의 관계를 통계적으로 분석하여 현재 사물의 종류나 위치, 방향 등을 추정하는 데 사용하는 것을 포함함을 특징으로 하는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템.
According to claim 3,
Characterized in that the feature point information in the feature point information addition unit is used to estimate the type, location, direction, etc. of the current object by photographing a real object with a camera and statistically analyzing the relationship between each feature point. Object information recognition and prediction system applied with virtual reality technology.
제 1항에 있어서,
상기 카메라는 복수개의 카메라를 사용하여 환자가 상호작용을 하는 동안 사물을 가리는 경우 사각을 줄일 수 있으며, 복수개의 카메라를 사용하므로 photogrammetry 기법을 사용하여 특징점 사이의 관계로 카메라부터의 사물의 거리, 방향 등을 파악할 수 있는 것을 포함함을 특징으로 하는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템.
According to claim 1,
The camera uses a plurality of cameras to reduce blind spots when the patient covers an object while interacting with the patient. Since the camera uses a plurality of cameras, the distance and direction of the object from the camera are determined by the relationship between feature points using a photogrammetry technique. Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment, characterized in that it includes being able to grasp the etc.
제 1항에 있어서,
상기 표식 인식부에서 표식(marker)은 사물의 종류 정보를 가지고 있어 3D 모델 라이브러리에서 사물을 파악하는데 사용할 수 있는 것을 포함함을 특징으로 하는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템.
According to claim 1,
The marker in the mark recognition unit has object type information and can be used to identify objects in a 3D model library. Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment.
제 1항에 있어서,
상기 미래 위치, 방향 예측부에서 젓가락이 부딪히는 순간에 소리를 재생하고자 할 때, 0.1초 뒤에 부딪히는 것으로 예상되지만, 위치 인식에 0.2초가 걸린다면 영상 인식 전에 미리 효과음을 재생하도록 할 수 있는 것을 포함함을 특징으로 하는 재활치료에 가상현실 기술을 적용한 사물정보 인식 및 예측 시스템.
According to claim 1,
When trying to play a sound at the moment the chopsticks collide in the future position and direction prediction unit, it is expected to collide after 0.1 seconds, but if it takes 0.2 seconds for position recognition, it includes being able to play sound effects in advance before image recognition Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment characterized by.
KR1020210189328A 2021-12-28 2021-12-28 Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment KR20230099896A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210189328A KR20230099896A (en) 2021-12-28 2021-12-28 Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210189328A KR20230099896A (en) 2021-12-28 2021-12-28 Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment

Publications (1)

Publication Number Publication Date
KR20230099896A true KR20230099896A (en) 2023-07-05

Family

ID=87158973

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210189328A KR20230099896A (en) 2021-12-28 2021-12-28 Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment

Country Status (1)

Country Link
KR (1) KR20230099896A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101501838B1 (en) 2013-07-09 2015-03-12 울산대학교 산학협력단 Using virtual reality pain treatment therapy apparatus and control method for the patients after the analgesia operation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101501838B1 (en) 2013-07-09 2015-03-12 울산대학교 산학협력단 Using virtual reality pain treatment therapy apparatus and control method for the patients after the analgesia operation

Similar Documents

Publication Publication Date Title
US11730543B2 (en) Sensory enhanced environments for injection aid and social training
Chen et al. ImmerTai: Immersive motion learning in VR environments
Mousavi Hondori et al. A review on technical and clinical impact of microsoft kinect on physical therapy and rehabilitation
Alamri et al. AR-REHAB: An augmented reality framework for poststroke-patient rehabilitation
US9892655B2 (en) Method to provide feedback to a physical therapy patient or athlete
Kurillo et al. Real-time 3D avatars for tele-rehabilitation in virtual reality
Baran et al. Design of a home-based adaptive mixed reality rehabilitation system for stroke survivors
KR20110065388A (en) The simulation system for training and the method thereof
KR102320960B1 (en) Personalized home training behavior guidance and correction system
Nunes et al. Human motion analysis and simulation tools: a survey
Boonbrahm et al. Interactive marker-based augmented reality for CPR training
JP2012073299A (en) Language training device
CN107908286A (en) The method and system of human feeling is realized in a kind of virtual reality exhibition room
Metsis et al. Computer aided rehabilitation for patients with rheumatoid arthritis
Elsayed et al. Cameraready: Assessing the influence of display types and visualizations on posture guidance
Uttarwar et al. Development of a kinect-based physical rehabilitation system
D. Gomez et al. See ColOr: an extended sensory substitution device for the visually impaired
KR20230099896A (en) Object information recognition and prediction system applying virtual reality technology to rehabilitation treatment
CN113903424A (en) Virtual reality function rehabilitation training system
Garcia et al. Immersive augmented reality for Parkinson disease rehabilitation
KR102444058B1 (en) System for mixed-reality acupuncture training with dummy and acupuncture controller
Moustakas et al. Using modality replacement to facilitate communication between visually and hearing-impaired people
Lun et al. A survey of using microsoft kinect in healthcare
KR102252249B1 (en) System for acupuncture training using improved human body model and acupuncture controller
Sreeni et al. Multi-Modal Posture Recognition System for Healthcare Applications