KR102253353B1 - Method and apparatus for providing rehabilitation content using virtual transplant hand based on vr/ar - Google Patents

Method and apparatus for providing rehabilitation content using virtual transplant hand based on vr/ar Download PDF

Info

Publication number
KR102253353B1
KR102253353B1 KR1020200180390A KR20200180390A KR102253353B1 KR 102253353 B1 KR102253353 B1 KR 102253353B1 KR 1020200180390 A KR1020200180390 A KR 1020200180390A KR 20200180390 A KR20200180390 A KR 20200180390A KR 102253353 B1 KR102253353 B1 KR 102253353B1
Authority
KR
South Korea
Prior art keywords
coding
virtual
fields
character
movement
Prior art date
Application number
KR1020200180390A
Other languages
Korean (ko)
Inventor
이준서
Original Assignee
이준서
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이준서 filed Critical 이준서
Priority to KR1020200180390A priority Critical patent/KR102253353B1/en
Application granted granted Critical
Publication of KR102253353B1 publication Critical patent/KR102253353B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2002/5058Prostheses not implantable in the body having means for restoring the perception of senses
    • A61F2002/5064Prostheses not implantable in the body having means for restoring the perception of senses for reducing pain from phantom limbs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • A61M2021/005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense images, e.g. video
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/502User interfaces, e.g. screens or keyboards
    • A61M2205/507Head Mounted Displays [HMD]

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Acoustics & Sound (AREA)
  • Psychology (AREA)
  • Anesthesiology (AREA)
  • Hematology (AREA)
  • Rehabilitation Tools (AREA)

Abstract

According to an embodiment of the present invention, a method for providing rehabilitation content comprises the operations of: storing rehabilitation content including a map composed of a plurality of fields through which a character in a virtual space passes from a starting point to a destination; outputting the plurality of fields to the virtual space as the rehabilitation content is played; acquiring the shape and movement of a second hand according to the movement of a patient from a wearable device worn on the second hand, which is a body part symmetrical with a first hand corresponding to an amputated or paralyzed body part of the patient; generating a virtual body image having the shape and movement of the second hand and the inverted shape and movement in a virtual space based on the obtained information; outputting a list of coding blocks that control an operation of the character to the virtual space, and generating a coding block selected by the patient; arranging the coding block in any one of the plurality of fields based on the movement of the virtual body image that moves in reverse with respect to the movement of the second hand; and controlling, as the arrangement of the coding block for the plurality of fields is completed, to perform an operation according to coding information mapped to a field through which the character passes from the starting point. According to the present invention, it is possible to conduct treatment which has the same concept as mirror therapy.

Description

VR/AR 기반의 가상 이식 손을 이용한 재활 콘텐츠 제공 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING REHABILITATION CONTENT USING VIRTUAL TRANSPLANT HAND BASED ON VR/AR}Method and device for providing rehabilitation contents using VR/AR-based virtual implanted hands {METHOD AND APPARATUS FOR PROVIDING REHABILITATION CONTENT USING VIRTUAL TRANSPLANT HAND BASED ON VR/AR}

본 발명은 VR/AR 기반의 가상 이식 손을 이용한 재활 콘텐츠 제공 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for providing rehabilitation content using a virtual implanted hand based on VR/AR.

당뇨병, 버거병 등 현대 사회와 관련된 질병으로 인하여 팔이나 다리를 절단하는 환자의 수가 매년 증가하고 있다. 이처럼 팔이나 다리를 절단한 사지 절단 환자들의 50% 내지 80%는 환상통(Phantom Pain)을 겪는다. 환상통이란 몸의 특정 부위가 사고나 질병 등의 이유로 물리적으로 없는 상태임에도 있는 것처럼 느끼며 통증을 겪는 질환이다. The number of patients with amputation of an arm or leg is increasing every year due to diseases related to modern society such as diabetes and Burger's disease. 50% to 80% of limb amputation patients with such amputation of an arm or leg suffer from phantom pain. Fantastic pain is a disease in which a certain part of the body feels as though it is physically absent due to an accident or disease and suffers pain.

환상통의 치료법으로는 대표적으로 거울 치료법(Mirror Therapy)이 있다. 거울 치료법은 팔이 절단된 환자에게 거울을 이용해 다른 한 팔을 비추어 마치 두 팔이 있는 것처럼 손 운동을 시킴으로써 환상통을 완화시키는 치료 방법이다. 절단 환자들에게 잘려나간 부위의 신체가 통증 없이 움직인다는 시각적 착각을 일으키게 하여 절단된 부위에서 느끼는 환상통을 줄이는 방법으로서 이러한 치료법의 효과는 의학계에서 입증되어 있다. A representative treatment for phantom pain is mirror therapy. Mirror therapy is a treatment method that relieves phantom pain by performing hand movements on a patient whose arm is amputated by using a mirror to illuminate the other arm as if they had two arms. As a method of reducing the phantom pain felt at the amputated area by causing the visual illusion that the body in the cut area moves without pain in amputated patients, the effectiveness of this treatment has been proven in the medical field.

그러나 거울 치료법은 거울에 대한 환자의 시선이 이루는 각도를 정확하게 맞춘 자세에서 수행해야 하므로 적용이 불편하고, 거울 바로 옆에서 제한적인 범위의 움직임만 가능하기 때문에 현실 생활에서 사용되는 다양한 움직임과 달리 제한된 동작만 이뤄진다는 한계가 있었다. However, mirror therapy is inconvenient to apply because it must be performed in a posture that accurately aligns the angle of the patient's gaze to the mirror, and because it allows only a limited range of movements right next to the mirror, it differs from various movements used in real life. There was a limit that it could only be achieved.

또한, 거울을 이용한 치료 방법은 다리가 절단된 환자의 경우, 환자의 시선과 거울이 이루는 각도를 현실감 있게 맞추기가 쉽지 않기 때문에 하지가 절단되거나 마비된 환자에게는 적용하기 어려웠다.In addition, the treatment method using a mirror is difficult to apply to patients with amputated or paralyzed lower limbs because it is difficult to realistically match the angle between the patient's gaze and the mirror in the case of a patient with a leg amputated.

한국 등록특허공보 제10-200112호: 자이로 센서를 이용한 모션인식 장치 및 그 모션인식 방법Korean Patent Publication No. 10-200112: Motion recognition device using gyro sensor and its motion recognition method

본 발명의 실시예에서 해결하고자 하는 과제는 환자들에게 절단된 부위의 신체가 통증 없이 움직인다는 시각적 효과로 착각을 일으키게 하여 절단 부위에서 느끼는 환상통을 줄인다는 거울 치료법의 치료 개념을 유지하면서, 환자가 거울 없이도 다양한 동작을 수행할 수 있는 VR/AR 기술 결합 방식을 구현하여, 사지 절단 환자의 환상통을 완화하는 치료와 재활 훈련의 효과를 높이는데 기여하는 기술을 제공하는 것이다.The problem to be solved in the embodiments of the present invention is that the patient maintains the treatment concept of mirror therapy that reduces the phantom pain felt at the cut site by causing the patient to make an illusion with the visual effect that the body at the cut part moves without pain. By implementing a VR/AR technology combination method that can perform various movements without a mirror, it provides a technology that contributes to enhancing the effect of treatment and rehabilitation training to alleviate phantom pain of limb amputation patients.

또한, 상술한 치료 기술에 더하여 VR/AR 기술의 특징을 활용한 콘텐츠를 함께 제공함으로써, 환자가 치료 과정에서 현실감 있게 팔과 다리를 사용한다는 느낌을 받으면서도 흥미를 느낄 수 있도록 하는 VR/AR 콘텐츠를 제공하고자 한다. In addition, by providing content that utilizes the features of VR/AR technology in addition to the above-described treatment technology, VR/AR content that allows patients to feel interest while receiving the feeling that they use their arms and legs realistically in the treatment process is provided. I want to provide.

다만, 본 발명의 실시예가 이루고자 하는 기술적 과제는 이상에서 언급한 과제로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제가 도출될 수 있다.However, the technical problems to be achieved by the embodiments of the present invention are not limited to the above-mentioned problems, and various technical problems can be derived from the contents to be described below within a range that is obvious to a person skilled in the art.

본 발명의 일 실시예에 따른 재활 콘텐츠 제공 장치가 수행하는 재활 콘텐츠 제공 방법은 가상 공간 내 캐릭터가 출발지에서 목적지로 가기 위해 경유하는 복수의 필드로 구성된 맵을 포함하는 재활 콘텐츠를 저장하는 동작; 상기 재활 콘텐츠가 플레이됨에 따라 상기 복수의 필드를 가상 공간에 출력하는 동작; 환자의 절단되거나 마비된 신체 부위에 해당하는 제1 손과 대칭되는 신체 부위인 제2 손에 착용된 웨어러블 장치로부터 상기 환자의 움직임에 따른 제2 손의 형태 및 움직임을 획득하는 동작; 상기 획득한 정보를 기초로 상기 제2 손의 형태 및 움직임과 좌우가 반전된 형태 및 움직임을 갖는 가상의 신체 영상을 상기 가상 공간에 생성하는 동작; 상기 캐릭터의 동작을 제어하는 코딩 블록에 대한 목록을 상기 가상 공간에 출력하고, 상기 환자에 의해 선택된 코딩 블록을 생성하는 동작; 상기 가상의 신체 영상의 움직임에 기초하여 상기 코딩 블록을 상기 복수의 필드 중 어느 하나의 필드에 배치하는 동작; 및 상기 복수의 필드에 대한 코딩 블록의 배치 완료에 따라, 상기 캐릭터가 상기 출발지로부터 경유하게 되는 필드에 매핑된 코딩 정보에 따른 동작을 수행하도록 제어하는 동작을 포함할 수 있다.A method of providing rehabilitation content performed by an apparatus for providing rehabilitation content according to an embodiment of the present invention includes storing rehabilitation content including a map consisting of a plurality of fields that a character in a virtual space passes through to go from a starting point to a destination; Outputting the plurality of fields to a virtual space as the rehabilitation content is played; Acquiring the shape and movement of the second hand according to the movement of the patient from the wearable device worn on the second hand, which is a body part symmetric with the first hand corresponding to the patient's amputated or paralyzed body part; Generating, in the virtual space, a virtual body image having a shape and movement of the second hand and a shape and movement in which the left and right sides are reversed based on the obtained information; Outputting a list of coding blocks that control the motion of the character to the virtual space, and generating a coding block selected by the patient; Arranging the coding block in any one of the plurality of fields based on the motion of the virtual body image; And an operation of controlling the character to perform an operation according to coding information mapped to a field passed from the starting point upon completion of the arrangement of the coding blocks for the plurality of fields.

또한, 상기 코딩 블록을 생성하는 동작은 복수의 코딩 블록을 포함하는 목록을 상기 가상 공간에 출력하는 동작; 및 상기 목록에 대한 상기 가상의 신체 영상의 잡기 동작에 의해 선택된 코딩 블록을 상기 가상의 신체 영상에 생성하는 동작을 포함할 수 있다.In addition, the generating of the coding block may include outputting a list including a plurality of coding blocks to the virtual space; And generating, in the virtual body image, a coding block selected by the grabbing operation of the virtual body image with respect to the list.

또한, 상기 필드에 배치하는 동작은 상기 가상의 신체 영상이 상기 코딩 블록을 놓거나 던지는 움직임을 감지하는 동작; 상기 가상의 신체 영상이 움직이는 방향 및 속도를 기초로 상기 코딩 블록이 던져지는 방향 및 속도를 계산하여 상기 가상 공간 내에 상기 코딩 블록의 움직임을 출력하는 동작; 및 상기 코딩 블록의 움직임에 따라 상기 코딩 블록이 상기 복수의 필드 중 어느 하나의 필드에 도달한 것으로 판별된 경우, 상기 어느 하나의 필드에 상기 코딩 블록에 대응되는 동작에 대한 코딩 정보를 매핑시키는 동작을 포함할 수 있다.In addition, the placing in the field may include detecting a motion of the virtual body image placing or throwing the coding block; Calculating a direction and speed at which the coding block is thrown based on a direction and speed of the virtual body image, and outputting a motion of the coding block in the virtual space; And when it is determined that the coding block has reached any one of the plurality of fields according to the movement of the coding block, mapping coding information for an operation corresponding to the coding block to the one of the fields. It may include.

또한, 상기 복수의 필드는 캐릭터가 통과 가능한 제1 필드; 캐릭터가 통과 시 게임 오버되는 제2 필드; 및 몬스터가 존재하는 제3 필드를 포함하고, 상기 복수의 필드를 가상 공간에 출력하는 동작은 상기 제1 필드, 상기 제2 필드 및 상기 제3 필드 중 적어도 두개 이상의 필드를 선별하는 동작; 및 상기 선별된 필드 중 어느 하나의 필드의 한 면에는, 적어도 하나의 다른 선별된 필드가 연결되도록 상기 맵을 생성하여 상기 가상 공간에 출력하는 동작을 포함할 수 있다.In addition, the plurality of fields may include a first field through which a character can pass; A second field in which the game is over when the character passes; And a third field in which a monster exists, and the operation of outputting the plurality of fields to the virtual space may include selecting at least two or more fields from among the first field, the second field, and the third field; And generating the map so that at least one other selected field is connected to one side of one of the selected fields and outputting the map to the virtual space.

또한, 상기 코딩 블록은 상기 캐릭터를 전진시키는 제1 코딩 정보; 상기 캐릭터를 점프시켜 전방의 필드를 뛰어넘는 제2 코딩 정보; 상기 캐릭터를 왼쪽으로 회전시키는 제3 코딩 정보; 상기 캐릭터를 오른쪽으로 회전시키는 제4 코딩 정보; 상기 캐릭터가 공격을 수행하여 전방의 몬스터를 제거하는 제5 코딩 정보; 및 하나의 필드에 복수의 코딩 블록이 매핑될 수 있도록 상기 하나의 필드에 대한 아이템 매핑 규칙을 변경시키는 제6 코딩 정보를 포함하고, 상기 제어하는 동작은 상기 제6 코딩 정보에 의해 매핑 규칙이 변하여 하나의 필드에 복수의 코딩 블록이 매핑되어 있는 필드를 상기 캐릭터가 경유하는 경우, 상기 복수의 코딩 블록이 매핑되어 있는 순서대로 상기 캐릭터의 동작을 제어하는 동작을 포함할 수 있다.In addition, the coding block includes first coding information for advancing the character; Second coding information for jumping the character to jump over a field in front; Third coding information for rotating the character to the left; Fourth coding information for rotating the character to the right; Fifth coding information for removing a monster in front of the character by performing an attack; And sixth coding information for changing an item mapping rule for the one field so that a plurality of coding blocks can be mapped to one field, and the controlling operation is performed by changing the mapping rule according to the sixth coding information. When the character passes through a field in which a plurality of coding blocks are mapped to one field, an operation of controlling the operation of the character in the order in which the plurality of coding blocks are mapped may be included.

또한, 상기 재활 콘텐츠 제공 방법은 상기 필드에 배치하는 동작 이후에, 상기 복수의 필드에 대한 코딩 블록의 배치에 따라, 상기 복수의 필드에 매핑된 코딩 정보가 실행되는 순서에 대한 코드 진행 정보를 상기 가상 공간에 출력하는 동작을 더 포함할 수 있다.In addition, the method for providing rehabilitation content includes, after the operation of placing in the field, the code progress information on the order in which the coding information mapped to the plurality of fields is executed according to the arrangement of the coding blocks for the plurality of fields. The operation of outputting to a virtual space may be further included.

또한, 상기 웨어러블 장치는 표면이 늘어나거나 줄어듦에 따라 변화하는 저항값을 통해 상기 표면의 형태를 센싱 가능한 플렉스(flex) 필름이 상기 제2 손을 둘러싸도록 상기 제2 손에 대응하는 형태로 구성되고, 상기 제2 손을 둘러싼 상기 플렉스 필름에 의해 센싱된 상기 제2 손의 형태 및 움직임에 대한 정보를 유무선 통신을 통해 상기 재활 콘텐츠 제공 장치에 전송할 수 있다. In addition, the wearable device is configured in a shape corresponding to the second hand such that a flex film capable of sensing the shape of the surface through a resistance value that changes as the surface is increased or decreased, surrounds the second hand. , The information on the shape and movement of the second hand sensed by the flex film surrounding the second hand may be transmitted to the rehabilitation content providing device through wired or wireless communication.

또한, 상기 가상의 신체 영상을 상기 가상 공간에 생성하는 동작은 상기 웨어러블 장치로부터 획득한 정보를 기초로 상기 제2 손의 형태 및 움직임 정보를 구성하는 복수의 3차원 위치 정보를 생성하는 동작; 상기 복수의 3차원 위치 정보 각각을 면대칭시킨 복수의 가상 위치 정보를 생성하는 동작; 및 상기 복수의 가상 위치 정보를 3D 렌더링하여 상기 가상의 신체 영상을 생성하는 동작을 포함할 수 있다.In addition, the operation of generating the virtual body image in the virtual space may include generating a plurality of 3D location information constituting the shape and motion information of the second hand based on information obtained from the wearable device; Generating a plurality of virtual location information obtained by making each of the plurality of 3D location information plane-symmetric; And generating the virtual body image by 3D rendering the plurality of virtual location information.

본 발명의 일 실시예에 따른 재활 콘텐츠 제공 장치는 영상을 출력하는 디스플레이부; 소정의 동작을 수행하도록 하는 명령어들을 저장하는 하나 이상의 메모리; 및 상기 하나 이상의 메모리와 동작 가능 하도록 연결되어 상기 명령어들을 실행하도록 설정된 하나 이상의 프로세서를 포함하고, 상기 하나 이상의 프로세서는 가상 공간 내 캐릭터가 출발지에서 목적지로 가기 위해 경유하는 복수의 필드로 구성된 맵을 포함하는 재활 콘텐츠를 저장하는 동작; 상기 재활 콘텐츠가 플레이됨에 따라 상기 복수의 필드를 가상 공간에 출력하는 동작; 환자의 절단되거나 마비된 신체 부위에 해당하는 제1 손과 대칭되는 신체 부위인 제2 손에 착용된 웨어러블 장치로부터 상기 환자의 움직임에 따른 제2 손의 형태 및 움직임을 획득하는 동작; 상기 획득한 정보를 기초로 상기 제2 손의 형태 및 움직임과 좌우가 반전된 형태 및 움직임을 갖는 가상의 신체 영상을 상기 가상 공간에 생성하는 동작; 상기 캐릭터의 동작을 제어하는 코딩 블록에 대한 목록을 상기 가상 공간에 출력하고, 상기 환자에 의해 선택된 코딩 블록을 생성하는 동작; 상기 제2 손의 움직임에 대해 반전되어 움직이는 상기 가상의 신체 영상의 움직임에 기초하여 상기 코딩 블록을 상기 복수의 필드 중 어느 하나의 필드에 배치하는 동작; 및 상기 복수의 필드에 대한 코딩 블록의 배치 완료에 따라, 상기 캐릭터가 상기 출발지로부터 경유하게 되는 필드에 매핑된 코딩 정보에 따른 동작을 수행하도록 제어하는 동작을 포함할 수 있다. An apparatus for providing rehabilitation content according to an embodiment of the present invention includes: a display unit for outputting an image; One or more memories storing instructions for performing a predetermined operation; And one or more processors connected to be operable with the one or more memories and configured to execute the instructions, wherein the one or more processors include a map consisting of a plurality of fields through which a character in a virtual space passes from a starting point to a destination. Storing the rehabilitation content; Outputting the plurality of fields to a virtual space as the rehabilitation content is played; Acquiring the shape and movement of the second hand according to the movement of the patient from the wearable device worn on the second hand, which is a body part symmetric with the first hand corresponding to the patient's amputated or paralyzed body part; Generating, in the virtual space, a virtual body image having a shape and movement of the second hand and a shape and movement in which the left and right sides are reversed based on the obtained information; Outputting a list of coding blocks that control the motion of the character to the virtual space, and generating a coding block selected by the patient; Arranging the coding block in any one of the plurality of fields based on the motion of the virtual body image that is inverted and moved with respect to the motion of the second hand; And an operation of controlling the character to perform an operation according to coding information mapped to a field passed from the starting point upon completion of the arrangement of the coding blocks for the plurality of fields.

본 발명의 실시예에 따르면, 환자의 신체 절단 부위에 가상의 신체를 구현할 수 있고, 이때 구현된 가상의 신체는 절단되지 않은 신체가 갖는 움직임과 대칭되는 움직임을 갖도록 구현될 수 있다. 이에 따라, 환자는 의식적으로 양손 또는 양발이 동일한 동작을 한다고 생각하면서, 가상현실을 통해 구현되는 가상의 신체의 움직임을 시각적으로 인지함으로써, 거울 치료법과 같은 개념의 치료를 진행할 수 있다. According to an embodiment of the present invention, a virtual body may be implemented at a part of the patient's body amputated, and the implemented virtual body may be implemented to have a movement symmetrical to the movement of the uncut body. Accordingly, the patient consciously considers that both hands or both feet perform the same motion, and visually recognizes the movement of the virtual body implemented through virtual reality, so that the treatment of a concept such as mirror therapy can be performed.

이에 따라, 환자는 양 신체의 행동을 동일하게 움직인다는 인지를 통해 가상의 신체를 실제의 팔과 다리처럼 움직이고, 시각적으로 신체의 움직임을 현실감을 있게 인지할 수 있게 되어, 환상통이 완화될 수 있고 재활 훈련의 효과가 향상될 수 있다.Accordingly, the patient can move the virtual body like an actual arm and leg through the recognition that the behavior of both bodies moves equally, and can visually perceive the movement of the body in a realistic sense, thereby alleviating the phantom pain. And the effectiveness of rehabilitation training can be improved.

또한, 환자는 HMD(Head Mounted Display) 장치를 통해 실제 생활과 동일한 시점에서 가상의 신체 영상을 눈앞에서 인지하게 되므로, 실제의 신체처럼 자연스러운 시점에서 생동감 있게 인지할 수 있게 된다.In addition, since the patient perceives a virtual body image in front of his/her eyes at the same viewpoint as the real life through the HMD (Head Mounted Display) device, the patient can perceive it vividly from a natural viewpoint like a real body.

더하여, 환자의 움직임은 FLEX 필름으로 구성된 웨어러블 장치가 실제 환자의 팔 또는 다리의 세세한 움직임을 센싱하도록 구현됨으로써, 가상의 신체의 움직임이 보다 정확하게 실제 신체의 움직임을 반영하여 움직이도록 구현될 수 있다.In addition, the movement of the patient can be implemented so that the wearable device composed of the FLEX film senses the detailed movement of the actual patient's arm or leg, so that the movement of the virtual body more accurately reflects the movement of the actual body.

더불어, 환자는 HMD 장치를 통해 가상 공간 속에서 보여지는 가상의 신체 영상을 이용하여 현실감 있게 가상으로 생성된 손, 팔, 다리 등을 이용하면서, 주어진 과제를 완료하기까지 캐릭터가 경유하는 각 필드에서 요구되는 코딩 블록을 배치하여 과제를 해결해 나감으로써, 치료 과정에서 환자에게 흥미 요소를 결합한 치료 콘텐츠를 제공할 수 있다. In addition, the patient uses hands, arms, legs, etc., which are virtually created using virtual body images displayed in a virtual space through the HMD device, and in each field the character passes through until the given task is completed. By arranging the required coding blocks to solve the problem, it is possible to provide treatment content that combines the elements of interest to the patient during the treatment process.

이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition to this, various effects that are directly or indirectly identified through this document can be provided.

도 1은 본 발명의 일 실시예에 따른 재활 콘텐츠 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 HMD 장치의 기능 블록도이다.
도 3은 본 발명의 일 실시예에 따른 HMD 장치가 수행하는 가상 이식 손을 이용한 재활 콘텐츠 제공 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따라 가상 공간에 출력되는 복수의 필드로 구성된 맵의 예시도이다.
도 5는 본 발명의 일 실시예에 따른 HMD 장치를 착용한 환자의 모습을 나타낸 예시도이다.
도 6은 본 발명의 일 실시예에 따라 HMD 장치를 사용하는 동작을 나타낸 예시도이다.
도 7은 본 발명의 일 실시예에 따라 손에 웨어러블 장치의 착용예를 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따라 가상 공간에 출력되는 복수의 코딩 블록을 포함하는 목록의 예시도이다.
도 9는 본 발명의 일 실시예에 따라 가상의 신체 영상의 위치와 움직임을 가상 공간에 출력하여 코딩 블록을 선택하는 동작의 예시도이다.
도 10은 본 발명의 일 실시예에 따라 가상의 신체 영상이 움직이는 방향과 속도를 반영하여 가상의 신체 영상이 코딩 블록을 필드에 놓거나 던지는 동작의 예시도이다.
도 11은 본 발명의 일 실시예에 따라 놓거나 던져진 코딩 블록이 필드에 도달하는 경우 코딩 블록의 코딩 정보가 필드에 매핑되는 동작의 예시도이다.
도 12는 본 발명의 일 실시예에 따라 환자가 배치한 코딩 정보에 따른 동작을 수행하는 도중의 예시로서 캐릭터가 몬스터를 공격하는 동작의 예시도이다.
도 13은 본 발명의 일 실시예에 따른 HMD 장치가 수행하는 가상 이식 하체를 이용한 재활 콘텐츠 제공 방법의 흐름도이다.
도 14는 본 발명의 일 실시예에 따라 하체에 웨어러블 장치의 착용예를 도시한 도면이다.
1 is a block diagram of a system for providing rehabilitation content according to an embodiment of the present invention.
2 is a functional block diagram of an HMD device according to an embodiment of the present invention.
3 is a flowchart of a method of providing rehabilitation content using a virtual implanted hand performed by an HMD device according to an embodiment of the present invention.
4 is an exemplary diagram of a map composed of a plurality of fields output to a virtual space according to an embodiment of the present invention.
5 is an exemplary view showing a state of a patient wearing an HMD device according to an embodiment of the present invention.
6 is an exemplary diagram showing an operation of using an HMD device according to an embodiment of the present invention.
7 is a diagram illustrating an example of wearing a wearable device on a hand according to an embodiment of the present invention.
8 is an exemplary diagram of a list including a plurality of coding blocks output to a virtual space according to an embodiment of the present invention.
9 is an exemplary diagram of an operation of selecting a coding block by outputting the position and movement of a virtual body image in a virtual space according to an embodiment of the present invention.
10 is an exemplary diagram of an operation in which a virtual body image places or throws a coding block in a field by reflecting a moving direction and speed of a virtual body image according to an embodiment of the present invention.
11 is an exemplary diagram of an operation in which coding information of a coding block is mapped to a field when a coded block placed or thrown reaches a field according to an embodiment of the present invention.
12 is an illustration of an operation in which a character attacks a monster as an example in the middle of performing an operation according to coding information arranged by a patient according to an embodiment of the present invention.
13 is a flowchart of a method for providing rehabilitation content using a virtual implanted lower body performed by an HMD device according to an embodiment of the present invention.
14 is a diagram illustrating an example of wearing a wearable device on a lower body according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.  그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.Advantages and features of the present invention,  , and a method of achieving them will become apparent with reference to the embodiments described later in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms. It is provided to fully inform the person of the scope of the invention, and the scope of the invention is only defined by the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 실제로 필요한 경우 외에는 생략될 것이다.  그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.  그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, detailed descriptions of known functions or configurations will be omitted except when actually necessary. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout the present specification.

도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성의 조합일 수 있다.The functional blocks shown in the drawings and described below are only examples of possible implementations. In other implementations, other functional blocks may be used without departing from the spirit and scope of the detailed description. In addition, although one or more functional blocks of the present invention are represented as individual blocks, one or more of the functional blocks of the present invention may be a combination of various hardware and software configurations that perform the same function.

또한 어떤 구성 요소들을 포함한다는 표현은 개방형의 표현으로서 해당 구성 요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성 요소들을 배제하는 것으로 이해되어서는 안 된다.In addition, the expression to include certain elements is an open expression, merely refers to the existence of the corresponding elements, and should not be understood as excluding additional elements.

나아가 어떤 구성 요소가 다른 구성 요소에 연결되어 있다거나 접속되어 있다고 언급될 때에는, 그 다른 구성 요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 한다. Furthermore, when a component is connected to or is referred to as being connected to another component, it should be understood that it may be directly connected or connected to the other component, but other components may exist in the middle.

또한 '제1, 제2' 등과 같은 표현은 복수의 구성을 구분하기 위한 용도로만 사용된 표현으로써, 구성들 사이의 순서나 기타 특징들을 한정하지 않는다. In addition, expressions such as'first, second', etc. are used only for distinguishing a plurality of elements, and do not limit the order or other features between the elements.

본 발명의 실시예에 따른 재활 콘텐츠 제공 시스템(10)은 환자들에게 절단된 부위의 신체가 통증 없이 움직인다는 시각적 효과로 착각을 일으키게 하여 잘린 부위에서 느끼는 환상통을 줄인다는 거울 치료법의 치료 개념을 유지하면서, 환자가 거울 없이도 다양한 동작을 수행할 수 있는 치료 방식을 구현하여, 사지 절단 환자의 환상통을 완화하는 치료와 재활 훈련의 효과를 높이는데 기여하는 기술을 제공한다. 또한, 상술한 치료 기술에 더하여 VR/AR 기술의 특징을 활용한 콘텐츠를 함께 제공함으로써, 환자가 치료 과정에서 현실감 있게 팔과 다리를 사용한다는 느낌을 받으면서도 흥미를 느낄 수 있도록 하는 VR/AR 콘텐츠를 제공한다.The rehabilitation content providing system 10 according to the embodiment of the present invention is a treatment concept of mirror therapy that reduces the illusion of pain felt at the cut area by causing the patient to make an illusion with a visual effect that the body of the cut area moves without pain. While maintaining, by implementing a treatment method that allows the patient to perform various movements without a mirror, it provides a technology that contributes to enhancing the effect of treatment and rehabilitation training to relieve the phantom pain of a limb amputation patient. In addition, by providing content that utilizes the features of VR/AR technology in addition to the above-described treatment technology, VR/AR content that allows patients to feel interest while receiving the feeling that they use their arms and legs realistically in the treatment process is provided. to provide.

본 발명의 실시예에 따른 재활 콘텐츠 제공 시스템은 VR(Virtual Reality) 또는 AR(Augmented Reality) 기술을 통해 환자의 신체가 절단된 부위에 가상의 신체 영상을 구현하고, 이때 구현된 가상의 신체 영상은 절단되지 않은 신체가 갖는 움직임과 대칭되는 움직임을 갖도록 구현되어, VR/AR 콘텐츠를 플레이할 수 있도록 한다. 이를 위해, 본 발명의 실시예에 따른 재활 콘텐츠 제공 시스템이 포함하고 있는 구성들과, 각 구성의 동작을 도면들과 함께 설명하도록 한다. The rehabilitation content providing system according to an embodiment of the present invention implements a virtual body image on the part where the patient's body is cut through VR (Virtual Reality) or AR (Augmented Reality) technology, and the implemented virtual body image is It is implemented to have a movement that is symmetrical to the movement of an uncut body, so that VR/AR contents can be played. To this end, components included in the rehabilitation content providing system according to an embodiment of the present invention and operations of each component will be described together with the drawings.

도 1은 본 발명의 일 실시예에 따른 재활 콘텐츠 제공 시스템의 구성도이다.1 is a block diagram of a system for providing rehabilitation content according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 재활 콘텐츠 제공 시스템은 웨어러블 장치(Wearable Device)(100), 재활 콘텐츠 제공 장치(200)(ex. HMD 장치(200)), 및 트래커(300)를 포함할 수 있다. 또한, 본 발명의 일 실시예에 따른 시스템은 뎁스 카메라(400)(Depth Camera)를 추가로 포함하거나, 웨어러블 장치(100)가 뎁스 카메라(400)로 대체되는 실시예를 포함할 수 있다. Referring to FIG. 1, a system for providing rehabilitation content according to an embodiment of the present invention includes a wearable device 100, a rehabilitation content providing device 200 (ex. HMD device 200 ), and a tracker 300. ) Can be included. In addition, the system according to an embodiment of the present invention may further include a depth camera 400 or an embodiment in which the wearable device 100 is replaced with the depth camera 400.

재활 콘텐츠 제공 장치(200)는 HMD 장치(200)를 통해 구현될 수 있다, HMD 장치(200)는 환자의 안구 주위에 안경처럼 착용될 수 있고, 환자에게 가상 정보를 포함하는 영상을 출력하는 장치이다. 이하의 설명에서는 이해의 편의를 위해, 재활 콘텐츠 제공 장치(200)를 "HMD 장치"라는 용어로 지칭하기로 한다. 다만, 재활 콘텐츠 제공 장치(200)의 구현이 반드시 "HMD 장치"의 형태로 한정되는 것은 아니며, 도 2와 함께 설명될 구성을 포함하는 다양한 형태의 장치로서 구현될 수 있다. The rehabilitation content providing device 200 may be implemented through the HMD device 200. The HMD device 200 may be worn like glasses around the patient's eye, and a device that outputs an image including virtual information to the patient. to be. In the following description, for convenience of understanding, the apparatus 200 for providing rehabilitation content will be referred to as “HMD device”. However, the implementation of the rehabilitation content providing apparatus 200 is not necessarily limited to the form of an "HMD device", and may be implemented as various types of devices including a configuration to be described with reference to FIG. 2.

웨어러블 장치(100)는 신체에 부착되거나 착용되어 외부 장치와 유무선 통신을 수행하는 장치이다. 웨어러블 장치(100)는 모션캡쳐 장갑, VR 스마트 장갑, 모션인식 장갑을 포함할 수 있고, 환자의 손, 팔, 발, 발목 등 신체의 일부분에 착용될 수 있다. 예를 들어, 웨어러블 장치(100)는 환자의 절단되거나 마비된 신체 부위(이하, "제1 신체(11)"로 지칭)와 대칭되는 신체 부위(이하, "제2 신체(12)"로 지칭)에 착용될 수 있고, 웨어러블 장치(100)는 환자의 움직임에 따른 제2 신체(12)의 형태 및 움직임을 센싱한 정보를 생성할 수 있다. The wearable device 100 is a device that is attached or worn on a body to perform wired or wireless communication with an external device. The wearable device 100 may include motion capture gloves, VR smart gloves, and motion recognition gloves, and may be worn on parts of the body such as hands, arms, feet, and ankles of a patient. For example, the wearable device 100 is a body part (hereinafter referred to as "second body 12") that is symmetrical with a part of the patient's amputated or paralyzed body (hereinafter, referred to as "first body 11"). ), and the wearable device 100 may generate information that senses the shape and movement of the second body 12 according to the movement of the patient.

예를 들어, 웨어러블 장치(100)는 표면이 늘어나거나 줄어듬에 따라 변화하는 저항값을 통해 표면의 형태 변화를 센싱 가능한 플렉스(flex) 필름을 포함할 수 있다. 제2 신체(12)가 "손 또는 팔"에 해당하는 경우, 플렉스 필름은 제2 신체(12)를 둘러쌀 수 있도록 제2 신체(12)에 대응하는 형태로 구성(ex. 도 7 도면부호 110 참조)될 수 있고, 웨어러블 장치(100)는 제2 신체(12)를 둘러싼 플렉스 필름에 의해 센싱된 제2 신체(12)의 형태 및 움직임에 대한 정보를 생성하여 유무선 통신을 통해 HMD 장치(200)로 전송할 수 있다. For example, the wearable device 100 may include a flex film capable of sensing a change in shape of a surface through a resistance value that changes as the surface increases or decreases. When the second body 12 corresponds to a "hand or arm", the flex film is configured in a shape corresponding to the second body 12 so as to surround the second body 12 (ex. FIG. 7 reference numerals) 110), and the wearable device 100 generates information on the shape and movement of the second body 12 sensed by the flex film surrounding the second body 12, and the HMD device ( 200).

또한, 제2 신체(12)가 "하체"에 해당하는 경우, 도 14를 참조하면 웨어러블 장치(100)는 양측 단부가 제2 신체(12)의 관절부위(12a) 상측 및 하측에 연결되어 제2 신체(12)의 관절부위(12a)의 움직임에 따라 저항값이 변하는 소프트 센서(101), 소프트 센서(101)의 양측 단부에 구비되어 환자의 신체에 접착되는 접착부(102) 및 접착부(102)의 일측에 구비되어 제2 신체(12)에 진동을 인가하는 액츄에이터(103)를 포함할 수 있다. 이에 따라, 환자가 제2 신체(12)의 관절부위(12a)를 움직이는 경우 소프트 센서(101)의 저항값 변화를 통해 관절부위(12a)의 움직임에 대한 정보를 생성하여 유무선 통신을 통해 HMD 장치(200)로 전송할 수 있다. In addition, when the second body 12 corresponds to the “lower body”, referring to FIG. 14, the wearable device 100 has both ends connected to the upper and lower sides of the joint portion 12a of the second body 12. 2 The soft sensor 101 whose resistance value changes according to the movement of the joint part 12a of the body 12, the adhesive part 102 and the adhesive part 102 provided at both ends of the soft sensor 101 and adhered to the patient's body ) May include an actuator 103 that is provided on one side of the second body 12 and applies vibration to the second body 12. Accordingly, when the patient moves the joint portion 12a of the second body 12, information on the movement of the joint portion 12a is generated through a change in the resistance value of the soft sensor 101, and the HMD device through wired or wireless communication. It can be transmitted to (200).

트래커(300)(Tracker)는 HMD 장치(200)가 환자의 제1 신체(11)의 일단(ex. 절단된 신체 부위의 경계쪽 신체)을 특정할 수 있도록 표시된 물리적 표식(Mark) 또는 웨어러블 밴드(Wearable Band)를 포함할 수 있다. 웨어러블 밴드(300)는 환자의 제1 신체(11)의 일단(ex. 절단된 신체 부위와 연결된 손목, 팔목, 발목, 무릎 등)에 착용되어, 환자가 절단된 신체를 움직이려고 할 때 변화하는 인대의 움직임을 센싱하여 인대의 움직임에 대한 정보를 생성하고, 인대의 움직임에 대한 정보를 기초로 환자가 의도한 절단 부위의 움직임을 판별할 수 있다. The tracker 300 is a physical mark or a wearable band displayed so that the HMD device 200 can specify one end of the patient's first body 11 (ex. (Wearable Band) may be included. The wearable band 300 is worn on one end of the patient's first body 11 (ex. a wrist, wrist, ankle, knee, etc. connected to the cut body part), and a ligament that changes when the patient tries to move the cut body. The movement of the ligament is sensed to generate information on the movement of the ligament, and the movement of the cut part intended by the patient may be determined based on the information on the movement of the ligament.

뎁스 카메라(400)(Depth Camera)는 복수의 카메라 모듈을 포함하여 객체로부터 얻어지는 이미지 픽셀의 깊이 값을 계산하여 객체의 3차원 깊이 정보를 생성할 수 있는 카메라이다. 뎁스 카메라(400)는 환자의 손, 팔, 발, 발목 등을 촬영할 수 있다. 예를 들어, 뎁스 카메라(400)는 환자의 절단되거나 마비된 신체 부위에 해당하는 제1 신체(11)와 대칭되는 신체 부위인 제2 신체(12)를 촬영할 수 있고, 환자의 움직임에 따른 제2 신체(12)의 형태 및 움직임을 센싱한 정보를 생성할 수 있다. The depth camera 400 is a camera that includes a plurality of camera modules and is capable of generating 3D depth information of an object by calculating a depth value of an image pixel obtained from an object. The depth camera 400 may photograph a patient's hand, arm, foot, ankle, and the like. For example, the depth camera 400 may photograph the second body 12, which is a body part symmetrical with the first body 11 corresponding to the severed or paralyzed body part of the patient, and 2 It is possible to generate information that senses the shape and movement of the body 12.

도 2는 본 발명의 일 실시예에 따른 HMD 장치(200)의 기능 블록도이다. 도 2를 참조하면, 본 발명의 실시예에 따른 HMD 장치(200)는 메모리(210), 프로세서(220), 입력 인터페이스(230), 디스플레이부(240) 및 통신 인터페이스(250)를 포함할 수 있다. 2 is a functional block diagram of an HMD device 200 according to an embodiment of the present invention. Referring to FIG. 2, the HMD device 200 according to the embodiment of the present invention may include a memory 210, a processor 220, an input interface 230, a display unit 240, and a communication interface 250. have.

메모리(210)는 재활 콘텐츠 DB(211) 및 명령어 DB(215)를 포함하여, 실시예들을 수행시키기 위한 정보 및 명령어들을 저장할 수 있다. The memory 210 may store information and commands for performing the embodiments, including the rehabilitation content DB 211 and the command DB 215.

재활 콘텐츠 DB(211)는 가상 공간 내 캐릭터가 출발지에서 목적지로 가기 위해 경유하는 복수의 필드로 구성된 맵을 포함하는 재활 콘텐츠를 저장할 수 있다. 재활 콘텐츠 DB(211)는 기 생성된 맵을 파일 형태로 저장할 수 있으며, 맵은 본 발명의 일 실시예에 따른 재활 콘텐츠가 플레이됨에 따라 디스플레이부(240)에 출력되는 3차원 가상 공간 또는 3차원 객체로서 그 예시는 도 4와 같다. The rehabilitation content DB 211 may store rehabilitation content including a map composed of a plurality of fields that a character in the virtual space passes through to go from a starting point to a destination. The rehabilitation content DB 211 may store a previously generated map in the form of a file, and the map is a 3D virtual space or 3D that is output on the display unit 240 as the rehabilitation content according to an embodiment of the present invention is played. As an object, an example thereof is shown in FIG. 4.

명령어 DB(215)는 후술할 프로세서(120)의 동작을 수행시키는 명령어, 또는 후술할 프로세서(220)의 동작들과 대응되는 동작을 수행하도록 하는 컴퓨터 코드를 저장할 수 있다. The command DB 215 may store a command for performing an operation of the processor 120 to be described later, or a computer code for performing an operation corresponding to the operations of the processor 220 to be described later.

프로세서(220)는 HMD 장치(200)가 포함하는 구성들, 메모리(210), 입력 인터페이스(230), 디스플레이부(240), 및 통신 인터페이스(250)의 전반적인 동작을 제어할 수 있다. 프로세서(220)는 콘텐츠 모듈(221), 센싱 모듈(223), 연산 모듈(225), 및 제어 모듈(227)을 포함할 수 있다. 프로세서(220)는 메모리(210)에 저장된 명령어들을 실행해 콘텐츠 모듈(221), 센싱 모듈(223), 연산 모듈(225), 및 제어 모듈(227)을 구동 시킬 수 있다. 콘텐츠 모듈(221), 센싱 모듈(223), 연산 모듈(225), 및 제어 모듈(227)에 의해 수행되는 동작은 프로세서(220)에 의해 수행되는 동작으로 이해될 수 있다. The processor 220 may control components included in the HMD device 200, the memory 210, the input interface 230, the display unit 240, and the overall operation of the communication interface 250. The processor 220 may include a content module 221, a sensing module 223, an operation module 225, and a control module 227. The processor 220 may drive the content module 221, the sensing module 223, the operation module 225, and the control module 227 by executing instructions stored in the memory 210. An operation performed by the content module 221, the sensing module 223, the operation module 225, and the control module 227 may be understood as an operation performed by the processor 220.

콘텐츠 모듈(221)은 재활 콘텐츠 DB(211)에 저장된 데이터를 로딩하여 디스플레이부(240)에 출력할 수 있다. 예를 들어, 콘텐츠 모듈(221)은 재활 콘텐츠 DB(211)에 저장된 복수의 필드로 구성된 맵 등을 가상 공간에 구성하여 디스플레이부(240)에 출력할 수 있다. The content module 221 may load data stored in the rehabilitation content DB 211 and output it to the display unit 240. For example, the content module 221 may configure a map composed of a plurality of fields stored in the rehabilitation content DB 211 in a virtual space and output it to the display unit 240.

센싱 모듈(223)은 외부 장치(ex. 웨어러블 장치(100), 트래커(300), 뎁스 카메라(400) 등)로부터 획득한 데이터를 목적에 맞도록 사용할 수 있게끔 데이터를 정제 및 관리할 수 있다. The sensing module 223 may refine and manage data so that the data acquired from an external device (eg, the wearable device 100, the tracker 300, the depth camera 400, etc.) can be used according to the purpose.

연산 모듈(225)은 환자의 절단되거나 마비된 신체 부위에 해당하는 제1 신체(11)와 대칭되는 신체 부위인 제2 신체(12)에 착용된 웨어러블 장치(100)로부터 환자의 움직임에 따른 제2 신체(12)의 형태 및 움직임에 대해 센싱된 정보를 활용하여 제2 신체(12)의 형태 및 움직임과 좌우가 반전된 형태 및 움직임을 갖는 가상의 신체 영상(31)을 가상 공간에 생성하고 디스플레이부(240)에 출력할 수 있다. The calculation module 225 provides a control according to the movement of the patient from the wearable device 100 worn on the second body 12, which is a body part symmetrical to the first body 11 corresponding to the patient's amputated or paralyzed body part. 2 Using the sensed information on the shape and movement of the body 12, a virtual body image 31 having the shape and movement of the second body 12 and the shape and movement in which the left and right are inverted is generated in a virtual space. It can be output to the display unit 240.

제어 모듈(227)은 환자의 입력 또는 가상의 신체 영상(31)의 움직임에 따라 재활 콘텐츠의 플레이를 제어할 수 있다. The control module 227 may control the play of the rehabilitation content according to the patient's input or the movement of the virtual body image 31.

입력 인터페이스(230)는 환자의 입력(ex. 물리적 입력, 제스쳐 입력 또는 음성 입력)을 획득할 수 있다. 입력 인터페이스(130)는 터치 센서, 음성 센서, 카메라 등과 같은 하드웨어 모듈을 포함할 수 있다. The input interface 230 may acquire a patient's input (eg, physical input, gesture input, or voice input). The input interface 130 may include a hardware module such as a touch sensor, a voice sensor, and a camera.

디스플레이부(240)는 디스플레이 패널을 포함하여 가상의 신체 영상(31) 및 가상 공간(ex. 도 9 내지 도 12)을 포함하는 영상을 출력하는 하드웨어 구성을 포함할 수 있다. The display unit 240 may include a hardware configuration that outputs a virtual body image 31 including a display panel and an image including a virtual space (eg, FIGS. 9 to 12 ).

통신 인터페이스(250)는 외부 장치(ex. 웨어러블 장치(100), 트래커(300), 뎁스 카메라(400) 등)와 통신하여 정보를 송수신 할 수 있게 한다. 이를 위해, 통신 인터페이스(250)는 무선 통신 모듈 또는 유선 통심 모듈을 포함할 수 있다. The communication interface 250 communicates with an external device (eg, the wearable device 100, the tracker 300, the depth camera 400, etc.) to transmit and receive information. To this end, the communication interface 250 may include a wireless communication module or a wired communication module.

이하, 도 3 내지 도 14를 통해 본 발명의 실시예에 따른 재활 콘텐츠 제공 장치(200)의 구성들이 연동하여 실시예들을 수행하는 동작의 흐름을 설명하기로 한다.Hereinafter, a flow of operations for performing the embodiments by interlocking the components of the rehabilitation content providing apparatus 200 according to an embodiment of the present invention will be described with reference to FIGS. 3 to 14.

도 3은 본 발명의 일 실시예에 따른 HMD 장치(200)가 수행하는 가상 이식 손을 이용한 재활 콘텐츠 제공 방법의 흐름도이다. 도 3에 따른 재활 콘텐츠 제공 방법의 각 단계는 도 2를 통해 설명된 HMD 장치(200)의 구성들에 의해 수행될 수 있으며, 각 단계를 설명하면 다음과 같다.3 is a flowchart of a method of providing rehabilitation content using a virtual implanted hand performed by the HMD device 200 according to an embodiment of the present invention. Each step of the method for providing rehabilitation content according to FIG. 3 may be performed by the configurations of the HMD device 200 described with reference to FIG. 2, and each step will be described below.

재활 콘텐츠 DB(211)는 가상 공간 내 캐릭터가 출발지에서 목적지로 가기 위해 경유하는 복수의 필드로 구성된 맵을 포함하는 재활 콘텐츠를 저장할 수 있다(S310). The rehabilitation content DB 211 may store rehabilitation content including a map composed of a plurality of fields that a character in the virtual space passes through to go from a starting point to a destination (S310).

콘텐츠 모듈(221)은 재활 콘텐츠가 로딩됨에 따라 가상 공간 내 캐릭터가 출발지에서 목적지로 가기 위해 경유하는 복수의 필드로 구성된 맵을 생성하여 디스플레이부(240)에 출력할 수 있다(S320). 맵은 본 발명의 일 실시예에 따른 재활 콘텐츠가 플레이됨에 따라 디스플레이부에 출력되는 3차원 가상 공간 또는 3차원 객체로서 그 예시는 도 4와 같다. As the rehabilitation content is loaded, the content module 221 may generate a map composed of a plurality of fields that a character in the virtual space passes through to go from a starting point to a destination and output it to the display unit 240 (S320). The map is a 3D virtual space or a 3D object that is output to the display unit as rehabilitation content according to an embodiment of the present invention is played, and an example thereof is shown in FIG. 4.

도 4는 본 발명의 일 실시예에 따라 가상 공간에 출력되는 복수의 필드로 구성된 맵의 예시도이다. 4 is an exemplary diagram of a map composed of a plurality of fields output to a virtual space according to an embodiment of the present invention.

도 4를 참조하면, 맵을 구성하는 필드는 캐릭터가 특정 동작을 취해야 경유할 수 있도록 다양한 형태로 구성될 수 있다. 예를 들어, 필드의 종류는 캐릭터가 출발하게 되는 출발지인 출발지 필드, 캐릭터가 방향을 올바르게 설정함에 따라 통과 가능한 제1 필드, 캐릭터가 통과 시 게임 오버되는 제2 필드, 몬스터가 존재하는 제3 필드, 및 캐릭터가 도착해야 하는 목적지인 목적지 필드를 포함할 수 있다. Referring to FIG. 4, a field constituting a map may be configured in various forms so that a character must perform a specific action to pass through. For example, the type of field is the starting point field from which the character departs, the first field that can be passed through by correctly setting the direction of the character, the second field where the game is over when the character passes, and the third field with monsters. , And a destination field, which is a destination to which the character should arrive.

콘텐츠 모듈(221)은 기 저장된 맵을 출력할 수 있으며, 또는 다양한 형태의 필드(ex. 제1 필드, 제2 필드 및 제3 필드) 중 같은 형태의 필드이든 서로 다른 형태의 필드이든, 적어도 두 개 이상의 필드를 선별하여 맵을 생성할 수 있다. 이때 필드는 예를 들어 사각형 형태일 수 있고, 선별된 필드 중 어느 하나의 필드의 한 면에는, 적어도 하나의 다른 선별된 필드가 연결되도록 필드의 연결을 구성하여 맵을 생성할 수 있다. 예를 들어, 콘텐츠 모듈(221)은 도 4에 예시된 맵 구성과 같이 "출발지 필드 - 제1 필드 - 제2 필드 - 제3 필드 - 도착지 필드"를 일직선으로 연결할 수 있다. 또한, 콘텐츠 모듈(221)은 도 12의 도면부호 51에 예시된 맵 구성과 같이, 일부의 필드가 90도로 꺾이는 형태로 연결되도록 맵을 생성할 수 있다. The content module 221 may output a pre-stored map, or at least two fields of the same type or different types among various types of fields (ex. the first field, the second field, and the third field). You can create a map by selecting more than one field. In this case, the field may have a rectangular shape, for example, and a map may be generated by configuring a field connection such that at least one other selected field is connected to one side of one of the selected fields. For example, the content module 221 may connect the "departure field-first field-second field-third field-destination field" in a straight line like the map configuration illustrated in FIG. 4. In addition, the content module 221 may generate a map such that some fields are connected in a form that is bent by 90 degrees, like the map configuration illustrated by reference numeral 51 of FIG. 12.

콘텐츠 모듈(221)은 재활 콘텐츠가 로딩됨에 따라, 3차원 가상 공간을 형성하고 재활 콘텐츠 DB(211)에 저장된 맵을 가상 공간 내의 객체로서 배치하여, 3차원 가상 공간 및 3차원 맵(3차원 객체)을 포함하는 이미지 정보를 생성하고, 디스플레이부(240)에 출력할 수 있다. 콘텐츠 모듈(221)은 3차원 가상 공간 내부의 한 지점에서 1인칭 시점 또는 3인칭 시점으로 바라보는 이미지 정보를 생성하는 가상 카메라를 가상 공간 내부의 기 설정된 지점에 배치할 수 있다. 가상 카메라는 가상의 공간에 배치된 지점에서 소정의 화각으로 일 방향을 바라보는 1인칭 시점 또는 3인칭 시점의 이미지 정보를 생성할 수 있다. 콘텐츠 모듈(221)은 가상 카메라의 초점 거리 또는 투영 방식을 제어하여 생성한 이미지 정보(ex. 도 9 내지 도 12)를 디스플레이부(240)에 출력할 수 있다. As the rehabilitation content is loaded, the content module 221 forms a 3D virtual space and arranges the map stored in the rehabilitation content DB 211 as an object in the virtual space. Image information including) may be generated and output to the display unit 240. The content module 221 may arrange a virtual camera that generates image information viewed from a point in the 3D virtual space as a first-person view or a third-person view at a preset point in the virtual space. The virtual camera may generate image information of a first-person view or a third-person view that looks in one direction at a predetermined angle of view from a point arranged in a virtual space. The content module 221 may output image information (eg, FIGS. 9 to 12) generated by controlling a focal length or a projection method of the virtual camera to the display unit 240.

센싱 모듈(223)은 재활 콘텐츠를 플레이하는 환자의 절단되거나 마비된 신체 부위에 해당하는 제1 손(11)과 대칭되는 신체 부위인 제2 손(12)에 착용된 웨어러블 장치(100)로부터 환자의 움직임에 따른 제2 손(12)의 형태 및 움직임을 획득할 수 있다(S330). The sensing module 223 is a patient from the wearable device 100 worn on the second hand 12, which is a body part symmetrical to the first hand 11 corresponding to the severed or paralyzed body part of the patient playing rehabilitation content. The shape and movement of the second hand 12 according to the movement of may be acquired (S330).

도 5는 본 발명의 일 실시예에 따른 HMD 장치(200)를 착용한 환자의 모습을 나타낸 예시도이다. 5 is an exemplary view showing a state of a patient wearing the HMD device 200 according to an embodiment of the present invention.

도 5를 참조하면, 환자는 제1 손(11)가 절단된 상태이다. 이에 따라, 본 발명의 일 실시예에 따른 재활 콘텐츠를 플레이하기 위해, 환자는 제2 손(12)에 웨어러블 장치(100)를 착용할 수 있다. 또한, 환자는 안구 주위에 HMD 장치(200)를 착용할 수 있다. 환자는 신체의 절단 부분의 위치를 특정하기 위해, 제1 손(11)의 말단 부근(도 5 도면 부호 300 부근)에 트래커(300)로서 마크를 표시하거나, 또는 웨어러블 밴드(300)를 착용할 수 있다.Referring to FIG. 5, the patient is in a state in which the first hand 11 is amputated. Accordingly, in order to play the rehabilitation content according to an embodiment of the present invention, the patient may wear the wearable device 100 on the second hand 12. In addition, the patient may wear the HMD device 200 around the eyeball. In order to specify the location of the cut part of the body, the patient may mark a mark as a tracker 300 near the distal end of the first hand 11 (near 300 in FIG. 5 ), or wear a wearable band 300. I can.

연산 모듈(225)은 웨어러블 장치(100)로부터 획득한 정보를 기초로 제2 손(12)의 형태 및 움직임과 좌우가 반전된 형태 및 움직임을 갖는 가상의 신체 영상(31)을 가상 공간에 생성할 수 있다(S340). The calculation module 225 generates a virtual body image 31 having a shape and movement of the second hand 12 and a shape and movement in which the left and right are inverted based on the information obtained from the wearable device 100 in a virtual space. It can be done (S340).

도 6은 본 발명의 일 실시예에 따라 HMD 장치(200)를 사용하는 동작을 나타낸 예시도이다. 6 is an exemplary diagram showing an operation of using the HMD device 200 according to an embodiment of the present invention.

도 6을 참조하면, HMD 장치(200)는 환자의 절단된 신체 부위와 대칭되는 신체 부위와 좌우가 반전된 움직임을 갖는 가상의 신체 영상(31)을 생성할 수 있다. Referring to FIG. 6, the HMD apparatus 200 may generate a virtual body image 31 having a body part that is symmetrical with a cut body part of a patient and a movement in which the left and right sides are inverted.

일 실시예에 따르면, 센싱 모듈(223)은 웨어러블 장치(100)로부터 획득한 정보를 기초로, 제2 손(12)의 형태 및 움직임 정보를 구성하는 복수의 3차원 위치 정보를 생성할 수 있다. 이에 따라, 연산 모듈(225)는 복수의 3차원 위치 정보의 좌우를 반전시킨 복수의 가상 위치 정보를 생성할 수 있다. 예를 들어, 연산 모듈(225)은 소정의 3차원 면을 기준으로 복수의 3차원 위치 정보 각각을 면대칭시킴으로써, 좌우가 반전된 복수의 가상 위치 정보를 생성할 수 있다. 또는, 연산 모듈(225)은 복수의 3차원 위치 정보가 3차원 좌표 (x, y, z)로 구성된 경우, 이 중 어느 한 차원 정보의 부호를 반전시킨 3차원 좌표 (-x, y, z)를 생성함으로써 가상 위치 정보를 생성할 수 있다. 이후, 연산 모듈(225)은 복수의 가상 위치 정보를 3D 렌더링하여 VR 또는 AR 영상에 시각적으로 출력될 수 있는 가상의 신체 영상(31)을 생성할 수 있다. According to an embodiment, the sensing module 223 may generate a plurality of 3D location information constituting the shape and motion information of the second hand 12 based on information acquired from the wearable device 100. . Accordingly, the calculation module 225 may generate a plurality of virtual location information obtained by inverting the left and right of the plurality of 3D location information. For example, the calculation module 225 may generate a plurality of virtual location information in which the left and right sides are reversed by plane-symmetrical each of a plurality of 3D location information based on a predetermined 3D surface. Alternatively, when the plurality of three-dimensional position information is composed of three-dimensional coordinates (x, y, z), the three-dimensional coordinates (-x, y, z) obtained by inverting the sign of any one of the three-dimensional information ), you can create virtual location information. Thereafter, the calculation module 225 may generate a virtual body image 31 that can be visually output to a VR or AR image by 3D rendering the plurality of virtual location information.

도 6의 Step 1 내지 Step 3를 참조하면, HMD 장치(200)는 환자의 제1 신체(11)의 말단에 가상의 신체 영상(31)을 VR 영상 또는 AR 영상과 함께 출력할 수 있다. Referring to Step 1 to Step 3 of FIG. 6, the HMD device 200 may output a virtual body image 31 at the distal end of the patient's first body 11 together with a VR image or an AR image.

일 실시예에 따르면, 연산 모듈(225)은 환자의 신체에 가상의 신체 영상(31)을 연결시킬 수 있다. 이를 위해, 연산 모듈(225)은 통신 인터페이스(250)의 유무선 통신을 통해 환자의 제1 손(11) 중 소정 지점에 착용 또는 표시된 트래커(300)가 위치하는 제1 지점을 특정할 수 있다. 이후, 연산 모듈(225)은 가상의 신체 영상(31)에서 웨어러블 장치(100)가 착용된 신체 부분(도 5의 도면 부호 12)과 착용되지 않은 신체 부분(도 5의 도면 부호 13)의 경계 지점(도 5의 도면 부호 a)에 해당하는 제2 지점의 위치를 특정할 수 있다. 이에 따라, 프로세서(220)는 환자의 제1 지점에 가상의 신체 영상(31)의 제2 지점이 연결되도록 가상의 신체 영상(31)을 디스플레이부(240)에 출력할 수 있다. According to an embodiment, the calculation module 225 may connect the virtual body image 31 to the patient's body. To this end, the calculation module 225 may specify a first point where the tracker 300 worn or displayed at a predetermined point among the first hand 11 of the patient is located through wired/wireless communication of the communication interface 250. Thereafter, in the virtual body image 31, the calculation module 225 determines the boundary between the worn body part (12 in FIG. 5) and the unworn body part (13 in FIG. 5) in the virtual body image 31. The position of the second point corresponding to the point (reference numeral a in FIG. 5) can be specified. Accordingly, the processor 220 may output the virtual body image 31 to the display unit 240 so that the second point of the virtual body image 31 is connected to the first point of the patient.

더하여, 상기 트래커(300)가 웨어러블 밴드(300)인 경우, 센싱 모듈(223)은 웨어러블 밴드(300)로부터 획득한 정보를 기초로 환자가 절단된 신체를 움직이려고 의도한 동작을 판별할 수 있다. 이를 위해, 웨어러블 밴드(300)는 환자의 손목 또는 팔목을 둘러싸는 본체부, 상기 본체부가 신체가 접촉하는 면을 따라 환자의 손목 또는 발목 인대 부분의 형태적 변형에 따라 대응하는 저항 값을 출력하는 복수 개의 스트레인 게이지를 포함하는 센서부, 상기 센서부가 인식한 복수 개의 스트레인 게이지의 저항 값의 패턴을 기초로 환자가 의도한 동작의 모양을 판별하는 프로세서를 포함할 수 있다. 연산 모듈(225)은 웨어러블 밴드(300)에 의해 판별된 동작의 모양을 기초로 가상의 신체 영상에 대응되는 움직임을 반영하여 출력할 수 있다. 이에 따라, 환자는 신체가 절단되어도 인대의 움직임에 따라 가상의 신체 영상(31)이 움직이는 모습을 시각적으로 확인할 수 있다. In addition, when the tracker 300 is the wearable band 300, the sensing module 223 may determine a motion intended by the patient to move the severed body based on the information acquired from the wearable band 300. To this end, the wearable band 300 outputs a corresponding resistance value according to the shape deformation of the patient's wrist or ankle ligament along the body part surrounding the wrist or wrist of the patient, and the body part contacting the body. A sensor unit including a plurality of strain gauges, and a processor configured to determine a shape of a motion intended by a patient based on patterns of resistance values of the plurality of strain gauges recognized by the sensor unit. The calculation module 225 may reflect and output a motion corresponding to a virtual body image based on the shape of the motion determined by the wearable band 300. Accordingly, the patient can visually check the movement of the virtual body image 31 according to the movement of the ligaments even when the body is amputated.

또한, 일 실시예로서 연산 모듈(225)은 웨어러블 장치(100)가 착용된 신체의 영역과 대칭되는 가상의 신체 영상(31)을 신체에 연결되지 않은 형태로, 도 9 내지 도 11처럼 가상의 신체 영상(31)만을 가상 공간에 생성하여 출력할 수 있다. In addition, as an embodiment, the operation module 225 is a virtual body image 31 that is symmetric with the area of the body on which the wearable device 100 is worn, in a form that is not connected to the body. Only the body image 31 may be generated and output in a virtual space.

콘텐츠 모듈(221)은 캐릭터의 동작을 제어하는 코딩 블록에 대한 목록을 가상 공간에 출력하고, 환자에 의해 선택된 코딩 블록을 생성할 수 있다(S350). 이때 코딩 블록은 환자의 음성 또는 가상의 신체 영상의 움직임(ex. 누르는 동작, 잡는 동작 등)에 기초하여 선택될 수 있다. The content module 221 may output a list of coding blocks that control a character's motion to a virtual space, and generate a coding block selected by a patient (S350). In this case, the coding block may be selected based on a motion of the patient's voice or a virtual body image (eg, a pressing motion, a grabbing motion, etc.).

도 8은 본 발명의 일 실시예에 따라 가상 공간에 출력되는 복수의 코딩 블록을 포함하는 목록(10)의 예시도이다.8 is an exemplary diagram of a list 10 including a plurality of coding blocks output to a virtual space according to an embodiment of the present invention.

도 8을 참조하면, 코딩 블록은 캐릭터가 소정의 동작을 취하도록 하는 코딩 정보를 포함할 수 있다. 예를 들어, 코딩 정보는 전방의 필드로 캐릭터를 전진시키는 제1 코딩 정보(11), 캐릭터를 점프시켜 전방의 필드를 뛰어넘는 제2 코딩 정보(12), 캐릭터를 왼쪽으로 회전시키는 제3 코딩 정보(13), 캐릭터를 오른쪽으로 회전시키는 제4 코딩 정보(14), 캐릭터가 전방의 몬스터를 공격하여 전방의 장애물을 제거하는 제5 코딩 정보(15)를 포함할 수 있다. 또한, 기본적으로 하나의 필드에는 하나의 코딩 블록이 배치된다는 규칙이 있는 상태에서, 하나의 필드에 복수의 코딩 블록이 매핑될 수 있도록 필드에 대한 아이템 매핑 규칙을 변경시키는 제6 코딩 정보(16)를 포함할 수 있다. 또한, 코딩 블록을 포함하는 목록(10)은 맵 전환 버튼(17), 재시작 버튼(18), 코딩 블록의 배치 완료에 따른 코드 실행 버튼(19)을 포함할 수 있다. Referring to FIG. 8, the coding block may include coding information for causing a character to perform a predetermined operation. For example, the coding information includes first coding information 11 that advances the character to the field in front, second coding information 12 that jumps over the field in front by jumping the character, and third coding that rotates the character to the left. It may include information 13, fourth coding information 14 for rotating the character to the right, and fifth coding information 15 for removing obstacles in front of the character by attacking a monster in front. In addition, the sixth coding information 16 for changing the item mapping rule for a field so that a plurality of coding blocks can be mapped to one field while there is a rule that basically one coding block is arranged in one field. It may include. In addition, the list 10 including the coding blocks may include a map switch button 17, a restart button 18, and a code execution button 19 according to completion of the arrangement of the coding blocks.

제어 모듈(227)은 가상의 신체 영상(31)의 움직임에 기초하여 코딩 블록을 복수의 필드 중 어느 하나의 필드에 배치할 수 있다. The control module 227 may arrange the coding block in any one of the plurality of fields based on the motion of the virtual body image 31.

도 9는 본 발명의 일 실시예에 따라 가상의 신체 영상(31)의 위치와 움직임을 가상 공간에 출력하여 코딩 블록(21)을 선택하는 동작의 예시도이다. 9 is an exemplary diagram of an operation of selecting the coding block 21 by outputting the position and movement of a virtual body image 31 in a virtual space according to an embodiment of the present invention.

도 9를 참조하면, 제어 모듈(227)은 상기 목록(10)에 대한 환자의 선택에 따라 지정된 코딩 블록(21)을 가상의 신체 영상(31) 부근의 위치에 생성할 수 있다. 예를 들어, 제어 모듈(227)은 복수의 코딩 블록을 포함하는 목록(10)을 가상 공간의 일부분에 출력하고, 상기 목록(10)에 대한 환자의 음성 또는 가상의 신체 영상(31)의 선택/잡기 모션에 의해 선택된 코딩 블록을 가상의 신체 영상(31) 부근의 위치에 생성할 수 있다. 가상의 신체 영상(31)은 웨어러블 장치(100)를 착용한 제1 손(11)의 움직임에 대칭되어 움직이므로, 선택 모션 또는 잡기 모션은 웨어러블 장치(100)를 착용한 제2 손(12)의 움직임에 따라 식별될 수 있다. Referring to FIG. 9, the control module 227 may generate a designated coding block 21 at a location near the virtual body image 31 according to a patient's selection for the list 10. For example, the control module 227 outputs a list 10 including a plurality of coding blocks to a part of the virtual space, and selects the patient's voice or virtual body image 31 for the list 10 A coding block selected by the /grab motion may be generated at a location near the virtual body image 31. Since the virtual body image 31 moves symmetrically with the movement of the first hand 11 wearing the wearable device 100, the selection motion or the grabbing motion is the second hand 12 wearing the wearable device 100 Can be identified according to the movement of the

제어 모듈(227)은 가상의 신체 영상(31)의 움직임에 기초하여 코딩 블록을 복수의 필드 중 어느 하나의 필드에 배치할 수 있다(S360).The control module 227 may place the coding block in any one of the plurality of fields based on the motion of the virtual body image 31 (S360).

도 10은 본 발명의 일 실시예에 따라 가상의 신체 영상(31)이 움직이는 방향과 속도를 반영하여 가상의 신체 영상(31)이 코딩 블록(21)을 필드(41)에 놓거나 던지는 동작의 예시도이다. 10 is an example of an operation in which the virtual body image 31 places or throws the coding block 21 on the field 41 by reflecting the moving direction and speed of the virtual body image 31 according to an embodiment of the present invention. It is a degree.

도 10을 참조하면, 센싱 모듈(223)은 웨어러블 장치(100)로부터 환자의 손이 움직이는 방향 및 속도에 대한 정보를 획득하고, 연산 모듈(225)은 제2 손(12)과 대칭되는 가상의 신체 영상(31)의 움직임을 가상 공간에 생성하여 코딩 블록(21)을 놓거나 던지는 모션을 구현하면서, 가상의 신체 영상이 던지거나 놓는 모션을 취한 것으로 판별함에 따라 코딩 블록(21)이 움직여야 하는 방향 및 속도를 계산하여 코딩 블록(21)이 가상 공간에서 움직이는 형태를 구현하여 출력할 수 있다. Referring to FIG. 10, the sensing module 223 acquires information on the direction and speed of movement of the patient's hand from the wearable device 100, and the calculation module 225 The direction in which the coding block 21 should move as the motion of the body image 31 is generated in a virtual space to implement a motion of placing or throwing the coding block 21, and as it is determined that the virtual body image has taken a throwing or releasing motion. And by calculating the speed, the coding block 21 may implement and output a form that moves in a virtual space.

위의 과정에 따라, 가상의 신체 영상(31)이 던지는 동작을 취한 것으로 판별된 경우, 또는 가상 공간 특정 위치에서 손을 펴면서 놓는 동작을 취하는 것으로 판별된 경우, 또는 던지는 동작을 취하면서 움겨킨 손모양이 펼친 손모양으로 바뀐 것으로 판별된 경우, 연산 모듈(225)은 환자가 코딩 블록(21)을 던지거나 놓는 모션을 취한 것으로 판별하여, 센싱 모듈(223)은 환자의 손이 움직이는 방향, 속도, 및 환자가 던지거나 놓는 모션을 행하여 종결된 가상 공간 상의 좌표(=코딩 블록이 가상의 신체 영상을 떠나기 시작한 가상 공간 내 위치 정보)에 대한 정보를 획득할 수 있다. 연산 모듈(225)은 환자가 코딩 블록(21) 던지거나 놓는 모션을 행하여 코딩 블록(21)이 환자의 손을 이탈한 좌표로부터, 가상의 신체 영상이 움직인 가상 공간 내 방향을 향해, 움직인 속도에 비례하는 가상 공간 상의 속도로, 코딩 블록(21)이 물리법칙(ex. 가상 공간 내 설정된 중력가속도, 가상 공간 내 설정된 공기저항)에 따른 중력과 공기저항을 받아 움직이도록 계산하여, 가상 공간 내 코딩 블록(21)의 움직임을 구현할 수 있다. According to the above process, when it is determined that the virtual body image 31 has taken a throwing action, or when it is determined that it is taking an action of opening and releasing a hand in a specific position in a virtual space, or a hand that is grasped while taking a throwing action When it is determined that the shape has changed to the shape of an open hand, the calculation module 225 determines that the patient has taken a motion of throwing or releasing the coding block 21, and the sensing module 223 determines the direction and speed of the patient's hand. , And coordinates on a virtual space terminated by performing a throwing or releasing motion by the patient (=location information in the virtual space where the coding block started to leave the virtual body image) may be obtained. The arithmetic module 225 performs a motion in which the patient throws or releases the coding block 21, so that the coding block 21 moves from the coordinates where the patient's hand is separated, toward the direction in the virtual space in which the virtual body image has moved. With the speed in the virtual space proportional to the speed, the coding block 21 is calculated to move by receiving gravity and air resistance according to the physical laws (ex.gravity acceleration set in the virtual space, air resistance set in the virtual space), The movement of the inner coding block 21 can be implemented.

제어 모듈(227)은 가상 공간 내 코딩 블록(21)의 움직임에 따른 코딩 블록(21)의 좌표 정보와, 가상 공간 내 복수의 필드가 배치된 좌표 정보를 비교하여, 코딩 블록(21)의 정보를 필드에 매핑하는 다음의 동작을 수행할 수 있다. The control module 227 compares the coordinate information of the coding block 21 according to the movement of the coding block 21 in the virtual space with the coordinate information in which a plurality of fields are arranged in the virtual space, and the information of the coding block 21 You can perform the following operation of mapping to a field.

도 11은 본 발명의 일 실시예에 따라 놓거나 던져진 코딩 블록(21)이 필드(41)에 도달하는 경우 코딩 블록(21)의 코딩 정보가 필드(41)에 매핑되는 동작의 예시도이다. 11 is an exemplary diagram of an operation in which the coding information of the coding block 21 is mapped to the field 41 when the coded block 21 placed or thrown reaches the field 41 according to an embodiment of the present invention.

도 11을 참조하면, 제어 모듈(227)은 코딩 블록(21)의 움직임에 따라 코딩 블록(21)이 복수의 필드 중 어느 하나의 필드(41)의 위치에 도달한 것으로 판별된 경우, 상기 어느 하나의 필드(41)에 코딩 블록(21)이 포함하는 코딩 정보를 매핑시킬 수 있다. Referring to FIG. 11, when it is determined that the coding block 21 has reached the position of any one of a plurality of fields according to the movement of the coding block 21, the control module 227 Coding information included in the coding block 21 may be mapped to one field 41.

본 발명의 일 실시예에 따르면 기본적으로 하나의 필드에는 하나의 코딩 블록이 배치될 수 있다. 이에 따라, 캐릭터가 특정 필드에 도달하는 경우, 캐릭터는 필드가 포함하는 하나의 코딩 블록에 따른 동작을 수행하게 된다. 한편, 상술한 제6 코딩 정보는 기본적으로 하나의 필드에는 하나의 코딩 블록이 배치될 수 있다는 필드에 대한 기본 규칙을 변경시켜, 하나의 필드에 복수의 코딩 블록이 매핑될 수 있도록 한다. 즉, 제6 코딩 정보는 조건문과 유사한 역할을 수행하여 상술한 기본 규칙을 변경할 수 있다. According to an embodiment of the present invention, basically, one coding block may be arranged in one field. Accordingly, when a character reaches a specific field, the character performs an operation according to one coding block included in the field. Meanwhile, the sixth coding information described above basically changes a basic rule for a field that one coding block can be arranged in one field, so that a plurality of coding blocks can be mapped to one field. That is, the sixth coding information may change the above-described basic rule by performing a role similar to the conditional statement.

도 12는 본 발명의 일 실시예에 따라 하나의 필드에 복수의 코딩 블록이 매핑되어, 하나의 필드에서 캐릭터가 복수의 명령을 수행하는 동작의 예시도이다. 12 is an exemplary diagram of an operation in which a plurality of coding blocks are mapped to one field and a character executes a plurality of commands in one field according to an embodiment of the present invention.

도 12를 참조하면, 제어 모듈(227)은 제6 코딩 정보를 포함하는 코딩 블록이 특정 필드에 배치된 것을 판별하면, 해당 필드에 대해 복수의 코딩 블록이 매핑될 수 있도록 상태를 변경하고, 환자는 해당 필드에 복수의 코딩 블록을 던짐에 따라, 복수의 코딩 블록들이 입력된 순서대로 실행되도록 해당 필드에 복수의 코딩 블록에 대한 정보를 매핑시킬 수 있다. 이에 따라, 캐릭터가 해당 필드를 경유하는 경우, 복수의 코딩 블록이 매핑되어 있는 순서대로 하나의 필드에서 캐릭터의 동작이 제어될 수 있다. (if input of 필드A = 제6 코딩 블록, output of 필드A = 제6 코딩 블록 이후 입력된 복수의 코딩 블록의 입력 순서대로 캐릭터가 필드A에 도달하는 경우 모두 실행)Referring to FIG. 12, when determining that the coding block including the sixth coding information is disposed in a specific field, the control module 227 changes the state so that a plurality of coding blocks can be mapped to the corresponding field, and the patient May map information on a plurality of coding blocks to a corresponding field so that the plurality of coding blocks are executed in the order in which they are input, as a plurality of coding blocks are thrown into the corresponding field. Accordingly, when a character passes through the corresponding field, the operation of the character in one field may be controlled in the order in which a plurality of coding blocks are mapped. (if input of field A = 6th coding block, output of field A = all execution when characters reach field A in the order of input of a plurality of coding blocks input after the 6th coding block)

도 12의 코드 진행 정보(51)의 필드 중에는 2개의 코딩 정보가 매핑된 필드들이 존재하고, 이는 환자가 제6 코딩 정보에 따른 코딩 블록을 해당 필드에 매핑시킨 후, 복수의 코딩 블록을 차례대로 매핑시킨 것이다. 이에 따라, 도 12의 필드 중 "Turn left, Forward"가 매핑되어 있는 필드에서 캐릭터는 "왼쪽으로 돌고, 전진"하는 동작을 수행하여 90도로 꺾여진 필드로 진입할 수 있다. 또한, "Attack, Forward"가 매핑되어 있는 필드에서 캐릭터는 "몬스터를 공격하고, 전진"하는 동작을 수행하여 몬스터를 처치하고 다음 필드로 진입할 수 있다. Among the fields of the code progress information 51 of FIG. 12, there are fields to which two coding information are mapped, and this means that after the patient maps the coding block according to the sixth coding information to the corresponding field, a plurality of coding blocks are sequentially performed. It was mapped. Accordingly, in the field in which "Turn left, Forward" is mapped among the fields of FIG. 12, the character may enter the field bent by 90 degrees by performing an operation of "turning to the left and moving forward". In addition, in the field where "Attack, Forward" is mapped, the character performs an action of "attacking and moving forward" to defeat the monster and enter the next field.

즉, 제6 코딩 정보는 기본적으로 하나의 필드에는 하나의 코딩 블록이 배치될 수 있다는 필드에 대한 기본 규칙을 변경시키는 조건문과 유사한 역할을 할 수 있다.That is, the sixth coding information may basically play a role similar to a conditional statement for changing a basic rule for a field in which one coding block can be arranged in one field.

제어 모듈(227)은 복수의 필드에 대한 코딩 블록의 배치 완료에 따라, 캐릭터가 출발지로부터 경유하게 되는 필드에 매핑된 코딩 정보에 따른 동작이 수행되도록 제어할 수 있다(S370) The control module 227 may control to perform an operation according to the coding information mapped to the field that the character passes through from the starting point according to the completion of the arrangement of the coding blocks for the plurality of fields (S370).

제어 모듈(227)은 복수의 필드에 매핑된 코딩 정보가 실행되는 순서에 대한 코드 진행 정보(ex. 도 9 내지 도 12의 도면부호 51)를 가상 공간에 출력할 수 있다. 도 12의 코드 진행 정보(51)를 참조하면, 맵을 이루는 복수의 필드는 함수들을 의미하고, 필드가 연결된 순서는 함수들이 실행되는 순서를 의미할 수 있다. 또한, 각 필드 내부의 코딩 정보는 함수 내부에서 실행되어야 하는 명령어문을 의미하고, 캐릭터의 위치는 코드가 실행되는 순서 및 실행되는 위치를 의미할 수 있다. The control module 227 may output code progress information (eg, reference numeral 51 of FIGS. 9 to 12) about an execution order of coding information mapped to a plurality of fields to a virtual space. Referring to the code progress information 51 of FIG. 12, a plurality of fields constituting a map may refer to functions, and an order in which the fields are connected may refer to an order in which functions are executed. In addition, the coding information inside each field refers to an instruction statement to be executed inside the function, and the position of a character may refer to an order in which the code is executed and a position in which the code is executed.

한편, 상술한 도 3 내지 도 12에서는 상지가 마비되거나 절단된 환자를 기준으로 재활 콘텐츠를 사용하는 실시예를 설명하였으나, 도 13 및 도 14의 실시예에 따르면 하체가 절단되거나 마비된 환자를 대상으로도 재활 콘텐츠를 적용할 수 있다. On the other hand, in FIGS. 3 to 12 described above, an embodiment of using rehabilitation content based on a patient whose upper limb is paralyzed or amputated has been described, but according to the embodiments of FIGS. 13 and 14, a patient whose lower body is amputated or paralyzed has been described. Rehabilitation content can also be applied.

도 13은 본 발명의 일 실시예에 따른 HMD 장치(200)가 수행하는 가상 이식 하체를 이용한 재활 콘텐츠 제공 방법의 흐름도이다. 도 13에 따른 재활 콘텐츠 제공 방법의 각 단계는 도 2를 통해 설명된 HMD 장치(200)의 구성들에 의해 수행될 수 있으며, 각 단계를 설명하면 다음과 같다.13 is a flowchart of a method of providing rehabilitation content using a virtual implanted lower body performed by the HMD device 200 according to an embodiment of the present invention. Each step of the method for providing rehabilitation content according to FIG. 13 may be performed by the configurations of the HMD device 200 described with reference to FIG. 2, and each step will be described below.

콘텐츠 DB(211)는 가상 공간 내 캐릭터가 출발지에서 목적지로 가기 위해 경유하는 복수의 필드로 구성된 맵을 포함하는 재활 콘텐츠를 저장 및 로딩할 수 있다(S1310). The content DB 211 may store and load rehabilitation content including a map composed of a plurality of fields that a character in the virtual space passes through to go from a starting point to a destination (S1310).

콘텐츠 모듈(221)은 재활 콘텐츠가 플레이됨에 따라 가상 공간 내 캐릭터가 출발지에서 목적지로 가기 위해 경유하는 복수의 필드로 구성된 맵을 생성하여 디스플레이부(240)에 출력할 수 있다(S1320). 센싱 모듈(223)은 재활 콘텐츠를 플레이하는 환자의 절단되거나 마비된 신체 부위에 해당하는 제1 하체(11)와 대칭되는 신체 부위인 제2 하체(12)에 착용된 웨어러블 장치(100)로부터 환자의 움직임에 따른 제2 하체(12)의 형태 및 움직임을 획득할 수 있다(S1330). As the rehabilitation content is played, the content module 221 may generate a map composed of a plurality of fields that a character in the virtual space passes through to go from a starting point to a destination and output it to the display unit 240 (S1320). The sensing module 223 is a patient from the wearable device 100 worn on the second lower body 12, which is a body part symmetrical to the first lower body 11 corresponding to the severed or paralyzed body part of the patient playing rehabilitation content. The shape and movement of the second lower body 12 according to the movement of may be acquired (S1330).

도 14는 본 발명의 일 실시예에 따라 하체에 웨어러블 장치(100)의 착용예를 도시한 도면이다.14 is a view showing an example of wearing the wearable device 100 on the lower body according to an embodiment of the present invention.

도 14를 참조하면, 웨어러블 장치(100)는 양측 단부가 제2 하체(12)의 관절부위(12a) 상측 및 하측에 연결되어 제2 하체(12)의 관절부위(12a)의 움직임에 따라 저항값이 변하는 소프트 센서(101), 소프트 센서(101)의 양측 단부에 구비되어 환자의 신체에 접착되는 접착부(102) 및 접착부(102)의 일측에 구비되어 제2 하체(12)에 진동을 인가하는 액츄에이터(103)를 포함할 수 있다. 이에 따라, 환자가 제2 하체(12)의 관절부위(12a)를 움직이는 경우 소프트 센서(101)의 저항값 변화를 통해 관절부위(12a)의 움직임에 대한 정보를 생성하여 유무선 통신을 통해 HMD 장치(200)로 전송할 수 있다. Referring to FIG. 14, the wearable device 100 has both ends connected to the upper and lower joints 12a of the second lower body 12 and resists according to the movement of the joints 12a of the second lower body 12. The soft sensor 101, which has a variable value, is provided at both ends of the soft sensor 101 and is attached to the patient's body, and is provided on one side of the adhesive part 102 and the second lower body 12 is applied with vibration. It may include an actuator 103. Accordingly, when the patient moves the joint portion 12a of the second lower body 12, the HMD device generates information on the movement of the joint portion 12a through a change in the resistance value of the soft sensor 101 It can be transmitted to (200).

연산 모듈(225)은 웨어러블 장치(100)로부터 획득한 정보를 기초로 제2 하체(12)의 형태 및 움직임과 좌우가 반전된 형태 및 움직임을 갖는 가상의 신체 영상(31)을 가상 공간에 생성할 수 있다(S1340). The calculation module 225 generates a virtual body image 31 having a shape and movement of the second lower body 12 and a shape and movement in which the left and right are inverted based on the information obtained from the wearable device 100 in a virtual space. It can be done (S1340).

이후, 콘텐츠 모듈(221)은 캐릭터의 동작을 제어하는 코딩 블록에 대한 목록을 가상 공간에 출력하고, 환자에 의해 선택된 코딩 블록을 생성할 수 있다(S1350). 이때 코딩 블록은 가상 공간의 바닥에 생성될 수 있다. Thereafter, the content module 221 may output a list of coding blocks that control the motion of the character to the virtual space, and generate a coding block selected by the patient (S1350). In this case, the coding block may be generated on the floor of the virtual space.

제어 모듈(227)은 가상의 신체 영상(31)의 움직임에 기초하여 코딩 블록을 복수의 필드 중 어느 하나의 필드에 배치할 수 있다(S1360). 이때 환자는 웨어러블 장치(100)를 착용한 채로 코딩 블록을 발로 차는 동작을 할 수 있고, 이에 따라 제2 하체(12)와 대칭된 움직임이 가상의 신체 영상(31)으로 구현되어, 가상 공간의 바닥에 생성된 코딩 블록을 차는 동작이 수행될 수 있다. The control module 227 may place the coding block in any one of the plurality of fields based on the motion of the virtual body image 31 (S1360). At this time, the patient can kick the coding block while wearing the wearable device 100, and accordingly, the movement symmetrical with the second lower body 12 is implemented as a virtual body image 31, An operation of kicking the coding block generated on the floor may be performed.

가상의 신체 영상(31)이 발로 차는 동작을 취한 것으로 판별된 경우, 센싱 모듈(223)은 환자의 하체가 움직이는 방향, 속도, 및 환자의 신체 영상과 코딩 블록이 접하는 가상 공간 상의 좌표(=코딩 블록이 환자에 의해 발로 차지는 지점의 가상 공간 내 위치 정보)에 대한 정보를 획득할 수 있다. 연산 모듈(225)은 환자가 코딩 블록(21)을 차는 모션을 행하여 코딩 블록(21)이 가상의 신체 영상(31)에 접하기 시작한 좌표로부터, 가상의 신체 영상(31)이 움직인 가상 공간 내 방향을 향해, 움직인 속도에 비례하는 가상 공간 상의 속도로, 코딩 블록(21)이 물리 법칙(ex. 가상 공간 내 설정된 중력가속도, 가상 공간 내 설정된 공기저항)에 따른 중력과 공기저항을 받아 움직이도록 계산하여, 가상 공간 내 코딩 블록(21)의 움직임을 구현할 수 있다. 제어 모듈(227)은 가상 공간 내 코딩 블록(21)의 움직임에 따른 코딩 블록(21)의 좌표 정보와, 가상 공간 내 복수의 필드가 배치된 좌표 정보를 비교하여, 코딩 블록(21)의 정보를 필드에 매핑하는 동작을 수행할 수 있다. When it is determined that the virtual body image 31 has taken a kicking motion, the sensing module 223 uses the direction and speed of the patient's lower body to move, and the coordinates in the virtual space where the patient's body image and the coding block are in contact with each other (= coding. It is possible to obtain information on the location information of the point occupied by the patient by the block in the virtual space). The calculation module 225 is a virtual space in which the virtual body image 31 is moved from the coordinates where the coding block 21 starts to contact the virtual body image 31 by performing a motion in which the patient kicks the coding block 21. At the speed in the virtual space proportional to the moving speed toward the inside direction, the coding block 21 receives gravity and air resistance according to the laws of physics (ex.gravity acceleration set in the virtual space, air resistance set in the virtual space). By calculating to move, it is possible to implement the movement of the coding block 21 in the virtual space. The control module 227 compares the coordinate information of the coding block 21 according to the movement of the coding block 21 in the virtual space with the coordinate information in which a plurality of fields are arranged in the virtual space, and the information of the coding block 21 Mapping to a field can be performed.

제어 모듈(227)은 복수의 필드에 대한 코딩 블록의 배치 완료에 따라, 캐릭터가 출발지로부터 경유하게 되는 필드에 매핑된 코딩 정보에 따른 동작을 제어할 수 있다(S1370)The control module 227 may control an operation according to coding information mapped to a field that the character passes through from the starting point according to the completion of the arrangement of the coding blocks for the plurality of fields (S1370).

한편, 도 13의 실시예에서는 도 2의 실시예에서의 구현과 차별되는 동작의 내용을 기술하였으며, 도 13에서 설명된 동작 이외의 구현은 도 3 내지 도 12의 설명에서 설명된 내용과 중복되므로 중복되는 내용은 생략하기로 한다. Meanwhile, in the embodiment of FIG. 13, the contents of the operation different from the implementation in the embodiment of FIG. 2 are described, and implementations other than the operation described in FIG. 13 overlap with the contents described in the description of FIGS. 3 to 12. Duplicate content will be omitted.

상술한 실시예에 따르면, 환자의 신체 절단 부위에 가상의 신체를 구현할 수 있고, 이때 구현된 가상의 신체는 절단되지 않은 신체가 갖는 움직임과 대칭되는 움직임을 갖도록 구현될 수 있다. 이에 따라, 환자는 의식적으로 양손 또는 양발이 동일한 동작을 한다고 생각하면서, 가상현실을 통해 구현되는 가상의 신체의 움직임을 시각적으로 인지함으로써, 거울 치료법과 같은 개념의 치료를 진행할 수 있다. According to the above-described embodiment, a virtual body may be implemented at a part of the patient's body amputated, and the implemented virtual body may be implemented to have a movement symmetrical to a movement of an uncut body. Accordingly, the patient consciously considers that both hands or both feet perform the same motion, and visually recognizes the movement of the virtual body implemented through virtual reality, so that the treatment of a concept such as mirror therapy can be performed.

이에 따라, 환자는 양 신체의 행동을 동일하게 움직인다는 인지를 통해 가상의 신체를 실제의 팔과 다리처럼 움직이고, 시각적으로 신체의 움직임을 현실감을 있게 인지할 수 있게 되어, 환상통이 완화될 수 있고 재활 훈련의 효과가 향상될 수 있다.Accordingly, the patient can move the virtual body like an actual arm and leg through the recognition that the behavior of both bodies moves equally, and can visually perceive the movement of the body in a realistic sense, thereby alleviating the phantom pain. And the effectiveness of rehabilitation training can be improved.

또한, 환자는 HMD 장치(200)를 통해 실제 생활과 동일한 시점에서 가상의 신체 영상을 눈앞에서 인지하게 되므로, 실제의 신체처럼 자연스러운 시점에서 생동감 있게 인지할 수 있게 된다.In addition, since the patient perceives a virtual body image in front of his/her eyes at the same time point as in real life through the HMD device 200, the patient can perceive it vividly from a natural point of view like a real body.

더하여, 환자의 움직임은 FLEX 필름으로 구성된 웨어러블 장치(100)가 실제 환자의 팔 또는 다리의 세세한 움직임을 센싱하도록 구현됨으로써, 가상의 신체의 움직임이 보다 정확하게 실제 신체의 움직임을 반영하여 움직이도록 구현될 수 있다.In addition, the movement of the patient is implemented so that the wearable device 100 composed of the FLEX film senses the detailed movement of the actual patient's arm or leg, so that the movement of the virtual body more accurately reflects the movement of the actual body. I can.

더불어, 환자는 HMD 장치(200)를 통해 가상 공간 속에서 보여지는 가상의 신체 영상(ex. 손 또는 하체)을 이용하여 현실감 있게 가상의 손, 팔, 다리 등을 이용하면서, 주어진 과제를 완료하기까지 캐릭터가 경유하는 각 필드에서 요구되는 코딩 블록을 배치하여 과제를 해결해 나감으로써, 치료 과정에서 환자에게 흥미 요소를 결합한 치료 콘텐츠를 제공할 수 있다. In addition, the patient completes a given task while using a virtual hand, arm, leg, etc. in a realistic way by using a virtual body image (ex. hand or lower body) displayed in a virtual space through the HMD device 200. By arranging the coding blocks required in each field passed by the character to solve the problem, it is possible to provide treatment contents that combine the elements of interest to the patient in the treatment process.

상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.The above-described embodiments of the present invention can be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of implementation by hardware, the method according to embodiments of the present invention includes one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), and Programmable Logic Devices (PLDs). , Field Programmable Gate Arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드 등이 기록된 컴퓨터 프로그램은 컴퓨터 판독 가능 기록 매체 또는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 메모리 유닛은 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고받을 수 있다.In the case of implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the function or operation described above. A computer program in which a software code or the like is recorded may be stored in a computer-readable recording medium or a memory unit and driven by a processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor through various known means.

또한 본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Also, combinations of each block of the block diagram and each step of the flowchart attached to the present invention may be performed by computer program instructions. Since these computer program instructions can be mounted on the encoding processor of a general purpose computer, special purpose computer or other programmable data processing equipment, the instructions executed by the encoding processor of the computer or other programmable data processing equipment are each block of the block diagram or Each step in the flow chart will create a means to perform the functions described. These computer program instructions can also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular way, so that the computer-usable or computer-readable memory It is also possible to produce an article of manufacture that includes instruction means for performing the functions described in each block of the block diagram or each step of the flowchart. Since computer program instructions can also be mounted on a computer or other programmable data processing equipment, a series of operating steps are performed on a computer or other programmable data processing equipment to create a computer-executable process to create a computer or other programmable data processing equipment. It is also possible for the instructions to perform the processing equipment to provide steps for executing the functions described in each block of the block diagram and each step of the flowchart.

더불어 각 블록 또는 각 단계는 특정된 논리적 기능을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또한, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block or each step may represent a module, segment, or part of code containing one or more executable instructions for executing a specified logical function. It should also be noted that in some alternative embodiments, functions mentioned in blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially simultaneously, or the blocks or steps may sometimes be performed in the reverse order depending on the corresponding function.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art to which the present invention pertains will be able to understand that the present invention can be implemented in other specific forms without changing the technical spirit or essential features thereof. Therefore, the embodiments described above are illustrative in all respects and should be understood as non-limiting. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. .

Claims (10)

재활 콘텐츠 제공 장치가 수행하는 재활 콘텐츠 제공 방법에 있어서,
가상 공간 내 캐릭터가 출발지에서 목적지로 가기 위해 경유하는 복수의 필드로 구성된 맵을 포함하는 재활 콘텐츠를 저장하는 동작;
상기 재활 콘텐츠가 플레이됨에 따라 상기 복수의 필드를 가상 공간에 출력하는 동작;
환자의 절단되거나 마비된 신체 부위에 해당하는 제1 손과 대칭되는 신체 부위인 제2 손에 착용된 웨어러블 장치로부터 상기 환자의 움직임에 따른 제2 손의 형태 및 움직임을 획득하는 동작;
상기 획득한 정보를 기초로 상기 제2 손의 형태 및 움직임과 좌우가 반전된 형태 및 움직임을 갖는 가상의 신체 영상을 상기 가상 공간에 생성하는 동작;
상기 캐릭터의 동작을 제어하는 코딩 블록에 대한 목록을 상기 가상 공간에 출력하고 상기 환자에 의해 선택된 코딩 블록을 생성하는 동작;
상기 가상의 신체 영상의 움직임에 기초하여 상기 코딩 블록을 상기 복수의 필드 중 어느 하나의 필드에 배치하는 동작; 및
상기 복수의 필드에 대한 코딩 블록의 배치 완료에 따라 상기 캐릭터가 상기 출발지로부터 경유하게 되는 필드에 매핑된 코딩 정보에 따른 동작을 수행하도록 제어하는 동작을 포함하는,
재활 콘텐츠 제공 방법.
In the rehabilitation content providing method performed by the rehabilitation content providing device,
Storing rehabilitation content including a map composed of a plurality of fields that a character in the virtual space passes through to go from a starting point to a destination;
Outputting the plurality of fields to a virtual space as the rehabilitation content is played;
Acquiring the shape and movement of the second hand according to the movement of the patient from the wearable device worn on the second hand, which is a body part symmetrical to the first hand corresponding to the patient's amputated or paralyzed body part;
Generating, in the virtual space, a virtual body image having a shape and movement of the second hand and a shape and movement in which the left and right sides are reversed based on the obtained information;
Outputting a list of coding blocks that control the motion of the character to the virtual space and generating a coding block selected by the patient;
Arranging the coding block in any one of the plurality of fields based on the motion of the virtual body image; And
Comprising an operation of controlling the character to perform an operation according to the coding information mapped to the field to be passed through from the starting point according to the completion of the arrangement of the coding blocks for the plurality of fields,
How to provide rehabilitation content.
제1항에 있어서,
상기 코딩 블록을 생성하는 동작은,
복수의 코딩 블록을 포함하는 목록을 상기 가상 공간에 출력하는 동작; 및
상기 목록에 대한 상기 가상의 신체 영상의 잡기 동작에 의해 선택된 코딩 블록을 상기 가상의 신체 영상에 생성하는 동작을 포함하는,
재활 콘텐츠 제공 방법.
The method of claim 1,
The operation of generating the coding block,
Outputting a list including a plurality of coding blocks to the virtual space; And
Comprising an operation of generating a coding block selected by the grabbing operation of the virtual body image for the list in the virtual body image,
How to provide rehabilitation content.
제1항에 있어서,
상기 필드에 배치하는 동작은,
상기 가상의 신체 영상이 상기 코딩 블록을 놓거나 던지는 움직임을 감지하는 동작;
상기 가상의 신체 영상이 움직이는 방향 및 속도를 기초로 상기 코딩 블록이 던져지는 방향 및 속도를 계산하여 상기 가상 공간 내에 상기 코딩 블록의 움직임을 출력하는 동작; 및
상기 코딩 블록의 움직임에 따라 상기 코딩 블록이 상기 복수의 필드 중 어느 하나의 필드에 도달한 것으로 판별된 경우, 상기 어느 하나의 필드에 상기 코딩 블록에 대응되는 동작에 대한 코딩 정보를 매핑시키는 동작을 포함하는,
재활 콘텐츠 제공 방법.
The method of claim 1,
The operation to be placed in the field,
Detecting a motion of the virtual body image placing or throwing the coding block;
Calculating a direction and speed at which the coding block is thrown based on a direction and speed of the virtual body image, and outputting a motion of the coding block in the virtual space; And
When it is determined that the coding block has reached any one of the plurality of fields according to the movement of the coding block, an operation of mapping coding information on an operation corresponding to the coding block to the one of the fields is performed. Included,
How to provide rehabilitation content.
제1항에 있어서,
상기 복수의 필드는,
캐릭터가 통과 가능한 제1 필드; 캐릭터가 통과 시 게임 오버되는 제2 필드; 및 몬스터가 존재하는 제3 필드를 포함하고,
상기 복수의 필드를 가상 공간에 출력하는 동작은,
상기 제1 필드, 상기 제2 필드 및 상기 제3 필드 중 적어도 두개 이상의 필드를 선별하는 동작; 및
상기 선별된 필드 중 어느 하나의 필드의 한 면에는, 적어도 하나의 다른 선별된 필드가 연결되도록 상기 맵을 생성하여 상기 가상 공간에 출력하는 동작을 포함하는,
재활 콘텐츠 제공 방법.
The method of claim 1,
The plurality of fields,
A first field through which a character can pass; A second field in which the game is over when the character passes; And a third field in which a monster is present,
The operation of outputting the plurality of fields to a virtual space,
Selecting at least two or more fields from among the first field, the second field, and the third field; And
Generating the map so that at least one other selected field is connected to one side of one of the selected fields and outputting the map to the virtual space,
How to provide rehabilitation content.
제1항에 있어서,
상기 코딩 블록은,
상기 캐릭터를 전진시키는 제1 코딩 정보; 상기 캐릭터를 점프시켜 전방의 필드를 뛰어넘는 제2 코딩 정보; 상기 캐릭터를 왼쪽으로 회전시키는 제3 코딩 정보; 상기 캐릭터를 오른쪽으로 회전시키는 제4 코딩 정보; 상기 캐릭터가 공격을 수행하여 전방의 몬스터를 제거하는 제5 코딩 정보; 및 하나의 필드에 복수의 코딩 블록이 매핑될 수 있도록 상기 하나의 필드에 대한 아이템 매핑 규칙을 변경시키는 제6 코딩 정보를 포함하고,
상기 제어하는 동작은,
상기 제6 코딩 정보에 의해 매핑 규칙이 변하여 하나의 필드에 복수의 코딩 블록이 매핑되어 있는 필드를 상기 캐릭터가 경유하는 경우, 상기 복수의 코딩 블록이 매핑되어 있는 순서대로 상기 캐릭터의 동작을 제어하는 동작을 포함하는,
재활 콘텐츠 제공 방법.
The method of claim 1,
The coding block,
First coding information for advancing the character; Second coding information for jumping the character to jump over a field in front; Third coding information for rotating the character to the left; Fourth coding information for rotating the character to the right; Fifth coding information for removing a monster in front of the character by performing an attack; And sixth coding information for changing an item mapping rule for one field so that a plurality of coding blocks can be mapped to one field,
The controlling operation,
When the character passes through a field in which a plurality of coding blocks are mapped to one field by changing a mapping rule according to the sixth coding information, the operation of the character is controlled in the order in which the plurality of coding blocks are mapped. Including the action,
How to provide rehabilitation content.
제1항에 있어서,
상기 재활 콘텐츠 제공 방법은,
상기 필드에 배치하는 동작 이후에, 상기 복수의 필드에 대한 코딩 블록의 배치에 따라, 상기 복수의 필드에 매핑된 코딩 정보가 실행되는 순서에 대한 코드 진행 정보를 상기 가상 공간에 출력하는 동작을 더 포함하는,
재활 콘텐츠 제공 방법.
The method of claim 1,
The method of providing rehabilitation content,
After the operation of placing in the field, according to the arrangement of coding blocks for the plurality of fields, an operation of outputting code progress information on an order in which coding information mapped to the plurality of fields is executed to the virtual space is further performed. Included,
How to provide rehabilitation content.
제1항에 있어서,
상기 웨어러블 장치는,
표면이 늘어나거나 줄어듬에 따라 변화하는 저항값을 통해 상기 표면의 형태를 센싱 가능한 플렉스(flex) 필름이 상기 제2 손을 둘러싸도록 상기 제2 손에 대응하는 형태로 구성되고, 상기 제2 손을 둘러싼 상기 플렉스 필름에 의해 센싱된 상기 제2 손의 형태 및 움직임에 대한 정보를 유무선 통신을 통해 상기 재활 콘텐츠 제공 장치에 전송하는,
재활 콘텐츠 제공 방법.
The method of claim 1,
The wearable device,
A flex film capable of sensing the shape of the surface through a resistance value that changes as the surface increases or decreases is configured in a shape corresponding to the second hand so as to surround the second hand. Transmitting information on the shape and movement of the second hand sensed by the surrounding flex film to the rehabilitation content providing device through wired or wireless communication,
How to provide rehabilitation content.
제7항에 있어서,
상기 가상의 신체 영상을 상기 가상 공간에 생성하는 동작은,
상기 웨어러블 장치로부터 획득한 정보를 기초로 상기 제2 손의 형태 및 움직임 정보를 구성하는 복수의 3차원 위치 정보를 생성하는 동작;
상기 복수의 3차원 위치 정보 각각을 면대칭시킨 복수의 가상 위치 정보를 생성하는 동작; 및
상기 복수의 가상 위치 정보를 3D 렌더링하여 상기 가상의 신체 영상을 생성하는 동작을 포함하는,
재활 콘텐츠 제공 방법.
The method of claim 7,
The operation of generating the virtual body image in the virtual space,
Generating a plurality of 3D location information constituting the shape and motion information of the second hand based on the information acquired from the wearable device;
Generating a plurality of virtual location information obtained by making each of the plurality of 3D location information plane-symmetric; And
3D rendering the plurality of virtual location information to generate the virtual body image,
How to provide rehabilitation content.
제1항 내지 제8항 중 어느 한 항의 재활 콘텐츠 제공 방법을 프로세서가 수행하도록 하는 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable recording medium for causing a processor to perform the method of providing rehabilitation content according to any one of claims 1 to 8.
재활 콘텐츠 제공 장치에 있어서,
영상을 출력하는 디스플레이부; 소정의 동작을 수행하도록 하는 명령어들을 저장하는 하나 이상의 메모리; 및 상기 하나 이상의 메모리와 동작 가능 하도록 연결되어 상기 명령어들을 실행하도록 설정된 하나 이상의 프로세서를 포함하고,
상기 하나 이상의 프로세서는,
가상 공간 내 캐릭터가 출발지에서 목적지로 가기 위해 경유하는 복수의 필드로 구성된 맵을 포함하는 재활 콘텐츠를 로딩하는 동작;
상기 재활 콘텐츠의 로딩에 따라 상기 복수의 필드를 가상 공간에 출력하는 동작;
환자의 절단되거나 마비된 신체 부위에 해당하는 제1 손과 대칭되는 신체 부위인 제2 손에 착용된 웨어러블 장치로부터 상기 환자의 움직임에 따른 제2 손의 형태 및 움직임을 획득하는 동작;
상기 획득한 정보를 기초로 상기 제2 손의 형태 및 움직임과 좌우가 반전된 형태 및 움직임을 갖는 가상의 신체 영상을 상기 가상 공간에 생성하는 동작;
상기 캐릭터의 동작을 제어하는 코딩 블록에 대한 목록을 상기 가상 공간에 출력하고 상기 환자에 의해 선택된 코딩 블록을 생성하는 동작;
상기 제2 손의 움직임에 대해 반전되어 움직이는 상기 가상의 신체 영상의 움직임에 기초하여 상기 코딩 블록을 상기 복수의 필드 중 어느 하나의 필드에 배치하는 동작; 및
상기 복수의 필드에 대한 코딩 블록의 배치 완료에 따라 상기 캐릭터가 상기 출발지로부터 경유하게 되는 필드에 매핑된 코딩 정보에 따른 동작을 수행하도록 제어하는 동작을 포함하는,
재활 콘텐츠 제공 장치.
In the rehabilitation content providing device,
A display unit that outputs an image; One or more memories storing instructions for performing a predetermined operation; And one or more processors connected to be operable with the one or more memories and configured to execute the instructions,
The one or more processors,
Loading rehabilitation content including a map composed of a plurality of fields that a character in the virtual space passes through to go from a starting point to a destination;
Outputting the plurality of fields to a virtual space according to loading of the rehabilitation content;
Acquiring the shape and movement of the second hand according to the movement of the patient from the wearable device worn on the second hand, which is a body part symmetrical to the first hand corresponding to the patient's amputated or paralyzed body part;
Generating, in the virtual space, a virtual body image having a shape and movement of the second hand and a shape and movement in which the left and right sides are reversed based on the obtained information;
Outputting a list of coding blocks that control the motion of the character to the virtual space and generating a coding block selected by the patient;
Arranging the coding block in any one of the plurality of fields based on the motion of the virtual body image that is inverted and moved with respect to the motion of the second hand; And
Comprising an operation of controlling the character to perform an operation according to the coding information mapped to the field to be passed through from the starting point according to the completion of the arrangement of the coding blocks for the plurality of fields,
Rehabilitation content providing device.
KR1020200180390A 2020-12-22 2020-12-22 Method and apparatus for providing rehabilitation content using virtual transplant hand based on vr/ar KR102253353B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200180390A KR102253353B1 (en) 2020-12-22 2020-12-22 Method and apparatus for providing rehabilitation content using virtual transplant hand based on vr/ar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200180390A KR102253353B1 (en) 2020-12-22 2020-12-22 Method and apparatus for providing rehabilitation content using virtual transplant hand based on vr/ar

Publications (1)

Publication Number Publication Date
KR102253353B1 true KR102253353B1 (en) 2021-05-18

Family

ID=76158552

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200180390A KR102253353B1 (en) 2020-12-22 2020-12-22 Method and apparatus for providing rehabilitation content using virtual transplant hand based on vr/ar

Country Status (1)

Country Link
KR (1) KR102253353B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102635074B1 (en) * 2023-09-05 2024-02-08 주식회사 라이징크래프트 Head mounted display apparatus for providing object catching training based on virtual transplant of vr/ar technology, and operation method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100200112B1 (en) 1994-12-29 1999-06-15 정몽규 Accelerator transmission
KR20170083429A (en) * 2016-01-08 2017-07-18 서울대학교산학협력단 Virtual impatient rehabilitation system and method the same
KR20190097396A (en) * 2018-02-12 2019-08-21 호남대학교 산학협력단 Virtual reality based cognitive rehabilitation training system
KR102164965B1 (en) * 2019-05-03 2020-10-14 계명대학교 산학협력단 Virtual illusion system for hemiplegic patients using brain stimulation and its way to working
KR20200136255A (en) * 2019-05-27 2020-12-07 건양대학교산학협력단 Augmented Reality Based Mirror Exercise System for Exercise Rehabilitation of Patients with Nervous and Musculoskeletal system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100200112B1 (en) 1994-12-29 1999-06-15 정몽규 Accelerator transmission
KR20170083429A (en) * 2016-01-08 2017-07-18 서울대학교산학협력단 Virtual impatient rehabilitation system and method the same
KR20190097396A (en) * 2018-02-12 2019-08-21 호남대학교 산학협력단 Virtual reality based cognitive rehabilitation training system
KR102164965B1 (en) * 2019-05-03 2020-10-14 계명대학교 산학협력단 Virtual illusion system for hemiplegic patients using brain stimulation and its way to working
KR20200136255A (en) * 2019-05-27 2020-12-07 건양대학교산학협력단 Augmented Reality Based Mirror Exercise System for Exercise Rehabilitation of Patients with Nervous and Musculoskeletal system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102635074B1 (en) * 2023-09-05 2024-02-08 주식회사 라이징크래프트 Head mounted display apparatus for providing object catching training based on virtual transplant of vr/ar technology, and operation method thereof

Similar Documents

Publication Publication Date Title
JP6938542B2 (en) Methods and program products for articulated tracking that combine embedded and external sensors
Ma et al. Virtual reality and serious games in healthcare
JP5414380B2 (en) Image processing method and image processing apparatus
JP2022503776A (en) Systems and methods for generating complementary data for visual displays
WO2012111622A1 (en) Movement modeling device, method, and program
US9947240B2 (en) Method and apparatus for position and motion instruction
JP2012521038A (en) Chain animation
WO2009026289A2 (en) Wearable user interface device, system, and method of use
US8779908B2 (en) System and method for social dancing
KR102253353B1 (en) Method and apparatus for providing rehabilitation content using virtual transplant hand based on vr/ar
JP4025230B2 (en) Pain treatment support device and method for displaying phantom limb images in a virtual space
WO2020222955A1 (en) System, method, and apparatus for virtual reality feedback
US11880502B2 (en) Information processing device, information processing method, and non-transitory computer readable storage medium storing an information processing program
US9000899B2 (en) Body-worn device for dance simulation
KR102253352B1 (en) Method and apparatus for providing rehabilitation content using virtual transplant foot based on vr/ar
KR102197753B1 (en) Apparatus and method using character control game through arrangement of coding block based on vr/ar
KR102446922B1 (en) Apparatus for rehabilitation treatment using virtual transplant based on vr/ar for overcoming phantom pain
Palaniappan et al. Adaptive virtual reality exergame for individualized rehabilitation for persons with spinal cord injury
Carrino et al. Augmented reality treatment for phantom limb pain
WO2020205671A1 (en) Peripersonal boundary-based augmented reality game environment
CN108970110A (en) A kind of virtual experience system and method based on VR
KR102499113B1 (en) Apparatus for rehabilitation using virtual transplant based on vr/ar for overcoming phantom pain
Camarillo-Abad et al. GuiDance: Wearable technology applied to guided dance
JP7262763B2 (en) Rehabilitation support device and program
KR102635074B1 (en) Head mounted display apparatus for providing object catching training based on virtual transplant of vr/ar technology, and operation method thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant