WO2018159614A1 - 歩行感覚呈示装置及び呈示方法 - Google Patents

歩行感覚呈示装置及び呈示方法 Download PDF

Info

Publication number
WO2018159614A1
WO2018159614A1 PCT/JP2018/007279 JP2018007279W WO2018159614A1 WO 2018159614 A1 WO2018159614 A1 WO 2018159614A1 JP 2018007279 W JP2018007279 W JP 2018007279W WO 2018159614 A1 WO2018159614 A1 WO 2018159614A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
walking
thigh
video
unit
Prior art date
Application number
PCT/JP2018/007279
Other languages
English (en)
French (fr)
Inventor
航 脇田
Original Assignee
公立大学法人広島市立大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 公立大学法人広島市立大学 filed Critical 公立大学法人広島市立大学
Priority to US16/489,272 priority Critical patent/US11801010B2/en
Priority to CN201880015009.6A priority patent/CN110392872B/zh
Publication of WO2018159614A1 publication Critical patent/WO2018159614A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/70Means for positioning the patient in relation to the detecting, measuring or recording means
    • A61B5/702Posture restraints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/0638Displaying moving images of recorded environment, e.g. virtual environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B2071/0658Position or arrangement of display
    • A63B2071/0661Position or arrangement of display arranged on the user
    • A63B2071/0666Position or arrangement of display arranged on the user worn on the head or face, e.g. combined with goggles or glasses
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/10Positions
    • A63B2220/16Angular positions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/50Force related parameters
    • A63B2220/51Force
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2230/00Measuring physiological parameters of the user
    • A63B2230/62Measuring physiological parameters of the user posture
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • the present invention relates to a walking sensation presentation apparatus and a presentation method capable of presenting a gait sensation at a fixed position.
  • a treadmill type device that moves the ground in the reverse direction according to the movement of the user's foot (see Patent Documents 1 and 2), or by rotating the treadmill, any There is a device (see Patent Documents 3 and 4) that can obtain a walking sensation in the front direction. Furthermore, there is also a treadmill (see Patent Documents 5 and 6) that can be walked sideways by canceling movement not only in the front but also in all directions such as lateral and diagonal directions.
  • Japanese Patent No. 3550087 JP 2001-061992 A Japanese Patent No. 3200592 Japanese Patent No. 4269646 Special Table 2000-516829 Japanese Patent No. 3464976 JP 2008-220580 A Japanese Patent No. 3373460 Japanese Patent No. 4313633 JP 2006-239086 A JP 2001-296951 A
  • An object of the present invention is to solve the problems of the prior art and to provide a walking sensation presentation device and a presentation method that are excellent in walking sensation with a compact device configuration.
  • the walking sensation presentation device of the present invention includes: A thigh support part that supports the user's thigh in the direction in which the user proceeds; A first sensor for detecting a force received by the thigh support from the thigh of the user; A walking motion estimation unit that estimates the walking motion of the user based on the force detected by the first sensor; Based on the walking motion estimated by the walking motion estimation unit, a video generation unit that generates a video to be presented to the user; A video presentation unit for presenting the video generated by the video generation unit to the user; It is characterized by providing.
  • the walking sensation presentation device of the present invention further includes a rotation mechanism that rotatably supports the thigh support part, A second sensor for detecting a rotation angle of the thigh support portion by the rotation mechanism; Further comprising It's also good.
  • the walking sensation presentation device of the present invention further includes a third sensor for detecting the posture of the user. It's also good.
  • the walking sensation presentation method of the present invention comprises: A thigh support unit supports a user's thigh in the direction in which the user travels, and a first sensor detects a force received by the thigh support unit from the user's thigh. 1 detection step; An estimation step in which the computer estimates the walking motion of the user based on the force detected by the first sensor; A video generation step in which a computer generates a video to be presented to the user based on the estimated walking motion; A video presentation step for presenting the generated video to the user; including.
  • the walking sensation presentation method of the present invention further includes a second detection step of making the thigh support portion rotatable and detecting the rotation angle with a second sensor.
  • a second detection step of making the thigh support portion rotatable and detecting the rotation angle with a second sensor.
  • the video generation step Generating an image to be presented to the user based on the rotation angle in the traveling direction of the user detected in the second detection step; It's also good.
  • the walking sensation presentation method of the present invention further includes a third detection step of detecting by a third sensor for detecting the posture of the user, In the video generation step, Generating an image to be presented to the user according to a change in the posture of the user detected in the third detection step; It's also good.
  • the walking sensation presentation apparatus by supporting the user's thigh in the traveling direction, the center of gravity changes in the traveling direction, and an image corresponding to the user's walking motion is presented. Presents walking sensation.
  • a compact and lightweight device can be realized at low cost without requiring a large device that moves the floor in accordance with the movement of the foot or a drive unit that moves the thigh up and down.
  • the walking sensation presentation apparatus According to the walking sensation presentation apparatus according to the present invention, a change in the user's traveling direction and posture is detected, and a video that is presented to the user is changed according to the detection result, thereby providing a better walking sensation. Can be presented.
  • FIG. 2 It is a block diagram which shows the structure of the walking sensation presentation apparatus which concerns on the 1st Embodiment of this invention. It is a perspective view which shows an example of the external appearance of the walking sense presentation apparatus which concerns on the 1st Embodiment of this invention. It is a perspective view which shows a part of internal structure of the walking sensation presentation apparatus of FIG. 2A. It is a perspective view which shows another structure of a walking sense presentation apparatus. It is a perspective view which shows the case where a user uses the stationary image
  • FIG. 2 is a perspective view showing a case where a user uses a head-mounted image presentation device as the walking sensation presentation device of FIG. 1.
  • FIG. 7 is a perspective view showing a case where a user uses a head-mounted image presentation device as the walking sensation presentation device in FIG. 6.
  • FIG. 6 It is a flowchart which shows the operation
  • FIG. 11 is a perspective view showing a case where a user uses a head-mounted image presentation device as the walking sensation presentation device of FIG. 10. It is a flowchart which shows the operation
  • FIG. 14 is a perspective view showing a case where a user uses a head-mounted image presentation device as the walking sensation presentation device of FIG. 13.
  • FIG. 14B is a perspective view illustrating a case where the user faces another direction in the walking sensation presentation apparatus in FIG. 14A.
  • the walking sensation presentation device includes a thigh support unit 2, a force detection unit 3 as a first sensor, a walking motion estimation unit 4, A video generation unit 5 and a video presentation unit 6 are provided.
  • the thigh support part 2 supports the thigh of the user 1 in the direction in which the user 1 travels.
  • the force detection unit 3 detects the force received by the thigh support unit 2 from the thigh of the user 1.
  • the walking motion estimation unit 4 estimates the walking motion of the user 1 based on the force detected by the force detection unit 3.
  • the video generation unit 5 generates a video to be presented to the user 1 based on the walking motion estimated by the walking motion estimation unit 4.
  • the video presentation unit 6 presents the video generated by the video generation unit 5 to the user 1.
  • “presenting a video” means displaying a video so that the user 1 can see it.
  • the thigh support part 2 and the force detection part 3 are put together as a walking device 10 that is a man-machine interface with the user 1.
  • the walking motion estimation unit 4 and the video generation unit 5 are realized on the computer 20.
  • the computer 20 is a computer including a CPU, a memory, and a storage unit. The functions of the walking motion estimation unit 4 and the video generation unit 5 are realized by the CPU executing a program stored in the memory.
  • FIG. 2A to 2C are perspective views showing an actual configuration of the walking device 10.
  • FIG. FIG. 2A shows the appearance of the walking device 10.
  • the walking device 10 detects the walking motion when the user 1 walks in the front direction.
  • FIG. 2B shows a partial internal structure of the walking device 10 of FIG. 2A.
  • FIG. 2C shows the appearance of the walking device 10 that walks in all directions.
  • the thigh support part 2 is provided with the base 2a and the support
  • the force detection unit 3 is fixed by the base 2a and the support column 2b.
  • the force detection unit 3 includes a thigh contact unit 3a and a force sensor 3b.
  • the thigh contact portion 3a is a portion where the thigh of the user 1 contacts the device.
  • the force sensor 3 b is provided in the thigh contact portion 3 a and detects a force received from the thigh of the user 1.
  • the force detection unit 3 in order to estimate the posture of the thigh when the user 1 is in a forward leaning posture in the traveling direction and performs a walking motion, includes at least an upper thigh portion.
  • the force sensor 3b is arranged at the part that comes into contact with the part that the lower part of the thigh contacts when the user 1 raises the thigh.
  • the force sensor 3b in the lower thigh reacts even when the user 1 does not raise the thigh. It is desirable that the thigh support part 2 is angled so that the force sensor 3b in the lower thigh does not react to the traveling direction of the user 1. It is desirable that the angle at this time can be adjusted to an angle (about 10 to 60 °) in which the thigh rises when the user 1 actually walks. Further, since the reaction force received from the force detection unit 3 when the user 1 raises the thigh can be uncomfortable, it is desirable to use a cushioning material such as sponge for the thigh contact portion 3a. When walking in all directions, the force detection unit 3 is disposed so as to surround the thigh of the user 1 as shown in FIG. 2C. The force detection unit 3 may be fixed to the thigh support unit 2 or attached to the user 1.
  • FIG. 3A and 3B are diagrams showing a state in which the user 1 is actually using the walking sensation presentation apparatus of FIG.
  • FIG. 3A shows a case where the stationary video presentation device 6 a shown in FIG. 2C is used as the video presentation unit 6.
  • FIG. 3B shows a case where a head-mounted video presentation device 6 b is used as the video presentation unit 6.
  • User 1 gets on base 2a for supporting the thigh in the direction of travel. Then, the user 1 performs a walking motion while taking an inclined posture in a direction in which he wants to proceed with respect to the thigh support portion 2. Due to this walking motion, a change in the center of gravity in the traveling direction occurs in the user 1. Since the thigh is supported in the traveling direction by the thigh support 2, the force received from the thigh of the user 1 is detected by the force detector 3. The walking motion estimation unit 4 estimates the walking motion of the user 1 based on the force detected by the force detection unit 3. The video generation unit 5 generates a video corresponding to the estimated walking motion and displays it on the video presentation unit 6, so that the user 1 is presented with a walking sensation. In the case of FIG. 3A, an image is presented on the screen of the stationary image presenting device 6a, and in the case of FIG. 3B, an image is presented on the head-mounted image presenting device 6b.
  • FIG. 4A and 4B show how the walking motion estimation unit 4 estimates the walking posture of the user 1 in a state where the user 1 actually uses the walking sensation presentation device of FIG.
  • FIG. 4A when the user 1 performs a walking motion in the front direction, when the force received from the thigh is detected by the force sensor 3b of the force detection unit 3, the walking motion estimation unit 4 actually In this case, the posture of the thigh of the right foot that does not come forward, that is, the estimated walking posture 1a is estimated.
  • FIG. 4B when the user 1 performs a walking motion in the lateral direction, the walking motion estimation unit 4 estimates the posture of the thigh of the left foot that does not actually go to the left, that is, is estimated.
  • the walking posture 1a is estimated.
  • the force detection unit 3 detects the force received by the thigh support unit 2 from the thigh of the user 1 and transmits it to the computer 20 (step SP1; first detection step).
  • the walking motion estimation unit 4 of the computer 20 estimates the tilt posture and the thigh posture of the user 1 based on the received detection value of the force detection unit 3 (step SP2; estimation step) and estimates. Based on the walking posture 1a, the movement amount of the user 1 is calculated (step SP3).
  • the video generation unit 5 of the computer 20 generates a video to be displayed on the video presentation unit 6 based on the estimated movement amount of the user 1 in the traveling direction, and causes the video presentation unit 6 to display the generated video.
  • Step SP4 video generation step, video presentation step.
  • step SP5 determines whether or not there is a predetermined termination instruction. If there is a termination instruction (step SP5; Yes), the walking sensation presentation apparatus When the operation is terminated and there is no termination instruction (step SP5; No), the walking sensation presentation device returns to step SP1.
  • the walking motion estimation unit 4 estimates the walking motion of the user 1 based on the detection value of the force sensor 3b included in the force detection unit 3, the video generation unit 5 generates a video corresponding to the walking motion, and the video The presentation unit 6 displays the generated video.
  • the user 1 who has seen this video can enjoy a walking sensation while actually not walking.
  • the force detection unit 3 is arranged in the traveling direction of the user 1 to support the thigh of the user 1.
  • the user 1 can easily obtain a walking sensation in all directions by performing a walking motion while taking an inclined posture with respect to the traveling direction.
  • the walking motion is performed only by the user 1's own power, and no external force is applied to the user's 1 body. For this reason, the safe use of the walking sensation presentation device is possible.
  • the rehabilitation aiming at the functional recovery of the walking motion for the user 1 or the elderly or healthy person with weak legs and hips It can be used to improve athletic ability.
  • the walking sensation presentation device includes a rotation mechanism 7 as a component of the walking device 10 in addition to the configuration of the walking sensation presentation device according to the first embodiment. And a rotation angle detector 8 as a second sensor.
  • the rotation mechanism 7 supports the thigh support part 2 so as to be rotatable in an arbitrary horizontal direction. Further, the rotation angle detection unit 8 detects the rotation angle of the thigh support unit 2 by the rotation mechanism 7. By providing the rotation mechanism 7 and the rotation angle detection unit 8, the user 1 can change the direction in an arbitrary direction within a horizontal plane.
  • FIG. 7 is a perspective view showing an actual configuration of a portion surrounded by a dotted line of the walking sensation presentation device of FIG.
  • FIG. 7A shows an appearance of the walking sensation presentation apparatus when only walking in an arbitrary front direction.
  • FIG. 7B shows the appearance of the walking sensation presentation device when walking in all directions in an arbitrary front direction.
  • the rotation mechanism 7 and the rotation angle detection unit 8 are provided on the thigh support unit 2.
  • the rotation mechanism 7 and the rotation angle detection unit 8 may be attached to the base 2a side or may be attached to the support column 2b side.
  • As the rotation angle detector 8, a rotation angle sensor, an optical camera, an inertial sensor, or the like can be used.
  • the other points are the same as those in the first embodiment (see FIG. 2), and the description is omitted.
  • FIG. 8 is a diagram illustrating a state in which the user 1 is actually using the walking sensation presentation apparatus of FIG. 8A
  • a stationary video presentation device 6 a is used as the video presentation unit 6
  • a head-mounted video presentation device 6 b is used as the video presentation unit 6 in FIG. 8B.
  • the rotation mechanism 7 allows the user 1 to rotate the thigh support 2 in any direction.
  • the rotation angle detection unit 8 detects the rotation angle of the thigh support unit 2, further detects the force received by the force detection unit 3 from the thigh of the user 1, and the walking motion estimation unit 4
  • the front direction and the walking motion of 1 are estimated, and the video generation unit 5 generates a video corresponding to the estimated walking motion and displays it on the video presentation unit 6.
  • the user 1 who has seen this video can enjoy a walking sensation while actually not walking.
  • the rotation angle detector 8 detects the rotation angle of the thigh support 2 and transmits it to the computer 20 (step SP6; second detection step).
  • the force detection part 3 detects the force which the thigh support part 2 receives from a user's thigh, and transmits to the computer 20 (step SP1). (A) and (B) are performed simultaneously.
  • the walking motion estimation unit 4 of the computer 20 calculates the front direction of the user 1 based on the received rotation angle of the thigh support unit 2, and based on the received detection value of the force detection unit 3.
  • the inclination posture of the user 1 and the posture of the thigh are estimated (step SP2).
  • the walking motion estimation unit 4 of the computer 20 estimates the movement amount of the user 1 based on the estimated walking posture 1a (step SP3).
  • the computer 20 generates a video to be displayed on the video presentation unit 6 based on the estimated amount of movement of the user in the traveling direction, and displays the generated video on the video presentation unit 6 (step SP4).
  • the walking sensation presentation apparatus determines whether or not there is a predetermined termination instruction (step SP5), and when there is the termination instruction (step SP5; Yes), the walking sensation presentation apparatus terminates the operation. If there is no end instruction (step SP5; No), the walking sensation presentation device returns to steps SP1 and SP6.
  • the thigh support is supported by the thigh support portion 2, so that the user 1 performs the walking motion in the traveling direction.
  • a change in the center of gravity occurs.
  • the user 1 can freely change the front direction by the rotation mechanism 7.
  • the walking motion estimation unit 4 estimates the walking motion of the user 1 based on the detection values of the rotation angle detection unit 8 and the force detection unit 3 (force sensor 3b), and the video generation unit 5 performs the walking motion.
  • a video corresponding to is generated and displayed on the video presentation unit 6.
  • the walking sensation presentation device is further provided with a posture detection unit 9 as a third sensor that detects the posture of the user 1. Different from form. By providing the posture detection unit 9, the user 1 can obtain a more realistic walking sensation in an arbitrary direction.
  • FIG. 11 is a diagram showing a state where the user 1 is actually using the walking sensation presentation apparatus of FIG.
  • a stationary video presentation device 6 a is used as the video presentation unit 6.
  • a head-mounted video presentation device 6 b is used as the video presentation unit 6.
  • the force detection unit 3 is provided on the thigh support unit 2.
  • an optical camera, an inertia sensor, an angle sensor, or the like can be used as the posture detection unit 9.
  • the posture information detected by the posture detection unit 9 is used to estimate the walking posture and movement amount of the walking motion estimation unit 4, and changes in the posture of the user 1 are reflected in the video presented by the video presentation unit 6.
  • the The user 1 can obtain a walking sensation while viewing an arbitrary direction by performing an operation while viewing the video.
  • a walking sensation according to the estimated walking motion is given to the user 1, and when the user 1 does not touch the thigh support part 2, actual walking You can get a sense.
  • the thigh support unit 2 is not touched, it is possible to obtain an actual sitting feeling or a jumping feeling by changing the image in accordance with an operation such as sitting or jumping.
  • the posture detection unit 9 detects the posture of the user 1 and transmits it to the computer 20 (step SP10; third detection step).
  • the force detection unit 3 detects the force received by the thigh support unit 2 from the thigh of the user 1 and transmits it to the computer 20 (step SP1). (A) and (B) are performed simultaneously.
  • the walking motion estimation unit 4 of the computer 20 estimates the walking posture of the user 1 based on the received tilting posture of the user 1 and the force received from the thigh (step SP2). Furthermore, the walking motion estimation unit 4 of the computer 20 estimates the movement amount of the user 1 based on the estimated walking posture (step SP3).
  • the video generation unit 5 of the computer 20 generates a video to be displayed on the video presentation unit 6 based on the estimated amount of movement of the user 1 in the traveling direction, and displays the generated video on the video presentation unit 6. (Step SP4).
  • step SP5 The walking sensation presentation apparatus determines whether or not there is a predetermined end instruction (step SP5). If there is an end instruction (step SP5; Yes), the walking sensation presentation apparatus ends the operation. If there is no end instruction (step SP5; No), the walking sensation presentation device returns to steps SP1 and SP10.
  • an image corresponding to the walking motion based on the force received from the thigh of the user 1 and the posture of the user 1. Is presented to the user 1. Accordingly, if the walking motion is performed while taking an inclined posture in the contacted direction, a walking sensation according to the walking motion can be obtained. Further, even when the thigh of the user 1 does not contact the thigh support 2, the user 1 presents an image corresponding to the operation according to the operation such as sitting or jumping, Realistic movement feeling can be obtained.
  • the walking sensation presentation apparatus is different from the second embodiment in that it includes a posture detection unit 9 that detects the posture of the user 1. Thereby, the user 1 can obtain a realistic walking sensation in an arbitrary direction.
  • FIG. 14 is a diagram illustrating a state in which the user 1 is actually using the walking sensation presentation apparatus of FIG.
  • a head-mounted video presentation device 6 b is used as the video presentation unit 6.
  • FIG. 14B the state where the user 1 turned to the direction different from FIG. 14A is shown.
  • the posture detection unit 9 allows the user 1 to obtain a walking sensation in an arbitrary direction.
  • the rotation angle detection part 8 detects the rotation angle of the thigh support part 2, and transmits it to the computer 20 (step SP6).
  • the force detection unit 3 detects the force received by the thigh support unit 2 from the thigh of the user 1 and transmits it to the computer 20 (step SP1).
  • the posture detection unit 9 detects the posture of the user and transmits it to the computer 20 (step SP10; third detection step). (A), (B), and (C) are performed simultaneously.
  • the walking motion estimation unit 4 of the computer 20 estimates and estimates the walking posture of the user 1 based on the rotation angle of the thigh support unit 2, the posture of the user 1, and the force received from the thigh.
  • the movement amount of the user 1 is estimated based on the walking posture (step SP3).
  • the walking motion estimation unit 4 of the computer 20 generates a video to be displayed on the video presenting unit 6 based on the estimated movement amount of the user 1, and causes the video presenting unit 6 to display the generated video (Step S1). SP4).
  • the walking sensation presentation apparatus determines whether or not there is a predetermined termination instruction (step SP5). If there is a termination instruction (step SP5; Yes), the walking sensation presentation apparatus ends the operation. If there is no end instruction (step SP5; No), the walking sensation presentation device returns to steps SP1, SP6, and SP10.
  • an image corresponding to the walking motion estimated by the force detection unit 3, the rotation angle detection unit 8, and the posture detection unit 9 is presented to the user 1.
  • the user 1 performs a walking motion while taking an inclined posture in the traveling direction
  • an image in accordance with the walking motion is presented to the user 1, so that a walking sensation corresponding to the walking motion is obtained. I can do it.
  • FIG. 16 shows an example of fluctuations in detection data of the force received from the thigh of the user 1 detected by the force detection unit 3 of the walking sensation presentation apparatus according to the first embodiment of the present invention.
  • the vertical axis represents the force received from the thigh of the user 1 and the horizontal axis represents time.
  • LT indicates the force received from the upper left thigh of the user 1
  • LB indicates the lower left thigh
  • RT indicates the upper right thigh
  • RB indicates the force received from the lower right thigh.
  • FIG. 17 shows an example of rotation angle data of the thigh support part 2 detected by the rotation angle detection part 8 in the walking sensation presentation apparatus according to the second embodiment of the present invention.
  • the vertical axis indicates the rotation angle
  • the horizontal axis indicates time. From this rotation angle, the orientation of the waist of the user 1 can be estimated.
  • FIG. 18 shows a coordinate system that defines the posture of the user 1 detected by the posture detection unit 9 of the walking sensation presentation apparatus according to the third and fourth embodiments.
  • 18 is an absolute coordinate system based on the walking device 10, and X ′, Y ′, and Z ′ are the postures of the head of the user 1 estimated by the optical motion capture method. Coordinate system.
  • the video generation unit 5 determines the offset value and rotation angle of the origin of the X′Y′Z ′ coordinate system relative to the XYZ coordinate system based on the user's posture detected by the posture detection unit 9 and corrects the displayed video. To do.
  • FIG. 19 shows a coordinate system for estimating the walking motion of the user 1 from the data detected by the force detection unit 3, the rotation angle detection unit 8, and the posture detection unit 9 of the walking sensation presentation device according to the embodiment. ing.
  • the coordinate system of X ′, Y ′, and Z ′ in FIG. 19 is a coordinate system that indicates the posture of the head of the user 1 estimated by the optical motion capture method, and X ′′, Y ′′, and Z ′′ are rotations. It is a coordinate system showing the posture of the waist of the user 1 estimated from the data detected by the angle detection unit 8.
  • the walking motion estimation unit 4 includes an offset value of the origin of the X′Y′Z ′ coordinate system with respect to the XYZ coordinate system, and
  • the image generation unit 5 determines the X′Y′Z ′ coordinate system relative to the XYZ coordinate system, the offset value and the rotation angle of the origin of X ′′, Y ′′, and Z ′′, and these offset value and rotation.
  • the video to be displayed is corrected based on the angle.
  • LT indicates the estimated position of the upper left thigh of the user 1.
  • LB indicates the estimated position of the lower left thigh, RT indicates the estimated position of the upper right thigh, and RB indicates the estimated position of the lower right thigh.
  • the walking motion estimation unit 4 estimates the amount of movement of the user 1 based on these positions, generates an image corresponding to the amount of movement under an appropriate coordinate system, and the image presenting unit 6 displays the image. Is presented to the user 1.
  • the user 1 can obtain a more realistic walking sensation by presenting the user 1 with an image corresponding to the estimated walking motion of the user 1.
  • the present invention is a device capable of experiencing images and walking sensations according to the user's walking motion, such as games, digital house exhibitions, digital fashion, exercise, rehabilitation, appreciation of digital cultural properties, online shopping, communication, robot movement It can be used for control and the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Rehabilitation Therapy (AREA)
  • Rehabilitation Tools (AREA)

Abstract

大腿部支持部(2)は、使用者(1)の大腿部を進行方向に支持する。力検出部(3)は、使用者(1)の大腿部から大腿部支持部(2)が受ける力を検出する。歩行動作推定部(4)は、力検出部(3)で検出された力に基づいて、使用者(1)の歩行動作を推定する。映像生成部(5)は、歩行動作推定部(4)によって推定された歩行動作に基づいて、使用者(1)に呈示する映像を生成する。映像呈示部(6)は、映像生成部(5)で生成した映像を使用者(1)に呈示する。

Description

歩行感覚呈示装置及び呈示方法
 本発明は、定位置で歩行感覚を呈示可能な歩行感覚呈示装置及び呈示方法に関する。
 定位置で歩行感覚が得られる装置として、使用者の足の動きに合わせて逆方向に地面を動かすトレッドミル型の装置(特許文献1、2参照)や、トレッドミルを回転させることで、任意の正面方向に歩行感覚を得られる装置(特許文献3、4参照)がある。更には、正面だけでなく、横や斜め方向等の全方向に移動を打ち消すことで横歩きなども可能なトレッドミル(特許文献5、6参照)もある。
 別の構成として、左右の足の下に可動床を設け、床が足を追従することによって、任意の地面を模擬するフットパッド型の装置(特許文献7、8、9参照)がある。
 別の構成として、大腿部を交互に昇降移動させることで、歩行感覚を生成する装置(特許文献10参照)がある。
 また、簡易的な方法として、足踏み動作を模擬的に歩行動作に変換する方法(特許文献11参照)がある。
特許3550087号公報 特開2001-061992号公報 特許3200592号公報 特許4269646号公報 特表2000-516829号公報 特許3464976号公報 特開2008-220580号公報 特許3373460号公報 特許4313633号公報 特開2006-239086号公報 特開2001-296951号公報
 これらの従来技術には、歩行感覚を呈示するためには大掛かりな装置が必要となる、簡便な装置では十分な歩行感覚を呈示することができない等の課題が残されている。
 本発明は、従来技術の課題を解決し、コンパクトな装置構成で歩行感覚に優れた歩行感覚呈示装置及び呈示方法を提供することを目的としている。
 係る目的を達成するため、本発明の歩行感覚呈示装置は、
 使用者の大腿部を前記使用者が進行する方向に支持する大腿部支持部と、
 前記使用者の大腿部から前記大腿部支持部が受ける力を検出する第1のセンサと、
 前記第1のセンサで検出された力に基づいて、前記使用者の歩行動作を推定する歩行動作推定部と、
 前記歩行動作推定部によって推定された歩行動作に基づいて、前記使用者に呈示する映像を生成する映像生成部と、
 前記映像生成部で生成した映像を前記使用者に呈示する映像呈示部と、
 を備えることを特徴とする。
 本発明の歩行感覚呈示装置はさらに、前記大腿部支持部を回転可能に支持する回転機構と、
 前記回転機構による前記大腿部支持部の回転角度を検出する第2のセンサと、
 を更に備える、
 こととしても良い。
 本発明の歩行感覚呈示装置はさらに、前記使用者の姿勢を検出する第3のセンサを更に備える、
 こととしても良い。
 係る目的を達成するため、本発明の歩行感覚呈示方法は、
 大腿部支持部で使用者の大腿部を前記使用者が進行する方向に支持し、前記使用者の大腿部から前記大腿部支持部が受ける力を第1のセンサで検出する第1の検出ステップと、
 計算機が、前記第1のセンサで検出された力に基づいて、前記使用者の歩行動作を推定する推定ステップと、
 計算機が、推定された歩行動作に基づいて、前記使用者に呈示する映像を生成する映像生成ステップと、
 生成した映像を使用者に呈示する映像呈示ステップと、
 を含む。
 本発明の歩行感覚呈示方法はさらに、前記大腿部支持部を回転可能として、その回転角度を第2のセンサで検出する第2の検出ステップを含み、
 前記映像生成ステップでは、
 前記第2の検出ステップで検出された前記使用者の進行方向の回転角度に基づいて、前記使用者に呈示する映像を生成する、
 こととしても良い。
 本発明の歩行感覚呈示方法はさらに、前記使用者の姿勢を検出する第3のセンサで検出する第3の検出ステップを含み、
 前記映像生成ステップでは、
 前記第3の検出ステップで検出された前記使用者の姿勢の変化に応じて、前記使用者に呈示する映像を生成する、
 こととしても良い。
 本発明に係る歩行感覚呈示装置によれば、使用者の大腿部を進行方向に支持することで進行方向への重心変化を生じさせ、使用者の歩行動作に応じた映像を呈示することで歩行感覚を呈示する。これにより、足の動きに合わせて床を動かす大掛かりな装置や大腿部を昇降させる駆動部を必要とすることなく、コンパクトで軽量な装置を安価に実現することが出来る。
 さらに、本発明に係る歩行感覚呈示装置によれば、使用者の進行方向や姿勢の変化を検出し、検出結果に応じて使用者に呈示する映像を変化させることで、より優れた歩行感覚を呈示することができる。
本発明の第1の実施形態に係る歩行感覚呈示装置の構成を示すブロック図である。 本発明の第1の実施形態に係る歩行感覚呈示装置の外観の一例を示す斜視図である。 図2Aの歩行感覚呈示装置の一部の内部構造を示す斜視図である。 歩行感覚呈示装置の別の構成を示す斜視図である。 図1の歩行感覚呈示装置として、据え置き型映像呈示装置を使用者が用いた場合を示す斜視図である。 図1の歩行感覚呈示装置として、頭部装着型映像呈示装置を使用者が用いた場合を示す斜視図である。 使用者の歩行姿勢、特に前に歩いたときの右足の姿勢を推定する場合を示す斜視図である。 使用者の歩行姿勢、特に横に歩いたときの左足の姿勢を推定する場合を示す斜視図である。 本発明の第1の実施形態に係る歩行感覚呈示装置の動作手順を示すフローチャートである。 本発明の第2の実施形態に係る歩行感覚呈示装置の構成を示すブロック図である。 本発明の第2の実施形態に係る歩行感覚呈示装置の外観を示す斜視図である。 本発明の第2の実施形態に係る歩行感覚呈示装置の別の構成を示す斜視図である。 図6の歩行感覚呈示装置として、据え置き型映像呈示装置を使用者が用いた場合を示す斜視図である。 図6の歩行感覚呈示装置として、頭部装着型映像呈示装置を使用者が用いた場合を示す斜視図である。 本発明の第2の実施形態に係る歩行感覚呈示装置の動作手順を示すフローチャートである。 本発明の第3の実施形態に係る歩行感覚呈示装置の構成を示すブロック図である。 図10の歩行感覚呈示装置として、据え置き型映像呈示装置を使用者が用いた場合を示す斜視図である。 図10の歩行感覚呈示装置として、頭部装着型映像呈示装置を使用者が用いた場合を示す斜視図である。 本発明の第3の実施形態に係る歩行感覚呈示装置の動作手順を示すフローチャートである。 本発明の第4の実施形態に係る歩行感覚呈示装置の構成を示すブロック図である。 図13の歩行感覚呈示装置として、頭部装着型映像呈示装置を使用者が用いた場合を示す斜視図である。 図14Aの歩行感覚呈示装置において使用者が別の方向を向いた場合を示す斜視図である。 本発明の第4の実施形態に係る歩行感覚呈示装置の動作手順を示すフローチャートである。 本発明の第1の実施形態に係る歩行感覚呈示装置の力検出部によって検出された使用者の大腿部から受ける力データのグラフである。 本発明の第2の実施形態に係る歩行感覚呈示装置の回転角度検出部によって検出された大腿部支持部の回転角度のデータのグラフである。 本発明の第3および第4の実施形態に係る歩行感覚呈示装置の姿勢検出部によって検出される使用者の姿勢を規定する座標系を示す図である。 本発明の歩行感覚呈示装置の力検出部、回転角度検出部及び姿勢検出部によって検出される使用者の姿勢を規定する座標系を示す図である。
 以下、図面を参照して、本発明の実施の形態を説明する。図面の記載において同一あるいは類似の部分には同一あるいは類似の符号を付している。
(第1の実施形態)
 図1に示すように、本発明の第1の実施形態に係る歩行感覚呈示装置は、大腿部支持部2と、第1のセンサとしての力検出部3と、歩行動作推定部4と、映像生成部5と、映像呈示部6と、を備える。大腿部支持部2は、使用者1の大腿部を使用者1が進行する方向に支持する。力検出部3は、使用者1の大腿部から大腿部支持部2が受ける力を検出する。歩行動作推定部4は、力検出部3で検出された力に基づいて、使用者1の歩行動作を推定する。映像生成部5は、歩行動作推定部4によって推定された歩行動作に基づいて、使用者1に呈示する映像を生成する。映像呈示部6は、映像生成部5で生成した映像を使用者1に呈示する。ここで、「映像を呈示する」とは、使用者1に見えるように映像を表示することをいう。
 なお、大腿部支持部2及び力検出部3は、使用者1とのマンマシンインターフェイスである歩行装置10としてまとめられる。また、歩行動作推定部4及び映像生成部5は、計算機20上で実現される。計算機20は、CPU、メモリ及び記憶部を備えるコンピュータである。CPUがメモリに格納されたプログラムを実行することにより、歩行動作推定部4及び映像生成部5の機能が実現される。
 図2A~図2Cは、歩行装置10の実際の構成を示す斜視図である。図2Aには、歩行装置10の外観が示されている。この歩行装置10は、使用者1が正面方向に歩行する場合にその歩行動作を検出する。また、図2Bには、図2Aの歩行装置10の一部の内部構造が示されている。また、図2Cは、全方向に歩行する歩行装置10の外観が示されている。図2Aに示すように、大腿部支持部2は、土台2aと支柱2bとを備える。使用者1の進行方向に大腿部を支えるため、力検出部3は、土台2aと支柱2bによって固定される。図2Bに示すように、力検出部3は、大腿部接触部3a及び力センサ3bを備える。大腿部接触部3aは、使用者1の大腿部が装置と接触する部分である。力センサ3bは、大腿部接触部3aに設けられており、使用者1の大腿部から受ける力を検出する。
 また、図2Bに示すように、使用者1が進行方向に前傾姿勢となり歩行動作を行ったときの大腿部の姿勢を推定するため、力検出部3には、少なくとも大腿部上部が接触する部分と、使用者1が大腿部を上げたときに大腿部下部が接触する部分とに力センサ3bが配置される。
 また、大腿部支持部2が使用者1の進行方向に対して垂直のままだと使用者1が大腿部を上げない状態でも大腿部下部の力センサ3bが反応してしまうため、大腿部支持部2は使用者1の進行方向に対して大腿部下部の力センサ3bが反応しないよう角度をつけることが望ましい。このときの角度は、使用者1が実際に歩行するときに大腿部が上がる角度(10~60°程度)に調整できることが望ましい。また、使用者1が大腿部を上げたときに力検出部3から受ける反力が違和感となり得るため、大腿部接触部3aにはスポンジ等の緩衝材を用いることが望ましい。全方向に歩行する場合は、図2Cに示すように、使用者1の大腿部を囲むように力検出部3を配置する。なお、力検出部3は、大腿部支持部2に固定しても使用者1に装着してもよい。
 図3A及び図3Bは、図1の歩行感覚呈示装置を使用者1が実際に使用している状態を示す図である。図3Aは、映像呈示部6として、図2Cに示す据え置き型映像呈示装置6aを使用している場合である。図3Bは、映像呈示部6として、頭部装着型映像呈示装置6bを使用している場合である。
 使用者1は、大腿部を進行方向に支持するための土台2aに乗る。そして、使用者1は、大腿部支持部2に対して進みたい方向に傾斜姿勢を取りながら歩行動作を行う。この歩行動作により、使用者1に進行方向への重心変化が生じる。大腿部支持部2によって進行方向に大腿部が支えられているので、力検出部3によって使用者1の大腿部から受ける力が検出される。歩行動作推定部4は、力検出部3によって検出された力に基づいて、使用者1の歩行動作を推定する。映像生成部5は、推定した歩行動作に応じた映像を生成し、映像呈示部6に表示することで、使用者1に歩行感覚が呈示される。図3Aの場合には、据え置き型映像呈示装置6aのスクリーンに映像が呈示され、図3Bの場合には、頭部装着型映像呈示装置6bに映像が呈示される。
 図4A及び図4Bは、図1の歩行感覚呈示装置を使用者1が実際に使用している状態において、歩行動作推定部4で使用者1の歩行姿勢を推定する様子を示す。図4Aに示すように、使用者1が正面方向に歩行動作を行うと、力検出部3の力センサ3bにより、大腿部から受ける力が検出されると、歩行動作推定部4は、実際には前に出ることのない右足の大腿部の姿勢、すなわち推定される歩行姿勢1aを推定する。また、図4Bに示すように、使用者1が横方向に歩行動作を行うと、歩行動作推定部4は、実際には左に出ることのない左足の大腿部の姿勢、すなわち推定される歩行姿勢1aを推定する。
 図5を参照して、図1の歩行感覚呈示装置の動作手順を説明する。
 (A)力検出部3は、大腿部支持部2が使用者1の大腿部から受ける力を検出し、計算機20に送信する(ステップSP1;第1の検出ステップ)。
 (B)計算機20の歩行動作推定部4は、受信した力検出部3の検出値に基づいて、使用者1の傾斜姿勢及び大腿部の姿勢を推定し(ステップSP2;推定ステップ)、推定された歩行姿勢1aに基づいて、使用者1の移動量を算出する(ステップSP3)。
 (C)計算機20の映像生成部5は、推定した使用者1の進行方向への移動量に基づいて映像呈示部6に表示する映像を生成し、生成した映像を映像呈示部6に表示させる(ステップSP4;映像生成ステップ、映像呈示ステップ)。
 (D)最後に、歩行感覚呈示装置は、所定の終了の指示があるか否かを判定して(ステップSP5)、当該終了指示がある場合(ステップSP5;Yes)、歩行感覚呈示装置は、動作を終了し、当該終了指示がない場合(ステップSP5;No)、歩行感覚呈示装置は、ステップSP1に戻る。
 以上説明したように、使用者1が図1の歩行感覚呈示装置上で歩行動作を行う際、大腿部支持部2によって大腿部が支えられることで、進行方向に歩行動作を行うと使用者1に重心変化が生じる。このとき、力検出部3が備える力センサ3bの検出値に基づいて歩行動作推定部4が使用者1の歩行動作を推定し、映像生成部5が歩行動作に応じた映像を生成し、映像呈示部6が生成された映像を表示する。この映像を見た使用者1は、実際は歩行していないながらも、歩行感覚を味わうことができる。
 第1の実施の形態によれば、図2Cに示すように、力検出部3を、使用者1の進行方向に配置し、使用者1の大腿部を支持させる。使用者1は進行方向に対して傾斜姿勢を取りながら歩行動作を行うことにより、手軽に全方向に歩行感覚を得ることが出来る。
 また、第1の実施の形態に係る歩行感覚呈示装置によれば、歩行動作は、使用者1自身の力のみで行われ、使用者1の身体に対して外力を加えることがない。このため、歩行感覚呈示装置の安全な使用が可能となる。
 第1の実施の形態に係る歩行感覚呈示装置は、使用者1が歩行障害を抱えている場合、使用者1に対する歩行運動の機能回復を目的としたリハビリテーションや、足腰の弱った老人や健常者の運動能力の向上等に使用することが出来る。
(第2の実施形態)
 次に、本発明の第2の実施の形態について説明する。図6に示すように、第2の実施の形態に係る歩行感覚呈示装置は、第1の実施の形態に係る歩行感覚呈示装置の構成に加え、歩行装置10の構成要素として、回転機構7と、第2のセンサとしての回転角度検出部8と、を備える。回転機構7は、大腿部支持部2を任意の水平方向に回転可能に支持する。また、回転角度検出部8は、回転機構7による大腿部支持部2の回転角度を検出する。回転機構7及び回転角度検出部8を備えることにより、使用者1が水平面内の任意の方向に方向転換可能となる。
 図7は、図6の歩行感覚呈示装置の点線で囲んだ部分の実際の構成を示す斜視図である。図7Aには、任意の正面方向に歩行するだけの場合の歩行感覚呈示装置の外観が示されている。図7Bには、任意の正面方向において全方向に歩行する場合の歩行感覚呈示装置の外観が示されている。図7A及び図7Bに示すように、回転機構7及び回転角度検出部8は、大腿部支持部2に設けられている。回転機構7及び回転角度検出部8は、土台2a側に取りつけられても、支柱2b側に取りつけられても良い。回転角度検出部8としては、回転角度センサ、光学式カメラ、慣性センサ等を用いることができる。その他の点については上記第1の実施形態(図2参照)と同じであり、説明を省略する。
 図8は、図7の歩行感覚呈示装置を使用者1が実際に使用している状態を示す図である。図8Aでは、映像呈示部6として据え置き型映像呈示装置6aが使用され、図8Bは映像呈示部6として頭部装着型映像呈示装置6bが使用される。図8A及び図8Bに示すように、回転機構7によって、使用者1は大腿部支持部2を任意の方向に回転させることが出来る。回転角度検出部8は、大腿部支持部2の回転角度を検出し、更に、力検出部3が使用者1の大腿部から受ける力を検出し、歩行動作推定部4が、使用者1の正面方向及び歩行動作を推定し、映像生成部5が、推定された歩行動作に応じた映像を生成し、映像呈示部6に表示する。この映像を見た使用者1は、実際は歩行していないながらも、歩行感覚を味わうことができる。
 図9を参照して、図6の歩行感覚呈示装置の動作手順を説明する。
(A)回転角度検出部8は、大腿部支持部2の回転角度を検出し、計算機20に送信する(ステップSP6;第2の検出ステップ)。
(B)力検出部3は、大腿部支持部2が使用者の大腿部から受ける力を検出し、計算機20に送信する(ステップSP1)。(A)、(B)は同時に行われる。
(C)計算機20の歩行動作推定部4は、受信した大腿部支持部2の回転角度に基づいて、使用者1の正面方向を算出し、受信した力検出部3の検出値に基づいて使用者1の傾斜姿勢及び大腿部の姿勢を推定する(ステップSP2)。さらに、計算機20の歩行動作推定部4は、推定された歩行姿勢1aに基づいて使用者1の移動量を推定する(ステップSP3)。
(D)計算機20は、推定した使用者の進行方向への移動量に基づいて映像呈示部6に表示する映像を生成し、生成した映像を映像呈示部6に表示させる(ステップSP4)。
(E)歩行感覚呈示装置は、所定の終了の指示があるか否かを判定して(ステップSP5)、当該終了指示がある場合(ステップSP5;Yes)、歩行感覚呈示装置は、動作を終了し、当該終了指示がない場合(ステップSP5;No)、歩行感覚呈示装置は、ステップSP1及びSP6に戻る。
 以上説明したように、使用者1が歩行感覚呈示装置上で歩行動作を行う際、大腿部支持部2によって大腿部が支えられることで、進行方向に歩行動作を行うと使用者1に重心変化が生じる。また、使用者1は回転機構7によって自由に正面方向を変えることができる。このとき、回転角度検出部8及び力検出部3(力センサ3b)の検出値に基づいて、歩行動作推定部4が、使用者1の歩行動作を推定し、映像生成部5が、歩行動作に応じた映像を生成し、映像呈示部6に表示する。このようにすることで、使用者1に対して、任意の正面方向への歩行感覚を与えることができるようになる。
(第3の実施形態)
 次に、本発明の第3の実施の形態について説明する。図10に示すように、第3の実施の形態に係る歩行感覚呈示装置は、使用者1の姿勢を検出する第3のセンサとしての姿勢検出部9を更に備える点が、上記第1の実施形態と異なる。姿勢検出部9を備えることにより、使用者1が任意の方向へのよりリアルな歩行感覚を得ることが出来る。
 図11は、図10の歩行感覚呈示装置を使用者1が実際に使用している状態を示す図である。図11Aでは、映像呈示部6として、据え置き型映像呈示装置6aが使用される。図11Bでは、映像呈示部6として、頭部装着型映像呈示装置6bが使用される。力検出部3は、大腿部支持部2に設けられている。姿勢検出部9としては、図示しない光学式カメラ、慣性センサ、角度センサ等を用いることができる。姿勢検出部9によって検出された姿勢情報は、歩行動作推定部4の歩行姿勢、移動量の推定に用いられ、使用者1の姿勢の変化が、映像呈示部6で呈示される映像に反映される。使用者1は、その映像を見ながら動作を行うことにより、任意の方向を見ながら歩行感覚を得ることが出来る。本実施形態では、使用者1が大腿部支持部2に接触すると、推定した歩行動作に応じた歩行感覚が使用者1に与えられ、大腿部支持部2に接触しないときは実際の歩行感覚を得ることが出来る。また、大腿部支持部2に接触しないときにも、座る動作やジャンプ等の動作に応じて映像を変化させて、実際に座る感覚やジャンプする感覚を得ることが可能になる。
 図12を参照して、本実施形態に係る歩行感覚呈示装置の動作手順を説明する。
(A)姿勢検出部9は、使用者1の姿勢を検出し、計算機20に送信する(ステップSP10;第3の検出ステップ)。
(B)力検出部3は、大腿部支持部2が使用者1の大腿部から受ける力を検出し、計算機20に送信する(ステップSP1)。(A)、(B)は同時に行われる。
(C)計算機20の歩行動作推定部4は、受信した使用者1の傾斜姿勢及び大腿部から受ける力に基づいて、使用者1の歩行姿勢を推定する(ステップSP2)。さらに、計算機20の歩行動作推定部4は、推定した歩行姿勢に基づいて使用者1の移動量を推定する(ステップSP3)。
(D)計算機20の映像生成部5は、推定した使用者1の進行方向への移動量に基づいて映像呈示部6に表示する映像を生成し、生成された映像を映像呈示部6に表示させる(ステップSP4)。
(E)歩行感覚呈示装置は、所定の終了の指示があるか否かを判定し(ステップSP5)、当該終了指示がある場合(ステップSP5;Yes)、歩行感覚呈示装置は、動作を終了し、当該終了指示がない場合(ステップSP5;No)、歩行感覚呈示装置は、ステップSP1、SP10に戻る。
 以上説明したように、使用者1が歩行感覚呈示装置上で歩行動作を行うと、使用者1の大腿部から受ける力と、使用者1の姿勢とに基づいて、歩行動作に応じた映像が使用者1に呈示される。これにより、接触した方向に傾斜姿勢を取りながら歩行動作を行うようにすれば、歩行動作に応じた歩行感覚を得ることが出来る。また、使用者1の大腿部が大腿部支持部2に接触しないときでも、使用者1が、座る動作やジャンプするなどの動作に応じてその動作に応じた映像を呈示することにより、リアルな動作感覚を得ることができる。
(第4の実施形態)
 次に、本発明の第4の実施の形態について説明する。第4の実施の形態に係る歩行感覚呈示装置は、図13に示すように、使用者1の姿勢を検出する姿勢検出部9を備える点が、第2の実施の形態と異なる。これにより、使用者1が任意の方向によりリアルな歩行感覚を得ることが出来る。
 図14は、図13の歩行感覚呈示装置を使用者1が実際に使用している状態を示す図である。図14Aでは、映像呈示部6として頭部装着型映像呈示装置6bが使用される。また、図14Bでは、使用者1が図14Aとは別の方向を向いた状態が示されている。姿勢検出部9によって、使用者1が任意の方向に歩行感覚を得ることが出来る。
 図15を参照して、歩行感覚呈示装置の動作手順を説明する。
(A)回転角度検出部8は、大腿部支持部2の回転角度を検出し、計算機20に送信する(ステップSP6)。
(B)力検出部3は、大腿部支持部2が使用者1の大腿部から受ける力を検出し、計算機20に送信する(ステップSP1)。
(C)姿勢検出部9は、使用者の姿勢を検出し、計算機20に送信する(ステップSP10;第3の検出ステップ)。(A)、(B)、(C)は同時に行われる。
(D)計算機20の歩行動作推定部4は、大腿部支持部2の回転角度、使用者1の姿勢及び大腿部から受ける力に基づいて、使用者1の歩行姿勢を推定し、推定した歩行姿勢に基づいて使用者1の移動量を推定する(ステップSP3)。
(E)計算機20の歩行動作推定部4は、推定した使用者1の移動量に基づいて映像呈示部6に表示する映像を生成し、生成された映像を映像呈示部6に表示させる(ステップSP4)。
(F)歩行感覚呈示装置は、所定の終了の指示があるか否かを判定し(ステップSP5)、当該終了指示がある場合(ステップSP5;Yes)、歩行感覚呈示装置は、動作を終了し、当該終了指示がない場合(ステップSP5;No)、歩行感覚呈示装置は、ステップSP1、SP6、SP10に戻る。
 以上説明したように、本実施形態によれば、力検出部3、回転角度検出部8及び姿勢検出部9によって推定した歩行動作に応じた映像が使用者1に呈示される。このようにすれば、使用者1が進行方向に傾斜姿勢を取りながら歩行動作を行えばその歩行動作に合わせた映像が使用者1に呈示されるため、歩行動作に応じた歩行感覚を得ることが出来る。
 本発明の実現可能性を示すため、試作システムでの具体的な実験データ(例えば力検出部3での検出データ、回転角度検出部8での検出データ、姿勢検出部9での検出データ等)を示す。
 図16は、本発明の第1の実施形態に係る歩行感覚呈示装置の力検出部3によって検出された使用者1の大腿部から受ける力の検出データの変動の一例を示す。このグラフでは、縦軸が使用者1の大腿部から受ける力を表し、横軸が時間を表す。図16において、LTは使用者1の左大腿部上部から受ける力を示し、LBは左大腿部下部、RTは右大腿部上部、RBは右大腿部下部から受ける力を示す。これにより、使用者1の大腿部の姿勢を推定することが出来る。
 図17は、本発明の第2の実施形態に係る歩行感覚呈示装置における回転角度検出部8によって検出された大腿部支持部2の回転角度のデータの一例を示す。図17において、縦軸は回転角度を示し、横軸は、時間を示している。この回転角度により、使用者1の腰部の向きを推定することが出来る。
 図18は、第3および第4の実施形態に係る歩行感覚呈示装置の姿勢検出部9によって検出された使用者1の姿勢を規定する座標系を示す。図18のX、Y、Zは、歩行装置10を基準とする絶対座標系であり、X’、Y’、Z’は、光学式モーションキャプチャ方式で推定した使用者1の頭部の姿勢の座標系である。映像生成部5は、姿勢検出部9で検出された使用者の姿勢に基づいて、XYZ座標系に対するX’Y’Z’座標系の原点のオフセット値及び回転角度を割り出し、表示する映像を補正する。
 図19は、上記実施形態に係る歩行感覚呈示装置の力検出部3、回転角度検出部8及び姿勢検出部9によって検出したデータから使用者1の歩行動作を推定するための座標系が示されている。図19のX’、Y’、Z’の座標系は、光学式モーションキャプチャ方式で推定した使用者1の頭部の姿勢を示す座標系であり、X”、Y”、Z”は、回転角度検出部8で検出したデータから推定した使用者1の腰部の姿勢を示す座標系である。歩行動作推定部4は、XYZ座標系に対するX’Y’Z’座標系の原点のオフセット値及び回転角度を推定する。映像生成部5は、XYZ座標系に対するX’Y’Z’座標系、X”、Y”、Z”の原点のオフセット値及び回転角度を割り出し、これらのオフセット値及び回転角度に基づいて、表示する映像を補正する。
 図19において、LTは推定した使用者1の左大腿部上部の位置を示す。また、LBは、推定した左大腿部下部の位置、RTは推定した右大腿部上部の位置、RBは推定した右大腿部下部の位置を示す。歩行動作推定部4は、これらの位置に基づいて、使用者1の移動量を推定し、適切な座標系の下で、その移動量に対応する映像を生成し、映像呈示部6がその映像を使用者1に呈示する。このようにして、推定した使用者1の歩行動作に応じた映像を使用者1に呈示することで、使用者1はよりリアルな歩行感覚を得ることが出来る。
 この発明は、この発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、この発明の範囲を限定するものではない。すなわち、この発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。
 なお、本願については、2017年3月2日に出願された日本国特許出願2017-038857号を基礎とする優先権を主張し、本明細書中に日本国特許出願2017-038857号の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。
 本発明は、使用者の歩行動作に応じた映像及び歩行感覚を体験可能な装置として、ゲーム、デジタル住宅展示、デジタルファッション、エクササイズ、リハビリテーション、デジタル文化財の鑑賞、オンラインショッピング、コミュニケーション、ロボットの移動制御等に利用することができる。
1 使用者
1a 推定された歩行姿勢
2 大腿部支持部
2a 土台
2b 支柱
3 力検出部
3a 大腿部接触部
3b 力センサ
4 歩行動作推定部
5 映像生成部
6 映像呈示部
6a 据え置き型映像呈示装置
6b 頭部装着型映像呈示装置
7 回転機構
8 回転角度検出部
9 姿勢検出部
10 歩行装置
20 計算機

Claims (8)

  1.  使用者の大腿部を前記使用者が進行する方向に支持する大腿部支持部と、
     前記使用者の大腿部から前記大腿部支持部が受ける力を検出する第1のセンサと、
     前記第1のセンサで検出された力に基づいて、前記使用者の歩行動作を推定する歩行動作推定部と、
     前記歩行動作推定部によって推定された歩行動作に基づいて、前記使用者に呈示する映像を生成する映像生成部と、
     前記映像生成部で生成した映像を前記使用者に呈示する映像呈示部と、
     を備えることを特徴とする歩行感覚呈示装置。
  2.  前記大腿部支持部を回転可能に支持する回転機構と、
     前記回転機構による前記大腿部支持部の回転角度を検出する第2のセンサと、
     を更に備える、
     ことを特徴とする請求項1に記載の歩行感覚呈示装置。
  3.  前記使用者の姿勢を検出する第3のセンサを更に備える、
     ことを特徴とする請求項1に記載の歩行感覚呈示装置。
  4.  前記使用者の姿勢を検出する第3のセンサを更に備える、
     ことを特徴とする請求項2に記載の歩行感覚呈示装置。
  5.  大腿部支持部で使用者の大腿部を前記使用者が進行する方向に支持し、前記使用者の大腿部から前記大腿部支持部が受ける力を第1のセンサで検出する第1の検出ステップと、
     計算機が、前記第1のセンサで検出された力に基づいて、前記使用者の歩行動作を推定する推定ステップと、
     計算機が、推定された歩行動作に基づいて、前記使用者に呈示する映像を生成する映像生成ステップと、
     生成した映像を使用者に呈示する映像呈示ステップと、
     を含む歩行感覚呈示方法。
  6.  前記大腿部支持部を回転可能として、その回転角度を第2のセンサで検出する第2の検出ステップを含み、
     前記映像生成ステップでは、
     前記第2の検出ステップで検出された前記使用者の進行方向の回転角度に基づいて、前記使用者に呈示する映像を生成する、
     ことを特徴とする請求項5に記載の歩行感覚呈示方法。
  7.  前記使用者の姿勢を検出する第3のセンサで検出する第3の検出ステップを含み、
     前記映像生成ステップでは、
     前記第3の検出ステップで検出された前記使用者の姿勢の変化に応じて、前記使用者に呈示する映像を生成する、
     ことを特徴とする請求項5に記載の歩行感覚呈示方法。
  8.  前記使用者の姿勢を検出する第3のセンサで検出する第3の検出ステップを含み、
     前記映像生成ステップでは、
     前記第3の検出ステップで検出された前記使用者の姿勢の変化に応じて、前記使用者に呈示する映像を生成する、
     請求項6に記載の歩行感覚呈示方法。
PCT/JP2018/007279 2017-03-02 2018-02-27 歩行感覚呈示装置及び呈示方法 WO2018159614A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/489,272 US11801010B2 (en) 2017-03-02 2018-02-27 Walking sense presentation device and presentation method
CN201880015009.6A CN110392872B (zh) 2017-03-02 2018-02-27 步行感觉呈现装置以及呈现方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-038857 2017-03-02
JP2017038857A JP6795190B2 (ja) 2017-03-02 2017-03-02 歩行感覚呈示装置及び呈示方法

Publications (1)

Publication Number Publication Date
WO2018159614A1 true WO2018159614A1 (ja) 2018-09-07

Family

ID=63370030

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/007279 WO2018159614A1 (ja) 2017-03-02 2018-02-27 歩行感覚呈示装置及び呈示方法

Country Status (4)

Country Link
US (1) US11801010B2 (ja)
JP (1) JP6795190B2 (ja)
CN (1) CN110392872B (ja)
WO (1) WO2018159614A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11801010B2 (en) 2017-03-02 2023-10-31 Wataru Wakita Walking sense presentation device and presentation method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7081540B2 (ja) * 2019-03-15 2022-06-07 トヨタ自動車株式会社 バランス訓練装置、制御方法およびプログラム
JP7037158B1 (ja) 2021-12-20 2022-03-16 有限会社池谷製作所 仮想空間における移動を操作する家具型機器

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000516829A (ja) 1996-08-27 2000-12-19 イー イー カーメイン,デイヴィッド 全方向性トレッドミル
JP3200592B2 (ja) 1999-01-14 2001-08-20 株式会社エイ・ティ・アール知能映像通信研究所 歩行感覚生成装置
JP2001061992A (ja) 1999-08-30 2001-03-13 Atr Media Integration & Communications Res Lab 凹凸歩行面生成装置
JP3373460B2 (ja) 1999-09-24 2003-02-04 洋夫 岩田 仮想歩行装置
JP2001296951A (ja) 2000-04-13 2001-10-26 Kinya Fujita 足踏み動作を擬似的に歩行動作に変換する方法、及び該方法を用いた擬似歩行体感装置。
JP3464976B2 (ja) 2000-11-27 2003-11-10 川崎重工業株式会社 歩行感覚提示装置
JP4184679B2 (ja) * 2001-08-01 2008-11-19 本田技研工業株式会社 二足歩行移動体の床反力推定方法及び二足歩行移動体の関節モーメント推定方法
JP4269646B2 (ja) 2002-10-30 2009-05-27 パナソニック電工株式会社 歩行装置及び歩行装置を用いた疑似体験装置
JP4313633B2 (ja) 2003-09-09 2009-08-12 洋夫 岩田 全方向歩行感覚呈示装置
JP2006239086A (ja) 2005-03-02 2006-09-14 Matsushita Electric Works Ltd 歩行感覚生成装置
JP4825456B2 (ja) * 2005-06-14 2011-11-30 タマティーエルオー株式会社 筋活動推定システム
JP3950149B2 (ja) * 2005-09-02 2007-07-25 本田技研工業株式会社 運動補助装置
JP2008220580A (ja) 2007-03-12 2008-09-25 Univ Of Tsukuba 没入歩行感覚呈示装置
JP2009125506A (ja) * 2007-11-27 2009-06-11 Panasonic Electric Works Co Ltd 歩容改善支援システム
KR20100094998A (ko) * 2007-12-27 2010-08-27 고쿠리쯔 다이가쿠 호징 츠쿠바 다이가쿠 중심위치 검출장치 및 중심위치 검출장치를 구비한 장착식 동작보조장치
JP5189911B2 (ja) * 2008-07-11 2013-04-24 国立大学法人 筑波大学 装着式動作補助装置、基準パラメータデータベース構築装置、装着式動作補助装置における駆動制御方法、基準パラメータデータベース構築方法、及びそのプログラム
JP5161036B2 (ja) 2008-11-06 2013-03-13 本田技研工業株式会社 歩行補助装置
CN102670217A (zh) * 2012-05-04 2012-09-19 嘉兴市制衡精仪有限公司 下肢关节作用力和力矩的穿戴式传感器测量装置及方法
JP2014195510A (ja) 2013-03-29 2014-10-16 株式会社エクォス・リサーチ 歩行補助装置
JP2014195506A (ja) 2013-03-29 2014-10-16 株式会社エクォス・リサーチ 歩行補助装置
JP6358889B2 (ja) 2013-09-26 2018-07-18 株式会社メガチップス 歩行者観測システム、プログラムおよび進行方向推定方法
JP6672609B2 (ja) 2015-03-10 2020-03-25 株式会社ジェイテクト 揺動関節装置
JP6795190B2 (ja) 2017-03-02 2020-12-02 公立大学法人広島市立大学 歩行感覚呈示装置及び呈示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"2016 -DCC", USB, 14 September 2016 (2016-09-14) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11801010B2 (en) 2017-03-02 2023-10-31 Wataru Wakita Walking sense presentation device and presentation method

Also Published As

Publication number Publication date
US20200060610A1 (en) 2020-02-27
JP6795190B2 (ja) 2020-12-02
JP2018143315A (ja) 2018-09-20
CN110392872A (zh) 2019-10-29
US11801010B2 (en) 2023-10-31
CN110392872B (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
Tang et al. Physio@ Home: Exploring visual guidance and feedback techniques for physiotherapy exercises
Zielasko et al. Evaluation of hands-free HMD-based navigation techniques for immersive data analysis
US7542040B2 (en) Simulated locomotion method and apparatus
Pai et al. Armswing: Using arm swings for accessible and immersive navigation in ar/vr spaces
US20170352188A1 (en) Support Based 3D Navigation
WO2018159614A1 (ja) 歩行感覚呈示装置及び呈示方法
Guy et al. LazyNav: 3D ground navigation with non-critical body parts
JP3862348B2 (ja) モーションキャプチャシステム
Sadihov et al. Prototype of a VR upper-limb rehabilitation system enhanced with motion-based tactile feedback
WO2010060211A1 (en) Method and apparatus for controling a camera view into a three dimensional computer-generated virtual environment
US20210048880A1 (en) Virtual Reality Apparatus
Webel et al. Immersive experience of current and ancient reconstructed cultural attractions
Riecke et al. 3D user interfaces for virtual reality and games: 3D selection, manipulation, and spatial navigation
Bruno et al. Hip-directed walking-in-place using a single depth camera
Wang et al. Object impersonation: Towards effective interaction in tablet-and HMD-based hybrid virtual environments
JP3847634B2 (ja) 仮想空間シミュレーション装置
JP2000338858A (ja) 仮想空間体感装置
Hashemian et al. Leaning-based interfaces improve simultaneous locomotion and object interaction in VR compared to the handheld controller
Hashimoto et al. Immersive multi-projector display on hybrid screens with human-scale haptic and locomotion interfaces
US20150374563A1 (en) Body signal control device and related methods
Ang et al. Put down the controller, enable “walking” in a virtual reality (vr) environment: A review
KR20190016264A (ko) 전방향 가상현실 네비게이션을 위한 제자리 걸음을 이용한 인터랙션 장치 및 방법
Lee et al. MIP-VR: an omnidirectional navigation and jumping method for VR shooting game using IMU
Kosmalla et al. InfinityWall–Vertical Locomotion in Virtual Reality using a Rock Climbing Treadmill
Wakita et al. A low-cost omni-directional VR walking platform by thigh supporting and motion estimation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18760792

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18760792

Country of ref document: EP

Kind code of ref document: A1