WO2021215185A1 - リハビリテーション支援装置、その方法およびプログラム - Google Patents

リハビリテーション支援装置、その方法およびプログラム Download PDF

Info

Publication number
WO2021215185A1
WO2021215185A1 PCT/JP2021/012466 JP2021012466W WO2021215185A1 WO 2021215185 A1 WO2021215185 A1 WO 2021215185A1 JP 2021012466 W JP2021012466 W JP 2021012466W WO 2021215185 A1 WO2021215185 A1 WO 2021215185A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
target object
cognitive load
rehabilitation
cognitive
Prior art date
Application number
PCT/JP2021/012466
Other languages
English (en)
French (fr)
Inventor
原 正彦
Original Assignee
株式会社mediVR
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社mediVR filed Critical 株式会社mediVR
Priority to EP21777608.7A priority Critical patent/EP3936106A4/en
Priority to CN202180003143.6A priority patent/CN113853159A/zh
Priority to US17/611,355 priority patent/US20220218266A1/en
Publication of WO2021215185A1 publication Critical patent/WO2021215185A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B22/00Exercising apparatus specially adapted for conditioning the cardio-vascular system, for training agility or co-ordination of movements
    • A63B2022/0092Exercising apparatus specially adapted for conditioning the cardio-vascular system, for training agility or co-ordination of movements for training agility or co-ordination of movements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B22/00Exercising apparatus specially adapted for conditioning the cardio-vascular system, for training agility or co-ordination of movements
    • A63B2022/0094Exercising apparatus specially adapted for conditioning the cardio-vascular system, for training agility or co-ordination of movements for active rehabilitation, e.g. slow motion devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0087Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load
    • A63B2024/0096Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load using performance related parameters for controlling electronic or video games or avatars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to a rehabilitation support device, a method and a program thereof.
  • Patent Document 1 discloses a system that supports rehabilitation.
  • An object of the present invention is to provide a technique for solving the above-mentioned problems.
  • the device for recovering cognitive dysfunction or higher brain dysfunction.
  • a detector that detects the user's three-dimensional rehabilitation operation,
  • a display control unit that generates an avatar object that moves according to the detected rehabilitation operation and a target object that the user makes visible in the three-dimensional virtual space and displays them on the display.
  • a notification unit that notifies the generation position of the target object, and
  • a cognitive load control unit that gives a cognitive load to the user by generating the target object after a lapse of a predetermined time after notifying the generation position of the target object.
  • the cognitive load control unit is a rehabilitation support device capable of changing the predetermined time by an operator's operation in order to control the cognitive load applied to the user.
  • a rehabilitation support device for recovering cognitive dysfunction or higher brain dysfunction A detector that detects the user's three-dimensional rehabilitation operation, A display control unit that generates an avatar object that moves according to the detected rehabilitation operation and a target object that the user makes visible in the three-dimensional virtual space and displays them on the display. A notification unit that notifies the generation position of the target object, and A cognitive load control unit that gives a cognitive load to the user by generating the target object after a lapse of a predetermined time after notifying the generation position of the target object.
  • the cognitive load control unit is a rehabilitation support device in which at least two target objects are simultaneously present in the three-dimensional virtual space in order to control the cognitive load applied to the user.
  • a rehabilitation support device for recovering cognitive dysfunction or higher brain dysfunction A detector that detects the user's three-dimensional rehabilitation operation, A display control unit that generates an avatar object that moves according to the detected rehabilitation operation and a target object that the user makes visible in the three-dimensional virtual space and displays them on the display. A notification unit that notifies the generation position of the target object, and A cognitive load control unit that gives a cognitive load to the user by generating the target object after a lapse of a predetermined time after notifying the generation position of the target object.
  • the cognitive load control unit is a rehabilitation support device that changes a background image other than the target object displayed on the display in order to control the cognitive load applied to the user.
  • the method according to the present invention It is a rehabilitation support method for recovering cognitive dysfunction or higher brain dysfunction.
  • a detection step that detects the user's three-dimensional rehabilitation behavior
  • a display control step in which an avatar object that moves according to the detected rehabilitation operation and a target object to be visually recognized by the user are generated in a three-dimensional virtual space and displayed on a display.
  • a notification step for notifying the generation position of the target object, and A cognitive load control step that gives a cognitive load to the user by generating the target object after a lapse of a predetermined time after notifying the generation position of the target object.
  • the cognitive load control step is a rehabilitation support method in which the predetermined time can be changed by an operator's operation in order to control the cognitive load applied to the user.
  • It is a rehabilitation support method for recovering cognitive dysfunction or higher brain dysfunction.
  • a detection step that detects the user's three-dimensional rehabilitation behavior
  • a display control step in which an avatar object that moves according to the detected rehabilitation operation and a target object to be visually recognized by the user are generated in a three-dimensional virtual space and displayed on a display.
  • a notification step for notifying the generation position of the target object, and A cognitive load control step that gives a cognitive load to the user by generating the target object after a lapse of a predetermined time after notifying the generation position of the target object.
  • the cognitive load control step is a rehabilitation support method in which at least two target objects are simultaneously present in the three-dimensional virtual space in order to control the cognitive load applied to the user.
  • the other method according to the present invention is It is a rehabilitation support method for recovering cognitive dysfunction or higher brain dysfunction.
  • a detection step that detects the user's three-dimensional rehabilitation behavior
  • a display control step in which an avatar object that moves according to the detected rehabilitation operation and a target object to be visually recognized by the user are generated in a three-dimensional virtual space and displayed on a display.
  • a notification step for notifying the generation position of the target object and A cognitive load control step that gives a cognitive load to the user by generating the target object after a lapse of a predetermined time after notifying the generation position of the target object.
  • the cognitive load control step is a rehabilitation support method for changing a background image other than the target object displayed on the display in order to control the cognitive load applied to the user.
  • the program according to the present invention A rehabilitation support program to recover from cognitive dysfunction or higher brain dysfunction.
  • a detection step that detects the user's three-dimensional rehabilitation behavior
  • a display control step in which an avatar object that moves according to the detected rehabilitation operation and a target object to be visually recognized by the user are generated in a three-dimensional virtual space and displayed on a display.
  • a notification step for notifying the generation position of the target object and
  • a cognitive load control step that gives a cognitive load to the user by generating the target object after a lapse of a predetermined time after notifying the generation position of the target object.
  • the cognitive load control step is a rehabilitation support program in which the predetermined time can be changed by an operator's operation in order to control the cognitive load applied to the user.
  • a rehabilitation support program to recover from cognitive dysfunction or higher brain dysfunction A detection step that detects the user's three-dimensional rehabilitation behavior, and A display control step in which an avatar object that moves according to the detected rehabilitation operation and a target object to be visually recognized by the user are generated in a three-dimensional virtual space and displayed on a display. A notification step for notifying the generation position of the target object, and A cognitive load control step that gives a cognitive load to the user by generating the target object after a lapse of a predetermined time after notifying the generation position of the target object.
  • the cognitive load control step is a rehabilitation support program in which at least two target objects are simultaneously present in the three-dimensional virtual space in order to control the cognitive load applied to the user.
  • other programs according to the present invention may be used.
  • the cognitive load control step is a rehabilitation support program that changes a background image other than the target object displayed on the display in order to control the cognitive load applied to the user.
  • the rehabilitation support device 100 includes a detection unit 101, a display control unit 102, a notification unit 103, and a cognitive load control unit 104.
  • the detection unit 101 detects the head orientation and the three-dimensional rehabilitation operation of the user 130 wearing the head-mounted display 120.
  • the display control unit 102 generates an avatar object 151 that moves according to the detected rehabilitation operation and a target object 152 that is visually recognized by the user 130 in the three-dimensional virtual space 150. Then, it is displayed on the head-mounted display 120 according to the direction of the head of the user 130 detected by the detection unit 101.
  • the notification unit 103 notifies the occurrence of the target object 152.
  • a radar screen image for notifying the generation position of the target object 122 is displayed as the notification image 153.
  • the position of the target object 152 is relatively either relative to the reference direction in the virtual space (here, it is initially set to be the front direction of the user sitting straight on the chair). Indicates whether it is a direction.
  • the radar screen image further shows which direction the user 130's head is oriented relative to the reference direction.
  • the cognitive load control unit 104 gives a cognitive load to the user 130 by generating the target object 152 after a lapse of a predetermined time from the timing of notifying the generation of the target object 152.
  • the user must continuously memorize and retain the rehabilitation operation to be performed for the time from the notification that the target object is generated to the time when the target object is actually generated. Instead, it becomes possible to quantitatively adjust and control the cognitive load that the brain should process to give to the user. For example, by adjusting the type, number, size, spatial extent, position, amount, etc. of information contained in the broadcast image and broadcast voice, a cognitive load with increased complexity of information to be stored is given. It is also possible.
  • FIG. 2 is a diagram for explaining the configuration of the rehabilitation support system 200 according to the present embodiment.
  • the rehabilitation support system 200 includes a rehabilitation support device 210, two base stations 231 and 232, a head-mounted display 233, and two controllers 234 and 235. While sitting on the chair 221 the user 220 performs a rehabilitation operation by twisting the upper body or reaching out according to the display of the head-mounted display 233.
  • the present embodiment will be described on the premise of rehabilitation performed while sitting on a chair, the present invention is not limited to this, and the present invention is not limited to this, and the present invention is performed while standing, walking, running, or other specific. It may be performed while performing the operation. Further, the controller may be held and attached to a body part other than the hand, such as a foot or a trunk.
  • the two base stations 231 and 232 detect the movement of the head-mounted display 233 and the movement of the controller 234 and 235 and send them to the rehabilitation support device 210.
  • the rehabilitation support device 210 controls the display of the head-mounted display 233 while evaluating the rehabilitation operation of the user 220.
  • the head-mounted display 233 may be a non-transparent type, a video see-through type, or an optical see-through type.
  • the virtual space of VR Virtual Reality
  • AR Augmented Reality
  • MR Mated Reality
  • the controllers 234 and 235 held by the user 220 and the base stations 231 and 232 are shown as an example of the sensor for detecting the position or movement of the user's hand or head, but the present invention shows the present invention. It is not limited to this.
  • a camera including a depth sensor
  • a sensor for detecting the position or movement of the user's hand by image recognition processing
  • a sensor for detecting the position of the user's hand by temperature
  • a watch-type wearable worn on the user's arm can also be applied to the present invention.
  • the rehabilitation support device 210 includes an operation detection unit 211, a display control unit 212, 213, an evaluation unit 214, an update unit 215, a task set database 216, and an operation unit 217.
  • the motion detection unit 211 acquires the positions of the controllers 234 and 235 held by the user 220 via the base stations 231 and 232, and detects the rehabilitation motion of the user 220 by changing the position of the user 220's hand.
  • the display control unit 212 generates an avatar object 241 that moves according to the detected rehabilitation action and a target object 242 that indicates the target of the rehabilitation action in the virtual space. Then, the images of the avatar object 241 and the target object 242 are displayed on the display screen 240 according to the orientation and position of the head-mounted display 233 detected by the motion detection unit 211. The images of the avatar object 241 and the target object 242 are superimposed and displayed on the background image 243.
  • the avatar object 241 has the same shape as the controller 234 and 235, but is not limited to this, and the size, shape, and color may be changed on the left and right sides.
  • the avatar object 241 moves in the display screen 240 according to the movement of the controllers 234 and 235.
  • the controller 234 and 235 are provided with one or more buttons, and are configured so that various settings and the like can be made by operating the buttons.
  • the background image 243 is cut out from a virtual space including the horizon 244 and the ground surface image 245.
  • the display control unit 212 displays the target object 242 by gradually changing the display position and size so that the target object 242 is descending from the overhead direction of the user 220 downward.
  • the user 220 moves the controllers 234 and 235 to bring the avatar object 241 on the screen closer to the target object 242.
  • the moving direction of the target object may be displayed so as to rise from the floor surface direction to the overhead direction, for example, and may be accompanied by a movement in the depth direction in addition to the movement in the vertical direction.
  • the target is achieved and the target object 242 disappears.
  • the controllers 234 and 235 may be vibrated.
  • the controllers 234 and 235 may be vibrated.
  • the operation of the user 220 who moves the controllers 234 and 235 in this way is a rehabilitation operation, and the display of a target object that encourages one rehabilitation operation that the user 220 should perform is called a task.
  • information (task data) representing one task the appearance direction, shape, appearance position (distance from the user), appearance interval (time interval) of the target object, movement speed such as falling or rising, size, color, left and right. It includes which controller should be used, the number of target objects that appear at the same time, the size of the sensor object, and so on.
  • the display control unit 212 can also change the distance in the depth direction from the user 220 to the drop position of the target object 242 (for example, in three steps) according to the task data. For example, it can be changed to drop it in the immediate vicinity of the user 220, or to drop it in a position where the user 220 cannot reach unless it leans forward greatly. This makes it possible to control the exercise load given to the user.
  • the display control unit 213 displays the radar screen image 250 on the display screen 240 of the head-mounted display 233.
  • the radar screen image 250 is a notification image for notifying the occurrence of the target object 152.
  • the radar screen image 250 shows that the position of the generated target object 242 is relative to the reference direction in the virtual space (here, it is initially set to be the front direction of the user sitting straight on the chair). Notifies which direction it is.
  • the radar screen image 250 also informs how far the generated target object 242 is from the user 220.
  • the notification image is not limited to the radar screen image, and may be notified by characters, arrows, symbols, illustrations, types of light and colors, strength, blinking, and the like. Further, the notification method is not limited to the image, and may be performed by any combination of voice, vibration, voice, vibration, and image.
  • the display control unit 213 displays the radar screen image 250 on the central portion of the display screen 240 of the head-mounted display 233 (for example, within the range of -50 degrees to 50 degrees) regardless of the orientation of the head of the user 220.
  • the display portion is not limited to the center, and may be any place such as the four corners, the upper end, the lower end, the left edge, and the right edge of the screen.
  • the radar screen image 250 includes a head image 251 showing the user's head viewed from above, a block image 252 in which the periphery of the head image 251 is divided into a plurality of blocks, and a fan shape as a field area image showing the user's field area. Includes image 253 and.
  • the target position image showing the position of the target object is indicated by which block of the block image 252 is colored, blinked, or lit. As a result, the user 220 can know whether the target object is on the left side or the target object on the right side with respect to the direction in which the user is facing.
  • the block image 252 is fixed and the fan-shaped image 253 moves, but the present invention is not limited to this, and the fan-shaped image 253 and the head image 251 are fixed.
  • the block image 252 may be moved according to the direction of the head. Specifically, if the head is turned to the left, the block image 252 may be rotated to the right.
  • the evaluation unit 214 evaluates the rehabilitation operation of the user according to the quantity and quality of the tasks achieved by the user 220, and adds points.
  • the quality of the task achieved here depends on whether it is "appreciative” or "good luck", that is, how close the avatar object was to the target object.
  • the evaluation unit 214 assigns different points (high points to distant objects and low points to near objects) to the completed tasks.
  • the update unit 215 updates the target task according to the accumulated points.
  • the target task may be updated using the task achievement rate (number of goals achieved / number of tasks).
  • the task set database 216 stores a set of a plurality of tasks.
  • the task set database 216 stores a task set that determines in what order the plurality of such tasks are provided to the user.
  • the task set may be stored as a template for each hospital, or the history of the executed task set may be stored for each user.
  • the rehabilitation support device 210 may be configured to be able to communicate with other rehabilitation support devices via the Internet, in which case one task set can be executed by the same user at multiple locations, and various types. Templates can be shared by multiple users who are separated from each other.
  • the operation unit 217 is provided to operate the display control in the display control unit 212 and the display control unit 213.
  • the cognitive load control unit 218 gives a cognitive load to the user 220 by generating the target object 242 after a lapse of a predetermined time from the timing when the generation of the target object 242 is notified.
  • the user must continuously memorize the action to be performed from the time when the target object is known to the time when the target object is actually generated, and this "memory request". However, it becomes a cognitive load for the user.
  • the cognitive load control unit 218 may control the cognitive load by changing a predetermined time from the timing when the generation of the target object 242 is notified to the timing when the target object 152 is generated.
  • the cognitive load control unit 218 changes the cognitive load by changing the time "until the target object 152 approaches the reach of the user 220" instead of "until the timing to generate the target object 152". May be controlled.
  • the cognitive load control unit 218 may give a cognitive load to the user 220 by displaying a background image 243 other than the target object 242 on the head-mounted display 233.
  • FIG. 2B is a diagram showing a task table 260 stored in the task set database 216.
  • the time (task occurrence timing) 221 and the task interval 222, the task position 223, the task angle 224, and the task distance (intensity) 225 are stored in association with the task ID.
  • the speed 226 of the target object, the standard 227 for the perfect judgment (appreciative evaluation), the standard 228 for the good judgment (good evaluation), the size 229 of the sensor object, etc. are stored in association with the task ID. Has been done.
  • a delay time (predetermined time) from the task occurrence notification to the task occurrence may be set for each task.
  • FIGS. 3 to 5 are diagrams showing an example of display on the display screen 240 according to the present embodiment.
  • the background image 301 representing the field
  • an image of a person representing a farmer is displayed as a trigger object 302 that triggers the appearance of the target object. That is, the display control unit 213 displays the trigger object 302 as a notification image for notifying the occurrence of the target object 152.
  • the task is accomplished by moving the colander-shaped avatar object 402 to catch the falling target object 403.
  • the left and right avatar objects 402 move on the screen in conjunction with the movements of the controllers 234 and 235.
  • the cognitive load control unit 218 recognizes the user 220 by throwing the target object 303 upward and generating the target object 403 after a lapse of a predetermined time from the timing when the trigger object 302 notifies the occurrence of the target object 303. Give a load.
  • the occurrence of the target object may be notified at the same timing in the radar chart type notification image, or the notification by voice may be combined.
  • the cognitive load control unit 218 is cognitive to the user by displaying not only the background of only the horizon as shown in FIG. 2 but also the background image having a large amount of information as shown in FIGS. 3 and 4. Gives a heavy load. That is, it makes it difficult to remember the appearance of the target object 401 and the position where the target object 401 will fall, and gives the rehabilitation user a load closer to the cognitive load required in real life.
  • the cognitive load control unit 218 gives a cognitive load to the user 220 by changing at least a part of the background image 301 with time.
  • the clouds 304 may be moved, the vegetation 305 may be shaken, or an animal (not shown) unrelated to the target object may appear.
  • the cognitive load is controlled by making memory difficult by intentionally causing conversion attention disorder and persistent attention disorder).
  • FIG. 5 is a diagram showing another example of display on the display screen 240 according to the present embodiment.
  • a trigger object 502 representing a monkey and a target object 503 representing an apple are displayed in a forest-like background image 501.
  • the trigger object 502 representing the monkey drops the target object 503 representing the apple from the tree, and the target object 503 approaching the user is received by moving the avatar object 504 representing the monkey to accomplish the task.
  • the cognitive load control unit 218 causes attention disorder by starting the fall of the target object 503 after a lapse of a predetermined time from the timing when the trigger object 502 shakes the tree and notifies the occurrence of the target object 503. However, it gives a cognitive load to the user 220.
  • the cognitive load control unit 218 gives a stronger cognitive load to the user 220 by simultaneously presenting at least two target objects 503 in the three-dimensional virtual space and displaying them on the display screen 240. be able to. In other words, the cognitive load control unit 218 generates at least two target objects 503 at different positions in the left-right direction in the three-dimensional virtual space. That is, the user 220 has to memorize the position where the trigger object 502 shook the tree at a plurality of locations, thus giving a stronger cognitive load.
  • the evaluation unit 214 determines whether or not the avatar object arrives at the three-dimensional target position represented by the target object in a timely manner, the time interval and number from the notification of the occurrence of the target object to the occurrence, and the background image.
  • the cognitive ability of the user is evaluated according to the degree of attention disorder.
  • the present embodiment it is possible to effectively control the load applied to the cognitive function of the user in rehabilitation.
  • users naturally have memory and cognitive processing in the very low-hurdle task of receiving balls, potatoes, and apples instead of being asked to remember something. Since the ability is tested, the psychological burden is small, and refusal or rejection of rehabilitation, and depressive reaction due to failure are unlikely to occur.
  • the so-called cognitive function including memory ability, cognitive processing ability, spatial cognitive ability, attention function (disability) and higher brain function (disorder) are restored as well as motor ability, and daily life is comfortably lived. Can be guided so that it can be done.
  • the head-mounted display is used, but any spectacle-type display may be used. Further, instead of the head-mounted display, a hologram or a large television-type display may be arranged around the user to encourage the user to perform a rehabilitation operation.
  • the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Further, the present invention is also applicable when an information processing program that realizes the functions of the embodiment is supplied to a system or an apparatus and executed by a built-in processor.
  • the technical scope of the present invention includes a program installed on the computer, a medium containing the program, a server for downloading the program, and a processor for executing the program. ..
  • at least a non-transitory computer readable medium containing a program for causing a computer to execute the processing steps included in the above-described embodiment is included in the technical scope of the present invention.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Neurology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Software Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Psychology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Neurosurgery (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)

Abstract

リハビリテーションにおいて、ユーザの認知機能に与える負荷を制御するため、ユーザの3次元的なリハビリテーション動作を検出する検出部と、検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御部と、前記目標オブジェクトの発生を報知する報知部と、前記目標オブジェクトの発生の報知から、所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御部と、を備えたリハビリテーション支援装置。

Description

リハビリテーション支援装置、その方法およびプログラム
 本発明は、リハビリテーション支援装置、その方法およびプログラムに関する。
 上記技術分野において、特許文献1には、リハビリテーションを支援するシステムが開示されている。
特開2015-228957号公報
 しかしながら、上記文献に記載の技術では、リハビリテーションにおいて、ユーザの認知機能に与える負荷を制御することができなかった。
 本発明の目的は、上述の課題を解決する技術を提供することにある。
 上記目的を達成するため、本発明に係る装置は、
 認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援装置であって、
 ユーザの3次元的なリハビリテーション動作を検出する検出部と、
 検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御部と、
 前記目標オブジェクトの発生位置を報知する報知部と、
 前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御部と、
 を備え、
 前記認知負荷制御部は、前記ユーザに与える前記認知的な負荷を制御するため、オペレータの操作により前記所定時間を変更可能であるリハビリテーション支援装置である。
 上記目的を達成するため、本発明に係る他の装置は、
 認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援装置であって、
 ユーザの3次元的なリハビリテーション動作を検出する検出部と、
 検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御部と、
 前記目標オブジェクトの発生位置を報知する報知部と、
 前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御部と、
 を備え、
 前記認知負荷制御部は、前記ユーザに与える認知的な負荷を制御するため、少なくとも2個の前記目標オブジェクトを前記3次元仮想空間内に同時に存在させるリハビリテーション支援装置である。
 上記目的を達成するため、本発明に係るさらに他の装置は、
 認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援装置であって、
 ユーザの3次元的なリハビリテーション動作を検出する検出部と、
 検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御部と、
 前記目標オブジェクトの発生位置を報知する報知部と、
 前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御部と、
 を備え、
 前記認知負荷制御部は、前記ユーザに与える認知的な負荷を制御するため、前記ディスプレイに表示させる前記目標オブジェクト以外の背景画像を変更するリハビリテーション支援装置である。
 上記目的を達成するため、本発明に係る方法は、
 認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援方法であって、
 ユーザの3次元的なリハビリテーション動作を検出する検出ステップと、
 検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御ステップと、
 前記目標オブジェクトの発生位置を報知する報知ステップと、
 前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御ステップと、
 を備え、
 前記認知負荷制御ステップでは、前記ユーザに与える前記認知的な負荷を制御するため、オペレータの操作により前記所定時間を変更可能であるリハビリテーション支援方法である。
 上記目的を達成するため、本発明に係る他の方法は、
 認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援方法であって、
 ユーザの3次元的なリハビリテーション動作を検出する検出ステップと、
 検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御ステップと、
 前記目標オブジェクトの発生位置を報知する報知ステップと、
 前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御ステップと、
 を備え、
 前記認知負荷制御ステップでは、前記ユーザに与える認知的な負荷を制御するため、少なくとも2個の前記目標オブジェクトを前記3次元仮想空間内に同時に存在させるリハビリテーション支援方法である。
 上記目的を達成するため、本発明に係るさらに他の方法は、
 認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援方法であって、
 ユーザの3次元的なリハビリテーション動作を検出する検出ステップと、
 検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御ステップと、
 前記目標オブジェクトの発生位置を報知する報知ステップと、
 前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御ステップと、
 を備え、
 前記認知負荷制御ステップは、前記ユーザに与える認知的な負荷を制御するため、前記ディスプレイに表示させる前記目標オブジェクト以外の背景画像を変更するリハビリテーション支援方法である。
 上記目的を達成するため、本発明に係るプログラムは、
 認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援プログラムであって、
 ユーザの3次元的なリハビリテーション動作を検出する検出ステップと、
 検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御ステップと、
 前記目標オブジェクトの発生位置を報知する報知ステップと、
 前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御ステップと、
 をコンピュータに実行させ、
 前記認知負荷制御ステップでは、前記ユーザに与える前記認知的な負荷を制御するため、オペレータの操作により前記所定時間を変更可能であるリハビリテーション支援プログラムである。
 上記目的を達成するため、本発明に係る他のプログラムは、
 認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援プログラムであって、
 ユーザの3次元的なリハビリテーション動作を検出する検出ステップと、
 検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御ステップと、
 前記目標オブジェクトの発生位置を報知する報知ステップと、
 前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御ステップと、
 をコンピュータに実行させ、
 前記認知負荷制御ステップでは、前記ユーザに与える認知的な負荷を制御するため、少なくとも2個の前記目標オブジェクトを前記3次元仮想空間内に同時に存在させるリハビリテーション支援プログラムである。
 上記目的を達成するため、本発明に係るさらに他のプログラムは、
 認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援プログラムであって、
 ユーザの3次元的なリハビリテーション動作を検出する検出ステップと、
 検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御ステップと、
 前記目標オブジェクトの発生位置を報知する報知ステップと、
 前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御ステップと、
 をコンピュータに実行させ、
 前記認知負荷制御ステップでは、前記ユーザに与える認知的な負荷を制御するため、前記ディスプレイに表示させる前記目標オブジェクト以外の背景画像を変更するリハビリテーション支援プログラムである。
 本発明によれば、リハビリテーションにおいて、ユーザの認知機能に与える負荷を制御することができる。
第1実施形態に係るリハビリテーション支援装置の構成を示すブロック図である。 第2実施形態に係るリハビリテーション支援装置の構成を示すブロック図である。 第2実施形態に係るリハビリテーション支援装置のタスクデータベースを表す図である。 第2実施形態に係るリハビリテーション支援装置の表示画面例を示す図である。 第2実施形態に係るリハビリテーション支援装置の表示画面例を示す図である。 第2実施形態に係るリハビリテーション支援装置の表示画面例を示す図である。
 以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。
 [第1実施形態]
 本発明の第1実施形態としてのリハビリテーション支援装置100について、図1を用いて説明する。
 リハビリテーション支援装置100は、検出部101と、表示制御部102と、報知部103と、認知負荷制御部104とを備える。
 検出部101は、ヘッドマウントディスプレイ120を装着したユーザ130の頭の向きおよび3次元的なリハビリテーション動作を検出する。
 表示制御部102は、検出したリハビリテーション動作に応じて動くアバターオブジェクト151とユーザ130に視認させる目標オブジェクト152とを3次元仮想空間150内に生成する。そして、検出部101で検出したユーザ130の頭の向きに応じて、ヘッドマウントディスプレイ120に表示させる。
 報知部103は、目標オブジェクト152の発生を報知する。例えば、図1では、報知画像153として、目標オブジェクト122の発生位置を報知するためのレーダスクリーン画像を表示する。レーダスクリーン画像は、目標オブジェクト152の位置が、仮想空間内の基準方向(ここでは椅子にまっすぐに腰掛けたユーザの正面方向となるように初期設定されている)に対して、相対的にどちらの方向であるかを示す。レーダスクリーン画像は、さらに、ユーザ130の頭の向きが、基準方向に対して相対的にどちらの方向であるかを示す。
 認知負荷制御部104は、目標オブジェクト152の発生の報知のタイミングから、所定時間経過後に目標オブジェクト152を発生させることにより、ユーザ130に対して認知的な負荷を与える。
 以上、本実施形態によれば、ユーザは、目標オブジェクトが発生することを報知されてから、実際に目標オブジェクトが発生するまでの時間、自分が行なうべきリハビリテーション動作を継続的に記憶保持しなければならず、ユーザに対して脳が情報処理すべき認知負荷を定量的に調整、コントロールして与えることが可能になる。例えば、報知画像や報知音声に含まれる情報の種類や数、大きさ、空間的な広がりや位置、量等を調整することで、記憶保持すべき情報の複雑性がより増した認知負荷を与えることも可能である。
 [第2実施形態]
 本発明の第2実施形態に係るリハビリテーション支援システム200について、図2を用いて説明する。図2は、本実施形態に係るリハビリテーション支援システム200の構成を説明するための図である。
 図2に示すように、リハビリテーション支援システム200は、リハビリテーション支援装置210と、2つのベースステーション231、232と、ヘッドマウントディスプレイ233と、2つのコントローラ234、235とを備える。ユーザ220は、椅子221に座りながら、ヘッドマウントディスプレイ233の表示に合わせて、上半身をねじったり、手を伸ばしたりすることでリハビリテーション動作を行なう。本実施形態では、椅子に座って行なうリハビリテーションを前提に説明するが、本発明はこれに限定されるものではなく、立って行なっても、歩きながら行っても、あるいは走りながら、またはその他特定の動作を行いながら行ってもよい。また、コントローラは足や体幹等、手以外の体の部位に保持、装着してもよい。
 2つのベースステーション231、232は、ヘッドマウントディスプレイ233の動きおよびコントローラ234、235の動きを検知して、リハビリテーション支援装置210に送る。リハビリテーション支援装置210は、ユーザ220のリハビリテーション動作を評価しつつ、ヘッドマウントディスプレイ233の表示制御を行なう。なお、ヘッドマウントディスプレイ233としては、非透過タイプでも、ビデオシースルータイプでも、オプティカルシースルータイプでも構わない。本実施形態ではVR(Virtual Reality)の仮想空間をユーザに提示するが、AR(Augmented Reality:拡張現実)のように、現実空間と仮想空間とを重畳表示してもよいし、MR(Mixed Reality:複合現実)のように、仮想空間に現実情報を反映させてもよい。
 本実施形態では、ユーザの手や頭の位置または動作を検出するためのセンサの一例として、ユーザ220が手に持つコントローラ234、235や、ベースステーション231、232を示しているが、本発明はこれに限定されるものではない。ユーザの手の位置または動作を画像認識処理により検出するためのカメラ(深度センサを含む)や、温度によりユーザの手の位置を検出するためのセンサや、ユーザの腕に装着させる腕時計型のウェアラブル端末などや、モーションキャプチャなども、本発明に適用可能である。
 リハビリテーション支援装置210は、動作検出部211と表示制御部212、213と評価部214と更新部215、タスクセットデータベース216と操作部217とを備える。
 動作検出部211は、ユーザ220が手に持つコントローラ234、235の位置をベースステーション231、232を介して取得し、ユーザ220の手の位置の変化によりユーザ220のリハビリテーション動作を検出する。
 表示制御部212は、検出したリハビリテーション動作に応じて動くアバターオブジェクト241と、リハビリテーション動作の目標を示す目標オブジェクト242と、を仮想空間内に生成する。そして、それらのアバターオブジェクト241および目標オブジェクト242の画像を、動作検出部211が検出したヘッドマウントディスプレイ233の向きおよび位置に応じて、表示画面240に表示させる。アバターオブジェクト241および目標オブジェクト242の画像は、背景画像243に重畳表示される。ここでは、アバターオブジェクト241は、コントローラ234、235と同じ形状をしているがこれに限定されるものではなく、さらに左右で大きさや形状、色を変えたりしてもよい。アバターオブジェクト241は、コントローラ234、235の動きに合わせて表示画面240中を動く。コントローラ234、235には1つ以上のボタンが用意されており、ボタンを操作することにより各種設定などを行うことができるように構成されている。背景画像243は、地平線244と、地表面画像245とを含んだ仮想空間から切り出したものである。
 表示制御部212は、目標オブジェクト242を、ユーザ220の頭上方向から下方に向けて降下してきているように、表示位置および大きさを徐々に変えて表示する。ユーザ220は、コントローラ234、235を動かして、画面中のアバターオブジェクト241を、目標オブジェクト242に近づける。なお、目標オブジェクトの移動方向は例えば床面方向から頭上方向へ上昇していくように表示させてもよく、上下方向の動きに加えて奥行き方向の移動を伴ってもよい。
 アバターオブジェクト241に含まれるセンサオブジェクト(ここでは不図示)と目標オブジェクト242との最短距離が所定範囲内になると、目標達成となり、目標オブジェクト242は消滅する。このとき、アバターオブジェクト241に含まれるセンサオブジェクトと目標オブジェクト242との最短距離が第1閾値以下になれば目標の完全達成として「あっぱれ」と表示すると同時に対応する音声を出力してフィードバックする。同時にコントローラ234,235を振動させてもよい。
 一方、アバターオブジェクト241に含まれるセンサオブジェクトと目標オブジェクト242との最短距離が第1閾値以上第2閾値以下であれば、目標の達成として「おみごと」と表示すると同時に対応する音声を出力してフィードバックする。同時にコントローラ234,235を振動させてもよい。
 このようにコントローラ234、235を動かすユーザ220の動作がリハビリテーション動作であり、ユーザ220が行なうべき1回のリハビリテーション動作を促す目標オブジェクトの表示をタスクと呼ぶ。1つのタスクを表わす情報(タスクデータ)として、目標オブジェクトの出現方向、形状、出現位置(ユーザからの距離)、出現間隔(時間間隔)、落下または上昇等の移動速度、大きさ、色、左右どちらのコントローラで取得すべきか、同時に出現する目標オブジェクトの数、センサオブジェクトの大きさなどが含まれる。
 すなわち、表示制御部212は、タスクデータに応じてユーザ220から目標オブジェクト242の落下位置までの奥行き方向の距離を変更(例えば3段階)することもできる。例えば、ユーザ220の直ぐそばに落下させたり、ユーザ220が大きく前のめりにならないと届かない位置に落下させたり、と変更することができる。これにより、ユーザに与える運動負荷を制御することができる。
 表示制御部213は、レーダスクリーン画像250をヘッドマウントディスプレイ233の表示画面240に表示させる。レーダスクリーン画像250は、目標オブジェクト152の発生を報知するための報知画像である。レーダスクリーン画像250は、発生する目標オブジェクト242の位置が、仮想空間内の基準方向(ここでは椅子にまっすぐに腰掛けたユーザの正面方向となるように初期設定されている)に対して、相対的にどちらの方向であるかを報知する。レーダスクリーン画像250は、さらに、発生する目標オブジェクト242の位置が、ユーザ220からどの程度離れているかも報知する。なお、報知画像はレーダースクリーン画像に限定されず、文字や矢印、記号やイラスト、光や色の種類、強弱、点滅等によって報知されてもよい。また、報知方法は画像に限定されず、音声、振動または音声、振動、画像のいずれかの組み合わせによって行われてもよい。
 表示制御部213は、ユーザ220の頭の向きにかかわらず、レーダスクリーン画像250をヘッドマウントディスプレイ233の表示画面240の中央部分(例えば-50度~50度の範囲内)に表示させる。ただし表示部分は中央に限定されず、例えば画面の四隅や上端、下端、左端、右端の任意の場所でも構わない。
 レーダスクリーン画像250は、上方から見たユーザの頭を表わす頭画像251と、頭画像251の周囲を複数のブロックに分割したブロック画像252と、ユーザの視野領域を示す視野領域画像としての扇型画像253と、を含む。目標オブジェクトの位置を示す目標位置画像は、ブロック画像252のどのブロックが着色または点滅、点灯されるかによって示される。これにより、ユーザ220は、自分が向いている方向に対して左側に目標オブジェクトがあるのか、右側に目標オブジェクトがあるのかを、知ることができる。なお、本実施形態では、ブロック画像252が固定されて、扇型画像253が動く構成としているが、本発明はこれに限定されるものではなく、扇型画像253や頭画像251を固定しつつ、ブロック画像252を頭の向きに応じて動かしてもよい。具体的には頭が左に向けば、ブロック画像252が右に回転する構成でもよい。
 評価部214は、ユーザ220が達成したタスクの量および質に応じて、ユーザのリハビリテーション動作を評価し、ポイントを加算する。ここで達成したタスクの質とは、「あっぱれ」か「おみごと」か、つまり、どこまで目標オブジェクトにアバターオブジェクトを近づけることができたかに依存する。評価部214は、達成したタスクに対して、それぞれ、異なるポイント(遠いオブジェクトには高いポイント、近いオブジェクトには低いポイント)を付与する。
 更新部215は、積算されたポイントに応じて、目標課題を更新する。例えば、課題達成率(目標達成数/課題数)などを用いて目標課題を更新してもよい。
 タスクセットデータベース216は、複数のタスクのセットを格納している。タスクセットデータベース216は、そのような複数のタスクをどのような順番でユーザに提供するかを決めるタスクセットを格納している。
 例えば、病院毎のテンプレートとしてタスクセットを格納してもよいし、実行したタスクセットの履歴をユーザごとに格納してもよい。リハビリテーション支援装置210は、インターネットを介して他のリハビリテーション支援装置と通信可能に構成されていてもよく、その場合、1つのタスクセットを、同じユーザが複数の場所で実行することもできるし、様々なテンプレートを離れた複数のユーザ同士で共有することもできる。
 操作部217は、表示制御部212および表示制御部213での表示制御を操作するために設けられている。
 認知負荷制御部218は、目標オブジェクト242の発生を報知したタイミングから、所定時間経過後に目標オブジェクト242を発生させることにより、ユーザ220に対して認知的な負荷を与える。つまり、ユーザは、目標オブジェクトが発生することを知ってから、実際に目標オブジェクトが発生するまでの時間、自分が行なうべき動作を継続的に記憶保持しなければならず、この「記憶の要求」が、ユーザにとっての認知負荷となる。認知負荷制御部218は、目標オブジェクト242の発生を報知したタイミングから、目標オブジェクト152を発生させるタイミングまでの所定時間を変更することにより、認知的な負荷を制御してもよい。
 またさらに、認知負荷制御部218は、「目標オブジェクト152を発生させるタイミングまで」ではなく、「目標オブジェクト152がユーザ220の届く範囲に接近するまで」の時間を変更することにより、認知的な負荷を制御してもよい。
 認知負荷制御部218は、目標オブジェクト242以外の背景画像243をヘッドマウントディスプレイ233に表示させることにより、ユーザ220に対して認知的な負荷を与えてもよい。
 図2Bは、タスクセットデータベース216に記憶されたタスクテーブル260を示す図である。タスクテーブル260には、タスクIDに紐付けて、時間(タスクの発生タイミング)221、タスク間隔222、タスク位置223、タスク角度224、タスク距離(強度)225が記憶されている。さらにタスクテーブル260には、タスクIDに紐付けて、目標オブジェクトのスピード226、パーフェクト判定(あっぱれ評価)の基準227、グッド判定(おみごと評価)の基準228、センサオブジェクトの大きさ229などが記憶されている。これらに加えて、タスクごとに、タスク発生報知からタスク発生までのディレイタイム(所定時間)を設定してもよい。
 図3~図5は、本実施形態にかかる表示画面240における表示の一例を示す図である。図3、図4では、畑を表す背景画像301において、目標オブジェクト出現のトリガーとなるトリガーオブジェクト302として、農家を表す人の画像が表示されている。つまり、表示制御部213は、目標オブジェクト152の発生を報知するための報知画像として、トリガーオブジェクト302を表示する。
 トリガーオブジェクト302が、芋の形をした目標オブジェクト303を上方に投げてから所定時間後に、図4のように画面上から大きな芋の形をした目標オブジェクト403が出現する。落下してきた目標オブジェクト403を、ザルの形をしたアバターオブジェクト402を動かして受け止めることで、タスク達成となる。左右のアバターオブジェクト402は、コントローラ234、235の動きに連動して画面上を移動する。
 認知負荷制御部218は、トリガーオブジェクト302が目標オブジェクト303を上方に投げて、目標オブジェクト303の発生を報知したタイミングから、所定時間経過後に目標オブジェクト403を発生させることにより、ユーザ220に対して認知的な負荷を与える。なお、トリガーオブジェクト302の動きと連動させて、レーダーチャート型の報知画像でも同様のタイミングで目標オブジェクトの発生を報知したり、音声による報知を組み合わせたりしてもよい。
 このように、認知負荷制御部218は、図2のような地平線のみの背景ではなく、図3、図4のような、情報量の多い背景画像を表示することで、ユーザに対して認知的な負荷を与える。つまり、目標オブジェクト401が出現したことおよび目標オブジェクト401が落下してくるであろう位置の記憶を困難にさせて、より実生活で必要な認知負荷に近い負荷をリハビリテーションのユーザに与える。
 特に認知負荷制御部218は、背景画像301の少なくとも一部を時間と共に変化させることにより、ユーザ220に対して認知的な負荷を与える。図3の例では、例えば、背景画像301の中で、雲304を移動させたり、草木305を揺らしたり、あるいは、目標オブジェクトと関係のない動物(不図示)を登場させたりしてもよい。これにより、ユーザ220に対して、目標オブジェクト303に対する集中を妨げて、より目標オブジェクト303が落下してくるであろう位置の記憶を困難にさせることができる。より専門的には、背景画像にタスクとは無関係の情報を表示することにより、目標オブジェクトに集中し難い環境を用意し、注意障害(より具体的には選択性注意障害、配分性注意障害、転換性注意障害、持続性注意障害)を意図的に惹起することで記憶を困難にさせて、認知負荷をコントロールしていると言える。
 図5は、本実施形態にかかる表示画面240における表示の他の例を示す図である。図5では、森のような背景画像501中に、猿を表したトリガーオブジェクト502と、りんごを表した目標オブジェクト503とが表示されている。猿を表したトリガーオブジェクト502が、りんごを表した目標オブジェクト503を木から落として、ユーザに近づいてきた目標オブジェクト503を、ザルを表したアバターオブジェクト504を動かして受け止めることでタスク達成となる。ここでも、認知負荷制御部218は、トリガーオブジェクト502が木を揺らして、目標オブジェクト503の発生を報知したタイミングから、所定時間経過後に目標オブジェクト503の落下を開始させることにより、注意障害を惹起しながらユーザ220に対して認知的な負荷を与える。
 さらに、認知負荷制御部218は、少なくとも2個の目標オブジェクト503を3次元仮想空間内に同時に存在させて、表示画面240に表示させることにより、ユーザ220に対してより認知的に強い負荷を与えることができる。言い換えれば、認知負荷制御部218は、3次元仮想空間内において少なくとも2個の目標オブジェクト503を左右方向に異なる位置に発生させる。つまり、ユーザ220は、トリガーオブジェクト502がどの位置で木を揺らしたかを、複数箇所について記憶しておかなければならないため、認知的により強い負荷を与えたことになる。
 特に、目標オブジェクト503の移動方向(図5では落下方向)に対して異なる方向(図5では左右方向)の複数の位置に少なくとも2個の目標オブジェクト503を発生させたので、より一層の認知負荷を与えることができる。つまり、ユーザ220は上下方向の移動と、左右方向の発生位置の違いと、さらには奥行方向の落下位置の違いも考慮してコントローラ234,235を移動させなければならず、空間認知能力も試されていることになる。このように、タスクの所定時間の変更に加えて、トリガーオブジェクトを含む報知画像や報知音声に含まれる情報の種類や数、大きさ、空間的な広がりや位置、量等を調整することで、記憶保持すべき情報の複雑性、すなわちユーザに対して脳が情報処理すべき認知負荷を定量的に調整、コントロールすることが可能となる。
 評価部214は、目標オブジェクトが表わす3次元的な目標位置に対して、アバターオブジェクトがタイミング良く到達したか否か、および、目標オブジェクトの発生報知から発生までの時間間隔と数、および背景画像の注意障害の程度等によって、ユーザの認知能力を評価する。
 以上、本実施形態によれば、リハビリテーションにおいて、ユーザの認知機能に与える負荷を効果的に制御することができる。具体的には、ユーザは、何かを記憶しなさいと言われて記憶するのではなく、ボールや芋やりんごを受け取るという、非常にハードルの低い課題の中で、ごく自然に記憶力および認知処理能力を試されることになるため、心理的な負担が小さくリハビリテーションに対する拒否や拒絶反応、失敗に伴う抑うつ反応が生じにくい。本実施形態にかかるリハビリテーション動作によって、運動能力とともに記憶力や認知処理能力、空間認知能力、注意機能(障害)を含むいわゆる認知機能や高次脳機能(障害)を回復させ、日常生活を快適に送ることができるように導くことができる。
 なお、上記実施形態では、ヘッドマウントディスプレイを用いたが、眼鏡型のディスプレイであればよい。また、ヘッドマウントディスプレイの代わりに、ホログラムや、大きなテレビ型のディスプレイをユーザ周辺に配置して、ユーザにリハビリテーション動作を促してもよい。
 [他の実施形態]
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の技術的範囲で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の技術的範囲に含まれる。
 また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に供給され、内蔵されたプロセッサによって実行される場合にも適用可能である。本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるサーバも、プログラムを実行するプロセッサも本発明の技術的範囲に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の技術的範囲に含まれる。
 この出願は、2020年4月24日に出願された日本出願特願2020-77811を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (12)

  1.  認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援装置であって、
     ユーザの3次元的なリハビリテーション動作を検出する検出部と、
     検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御部と、
     前記目標オブジェクトの発生位置を報知する報知部と、
     前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御部と、
     を備え、
     前記認知負荷制御部は、前記ユーザに与える前記認知的な負荷を制御するため、オペレータの操作により前記所定時間を変更可能であるリハビリテーション支援装置。
  2.  認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援装置であって、
     ユーザの3次元的なリハビリテーション動作を検出する検出部と、
     検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御部と、
     前記目標オブジェクトの発生位置を報知する報知部と、
     前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御部と、
     を備え、
     前記認知負荷制御部は、前記ユーザに与える認知的な負荷を制御するため、少なくとも2個の前記目標オブジェクトを前記3次元仮想空間内に同時に存在させるリハビリテーション支援装置。
  3.  前記表示制御部は、前記3次元仮想空間内において前記目標オブジェクトを上下方向に移動させ、
     前記認知負荷制御部は、前記3次元仮想空間内において少なくとも2個の前記目標オブジェクトを左右方向に異なる位置に発生させることにより、前記ユーザに対して認知的な負荷を与える請求項2に記載のリハビリテーション支援装置。
  4.  認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援装置であって、
     ユーザの3次元的なリハビリテーション動作を検出する検出部と、
     検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御部と、
     前記目標オブジェクトの発生位置を報知する報知部と、
     前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御部と、
     を備え、
     前記認知負荷制御部は、前記ユーザに与える認知的な負荷を制御するため、前記ディスプレイに表示させる前記目標オブジェクト以外の背景画像を変更するリハビリテーション支援装置。
  5.  前記認知負荷制御部は、前記ユーザに与える認知的な負荷を制御するため、前記背景画像の少なくとも一部を時間と共に変化させる請求項4に記載のリハビリテーション支援装置。
  6.  前記リハビリテーション動作により、前記目標オブジェクトが表わす3次元的な目標位置に対して、前記アバターオブジェクトがタイミング良く到達したか否か、および前記所定時間によって、前記ユーザの認知能力を評価する評価部をさらに備えた請求項1乃至5のいずれか1に記載のリハビリテーション支援装置。
  7.  認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援方法であって、
     ユーザの3次元的なリハビリテーション動作を検出する検出ステップと、
     検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御ステップと、
     前記目標オブジェクトの発生位置を報知する報知ステップと、
     前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御ステップと、
     を備え、
     前記認知負荷制御ステップでは、前記ユーザに与える前記認知的な負荷を制御するため、オペレータの操作により前記所定時間を変更可能であるリハビリテーション支援方法。
  8.  認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援方法であって、
     ユーザの3次元的なリハビリテーション動作を検出する検出ステップと、
     検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御ステップと、
     前記目標オブジェクトの発生位置を報知する報知ステップと、
     前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御ステップと、
     を備え、
     前記認知負荷制御ステップでは、前記ユーザに与える認知的な負荷を制御するため、少なくとも2個の前記目標オブジェクトを前記3次元仮想空間内に同時に存在させるリハビリテーション支援方法。
  9.  認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援方法であって、
     ユーザの3次元的なリハビリテーション動作を検出する検出ステップと、
     検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御ステップと、
     前記目標オブジェクトの発生位置を報知する報知ステップと、
     前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御ステップと、
     を備え、
     前記認知負荷制御ステップは、前記ユーザに与える認知的な負荷を制御するため、前記ディスプレイに表示させる前記目標オブジェクト以外の背景画像を変更するリハビリテーション支援方法。
  10.  認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援プログラムであって、
     ユーザの3次元的なリハビリテーション動作を検出する検出ステップと、
     検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御ステップと、
     前記目標オブジェクトの発生位置を報知する報知ステップと、
     前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御ステップと、
     をコンピュータに実行させ、
     前記認知負荷制御ステップでは、前記ユーザに与える前記認知的な負荷を制御するため、オペレータの操作により前記所定時間を変更可能であるリハビリテーション支援プログラム。
  11.  認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援プログラムであって、
     ユーザの3次元的なリハビリテーション動作を検出する検出ステップと、
     検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御ステップと、
     前記目標オブジェクトの発生位置を報知する報知ステップと、
     前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御ステップと、
     をコンピュータに実行させ、
     前記認知負荷制御ステップでは、前記ユーザに与える認知的な負荷を制御するため、少なくとも2個の前記目標オブジェクトを前記3次元仮想空間内に同時に存在させるリハビリテーション支援プログラム。
  12.  認知機能障害または高次脳機能障害を回復させるためのリハビリテーション支援プログラムであって、
     ユーザの3次元的なリハビリテーション動作を検出する検出ステップと、
     検出した前記リハビリテーション動作に応じて動くアバターオブジェクトと前記ユーザに視認させる目標オブジェクトとを3次元仮想空間内に生成し、ディスプレイに表示させる表示制御ステップと、
     前記目標オブジェクトの発生位置を報知する報知ステップと、
     前記目標オブジェクトの発生位置を報知してから所定時間経過後に前記目標オブジェクトを発生させることにより、前記ユーザに対して認知的な負荷を与える認知負荷制御ステップと、
     をコンピュータに実行させ、
     前記認知負荷制御ステップでは、前記ユーザに与える認知的な負荷を制御するため、前記ディスプレイに表示させる前記目標オブジェクト以外の背景画像を変更するリハビリテーション支援プログラム。
PCT/JP2021/012466 2020-04-24 2021-03-25 リハビリテーション支援装置、その方法およびプログラム WO2021215185A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP21777608.7A EP3936106A4 (en) 2020-04-24 2021-03-25 REHABILITATION AID DEVICE, METHOD, AND PROGRAM
CN202180003143.6A CN113853159A (zh) 2020-04-24 2021-03-25 复健支援装置、其方法以及程序
US17/611,355 US20220218266A1 (en) 2020-04-24 2021-03-25 Rehabilitation support apparatus, method therefor, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020077811A JP6898675B1 (ja) 2020-04-24 2020-04-24 リハビリテーション支援装置、その方法およびプログラム
JP2020-077811 2020-04-24

Publications (1)

Publication Number Publication Date
WO2021215185A1 true WO2021215185A1 (ja) 2021-10-28

Family

ID=76650057

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/012466 WO2021215185A1 (ja) 2020-04-24 2021-03-25 リハビリテーション支援装置、その方法およびプログラム

Country Status (5)

Country Link
US (1) US20220218266A1 (ja)
EP (1) EP3936106A4 (ja)
JP (3) JP6898675B1 (ja)
CN (1) CN113853159A (ja)
WO (1) WO2021215185A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6965857B2 (ja) * 2018-09-19 2021-11-10 株式会社三洋物産 遊技機
WO2022103370A1 (en) * 2020-11-10 2022-05-19 Noderix Teknoloji Sanayi Ticaret Anonim Sirketi Systems and methods for personalized and interactive extended reality experiences
JP2023040990A (ja) * 2021-09-10 2023-03-23 株式会社mediVR リハビリテーション支援装置、その方法およびプログラム
JP7036476B1 (ja) 2021-09-10 2022-03-15 株式会社mediVR 認知能力推定装置、その方法およびプログラム
JP7125180B1 (ja) * 2021-09-10 2022-08-24 株式会社mediVR 認知能力推定装置、その方法およびプログラム
CN115227468B (zh) * 2022-09-21 2023-01-17 深圳市心流科技有限公司 一种智能假肢的训练方法、智能假肢及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228957A (ja) 2014-06-04 2015-12-21 日本光電工業株式会社 リハビリテーション支援システム
JP2019076302A (ja) * 2017-10-23 2019-05-23 株式会社Splink Ar装置、方法及びプログラム
JP6531338B1 (ja) * 2019-01-07 2019-06-19 株式会社mediVR リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム
JP2020077811A (ja) 2018-11-09 2020-05-21 住友ベークライト株式会社 犠牲基板およびコアレス基板の製造方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050216243A1 (en) * 2004-03-02 2005-09-29 Simon Graham Computer-simulated virtual reality environments for evaluation of neurobehavioral performance
US20120108909A1 (en) * 2010-11-03 2012-05-03 HeadRehab, LLC Assessment and Rehabilitation of Cognitive and Motor Functions Using Virtual Reality
JP6425287B1 (ja) * 2017-10-23 2018-11-21 株式会社mediVR リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228957A (ja) 2014-06-04 2015-12-21 日本光電工業株式会社 リハビリテーション支援システム
JP2019076302A (ja) * 2017-10-23 2019-05-23 株式会社Splink Ar装置、方法及びプログラム
JP2020077811A (ja) 2018-11-09 2020-05-21 住友ベークライト株式会社 犠牲基板およびコアレス基板の製造方法
JP6531338B1 (ja) * 2019-01-07 2019-06-19 株式会社mediVR リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム

Also Published As

Publication number Publication date
JP6898675B1 (ja) 2021-07-07
JP2021171659A (ja) 2021-11-01
CN113853159A (zh) 2021-12-28
JP2024041825A (ja) 2024-03-27
JP2021171324A (ja) 2021-11-01
EP3936106A1 (en) 2022-01-12
EP3936106A4 (en) 2022-08-10
JP7420392B2 (ja) 2024-01-23
US20220218266A1 (en) 2022-07-14

Similar Documents

Publication Publication Date Title
WO2021215185A1 (ja) リハビリテーション支援装置、その方法およびプログラム
US11900527B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
KR20220115981A (ko) 자세-기반 가상 공간 구성
JP6392911B2 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
CN110022835B (zh) 康复支援系统、康复支援方法及存储介质
CN117008720A (zh) 用于与三维环境进行交互的设备、方法和图形用户界面
JP6290467B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP5980404B1 (ja) 仮想空間内オブジェクトへの動作指示方法、及びプログラム
JP2018192107A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
TW202301871A (zh) 提升使用者體驗和注視互動準確度之光學系統和相關方法
JP2018125003A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
CN112930162B (zh) 康复支援装置、其方法及程序
JP2019032844A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
WO2017090298A1 (ja) 仮想空間内オブジェクトへの動作指示方法、及びプログラム
JP7125180B1 (ja) 認知能力推定装置、その方法およびプログラム
JP6209252B1 (ja) 仮想空間内のキャラクタを動作させる方法、当該方法をコンピュータに実行させるためのプログラム及びコンピュータ装置
JP2018010665A (ja) 仮想空間内オブジェクトへの動作指示方法、及びプログラム
JP2019020836A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6934374B2 (ja) プロセッサを備えるコンピュータにより実行される方法
JPWO2021059369A1 (ja) アニメーション制作システム
JP6225242B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP2019114106A (ja) 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法
JP2019211868A (ja) 画像表示装置を介して仮想体験をユーザに提供するためのプログラム、コンピュータ及び方法
JP7036476B1 (ja) 認知能力推定装置、その方法およびプログラム
JP2018190397A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021777608

Country of ref document: EP

Effective date: 20211006

NENP Non-entry into the national phase

Ref country code: DE