WO2020152779A1 - 高次脳機能障害用のリハビリテーションシステム及び画像処理装置 - Google Patents

高次脳機能障害用のリハビリテーションシステム及び画像処理装置 Download PDF

Info

Publication number
WO2020152779A1
WO2020152779A1 PCT/JP2019/001869 JP2019001869W WO2020152779A1 WO 2020152779 A1 WO2020152779 A1 WO 2020152779A1 JP 2019001869 W JP2019001869 W JP 2019001869W WO 2020152779 A1 WO2020152779 A1 WO 2020152779A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
rehabilitation
image processing
processing device
side terminal
Prior art date
Application number
PCT/JP2019/001869
Other languages
English (en)
French (fr)
Inventor
杉山 崇
礼央 坂本
公隆 長谷
晋吾 橋本
Original Assignee
株式会社テクリコ
学校法人関西医科大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社テクリコ, 学校法人関西医科大学 filed Critical 株式会社テクリコ
Priority to PCT/JP2019/001869 priority Critical patent/WO2020152779A1/ja
Priority to JP2020567274A priority patent/JP7036327B2/ja
Priority to CN201980089743.1A priority patent/CN113678206B/zh
Priority to US17/424,329 priority patent/US20220076803A1/en
Publication of WO2020152779A1 publication Critical patent/WO2020152779A1/ja
Priority to JP2021195966A priority patent/JP7029717B1/ja
Priority to JP2022022634A priority patent/JP7270196B2/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4848Monitoring or testing the effects of treatment, e.g. of medication
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4082Diagnosing or monitoring movement diseases, e.g. Parkinson, Huntington or Tourette
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character

Definitions

  • the present invention for patients with higher brain dysfunction caused by stroke, dementia, cerebral palsy, traumatic brain injury, brain tumor, developmental disorder, depression, schizophrenia, Parkinson's disease, etc., rehabilitation. More specifically, the present invention relates to a system and an image processing apparatus for performing rehabilitation for higher brain dysfunction using image processing technology.
  • Patent Documents 1 to 7 Conventionally, as described in Patent Documents 1 to 7, a device for rehabilitating higher brain dysfunction using a virtual image has been proposed.
  • a virtual image of a virtual reality is displayed on a head-mounted visual display device (4), and a patient operates a training machine (6) or a space joystick (5).
  • a training machine (6) or a space joystick (5) By doing so, an image as if the patient is moving in the virtual space is displayed on the head-mounted visual display device (4).
  • the patient moves the training machine (6) and the like while looking at the image of the virtual environment, and the movement is reflected in the image of the virtual environment, so that the function of moving the body according to the stimulus to the brain by vision is restored. It is supposed to be possible.
  • Patent Document 1 since various images can be prepared as the image of the virtual environment, it is possible to make the patient motivated and interested in the training by further changing the visual information having a large amount of information. ..
  • the virtual world is displayed on the virtual world control means (104) and the task data is presented to the patient. Success/failure determination is performed based on the reaction of the patient to the task data, and based on the result of the success/failure determination, data of the patient's recognition state is created. Further, in the higher brain dysfunction rehabilitation device described in Patent Document 2, the difficulty level of the task data changes based on the evaluation result of the patient's performance. As a result, the higher brain dysfunction rehabilitation device described in Patent Document 2 provides an environment in which the patient can perform various actions required for daily activities.
  • an index image serving as an index of rehabilitation operation is displayed on a head-mounted display mounted on the patient's head, and an index indicating an operation to be performed by the patient is displayed within the field of view of the patient. Display it.
  • an image is displayed on the head mounted display (94).
  • the underwater image is visible, and when the user stands up, the sky image on the sea surface is visible. This will increase the motivation for standing and sitting rehabilitation exercises.
  • the rehabilitation support system described in Patent Documents 5 to 7 displays an avatar image that moves according to the rehabilitation motion and a target image that indicates the target of the rehabilitation motion on the head-mounted display (233) to indicate the rehabilitation motion and the target position. In comparison, the rehabilitation ability is evaluated. Further, in Patent Documents 5 to 7, the usefulness of the dual task, which attempts to enhance the rehabilitation effect by combining two tasks such as cognitive function and exercise task, is mentioned. The first rehabilitation operation and the second task The rehabilitation movement is detected and the rehabilitation ability is evaluated based on both movements.
  • a rehabilitation task is displayed on a tablet terminal and rehabilitation is performed.
  • the server acquires the patient level of the rehabilitation task from the hard disk, and determines the content of the rehabilitation task according to the acquired level.
  • the tablet terminal displays the rehabilitation task corresponding to the question content determined by the server and causes the patient to answer the rehabilitation task.
  • the tablet terminal determines the level of the patient regarding the rehabilitation task based on the latest predetermined number of answers to the rehabilitation task.
  • Patent Document 9 relates to a system including entertainment in order to maintain the willingness of a patient with higher brain dysfunction to rehabilitate.
  • the rehabilitation support system described in Patent Document 9 is provided with a camera for photographing a patient and an image display means such as a projector or a liquid crystal display for displaying an image of the patient photographed by the camera.
  • an image display means such as a projector or a liquid crystal display for displaying an image of the patient photographed by the camera.
  • the target display of the game for rehabilitation and the image of the patient's hand taken by the camera are combined in the image displayed by the image display unit, and the position of the hand is detected to detect the patient.
  • the game progresses and rehabilitation is performed depending on whether or not the target display can be selected.
  • a captured image of a patient acquired by a camera (11) and a rehabilitation image generated by a computer (12) are combined, and a projector (14) is used to display a screen ( 13).
  • the position of the moving part (hand) of the patient is specified from the image data in the imaged image of the patient, and the rehabilitation is performed based on the interference state between the moving part of the patient and the reaction image part included in the rehabilitation image.
  • the display mode of the reaction image part in the image is changed to promote the rehabilitation action of the patient.
  • Patent Documents 11 and 12 display a virtual image on a display and execute rehabilitation of a patient.
  • Patent Documents 1 to 7 reproduce a virtual space by using a head mounted display or the like, move a patient in the virtual space, or clear a problem presented in the virtual space. This is for allowing the patient to perform an action for rehabilitation.
  • Patent Document 8 displays a problem on a tablet terminal and performs rehabilitation.
  • Patent Document 8 discloses a system in which a server transmits, to a tablet terminal, the contents of questions according to the level of a patient.
  • the doctor decides the content of the patient's rehabilitation, and the practitioner such as an occupational therapist performs the rehabilitation for the patient based on the instructions from the doctor. ..
  • the practitioner such as an occupational therapist performs the rehabilitation for the patient based on the instructions from the doctor. ..
  • Patent Documents 1 to 7 focus only on performing rehabilitation using virtual images. The usefulness of rehabilitation of higher brain dysfunction using virtual images is not denied, but in Patent Documents 1 to 7, how a doctor and a practitioner share information and However, no consideration is given to how to determine the optimal rehabilitation. The same applies to the systems of Patent Documents 9 to 12 that display an image on a projector or a display.
  • Patent Document 8 the contents of the question according to the level of the patient are merely transmitted from the server to the tablet terminal.
  • the system described in Patent Document 8 is not a system for a doctor to accurately grasp the improvement status of a patient and to determine an optimal rehabilitation menu.
  • the present invention provides a rehabilitation system for higher brain dysfunction for facilitating the understanding of the rehabilitation situation of a patient by a doctor and a practitioner, and enabling an appropriate rehabilitation menu to be constructed. With the goal.
  • VR virtual reality
  • Another object of the present invention is to provide a system by which a patient can perform rehabilitation without feeling discomfort.
  • the present invention is a rehabilitation system for carrying out rehabilitation of higher brain dysfunction, and executes an application for presenting a patient with a problem for rehabilitation by images using virtual reality, augmented reality, or mixed reality.
  • the image processing device that stores the history of the patient solving the problem as rehabilitation history information
  • the practitioner side terminal that receives the rehabilitation history information from the image processing device
  • the rehabilitation history information sent from the practitioner side terminal includes a server that stores the rehabilitation history information, and a doctor side terminal that receives the rehabilitation history information from the server and displays the rehabilitation implementation status of the patient based on the rehabilitation history information.
  • the image processing device contains one or more types of applications for presenting the problem.
  • the practitioner-side terminal can select an application to be executed by the image processing apparatus and instruct the image processing apparatus to execute the selected application.
  • the doctor's terminal associates the application to be used, creates a rehabilitation schedule to be implemented in the image processing device, and saves it on the server.
  • the practitioner side terminal can download the schedule stored in the server and instruct the image processing apparatus to execute the application specified in the schedule.
  • At least one obstacle that is expected to be improved by executing the application is associated with the application used on the image processing apparatus.
  • the rehabilitation history information includes the score of the answer to the question given by the application.
  • the doctor side terminal displays the score of the application for each failure so that the improvement status of the failure can be understood.
  • the doctor's terminal displays the scoring results of the application in chronological order.
  • the rehabilitation history information includes information about the patient's movements.
  • the doctor-side terminal and/or the practitioner-side terminal can perform display for reproducing the movement of the patient based on the rehabilitation history information.
  • the image processing device sends the image seen by the patient to the practitioner's terminal while the app is running.
  • the practitioner side terminal displays the image transmitted from the image processing apparatus.
  • the image displayed on the practitioner's terminal is saved as a moving image.
  • the doctor's terminal can play the saved video.
  • the images sent from the image processing device are simultaneously delivered to the doctor's terminal.
  • the application executed by the image processing device has adjustable setting conditions.
  • the doctor side terminal and/or the practitioner side terminal can adjust setting conditions.
  • the angle range in which the problem is displayed can be adjusted as a setting condition.
  • the number of objects displayed in the problem can be adjusted as a setting condition.
  • the image processing device has a measurement mode and a training mode as modes for executing the application.
  • the measurement mode the image processing device issues a predetermined problem.
  • the training mode the image processing apparatus issues a randomly created question.
  • An avatar image that serves as a virtual trainer is displayed on the image processing device.
  • the doctor's terminal, the practitioner's terminal, the image processing device, or the server adjusts the difficulty level of the problem based on the past score of the problem, and causes the image processing device to pose a problem according to the difficulty level.
  • the doctor side terminal, the practitioner side terminal, the image processing device, or the server creates a problem according to the weakness and makes the image processing device give a question.
  • the image processing device uses a virtual reality, an augmented reality, or a mixed reality to display a numerical image and execute a numerical erasing application that asks the problem of erasing the numerical images in order.
  • the image processing apparatus displays a target image and a non-target image by using virtual reality, augmented reality, or mixed reality, and executes a first selection deletion application that presents a problem of deleting the target image. ..
  • the image processing apparatus uses virtual reality, augmented reality, or mixed reality to display target and non-target images, to select a target image, and to change the image after selection. Execute the selection deletion application of 2.
  • the image processing apparatus uses virtual reality, augmented reality, or mixed reality to display an image of at least one wall and target and non-target images arranged on the wall, and deletes the target image. Run the space placement app that asks the question to ask.
  • the image processing device uses virtual reality, augmented reality, or mixed reality to display an image of a maze, and executes a maze application that asks the problem of clearing the maze.
  • the erasure is a concept including intentionally selecting a target and erasing the target when a target position is reached.
  • the image processing device uses virtual reality, augmented reality, or mixed reality to display an image serving as a grid and executes a grid moving application that issues a problem of moving the grid.
  • the image processing device displays a virtual image outside the range of the patient's field of view in an application that displays the virtual image using virtual reality, augmented reality, or mixed reality.
  • Virtual images are the target and/or non-target images of interest.
  • Virtual images are images of walls, mazes, or squares used in the problem.
  • the present invention also provides a space recognition unit that recognizes the space around the image processing device, a tracking unit that recognizes the position and inclination of the image processing device in the space recognized by the space recognition unit, and a direction that detects the orientation of the user.
  • the detection unit and the virtual object are arranged in the space recognized by the space recognition unit, and based on the position and the tilt recognized by the tracking unit and the orientation detected by the orientation detection unit, the virtual object seen by the user.
  • An image processing unit that generates an image and an augmented reality that displays the image generated by the image processing unit to the user as if the image of the virtual object generated by the image processing unit exists in the physical space.
  • An image processing apparatus including a display unit for use with a control unit that generates a problem as if an image of a virtual object used for rehabilitation of higher brain dysfunction exists in the physical space.
  • the control unit uses the detection result of the orientation detection unit to detect the selection of the image of the virtual object by the user, and scores the problem based on the detected selection result.
  • the control unit uses an image for the user to select as the image of the virtual object, and generates a problem so that the image is arranged at least in the user's field of view.
  • the control unit creates a problem so that the image for the user to select is also placed outside the user's field of view.
  • the control unit scores the problem based on the detection result of the position of the image processing device by the tracking unit.
  • the control unit uses an image for urging the user to move in the real space as an image of the virtual object, and generates a problem so that the image is arranged at least in the user's field of view.
  • the control unit creates a problem so that the image for prompting the user to move in the physical space is also placed outside the user's field of view.
  • the present invention also provides a space recognition unit that recognizes the space around the image processing device, a tracking unit that recognizes the position and inclination of the image processing device in the space recognized by the space recognition unit, and a direction that detects the orientation of the user.
  • the detection unit and the virtual object are arranged in the space recognized by the space recognition unit, and based on the position and the tilt recognized by the tracking unit and the orientation detected by the orientation detection unit, the virtual object seen by the user.
  • An image processing unit that generates an image and an augmented reality that displays the image generated by the image processing unit to the user as if the image of the virtual object generated by the image processing unit exists in the physical space.
  • a storage medium that stores a computer program executed in an image processing apparatus including a display unit for use in the computer program, wherein the computer program uses the image processing apparatus in a real space for rehabilitation of higher brain dysfunction.
  • a storage medium storing a computer program for rehabilitation of higher brain dysfunction, characterized by causing it to function as control means for generating a problem as if an image of the object exists.
  • rehabilitation history information is stored, and the rehabilitation history information is stored in a practitioner side terminal and a doctor side terminal. Can be shared at. Therefore, the doctor and the practitioner can easily understand the rehabilitation situation of the patient, and as a result, an appropriate rehabilitation menu can be constructed.
  • the image processing device contains one or more types of applications, and the application to be used is specified from the practitioner's terminal. This makes it possible to execute the application according to the patient's symptom and enhance the effect of rehabilitation.
  • the doctor's terminal you can easily create a rehabilitation schedule by specifying the application used for the operation. Then, the practitioner side terminal can download the schedule created by the doctor side terminal and instruct the image processing apparatus to execute the application. Therefore, appropriate rehabilitation according to the doctor's instructions can be easily performed.
  • the doctor or the like can objectively and visually grasp the condition of the patient's failure.
  • the number erasing application can be expected to improve attention dysfunction.
  • the first selective deletion application can be expected to improve attentional dysfunction and/or spatial cognitive dysfunction.
  • the improvement of attention dysfunction and/or inhibitory dysfunction can be expected by the second selective deletion application.
  • the spatial placement application can be expected to improve spatial cognitive impairment and/or information acquisition impairment.
  • the maze app can be expected to improve the impairment of spatial cognition.
  • an image processing device for augmented reality By using an image processing device for augmented reality, by creating a problem as if an image of a virtual object used for rehabilitation of higher brain dysfunction exists in the physical space, the patient The risk of falling into a situation such as VR sickness and falls is reduced. Therefore, the patient can safely perform rehabilitation without feeling uncomfortable.
  • the patient can solve the problem without hesitation.
  • the present invention can be executed by a general-purpose image processing apparatus, and the widespread use of the present invention can be expected.
  • FIG. 1 is a diagram showing an overall configuration of a rehabilitation system 1 according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a functional configuration of the doctor side terminal 2.
  • FIG. 3 is a block diagram showing the functional configuration of the server 3.
  • FIG. 4 is a block diagram showing a functional configuration of the operation side terminal 4.
  • FIG. 5 is a block diagram showing the functional configuration of the image processing device 5.
  • FIG. 6 is a flowchart showing the flow of the overall operation of each device in the rehabilitation system 1.
  • FIG. 7 is a diagram showing an operation image when the number erasing application is being executed.
  • FIG. 8 is a diagram showing an operation image when the first selection deletion application is being executed.
  • FIG. 9 is a diagram showing an operation image when the second selection erasing application is being executed.
  • FIG. 10 is a diagram showing an operation image when the spatial arrangement application is being executed.
  • FIG. 11 is a diagram showing an operation image when the maze application is being executed.
  • FIG. 12 is a diagram showing an operation image when the grid moving application is being executed.
  • FIG. 13 is a diagram showing a data structure of rehabilitation history information stored in the image processing apparatus 5.
  • FIG. 14 is a diagram showing an example of a schedule creation screen used in the schedule creation process (S103) in the doctor side terminal 2.
  • FIG. 15 is a diagram showing a flow of creating a schedule when the column of December 20 is selected in the state of FIG.
  • FIG. 16 is a diagram showing an example of a screen for selecting a rehabilitation menu on the practitioner side terminal 4.
  • FIG. 17A is a diagram showing an example of a screen for starting a rehabilitation instruction on the practitioner side terminal 4.
  • FIG. 17B is a diagram showing an example of a screen during rehabilitation on the operator side terminal 4.
  • FIG. 18 is a diagram showing an example of a screen during rehabilitation on the operator side terminal 4.
  • FIG. 19 is a diagram showing an example of the screen of the execution result of the application displayed on the practitioner side terminal 4.
  • FIG. 20 is a diagram showing an example of display of rehabilitation history information on the doctor side terminal 2.
  • FIG. 21 is a diagram showing an example of a display screen when the details of the rehabilitation history information are browsed on the doctor side terminal 2.
  • FIG. 22 is a flowchart of a schedule creation process in the doctor side terminal 2.
  • FIG. 22 is a flowchart of a schedule creation process in the doctor side terminal 2.
  • FIG. 23 is a flowchart showing a schedule download process in the practitioner side terminal 4.
  • FIG. 24 is a flowchart of a rehabilitation start instruction at the practitioner side terminal 4.
  • FIG. 25 is a flowchart showing the operation of the image processing device 5 during execution of the number erasing application.
  • FIG. 26 is a flowchart of the image drawing process in the image processing unit 50.
  • FIG. 27 is a flowchart showing a continuation of the operation of FIG.
  • FIG. 28 is a flowchart showing the operation of the image processing apparatus 5 that executes the first selection deletion application.
  • FIG. 29 is a flowchart showing the operation of the image processing apparatus 5 that executes the second selection deletion application.
  • FIG. 30 is a flowchart showing a continuation of the operation of FIG. FIG.
  • FIG. 31 is a flowchart showing the operation of the image processing apparatus 5 that executes the spatial arrangement application.
  • FIG. 32 is a flowchart showing the operation of the image processing apparatus 5 executing the maze application.
  • FIG. 33 is a flowchart showing the continuation of the operation of FIG.
  • FIG. 34 is a flowchart showing the operation of the image processing apparatus 5 executing the grid moving application.
  • FIG. 35 is a flowchart showing a continuation of the operation of FIG.
  • FIG. 36 is a flowchart showing a flow of operations between the practitioner side terminal 4 and the image processing apparatus 5 in the second embodiment.
  • FIG. 37 is a diagram showing an example of a setting screen of application setting conditions in the number erasing application on the doctor side terminal 2 and/or the practitioner side terminal 4.
  • FIG. 38 is a diagram showing an example of a setting screen of application setting conditions in the first selection deletion application on the doctor side terminal 2 and/or the practitioner side terminal 4.
  • FIG. 39 is a diagram showing an example of a setting screen of application setting conditions in the second selection deletion application on the doctor side terminal 2 and/or the practitioner side terminal 4.
  • FIG. 40 is a diagram showing an example of a setting screen of application setting conditions in the spatial arrangement application on the doctor side terminal 2 and/or the practitioner side terminal 4.
  • FIG. 41 is a diagram showing an example of a setting screen of application setting conditions in the maze application on the doctor side terminal 2 and/or the practitioner side terminal 4.
  • FIG. 42 is a diagram showing a setting screen of application setting conditions in the grid moving application on the doctor side terminal 2 and/or the practitioner side terminal 4.
  • FIG. 43 is an example of a virtual trainer displayed on the image processing device 5.
  • FIG. 44 is a flowchart showing the operation of the doctor side terminal 2 and/or the practitioner side terminal 4 when the difficulty level of the problem is automatically
  • FIG. 1 is a diagram showing an overall configuration of a rehabilitation system 1 according to the first embodiment of the present invention.
  • the rehabilitation system 1 includes a doctor side terminal 2, a server 3, a practitioner side terminal 4, and an image processing device 5.
  • the doctor side terminal 2, the server 3, and the practitioner side terminal 4 are communicably connected via a network 6.
  • the information processing device 5 and the practitioner side terminal 4 are communicably connected to each other by wireless or wire. It should be noted that the practitioner side terminal 4 and the information processing device 5 are not assumed only when they are connected in a rehabilitation facility such as a hospital (in-hospital rehabilitation). Even when the information processing terminal 5 and the information processing terminal 5 are connected via a network (such as rehabilitation at home or rehabilitation at a remote place), the rehabilitation system 1 of the present invention is assumed.
  • the doctor side terminal 2 creates a rehabilitation menu for higher brain dysfunction (hereinafter referred to as “rehabilitation menu”) for each patient and stores it in the server 3.
  • the practitioner side terminal 4 downloads the rehabilitation menu registered by the doctor side terminal 2 from the server 3.
  • the practitioner side terminal 4 instructs the image processing device 5 used by the patient to execute the rehabilitation regarding the downloaded rehabilitation menu.
  • the image processing device 5 displays an image required for rehabilitation according to the instructed rehabilitation menu.
  • the rehabilitation history information executed by the image processing device 5 is transmitted to the practitioner side terminal 4.
  • the practitioner side terminal 4 uploads the rehabilitation history information to the server 3.
  • the doctor side terminal 2 visually displays the rehabilitation implementation status of the patient.
  • the rehabilitation system 1 is a system that realizes the determination of the rehabilitation menu by the doctor, the implementation of the rehabilitation on the practitioner side, and the display of the patient situation by the rehabilitation.
  • the rehabilitation system 1 of the present embodiment is described as having a single system.
  • the rehabilitation system of the present invention can also be operated by incorporating it in a groupware for medical use, an electronic medical record system, or a part of other medical system. Therefore, a rehabilitation system incorporated and operating in another medical system is also included in the present invention.
  • the doctor's terminal 2 is a computer device used by a doctor, and its name is not particularly limited as long as it is an information processing device such as a personal computer, a workstation, a tablet terminal, or a smartphone.
  • each doctor may use a different doctor side terminal 2.
  • one doctor side terminal 2 may be shared by a plurality of doctors, and an account may be set for each doctor and used. Other than that, the doctor can use the doctor-side terminal 2 by any known method.
  • the practitioner side terminal 4 is a computer device used by a practitioner such as an occupational therapist, and if the information processing device is a personal computer, a workstation, a tablet terminal, a smartphone or the like, its name is particularly limited. is not.
  • the practitioner is a person who rehabilitates a patient, and is not limited to an occupational therapist. Including, in the present invention, it is used as a concept regardless of the presence or absence of qualification.
  • each practitioner may use a different practitioner side terminal 4, or one practitioner side terminal 4 may be shared by a plurality of practitioners. An account may be set and used each time.
  • the practitioner can use the practitioner side terminal 4 by any known method.
  • the server 3 is a computer device that executes programs for storing patient data used in the rehabilitation system 1, creating a rehabilitation schedule, and displaying rehabilitation history information. Although one server 3 is illustrated here, a plurality of servers 3 may be used to store data and execute programs. Further, the server that stores the data and the server that executes the program may exist as separate devices. Besides, the server 3 can be constructed by any known method.
  • the image processing device 5 is, for example, a head mounted display (HMD) 5a, HOLLENS (registered trademark) 5b of Microsoft (registered trademark), a device 5c such as a smartphone or a tablet terminal and goggles 5d for mounting the device, a tablet terminal, or the like. It is a touch input type display device 5e such as a smartphone.
  • HMD head mounted display
  • HOLLENS registered trademark
  • 5b of Microsoft registered trademark
  • a device 5c such as a smartphone or a tablet terminal and goggles 5d for mounting the device, a tablet terminal, or the like.
  • It is a touch input type display device 5e such as a smartphone.
  • FIG. 1 three image processing devices 5 are illustrated in FIG. 1, the number of image processing devices 5 is not limited, and each patient may own the image processing device 5, or a plurality of patients may share the image processing device 5. You may use it.
  • it may be referred to as an HMD, but it is not meant to limit the image processing device 5
  • the technology used in the image processing device 5 is any of virtual reality (VR: Virtual Reality), augmented reality (AR: Augmented Reality), and mixed reality (MR: Mixed Reality).
  • VR Virtual Reality
  • AR Augmented Reality
  • MR Mixed Reality
  • various methods of classifying virtual reality, augmented reality, and mixed reality can be considered, they will be described in the present specification as having the following meanings.
  • the image processing device 5 displays an image related to the virtual space and gives the user a perception as if the user actually exists in the virtual space.
  • the displayed image changes according to the user's movement, and the user can be perceived as if he or she were moving in the virtual space.
  • three-dimensional information of an object in the virtual space, the position and inclination of the image processing device 5, and tracking information such as the line of sight of the user are required.
  • the image in the virtual space is displayed on the image processing device 5. Become.
  • the direction detecting unit 59 is used instead of the line of sight detecting unit 59.
  • the line of sight of the user is a concept included in the direction of the user.
  • the line-of-sight detection unit 59 is a concept included in the orientation detection unit 59.
  • neck motion sensing can be used, but the present invention is not limited thereto.
  • the image of the virtual object is combined with the real image obtained by the image processing device 5, and the combined images are displayed.
  • a real image for synthesizing a virtual object is recognized, and an image of the virtual object is synthesized with the recognized real image. Therefore, in this specification, it is assumed that the image processing device 5 does not obtain tracking information such as the position and tilt of the image processing device 5 and the line of sight of the user, as in virtual reality or mixed reality.
  • this definition is merely a definition in this specification for making the explanation easy to understand, and the present invention realizes the present invention by augmented reality using an image processing apparatus capable of obtaining tracking information. Needless to say, it may be.
  • AR is mainly assumed. While the patient holds the display device 5e such as a tablet terminal, while moving the display device 5e while reflecting the surrounding real space with the camera of the display device 5e, the object in the virtual space is image-synthesized by moving the display device 5e. Composited into a spatial image.
  • the case of AR is not limited to the display device 5e.
  • the image processing device 5 displays an image as if the object exists in the recognized real space, and the user is as if the virtual object exists in the real space. Give a different perception. Further, when the mixed reality is used, the image processing device 5 can recognize the position and the inclination of the image processing device 5 in the real space, the line of sight of the user (tracking information), and together with the movement of the user in the real space, It is possible to provide a display that can give the user a perception that the virtual object remains arranged in the physical space.
  • the image processing device 5 can detect the line of sight of the user and can know which direction the user is facing. Therefore, the image processing device 5 can change the displayed image according to the orientation of the user. Furthermore, in mixed reality, it is assumed that a user's finger or hand motion is detected and a virtual object can be selected.
  • the rehabilitation system of the present invention can be realized by using not only mixed reality but also virtual reality and augmented reality.
  • tracking information Information related to the position, inclination, and line of sight of the image processing device 5 will be collectively referred to as tracking information. Since the position and the inclination of the user are detected by detecting the position and the inclination of the image processing apparatus 5, the tracking information of the image processing apparatus 5 and the tracking information of the user will be described as synonymous. To go.
  • FIG. 2 is a block diagram showing the functional configuration of the doctor side terminal 2.
  • the doctor side terminal 2 includes a control unit 21, an input unit 22, a display unit 23, a communication unit 24, and a storage unit 25.
  • the control unit 21 controls the operation of the doctor-side terminal 2 by reading a program necessary for executing the rehabilitation system 1 from the storage unit 25 and executing the program.
  • the input unit 22 is a device for operating the doctor side terminal 2, such as a keyboard, a mouse, and a touch panel.
  • the display unit 23 is a display device such as a display.
  • the communication unit 24 is a device that enables communication with the external server 3 via the network 6.
  • the storage unit 25 is a recording medium such as a memory or a hard disk.
  • patient data for each patient downloaded from the server 3 is recorded in addition to the scheduling/viewing program executed by the control unit 21.
  • a general-purpose browser program can be made to function as a scheduling and browsing program. Is. Such a technique is a well-known matter, and a detailed description thereof will be omitted here.
  • the storage of the patient data is shared by the server 3, and the patient data is temporarily stored in the storage unit 25 of the doctor side terminal 2, and the server 3 and the doctor side terminal 2 cooperate with each other.
  • a display based on the patient data temporarily stored is displayed on the doctor side terminal 2.
  • the doctor side terminal 2 may store the patient data in the storage unit 25 so as not to be temporary.
  • FIG. 3 is a block diagram showing the functional configuration of the server 3.
  • the server 3 includes a control unit 31, a communication unit 32, and a storage unit 33.
  • the control unit 31 of the server 3 executes the scheduling program and/or the history browsing program stored in the storage unit 33 in accordance with instructions from the doctor side terminal 2 and the practitioner side terminal 4 obtained via the communication unit 32. It executes and returns the execution result to the doctor side terminal 2 and the practitioner side terminal 4.
  • a user who operates the doctor side terminal 2 uses the input unit 22 to access the server 3.
  • the control unit 21 accesses the server 3 via the communication unit 24 according to the instruction from the input unit 22 and registers the rehabilitation schedule. Further, the control unit 21 downloads the patient data of the required patient and stores it in the storage unit 25.
  • the control unit 21 creates a rehabilitation menu for a patient to be treated in cooperation with a program on the server 3 in response to a user input via the input unit 22.
  • the control unit 21 causes the server 3 to store the created rehabilitation menu. Further, the control unit 21 downloads the patient data obtained from the server 3 and displays the rehabilitation history of the patient on the display unit 23.
  • the server 3 is assumed to be an embodiment that manages the schedule and the rehabilitation history information, the server 3 is simply treated as a recording device that exchanges data with the practitioner side terminal 4.
  • the doctor terminal 2 may execute programs corresponding to the scheduling program and the history browsing program.
  • the functions of the doctor side terminal 2, the server 3, the practitioner side terminal 4, and the image processing apparatus 5 may be provided somewhere in the entire system. It is not essential to be provided in each device described below.
  • the practitioner-side terminal 4 may have some of the functions that the image processing apparatus 5 is supposed to have.
  • the doctor side terminal 2 and the server 3 may have a part of the functions that the practitioner side terminal 4 has.
  • FIG. 4 is a block diagram showing a functional configuration of the operation side terminal 4.
  • the practitioner side terminal 4 includes a control unit 41, an input unit 42, a display unit 43, a communication unit 44, and a storage unit 45.
  • the control unit 41 controls the operation of the practitioner side terminal 4 by executing the rehabilitation instruction program stored in the storage unit 4.
  • the input unit 42 is a device for operating the practitioner side terminal 4, such as a keyboard, a mouse, and a touch panel.
  • the display unit 43 is a display device such as a display.
  • the communication unit 44 is a device that enables communication with the external server 3 via the network 6.
  • the communication unit 44 is a device for communicating with the image processing device 5.
  • the network 6 is not particularly limited to the type of network such as the Internet or a local area LAN. Regarding the communication between the communication unit 44 and the image processing device 5, the type of communication such as wired or wireless is not particularly limited.
  • the storage unit 45 is a recording medium such as a memory or a hard disk.
  • a rehabilitation instruction program and patient data for each patient downloaded from the server 3 are recorded.
  • the storage of the patient data is shared by the server 3, and the patient data is temporarily stored in the storage unit 45 of the practitioner side terminal 4, and is temporarily stored by the rehabilitation instruction program.
  • Patient data is uploaded to the server 3.
  • the patient data may be stored in the storage unit 45 so as not to be temporary.
  • the practitioner side terminal 4 executes the rehabilitation instruction program to instruct the image processing device 5 to execute rehabilitation, obtain rehabilitation history information from the image processing device 5, and send the rehabilitation history information to the server 3. To do.
  • patient data As the patient data, it is natural that basic information such as the patient's name, date of birth, and hospital history is stored, but in addition, "rehabilitation history information” showing the detailed history of rehabilitation, rehabilitation "Rehabilitation menu information” indicating the details of the menu and “schedule information” indicating the rehabilitation schedule are used as patient data.
  • the patient data is stored in the server 3, and the latest patient data can be accessed from the doctor side terminal 2 and the practitioner side terminal 4.
  • the patient data is properly backed up and protected so as not to be illegally obtained from the outside.
  • FIG. 5 is a block diagram showing the functional configuration of the image processing apparatus 5.
  • the image processing device 5 includes a control unit 51, an input unit 52, a display unit 53, a communication unit 54, a storage unit 55, a voice output unit 56, a space recognition unit 57, and a tracking unit 58. And a line-of-sight detection unit 59 and an image processing unit 50.
  • the control unit 51 controls the operation of the entire image processing device 5.
  • the input unit 52 is a device for operating the image processing device 5, such as a wired or wireless switch or a touch panel.
  • the image processing device 5 it is possible to recognize the user's gesture and operate the image processing device 5. Therefore, it may be considered that the camera and the image recognition processing unit (not shown) function as the input unit 52. It is possible. Further, even when the line of sight is stopped at a certain place for a certain period of time (so-called gaze), it can be said that the operation of selection is performed. Therefore, based on the information from the line-of-sight detection unit 59, the control unit 51 It can also be understood that the process of recognizing that the operation is performed is the process by the input unit 52.
  • the display unit 53 is a device for displaying the generated image.
  • the display unit 53 is a small display for the left and right eyes.
  • the background may be transparent or the background may be opaque.
  • the HOLOLENS (registered trademark) 5b for MR is a small display for the left and right eyes.
  • the background is transparent.
  • the HOLOLENS registered trademark
  • Microsoft registered trademark
  • the real space may be transmitted and perceived from the lens, or the real-time image of the real space taken by the camera may be displayed on a small display so that the real-time image can be displayed.
  • the MR may be realized by synthesizing the virtual object.
  • the information processing device 5 includes a device that realizes MR by using all known methods.
  • the communication unit 54 is a device that can communicate with at least the practitioner-side terminal 4, but may communicate with the network 6.
  • the storage unit 55 is a recording medium such as a memory.
  • an application execution program for controlling the operation of the application rehabilitation history information, a number erasing application, a first selection erasing application, a second selection erasing application, a space arrangement application, a maze application, and a grid moving application.
  • a number eraser application For the number eraser application, the first selection eraser application, the second selection eraser application, the space layout application, the maze application, and the grid-shifting application, it is sufficient if any one of them is stored, and all rehabilitation applications are stored.
  • remembering is not essential. The details of each rehabilitation application will be described in order later.
  • the image processing apparatus 5 can add the new rehabilitation application to the storage unit 55 by communication with the practitioner side terminal 4 or communication with the network 6. is there.
  • the voice output unit 56 is a speaker, earphones, or the like. In response to an instruction from the control unit 51, the voice output unit 56 outputs a correct answer sound or an incorrect answer sound of a question, a rehabilitation app execution start sound, a rehabilitation app running voice, and the like.
  • the space recognition unit 57 includes a camera, and recognizes the three-dimensional shape of the space around the image processing device 5 by using image recognition technology.
  • image recognition technology Various techniques have already been developed for recognizing a three-dimensional shape of a space by photographing with a camera, and therefore, any one of the techniques is used for recognizing the space.
  • the space recognizing unit 57 may be omitted if VR and AR are used.
  • the apps that require space recognition by the space recognition unit 57 are a space layout app, a maze app, and a grid-moving app.
  • the number erasing application and the first and second selection erasing applications can be displayed on the display unit 53 as if the objects in the virtual space are arranged in the real space without performing the space recognition processing. Is. However, after recognizing the space, even in the number erasing application and the first and second selection erasing applications, it is more accurate to arrange the objects in the virtual space.
  • the tracking unit 58 recognizes the position and inclination of the image processing device 5. Since various tracking technologies for VR and MR have already been developed, it is assumed here that any one of them is used to recognize the position and inclination.
  • the tracking unit 58 is not only structurally included inside the housing of the image processing apparatus 5, but also a sensor or the like attached to the outside of the housing may detect the position and the inclination. Good. Therefore, the image processing device 5 may realize not only the tracking by the inside-out method but also the tracking by the outside-in method. In that case, the tracking unit 58 exists outside the housing of the image processing apparatus 5, but the tracking unit 58 including the outside of the housing is regarded as the image processing apparatus 5. ..
  • the line-of-sight detection unit 59 is a device that detects the line of sight of the user who is using the image processing device 5. Since various visual axis detection techniques in VR and MR have been already developed, it is assumed here that visual axis recognition is performed using any one of these techniques. If the line-of-sight detection is regarded as part of the tracking technique, the line-of-sight detection unit 59 may be regarded as included in the tracking unit 58.
  • the image processing unit 50 generates a three-dimensional image to be displayed on the display unit 53.
  • the original data of the three-dimensional image will be called three-dimensional data.
  • the image processing unit 50 stores the three-dimensional structure of the physical space recognized by the space recognition unit 57 in the storage unit 55 as three-dimensional data.
  • the image processing unit 50 stores the three-dimensional data of the virtual object to be arranged in the storage unit 55 with the same coordinate axes as the three-dimensional data of the three-dimensional structure in the real space.
  • the image processing unit 50 also stores the three-dimensional data of the tracking information (position, inclination, and line of sight) in the storage unit 55 with the same coordinate axes as the three-dimensional data of the three-dimensional structure in the physical space.
  • the image processing unit 50 can generate an image of a virtual object that can be seen from the patient's line of sight and display it on the display unit 53. ..
  • the image processing unit 50 Since the processing load of the three-dimensional data is large, the image processing unit 50 is assumed to perform the calculation of the three-dimensional data separately from the control unit 51 here. Good.
  • the patient clears the given task while looking at the image displayed on the display unit 53.
  • FIG. 6 is a flowchart showing the flow of the overall operation of each device in the rehabilitation system 1.
  • the doctor side terminal 2 logs in to the server 3 (S101).
  • the server 3 executes the scheduling program and the history browsing program (S201).
  • the doctor side terminal 2 displays screens for creating a rehabilitation menu, managing a schedule, and displaying rehabilitation history information. After that, on the doctor side terminal 2 side, while creating the screen, rehabilitation menu creation, schedule management, and rehabilitation history information are displayed.
  • the present invention also includes an embodiment in which software is installed on the doctor side terminal 2 to perform rehabilitation menu creation, schedule management, and rehabilitation history information display, and in the case of that embodiment, a server is used. 3 mainly plays a role as a recording device for recording the schedule, the rehabilitation menu, and the rehabilitation history information.
  • the operation of the doctor side terminal 2 when the software is installed in the doctor side terminal 2 is almost the same as the operation in the case of the cloud system, and those skilled in the art can use the operation in the case of the cloud system as follows. Since it can be sufficiently implemented, detailed description is omitted.
  • the doctor-side terminal 2 selects a patient who has a rehabilitation schedule (S102). At this time, the name of the patient in charge of the doctor is transmitted from the server 3 to the doctor side terminal 2 (S202) so that the doctor side terminal 2 can select the patient. Alternatively, the doctor side terminal 2 may be searched for a patient stored in the server 3, and the patient may be selected by the doctor side terminal 2 based on the search result.
  • the doctor side terminal 2 executes the rehabilitation menu schedule creation process (S103), and the created schedule is uploaded to the server 3 (S104).
  • the server 3 stores the uploaded rehabilitation menu information and schedule information (S203).
  • the information associated with the patient data is rehabilitation history information, rehabilitation menu information, and schedule information.
  • the rehabilitation menu information includes which application to use and what is the application setting condition at that time.
  • the schedule information includes rehabilitation menu information associated with the treatment date and time.
  • the operation up to this point is typically performed by the doctor before the date and time of the operation.
  • the operation of the practitioner side terminal 4 when the treatment date and time is approaching will be described.
  • the practitioner side terminal 4 logs in to the server 3 (S301). Then, the required schedule is downloaded (S302). The practitioner side terminal 4 instructs the image processing apparatus 5 to execute the application of the rehabilitation menu registered in the downloaded schedule (S303). Although the practitioner typically gives the instruction to start this application, the patient may give the instruction.
  • the image processing device 5 receives the rehabilitation start instruction and executes the corresponding rehabilitation application (S401). Scores are made while the app is running. Further, what kind of image is seen from the line of sight of the patient is transmitted from the image processing device 5 to the practitioner side terminal 4. The image viewed by the patient is displayed on the practitioner side terminal 4 (S304). When the transmissive image processing device 5 is used, an image obtained by combining a real image captured by the camera of the image processing device 5 and a virtual object is displayed on the practitioner side terminal 4. Become.
  • the image processing device 5 transmits the rehabilitation history information to the practitioner side terminal 4 when the execution of the rehabilitation application is completed (S402).
  • the practitioner side terminal 4 receives the transmitted rehabilitation history information (S305).
  • the practitioner side terminal 4 uploads the rehabilitation history information to the server 3 automatically or in accordance with an instruction from the practitioner (S306).
  • the server 3 saves the transmitted rehabilitation history information (S204).
  • the operation of S105 may be performed after the doctor-side terminal 2 is temporarily logged out before S105 and re-logged in.
  • the doctor side terminal 2 downloads the rehabilitation history information of the selected patient and displays the rehabilitation history (S106). Then, if necessary, the doctor side terminal 2 transmits the finding input by the doctor to the server 3 so as to be associated with the rehabilitation history information (S107).
  • the server 3 associates the rehabilitation information with the finding and stores the finding (S205).
  • FIG. 7 is a diagram showing an operation image when the number erasing application is being executed.
  • the frame shown by the broken line is the entire space.
  • the entire space is a virtually created space, and a bed and a desk are virtually placed in the virtual space.
  • the entire space refers to the physical space around the patient, and the example of FIG. 7 exemplifies that the bed and the desk exist in the physical space.
  • the area indicated by the alternate long and short dash line shows the range of the field of view seen by the patient wearing the image processing device 5. Since the field of view is a part of the virtual space or the real space, the alternate long and short dash line is an area narrower than the broken line portion.
  • Numerals 1 to 13 are arranged in the virtual space or the real space by the image processing device 5 here.
  • the three-dimensional shape of the real space is recognized by space recognition and converted into three-dimensional data. Then, the image processing device 5 arranges the three-dimensional data of the virtual object on the same three-dimensional coordinates, and the display unit 53 is as if the virtual object exists in the real space that is actually visible. To display.
  • MR an image as if a virtual object is present is displayed on the real space that the user actually sees, and the real space seen by the user is different from the real space in the real space. It is a space.
  • each number is arranged on the three-dimensional data of the virtual space, and the image processing device 5 causes the image processing apparatus 5 to display the number on the display unit 53 based on the three-dimensional data after the arrangement. Display the image.
  • the image around the object is an image in the virtual space.
  • the image processing device 5 When the AR is used, the image processing device 5 combines a virtual object with an image of the real space captured by the camera, and displays the combined image on the display unit 53.
  • the periphery of the object is an image of the real space that was actually taken, and the image of the virtual object is combined with the image of the real space.
  • the user sees an image in which the image of the virtual object is combined with the image of the real space, which is different from the MR in which the actual real space is shown to the user.
  • Virtual objects are placed in the entire space.
  • the patient can search for numbers arranged in the entire space.
  • the rule is to erase numbers in order from 1
  • the line of sight is brought over the number of 1 by moving the face or the line of sight to move the line of sight. ..
  • the field of view moves to the left on the paper surface, and the image viewed by the patient becomes different. 1 can be erased by moving the line of sight on 1, operating the input unit 52, performing an erasing gesture, or staring (an action of fixing the line of sight to the object for a certain period of time).
  • the operation for selecting or deleting an object will be generically called a tap, and the tap includes at least a gesture for selecting or deleting, an operation of the input unit 52, and a gaze.
  • well-known selection or deletion methods for example, selection or deletion by voice recognition
  • the digit erasing app can be expected to improve the attention of patients suffering from higher brain dysfunction.
  • an effect of improving information processing speed, working memory, and general cognitive function was also recognized.
  • FIG. 8 is a diagram showing an operation image when the first selection deletion application is being executed.
  • the expression method of FIG. 8 is the same as that of FIG.
  • various illustrations are displayed instead of the numbers of the number erasing application.
  • the method of drawing various illustrations is the same as in the case of the number erasing application for VR, AR and MR.
  • the user selects a specified illustration and erases it. Similar to the number erasing application, the user moves his or her line of sight to bring the line of sight over the illustration to be deleted.
  • the target illustration In the example of FIG. 8A, it is assumed that “strawberry” that is diagonally above and to the left of the line of sight is the target illustration.
  • the line of sight is placed on “strawberry” and “strawberry” is tapped and erased in the same manner as the number erasing application.
  • the target is an object in the virtual space and is an object to be selected or erased.
  • the non-target refers to an object in the virtual space that is not the target of selection or deletion.
  • target to be erased is not limited to one, and multiple targets of different types may be erased.
  • the first selective deletion application can be expected to improve the alertness and/or spatial cognition of patients suffering from higher brain dysfunction.
  • the rehabilitation performed by the present inventors and the like on the actual rehabilitation site using the first selective erasing application it has been found to be involved in the attention function and the spatial cognitive function.
  • FIG. 9 is a diagram showing an operation image when the second selection deletion application is being executed.
  • the expression method of FIG. 8 is the same as that of FIG.
  • various illustrations are displayed instead of the numbers of the number erasing application.
  • the method of drawing various illustrations is the same as in the case of the number erasing application for VR, AR and MR.
  • the user selects the specified illustration and selects it. Similar to the number erasing application, the user moves his or her line of sight to bring the line of sight over the illustration to be selected. In the example of FIG. 9A, it is assumed that the “cat” to the left of the line of sight is the target illustration. As shown in FIG. 9B, the line of sight is placed on “cat” and "cat" is selected in the same manner as in the number erasing application.
  • the processing after selection is different from the first selection deletion application.
  • the illustration of the selected target changes.
  • the black illustration changes to white.
  • the way of changing is not particularly limited, and may be a change other than the color, for example, the illustration changes as if the target standing was sitting.
  • target to be selected is not limited to one, and multiple targets of different types may be selected.
  • the second selective deletion application can be expected to improve the attention and/or inhibitory power of patients suffering from higher brain dysfunction. It is assumed that attention and/or suppression will be improved, but as a result of the rehabilitation performed by the inventors at the actual rehabilitation site using the second selective deletion application, it is also involved in the spatial cognitive function. Has come to be understood.
  • the patient does not walk while sitting or standing, moves the face, searches for the target, and disappears. Or, it is premised on the usage such as selecting. However, you may use it by the method of searching for a target while walking.
  • the areas where the target and non-target are placed may be adjusted according to the degree of the patient's symptoms.
  • the target and the non-target may be set only in a narrow range of about 60 degrees around the line of sight, or conversely, the target and the non-target may be set only in a wide range of about 180 degrees. You may use the setting which arranges.
  • FIG. 10 is a diagram showing an operation image when the spatial arrangement application is executed.
  • the broken line is the entire space, as in FIG. 7.
  • the bed and the wall are virtually placed in the virtual space.
  • AR and MR in the example of FIG. 10, it is assumed that the bed exists in the real space.
  • AR the image of the wall is combined with the image of the real space where the bed exists.
  • MR it is assumed that a wall in the virtual space exists in the real space where the bed exists.
  • the area indicated by the alternate long and short dash line shows the range of the field of view seen from the patient wearing the image processing device 5, as in FIG. 7.
  • a target here, a white flower
  • a non-target here, a black flower
  • the target or non-target image is combined with the image of the wall in the image of the real space.
  • a target or a non-target is arranged and drawn on the wall in the virtual space.
  • the patient actually walks and deletes while searching for the target.
  • the displayed image changes in accordance with the current position of the image processing device 5 and the direction of the line of sight.
  • the image processing device 5 recognizes the current position and the line of sight in the real space, generates an image of the target object in the displayed virtual space, and displays it.
  • the image processing device 5 recognizes an image of the surrounding real space, recognizes a three-dimensional structure of the real space, and then displays an image of an object (wall, flower, etc.) in the virtual space. ..
  • the image processing device 5 recognizes the current position and the line of sight, generates an image in the displayed virtual space, and displays it.
  • the image processing device 5 recognizes the image captured by the camera and synthesizes a virtual object with the recognized image. For example, when synthesizing a virtual wall along the pattern of the floor in the room, an image of the virtual wall is generated to match the image of the floor pattern taken by the camera, and for each frame, By performing image combination, it is possible to provide the user with an image as if a virtual wall is placed on the floor.
  • the displayed image changes every moment according to the movement of the image processing device 5. Therefore, the user can move as if searching for the target image arranged on the wall.
  • the target (white flower) is visually recognized diagonally above and to the left of the line of sight.
  • the patient visually recognizes an image in which the wall and the flower are gradually approaching, as shown in FIG.
  • the patient aligns his line of sight with the target and taps the target in the same manner as in the example of FIG.
  • the target is erased in the same manner.
  • FIG. 10C it is shown that the patient who notices the white flower on the right side moves the face to the right side, aligns the line of sight with the white flower on the right side, and erases the target.
  • the number of walls may be one or three or more.
  • the walls may be curved rather than straight.
  • the spatial placement app can be expected to improve spatial cognition and/or information acquisition of patients suffering from higher brain dysfunction.
  • FIG. 11 is a diagram showing an operation image when the maze application is being executed.
  • the diagram shown in FIG. 11 shows the entire space.
  • VR it is assumed that doors, desks, floors, and walls for the maze are virtually placed in the virtual space.
  • AR and MR in the example of FIG. 11, it is assumed that the door, the desk, and the floor exist in the real space.
  • AR it is supposed that the image of the wall is combined with the image of the real space where the door, the desk, and the floor exist.
  • MR it is assumed that a wall in the virtual space exists in the real space where the door, desk, and floor exist.
  • each image processing device 5 in the case of VR, AR, and MR is the same as in the case of the spatial arrangement application.
  • a flag indicating the goal is placed in the maze. Further, an image showing the target is arranged in the maze.
  • the image processing apparatus 5 displays the image of the position to which the patient has moved and gives the patient an impression as if he/she entered the maze. Such image processing is similar to the case of the spatial arrangement application of FIG.
  • the image processing apparatus 5 may display a hint image on the image viewed by the patient.
  • the point indicated by an asterisk indicates the target, and is an image that encourages the patient to go to the goal through the target point.
  • whether to make a goal without passing the target or to make a goal without passing the target is only a matter to be properly designed.
  • the image processing device 5 recognizes whether or not it has moved to the target point.
  • the image processing device 5 recognizes whether the recognized position information is a target point or a goal point, and scores it.
  • the image processing device 5 recognizes an image captured by the camera, and the image processing device 5 determines whether or not the recognized image is an image obtained at a target point or a goal point. Is possible.
  • the scoring criterion may simply be whether or not the goal is reached, and the target need not be used as a problem.
  • the maze app can be expected to improve spatial cognition and/or executive function of patients with higher brain dysfunction.
  • FIG. 12 is a diagram showing an operation image when the grid moving application is being executed.
  • the diagram shown in FIG. 12 is the entire space.
  • a door, a desk, a floor, and a grid for movement are virtually placed in a virtual space.
  • AR and MR in the example of FIG. 12, it is assumed that the door, the desk, and the floor exist in the physical space.
  • AR the image of the square is combined with the image of the real space where the door, the desk, and the floor exist.
  • MR it is assumed that squares in the virtual space exist in the real space where the door, desk, and floor exist.
  • each image processing device 5 in the case of VR, AR, and MR is the same as in the case of the spatial arrangement application.
  • the grid indicating the north, south, east, and west is displayed by the grid moving application.
  • the first instruction is "Stand on Start "S”. ] Is displayed.
  • the patient moves to the point “S”.
  • the image processing device 5 recognizes whether or not it has moved to the target point.
  • the image processing device 5 recognizes whether the recognized position information is the target point (start point or point where an instruction is given). , Grade.
  • scoring is possible by recognizing the image captured by the camera of the image processing device 5 and determining whether or not the recognized image is an image obtained at the target point. Has become.
  • the image processing device 5 Upon reaching the start point, the image processing device 5 gives an instruction to move the grid as the next instruction. In the example of FIG. 12B, a movement instruction of “3 west, 4 south, 1 east” is issued. The image processing device 5 similarly recognizes whether or not the target point has been reached, and marks it.
  • the grid-moving app can be expected to improve the executive function and/or memory of patients suffering from higher brain dysfunction.
  • scoring standard for each application does not particularly limit the present invention. For example, if it is a number erasing application, a first and second selection erasing application, or a spatial arrangement application, points will be added every time a target is erased or selected, and if an incorrect tap is made, points will be deducted, Score points should be scored with the time to clear as bonus points. In the case of a maze application, it is advisable to add points each time the target point is reached and score the score by using the time until reaching the goal as bonus points. If it is a grid application, it is good to score the score based on the time required to move to the designated point. Needless to say, these scoring criteria are merely examples, and other scoring methods may be used.
  • FIG. 13 is a diagram showing a data structure of rehabilitation history information stored in the image processing apparatus 5.
  • a patient is managed for each attending physician, and the type of application used and the usage mode of the application for each patient (here, the measurement mode is “1” and the training mode is “2”). ), the date and time of rehabilitation treatment, the practitioner, the score of the app, the achievement history (tap time, correctness, etc.) that shows how the target was achieved, the movement history of the viewpoint position, etc. as rehabilitation history information.
  • the storage unit 55 of the image processing apparatus 5 As an option, a moving image that the patient was watching at the time of rehabilitation may be stored.
  • the information is information on the movement of the patient.
  • FIG. 13 merely shows an example of the data structure of the rehabilitation history information, and does not limit the present invention.
  • the data structure of the rehabilitation history information may be any structure as long as the data allows the history of rehabilitation to be known.
  • FIG. 14 is a diagram showing an example of a schedule creation screen used in the schedule creation process (S103) on the doctor side terminal 2.
  • FIG. 14A shows the case before the schedule of the patient “Ichiro Tanaka” on December 20, 2018 is created.
  • FIG. 15 is a diagram showing a flow of creating a schedule when the column of December 20 is selected in the state of FIG. 14(a).
  • a screen for selecting the rehabilitation schedule is launched.
  • you select the pull-down menu you can select an existing menu created in the past.
  • "Tanaka 1" and “Tanaka 2" are assumed to be existing menus.
  • the flow of creating a new menu "Tanaka 3" is shown.
  • FIG. 15(a) Selects the "+” button in Fig. 15(a) to open the menu edit screen (Fig. 15(b)).
  • a new menu name is input on the screen of FIG. 15B (here, “Tanaka 3”), and an application to be used can be selected.
  • an application addition screen shown in FIG. 15C is launched. There are tabs for inspection mode and training mode, and you can select an app that is effective for a function with a disability for each mode tab.
  • App can be selected for each failure.
  • the apps that are effective for each failure may be duplicated. That is, each application is associated with at least one obstacle that is expected to be improved by executing the application.
  • FIG. 15D is a screen after selecting an application. Here, it is shown that the applications of “number deletion”, “first selection deletion”, and “second selection deletion” are selected in the menu “Tanaka 3”. Then, by pressing the save button, the menu “Tanaka 3" is saved and added to the menu on December 20 (FIG. 14(b)).
  • FIGS. 14 and 15 are merely examples and do not limit the present invention.
  • the present invention includes that the person skilled in the art creates the schedule menu by using any method known to those skilled in the art.
  • a typical menu may be selected by default.
  • FIG. 16 is a diagram showing an example of a screen for selecting a rehabilitation menu on the practitioner side terminal 4.
  • FIG. 16A shows a basic screen.
  • the basic screen has buttons for "start inspection (schedule)", “start inspection (spot)", “download rehabilitation menu”, and “send rehabilitation result”.
  • the “inspection (spot)” is a button used in the second embodiment, and therefore its explanation is omitted here.
  • the practitioner presses "Download Rehabilitation Menu” to execute the schedule download process (S302).
  • the practitioner side terminal 4 is set to download the rehabilitation menu executed on the day of downloading.
  • the rehabilitation menu may be downloaded by designating the treatment date or the patient.
  • FIG. 16B is a diagram showing an example of the download screen of the rehabilitation menu.
  • the rehabilitation menu to be implemented today can be downloaded from the server 3.
  • the already downloaded rehabilitation menu is displayed in the "Downloaded rehabilitation menu”.
  • the details of the menu are displayed in the "Details of rehabilitation menu” column. In this way, first, the rehabilitation menu is downloaded, and the practitioner prepares for rehabilitation execution.
  • the screen shown in FIG. 17A shows a state in which the practitioner “Patent Goro” executes the menu “Tanaka 2” using the image processing device 5 “Terminal A”.
  • details of the application are displayed on the screen as shown in FIG.
  • the display content is just an example, here, detailed settings when the “number erasing application” is used are displayed.
  • the detailed items are "color of ball (a ball that displays a number)", “number of balls”, “character size”, “tip display grace (grace time until hint display)”, “ Setting range (how many angles are displayed around the line of sight), “Mode (measurement mode or training mode)", “Erase method (gesture, gaze, tap, etc.)”, “Limit” Time (time limit for clearing)”.
  • the measurement mode is a mode in which a predetermined problem is repeatedly asked in order to measure the outcome of rehabilitation.
  • the predetermined problem is not limited to one and may be a plurality of patterns.
  • the training mode is a mode for asking questions of various patterns and obtaining results of rehabilitation. In the first embodiment, in the training mode, the problem is randomly generated.
  • the screen example shown in FIG. 17A is merely an example and does not limit the present invention.
  • FIG. 17B is a diagram showing an example of a screen displayed on the terminal 4 on the practitioner side during rehabilitation.
  • the image that the patient actually sees is displayed in the “patient appearance” column.
  • the image displayed in the "Patient's appearance” column is an image in a virtual space in the case of VR, and a virtual object is combined with an image in the real space in the case of AR and MR. It is an image.
  • the line of sight is indicated by a black circle, for example.
  • the next target is displayed as displayed as "Next is number 1.” If you press "Cancel”, you can stop the rehabilitation.
  • a hint for the next target is displayed on the image processing device 5.
  • An example of the hint is an arrow indicating the position of the next target.
  • the line of sight when the line of sight is located above the target, the line of sight changes to, for example, a double circle.
  • the target is erased as shown in FIG. 18(a).
  • the screen examples during rehabilitation on the practitioner side terminal 4 shown in FIGS. 17(b) to 18(b) are merely examples and do not limit the present invention. Further, here, only the case of the number erasing application is illustrated, but similarly for the other applications, the image viewed by the patient may be displayed on the practitioner side terminal 4.
  • the images seen from the line of sight of the patient as shown in FIGS. 17B to 18B are simultaneously delivered from the practitioner side terminal 4 to the doctor side terminal 2 via the network 6 and the server 3. You may do it. As a result, the doctor side terminal 2 can also grasp the rehabilitation situation from a remote place in almost real time.
  • the image processing device 5 sequentially stores the rehabilitation history information.
  • FIG. 19 is a diagram showing an example of the screen of the execution result of the application displayed on the practitioner side terminal 4.
  • the practitioner side terminal 4 displays a score (here, 47 points) and a tap history.
  • the tap history includes a tap time and a required time to reach one tap, a tap target (target or non-target) number, correctness, and the like.
  • the practitioner side terminal 4 may display the tap S history suitable for each application for each application. Further, the practitioner's terminal 4 can confirm the setting contents of the application (setting confirmation).
  • the practitioner's terminal 4 stores the rehabilitation history information obtained from the image processing device 5, and the practitioner presses “send rehabilitation result” shown in FIG. 16A to transmit the rehabilitation history information. (S306). However, the practitioner side terminal 4 may automatically transmit the rehabilitation history information to the server 3 without the action of the practitioner. As for the rehabilitation history information, information on a plurality of patients may be collectively transmitted, or may be transmitted for each patient.
  • the doctor side terminal 2 can display the results of rehabilitation in a visually easy-to-understand manner based on the rehabilitation history information downloaded from the server 3.
  • FIG. 20 is a diagram showing an example of display of rehabilitation history information on the doctor side terminal 2.
  • each application is associated with at least one obstacle that is expected to be improved by implementing the application, and a functional obstacle such as effective spatial cognition for rehabilitation is determined for each application.
  • a number erasing app is effective for attention
  • a first selection erasing app is effective for attention and/or spatial cognition
  • a second selection erasing app is caution.
  • a doctor can easily grasp the current degree of functional disorder of a patient by graphing the score for each functional disorder. For example, in the example shown in FIG. 20A, it can be seen at a glance that the deterrent power and the memory power are extremely lowered.
  • the graph is represented by the radar type here, any known graph can be used as the graph to be used, and the kind of the graph does not limit the present invention.
  • FIG. 20(b) by displaying the score for each functional disorder in a time-series graph, the rehabilitation outcome of the patient can be confirmed.
  • FIG. 20B it is possible to confirm that the scores for the respective functional disorders tend to increase every day, so it can be said that the results of rehabilitation have come out.
  • a line graph is used here, any known graph can be used as the graph to be used, and the type of graph does not limit the present invention.
  • a plurality of applications may be associated with one failure, but in that case, using the average value or weighted average value of the scores of the multiple applications corresponding to the failure, The score is displayed.
  • FIG. 21A is a diagram showing an example of a display screen when the details of the rehabilitation history information are browsed on the doctor side terminal 2.
  • the doctor side terminal 2 displays the treatment date, the application used, the mode, the practitioner, and the score for each patient. Further, when the details of FIG. 21A are selected, it is possible to check the details of the rehabilitation during application execution as shown in FIG. 21B.
  • the movement of the patient in the case of the number erasing application is reproduced and displayed. If the doctor confirms such a history of movements of the patient, it is possible to diagnose what kind of disorder the patient has.
  • the movements of the patient can be sequentially reproduced by pressing the reproduction button, but it is not essential.
  • the moving image displayed on the practitioner side terminal 4 at the time of rehabilitation of the patient is stored in the server 3 and downloaded and displayed on the doctor side terminal 2.
  • the display as shown in FIG. 21B may be performed on the practitioner side terminal 4.
  • FIG. 22 is a flowchart of a schedule creation process in the doctor side terminal 2.
  • the control unit 21 of the doctor side terminal 2 reads the scheduling/browsing program from the storage unit 25 and executes it.
  • the control unit 21 of the doctor side terminal 2 causes the display unit 23 to display a display for receiving the designation of the treatment date, and receives the designation of the treatment date from the input unit 22 (S501).
  • the control unit 21 receives the designation of the treatment day”.
  • the description of the relationship between the display unit 23 and the input unit 22 is omitted (the same applies to the flowcharts in FIG. 23 and subsequent figures).
  • the control unit 21 saves information in the storage unit 25 it is simply expressed as “the control unit 21 saves information” to avoid redundant description (from FIG. 23 onward). The same applies to the flowchart in.
  • control unit 21 accepts either menu selection or creation (S502).
  • control unit 21 When the selection of the menu is accepted, the control unit 21 causes the existing menu to be selected based on the rehabilitation menu information (S503), associates it with the treatment date, and saves it as schedule information (S504).
  • the control unit 21 causes the display unit 23 to display a screen for creating the menu (S505).
  • the control unit 21 receives the menu name (S506).
  • the control unit 21 causes the application to be used to be selected (S507).
  • the control unit 21 adjusts the application setting condition as needed (S508).
  • the operation of S508 is optional, and is an operation performed if the doctor considers it necessary.
  • the control unit 21 saves the created menu as a new menu as rehabilitation menu information, further associates the treatment date, and saves it as schedule information (S504).
  • the control unit 21 uploads the stored rehabilitation menu information and/or schedule information to the server 3 via the communication unit 24 (S104 in FIG. 6).
  • FIG. 23 is a flowchart showing a schedule download process at the practitioner side terminal 4. As a premise, it is assumed that the control unit 41 of the practitioner side terminal 4 reads the rehabilitation processing program from the storage unit 45 and executes it.
  • the control unit 41 of the practitioner side terminal 4 requests the server 3 to download the rehabilitation menu information and schedule information via the communication unit 44 in response to an instruction from the user (S601).
  • the control unit 41 downloads the rehabilitation menu information and schedule information for the current day (S602) and saves them (S603). It should be noted that here, it is assumed that only the current day's portion is downloaded, but the present invention is not limited to this, and it goes without saying that a plurality of days' worth, a designated day's worth, etc. may be downloaded.
  • FIG. 24 is a flowchart of a rehabilitation start instruction at the practitioner side terminal 4. As a premise, it is assumed that the control unit 41 of the practitioner side terminal 4 reads the rehabilitation processing program from the storage unit 45 and executes it.
  • the control unit 41 of the practitioner side terminal 4 selects a practitioner (S701). Next, the control unit 41 causes the selected practitioner to select the rehabilitation menu of the patient in charge (S702). Next, the control unit 41 causes the image processing device 5 to be used to be selected and starts communication with the selected image processing device 5 (S703). Here, the control unit 41 accepts the adjustment of the application setting condition as appropriate (S704). When the preparation is completed, the control unit 41 instructs the image processing device 5 to execute the application (S705).
  • the image processing apparatus 5 executes the instructed application and the rehabilitation is performed.
  • the operation of the image processing device 5 in each application will be described below.
  • FIG. 25 is a flowchart showing the operation of the image processing apparatus 5 while executing the number erasing application.
  • the control unit 51 of the image processing apparatus 5 reads and executes the application execution program, and executes the application instructed by the operator side terminal 4 under the instructed setting condition. Further, as a premise, the operation shown in FIG. 25 is assumed to be in the case of MR, but the operation in the case of VR and AR will be appropriately described.
  • the control unit 51 displays a countdown display on the display unit 53, and gives time for the user to turn to the position at which the application is executed (S801). Note that the countdown process is not essential, and the position of the image processing device 5 when the execution of the application starts may be set as the start position, or the start position may be determined in accordance with the user's tap input or the like. ..
  • the space recognition unit 57 recognizes the surrounding three-dimensional space using the built-in camera and converts it into three-dimensional data (S802).
  • the tracking unit 58 recognizes the position and inclination of the image processing device 5 (S803).
  • the control unit 51 grasps the position of the image processing device 5 in the three-dimensional space by the processes of S802 and S803 and recognizes at which position in the three-dimensional space the image processing device 5 exists.
  • the processing for space recognition and the processing for tracking are also included in the present invention when the OS of the image processing apparatus 5 performs them.
  • the spatial recognition processing is not limited to the image recognition by the built-in camera, and the present invention is also applicable to the case where a depth camera, an infrared sensor, laser irradiation, or other various sensors or detectors are used. included.
  • control unit 51 In the case of VR, the control unit 51 generates three-dimensional data of the virtual space in S802, recognizes the position and the inclination of the image processing device 5 in S803, and determines where the image processing device 5 is located in the virtual space. Recognize something.
  • step S802 and step S803 the control unit 51 captures an image of the surrounding area and determines the area in which the problem is combined.
  • the control unit 51 creates a question for erasing numbers (S804).
  • the problem generation process will be described in detail.
  • the control unit 51 generates a question based on the application setting condition.
  • the mode is the measurement mode
  • the fixed problem is placed on the three-dimensional data.
  • the mode is the training mode
  • randomly generated problems are placed on the three-dimensional data.
  • the range to be arranged is the setting range (angle about the line of sight) specified in the application setting conditions. Other problems will be generated based on the application setting conditions such as the target color, number, and size.
  • the control unit 51 arranges the generated problem on the three-dimensional data (S805). After that, the execution of the number erasing application will proceed, but the drawing processing by the image processing unit 50 is performed in parallel with the execution of the application (S806).
  • FIG. 26 is a flowchart of image drawing processing in the image processing unit 50. Since the image drawing process requires a high speed and a large amount of calculation, it is assumed here that the process is executed by the image processing unit 50 different from the control unit 51. Needless to say, the control unit 51 may execute the process depending on the situation.
  • the image processing unit 50 detects the position and the inclination of the image processing device 5 on the three-dimensional data based on the information from the tracking unit 58 (S901). Next, the direction of the line of sight on the three-dimensional data is detected based on the information from the line-of-sight detection unit 59 (S902). Next, the image processing unit 50 arranges the object in the virtual space on the three-dimensional data according to the current position and inclination of the image processing device 5 and the direction of the line of sight (S903), and displays the image on the display unit 53. Is determined and the image is displayed (S904). By performing such processing for each frame, it is possible to display on the display unit 53 a display as if a virtual image exists in the physical space in accordance with the movement of the image processing device 5. Becomes
  • the image processing unit 50 is the same as in the case of the above MR, except that the display unit 53 displays an image in which an object is arranged on the image of the virtual space.
  • the image processing device 5 recognizes the image of the real space captured by the image processing device 5, and the image processing device 50 synthesizes the object in the virtual space.
  • FIG. 27 is a flowchart showing the continuation of the operation of FIG.
  • the control unit 51 determines whether or not the line of sight and the target overlap (S1001). If they do not overlap, the control unit 51 continues drawing the image showing the line of sight (S1002). On the other hand, in the case of overlapping, the control unit 51 changes the display of the image showing the line of sight to the image showing overlapping (S1003).
  • the control unit 51 can determine the overlap by comparing the position of the line of sight with the target position.
  • the control unit 51 determines whether or not the fingertip of the patient overlaps the target and whether the patient directly taps the display of the tablet terminal 5e (finger). It is determined whether or not the tap is performed by determining whether or not the position is touched by touching, etc.) with image recognition or a touch sensor.
  • the control unit 51 determines whether it is correct or incorrect, and when the answer is correct, the target is erased from the three-dimensional data and a display indicating that the target is erased is displayed (S1005). If the answer is incorrect, the control unit 51 causes the display unit 53 to display a message indicating that the answer is incorrect (S1005).
  • the tap causes the control unit 51 to store the rehabilitation history information in the storage unit 55 (S1006).
  • the rehabilitation history information is stored for each erasing operation.
  • the control unit 51 determines whether or not all the targets have disappeared and the problem has been cleared (S1007). When the problem has not been cleared, the control unit 51 returns to the operation of S1001. On the other hand, when the problem can be cleared, the control unit 51 scores the score based on a predetermined scoring standard (S1008). The score is stored in the storage unit 55 as rehabilitation history information. Then, the control unit 51 transmits the rehabilitation history information stored in the storage unit 55 to the practitioner side terminal 4 via the communication unit 54 (S1009).
  • the method for storing the rehabilitation history information is not particularly limited.
  • the image processing device 5 saves information such as the position and the line of sight at each predetermined time, and the rehabilitation history information together with the score. As an example, the information may be transmitted to the practitioner side terminal 4, but is not limited thereto. The image processing device 5 may also transmit the rehabilitation history information to the practitioner side terminal 4 at regular intervals.
  • FIG. 28 is a flowchart showing the operation of the image processing apparatus 5 that executes the first selection deletion application.
  • the precondition here is the same as that of the case of FIG. Further, in FIG. 28, the same operations as those in FIG. 25 are designated by the same reference numerals, and only different points will be described.
  • the first selective erasing application does not matter the order of erasing the target. Therefore, in the correctness determination of S1005 in the flowchart of FIG. 27, which is a continuation of FIG. 28, if a target (correct answer target) is selected and deleted, it is determined as a correct answer, and scoring is performed regardless of the order of deletion.
  • FIG. 29 is a flowchart showing the operation of the image processing apparatus 5 that executes the second selective deletion application.
  • FIG. 30 is a flowchart showing a continuation of the operation of FIG. The precondition here is the same as that of the case of FIG. 29 and 30, the same operations as those in FIGS. 25 and 27 are designated by the same reference numerals, and only different points will be described.
  • the second selective erasing application does not matter the order of erasing the target. Unlike the first selection deletion application, the second selection deletion application changes the display of the target when the correct target is selected, but does not disappear. In addition, the second selection erasing application is incorrect if the target whose display is changed is selected. It should be noted that when a target other than the correct answer is selected, the score may not be affected at all, or the score may be affected as an incorrect answer, but it is not limited thereto. Therefore, when the target is selected in the correctness determination of S1005b in the flowchart of FIG. 30 which is a continuation of FIG. 29, the control unit 51 changes the display of the target and marks it as the correct answer without questioning the order of deletion. ..
  • FIG. 31 is a flowchart showing the operation of the image processing apparatus 5 that executes the spatial arrangement application.
  • the precondition here is the same as that of the case of FIG.
  • the same operations as those in FIG. 25 are designated by the same reference numerals, and the description thereof will be omitted.
  • the control unit 51 causes the display unit 53 to display a virtual passage according to the application setting conditions (S1101). ..
  • the virtual passage is a mark for displaying the virtual wall, and the position of the virtual wall is determined by determining the position of the virtual passage.
  • the position of the virtual passage is adjusted accordingly. If the virtual passage is arranged so as to overlap the obstacle in the real space, the patient cannot walk in the real space, so the patient displays the virtual passage in the area where the obstacle does not exist. Thus, the position of the image processing device 5 is adjusted.
  • tapping is performed by the patient.
  • the control unit 51 determines the position of the virtual passage (S1102).
  • the control unit 51 reflects the data indicating the virtual passage on the three-dimensional data.
  • the operations of S1101 to S1102 are the same for MR, VR, and AR. That is, in the case of MR, the control unit 51 displays the virtual passage so as to overlap with the real space, in the case of VR, the control unit 51 displays the virtual passage in the virtual space, and in the case of AR, the control is performed.
  • the unit 51 may combine the virtual passage with the captured image of the physical space and display it.
  • control unit 51 generates three-dimensional data of the virtual wall surface along the virtual passage according to the application setting conditions (S1103).
  • the control unit 51 generates a problem of deciding the position of the target so that the target is arranged on the virtual wall surface in accordance with the application setting condition (S1104).
  • the control unit 51 fixedly determines the position of the target in the measurement mode, and randomly determines the position of the target in the training mode.
  • the control unit 51 arranges the generated question on the three-dimensional data (S805).
  • the image processing unit 50 executes the operation of FIG. 26 (S806) in parallel with the scoring of the question.
  • the score of the problem is basically the same as the operation of the first selection deletion application (Fig. 27). Unlike the number erasing application, in the operation of S1005, the order of target erasing does not matter.
  • FIG. 32 is a flowchart showing the operation of the image processing apparatus 5 executing the maze application.
  • FIG. 33 is a flowchart showing the continuation of the operation of FIG. The precondition here is the same as that of the case of FIG. 32 and 33, the same operations as those in FIGS. 25 and 27 are designated by the same reference numerals, and the description thereof will be omitted.
  • the control unit 51 causes the display unit 53 to display virtual squares according to the application setting conditions (S1201). ).
  • the virtual grid is a mark for displaying a virtual wall for the maze, and the position of the virtual wall is determined by determining the position of the virtual grid.
  • the positions of the virtual squares are adjusted accordingly. If the virtual grid is placed so as to overlap the obstacle in the real space, the patient cannot walk in the real space, so the patient displays the virtual grid in the area where the obstacle does not exist. As described above, the position of the image processing device 5 is adjusted.
  • the control unit 51 determines the position of the virtual square, that is, the position where the maze is arranged (S1202). When the position of the virtual maze is determined, the control unit 51 reflects the data indicating the virtual square on the three-dimensional data.
  • S1201 to S1202 is the same for MR, VR, and AR. That is, in the case of MR, the control unit 51 displays the virtual squares so as to overlap the real space, in the case of VR, the control unit 51 displays the virtual squares in the virtual space, and in the case of the AR, The control unit 51 may display the image of the real space being photographed by combining the virtual squares.
  • control unit 51 generates data of the virtual wall surface for the maze along the virtual grid according to the application setting conditions (S1203).
  • the control unit 51 generates a problem of deciding the position of the target so that the target is arranged on the virtual square according to the application setting condition (S1204).
  • the control unit 51 fixedly determines the position of the target in the measurement mode, and randomly determines the position of the target in the training mode.
  • the control unit 51 arranges the generated question on the three-dimensional data (S805).
  • the image processing unit 50 executes the operation of FIG. 26 (S806) in parallel with the scoring of the question.
  • the control unit 51 grasps the current position of the image processing device 5 based on the information from the space recognition unit 57, and changes the display of the grid of the current position (for example, changes the color of the grid) ( S1301). Next, the control unit 51 determines whether or not the current square position is the target position (S1302). When the current position is not the target position, the control unit 51 returns to the operation of S1301.
  • control unit 51 can determine the arrival at the target position by comparing the current position with the target position. In the case of AR, the current position is not recognized, so in S1301 and S1302, the control unit 51 recognizes the image around the image processing apparatus 5 and determines whether or not the target position has been reached. I will.
  • the control unit 51 When the current position is the position of the target, the control unit 51 erases the target (S1303) and reflects it in the rehabilitation history information (S1304). Next, the control unit 51 determines whether all the targets have disappeared (S1305). When all the targets have not disappeared, the control unit 51 returns to the operation of S1301. When all the targets have disappeared, the control unit 51 continues the process until the current position reaches the goal point (S1306), and when the current position reaches the goal point, marks (S1008) and rehabilitation history information is transmitted (S1009). Proceed to.
  • control unit 51 determines that the target has been cleared and marks it. May be. In that case, the control unit 51 may reflect the fact that the target has not disappeared in the scoring result by, for example, deducting it, but the present invention is not limited thereto.
  • FIG. 34 is a flowchart showing the operation of the image processing device 5 executing the grid moving application.
  • FIG. 35 is a flowchart showing a continuation of the operation of FIG. The precondition here is the same as that of the case of FIG.
  • the same operations as those in FIGS. 25, 27, 32, and 33 are designated by the same reference numerals, and the description thereof will be omitted.
  • the positions of virtual squares are determined up to S1202, as in FIG. 32.
  • the control unit 51 generates data for virtual squares.
  • the image processing unit 50 reflects the data indicating the virtual grid on the three-dimensional data (S1401).
  • the control unit 51 generates a question according to the application setting condition (S1402).
  • the problem generated here is a problem indicating the start position and the moving direction.
  • the control unit 51 fixedly determines the position of the target in the measurement mode, and randomly determines the position of the target in the training mode.
  • the control unit 51 proceeds to the clear determination operation of FIG. 35 based on the generated problem.
  • the control unit 51 changes the display of the square at the current position (S1301).
  • the control unit 51 displays the start position on the square (S1501).
  • the control unit 51 determines whether or not the current position has reached the start position (S1502).
  • the control unit 51 displays a problem (S1503).
  • the control unit 51 determines whether or not the clear position designated by the problem has been reached (S1504). Problems are displayed until the clear position is reached.
  • the control unit 51 proceeds to scoring (S1008) and transmission of rehabilitation history information (S1009).
  • the rehabilitation history information is stored and the rehabilitation history information is stored. It can be shared at the practitioner side terminal 4 and the doctor side terminal 2. Therefore, it becomes easier for doctors and practitioners to understand the status of rehabilitation of patients, and as a result, it is possible to construct an appropriate rehabilitation menu.
  • an image processing device for augmented reality by generating a problem as if an image of a virtual object used for rehabilitation of higher brain dysfunction exists in the real space, the patient can The risk of falling into the situation of so-called VR sickness and falls is reduced. Therefore, the patient can safely perform rehabilitation without feeling uncomfortable.
  • the second embodiment shows the operation in the case of “starting inspection (spot)” shown in FIG.
  • the rehabilitation menu is decided according to the schedule created by the doctor side terminal 2.
  • the doctor may instruct the practitioner about the rehabilitation policy without using the rehabilitation system 1 by using another means (oral, electronic mail, groupware, paper, etc.). Therefore, in the rehabilitation system 1 of the present invention, the practitioner can independently perform a rehabilitation by forming a rehabilitation menu.
  • FIG. 36 is a flowchart showing a flow of operations between the practitioner side terminal 4 and the image processing apparatus 5 in the second embodiment.
  • the practitioner side terminal 4 selects an application to be used (S1601), and selects the image processing apparatus 5 to be used (S1602).
  • the practitioner side terminal 4 adjusts the rehabilitation setting condition in accordance with the practitioner's instruction (S1603).
  • the practitioner side terminal 4 issues an application execution instruction to the image processing apparatus 5 in response to the instruction from the practitioner (S1604).
  • the image processing device 5 performs the application execution process in the same manner as in the first embodiment (S1605).
  • the practitioner side terminal 4 displays the line-of-sight image of the patient (S1606).
  • the image processing device 5 transmits the rehabilitation history information to the practitioner side terminal 4 (S1607).
  • the practitioner side terminal 4 receives the rehabilitation history information (S1608) and stores it (S1609).
  • the practitioner side terminal 4 stores the rehabilitation history information in association with the patient.
  • the practitioner side terminal 4 can upload the rehabilitation history information to the server 3.
  • the doctor side terminal 2 can download the rehabilitation history information carried out at the spot from the server 3.
  • the rehabilitation menu can be specified also from the practitioner side terminal, the practitioner can flexibly perform rehabilitation.
  • FIG. 37 is a diagram showing an example of a setting screen of application setting conditions in the number erasing application on the doctor side terminal 2 and/or the practitioner side terminal 4.
  • the number erasing application can adjust the target color, number, character size, hint display grace period, setting range, mode, erasing method, time limit, and the like.
  • FIG. 38 is a diagram showing an example of a setting screen of application setting conditions in the first selection deletion application on the doctor side terminal 2 and/or the practitioner side terminal 4.
  • the first selective erasing application for example, the type and number of correct answer targets, the type and number of incorrect answer targets, the setting range, the mode, the erasing method, the time limit, etc. can be adjusted.
  • FIG. 39 is a diagram showing an example of a setting screen of application setting conditions in the second selection deletion application on the doctor side terminal 2 and/or the practitioner side terminal 4.
  • the type and number of correct targets, setting range, mode, deletion method, time limit, etc. can be adjusted.
  • FIG. 40 is a diagram showing an example of a setting screen of application setting conditions in the spatial arrangement application on the doctor side terminal 2 and/or the practitioner side terminal 4.
  • the type of wall in the spatial arrangement application, the type of wall, the length of the road, the width of the road, the minimum value of the height of the wall, the maximum value of the height of the wall, the type and number of the correct answer targets, and the incorrect answer targets. You can adjust type, number, mode, erasing method, time limit, etc.
  • FIG. 41 is a diagram showing an example of a setting screen of application setting conditions for the maze application on the doctor side terminal 2 and/or the practitioner side terminal 4. As shown in FIG. 41, in the maze application, it is possible to adjust the mode, the number of cells in the width of the maze, the number of cells in the depth, the width of the passage, the height of the wall, the type and number of correct targets, the time limit, and the like. ..
  • FIG. 42 is a diagram showing a setting screen of application setting conditions in the grid moving application on the doctor side terminal 2 and/or the practitioner side terminal 4.
  • the number of width cells, the number of depth cells, the number of movements (how many times to move to a target point), and the number of repetitions (how many times in total do problems occur? ), stoppable execution time (time for which one square can be stopped), mode, time limit, etc. can be adjusted.
  • a virtual trainer may be displayed in the application execution program executed by the image processing device 5.
  • FIG. 43 is an example of a virtual trainer displayed on the image processing device 5.
  • the image processing device 5 causes the display unit 53 to display the avatar image of the virtual trainer.
  • the virtual trainer outputs words of encouragement and words that serve as hints, in the form of letters or voice.
  • FIG. 44 is a flowchart showing the operation of the doctor side terminal 2 and/or the practitioner side terminal 4 when the difficulty level of the problem is automatically adjusted.
  • the difficulty level is set and the problem corresponding to the weak point is performed by the practitioner side terminal 4, but may be performed by the doctor side terminal 2.
  • the patient may perform rehabilitation at home or the like by using the image processing devices 5c and 5e such as smartphones and tablet terminals. In such cases, virtual trainers are useful.
  • the automatic adjustment of the difficulty level and the creation of the problem corresponding to the weakness as shown in FIG. 44 may be performed by the image processing device 5 or the server 3. That is, the present invention does not limit which device performs the adjustment of the difficulty level.
  • the practitioner side terminal 4 reads the patient attribute data (S1901), the previous last result data of the corresponding patient (S1902), and the previous result data (S1903). Then, the practitioner side terminal 4 compares the result data of the previous time with the result data of the previous time, and determines whether or not the result is good (S1904).
  • the practitioner side terminal 4 sets the difficulty level higher than the previous grade (S1905). If the previous grade and the grade before the previous grade are the same, the practitioner side terminal 4 sets the difficulty level to the same as the previous grade (S1906). If the previous grade is lower than the previous grade, the practitioner side terminal 4 sets the difficulty level lower than the previous grade (S1907).
  • the difficulty level can be set by the number of targets, the arrangement range, and the like. However, the setting of the difficulty level is an example and does not limit the present invention.
  • the practitioner side terminal 4 determines whether or not there is a problem with the line-of-sight history (S1908).
  • the problem with the line-of-sight history is, for example, whether or not there are many incorrect answers regarding the selection and deletion of the target on the right side.
  • the operation of S1906 may be automatically judged by the practitioner side terminal 4, or may be manually judged by the practitioner or a doctor.
  • the practitioner side terminal 4 selects a standard placement logic (S1909).
  • the practitioner side terminal 4 selects the placement logic that strengthens the weak points (S1910).
  • a standard placement logic for example, a logic that randomly places targets may be considered.
  • the logic for strengthening the weak points for example, when the right side is the weak point, there may be a logic for increasing the number of targets arranged on the right side.
  • the logic is an example and does not limit the present invention.
  • the practitioner side terminal 4 After setting the difficulty level and the placement logic, the practitioner side terminal 4 generates the question even when considering the difficulty level and the placement logic when creating the question. 5 is instructed (S1911).
  • the image processing device 5 generates a question based on the difficulty level and the arrangement logic.
  • the difficulty level is adjusted by comparing the score of the previous time with the score of the previous time, but the target to be compared is not limited to the score of the time before the last time.
  • the average value several times before and the previous time may be used, or the average value several times before and after may be increased or decreased.
  • the difficulty level may be adjusted based on the past score.
  • the size of the target image may be changeable.
  • the size of the target image may change, or the size of the target image may change according to the difficulty level of the problem.
  • the color and brightness of the target image may be changeable.
  • the color and brightness of the target image may change, or the color and brightness of the target image may change according to the difficulty level of the problem.
  • the target may be moving as well as stationary. Further obstacles can be expected to improve as the target moves.
  • the present invention relates to a rehabilitation system and an image processing device, and is industrially applicable.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Neurology (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Neurosurgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Educational Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Databases & Information Systems (AREA)

Abstract

本発明は、高次脳機能障害のリハビリテーションを実施するためのリハビリテーションシステム(1)であって、仮想現実、拡張現実、又は複合現実を用いた画像によるリハビリ用の問題を患者に提示するためのアプリを実行し、患者が問題を解いた履歴をリハビリ履歴情報として記憶する画像処理装置(5)と、画像処理装置(5)からリハビリ履歴情報を受信する施術者側端末(4)と、施術者側端末(4)から送られてくるリハビリ履歴情報を保存するサーバ(3)と、サーバ(3)から、リハビリ履歴情報を受信し、リハビリ履歴情報に基づいて、患者のリハビリテーションの実施状況を表示する医師側端末(2)とを備える。

Description

高次脳機能障害用のリハビリテーションシステム及び画像処理装置
 本発明は、脳卒中、認知症、脳性麻痺、外傷性脳損傷、脳腫瘍、発達障害、うつ病、統合失調症、又はパーキンソン病などが原因で生じる高次脳機能障害の患者に対して、リハビリテーションを行うためのシステムに関し、より特定的には、画像処理技術を用いて高次脳機能障害に対するリハビリテーションを行うためのシステム及び画像処理装置に関する。
 高次脳機能障害とは、脳卒中、認知症、脳性麻痺、外傷性脳損傷、脳腫瘍、発達障害、うつ病、統合失調症、又はパーキンソン病などが原因で、脳が損傷を受けることによって、記憶障害や注意障害、遂行機能障害等の症状が現れる病気である。
 従来、特許文献1ないし7に記載のように、仮想画像を用いて、高次脳機能障害のリハビリを行う装置が提案されている。
 特許文献1に記載の脳機能障害者に対するリハビリテーション装置では、頭部装着式視覚表示装置(4)に仮想現実の画像を表示させて、訓練機(6)やスペースジョイスティック(5)を患者が操作することで、仮想空間上を患者が移動しているかのような画像が頭部装着式視覚表示装置(4)に表示される。これにより、患者は仮想環境の画像を見ながら訓練機(6)等を動かし、その動きが仮想環境の画像に反映されるので、視覚が脳に与える刺激に応じて体を動かす機能を回復させることができるとされている。特許文献1では、仮想環境の画像としては、種々のものが用意できるので、情報量の多い視覚情報をさらに変化させることにより、患者に訓練に対する意欲と興味を起こさせることができるとされている。
 特許文献2に記載の高次脳機能障害リハビリテーション装置では、仮想世界制御手段(104)に、仮想世界が表示されると共に、課題データが患者に提示される。課題データに対する患者の反応より、成否判定がなされ、成否判定の結果に基づいて、患者の認識状態のデータが作成される。また、特許文献2に記載の高次脳機能障害リハビリテーション装置では、患者の成績の評価結果に基づいて、課題データの難易度が変更していく。これにより、特許文献2に記載の高次脳機能障害リハビリテーション装置は、日常生活を営む上で必要とされる様々な動作を、患者に実行させることのできる環境を提供する。
 特許文献3に記載のリハビリテーション支援システムでは、患者の頭部に装着されるヘッドマウントディスプレイにリハビリテーション動作の指標となる指標画像を表示させて、患者が行うべき動作を示す指標を患者の視界内に表示させる。これにより、患者は、自身が行うべき動作を直感的かつ自然に理解することができ、リハビリテーションを円滑に進捗させることが可能となる。
 特許文献4に記載のリハビリテーション支援装置では、ヘッドマウントディスプレイ(94)に、画像を表示するようにしている。たとえば、利用者が椅子に座っているときは海中の画像が見えるようにし、利用者が立ち上がると海面上の空の画像が見えるようにしている。これによって、立ち座りのリハビリテーション運動に対するモチベーションを高めようとする。
 特許文献5ないし7に記載のリハビリテーション支援システムは、リハビリテーション動作に応じて動くアバター画像及びリハビリテーション動作の目標を示す目標画像を、ヘッドマウントディスプレイ(233)に表示させて、リハビリテーション動作と目標位置とを比較して、リハビリテーション能力を評価している。また、特許文献5ないし7では、認知機能と運動課題など、二つの課題を組み合わせることで、リハビリテーション効果を高めようとする、デュアルタスクの有用性について触れられており、第1リハビリテーション動作及び第2リハビリテーション動作を検出して、両方の動作に基づいて、リハビリテーション能力を評価している。
 特許文献8に記載のリハビリテーションシステムでは、高次脳機能障害の患者に対するリハビリテーションを行うために、タブレット端末に、リハビリ課題を表示して、リハビリを行うシステムが提案されている。特許文献8に記載のシステムでは、サーバが、リハビリ課題についての患者のレベルをハードディスクから取得し、取得したレベルに応じてリハビリ課題の出題内容を決定する。タブレット端末は、サーバにより決定された出題内容に対応するリハビリ課題を表示して、リハビリ課題を患者に解答させる。タブレット端末は、リハビリ課題についての直近の所定回数分の解答結果に基づいてリハビリ課題についての患者のレベルを判定する。
 特許文献9は、高次脳機能障害の患者がリハビリをする意欲を継続させるためにエンターテインメント性を含んだシステムに関する。特許文献9に記載のリハビリテーション支援システムでは、患者を撮影するカメラと、カメラで撮影された患者の画像を表示させるプロジェクタや液晶ディスプレイ等の画像表示手段とが設けられている。特許文献9に記載のシステムでは、画像表示手段で表示させる画像中に、リハビリテーション用のゲームの目標表示とカメラで撮影した患者の手の画像を合成し、手の位置を検出することで、患者が目標表示を選べたか否かで、ゲームを進行し、リハビリテーションを行うものである。
 特許文献10に記載のリハビリテーション用システムでは、カメラ(11)により取得された患者の撮像画像と、コンピュータ(12)において生成されるリハビリ画像とを合成し、プロジェクタ(14)を用いて、スクリーン(13)に表示させる。当該リハビリテーション用システムでは、患者の撮像画像において画像データから患者の動作部(手)の位置を特定し、その患者の動作部とリハビリ画像に含まれる反応画像部との干渉状態に基づいて、リハビリ画像における反応画像部の表示態様等を変化させ、患者のリハビリ動作を促す。
 特許文献11及び12は、ディスプレイに仮想画像を表示して、患者のリハビリテーションを実行するものである。
 特許文献1ないし7に記載のシステムは、ヘッドマウントディスプレイなどを用いて、仮想空間を再現し、患者を仮想空間上で移動させたり、仮想空間上に提示される課題をクリアさせたりことで、患者にリハビリテーションのための動作を行われるようにするためのものである。
 特許文献9ないし12に記載のシステムのように、プロジェクタやディスプレイに合成画像などを表示して、リハビリテーション動作を促すシステムも存在する。
 特許文献8に記載のシステムでは、タブレット端末に課題を表示して、リハビリテーションを行うものである。特許文献8には、サーバからタブレット端末に、患者のレベルに応じた出題内容を送信するシステムが開示されている。
特開平8-280762号公報 特開2001-079050号公報 特開2015-228957号公報 特開2018-079308号公報 特許第6200615号公報 特開2018-185501号公報 特許第6425287号公報 特開2018-195273号公報 特開2006-325740号公報 特開2011-110215号公報 特開平09-120464号公報 特開平10-151162号公報
 高次脳機能障害の患者に対するリハビリテーションの現場では、医師が患者のリハビリテーションの内容を決定して、作業療法士などの施術者が医師からの指示に基づいて、患者に対して、リハビリテーションを実施する。リハビリテーションを効率的かつ効果的なものとするためには、患者の症状や改善状況を医師と施術者が共有し、患者の状況に合わせた適切なリハビリテーションを実施することが求められる。
 特許文献1ないし7に記載のシステムでは、仮想画像を用いて、リハビリテーションを行うということだけに注目している。仮想画像を用いた高次脳機能障害のリハビリテーションの有用性については、否定されるものではないが、特許文献1ないし7では、医師と施術者とが如何にして情報を共有して、医師が、最適なリハビリテーションを決定していくのかという点については、何ら考慮されていない。画像をプロジェクタやディスプレイに表示する特許文献9ないし12のシステムについても同様である。
 特許文献8に記載のシステムにおいても、サーバからタブレット端末に対して、患者のレベルに応じた出題内容が送信されるだけに過ぎない。特許文献8に記載のシステムは、患者の改善状況などを医師が的確に把握し、最適なリハビリテーションメニューを決定するためのシステムではない。
 高次脳機能障害は、脳の損傷などを原因とする障害であり、高次脳機能障害の治療のためには、医師と施術者が適切に改善状況を把握して、適切なリハビリテーションメニューを用いて、脳の機能障害を徐々に改善させていくことが効果的である。しかし、特許文献1ないし12に記載の従来のシステムでは、医師と施術者との間で、患者のリハビリテーションの実施結果や施術後の改善状況などを共有することはできなかった。
 それゆえ、本発明は、医師及び施術者が患者のリハビリテーションの状況を把握しやすくし、適切なリハビリテーションメニューを構築することができるようにするための高次脳機能障害のリハビリテーションシステムを提供することを目的とする。
 また、特許文献1ないし7に記載のシステムでは、ヘッドマウントディスプレイなどに、画像を表示することで、仮想現実(VR:Virtual Reality)を実現し、リハビリテーションに使用しているが、患者がいわゆるVR酔いという状態に陥ったり、転倒や現実世界の障害物にぶつかるといった危険性もある。VRによるリハビリテーションによって、患者の気分が悪くなったり、感覚に異変が生じたり、けがなどをするようなことがあっては、リハビリテーションの効果も期待できなくなる。
 それゆえ、本発明の他の目的は、患者が違和感なくリハビリテーションを行なうことがきるシステムを提供することである。
 上記課題を解決するために、本発明は、以下のような特徴を有する。本発明は、高次脳機能障害のリハビリテーションを実施するためのリハビリテーションシステムであって、仮想現実、拡張現実、又は複合現実を用いた画像によるリハビリ用の問題を患者に提示するためのアプリを実行し、患者が問題を解いた履歴をリハビリ履歴情報として記憶する画像処理装置と、画像処理装置からリハビリ履歴情報を受信する施術者側端末と、施術者側端末から送られてくるリハビリ履歴情報を保存するサーバと、サーバから、リハビリ履歴情報を受信し、リハビリ履歴情報に基づいて、患者のリハビリテーションの実施状況を表示する医師側端末とを備える。
 画像処理装置は、問題を提示するための一種類以上のアプリを含んでいる。施術者側端末は、画像処理装置で実施するアプリを選択し、画像処理装置に対して、選択したアプリを実行するように指示することができる。
 医師側端末は、使用するアプリを紐付けるようにして、画像処理装置において実施されるリハビリのスケジュールを作成して、サーバに保存する。施術者側端末は、サーバに保存されているスケジュールをダウンロードして、画像処理装置に対して、スケジュールで指定されているアプリを実行するように、指示することができる。
 画像処理装置で使用するアプリには、アプリを実施することによって改善が見込まれる障害が少なくとも1つ対応付けられている。リハビリ履歴情報には、アプリが出題した問題に対する解答のスコアが含まれている。医師側端末は、障害毎に、アプリのスコアを表示することで、障害の改善状況が分かるように表示する。
 医師側端末は、時系列に、アプリの採点結果を表示する。
 リハビリ履歴情報には、患者の動きに関する情報が含まれている。医師側端末及び/又は施術者側端末は、リハビリ履歴情報に基づいて、患者の動きを再現する表示を行うことができる。
 画像処理装置は、アプリの実行中に患者から見えている画像を施術者側端末に送信する。施術者側端末は、画像処理装置から送信されてきた画像を表示する。
 施術者側端末で表示された画像は、動画として保存される。
 医師側端末は、保存された動画を再生することができる。
 画像処理装置から送信されてきた画像は、医師側端末に同時配信される。
 画像処理装置で実行されるアプリは、調整可能な設定条件を有している。医師側端末及び/又は施術者側端末は、設定条件を調整可能である。
 問題が表示される角度の範囲が設定条件として調整可能である。
 問題で表示される対象物の数が設定条件として調整可能である。
 画像処理装置は、アプリを実行するモードとして、測定モードとトレーニングモードとを有している。測定モードでは、画像処理装置は、予め決められた問題を出題する。トレーニングモードでは、画像処理装置は、ランダムに作成した問題を出題する。
 画像処理装置には、仮想のトレーナーとなるアバター画像が表示される。
 医師側端末、施術者側端末、画像処理装置、又はサーバは、問題の過去のスコアに基づいて、問題の難易度を調整し、難易度に応じた問題を画像処理装置に出題させる。
 リハビリ履歴情報に基づいた患者の弱点に応じて、医師側端末、施術者側端末、画像処理装置、又はサーバは、弱点に応じた問題を作成し、画像処理装置に出題させる。
 画像処理装置は、仮想現実、拡張現実、又は複合現実を用いて、数字の画像を表示して、数字の画像を順番に抹消させる問題を出題する数字抹消アプリを実行する。
 画像処理装置は、仮想現実、拡張現実、又は複合現実を用いて、ターゲット及び非ターゲットとなる画像を表示して、ターゲットとなる画像を抹消させる問題を出題する第1の選択抹消アプリを実行する。
 画像処理装置は、仮想現実、拡張現実、又は複合現実を用いて、ターゲット及び非ターゲットとなる画像を表示して、ターゲットとなる画像を選択させて、選択後に画像を変化させる問題を出題する第2の選択抹消アプリを実行する。
 画像処理装置は、仮想現実、拡張現実、又は複合現実を用いて、少なくとも一つの壁の画像及び壁の上に配置されたターゲット及び非ターゲットとなる画像を表示して、ターゲットとなる画像を抹消させる問題を出題する空間配置アプリを実行する。
 画像処理装置は、仮想現実、拡張現実、又は複合現実を用いて、迷路となる画像を表示して、迷路をクリアさせる問題を出題する迷路アプリを実行する。
 迷路アプリでは、ターゲットとなる画像を表示して、ターゲットとなる画像を抹消させる問題を出題する。なお、ここで、抹消とは、ターゲットを意図的に選ぶことに加えて、決められた位置に達した場合に、ターゲットが抹消することを含む概念である。
 画像処理装置は、仮想現実、拡張現実、又は複合現実を用いて、マス目となる画像を表示して、マス目上を移動させる問題を出題するマス目移動アプリを実行する。
 画像処理装置は、仮想現実、拡張現実、又は複合現実を用いて、仮想の画像を表示するアプリにおいて、患者の視界の範囲外にも、仮想の画像を表示する。
 仮想の画像は、問題のターゲット及び/又は非ターゲットとなる画像である。
 仮想の画像は、問題で使用する壁、迷路、又はマス目の画像である。
 また、本発明は、画像処理装置の周辺の空間を認識する空間認識部と、空間認識部が認識した空間における画像処理装置の位置及び傾きを認識するトラッキング部と、ユーザの向きを検出する向き検出部と、仮想の対象物を空間認識部が認識した空間上に配置して、トラッキング部が認識した位置及び傾き並びに向き検出部が検出した向きに基づいて、ユーザから見える仮想の対象物の画像を生成する画像処理部と、現実空間上に、画像処理部が生成した仮想の対象物の画像が存在するかのように、画像処理部が生成した画像をユーザに対して表示する拡張現実用の表示部とを備える画像処理装置であって、現実空間上に、高次脳機能障害のリハビリテーションに使用する仮想の対象物の画像が存在するかのような問題を生成する制御部をさらに備える。
 制御部は、向き検出部による検出結果を用いて、ユーザによる仮想の対象物の画像の選択を検出し、検出した選択結果に基づいて、問題の採点を行う。
 制御部は、仮想の対象物の画像として、ユーザに選択させるための画像を用い、その画像を少なくともユーザの視界上に配置するように、問題を生成する。
 制御部は、ユーザに選択させるための画像を、ユーザの視界の外にも配置するように、問題を生成する。
 制御部は、トラッキング部による画像処理装置の位置の検出結果に基づいて、問題の採点を行う。
 制御部は、仮想の対象物の画像として、ユーザによる現実空間上の移動を促すための画像を用い、その画像を少なくともユーザの視界上に配置するように、問題を生成する。
 制御部は、ユーザによる現実空間上の移動を促すための画像を、ユーザの視界の外にも配置するように、問題を生成する。
 また、本発明は、画像処理装置の周辺の空間を認識する空間認識部と、空間認識部が認識した空間における画像処理装置の位置及び傾きを認識するトラッキング部と、ユーザの向きを検出する向き検出部と、仮想の対象物を空間認識部が認識した空間上に配置して、トラッキング部が認識した位置及び傾き並びに向き検出部が検出した向きに基づいて、ユーザから見える仮想の対象物の画像を生成する画像処理部と、現実空間上に、画像処理部が生成した仮想の対象物の画像が存在するかのように、画像処理部が生成した画像をユーザに対して表示する拡張現実用の表示部とを備える画像処理装置において実行されるコンピュータプログラムを記憶した記憶媒体であって、コンピュータプログラムは、画像処理装置を、現実空間上に、高次脳機能障害のリハビリテーションに使用する仮想の対象物の画像が存在するかのような問題を生成する制御手段として機能させることを特徴とする、高次脳機能障害のリハビリテーション用のコンピュータプログラムを記憶した記憶媒体である。
 本発明によれば、仮想現実、拡張現実、又は複合現実を用いた画像によるリハビリを実行する画像処理装置において、リハビリ履歴情報が記憶されて、当該リハビリ履歴情報が施術者側端末及び医師側端末において、共有することができる。したがって、医師及び施術者が患者のリハビリテーションの状況を把握しやすくなり、その結果、適切なリハビリテーションメニューを構築することができるようになる。
 画像処理装置は一種類以上のアプリを含んでおり、施術者側端末から、使用するアプリが指定される。これにより、患者の症状に合わせたアプリの実行が可能となり、リハビリテーションの効果を高めることが可能となる。
 医師側端末において、施術に使用するアプリを指定してリハビリのスケジュールを簡単に作成することができる。そして、施術者側端末において、医師側端末で作成したスケジュールをダウンロードして、画像処理装置に対して、アプリの実行を指示することができる。よって、医師の指示通りの適切なリハビリが簡単に実施可能となる。
 アプリ毎に、改善の見込まれる障害を対応付けておくことで、アプリの実行時のスコアを、障害毎に把握することができるようになるので、医師側端末では、障害の改善状況を客観的かつ視覚的に把握することが可能となる。
 また、医師側端末は時系列にスコアを表示することで、リハビリの効果が出ているかを客観的かつ視覚的に把握することが可能となる。
 リハビリ履歴情報に含まれる患者の動きを医師側端末及び/又は施術者側端末に表示することで、医師等は、患者の障害の状況を客観的かつ視覚的に把握することが可能となる。
 アプリの実行中に、患者が見ている画像を施術者側端末で表示することで、施術者等は、患者が意味を理解してリハビリを実行しているかなどを把握することができ、適切な助言などを行うことが可能となる。
 上記の画像を動画として保存することで、後からも、患者のリハビリの様子を確認することが可能となる。
 後で、医師側端末で、保存された動画を再生することができ、リハビリの現場にいなかった医師でも、リハビリの様子を把握することが可能となり、今後のリハビリメニューの構築の参考にすることが可能となる。
 また、上記の画像を医師側端末に同時配信することで、遠隔地でのリハビリであっても、同時に医師がリハビリの様子を理解することができ、適切なリハビリメニューの構築に役立てることが可能となる。
 アプリの設定条件を調整可能とすることで、リハビリの進行に合わせて、問題を易しくしたり、難しくしたりすることが可能となる。これらの調整は、医師側端末及び/又は施術者側端末で行うことができるようにしておくことで、患者の状況に合わせた臨機応変なリハビリメニューの作成が可能となる。
 たとえば、問題が表示される角度の範囲を調整可能としておくことで、患者の視界の広狭に合わせて、臨機応変にリハビリメニューの調整を行うことが可能となる。
 たとえば、問題で表示される対象物の数を調整可能としておくことで、患者の障害の度合いに合わせて、臨機応変にリハビリメニューの調整を行うことが可能となる。
 アプリの実行モードとして、測定モードとトレーニングモードとを設けることで、患者の障害の度合いを測定したり、患者に新しい問題に挑戦させたりすることが可能となり、リハビリの効果を高めることが期待できる。
 仮想のトレーナーとなるアバター画像が画像処理装置に表示されることで、患者のリハビリへの意欲が増すことが期待できる。
 問題の難易度を調整することで、患者の障害の状況に合わせた出題が可能となる。
 患者の弱点に合わせた出題を可能とすることで、患者の弱点を改善するようなリハビリが可能となる。
 数字抹消アプリによって、注意力の機能障害の改善が期待できる。
 第1の選択抹消アプリによって、注意力の機能障害及び/又は空間認知力の機能障害の改善が期待できる。
 第2の選択抹消アプリによって、注意力の機能障害及び/又は抑制力の機能障害の改善が期待できる。
 空間配置アプリによって、空間認知力の機能障害及び/又は情報獲得力の機能障害の改善が期待できる。
 迷路アプリによって、空間認知力の機能障害の改善が期待できる。
 迷路アプリにおいて、ターゲットとなる画像を抹消させる問題も合わせて出題することで、遂行機能の機能障害の改善が期待できる。
 マス目移動アプリによって、記憶力の機能障害及び/又は遂行機能の機能障害の改善が期待できる。
 患者の視界の範囲外にも、仮想の画像を表示することで、空間認知力の機能障害及び/又は記憶力の機能障害の改善が期待できる。
 拡張現実用の画像処理装置を用いて、現実空間上に、高次脳機能障害のリハビリテーションに使用する仮想の対象物の画像が存在するかのような問題を生成することで、患者が、いわゆるVR酔いや転倒などという状況に陥る危険性が軽減する。よって、患者が違和感なく、安全に、リハビリテーションを行うことができることとなる。
 拡張現実を用いる場合、ユーザの動きに基づいた選択を用いて採点を行うことで、簡易な採点が可能となる。
 ユーザの視界に少なくとも画像を配置して問題を提供すれば、患者は、とまどうことなく問題を解いていくことができる。
 ユーザの視界外にも問題の画像を配置することで、患者は、顔を動かしたり、移動したりして、問題を解いていくことができるので、脳機能と身体機能を同時に使用することとなり、いわゆるデュアルタスクによるリハビリ効果を期待できる。なお、ユーザの視界内に問題の画像が配置されている場合でも、患者は、タップ時に手を動かすこととなるので、脳機能と身体機能を同時に使用することとなるのであるから、デュアルタスクによるリハビリ効果が期待できる。また、患者は、もしかしたら、視界の外にも問題の画像が配置されているのではないかと考えて、身体機能を使う場合も考えられるため、そのような観点からも、デュアルタスクによるリハビリ効果が期待できる。
 トラッキング部による位置の検出に基づいて、採点が行われることで、患者に移動を促すリハビリが可能となる。
 少なくとも、患者の視界上に、問題を表示すれば、患者の移動を確実に促すことができる。
 また、視界外に画像を表示することで、患者の移動をさらに促すことが可能となる。
 本発明の動作処理を実行可能なプログラムを一時保存ではない記録媒体として提供することで、本発明を、汎用的な画像処理装置で実行させることが可能となり、本発明の普及が期待できる。
 本発明のこれら、及び他の目的、特徴、局面、効果は、添付図面と照合して、以下の詳細な説明から一層明らかになるであろう。
図1は、本発明の第1の実施形態に係るリハビリテーションシステム1の全体構成を示す図である。 図2は、医師側端末2の機能的構成を示すブロック図である。 図3は、サーバ3の機能的構成を示すブロック図である。 図4は、施術側端末4の機能的構成を示すブロック図である。 図5は、画像処理装置5の機能的構成を示すブロック図である。 図6は、リハビリテーションシステム1における各装置の全体的な動作の流れを示すフローチャートである。 図7は、数字抹消アプリを実行している場合の操作イメージを示す図である。 図8は、第1の選択抹消アプリを実行している場合の操作イメージを示す図である。 図9は、第2の選択抹消アプリを実行している場合の操作イメージを示す図である。 図10は、空間配置アプリを実行している場合の操作イメージを示す図である。 図11は、迷路アプリを実行している場合の操作イメージを示す図である。 図12は、マス目移動アプリを実行している場合の操作イメージを示す図である。 図13は、画像処理装置5に記憶されるリハビリ履歴情報のデータ構造を示す図である。 図14は、医師側端末2におけるスケジュール作成処理(S103)で用いられるスケジュール作成画面の一例を示す図である。 図15は、図14(a)の状態で、12月20日の欄が選択されたときのスケジュールの作成の流れを示す図である。 図16は、施術者側端末4でのリハビリメニューの選択の画面の一例を示す図である。 図17(a)は、施術者側端末4でのリハビリの指示を開始するための画面の一例を示す図である。図17(b)は、施術者側端末4でのリハビリ中の画面の一例を示す図である。 図18は、施術者側端末4でのリハビリ中の画面の一例を示す図である。 図19は、施術者側端末4に表示されるアプリの実行結果の画面の一例を示す図である。 図20は、医師側端末2でのリハビリ履歴情報の表示の一例を示す図である。 図21は、リハビリ履歴情報の詳細を医師側端末2で閲覧した場合の表示画面の一例を示す図である。 図22は、医師側端末2でのスケジュールの作成処理のフローチャートである。 図23は、施術者側端末4でのスケジュールのダウンロード処理を示すフローチャートである。 図24は、施術者側端末4でのリハビリ開始指示のフローチャートである。 図25は、数字抹消アプリを実行中の画像処理装置5の動作を示すフローチャートである。 図26は、画像処理部50における画像の描画処理のフローチャートである。 図27は、図25の動作の続きを示すフローチャートである。 図28は、第1の選択抹消アプリを実行の画像処理装置5の動作を示すフローチャートである。 図29は、第2の選択抹消アプリを実行の画像処理装置5の動作を示すフローチャートである。 図30は、図29の動作の続きを示すフローチャートである。 図31は、空間配置アプリを実行の画像処理装置5の動作を示すフローチャートである。 図32は、迷路アプリを実行の画像処理装置5の動作を示すフローチャートである。 図33は、図32の動作の続きを示すフローチャートである。 図34は、マス目移動アプリを実行の画像処理装置5の動作を示すフローチャートである。 図35は、図34の動作の続きを示すフローチャートである。 図36は、第2の実施形態における施術者側端末4と画像処理装置5との間の動作の流れを示すフローチャートである。 図37は、医師側端末2及び/又は施術者側端末4での数字抹消アプリでのアプリ設定条件の設定画面の一例を示す図である。 図38は、医師側端末2及び/又は施術者側端末4での第1の選択抹消アプリでのアプリ設定条件の設定画面の一例を示す図である。 図39は、医師側端末2及び/又は施術者側端末4での第2の選択抹消アプリでのアプリ設定条件の設定画面の一例を示す図である。 図40は、医師側端末2及び/又は施術者側端末4での空間配置アプリでのアプリ設定条件の設定画面の一例を示す図である。 図41は、医師側端末2及び/又は施術者側端末4での迷路アプリでのアプリ設定条件の設定画面の一例を示す図である。 図42は、医師側端末2及び/又は施術者側端末4でのマス目移動アプリでのアプリ設定条件の設定画面を示す図である。 図43は、画像処理装置5に表示されるバーチャルトレーナーの一例である。 図44は、問題の難易度を自動的に調整できるようにしたときの医師側端末2及び/又は施術者側端末4の動作を示すフローチャートである。
(第1の実施形態)
 図1は、本発明の第1の実施形態に係るリハビリテーションシステム1の全体構成を示す図である。図1において、リハビリテーションシステム1は、医師側端末2と、サーバ3と、施術者側端末4と、画像処理装置5とを備える。
 医師側端末2、サーバ3、及び施術者側端末4は、ネットワーク6を介して通信可能に接続されている。情報処理装置5と施術者側端末4とは、無線または有線によって、通信可能に接続されている。なお、施術者側端末4と情報処理装置5とは、病院等のリハビリ施設内で接続されているような場合(院内でのリハビリ)だけを想定しているのではなく、施術者側端末4と情報処理端末5とが、ネットワークを介して接続されているような場合(在宅リハビリや遠隔地でのリハビリなど)についても、本発明のリハビリテーションシステム1では、想定されている。
 医師側端末2は、高次脳機能障害のリハビリテーションのメニュー(以下、「リハビリメニュー」という。)を患者毎に作成して、サーバ3に記憶させる。施術者側端末4は、医師側端末2が登録したリハビリメニューをサーバ3からダウンロードする。施術者側端末4は、患者が使用する画像処理装置5に対して、ダウンロードしたリハビリメニューに関するリハビリテーションを実行するように指示する。画像処理装置5は、指示されたリハビリメニューにしたがって、リハビリテーションに必要な画像を表示する。画像処理装置5によって実行されたリハビリ履歴情報は、施術者側端末4に送信される。施術者側端末4は、リハビリ履歴情報をサーバ3にアップロードする。医師側端末2は、サーバ3にアップロードされているリハビリ履歴情報に基づいて、患者のリハビリテーションの実施状況を視覚的に分かるように表示する。このようにして、リハビリテーションシステム1は、医師によるリハビリメニューの決定、施術者側におけるリハビリテーションの実施、リハビリテーションによる患者の状況の表示を実現するシステムである。
 なお、医師側端末2及びサーバ3を使用せずに、施術者側端末4と画像処理装置5とによってリハビリテーションを実施することも可能であり、その実施形態については、第2の実施形態において、説明する。
 本実施形態のリハビリテーションシステム1は、システムが単独で存在するとして説明している。しかし、本発明のリハビリテーションシステムは、医療用のグループウエアや電子カルテシステム、その他の医療用システムの一部に組み込んで、動作させることも可能である。したがって、他の医療用システムに組み込まれて動作しているリハビリテーションシステムも、本発明に含まれるものとする。
 医師側端末2は、医師が使用するコンピュータ装置であり、パーソナルコンピュータや、ワークステーション、タブレット端末、スマートフォンなど、情報処理装置であれば、その名称は特に限定されるものではない。複数の医師が医師側端末2を使用する場合は、各医師がそれぞれ、別々の医師側端末2を使用してもよい。また、一つの医師側端末2を複数の医師で共有して、医師毎に、アカウントを設定して、使用するようにしてもよい。その他、周知のあらゆる手法で、医師側端末2を医師が利用することができる。
 施術者側端末4は、作業療法士などの施術者が使用するコンピュータ装置であり、パーソナルコンピュータや、ワークステーション、タブレット端末、スマートフォンなどの情報処理装置であれば、その名称は特に限定されるものではない。なお、施術者とは、患者に、リハビリテーションを施す者であり、作業療法士だけに限らず、発明としては、理学療法士や、看護師、医師、介護士、鍼灸師、家族、知人なども含み、本件発明においては、資格の有無を問わない概念として用いている。施術者側端末4についても、各施術者がそれぞれ、別々の施術者側端末4を使用してもよいし、また、一つの施術者側端末4を複数の施術者で共有して、施術者毎に、アカウントを設定して、使用するようにしてもよい。その他、周知のあらゆる手法で、施術者側端末4を施術者が利用することができる。
 サーバ3は、リハビリテーションシステム1で用いる患者のデータなどを保存したり、リハビリテーションのスケジュールを作成したり、リハビリ履歴情報を表示したりするためのプログラムを実行するコンピュータ装置である。ここでは、一つのサーバ3が図示されているが、複数のサーバ3を用いて、データを保存したり、プログラムを実行したりしてもよい。また、データを保存するサーバとプログラムを実行するサーバとは、別々の装置として存在してもよい。その他、周知のあらゆる手法で、サーバ3を構築することができる。
 画像処理装置5は、たとえば、ヘッドマウントディスプレイ(HMD)5aや、マイクロソフト(登録商標)社のHOLOLENS(登録商標)5b、スマートフォンやタブレット端末などの装置5c及びそれを装着するゴーグル5d、タブレット端末やスマートフォンなどのタッチ入力型の表示装置5eなどである。図1では、3つの画像処理装置5を図示しているが、数に限定はなく、患者毎に画像処理装置5を所有していてもよいし、複数の患者で画像処理装置5を共有して使用してもよい。本実施形態において、明細書及び図面において、HMDと表記する場合があるが、画像処理装置5をヘッドマウントディスプレイに限定する意味ではなく、画像処理装置5を略記するために、表記しているに過ぎない。
 画像処理装置5において用いられる技術は、仮想現実(VR:Virtual Reality)、拡張現実(AR:Augmented Reality)、及び複合現実(MR:Mixed Reality)のいずれかである。仮想現実、拡張現実、及び複合現実の分類方法については、種々考えられるが、本明細書では、以下の意義を有するものとして、説明することとする。
 仮想現実を用いた場合、画像処理装置5は、仮想空間に関する画像を表示し、ユーザに対して、実際に仮想空間に存在しているかのような知覚を与える。一般に、仮想現実を用いた場合、ユーザの動きに合せて、表示されている画像が変化し、仮想空間上を移動しているかのような知覚をユーザに与えることができる。仮想現実を用いる場合は、仮想空間上の物体の3次元情報及び画像処理装置5の位置や傾き、ユーザの視線などトラッキング情報が必要である。仮想空間上で、ユーザがどの位置で、どのような向きで仮想空間を視認しているかが計算され、その計算に基づいて、仮想空間上での画像が画像処理装置5に表示されることとなる。
 なお、以下の説明において、仮想現実及び拡張現実において、アイトラッキング機能等によって、ユーザの視線を検出する場合を用いて、例示的に説明するが、ユーザがどの方向を向いているか、少なくともユーザの向きが分かればよい。したがって、ユーザの視線と説明している箇所は、全て、ユーザの向きと置き換えて読むことができ、その場合、画像処理装置5において、視線検出部59の代わりに、向き検出部59が用いられているとして、発明を理解するものとする。なお、ユーザの視線は、ユーザの向きに包含される概念である。視線検出部59は、向き検出部59に包含される概念である。視線以外にユーザの向きを検出するための具体的手段として、たとえば、頚部運動センシングを用いることができるが、本発明を限定するものではない。
 拡張現実を用いた場合、画像処理装置5が得た現実画像に対して、現実画像に仮想の対象物の画像が合成されて、合成された両者の画像が表示される。拡張現実では、仮想の対象物を合成するための現実画像を認識して、認識した現実画像に対して、仮想の対象物の画像を合成している。そのため、本明細書上では、画像処理装置5は、仮想現実や複合現実のように、画像処理装置5の位置や傾き、ユーザの視線などのトラッキング情報を得ていないとする。ただし、この定義は、説明を分かりやすくするための本明細書上の定義に過ぎず、本発明において、トラッキング情報を得ることができる画像処理装置を用いて、拡張現実によって、本発明を実現していてもよいことは言うまでもない。
 表示装置5eを用いる場合は、主に、ARの場合を想定している。患者がタブレット端末などの表示装置5eを持ちながら、表示装置5eのカメラで周囲の現実空間を映しながら、表示装置5eを動かし、その動きに合わせて、仮想空間上の対象物が画像合成で現実空間の映像に合成される。ただし、ARの場合が、表示装置5eに限定されるものではない。
 複合現実では、現実空間を、画像認識や深度カメラ、赤外線センサー、レーザ照射、その他の各種センサや検出機などによって、立体形状として認識する空間認識を実現している。複合現実を用いた場合、画像処理装置5は、認識した現実空間に対象物が存在しているかのような画像を表示し、ユーザに、現実空間に仮想の対象物が存在しているかのような知覚を与える。さらに、複合現実を用いた場合は、画像処理装置5は、現実空間における画像処理装置5の位置や傾き、ユーザの視線など(トラッキング情報)を認識でき、現実空間におけるユーザの移動と合せて、仮想の対象物が現実空間に配置されたままであるとの知覚をユーザに与えることができる表示を行うことができる。複合現実の場合、画像処理装置5は、ユーザの視線を検出することができ、ユーザがどの向きを向いているかを把握することができる。そのため、画像処理装置5は、ユーザの向きに合せて、表示される画像も変化させることができる。さらに、複合現実では、ユーザによる指や手の動作が検出されて、仮想の対象物を選択等することができるものとする。
 複合現実における空間認識の手法は種々提案されているが、たとえば、画像上の特異点を抽出して、抽出した複数の特異点を3次元座標に変換することで、周囲の立体形状を把握し、さらに、自身の位置を特定する。
 なお、本実施形態は、複合現実を用いた場合を想定しているが、適宜、仮想現実及び拡張現実を用いた場合の実施形態についても説明する。本発明のリハビリテーションシステムは、複合現実だけでなく、仮想現実及び拡張現実を用いても実現できる。
 また、画像処理装置5の位置、傾き、及びユーザの視線に関する情報をまとめてトラッキング情報ということにする。なお、画像処理装置5の位置及び傾きを検出することで、ユーザの位置及び傾きが検出されるのであるから、画像処理装置5のトラッキング情報とユーザのトラッキング情報とは、同義であるとして説明していく。
 図2は、医師側端末2の機能的構成を示すブロック図である。図2において、医師側端末2は、制御部21と、入力部22と、表示部23と、通信部24と、記憶部25とを備える。
 制御部21は、リハビリテーションシステム1を実行するために必要なプログラムを記憶部25から読み込んで実行することで、医師側端末2の動作を制御する。入力部22は、キーボードやマウス、タッチパネルなど、医師側端末2を操作するための機器である。表示部23は、ディスプレイなどの表示装置である。通信部24は、ネットワーク6を介して、外部のサーバ3と通信可能とするための装置である。
 記憶部25は、メモリやハードディスクなどの記録媒体である。記憶部25には、制御部21で実行されるスケジューリング兼閲覧プログラムの他、サーバ3からダウンロードした患者毎の患者データが記録されている。
 なお、サーバ3からのリターンを医師側端末2で表示する場合、スケジューリングと患者データの閲覧を医師側端末2で可能とする場合、汎用のブラウザプログラムを、スケジューリング兼閲覧プログラムとして機能させることが可能である。このような技術は、周知の事項であり、ここでは、詳しい説明は省略する。
 なお、ここでは、患者データの保存は、サーバ3の分担とし、医師側端末2の記憶部25には、一時的に、患者データが保存されており、サーバ3と医師側端末2とが協働することで、医師側端末2に、一時保存された患者データに基づく表示がなされる。ただし、医師側端末2は、患者データを、一時的ではないように、記憶部25に保存してもよい。
 図3は、サーバ3の機能的構成を示すブロック図である。サーバ3は、制御部31と、通信部32と、記憶部33とを備える。サーバ3の制御部31は、通信部32を介して得られる医師側端末2及び施術者側端末4からの指示に応じて、記憶部33に記憶されているスケジューリングプログラム及び/又は履歴閲覧プログラムを実行して、実行結果を、医師側端末2及び施術者側端末4に返す。
 医師側端末2を操作するユーザ(典型的には、「医師」であるが、医師に限られない)は、入力部22を使用して、サーバ3にアクセスする。制御部21は、入力部22からの指示に応じて、通信部24を介して、サーバ3にアクセスし、リハビリスケジュールを登録する。また、制御部21は、必要な患者の患者データをダウンロードして、記憶部25に記憶させる。
 制御部21は、入力部22を介したユーザの入力に応じて、サーバ3上のプログラムと連携して、施術対象となる患者のリハビリメニューを作成する。制御部21は、作成したリハビリメニューを、サーバ3に記憶させる。また、制御部21は、サーバ3から得られる患者データをダウンロードし、患者のリハビリ履歴を表示部23に表示させる。
 なお、ここでは、サーバ3が、スケジュールや、リハビリ履歴情報の管理を行う実施形態を想定しているが、サーバ3を単に施術者側端末4との間でデータのやりとりを行う記録装置として扱う場合、医師側端末2において、スケジューリングプログラム及び履歴閲覧プログラムに相当するプログラムを実行するようにしてもよい。
 すなわち、本発明のリハビリテーションシステムでは、医師側端末2、サーバ3、施術者側端末4、及び画像処理装置5がそれぞれ有する機能は、システム全体のどこかに設けられていればよいのであって、以下に説明する各装置に設けられていることを必須とするものではない。たとえば、画像処理装置5が有するとしている機能の一部を施術者側端末4が有していてもよい。また、施術者側端末4が有するとしている機能の一部を医師側端末2やサーバ3が有していてもよい。
 図4は、施術側端末4の機能的構成を示すブロック図である。施術者側端末4は、制御部41と、入力部42と、表示部43と、通信部44と、記憶部45とを備える。
 制御部41は、記憶部4に記憶されているリハビリ指示プログラムを実行して、施術者側端末4の動作を制御する。入力部42は、キーボードやマウス、タッチパネルなど、施術者側端末4を操作するための機器である。表示部43は、ディスプレイなどの表示装置である。通信部44は、ネットワーク6を介して、外部のサーバ3と通信可能とするための装置である。通信部44は、画像処理装置5と通信するための装置である。ネットワーク6は、インターネットや構内LANなど、特に、ネットワークの種類が限定されない。通信部44と画像処理装置5との間の通信についても、有線又は無線など、通信の種類は特に限定されない。
 記憶部45は、メモリやハードディスクなどの記録媒体である。記憶部45には、リハビリ指示プログラムと、サーバ3からダウンロードした患者毎の患者データとが記録されている。なお、ここでは、患者データの保存は、サーバ3の分担とし、施術者側端末4の記憶部45には、一時的に、患者データが保存されており、リハビリ指示プログラムによって、一時保存された患者データがサーバ3にアップロードされる。ただし、施術者側端末4において、患者データを、一時的ではないように、記憶部45に保存しておくようにしてもよい。
 施術者側端末4は、リハビリ指示プログラムを実行して、画像処理装置5に対して、リハビリの実行を指示し、リハビリ履歴情報を画像処理装置5から取得し、サーバ3にリハビリ履歴情報を送信する。
 ここで、患者データについて説明する。患者データとして、患者の氏名や生年月日、通院履歴などの基本的な情報が記憶されているのは当然であるが、その他に、リハビリテーションの詳細な履歴を示す「リハビリ履歴情報」、リハビリテーションのメニューの詳細を示す「リハビリメニュー情報」、及びリハビリテーションのスケジュールを示す「スケジュール情報」が患者データとして用いられている。
 患者データは、サーバ3に保存されており、医師側端末2及び施術者側端末4から、最新の患者データにアクセスすることができるようになっている。当然、周知のあらゆる手法を用いて、患者データは、適切にバックアップされると共に、外部から不正な取得がされないように、セキュリティが施されている。
 図5は、画像処理装置5の機能的構成を示すブロック図である。図5において、画像処理装置5は、制御部51と、入力部52と、表示部53と、通信部54と、記憶部55と、音声出力部56と、空間認識部57と、トラッキング部58と、視線検出部59と、画像処理部50とを備える。
 制御部51は、画像処理装置5全体の動作を制御する。
 入力部52は、有線又は無線のスイッチやタッチパネルなど、画像処理装置5を操作するための機器である。なお、画像処理装置5においては、ユーザのジェスチャーを認識して、画像処理装置5を操作することも可能であるため、図示しないカメラと画像認識処理部とが入力部52として機能すると捉えることも可能である。さらに、視線が一定時間一定の場所で止まっている場合(いわゆる、凝視されている場合)にも、選択という操作が行われたと言えるので、視線検出部59からの情報に基づいて、制御部51が操作が行われたと捉える処理も入力部52による処理であると理解することもできる。
 表示部53は、生成された画像を表示するための装置である。VR用のHMD5aであれば、表示部53は、左右の眼用の小型ディスプレイである。なお、VR用のHMD5aにおいて、背景が透過されていてもよいし、背景を不透過としてもよい。MR用のHOLOLENS(登録商標)5bであれば、左右の眼用の小型ディスプレイである。MR用のHOLOLENS(登録商標)5bであれば、背景が透過されている。スマートフォンなどの装置5c及びそれを装着するゴーグル5dによって、情報処理装置5を構築する場合は、装置5cの表示画面が表示部53となる。
 なお、MRの例として、ここでは、マイクロソフト(登録商標)社のHOLOLENS(登録商標)5bを例示したが、それ以外のMR用の装置であっても良いことは言うまでもない。MRの場合、レンズから現実空間が透過して知覚できるようになっていてもよいし、また、カメラから撮影した現実空間のリアルタイムの画像が小型ディスプレイに表示されるようにして、リアルタイムの画像と仮想の対象物とを合成することで、MRを実現するようにしてもよい。その他、周知のあらゆる手法を用いて、MRを実現する装置が、情報処理装置5に含まれている。
 通信部54は、少なくとも、施術者側端末4と通信可能な装置であるが、ネットワーク6との間で通信可能であってもよい。
 記憶部55は、メモリ等の記録媒体である。記憶部55には、アプリの動作を制御するアプリ実行プログラム、リハビリ履歴情報、数字抹消アプリ、第1の選択抹消アプリ、第2の選択抹消アプリ、空間配置アプリ、迷路アプリ、及びマス目移動アプリが記憶されている。数字抹消アプリ、第1の選択抹消アプリ、第2の選択抹消アプリ、空間配置アプリ、迷路アプリ、及びマス目移動アプリについては、いずれか一つが記憶されていればよく、全てのリハビリ用アプリが記憶されていることは必須ではない。なお、各リハビリ用アプリの詳細については、追って、順に説明していく。
 将来、新しいリハビリ用アプリが開発された場合、画像処理装置5は、施術者側端末4との通信や、ネットワーク6との通信によって、記憶部55に新しいリハビリ用アプリを追加することが可能である。
 アプリ実行プログラムを制御部51に読み込んで実行することで、各リハビリ用アプリへの動作の開始指示、各リハビリ用アプリの動作条件の設定(「アプリ設定条件」という。)、リハビリ履歴情報の記憶、施術者側端末4へのリハビリ履歴情報の送信を実現することが可能となる。
 音声出力部56は、スピーカーやイヤホンなどである。音声出力部56は、制御部51からの指示に応じて、問題の正解音や不正解音、リハビリ用アプリの実行開始音、リハビリ用アプリ実行中の音声などを出力する。
 空間認識部57は、カメラを含んでおり、画像処理装置5の周辺空間の立体形状を画像認識技術を用いて認識する。カメラ撮影によって、空間の立体形状を認識するための技術については、既に、種々開発されているため、ここでは、そのいずれかの技術を利用して、空間認識を行うものとする。なお、空間認識部57は、VR及びARを用いる場合は、無くてもよい。
 なお、空間認識部57による空間認識を必要とするアプリは、空間配置アプリ、迷路アプリ、及びマス目移動アプリである。数字抹消アプリ並びに第1及び第2の選択抹消アプリについては、空間認識処理を行わなくても、仮想空間の対象物が現実空間に配置されているかのように表示部53に表示させることは可能である。ただし、空間認識した上で、数字抹消アプリ並びに第1及び第2の選択抹消アプリにおいても、仮想空間の対象物を配置した方が、より、正確な配置となる。
 トラッキング部58は、画像処理装置5の位置や傾きなどを認識する。VRやMRでのトラッキング技術については、既に、種々開発されているため、ここでは、そのいずれかの技術を利用して、位置や傾きの認識を行うものとする。
 トラッキング部58は、画像処理装置5の筐体の内部に構造的に含まれているものばかりでなく、筐体の外部に取り付けられたセンサ等によって、位置や傾きなどを検出するようにしてもよい。したがって、画像処理装置5は、インサイドアウト方式によるトラッキングだけでなく、アウトサイドイン方式によるトラッキングを実現してもよい。その場合、トラッキング部58は、画像処理装置5の筐体の外部に存在することとなるが、筐体の外部に存在するトラッキング部58を含めて、画像処理装置5であると捉えるものとする。
 視線検出部59は、画像処理装置5を使用しているユーザの視線を検出する装置である。VRやMRでの視線検出技術については、既に、種々開発されているため、ここでは、そのいずれかの技術を利用して、視線の認識を行うものとする。なお、視線検出をトラッキング技術の一部と捉えるのであれば、視線検出部59は、トラッキング部58に含まれていると捉えてもよい。
 画像処理部50は、表示部53に表示すべき3次元画像を生成する。ここでは、3次元画像の元となるデータを3次元データと呼ぶことにする。各リハビリ用アプリの実行中、画像処理部50は、空間認識部57で認識された現実空間の立体構造を、3次元データとして記憶部55に記憶しておく。画像処理部50は、配置すべき仮想の対象物の3次元データを、現実空間の立体構造の3次元データと同じ座標軸で記憶部55に記憶しておく。画像処理部50は、トラッキング情報(位置、傾き、及び視線)の3次元データについても、現実空間の立体構造の3次元データと同じ座標軸で記憶部55に記憶しておく。これらの3種類の3次元データを同じ座標軸で管理することで、画像処理部50は、患者の視線から見える仮想の対象物の画像を生成して、表示部53に表示させることが可能となる。
 なお、3次元データの処理負担が大きいので、ここでは、制御部51とは切り離して画像処理部50が3次元データの計算を行うこととしているが、当然、制御部51で行うようにしてもよい。
 患者は、表示部53に表示される画像を見ながら、与えられた課題をクリアしていく。
 図6は、リハビリテーションシステム1における各装置の全体的な動作の流れを示すフローチャートである。
 医師側端末2は、まず、サーバ3にログインする(S101)。医師側端末2のログインを受けて、サーバ3は、スケジューリングプログラム及び履歴閲覧プログラムを実行する(S201)。医師側端末2には、リハビリテーションのメニュー作成、スケジュール管理及びリハビリ履歴情報の表示のための画面が表示される。その後、医師側端末2側で、当該画面を見ながら、リハビリテーションのメニュー作成、スケジュール管理及びリハビリ履歴情報の表示が行われる。
 本実施形態は、いわゆるクラウドシステムであるため、先述したように、医師側端末2に、ソフトウエアをインストールする必要はない。ただし、本発明には、医師側端末2にソフトウエアをインストールして、リハビリテーションのメニュー作成、スケジュール管理及びリハビリ履歴情報の表示を行う実施形態も含まれており、その実施形態の場合は、サーバ3は、スケジュールやリハビリメニュー、リハビリ履歴情報を記録する記録装置としての役割を主に担うこととなる。医師側端末2にソフトウエアをインストールする場合の医師側端末2の動作については、クラウドシステムの場合の動作と概ね同様であり、当業者であれば、クラウドシステムの場合の動作を援用すれば、十分に実施可能であるので、詳しい説明は省略する。
 図6の説明に戻る。医師側端末2は、リハビリスケジュールを組む患者を選択する(S102)。この際、サーバ3から当該医師の担当する患者の名称が医師側端末2に送信されて(S202)、医師側端末2で患者を選択できるようになっている。なお、医師側端末2から、サーバ3に記憶されている患者を検索して、検索結果に基づいて、患者を医師側端末2で選ぶようにしてもよい。
 次に、医師側端末2で、リハビリメニューのスケジュール作成処理が実行されて(S103)、作成されたスケジュールが、サーバ3にアップロードされる(S104)。サーバ3は、アップロードされたリハビリメニュー情報及びスケジュール情報を保存する(S203)。患者データに紐付いている情報は、リハビリ履歴情報、リハビリメニュー情報、及びスケジュール情報である。リハビリメニュー情報には、どのアプリを使用するか、その際のアプリ設定条件は何かが含まれている。スケジュール情報には、施術日時と紐付いたリハビリメニュー情報が含まれている。
 ここまでの動作は、典型的には、医師が、施術日時よりも前に、実行しておくこととなる。次に、施術日時が近づいてきた場合の施術者側端末4での動作の説明に移る。
 施術者側端末4は、サーバ3にログインする(S301)。そして、必要なスケジュールをダウンロードする(S302)。施術者側端末4は、ダウンロードしたスケジュールで登録されているリハビリメニューのアプリを実行するように、画像処理装置5に指示する(S303)。このアプリの開始指示は、典型的には、施術者が行うとよいが、患者自らが行ってもよい。
 画像処理装置5は、リハビリ開始指示を受けて、対応するリハビリ用アプリを実行する(S401)。アプリの実行中、採点が行われる。また、患者の視線からどのような画像が見られているかが、画像処理装置5から施術者側端末4に送信される。施術者側端末4では、患者が見ている画像が表示される(S304)。なお、透過型の画像処理装置5を使用している場合は、画像処理装置5のカメラで撮影した現実画像と仮想の対象物とを合成した画像が施術者側端末4に表示されることとなる。
 画像処理装置5は、リハビリ用アプリの実行が終了すると、リハビリ履歴情報を、施術者側端末4に送信する(S402)。施術者側端末4は、送信されてきたリハビリ履歴情報を受信する(S305)。施術者からの指示または自動的に、施術者側端末4は、リハビリ履歴情報をサーバ3にアップロードする(S306)。
 サーバ3は、送信されてきたリハビリ履歴情報を保存する(S204)。
 S105の前に、医師側端末2が一旦ログアウトされて、再ログイン後に、S105の動作が行われてもよい。医師によって、患者が選択された場合(S105)、医師側端末2は、選択された患者のリハビリ履歴情報をダウンロードして、リハビリ履歴を表示する(S106)。そして、必要に応じて、医師側端末2は、リハビリ履歴情報に紐付けるように、医師が入力した所見をサーバ3に送信する(S107)。サーバ3は、リハビリ情報に、所見を紐付けて、保存する(S205)。
 以上が、リハビリテーションシステム1の全体的な動きである。次に、具体的な画面例やデータ構造、リハビリイメージを示しながら、リハビリテーションシステム1の全体的な動きの概略を説明することとする。なお、例示する画面例やデータ構造、リハビリイメージは、あくまでも一例であって、本発明を何ら、限定するものではないのは言うまでもない。適宜、当業者の技術常識を用いて、これらは変更可能であることは言うまでもない。
 図7は、数字抹消アプリを実行している場合の操作イメージを示す図である。図7において、破線で示した枠が、空間全体であるとする。ここで空間全体とは、VRの場合は、仮想上に作り上げた空間であり、仮想空間上に、ベッドと机が仮想的に置いてあるとしている。AR及びMRの場合は、空間全体とは、患者の周り現実空間を指し、図7の例では、現実空間上に、ベッドと机が存在すると例示している。
 図7において、一点鎖線で示した領域は、画像処理装置5を装着した患者から見えている視界の範囲を示している。視界は、仮想空間又は現実空間の一部であるから、一点鎖線は、破線部分よりも狭い領域となる。
 画像処理装置5によって、仮想空間又は現実空間に、ここでは、1から13までの数値が配置されている。
 MRを用いた場合、現実空間の立体形状が空間認識によって認識され、3次元データに変換される。そして、画像処理装置5は、仮想の対象物の3次元データを同じ3次元座標上に配置し、実際に見えている現実空間に、仮想の対象物が存在するかのように、表示部53に表示する。MRでは、実際にユーザが視認している現実空間の上に、仮想の対象物が存在するかのような画像が表示されており、ユーザが見ている現実空間は、ARとは異なり実際の空間である。
 VRを用いた場合は、仮想空間の三次元データ上に、各数字が配置され、配置後の3次元データに基づいて、画像処理装置5が、表示部53に数字が配置された仮想空間の画像を表示させる。VRでは、対象物の周辺の画像は、仮想空間上の画像である。
 ARを用いた場合、画像処理装置5は、カメラで撮影された現実空間の画像に、仮想の対象物を合成し、合成された画像を、表示部53に表示する。ARでは、対象物の周辺は、実際に撮影された現実空間の画像であり、現実空間の画像に、仮想の対象物の画像が合成されている。ARでは、現実空間の画像に仮想の対象物の画像を合成した画像をユーザが見ており、実際の現実空間をユーザに見せているMRとは相違する。
 VR,AR,MRの何れの技術を用いる場合であっても、空間全体に対して、患者の視界という限られた範囲が存在することとなる。
 空間全体に、仮想の対象物(ここでは、数字)が配置されている。画像処理装置5を動かすことで、空間全体に配置されている数字を患者は探すことが可能である。1から順に、数字を消去するというルールであるとすると、図7(a)の場合、顔や目線を動かして視線を動かすことで、1の数字の上に、視線を持って行くものとする。すると、図7(b)に示すように、視界が紙面上左側に移動し、患者が見えている映像も異なるものとなる。1の上に、視線を動かし、入力部52を操作したり、消去ジェスチャーを行ったり、凝視(一定時間視線を対象物に固定する動作)したりすることによって、1を消去することができる。以後、対象物を選択又は消去するための動作を、総称してタップと呼ぶことにするが、タップには、選択又は消去のためのジェスチャー、入力部52の操作、凝視が少なくとも含まれており、その他、周知の選択又は消去の方法(たとえば、音声認識による選択又は消去など)が含まれているものとする。
 次に、紙面上右側に視線を移動させれば図7(c)のように、2の上に、視線をもってくることができる。そして、同様にして、2を消去する。さらに、図面上、下に視線を移動させれば、3が視界に入ってきて、図7(d)のように、3を消去することができる。
 VR,AR,MRの何れの場合でも、同様にして、数字を空間上に配置するようにして、指定されたルールに基づいて、数字を消去するというリハビリテーションを行うことができる。
 数字抹消アプリによって、高次脳機能障害を患っている患者の注意力の向上が期待できる。本発明者等が、実際のリハビリ現場で数字抹消アプリを用いてリハビリを行った結果、情報処理速度や、ワーキングメモリ、全般的認知機能についての改善効果も認められた。
 図8は、第1の選択抹消アプリを実行している場合の操作イメージを示す図である。図8の表現方法は、図7と同様である。第1の選択抹消アプリでは、数字抹消アプリの数字に代わって、各種イラストが表示されている。各種イラストの描画方法は、VR,AR及びMR共に、数字抹消アプリの場合と同様である。
 第1の選択抹消アプリでは、指定されたイラストを選択して、ユーザが抹消していく。数字抹消アプリと同様に、ユーザは、視線を動かして、消去対象のイラストの上に、視線を持っていく。図8(a)の例では、視線の左斜め上にある「イチゴ」がターゲットのイラストであるとする。図8(b)に示すように、視線を「イチゴ」の上におき、数字抹消アプリと同様の方法で、「イチゴ」をタップして消去する。ここで、ターゲットとは、仮想空間の対象物であり、選択又は消去の対象のことをいう。非ターゲットとは、選択又は消去の対象となっていない仮想空間の対象物のことをいう。
 次に、図8(b)の視線の左側にある「イチゴ」の消去を同様に行う(図8(c)参照)。また、図8(d)に示すように、右斜め上の「イチゴ」の消去を同様に行う。
 なお、消去対象となるターゲットは、一つに限らず、別な種類の複数のターゲットが消去対象となっていてもよい。
 第1の選択抹消アプリによって、高次脳機能障害を患っている患者の注意力及び/又は空間認知力の向上が期待できる。本発明者等が、実際のリハビリ現場で第1の選択抹消アプリを用いてリハビリを行った結果、注意機能や、空間認知機能に関与することが分かってきた。
 図9は、第2の選択抹消アプリを実行している場合の操作イメージを示す図である。図8の表現方法は、図7と同様である。第2の選択抹消アプリでは、数字抹消アプリの数字に代わって、各種イラストが表示されている。各種イラストの描画方法は、VR,AR及びMR共に、数字抹消アプリの場合と同様である。
 第2の選択抹消アプリでは、指定されたイラストを選択して、ユーザが選択していく。数字抹消アプリと同様に、ユーザは、視線を動かして、選択対象のイラストの上に、視線を持っていく。図9(a)の例では、視線の左にある「猫」がターゲットのイラストであるとする。図9(b)に示すように、視線を「猫」の上におき、数字抹消アプリと同様の方法で、「猫」を選択する。
 第2の選択抹消アプリでは、選択後の処理が、第1の選択抹消アプリと異なる。第2の選択抹消アプリでは、選択したターゲットのイラストが変化する。ここでは、黒色のイラストが白色に変化するとしている。ただし、変化の仕方は、特に限定されるものではなく、たとえば、立っていたターゲットが座っているようにイラストが変化するなど、色以外の変化であってよい。
 次に、図9(b)の視線の右斜め上側にある「猫」の選択を同様に行う(図9(c)参照)。また、図9(d)に示すように、右斜め下の「猫」の選択を同様に行う。
 なお、選択対象となるターゲットは、一つに限らず、別な種類の複数のターゲットが選択対象となっていてもよい。
 第2の選択抹消アプリによって、高次脳機能障害を患っている患者の注意力及び/又は抑制力の向上が期待できる。注意力及び/又は抑制力の向上を想定しているが、本発明者等が、実際のリハビリ現場で第2の選択抹消アプリを用いてリハビリを行った結果、空間認知機能にも関与することが分かってきた。
 なお、数字抹消アプリ、第1の選択抹消アプリ、及び第2の選択抹消アプリでは、患者は、座ったり立ったりした状態で歩行せずに、顔を動かしながら、ターゲットを探していって、消滅又は選択するといった使用方法を前提としている。ただし、歩行しながら、ターゲットを探すような方法で使用してもよい。
 なお、患者の症状の度合いに合わせて、ターゲット及び非ターゲットを配置する領域を調整することができるようにしてもよい。たとえば、視線を中心に、60度程度の狭い範囲にのみ、ターゲット及び非ターゲットを配置するような設定を用いてもよいし、逆に、180度程度の広い範囲にのみ、ターゲット及び非ターゲットを配置するような設定を用いてもよい。
 図10は、空間配置アプリを実行している場合の操作イメージを示す図である。図10において、破線は、図7と同様に、空間全体であるとする。ここでは、VRの場合は、仮想空間上に、ベッドと壁が仮想的に置いてあるとしている。AR及びMRの場合は、図10の例では、現実空間上に、ベッドが存在しているとしている。ARの場合、ベッドの存在する現実空間の画像に、壁の画像が合成されるとしている。MRの場合、ベッドの存在する現実空間に、仮想空間上の壁が存在するとしている。
 図10において、一点鎖線で示した領域は、図7と同様、画像処理装置5を装着した患者から見えている視界の範囲を示している。
 VRの場合、ターゲット(ここでは、白の花)及び非ターゲット(ここでは、黒の花)が、仮想空間上の壁に配置されて、描画されている。ARの場合、ターゲットないし非ターゲットの画像が、壁の画像と共に、現実空間の画像に合成されている。MRの場合、仮想空間上の壁の上に、ターゲットないし非ターゲットが配置されて、描画されている。
 空間配置アプリでは、患者が実際に歩行して、ターゲットを探しながら、消去していく。画像処理装置5の現在位置と視線の向きに合わせて、表示される画像が変化していく。
 MRの場合、画像処理装置5は、現実空間上での現在位置と視線を認識し、表示される仮想空間の対象物の画像を生成して、表示する。MRの場合、画像処理装置5は、周辺の現実空間の画像を認識して、現実空間の立体構造を認識した上で、仮想空間の対象物の画像(壁や花など)を表示している。
 VRの場合、画像処理装置5は、現在位置と視線を認識し、表示される仮想空間上の画像を生成して、表示する。
 ARの場合、画像処理装置5は、カメラが撮影している画像を認識して、認識した画像に仮想の対象物を合成する。たとえば、室内の床の模様に沿って、仮想の壁を合成するとした場合、カメラが撮影している床の模様の画像に合うように、仮想の壁の画像を生成して、フレーム毎に、画像合成を行うことで、あたかも、床に、仮想の壁が配置されているかのような画像をユーザに提供することができる。
 このように、VR,AR,及びMRのいずれの場合であっても、画像処理装置5の移動に合わせて、表示される画像が刻々と変化することとなる。そのため、ユーザは、あたかも、壁の上に配置されているターゲット画像を探すようにして、移動することができる。
 図10(a)の例では、視線の左斜め上にターゲット(白い花)が視認されている。患者は、少し前に歩いて移動すると、図10(b)のように、徐々に、壁と花が近づいてくる画像を視認する。ターゲットであることが確認できた時点で、患者は、視線をターゲットに合わせて、図7の例の場合と同様にして、ターゲットをタップして消去する。その後も、同様にして、ターゲットを消去していく。図10(c)の例では、右側に存在する白い花に気づいた患者が、顔を、右側に動かして、視線を右側の白い花に合わせて、ターゲットを消去する様子が示されている。
 なお、図10に示した例では、2つの壁に挟まれた道を歩くことを想定しているが、壁は1つでもよいし、3つ以上でもよい。また、壁は、一直線でなく、曲がっているようにしてもよい。
 空間配置アプリによって、高次脳機能障害を患っている患者の空間認知力及び/又は情報獲得力の向上が期待できる。本発明者等が、実際のリハビリ現場で空間配置アプリを用いてリハビリを行った結果、情報処理速度や、ワーキングメモリにも関連することが分かってきた。
 図11は、迷路アプリを実行している場合の操作イメージを示す図である。図11に示した図は、空間全体である。ここでは、VRの場合は、仮想空間上に、ドア、机、床及び迷路用の壁が仮想的に置いてあるとしている。AR及びMRの場合は、図11の例では、現実空間上に、ドア、机及び床が存在しているとしている。ARの場合、ドア、机及び床の存在する現実空間の画像に、壁の画像が合成されるとしている。MRの場合、ドア、机及び床の存在する現実空間に、仮想空間上の壁が存在するとしている。
 なお、図11では、作図の困難さの関係上、画像処理装置5を装着した患者から見えている視界の範囲については、記載していないが、図7ないし図10と同様に、患者は、空間全体の一定の範囲が画像処理装置5を介して視認している。
 VR、AR、及びMRの場合のそれぞれの画像処理装置5における描画方法は、空間配置アプリの場合と同様である。
 図11(a)に示すように、迷路には、ゴールを示すフラッグが配置されている。また、ターゲットを示す画像が、迷路内に配置されている。患者が移動すると、画像処理装置5は、患者が移動した先の画像を表示して、迷路内に進入したかのような印象を患者に与える。そのような画像処理は、図10の空間配置アプリの場合と同様である。
 図11(a)の他、図11(b)に示すように、画像処理装置5は、患者が見ている画像上にヒントとなる画像を表示してもよい。ここでは、星印で示した地点がターゲットを示しており、患者がターゲット地点を通って、ゴールに行くことを促す画像となっている。なお、必ずターゲットを通らないとゴールできないようにするか、若しくは、ターゲットを通らなくてもゴールできるようにするかは、適宜、設計すべき事項に過ぎない。
 患者の移動に応じて、画像処理装置5は、ターゲット地点まで移動したかを認識する。VRやMRの場合は、位置情報を直接的に得ることができるので、画像処理装置5は、認識した位置情報がターゲット地点やゴール地点であるかを認識して、採点を行う。ARの場合は、画像処理装置5のカメラが撮影した画像を認識して、認識した画像がターゲット地点やゴール地点で得られる画像であるか否かを画像処理装置5が判断することで、採点が可能となっている。
 なお、迷路アプリにおいて、単に、ゴールまで到達するか否かを採点基準としてもよく、ターゲットを問題として使用しなくてもよい。
 迷路アプリによって、高次脳機能障害を患っている患者の空間認知力及び/又は遂行機能の向上が期待できる。
 図12は、マス目移動アプリを実行している場合の操作イメージを示す図である。図12に示した図は、空間全体である。ここでは、VRの場合は、仮想空間上に、ドア、机、床及び移動用のマス目が仮想的に置いてあるとしている。AR及びMRの場合、図12の例では、現実空間上に、ドア、机及び床が存在しているとしている。ARの場合、ドア、机及び床の存在する現実空間の画像に、マス目の画像が合成されるとしている。MRの場合、ドア、机及び床の存在する現実空間に、仮想空間上のマス目が存在するとしている。
 なお、図12では、作図の困難さの関係上、画像処理装置5を装着した患者から見えている視界の範囲については、記載していないが、図7ないし図10と同様に、患者は、空間全体の一定の範囲が画像処理装置5を介して視認している。
 VR、AR、及びMRの場合のそれぞれの画像処理装置5における描画方法は、空間配置アプリの場合と同様である。
 図12(a)に示すように、まず、マス目移動アプリによって、東西南北を示したマス目が表示される。患者が視認している画面上に、最初の指示として、『スタート「S」に立ってください。』との指示が表示される。当該指示に応じて、患者が「S」の地点まで移動する。
 患者の移動に応じて、画像処理装置5は、ターゲット地点まで移動したかを認識する。VRやMRの場合は、位置情報を直接的に得ることができるので、画像処理装置5は、認識した位置情報がターゲット地点(スタート地点や、指示のあった地点)であるかを認識して、採点を行う。ARの場合は、画像処理装置5のカメラが撮影した画像を認識して、認識した画像がターゲット地点で得られる画像であるか否かを画像処理装置5が判断することで、採点が可能となっている。
 スタート地点に到達したら、画像処理装置5は、次の指示としてマス目の移動を指示する。図12(b)の例では、「西へ3、南へ4、東へ1」の移動指示がなされている。画像処理装置5は、このターゲット地点にまで到達したか否かを、同様に認識し、採点を行う。
 なお、この際、一つのマス目に立っていられる時間を制限したり、指示通りの移動経路でなければ減点したり、途中の通過点を指定したりなど、種々のゲーム性を持たせることが可能である。
 マス目移動アプリによって、高次脳機能障害を患っている患者の遂行機能及び/又は記憶力の向上が期待できる。
 なお、各アプリにおける採点基準は、特に本発明を限定するものではない。たとえば、数字抹消アプリや第1及び第2の選択抹消アプリ、空間配置アプリであれば、ターゲットの消去又は選択の毎に点数を加算していき、間違ったタップがなされたら、点数を減点し、クリアまでの時間をボーナスポイントとして、スコアを採点するとよい。迷路アプリであれば、ターゲット地点への到達毎に点数を加算していき、ゴールに到達したまでの時間をボーナスポイントとして、スコアを採点するとよい。マス目アプリであれば、指示された地点の移動に要した時間を基準にスコアを採点するとよい。これらの採点基準は、単なる一例に過ぎず、他の採点方法用いてもよいことはいうまでもない。
 図13は、画像処理装置5に記憶されるリハビリ履歴情報のデータ構造を示す図である。図13に示すように、主治医毎に、患者が管理され、各患者について、使用したアプリの種類や、アプリの使用モード(ここでは、測定モードを“1”、トレーニングモードを“2”としている)、リハビリを実施した施術年月日、施術者、アプリのスコア、ターゲットをどのように達成したかを示す達成履歴(タップの時間や正誤など)、視点位置の移動履歴などがリハビリ履歴情報として、画像処理装置5の記憶部55に記憶される。なお、オプションとして、患者がリハビリ時に見ていた動画が記憶されていてもよい。なお、視線位置の移動履歴について、視線の代わりに、患者の向きを用いる場合は、患者の向きの移動履歴となる。したがって、移動履歴を概念的に捉えると、患者の動きに関する情報であると言える。
 なお、言うまでも無いことであるが、図13は、あくまでも、リハビリ履歴情報のデータ構造の一例を示すに過ぎず、本発明を限定するものではない。リハビリの履歴が分かるようなデータであれば、リハビリ履歴情報のデータ構造はどのような構造であってもよい。
 図14は、医師側端末2におけるスケジュール作成処理(S103)で用いられるスケジュール作成画面の一例を示す図である。図14(a)において、2018年12月20日における患者「田中一郎」のスケジュールが作成される前が示されている。図14(a)の状態で、12月20日の欄が選択されたときのスケジュールの作成の流れを示す図が、図15である。
 まず、図15(a)に示すように、リハビリスケジュールを選択する画面が立ち上がる。ここで、施術日を入力し、リハビリメニューを選べるようになっている。プルダウンを選ぶと、過去に作成した既存のメニューが選択できるようになっている。ここでは、「田中1」及び「田中2」が既存のメニューであるとしている。ここでは、新たに「田中3」というメニューを作成する流れを示す。
 図15(a)の「+」のボタンを選択すると、メニューの編集画面(図15(b))が立ち上がる。図15(b)の画面で新規のメニュー名を入力し(ここでは、「田中3」)、使用するアプリを選択できるようになっている。アプリ選択を選ぶと、図15(c)に示すアプリの追加画面が立ち上がる。検査モードとトレーニングモードのタブがあり、モードのタブ毎に、障害のある機能に有効なアプリが選べるようになっている。
 ここでは、障害のある機能として、空間認知力、遂行能力、記憶力、情報獲得力、注意力、及び抑制力を用いている。障害毎に、アプリが選択できる。なお、各障害に有効なアプリは、重複していてもよい。すなわち、各アプリには、アプリを実施することによって改善が見込まれる障害が少なくとも1つ対応付けられている。
 図15(d)は、アプリの選択後の画面である。ここでは、「田中3」というメニューに「数字抹消」、「第1の選択抹消」、及び「第2の選択抹消」のアプリが選択されたことが示されている。そして、保存ボタンを押すことで、「田中3」というメニューが保存され、かつ、12月20日のメニューに、追加される(図14(b))。
 なお、言うまでもないことであるが、図14及び図15に示すスケジュールメニューの作成の流れや画面は、あくまでも一例に過ぎず、本発明を限定するものではない。当業者が周知のあらゆる手法を用いて、当業者が、スケジュールメニューの作成を行うことが本発明には含まれる。
 また、リハビリメニューとして、デフォルトで、典型的なメニューを選択できるようにしておいてもよい。
 図16は、施術者側端末4でのリハビリメニューの選択の画面の一例を示す図である。図16(a)は、基本画面である。基本画面には、「検査開始(スケジュール)」、「検査開始(スポット)」、「リハビリメニューダウンロード」、及び「リハビリ結果送信」のボタンが存在する。「検査開始(スポット)」については、第2の実施形態で用いるボタンであるので、ここでは、説明を省略する。
 まず、施術者は、「リハビリメニューダウンロード」を押して、スケジュールダウンロード処理(S302)を実行する。本実施形態では、施術者側端末4は、ダウンロードする日に実行するリハビリメニューがダウンロードする設定としている。ただし、施術日を指定したり、患者を指定したりして、リハビリメニューをダウンロードするようにしてもよいことは言うまでもない。
 図16(b)は、リハビリメニューのダウンロード画面の一例を示す図である。ダウンロードボタンを押すと、本日実施するリハビリメニューが、サーバ3からダウンロードできるようになっている。「ダウンロード済みリハビリメニュー」に、すでにダウンロードしたリハビリメニューが、表示されている。どれかのメニューを選択すると、「リハビリメニューの詳細」の欄に、メニューの詳細が表示される。このようにして、まずは、リハビリメニューをダウンロードしておいて、施術者は、リハビリ実行の準備を進めておく。
 実際にリハビリを開始する際には、施術者は、「検査開始(スケジュール)」を押す。すると、図16(c)に示すような画面に遷移する。図16(c)に示すように、施術担当者を選択して、ダウンロード済みのメニューが選択できるようになっている。ここでは、「田中2」が選択されているとしている。また、HMDの項目で、使用する画像処理装置5を選択できるようになっている。このようにして、メニューを選択すると、図17(a)に示すような画面に遷移する。
 図17(a)に示す画面では、「特許五郎」という施術者が、「田中2」というメニューを、「端末A」という画像処理装置5を用いて実施する状態が示されている。ここで、アプリの詳細が図17(a)に記載のように、画面に表示されている。表示内容はあくまでも一例であるが、ここでは、「数字抹消アプリ」を使用した場合の詳細な設定が表示されている。ここでは、詳細項目は、「ボール(数字を表示するボールのこと)の色」、「ボールの数」、「文字の大きさ」、「ヒント表示猶予(ヒント表示までの猶予時間)」、「設定範囲(数字が視線を中心に何度の角度の範囲で表示されているか)」、「モード(測定モードかトレーニングモードか)」、「抹消方法(ジェスチャー、凝視、タップなど)」、「制限時間(クリアまでの制限時間)」であるとしている。これらの項目は、アプリ設定条件の一例である。
 なお、測定モードとは、リハビリの成果を測定するために、予め決められた問題を繰り返し出題するモードである。予め決められた問題は、一つとは限らず、複数パターンの問題であってもよい。トレーニングモードとは、様々なパターンの問題を出題して、リハビリの成果を得るためのモードである。第1の実施形態では、トレーニングモードでは、ランダムに問題を生成するとしている。
 編集ボタンを押すことで、アプリ設定条件の詳細項目の内容を調整できるようになっている。
 「前のアプリ」又は「次のアプリ」を押すことで、実行予定のアプリの詳細が順に表示される。同様に、各アプリについても、アプリ設定条件の詳細項目の内容を調整できるようになっている。
 アプリ設定条件の詳細項目の編集は必須ではない。デフォルトで設定されている条件でよければ、詳細項目を編集する必要はない。
 図17(a)において、「実行」ボタンを押すことで、施術者側端末4から画像処理装置5に対して、リハビリのメニューと詳細な設定が送信されて、リハビリが開始される。
 なお、言うまでもないことであるが、図17(a)に示す画面例はあくまでも一例に過ぎず、本発明を限定するものではない。
 図17(b)は、リハビリ中の施術者側端末4に表示される画面の一例を示す図である。ここでは、数字抹消アプリが実行されているとする。「患者の見え方」の欄に、患者が実際に見ている画像が表示される。「患者の見え方」の欄に表示される画像は、VRの場合であれば、仮想空間上の画像であり、AR及びMRの場合であれば、現実空間の画像に仮想の対象物を合成した画像である。
 図17(b)に示すように、視線がたとえば黒丸で示されている。「次は1番」と表示されているように、次のターゲットが表示されている。「中止」を押すと、リハビリを施術者側で中止できる。「助言」を押すと、次のターゲットについてのヒントが画像処理装置5に表示される。ヒントとしてはたとえば、次のターゲットの位置を示す矢印などが考えられる。
 図18(a)に示すように、視線がターゲットの上に位置すると、視線がたとえば二重丸に変化する。その状態で、タップが患者によって行われると、図18(a)に示すように、ターゲットが消去される。
 図17(b)~図18(b)に示した施術者側端末4におけるリハビリ中の画面例は一例に過ぎず、本発明を限定するものではないことは言うまでもない。また、ここでは、数字抹消アプリの場合のみを図示したが、他のアプリについても、同様に、患者の見ている画像が、施術者側端末4に表示されるようになっていればよい。
 図17(b)~図18(b)に示したような患者の視線から見えている画像は、施術者側端末4から、ネットワーク6及びサーバ3を介して、医師側端末2に同時配信されるようにしてもよい。これにより、医師側端末2でも、リハビリの状況を遠隔地から、ほぼリアルタイムに把握することができる。
 アプリの実行中、画像処理装置5は、リハビリ履歴情報を順次記憶していく。
 アプリがクリアされると、画像処理装置5は、リハビリ履歴情報を施術者側端末4に送信する。リハビリ履歴情報が施術者側端末4に送信されると、施術者側端末4は、アプリの実行結果を表示する。図19は、施術者側端末4に表示されるアプリの実行結果の画面の一例を示す図である。
 図19に示すように、施術者側端末4は、スコア(ここでは、47点)を表示し、タップ履歴を表示する。タップ履歴は、一つのタップに至るタップ時刻や所要時間、タップした対象(ターゲット又は非ターゲット)の番号、正誤などである。ここでは、数字抹消アプリの例を示しているが、各アプリについて、各アプリに適したタップS履歴を、施術者側端末4が表示するとよい。また、施術者側端末4では、アプリの設定内容を確認(設定確認)できるようになっている。
 施術者側端末4は、画像処理装置5から得たリハビリ履歴情報を記憶しておき、図16(a)に示す「リハビリ結果送信」を施術者が押すことで、リハビリ履歴情報が送信される(S306)。ただし、施術者のアクションなく、施術者側端末4は、自動で、サーバ3にリハビリ履歴情報を送信してもよい。また、リハビリ履歴情報については、複数の患者の情報をまとめて送信してもよいし、患者毎に送信してもよい。
 医師側端末2では、サーバ3からダウンロードしたリハビリ履歴情報に基づいて、リハビリの成果を視覚的に分かりやすく表示することができる。図20は、医師側端末2でのリハビリ履歴情報の表示の一例を示す図である。まず、前提として、各アプリには、それぞれ、アプリを実施することによって改善が見込まれる障害が少なくとも1つ対応付けられており、アプリ毎に、リハビリに有効な空間認知力等の機能障害が決められている。たとえば、数字抹消アプリであれば、注意力に有効であり、第1の選択抹消アプリであれば、注意力及び/又は空間認知力に有効であり、第2の選択抹消アプリであれば、注意力及び/又は抑制力に有効であり、空間配置アプリであれば、空間認知力及び/又は情報獲得力に有効であり、迷路アプリであれば、空間認知力及び/又は遂行機能に有効であり、マス目移動アプリであれば、記憶力及び/又は遂行能力に有効である。そして、アプリの実行スコア毎に、各機能障害の状況を判定することができる。
 たとえば、図20(a)に示すように、機能障害毎のスコアをグラフ化することで、患者の現在の機能障害の度合いを医師が容易に把握することができる。たとえば、図20(a)に示す例では、抑止力及び記憶力が極端に低下していることが、一目で分かるようになっている。ここでは、レーダ式のグラフで表現しているが、用いるグラフとしては、周知のあらゆるグラフを用いることができるのであり、グラフの種類は、本発明を限定するものではない。
 また、図20(b)に示すように、機能障害毎のスコアを時系列のグラフに表すことで、患者のリハビリの成果を確認することができる。図20(b)に示す例では、日を追う毎に、各機能障害についてのスコアが上昇傾向にあることが確認できるので、リハビリの成果が出てきていると言える。ここでは、折れ線グラフで表現しているが、用いるグラフとしては、周知のあらゆるグラフを用いることができるのであり、グラフの種類は、本発明を限定するものではない。
 なお、一つのアプリに、改善の見込まれる複数の障害が対応付けられている場合もあるが、その場合は、一つのアプリの実施によって、複数の障害のスコアが表示される。
 また、一つの障害に、複数のアプリが対応付けられている場合もあるが、その場合は、その障害に対応する複数のアプリのスコアの平均値や重み付け平均値などを用いて、その障害のスコアが表示される。
 図21(a)は、リハビリ履歴情報の詳細を医師側端末2で閲覧した場合の表示画面の一例を示す図である。リハビリ履歴情報として、医師側端末2では、患者毎に、施術年月日、使用したアプリ、モード、施術者、及びスコアが表示されるようになっている。また、図21(a)の詳細を選ぶと、図21(b)に示すように、アプリ実行時のリハビリの様子を詳細に確認することができるようになっている。
 図21(b)に示す画面の例では、数字抹消アプリの場合の患者の動きが再現されて表示されている。医師がこのような患者の動きの履歴を確認すれば、患者がどのような障害を有しているか診断可能である。患者の動きは、適宜、再生ボタンを押すことで、順に再生させることも可能であるが、必須ではない。また、ここでは、図示していないが、患者のリハビリ時の施術者側端末4に表示されていた動画を、サーバ3に記憶しておいて、医師側端末2でダウンロードして、表示するようにしてもよい。また、図21(b)に示す画面の例では、達成履歴の表も表示されている。これらの詳細な表示は、アプリ毎に、適宜、設計して決めればよいものである。言うまでもないが、ここに図示した例は、一例に過ぎず、本発明を限定するものではない。図21(b)のような表示は、施術者側端末4において行われてもよい。
 以上のような画面遷移の一例を念頭に、各装置での動作の詳細について、以下、フローチャートを参照しながら説明する。
 図22は、医師側端末2でのスケジュールの作成処理のフローチャートである。まず、前提として、医師側端末2の制御部21は、スケジューリング兼閲覧プログラムを記憶部25から読み込んで実行しているものとする。
 医師側端末2の制御部21は、施術日の指定を受け付けるための表示を表示部23に表示させて、入力部22からの施術日の指定を受け付ける(S501)。なお、以下、冗長な説明を避けるために、表示部23及び入力部22と制御部51との関係が当業者にとって明らかな場合は、単に、「制御部21は、施術日の指定を受け付ける。」と表現して、表示部23及び入力部22との関係については、記載を省く(図23以降のフローチャートについても同様)。また、制御部21が記憶部25に情報を保存する場合についても、単に、「制御部21は、情報を保存する。」とのみ表現して、冗長な記載をさけることとする(図23以降のフローチャートについても同様)。
 次に、制御部21は、メニューの選択か又は作成のどちらかを受けつける(S502)。
 メニューの選択を受け付けた場合、制御部21は、リハビリメニュー情報に基づいて、既存のメニューを選択させて(S503)、施術日と紐付けて、スケジュール情報として保存する(S504)。
 一方、S502において、メニューの作成を受け付けた場合、制御部21は、表示部23にメニューを作成させるための画面を表示させる(S505)。次に、制御部21は、メニュー名称を受け付ける(S506)。次に、制御部21は、使用するアプリを選択させる(S507)。次に、必要に応じて、制御部21は、アプリ設定条件を調整させる(S508)。S508の動作は、任意であり、医師が必要であると考えれば行われる動作である。そして、制御部21は、作成されたメニューを新しいメニューとして、リハビリメニュー情報として保存し、さらに、施術日を紐付けして、スケジュール情報として、保存する(S504)。
 制御部21は、保存したリハビリメニュー情報及び/又はスケジュール情報を通信部24を介して、サーバ3にアップロードする(図6のS104)。
 図23は、施術者側端末4でのスケジュールのダウンロード処理を示すフローチャートである。前提として、施術者側端末4の制御部41は、リハビリ処理プログラムを記憶部45から読み込んで実行しているものとする。
 施術者側端末4の制御部41は、ユーザからの指示に応じて、通信部44を介して、サーバ3に対して、リハビリメニュー情報及びスケジュール情報のダウンロードを要求する(S601)。制御部41は、当日分のリハビリメニュー情報及びスケジュール情報をダウンロードして(S602)、保存する(S603)。なお、ここでは、当日分だけをダウンロードするとしているが、それに限定されるものではなく、複数日分や指定した日の分などをダウンロードしてもよいのは言うまでもない。
 図24は、施術者側端末4でのリハビリ開始指示のフローチャートである。前提として、施術者側端末4の制御部41は、リハビリ処理プログラムを記憶部45から読み込んで実行しているものとする。
 施術者側端末4の制御部41は、施術者を選択させる(S701)。次に、制御部41は、選択した施術者が担当する患者のリハビリメニューを選択させる(S702)。次に、制御部41は、使用する画像処理装置5を選択させ、選択された画像処理装置5との通信を開始する(S703)。ここで、適宜、制御部41は、アプリ設定条件の調整を受け付ける(S704)。準備が整ったら、制御部41は、アプリを実行するように、画像処理装置5に対して、指示を行う(S705)。
 以上のように、画像処理装置5へのアプリの実行指示がなされた上で、画像処理装置5にて、指示がなされたアプリが実行され、リハビリが実地される。以下、各アプリでの画像処理装置5の動作について、説明する。
 図25は、数字抹消アプリを実行中の画像処理装置5の動作を示すフローチャートである。前提として、画像処理装置5の制御部51は、アプリ実行プログラムを読み込んで、実行しており、施術者側端末4から指示されたアプリを指示された設定条件で、実行するものとする。また、前提として、図25に示す動作は、MRの場合を想定しているが、適宜、VR及びARの場合の動作について、説明を加えていく。
 図25において、まず、制御部51は、カウントダウンの表示を表示部53に表示させて、アプリを実行する位置をユーザが向くための時間を与える(S801)。なお、カウントダウン処理は、必須でなく、アプリの実行が開始したときの画像処理装置5の位置を開始位置としてもよいし、開始位置をユーザのタップ等の入力に合わせて、決定してもよい。
 次に、MRの場合、空間認識部57は、内蔵されているカメラを用いて、周囲の3次元空間を認識して、3次元データ化する(S802)。次に、トラッキング部58は、画像処理装置5の位置や傾きを認識する(S803)。制御部51は、S802及びS803の処理によって、画像処理装置5の3次元空間上の位置を把握して、3次元空間のどの位置に、画像処理装置5が存在しているかを認識する。なお、空間認識のための処理や、トラッキングのための処理については、画像処理装置5のOSが行う場合も、本発明に含まれる。また、空間認識処理については、内蔵されているカメラによる画像認識に限らず、深度カメラや、赤外線センサ、レーザ照射など、その他の各種センサや検出機などを用いて行われる場合も、本発明に含まれる。
 VRの場合は、制御部51は、S802で仮想空間の3次元データを生成し、S803で画像処理装置5の位置や傾きを認識して、仮想空間上に画像処理装置5がどこに位置しているかを認識する。
 ARの場合は、制御部51は、S802及びS803で、周辺の画像を撮影し、問題を合成する領域を決定する。
 次に、制御部51は、数字抹消のための問題を生成する(S804)。ここで、問題生成処理について、詳しく説明する。アプリ設定条件に基づいて、制御部51は、問題を生成する。モードが測定モードである場合は、固定した問題を3次元データ上に配置する。モードがトレーニングモードである場合は、ランダムに生成した問題を3次元データ上に配置する。配置する範囲は、アプリ設定条件で指定されている設定範囲(視線を中心とした角度)とする。その他ターゲットの色や数、大きさなどのアプリ設定条件に基づいて、問題が生成されることとなる。
 制御部51は、生成した問題を、3次元データ上に配置する(S805)。その後、数字抹消アプリの実行が進んでいくこととなるが、アプリの実行と平行して、画像処理部50による描画処理が行われる(S806)。
 図26は、画像処理部50における画像の描画処理のフローチャートである。画像の描画処理は、高速かつ大量の計算を必要とするため、ここでは、制御部51とは別の画像処理部50によって、処理が実行されているとしているが、当然、制御部51の性能によっては、制御部51が実行してもよいことは言うまでもない。
 画像処理部50は、トラッキング部58からの情報に基づいて、画像処理装置5の3次元データ上での位置及び傾きを検出する(S901)。次に、視線検出部59からの情報に基づいて、3次元データ上での視線の向きを検出する(S902)。次に、画像処理部50は、画像処理装置5の現在位置及び傾き並びに視線の向きに応じて、仮想空間の対象物を3次元データ上に配置し(S903)、表示部53に表示させる画像を決定して、当該画像を表示させる(S904)。このような処理がフレーム毎に実施されることで、画像処理装置5の動きに合わせて、現実空間上に、仮想の画像が存在するかのような表示を表示部53に表示させることが可能となる。
 VRの場合は、画像処理部50は、表示部53に仮想空間の画像上に、対象物を配置した画像を表示させる点を除いては、上記MRの場合と同様である。
 ARの場合は、画像処理装置5の撮像している現実空間の画像を認識して、画像処理装置50は、仮想空間の対象物を合成する。
 図27は、図25の動作の続きを示すフローチャートである。制御部51は、視線とターゲットとが重なっているか否かを判断する(S1001)。重なっていない場合、制御部51は、そのまま、視線を示す画像の描画を継続する(S1002)。一方、重なっている場合は、制御部51は、視線を示す画像を重なっていることを示す画像に表示を変更する(S1003)。
 なお、S1001において、MR及びVRの場合は、視線の位置とターゲット位置との比較によって、制御部51は、重なりを判断することができる。ARの場合は、視線の位置が認識されていないので、S1001~S1004において、制御部51は、患者の指先がターゲットと重なっているか否かや、患者がタブレット端末5eのディスプレイを直接タップ(指で触って位置指定するなど)したか否かなどを画像認識やタッチセンサなどで判断することで、タップが行われたか否かを判断することとする。
 S1003の状態で、タップが行われたか否かを判断する(S1004)。タップが行われなければ、制御部51は、S1001の動作に戻る。したがって、S1003の動作に一旦進んだとしても、タップまでに、途中で、重なりが外れれば、制御部51は、S1002の動作に進んでいくことになる。
 タップが行われた場合、制御部51は、正誤を判断し、正解の場合はターゲットを3次元データ上から消滅させて、ターゲットを消滅した表示を行う(S1005)。不正解の場合は、制御部51は、不正解である旨の表示を表示部53に表示させる(S1005)。
 タップによって、制御部51は、リハビリ履歴情報を記憶部55に記憶させる(S1006)。リハビリ履歴情報の記憶は、抹消動作毎に行われる。
 抹消動作の後、制御部51は、全てのターゲットが消滅して問題をクリアしたか否かを判断する(S1007)。問題がクリアできていない場合は、制御部51は、S1001の動作に戻る。一方、問題がクリアできた場合は、制御部51は、予め決めた採点基準に基づいて、スコアを採点する(S1008)。スコアがリハビリ履歴情報として記憶部55に記憶される。そして、制御部51は、通信部54を介して、記憶部55に記憶されているリハビリ履歴情報を、施術者側端末4に送信する(S1009)。なお、リハビリ履歴情報の保存方法については、特に限定されないが、たとえば、画像処理装置5は、予め決められた時間毎に、位置と視線などの情報を保存しておき、スコアと共に、リハビリ履歴情報として、施術者側端末4に送信するとよいが、限定されるものではない。また、画像処理装置5は、リハビリ履歴情報を、一定時間毎に、施術者側端末4に送信してもよい。
 図28は、第1の選択抹消アプリを実行の画像処理装置5の動作を示すフローチャートである。ここでの前提条件は、図25の場合と同様である。また、図28において、図25における動作と同様の動作については、同一の参照符号を付すこととし、異なる点についてのみ説明する。
 第1の選択抹消アプリは、数字抹消アプリと異なり、ターゲットを抹消する順序は問わない。したがって、図28の続きとなる図27のフローチャートにおけるS1005の正誤判断において、ターゲット(正解のターゲット)が選択されて抹消されれば、正解とし、抹消の順序を問うことなく採点する。
 図29は、第2の選択抹消アプリを実行の画像処理装置5の動作を示すフローチャートである。図30は、図29の動作の続きを示すフローチャートである。ここでの前提条件は、図25の場合と同様である。また、図29及び図30において、図25及び図27における動作と同様の動作については、同一の参照符号を付すこととし、異なる点についてのみ説明する。
 第2の選択抹消アプリは、数字抹消アプリと異なり、ターゲットを抹消する順序は問わない。第2の選択抹消アプリは、第1の選択抹消アプリと異なり、正解のターゲットを選択した場合、ターゲットの表示が変更になるが、消滅はしない。また、第2の選択抹消アプリは、表示が変更されたターゲットを選択してしまうと不正解とする。なお、正解以外のターゲットを選択した場合、スコアには何ら影響がないとしてもよいし、また、不正解としてスコアに影響するようにしてもよいが、限定されるものではない。したがって、図29の続きとなる図30のフローチャートにおけるS1005bの正誤判断において、ターゲットが選択されれば、制御部51は、ターゲットの表示を変更して、抹消の順序を問うことなく正解として採点する。
 図31は、空間配置アプリを実行の画像処理装置5の動作を示すフローチャートである。ここでの前提条件は、図25の場合と同様である。また、図31において、図25における動作と同様の動作については、同一の参照符号を付すこととし、説明を省略する。
 図31において、トラッキング部58が、画像処理装置5の位置や傾きを認識した(S803)後、制御部51は、アプリ設定条件に合わせて、表示部53に仮想の通路を表示させる(S1101)。仮想の通路は、仮想の壁を表示するための目印となるものであり、仮想の通路の位置を決めることで、仮想の壁の位置が決まるものとする。患者が、画像処理装置5の位置を調整すると、それに合わせて、仮想の通路の位置も調整される。仮想の通路が、現実空間の障害物と重なって配置されてしまっては、患者が現実空間上を歩行することができないので、患者は、障害物が存在しない領域に仮想の通路が表示されるように、画像処理装置5の位置を調整する。仮想の通路の位置の調整が完了したら、患者によって、タップが行われる。それに応じて、制御部51は、仮想の通路の位置を決定する(S1102)。仮想通路の位置が決定すると、制御部51は、3次元データ上に、仮想通路を示すデータを反映させる。
 S1101~S1102の動作は、MR,VR及びAR共に同様である。すなわち、MRの場合は、制御部51は、仮想通路を現実空間と重なるように表示し、VRの場合は、制御部51は、仮想空間上に仮想通路を表示し、ARの場合は、制御部51は、撮影している現実空間の映像に仮想通路を合成して表示するようにすればよい。
 次に、制御部51は、アプリ設定条件に合わせて、仮想通路に沿った仮想の壁面の3次元データを生成する(S1103)。制御部51は、アプリ設定条件に合わせて、仮想壁面の上に、ターゲットを配置するようにターゲットの位置を決定する問題を生成する(S1104)。制御部51は、測定モードの場合、固定的にターゲットの位置を決定し、トレーニングモードの場合、ランダムにターゲットの位置を決定する。制御部51は、生成した問題を、3次元データ上に配置する(S805)。その後、画像処理部50が、図26(S806)の動作を、問題の採点と平行して実行する。
 問題の採点は、基本的には、第1の選択抹消アプリの動作(図27)と同様である。数字抹消アプリと異なり、S1005の動作において、ターゲットの抹消の順番は問わない。
 図32は、迷路アプリを実行の画像処理装置5の動作を示すフローチャートである。図33は、図32の動作の続きを示すフローチャートである。ここでの前提条件は、図25の場合と同様である。また、図32及び図33において、図25及び図27における動作と同様の動作については、同一の参照符号を付すこととし、説明を省略する。
 図32において、トラッキング部58が、画像処理装置5の位置や傾きを認識した(S803)後、制御部51は、アプリ設定条件に合わせて、表示部53に仮想のマス目を表示させる(S1201)。仮想のマス目は、迷路のための仮想の壁を表示するための目印となるものであり、仮想のマス目の位置を決めることで、仮想の壁の位置が決まるものとする。患者が、画像処理装置5の位置を調整すると、それに合わせて、仮想のマス目の位置も調整される。仮想のマス目が、現実空間の障害物と重なって配置されてしまっては、患者が現実空間上を歩行することができないので、患者は、障害物が存在しない領域に仮想のマス目が表示されるように、画像処理装置5の位置を調整する。仮想のマス目の位置の調整が完了したら、患者によって、タップが行われる。それに応じて、制御部51は、仮想のマス目の位置、すなわち、迷路を配置する位置を決定する(S1202)。仮想迷路の位置が決定すると、制御部51は、3次元データ上に、仮想のマス目を示すデータを反映させる。
 S1201~S1202の動作は、MR,VR及びAR共に同様である。すなわち、MRの場合は、制御部51は、仮想マス目を現実空間と重なるように表示し、VRの場合は、制御部51は、仮想空間上に仮想マス目を表示し、ARの場合は、制御部51は、撮影している現実空間の映像に仮想マス目を合成して表示するようにすればよい。
 次に、制御部51は、アプリ設定条件に合わせて、仮想マス目に沿った迷路用の仮想の壁面のデータを生成する(S1203)。制御部51は、アプリ設定条件に合わせて、仮想マス目の上に、ターゲットを配置するようにターゲットの位置を決定する問題を生成する(S1204)。制御部51は、測定モードの場合、固定的にターゲットの位置を決定し、トレーニングモードの場合、ランダムにターゲットの位置を決定する。制御部51は、生成した問題を、3次元データ上に配置する(S805)。その後、画像処理部50が、図26(S806)の動作を、問題の採点と平行して実行する。
 問題のクリアの判断は、図33の流れに即して実行される。制御部51は、空間認識部57からの情報に基づいて、画像処理装置5の現在位置を把握し、現在位置のマス目の表示を変更する(たとえば、マス目の色を変えるなどする)(S1301)。次に、制御部51は、現在のマス目の位置がターゲットの位置であるか否かを判断する(S1302)。現在位置がターゲットの位置でない場合、制御部51は、S1301の動作に戻る。
 S1302において、MR及びVRの場合は、現在位置とターゲット位置との比較によって、制御部51は、ターゲット位置への到達を判断することができる。ARの場合は、現在位置が認識されていないので、S1301及びS1302において、制御部51は、画像処理装置5の周辺の画像を認識して、ターゲット位置に到達しているか否かで、判断することとする。
 現在位置がターゲットの位置である場合、制御部51は、ターゲットを消滅させて(S1303)、リハビリ履歴情報に反映させる(S1304)。次に、制御部51は、全ターゲットが消滅したか否かを判断する(S1305)。全ターゲットが消滅していない場合、制御部51は、S1301の動作に戻る。全ターゲットが消滅している場合、制御部51は、現在位置がゴール地点に到達するまで処理を継続し、ゴール地点に到達したら(S1306)、採点(S1008)及びリハビリ履歴情報の送信(S1009)に進む。
 ゴール地点に到達したか否かの判断については、MR、VR、及びARの場合共に、S1302の動作で説明したのと同様である。
 なお、ここでは、全ターゲットが消滅した後でないとゴールできないこととしているが、全ターゲットが消滅していなくても、ゴール地点に達したら、制御部51は、クリアしたと判断して、採点してもよい。その場合、制御部51は、ターゲットが消滅していないことを減点するなどして採点結果に反映させるとよいが、本発明を限定するものではない。
 図34は、マス目移動アプリを実行の画像処理装置5の動作を示すフローチャートである。図35は、図34の動作の続きを示すフローチャートである。ここでの前提条件は、図25の場合と同様である。また、図34及び図35において、図25、図27、図32、及び図33における動作と同様の動作については、同一の参照符号を付すこととし、説明を省略する。
 図34において、S1202までは、図32と同様に、仮想マス目の位置が決定される。その後、制御部51は、仮想マス目用のデータを生成する。画像処理部50は、3次元データ上に、仮想マス目を示すデータを反映させる(S1401)。制御部51は、アプリ設定条件に合わせて、問題を生成する(S1402)。ここで生成される問題は、スタートの位置と、移動方向を示す問題である。制御部51は、測定モードの場合、固定的にターゲットの位置を決定し、トレーニングモードの場合、ランダムにターゲットの位置を決定する。制御部51は、生成した問題に基づいて、図35のクリア判断の動作に進む。
 問題のクリアの判断は、図35の流れに即して実行される。制御部51は、現在位置のマス目の表示を変更する(S1301)。制御部51は、スタート位置をマス目上に表示させる(S1501)。制御部51は、現在位置がスタート位置に到達したか否かを判断する(S1502)。スタート位置に到達した場合、制御部51は、問題を表示させる(S1503)。制御部51は、問題で指定されたクリア位置に達したか否かを判断する(S1504)。クリア位置に達するまで、問題が表示される。クリア位置に達した場合、制御部51は、採点(S1008)及びリハビリ履歴情報の送信(S1009)に進む。
 なお、MR、VR、及びAR毎のスタート位置への到達やクリア位置への到達判断については、図33のターゲット位置への到達判断と同様である。
 このように、第1の実施形態によれば、仮想現実、拡張現実、又は複合現実を用いた画像によるリハビリを実行する画像処理装置5において、リハビリ履歴情報が記憶されて、当該リハビリ履歴情報が施術者側端末4及び医師側端末2において、共有することができる。したがって、医師及び施術者が患者のリハビリテーションの状況を把握しやすくなり、その結果、適切なリハビリテーションメニューを構築することができるよう
 特に、拡張現実用の画像処理装置を用いて、現実空間上に、高次脳機能障害のリハビリテーションに使用する仮想の対象物の画像が存在するかのような問題を生成することで、患者が、いわゆるVR酔いや転倒などという状況に陥る危険性が軽減する。よって、患者が違和感なく、安全に、リハビリテーションを行うことができることとなる。
 (第2の実施形態)
 第2の実施形態は、図16(a)に示した「検査開始(スポット)」の場合の動作を示す。第1の実施形態では、医師側端末2が作成したスケジュールでリハビリメニューが決められることとした。しかし、医師の指示の下、具体的なリハビリの内容については、施術者が決定するということも、リハビリを行う国の法制度によっては、あり得る。また、医師が、リハビリテーションシステム1を用いずに、別な手段(口頭や電子メール、グループウエア、紙など)を用いて、施術者にリハビリの方針を指示する場合もあり得る。そこで、本発明のリハビリテーションシステム1には、施術者が単独でリハビリメニューを組んで、リハビリを行うことができるようになっている。
 図36は、第2の実施形態における施術者側端末4と画像処理装置5との間の動作の流れを示すフローチャートである。まず、施術者側端末4は、使用するアプリを選択し(S1601)、使用する画像処理装置5を選択する(S1602)。施術者側端末4は、施術者の指示に応じて、リハビリ設定条件を調整する(S1603)。次に、施術者側端末4は、施術者の指示に応じて、アプリの実行指示を画像処理装置5に対して行う(S1604)。
 その後は、第1の実施形態と同様にして、画像処理装置5は、アプリの実行処理を行う(S1605)。アプリの実行中、施術者側端末4は、患者の視線画像を表示する(S1606)。アプリの実行が完了すると、画像処理装置5は、リハビリ履歴情報を施術者側端末4に送信する(S1607)。施術者側端末4は、リハビリ履歴情報を受信して(S1608)、保存する(S1609)。施術者側端末4は、リハビリ履歴情報を患者と紐付けて、保存しておく。施術者側端末4は、リハビリ履歴情報をサーバ3にアップロードすることができる。医師側端末2は、スポットで実施されたリハビリ履歴情報を、サーバ3からダウンロードすることができる。
 このように、第2の実施形態では、施術者側端末からも、リハビリメニューが指定できるので、施術者が臨機応変にリハビリを実施することが可能となる。
 図37は、医師側端末2及び/又は施術者側端末4での数字抹消アプリでのアプリ設定条件の設定画面の一例を示す図である。図37に示すように、数字抹消アプリでは、たとえば、ターゲットの色、数、文字の大きさ、ヒント表示の猶予時間、設定範囲、モード、抹消方法、制限時間などを調整することができる。
 図38は、医師側端末2及び/又は施術者側端末4での第1の選択抹消アプリでのアプリ設定条件の設定画面の一例を示す図である。図38に示すように、第1の選択抹消アプリでは、たとえば、正解ターゲットの種類や数、不正解ターゲットの種類や数、設定範囲、モード、抹消方法、制限時間などを調整することができる。
 図39は、医師側端末2及び/又は施術者側端末4での第2の選択抹消アプリでのアプリ設定条件の設定画面の一例を示す図である。図39に示すように、第2の選択抹消アプリでは、たとえば、正解ターゲットの種類や数、設定範囲、モード、抹消方法、制限時間などを調整することができる。
 図40は、医師側端末2及び/又は施術者側端末4での空間配置アプリでのアプリ設定条件の設定画面の一例を示す図である。図40に示すように、空間配置アプリでは、壁の種類、道の長さ、道幅、壁の高さの最低値、壁の高さの最高値、正解ターゲットの種類や数、不正解ターゲットの種類や数、モード、抹消方法、制限時間などを調整することができる。
 図41は、医師側端末2及び/又は施術者側端末4での迷路アプリでのアプリ設定条件の設定画面の一例を示す図である。図41に示すように、迷路アプリでは、モード、迷路の横幅のマス数、奥行きのマス数、通路の幅、壁の高さ、正解ターゲットの種類や数、制限時間などを調整することができる。
 図42は、医師側端末2及び/又は施術者側端末4でのマス目移動アプリでのアプリ設定条件の設定画面を示す図である。図42に示すように、マス目移動アプリでは、横幅のマス数、奥行きのマス数、移動回数(何回移動してターゲット地点とするか)、繰り返し回数(全部で何回問題が出されるか)、停止可能実行時間(1マスに停止できる時間)、モード、制限時間などを調整することができる。
 ここに示したアプリ設定条件は、あくまでも、一例に過ぎず、いかようにでも変更してよく、本発明を限定するものではない。
 (その他の実施形態)
 画像処理装置5で実行されるアプリ実行プログラムにおいて、バーチャルトレーナーが表示されるようになっていてもよい。図43は、画像処理装置5に表示されるバーチャルトレーナーの一例である。
 画像処理装置5は、表示部53に、バーチャルトレーナーのアバター画像を表示させる。バーチャルトレーナーは、文字又は音声で、励ましの言葉やヒントとなる言葉を出力する。
 バーチャルトレーナーを用いることで、施術者の負担が軽減できる。
 また、問題の難易度は、自動的に調整できるようになっているとよい。図44は、問題の難易度を自動的に調整できるようにしたときの医師側端末2及び/又は施術者側端末4の動作を示すフローチャートである。以下、説明の簡略化のために、難易度の設定及び弱点に対応した問題の作成は、施術者側端末4で行っているものとするが、医師側端末2で行ってもよい。また、在宅リハビリを想定した場合、スマートフォンやタブレット端末等の画像処理装置5c,5eによって、患者がリハビリを自宅等で行うことも考えられる。そのような場合、バーチャルトレーナーは有用である。また、在宅リハビリの場合に、図44に示すような難易度の自動調整及び弱点に対応した問題の作成は、画像処理装置5で行われてもよいし、サーバ3で行われてもよい。すなわち、難易度の調整を、どの機器が行うかは、本発明を限定するものではない。
 施術者側端末4は、患者属性データを読み込み(S1901)、対応する患者の前々回の結果データを読み込み(S1902)、前回の結果データを読み込む(S1903)。そして、施術者側端末4は、前回の結果データと前々回の結果データとを比較し、成績がよくなっているかを判断する(S1904)。
 そして、前回の成績が前々回の成績よりも高い場合、施術者側端末4は、難易度を前回よりも高く設定する(S1905)。前回の成績と前々回の成績が同じ場合、施術者側端末4は、難易度を前回と同じに設定する(S1906)。前回の成績が前々回の成績よりも低い場合、施術者側端末4は、難易度を前回よりも低く設定する(S1907)。難易度とは、ターゲットの数や配置範囲などで、設定可能である。ただし、難易度の設定は一例であり、本発明を限定するものではない。
 難易度の設定の後、施術者側端末4は、視線履歴に問題があるか否かを判断する(S1908)。ここで、視線履歴に問題があるとは、たとえば、右側のターゲットの選択や抹消についての不正解が多いか否かなどである。S1906の動作は、施術者側端末4が自動で判断してもよいし、施術者又は医師が手動で判断してもよい。
 視線履歴に問題が無い場合、施術者側端末4は、標準的な配置ロジックを選択する(S1909)。一方、視線履歴に問題がある場合、施術者側端末4は、弱点を強化する配置ロジックを選択する(S1910)。標準的な配置ロジックとして、たとえば、ランダムにターゲットを配置するロジックが考えられる。弱点を強化するロジックは、たとえば、右側が弱点の場合は、右側へのターゲットの配置を多くするロジックなどが考えられる。ただし、ロジックは一例であり、本発明を限定するものではない。
 このようにして、難易度と配置ロジックを設定した上で、施術者側端末4は、問題を生成する際に、難易度と配置ロジックを考慮しても問題を生成するように、画像処理装置5に対して指示する(S1911)。画像処理装置5は、難易度と配置ロジックに基づいて、問題を生成する。
 なお、ここでは、前回と前々回とのスコアを比較することで、難易度を調整しているが、比較すべき対象は、前回と前々回とのスコアに限るものではない。前回と何回か前の平均値でもよいし、何回か前の平均値の増減傾向でもよい。いずれにしても、過去のスコアに基づいて、難易度が調整されていればよい。
 なお、難易度の調整のみが実施されてもよいし、弱点把握による配置ロジックの調整のみが実施されてもよい。
 このように、難易度及び/又は配置ロジックの調整を実現することで、患者のリハビリ効果をより高めることが可能となる。
 なお、ターゲットの画像のサイズが変更可能であってもよい。同じ問題の中で、ターゲットの画像のサイズが変わってもよいし、問題の難易度に合わせて、ターゲットの画像のサイズが変わってもよい。
 また、ターゲットの画像の色や明るさなどが変更可能であってもよい。同じ問題の中で、ターゲットの画像の色や明るさなどが変わってもよいし、問題の難易度に合わせて、ターゲットの画像の色や明るさが変わってもよい。
 これらの調整は、人が手動で設定してもよいし、リハビリ履歴情報に応じて、自動で調整されてもよい。
 また、問題の中で、ターゲットは、静止しているだけでなく、移動していてもよい。ターゲットが移動していくことによって、さらなる障害の改善が期待できる。
 以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示にすぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。本明細書に開示されている発明の構成要件は、それぞれ独立に単独した発明として成立するものとする。各構成要件をあらゆる組み合わせ方法で組み合わせた発明も、本発明に含まれることとする。
 本発明は、リハビリテーションシステム及び画像処理装置に関し、産業上利用可能である。
 1 リハビリテーションシステム
 2 医師側端末
 3 サーバ
 4 施術者側端末
 5 画像処理装置
 6 ネットワーク
 50 画像処理部
 51 制御部
 52 入力部
 53 表示部
 54 通信部
 55 記憶部
 56 音声出力部
 57 空間認識部
 58 トラッキング部
 59 視線検出部(向き検出部)

 

Claims (35)

  1.  高次脳機能障害のリハビリテーションを実施するためのリハビリテーションシステムであって、
     仮想現実、拡張現実、又は複合現実を用いた画像によるリハビリ用の問題を患者に提示するためのアプリを実行し、前記患者が前記問題を解いた履歴をリハビリ履歴情報として記憶する画像処理装置と、
     前記画像処理装置から前記リハビリ履歴情報を受信する施術者側端末と、
     前記施術者側端末から送られてくる前記リハビリ履歴情報を保存するサーバと、
     前記サーバから、前記リハビリ履歴情報を受信し、前記リハビリ履歴情報に基づいて、前記患者のリハビリテーションの実施状況を表示する医師側端末とを備えることを特徴とする、リハビリテーションシステム。
  2.  前記画像処理装置は、前記問題を提示するための一種類以上のアプリを含んでおり、
     前記施術者側端末は、前記画像処理装置で実施するアプリを選択し、前記画像処理装置に対して、選択したアプリを実行するように指示することができることを特徴とする、請求項1に記載のリハビリテーションシステム。
  3.  前記医師側端末は、使用するアプリを紐付けるようにして、前記画像処理装置において実施されるリハビリのスケジュールを作成して、前記サーバに保存し、
     前記施術者側端末は、前記サーバに保存されている前記スケジュールをダウンロードして、前記画像処理装置に対して、前記スケジュールで指定されている前記アプリを実行するように、指示することができることを特徴とする、請求項1又は2に記載のリハビリテーションシステム。
  4.  前記画像処理装置で使用するアプリには、アプリを実施することによって改善が見込まれる障害が少なくとも1つ対応付けられており、
     前記リハビリ履歴情報には、アプリが出題した問題に対する解答のスコアが含まれており、
     前記医師側端末は、障害毎に、アプリのスコアを表示することで、障害の改善状況が分かるように表示することを特徴とする、請求項1~3のいずれかに記載のリハビリテーションシステム。
  5.  前記医師側端末は、時系列に、アプリの採点結果を表示することを特徴とする、請求項4に記載のリハビリテーションシステム。
  6.  前記リハビリ履歴情報には、前記患者の動きに関する情報が含まれており、
     前記医師側端末及び/又は前記施術者側端末は、前記リハビリ履歴情報に基づいて、前記患者の動きを再現する表示を行うことができることを特徴とする、請求項1~5のいずれかに記載のリハビリテーションシステム。
  7.  前記画像処理装置は、アプリの実行中に前記患者から見えている画像を前記施術者側端末に送信し、
     前記施術者側端末は、前記画像処理装置から送信されてきた前記画像を表示することを特徴とする、請求項1~6のいずれかに記載のリハビリテーションシステム。
  8.  前記施術者側端末で表示された画像は、動画として保存されることを特徴とする、請求項7に記載のリハビリテーションシステム。
  9.  前記医師側端末は、保存された前記動画を再生することができることを特徴とする、請求項8に記載のリハビリテーションシステム。
  10.  前記画像処理装置から送信されてきた前記画像は、前記医師側端末に同時配信されることを特徴とする、請求項7に記載のリハビリテーションシステム。
  11.  前記画像処理装置で実行されるアプリは、調整可能な設定条件を有しており、
     前記医師側端末及び/又は前記施術者側端末は、前記設定条件を調整可能であることを特徴とする、請求項1~10のいずれかに記載のリハビリテーションシステム。
  12.  前記問題が表示される角度の範囲が前記設定条件として調整可能であることを特徴とする、請求項11に記載のリハビリテーションシステム。
  13.  前記問題で表示される対象物の数が前記設定条件として調整可能であることを特徴とする、請求項11又は12に記載のリハビリテーションシステム。
  14.  前記画像処理装置は、アプリを実行するモードとして、測定モードとトレーニングモードとを有しており、
     前記測定モードでは、前記画像処理装置は、予め決められた問題を出題し、
     前記トレーニングモードでは、前記画像処理装置は、ランダムに作成した問題を出題することを特徴とする、請求項1~13のいずれかに記載のリハビリテーションシステム。
  15.  前記画像処理装置には、仮想のトレーナーとなるアバター画像が表示されることを特徴とする、請求項1~14のいずれかに記載のリハビリテーションシステム。
  16.  前記医師側端末、前記施術者側端末、前記画像処理装置、又は前記サーバは、前記問題の過去のスコアに基づいて、前記問題の難易度を調整し、前記難易度に応じた問題を前記画像処理装置に出題させることを特徴とする、請求項1~15のいずれかに記載のリハビリテーションシステム。
  17.  前記リハビリ履歴情報に基づいた患者の弱点に応じて、前記医師側端末、前記施術者側端末、前記画像処理装置、又は前記サーバは、前記弱点に応じた問題を作成し、前記画像処理装置に出題させることを特徴とする、請求項1~16のいずれかに記載のリハビリテーションシステム。
  18.  前記画像処理装置は、前記仮想現実、前記拡張現実、又は前記複合現実を用いて、数字の画像を表示して、前記数字の画像を順番に抹消させる問題を出題する数字抹消アプリを実行することを特徴とする、請求項1~17のいずれかに記載のリハビリテーションシステム。
  19.  前記画像処理装置は、前記仮想現実、前記拡張現実、又は前記複合現実を用いて、ターゲット及び非ターゲットとなる画像を表示して、前記ターゲットとなる画像を抹消させる問題を出題する第1の選択抹消アプリを実行することを特徴とする、請求項1~18のいずれかに記載のリハビリテーションシステム。
  20.  前記画像処理装置は、前記仮想現実、前記拡張現実、又は前記複合現実を用いて、ターゲット及び非ターゲットとなる画像を表示して、前記ターゲットとなる画像を選択させて、選択後に画像を変化させる問題を出題する第2の選択抹消アプリを実行することを特徴とする、請求項1~19のいずれかに記載のリハビリテーションシステム。
  21.  前記画像処理装置は、前記仮想現実、前記拡張現実、又は前記複合現実を用いて、少なくとも一つの壁の画像及び前記壁の上に配置されたターゲット及び非ターゲットとなる画像を表示して、前記ターゲットとなる画像を抹消させる問題を出題する空間配置アプリを実行することを特徴とする、請求項1~20のいずれかに記載のリハビリテーションシステム。
  22.  前記画像処理装置は、前記仮想現実、前記拡張現実、又は前記複合現実を用いて、迷路となる画像を表示して、前記迷路をクリアさせる問題を出題する迷路アプリを実行することを特徴とする、請求項1~21のいずれかに記載のリハビリテーションシステム。
  23.  前記迷路アプリでは、ターゲットとなる画像を表示して、前記ターゲットとなる画像を抹消させる問題を出題することを特徴とする、請求項22に記載のリハビリテーションシステム。
  24.  前記画像処理装置は、前記仮想現実、前記拡張現実、又は前記複合現実を用いて、マス目となる画像を表示して、前記マス目上を移動させる問題を出題するマス目移動アプリを実行することを特徴とする、請求項1~23のいずれかに記載のリハビリテーションシステム。
  25.  前記画像処理装置は、前記仮想現実、前記拡張現実、又は前記複合現実を用いて、仮想の画像を表示するアプリにおいて、前記患者の視界の範囲外にも、前記仮想の画像を表示することを特徴とする、請求項1~24のいずれかに記載のリハビリテーションシステム。
  26.  前記仮想の画像は、前記問題のターゲット及び/又は非ターゲットとなる画像であることを特徴とする、請求項25に記載のリハビリテーションシステム。
  27.  前記仮想の画像は、前記問題で使用する壁、迷路、又はマス目の画像であることを特徴とする、請求項25に記載のリハビリテーションシステム。
  28.  前記画像処理装置の周辺の空間を認識する空間認識部と、
     前記空間認識部が認識した空間における前記画像処理装置の位置及び傾きを認識するトラッキング部と、
     ユーザの向きを検出する向き検出部と、
     仮想の対象物を前記空間認識部が認識した空間上に配置して、前記トラッキング部が認識した前記位置及び前記傾き並びに前記向き検出部が検出した前記向きに基づいて、前記ユーザから見える前記仮想の対象物の画像を生成する画像処理部と、
     現実空間上に、前記画像処理部が生成した前記仮想の対象物の画像が存在するかのように、前記画像処理部が生成した画像を前記ユーザに対して表示する拡張現実用の表示部とを備える画像処理装置であって、
     現実空間上に、高次脳機能障害のリハビリテーションに使用する前記仮想の対象物の画像が存在するかのような問題を生成する制御部をさらに備えることを特徴とする、高次脳機能障害のリハビリテーション用の画像処理装置。
  29.  前記制御部は、前記向き検出部による検出結果を用いて、前記ユーザによる前記仮想の対象物の画像の選択を検出し、検出した選択結果に基づいて、前記問題の採点を行うことを特徴とする、請求項28に記載の画像処理装置。
  30.  前記制御部は、前記仮想の対象物の画像として、前記ユーザに選択させるための画像を用い、その画像を少なくとも前記ユーザの視界上に配置するように、前記問題を生成することを特徴とする、請求項29に記載の画像処理装置。
  31.  前記制御部は、前記ユーザに選択させるための画像を、前記ユーザの視界の外にも配置するように、前記問題を生成することを特徴とする、請求項30に記載の画像処理装置。
  32.  前記制御部は、前記トラッキング部による前記画像処理装置の位置の検出結果に基づいて、前記問題の採点を行うことを特徴とする、請求項28~31のいずれかに記載の画像処理装置。
  33.  前記制御部は、前記仮想の対象物の画像として、前記ユーザによる現実空間上の移動を促すための画像を用い、その画像を少なくとも前記ユーザの視界上に配置するように、前記問題を生成することを特徴とする、請求項32に記載の画像処理装置。
  34.  前記制御部は、前記ユーザによる現実空間上の移動を促すための画像を、前記ユーザの視界の外にも配置するように、前記問題を生成することを特徴とする、請求項33に記載の画像処理装置。
  35.  前記画像処理装置の周辺の空間を認識する空間認識部と、
     前記空間認識部が認識した空間における前記画像処理装置の位置及び傾きを認識するトラッキング部と、
     ユーザの向きを検出する向き検出部と、
     仮想の対象物を前記空間認識部が認識した空間上に配置して、前記トラッキング部が認識した前記位置及び前記傾き並びに前記向き検出部が検出した前記向きに基づいて、前記ユーザから見える前記仮想の対象物の画像を生成する画像処理部と、
     現実空間上に、前記画像処理部が生成した前記仮想の対象物の画像が存在するかのように、前記画像処理部が生成した画像を前記ユーザに対して表示する拡張現実用の表示部とを備える画像処理装置において実行されるコンピュータプログラムを記憶した記憶媒体であって、
     前記コンピュータプログラムは、前記画像処理装置を、現実空間上に、高次脳機能障害のリハビリテーションに使用する前記仮想の対象物の画像が存在するかのような問題を生成する制御手段として機能させることを特徴とする、高次脳機能障害のリハビリテーション用のコンピュータプログラムを記憶した記憶媒体。
PCT/JP2019/001869 2019-01-22 2019-01-22 高次脳機能障害用のリハビリテーションシステム及び画像処理装置 WO2020152779A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
PCT/JP2019/001869 WO2020152779A1 (ja) 2019-01-22 2019-01-22 高次脳機能障害用のリハビリテーションシステム及び画像処理装置
JP2020567274A JP7036327B2 (ja) 2019-01-22 2019-01-22 高次脳機能障害用のリハビリテーションシステム及び画像処理装置
CN201980089743.1A CN113678206B (zh) 2019-01-22 2019-01-22 用于高级脑功能障碍的康复训练系统及图像处理装置
US17/424,329 US20220076803A1 (en) 2019-01-22 2019-01-22 Rehabilitation system and image processing apparatus for higher brain dysfunction
JP2021195966A JP7029717B1 (ja) 2019-01-22 2021-12-02 高次脳機能障害用のリハビリテーションシステム及び画像処理装置
JP2022022634A JP7270196B2 (ja) 2019-01-22 2022-02-17 高次脳機能障害用のリハビリテーションシステム及び画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/001869 WO2020152779A1 (ja) 2019-01-22 2019-01-22 高次脳機能障害用のリハビリテーションシステム及び画像処理装置

Publications (1)

Publication Number Publication Date
WO2020152779A1 true WO2020152779A1 (ja) 2020-07-30

Family

ID=71735648

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/001869 WO2020152779A1 (ja) 2019-01-22 2019-01-22 高次脳機能障害用のリハビリテーションシステム及び画像処理装置

Country Status (4)

Country Link
US (1) US20220076803A1 (ja)
JP (1) JP7036327B2 (ja)
CN (1) CN113678206B (ja)
WO (1) WO2020152779A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7248995B1 (ja) 2021-12-16 2023-03-30 ▲シュ▼▲ワン▼ 許 インタラクティブな拡張現実を利用した手のリハビリシステム
EP4173574A4 (en) * 2021-09-10 2023-10-11 mediVR, Inc. DEVICE FOR ESTIMATING COGNITIVE CAPACITY, ASSOCIATED METHOD AND PROGRAM
JP7430912B2 (ja) 2020-12-03 2024-02-14 株式会社リモハブ リハビリテーション支援システム、リハビリテーション支援サーバ、医療端末装置の制御方法および患者端末装置の制御方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220148268A1 (en) * 2020-11-10 2022-05-12 Noderix Teknoloji Sanayi Ticaret Anonim Sirketi Systems and methods for personalized and interactive extended reality experiences
CN114005323B (zh) * 2021-10-22 2023-07-21 南通市第二人民医院 一种面向中枢整合康复治疗技术的虚拟现实训练系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001079050A (ja) * 1999-09-16 2001-03-27 Japan Science & Technology Corp 高次脳機能障害リハビリテーション装置
JP2007267802A (ja) * 2006-03-30 2007-10-18 Hokkaido 検査システム、訓練システムおよび視覚情報呈示システム
JP2009502335A (ja) * 2005-07-26 2009-01-29 ヴィヴォメトリクス・インク 生理的にガイドされるアバターを含むコンピュータ・インタフェース
JP2013161315A (ja) * 2012-02-07 2013-08-19 Toshiba Tec Corp リハビリ管理装置、リハビリ管理システム及び制御プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1015003A (ja) * 1996-07-02 1998-01-20 Matsushita Electric Ind Co Ltd リハビリテーション支援装置
KR20140061170A (ko) * 2012-11-13 2014-05-21 재단법인대구경북과학기술원 재활 훈련 시스템 및 방법
US9788714B2 (en) * 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
CN107308638B (zh) * 2017-06-06 2019-09-17 中国地质大学(武汉) 一种虚拟现实交互的游戏型上肢康复训练系统及方法
CN109011097A (zh) * 2018-07-26 2018-12-18 燕山大学 一种基于运动想象与增强现实的康复训练方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001079050A (ja) * 1999-09-16 2001-03-27 Japan Science & Technology Corp 高次脳機能障害リハビリテーション装置
JP2009502335A (ja) * 2005-07-26 2009-01-29 ヴィヴォメトリクス・インク 生理的にガイドされるアバターを含むコンピュータ・インタフェース
JP2007267802A (ja) * 2006-03-30 2007-10-18 Hokkaido 検査システム、訓練システムおよび視覚情報呈示システム
JP2013161315A (ja) * 2012-02-07 2013-08-19 Toshiba Tec Corp リハビリ管理装置、リハビリ管理システム及び制御プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7430912B2 (ja) 2020-12-03 2024-02-14 株式会社リモハブ リハビリテーション支援システム、リハビリテーション支援サーバ、医療端末装置の制御方法および患者端末装置の制御方法
EP4173574A4 (en) * 2021-09-10 2023-10-11 mediVR, Inc. DEVICE FOR ESTIMATING COGNITIVE CAPACITY, ASSOCIATED METHOD AND PROGRAM
JP7248995B1 (ja) 2021-12-16 2023-03-30 ▲シュ▼▲ワン▼ 許 インタラクティブな拡張現実を利用した手のリハビリシステム
JP2023089894A (ja) * 2021-12-16 2023-06-28 ▲シュ▼▲ワン▼ 許 インタラクティブな拡張現実を利用した手のリハビリシステム

Also Published As

Publication number Publication date
CN113678206B (zh) 2023-02-03
JPWO2020152779A1 (ja) 2021-10-14
JP7036327B2 (ja) 2022-03-15
CN113678206A (zh) 2021-11-19
US20220076803A1 (en) 2022-03-10

Similar Documents

Publication Publication Date Title
WO2020152779A1 (ja) 高次脳機能障害用のリハビリテーションシステム及び画像処理装置
US11815951B2 (en) System and method for enhanced training using a virtual reality environment and bio-signal data
CN110431636A (zh) 医疗助理
IL290002B2 (en) Automatic control of a wearable display device based on external conditions
US20110262887A1 (en) Systems and methods for gaze based attention training
CN103959357A (zh) 用于眼科检查培训的系统、方法和计算机程序
JP2021506052A (ja) コミュニケーション方法及びシステム
KR102423849B1 (ko) 가상현실을 이용한 진료 및 임상술기 시뮬레이션 제공 시스템
KR102105552B1 (ko) 사용자의 인지능력 개선을 위한 안마의자 시스템
Astell et al. System development guidelines from a review of motion-based technology for people with dementia or MCI
KR20190015438A (ko) 훈련 컨텐츠의 난이도를 설정하는 방법 및 이를 운용하는 전자 장치
WO2022034771A1 (ja) プログラム、方法、情報処理装置
JP6884306B1 (ja) システム、方法、情報処理装置
JP2019160033A (ja) 表示制御装置およびプログラム
KR102160669B1 (ko) 의료 커뮤니케이션 가상 훈련 시뮬레이션 시스템 및 방법
KR102138639B1 (ko) 치매환자용 복합 인지재활 콘텐츠 제공 시스템 및 방법
JP7270196B2 (ja) 高次脳機能障害用のリハビリテーションシステム及び画像処理装置
JP7029717B1 (ja) 高次脳機能障害用のリハビリテーションシステム及び画像処理装置
Campos et al. Human-Computer Interaction--INTERACT 2011: 13th IFIP TC 13 International Conference, Lisbon, Portugal, September 5-9, 2011, Proceedings, Part II
Morrison et al. Collaborating with computer vision systems: An exploration of audio feedback
JP2022187952A (ja) プログラム、方法、情報処理装置
Goldiez Techniques for assessing and improving performance in navigation and wayfinding using mobile augmented reality
Vogiatzaki et al. Rehabilitation after stroke using immersive user interfaces in 3D virtual and augmented gaming environments
Vogiatzaki et al. Virtual reality gaming with immersive user interfaces
de Sousa Rego Serious games for health rehabilitation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19911693

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020567274

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19911693

Country of ref document: EP

Kind code of ref document: A1