WO2019082635A1 - 動画像記録システム - Google Patents

動画像記録システム

Info

Publication number
WO2019082635A1
WO2019082635A1 PCT/JP2018/037544 JP2018037544W WO2019082635A1 WO 2019082635 A1 WO2019082635 A1 WO 2019082635A1 JP 2018037544 W JP2018037544 W JP 2018037544W WO 2019082635 A1 WO2019082635 A1 WO 2019082635A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
unit
target person
control unit
station
Prior art date
Application number
PCT/JP2018/037544
Other languages
English (en)
French (fr)
Inventor
栄太 平井
和樹 古家
Original Assignee
パラマウントベッド株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パラマウントベッド株式会社 filed Critical パラマウントベッド株式会社
Priority to CN201880038885.0A priority Critical patent/CN111226289B/zh
Priority to US16/620,710 priority patent/US11648168B2/en
Publication of WO2019082635A1 publication Critical patent/WO2019082635A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5043Displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5092Optical sensor

Definitions

  • the present invention relates to a moving image recording system.
  • Priority is claimed on Japanese Patent Application No. 2017-208304, filed Oct. 27, 2017, the content of which is incorporated herein by reference.
  • the present invention provides a moving picture recording system capable of improving the operability in a moving picture recording system for picking up an object person.
  • One aspect of the present invention is a moving image recording system including an information processing apparatus and a station to which the information processing apparatus can be detached, wherein the station is connected to the information processing apparatus to transmit and receive data. And an acquisition unit for acquiring target person identification information for identifying a target person for imaging, and a control unit for transmitting the target person identification information acquired by the acquisition unit from the connection unit to the information processing apparatus.
  • the connection unit configured to connect to the station to transmit and receive data, the imaging unit configured to capture the subject, the storage unit configured to store a moving image captured by the imaging unit, and the connection unit.
  • Recording control unit that receives the target person identification information from the station and writes the target person identification information received to the storage unit in association with the received moving image of the target person by the imaging unit , Comprising a.
  • operability in a moving image recording system for imaging a subject can be improved.
  • FIG. 1 It is a perspective view which shows the system configuration
  • FIG. 26A It is a flowchart which shows an example of the moving image recording and reproducing process by the tablet terminal in the 2nd Embodiment of this invention. It is a figure which shows the modification in 1st Embodiment and 2nd Embodiment of this invention, Comprising: It is a perspective view which shows the form made to support a tablet terminal not to a station but to a movement support stand. It is a figure which shows the modification, Comprising: It is a principal part enlarged view of FIG. 26A.
  • FIG. 1 is a perspective view showing a system configuration of a rehabilitation support system S1 (moving image recording system) in the present embodiment.
  • the rehabilitation support system S1 is a system that supports the implementation of rehabilitation for a rehabilitation target person EP (hereinafter referred to as "target person EP"). More specifically, the rehabilitation support system S1 is a system for capturing and recording the state of the rehabilitation of the target person EP as a moving image, and reproducing and displaying the recorded moving image.
  • the rehabilitation support system S1 includes a tablet terminal 10, a station 20, a remote control 30, and media 40-1 and 40-2.
  • the media 40-1 and 40-2 will be referred to as the media 40 unless otherwise specified.
  • the tablet terminal 10 is a tablet-type portable information processing apparatus.
  • the tablet terminal 10 can be attached to the station 20 and can be detached from the station 20.
  • the station 20 is a stationary station that can be installed on a wall of a room or the like.
  • the station 20 is capable of detaching the tablet terminal 10.
  • the station 20 holds the tablet terminal 10 in the upright state and faces the front.
  • the station 20 is connected to the tablet terminal 10 to transmit and receive data.
  • the station 20 is connected to a power source, and automatically supplies power to the tablet terminal 10 when the tablet terminal 10 is attached.
  • the remote control 30 is a remote controller for remotely operating the tablet terminal 10.
  • the remote control 30 has a button arranged on the front. Further, the remote control 30 is sized to fit in the palm, and is, for example, a design that is easy to hold.
  • the medium 40 is a medium having an RFID (Radio Frequency IDentifier) tag storing personal information on the holder.
  • the personal information includes at least identification information that identifies the owner.
  • the identification information of the target person EP is a patient number (target person identification information).
  • the subject EP wears a band-type medium 40-1 on the wrist.
  • an assistant SP hereinafter referred to as “assistant SP”
  • assistant SP such as a physical therapist or an occupational therapist who assists the rehabilitation of the subject EP holds the card type medium 40-2 in his hand.
  • the target person EP may use the card type medium 40-2 and the operator SP may use the band type medium 40-1.
  • the target person EP and the assistant SP may use the band type medium 40-1, and the target person EP and the assistant SP may use the card type medium 40-2.
  • the shape of the medium 40 is not limited to the band type or the card type, and may be another shape that can be easily held and mounted by the target person EP or the operator SP.
  • FIG. 2 is a perspective view showing an example of the appearance of the tablet terminal 10 and the station 20 provided in the rehabilitation support system S1.
  • the tablet terminal 10 includes an imaging unit 101 and a display unit 103 on the front.
  • the imaging unit 101 is a camera for imaging a subject.
  • the imaging unit 101 images a target person EP who is performing rehabilitation.
  • the display unit 103 is an image display device such as a liquid crystal display or an organic EL (Electro Luminescence) display.
  • the display unit 103 includes a touch panel on the display screen. For example, the display unit 103 reproduces and displays a moving image stored in the tablet terminal 10.
  • the station 20 includes a pairing reading unit 201 on the front.
  • the pairing reading unit 201 is an acquisition unit that acquires personal information for identifying the target person EP and an operation category related to rehabilitation.
  • the pairing reading unit 201 reads personal information from the medium 40.
  • the pairing reading unit 201 is provided with five reading areas 2011 to 2015. Different operation categories are associated with the respective reading areas 2011 to 2015.
  • the motion category is a category of motion in rehabilitation. In the example shown in the figure, the operation category “sitting" is associated with the reading area 2011, the operation category "standing” is associated with the reading area 2012, and the operation category “rising” is associated with the reading area 2013.
  • the action category “walk” is associated with the reading area 2014, and the action category “other” is associated with the reading area 2015.
  • the pairing reading unit 201 acquires the operation category from the reading areas 2011 to 2015 obtained by reading personal information from the medium 40.
  • the operation category is not limited to the one described above, and can be freely changed or added by setting.
  • the action category may include not only "action” but also categories indicating "work", "practice” and the like.
  • the reading areas 2011 to 2015 may be one, read-only for personal information, and the operation category may be selected by an application in the tablet terminal 10. This allows the category to be flexibly updated by updating the application.
  • the station 20 also includes a docking unit 205.
  • the docking unit 205 has a concave holding unit on the side, and holds the side of the tablet terminal 10 by the holding unit.
  • the docking unit 205 may be movable left and right.
  • FIG. 3 is a schematic block diagram showing an example of functional configurations of the tablet terminal 10, the station 20, the remote controller 30, and the medium 40 provided in the rehabilitation support system S1.
  • the tablet terminal 10 includes an imaging unit 101, a control unit 102, a display unit 103, a storage unit 104, an operation unit 105, a receiving unit 106, and a connection unit 107.
  • the tablet terminal 10 may not have the imaging unit 101, and may use a moving image captured by an external camera via the connection unit 107. More specifically, for example, an external camera (web camera or the like) that is separate from the tablet terminal 10 may be disposed, and instead of the imaging unit 101, an image may be taken by this external camera. In this case, the external camera may transmit the captured moving image to the tablet terminal 10 in real time, or may temporarily store the moving image without transmitting it. When temporarily storing the captured moving image in the external camera, the external camera may transmit the moving image to the tablet terminal 10 when receiving an instruction from the tablet terminal 10.
  • an external camera web camera or the like
  • the control unit 102 is configured using a CPU (Central Processing Unit), and centrally controls the operation of the tablet terminal 10.
  • the control unit 102 includes a recording control unit 1021 and a display control unit 1022.
  • the recording control unit 1021 records a moving image obtained by imaging the target person EP by the imaging unit 101, and stores the moving image, the patient number of the target person EP received from the station 20, the operation category related to rehabilitation, and the moving image.
  • the image capturing date and time are taken in correspondence with each other and written in the storage unit 104 and saved.
  • the display control unit 1022 reproduces and displays the moving image stored in the storage unit 104 on the display unit 103. Further, the display control unit 1022 arranges a plurality of (for example, two) moving images of the target person EP on the display unit 103 and simultaneously reproduces them.
  • the storage unit 104 is configured using a storage device such as a read only memory (ROM) or a random access memory (RAM), and stores various information.
  • ROM read only memory
  • RAM random access memory
  • the storage unit 104 stores image data of a moving image captured by the imaging unit 101 (hereinafter referred to as moving image data) and a correspondence table that associates the moving image, the subject, the operation category, and the imaging date and time. .
  • the operation unit 105 is configured using an existing input device such as a button or a touch panel, and receives an input.
  • the operation unit 105 is operated by the assistant SP when inputting an instruction of the assistant SP to the tablet terminal 10.
  • the receiving unit 106 receives control data from the remote controller 30 by infrared rays or the like.
  • the control data includes start information instructing the start of recording of a moving image or stop information instructing stop of the recording of a moving image.
  • the connection unit 107 is an interface connected to the station 20 to transmit and receive data when the tablet terminal 10 is attached to the station 20.
  • the tablet terminal 10 may have, for example, a functional unit that a smartphone or tablet terminal generally has, such as an audio output unit that outputs audio.
  • the station 20 includes a pairing reading unit 201, a power feeding unit 202, a control unit 203, and a first connection unit 204.
  • the power supply unit 202 supplies power to each unit of the station 20. In addition, when the tablet terminal 10 is attached to the station 20, the power supply unit 202 supplies power to the tablet terminal 10 via the first connection unit 204.
  • the control unit 203 integrally controls the operation of the station 20.
  • the control unit 203 may be configured using a CPU.
  • the control unit 203 transmits, for example, the personal information and the operation category read from the medium 40 by the pairing reading unit 201 from the first connection unit 204 to the tablet terminal 10.
  • the first connection unit 204 is an interface that connects to the tablet terminal 10 to transmit and receive data when the tablet terminal 10 is attached to the station 20. Note that part or all of the functions of the station 20 may be realized by an application of the tablet terminal 10.
  • the remote control 30 includes an operation unit 301 and a transmission unit 302.
  • the operation unit 301 is configured using a button, and receives an input.
  • the transmission unit 302 transmits control data to the tablet terminal 10 by infrared light or the like.
  • the medium 40 includes a storage unit 401.
  • the storage unit 401 stores personal information of the owner.
  • the personal information is, for example, a patient number, a name, a date of birth, and the like.
  • FIG. 4 is a schematic block diagram showing an example of the hardware configuration of the tablet terminal 10 provided in the rehabilitation support system S1.
  • the tablet terminal 10 includes a CPU 1001, a RAM 1002, a ROM 1003, a communication module 1004, an auxiliary storage device 1005, an input device 1006, and an output device 1007, which are connected by a bus line 1008 or the like.
  • the CPU 1001 corresponds to the control unit 102.
  • a RAM 1002, a ROM 1003, and an auxiliary storage device 1005 correspond to the storage unit 104.
  • the communication module 1004 corresponds to the reception unit 106 and the connection unit 107.
  • the input device 1006 corresponds to the imaging unit 101.
  • the output device 1007 corresponds to the display unit 103.
  • FIG. 5 is a schematic view showing a data configuration and an example of data of the correspondence table stored in the storage unit 104 of the tablet terminal 10.
  • the correspondence table has items of a subject, an operation category, a date and time, and a moving image.
  • the subject is the patient number of the subject EP who is the subject of the moving image.
  • the motion category is a motion category of rehabilitation.
  • the date is the date and time when the moving image was captured.
  • the moving image is a data name of moving image data.
  • FIG. 6 is an image diagram showing an example of processing in the rehabilitation support system S1.
  • FIG. 7 is a sequence diagram showing an example of processing in the rehabilitation support system S1.
  • the state of the rehabilitation of the target person EP can be recorded as a moving image by the tablet terminal 10, and the recorded moving image can be reproduced and confirmed by the tablet terminal 10.
  • the tablet terminal 10 is attached in advance to a station 20 installed on a wall surface or the like.
  • a station 20 installed on a wall surface or the like.
  • the assistant SP it is possible to save time and effort for the assistant SP to adjust and set the position of the tripod, the height of the camera, and the like so that the object person EP is photographed in order to pick up a moving image.
  • the position of the camera is set by using a tripod or the like, it takes time and effort to observe the previously set position at a fixed point, or the position is shifted.
  • setting can be easily performed simply by attaching the tablet terminal 10 to the station 20.
  • the position of the tablet terminal 10 does not shift from the previous position, if the position of the target person EP is determined, it is possible to capture a moving image of rehabilitation in the same range each time, and comparison of moving images Easy to do.
  • the station 20 since the station 20 is installed on a wall surface or the like, it does not normally get in the way in a rehabilitation room where various people come and go, and it is not necessary to put it away. Also, it can be used immediately when you want to use it.
  • the assistant SP holds the medium 40 corresponding to the target person EP over the pairing reading unit 201 of the station 20 (step S101) (see FIG. 6A). At this time, the assistant SP holds the medium 40 over the reading area corresponding to the operation category of the pairing reading unit 201 that the target person EP is about to start (that is, recorded in the moving image). In the illustrated example, the medium 40 is held over the reading area 2011 corresponding to the operation category "sitting position".
  • the pairing reading unit 201 of the station 20 reads the personal information of the target person EP from the medium 40, and acquires an operation category corresponding to the reading area on which the medium 40 is held (step S102). Then, the pairing reading unit 201 outputs the acquired personal information and the operation category to the control unit 203. The control unit 203 transmits the input personal information and operation category to the tablet terminal 10 via the first connection unit 204 (step S103).
  • the control unit 102 of the tablet terminal 10 When the control unit 102 of the tablet terminal 10 receives the personal information and the operation category from the station 20, the control unit 102 displays a menu screen corresponding to the received personal information on the display unit 103 (step S104).
  • the menu screen patient card registration for registering personal information of the target person EP in the medium 40, various settings, moving image reproduction for reproducing moving images, moving image transfer for transferring moving images to other devices, Moving picture recording for recording moving pictures and each menu such as logout are displayed in a selectable manner.
  • the assistant SP selects moving image recording from the menu screen (step S105).
  • the control unit 102 calculates the recordable time from the free space for moving image recording in the storage unit 104 and displays it on the display unit 103 (step S106). .
  • the control unit 102 displays a message such as “Remaining 0 MB (approximately ⁇ minutes) can be recorded” or the like on the display unit 103.
  • the control unit 102 activates the imaging unit 101, and displays a moving image recording screen for recording a moving image on the display unit 103 (step S107).
  • An image captured by the imaging unit 101 is displayed on the moving image recording screen. Since the screen of the display unit 103 of the tablet terminal 10 is disposed on the same plane as the imaging unit 101, it can be imaged in a state where the screen of the display unit 103 can be seen from the assistant SP and the target person EP. Then, by displaying the image to be captured by the imaging unit 101 on the moving image recording screen, the assistant SP can check the appearance of the target person EP before or during the recording of the moving image. Also, the received personal information and the operation category are displayed on the moving image recording screen. This makes it possible to reduce moving image registration errors.
  • the assistant SP presses a button on the operation unit 301 of the remote control 30 to instruct the start of recording (step S108) (see FIG. 6B).
  • the transmission unit 302 of the remote control 30 transmits start information to the tablet terminal 10.
  • the recording control unit 1021 of the control unit 102 of the tablet terminal 10 starts recording of a moving image captured by the imaging unit 101 (step S109). Note that recording of a moving image may be started by pressing the start button displayed on the tablet terminal 10 without using the remote control 30.
  • the assistant SP presses the button on the operation unit 301 of the remote control 30 again to instruct the end of the recording (step S110).
  • the assistant SP since the assistant SP can operate the tablet terminal 10 using the remote control 30, the moving picture can be captured even if it is separated from the tablet terminal 10. Therefore, during rehabilitation, it is possible to be beside the target person EP, and it is possible to safely carry out rehabilitation.
  • the buttons disposed on the operation unit 301 of the remote control 30 it is possible to reduce an operation error and perform a sensory operation.
  • the recording of the moving image may be ended by pressing the stop button displayed on the tablet terminal 10 without using the remote control 30.
  • the steps S108 and S110 may be performed by the tablet terminal 10 instead of the remote controller 30.
  • the assistant SP operates the tablet terminal 10 to start recording after the moving image recording screen is displayed on the tablet terminal 10.
  • the assistant SP operates the tablet terminal 10 again to end the recording.
  • the moving image temporarily stored in the tablet terminal 10 may be edited to change and store the start point and the end point.
  • the remote control 30 it is possible to obtain a moving image of a necessary time range.
  • the transmission unit 302 of the remote control 30 transmits stop information to the tablet terminal 10.
  • the recording control unit 1021 of the control unit 102 of the tablet terminal 10 ends the recording of the moving image captured by the imaging unit 101 (step S111), and stores the moving image data in the storage unit 104.
  • Write and save step S1112.
  • the recording control unit 1021 of the control unit 102 corresponds the patient number included in the personal information received from the station 20, the operation category, the date and time (the imaging date and time) when recording of the moving image ended, and the moving image. And memorize. Specifically, the recording control unit 1021 of the control unit 102 writes the patient number, the operation category, the imaging date and time, and the moving image in the correspondence table stored in the storage unit 104 in association with each other.
  • the target person, the operation category, and the imaging date and time are automatically associated with the moving image by only one simple operation of holding the medium 40 over the reading area corresponding to the operation category.
  • the reading area is set for each operation category, so that the operation category can be specified only by changing the place where the medium 40 is held. That is, the personal information and the action category to be associated with the moving image can be input with only one action of holding the medium 40. Therefore, the assistant SP does not need to input such information to the tablet terminal 10, and the operability is improved. Thereby, the work load of assistant SP can be reduced.
  • the recorded moving image can be reproduced immediately on the spot.
  • the assistant SP can remove the tablet terminal 10 from the station 20 and check the moving image recorded as the target person EP (see FIG. 6C). Since the screen of the video camera is usually smaller than the screen of the tablet terminal 10, it is difficult for the target person EP whose visual acuity such as the elderly person is lowered to check moving images on the screen of the video camera. .
  • the rehabilitation support system S1 since the recorded moving image can be reproduced on the relatively large screen of the tablet terminal 10, the moving image can be shown to the target person EP and confirmed on the spot where the image was taken it can.
  • the recorded moving image may be transferred from the tablet terminal 10 to another display device connected by wire or wireless and displayed. This makes it possible to check moving pictures on a larger screen or a plurality of screens.
  • the tablet terminal 10 is removable from the station 20, the target person EP does not have to go to the position where the station 20 is located. Since the position where the target person EP is located is an imaging point, it is often far from the station 20. In that case, the tablet terminal 10 can be removed from the station 20 and taken to the front of the target person EP. Thus, it is possible to confirm and share the moving image recorded by the assistant SP and the target person EP on the spot where the image is taken. Furthermore, while the assistant SP and the target person EP check the recorded moving image, the moving image is touched to write in a handwritten picture (marker) or a handwritten note, and these markers and memos are stored together with the moving image. May be In this case, the assistant SP and the target person EP can more easily share information.
  • the assistant SP and the target person EP can more easily share information.
  • the display control unit 1022 of the control unit 102 of the tablet terminal 10 displays a moving image reproduction screen for reproducing the recorded moving image on the display unit 103.
  • FIG. 8 is an image diagram showing an example of a moving image reproduction screen displayed on the display unit 103 of the tablet terminal 10.
  • the moving image reproduction screen shown in the figure includes a reproduction area G for reproducing a moving image, a reproduction button BT1 for reproducing a moving image, and a reset button BT2 for resetting the current reproduction position to a reproduction start position.
  • a slow ON button BT3 for slow reproduction of a moving image
  • a simultaneous reproduction ON button BT4 for simultaneously reproducing a plurality of moving images
  • a moving image selection button BT5 for selecting a moving image to be reproduced
  • a moving image reproduction An end button BT6 for closing the screen and returning to the original screen is disposed.
  • the display control unit 1022 of the control unit 102 reproduces the moving image in the reproduction area G when the reproduction button BT1 is pressed on the moving image reproduction screen and the input is received. Further, the display control unit 1022 of the control unit 102 reproduces the moving image in the reproduction area G from the beginning when the reset button BT2 is pressed on the moving image reproduction screen and the input is received. Further, when the slow ON button BT3 is pressed on the moving image reproduction screen and the input is accepted, the display control unit 1022 of the control unit 102 slows the reproduction of the moving image in the reproduction area G. By slow reproduction, it is possible to easily analyze and understand quick operations such as a standing operation. In particular, in the case of confirming together with the target person EP, the elderly people can easily understand slow reproduction.
  • the display control unit 1022 of the control unit 102 displays the moving image selection screen for selecting the moving image to be reproduced on the moving image reproduction screen on the display unit 103. Do. In addition, when the end button BT6 is pressed on the moving image reproduction screen and the input is received, the display control unit 1022 of the control unit 102 ends the moving image reproduction screen and displays the menu screen on the display unit 103.
  • a reproduction location bar BR1 is a bar for adjusting the position at which reproduction is started.
  • the end point bar BR2 is a bar for adjusting the position at which the reproduction ends.
  • the current position bar BR3 is a bar indicating the current reproduction position.
  • the positions of the reproduction location bar BR1 and the end location bar BR2 can be changed by an operation on a touch panel or the like.
  • the assistant SP can adjust the reproduction position of the moving image. For example, after adjusting the positions of the reproduction location bar BR1 and the end location bar BR2, the assistant SP presses the reproduction button BT1.
  • the display control unit 1022 of the control unit 102 of the tablet terminal 10 reproduces the moving image on the reproduction area G from the position corresponding to the reproduction position bar BR1, and ends the reproduction of the moving image at the position corresponding to the end position bar BR2. That is, the moving image is reproduced from the position of the reproduction point bar BR1 to the position of the end point bar BR2. This makes it possible to pinpoint only the portion of the action that you want to see. When checking a moving image, it is often reproduced and viewed several times, and the first half of the moving image is often meaningless in the operation preparation period, so changing the playback position is effective .
  • the tablet terminal 10 can reproduce
  • the assistant SP presses the simultaneous reproduction ON button BT4.
  • the display control unit 1022 of the control unit 102 of the tablet terminal 10 causes the display unit 103 to display a moving image selection screen for selecting a past moving image to be reproduced simultaneously when the moving image selection button BT4 is pressed on the moving image reproduction screen and receives an input. indicate.
  • FIG. 9A is an image diagram showing an example of a moving image selection screen displayed on the display unit 103 of the tablet terminal 10.
  • the patient number and the name of the target person EP are displayed in the upper left portion, and an icon indicating the moving image of the target person EP is displayed in a selectable list.
  • Each icon is composed of a pictogram and a character string indicating the corresponding motion picture motion category.
  • the motion category of the moving image can be easily determined.
  • the contents of the motion category can be intuitively transmitted without being restricted by the language, and a representation suitable for global correspondence is realized.
  • the icons are displayed separately for each date when the moving image was captured. Furthermore, the captured time is displayed below the icon. In addition, the icons are displayed in a manner that makes it easy to identify whether the time captured on each date is morning or afternoon. For example, the morning icon may be surrounded by a red area, the afternoon icon may be surrounded by a blue area, and so on.
  • the assistant SP selects and presses an icon of a moving image to be simultaneously reproduced on the moving image selection screen.
  • the display control unit 1022 of the control unit 102 of the tablet terminal 10 reads the moving image of the icon selected on the moving image selection screen from the storage unit 104, and displays the simultaneous reproduction screen on the display unit 103.
  • the moving image selection screen shown in FIG. 9B may be adopted.
  • an operation category, shooting date and time, moving image time, and the like are displayed.
  • an icon in the area ar2 shown in FIG. 9B, it is shown by an icon that the following editing data is associated with the moving image.
  • -Flag Arbitrary degree of importance of data can be selected arbitrarily-Data of memo entry is available-Data of free entry marker is available-Various measurement data are available (for example, angle of raising arm, angle of inclination of trunk etc. of data Yes) ⁇ With mosaic processing data ⁇ With continuous photo creation data ⁇ With 2 screen comparison data ⁇ With overlap comparison data
  • FIG. 10 is an image diagram showing an example of the simultaneous reproduction screen displayed on the display unit 103 of the tablet terminal 10.
  • a current reproduction area G1 for reproducing a current moving image a past reproduction area G2 for reproducing a past moving image
  • buttons BT1 to BT6 are arranged on the simultaneous reproduction screen shown in the figure.
  • the current moving image is a moving image reproduced on the moving image reproduction screen, and is, for example, a moving image captured most recently.
  • the past moving image is a moving image selected on the moving image selection screen.
  • the functions of the buttons BT1 to BT6 in the simultaneous reproduction screen are the same as those of the moving picture reproduction screen.
  • the display control unit 1022 of the control unit 102 simultaneously reproduces the current moving image in the reproduction area G1 and the past moving image in the reproduction area G2 when the reproduction button BT1 is pressed on the simultaneous reproduction screen and the input is received. That is, the tablet terminal 10 can simultaneously reproduce the current moving image and the past moving image side by side. Therefore, since two moving images can be arranged side by side on one screen and can be simultaneously reproduced, comparison with the past moving images can be easily performed on the spot where the image is taken. Therefore, the target person EP can easily confirm the recovery state (the effect of rehabilitation) on the spot how much it has improved compared to the past (for example, at the time of hospitalization). In addition, at the site where imaging is performed, moving pictures can be compared between the assistant SP and the target person EP, tasks can be shared, and a rehabilitation menu for the tasks can be implemented.
  • two current moving images may be arranged at different magnifications. For example, one may be a crawling moving image, and the other may be a moving image with a part thereof enlarged.
  • two moving images obtained by imaging a third person who is not a patient such as a therapist and the moving image obtained by imaging the target person EP may be arranged. In this case, the motion of the target person EP can be compared, using the motion of a third party such as a therapist as a model.
  • the arrangement of the plurality of moving images may be arranged not only in the horizontal direction but also in the vertical direction.
  • a reproduction portion bar BR11, an end portion bar BR12 and a current position bar BR13 described later may be arranged just beside the vertically arranged moving image, or in the vertically arranged moving image You may arrange it directly under.
  • a reproduction location bar BR11, an end location bar BR12 and a current position bar BR13 corresponding to the current moving image are arranged in the lower part of the current reproduction area G1. Further, on the simultaneous reproduction screen, a reproduction location bar BR21, an end location bar BR22, and a current position bar BR23 corresponding to a past moving image are arranged in the lower part of the past reproduction area G2.
  • the assistant SP can adjust the current reproduction position of the moving image by changing the positions of the reproduction position bar BR11 and the end position bar BR12. In addition, the assistant SP can adjust the past reproduction point of the moving image by changing the positions of the reproduction point bar BR21 and the end point bar BR22.
  • the time from the start of recording of a moving image to the start of the operation may differ depending on each moving image. Therefore, even if two moving images are reproduced simultaneously, the target person EP does not always start the operation simultaneously in each moving image. Therefore, when the two moving images are reproduced from the beginning as they are, the timings of the operations of the target person EP in each moving image are different and it is difficult to compare.
  • the playback position of each moving image can be adjusted to match the timing of the operation of the target person EP in the two moving images in accordance with the start timing of the operation or the like.
  • the assistant SP presses the reproduction button BT1.
  • the display control unit 1022 of the control unit 102 of the tablet terminal 10 simultaneously reproduces the past moving image from the part corresponding to the reproduction part bar BR11 and the part corresponding to the reproduction part bar BR21.
  • the target person EP starts to operate simultaneously in the two moving images, so it becomes easy to compare the difference and it is possible to easily confirm a change in the operating speed etc. .
  • the reproduction location bars BR1, BR11 and BR21 and the end location bars BR2, BR12 and BR22 constitute a reproduction position designation unit for designating a reproduction position in a moving image.
  • the display control unit 1022 reproduces the reproduction position designated by the reproduction position designation unit in the moving image.
  • the tablet terminal 10 can select and reproduce
  • the control unit 102 displays on the display unit 103 a moving image selection screen for selecting a moving image to be reproduced.
  • a moving image selection screen In the moving picture selection screen, one or two moving pictures can be selected.
  • control unit 102 causes display unit 103 to display a moving image reproduction screen for reproducing the selected moving image.
  • control unit 102 causes display unit 103 to display a simultaneous reproduction screen for simultaneously reproducing the two selected moving images.
  • the tablet terminal 10 can transfer the recorded moving image to another device such as a personal computer or a cloud (server apparatus) to transfer data.
  • control unit 102 displays a moving image selection screen for selecting a moving image to be transferred, and data (moving image data and data related to the moving image selected on the moving image selection screen).
  • the correspondence data (target person, action category and date and time) associated with the moving image in the correspondence table is transferred.
  • the transfer means may use, for example, a computer-readable recording medium, or wireless communication such as wireless LAN (Local Area Network) or Bluetooth (registered trademark).
  • the tablet terminal 10 transfers data to transfer the recorded moving image to another device, the memo or marker attached to the moving image may also transfer data together with the moving image.
  • the transfer timing may be scheduled in advance, may be a timing at which a new moving image is recorded, or may be a timing at which the free space of the storage unit 104 becomes equal to or less than a predetermined value.
  • the tablet terminal 10 and the station 20 can release and change the target person EP (personal information held by the medium 40) linked to the medium 40. Since the subject EP periodically discharges the hospital, the medium 40 of the subject EP becomes unnecessary after the discharge. Therefore, it is necessary to release the linkage with the discharged subject person EP and to link the new subject person EP to the medium 40.
  • the control unit 102 cancels the target person EP currently linked to the medium 40, and links the new target person EP to the medium 40.
  • the control unit 102 transmits, to the station 20, personal information including the patient number of the target person EP to be newly associated with the medium 40.
  • the pairing reading unit 201 of the station 20 rewrites the personal information stored in the storage unit 401 of the medium 40 into new personal information received from the tablet terminal 10. As a result, the target person EP linked to the medium 40 is changed.
  • FIG. 11 is a flowchart showing an example of the moving image recording and reproducing process by the tablet terminal 10.
  • the tablet terminal 10 captures a target person EP, records a moving image, and reproduces the recorded moving image.
  • the tablet terminal 10 receives the personal information and the action category from the station 20, the tablet terminal 10 executes the process shown in the figure.
  • the assistant SP holds the medium 40 over the pairing reading unit 201 of the station.
  • the station 20 reads personal information from the medium 40, and the read personal information and the operation category corresponding to the reading area over which the medium 40 is held are displayed on the tablet terminal 10. Send.
  • Step S201 The control unit 102 receives and acquires the personal information and the operation category from the station 20 via the connection unit 107. Then, it progresses to the process of step S202.
  • Step S201 The control unit 102 determines whether the received personal information is that of an authority.
  • the authorized person is a person having the authority to operate the tablet terminal 10, and is, for example, an assistant SP. If the control unit 102 determines that the user is an authorized person, the process proceeds to step S203. If the control unit 102 determines that the user is not the authorized person (that is, the target person EP), the process proceeds to step S204.
  • Step S203 The control unit 102 displays various setting screens indicating processes that can be operated by the authority on the display unit 103, and executes corresponding processes.
  • the processing that can be operated by the authority is, for example, confirmation of a moving image of the target person EP, comparison of moving images of the target person EP, deletion of a moving image, and the like.
  • the type may be assigned to the authority, and the process that can be executed may be different based on the type.
  • the first authority makes it possible to confirm, compare and delete moving images of all target persons EP
  • the second authority makes it possible to confirm, compare and delete moving pictures only for the target person EP in charge. It is also good. Thereafter, the process ends.
  • Step S204 The control unit 102 displays a menu screen on the display unit 103.
  • the items displayed on the menu screen are, for example, moving image recording, moving image reproduction, moving image transfer, patient card registration, logout, and the like. Then, it progresses to the process of step S205.
  • Step S205 The control unit 102 determines whether moving image recording is selected from the menu screen. If the control unit 102 determines that moving image recording is selected, the process proceeds to step S207. If the control unit 102 determines that moving image recording is not selected, the process proceeds to step S206. (Step S206) The control unit 102 executes each process selected on the menu screen. Thereafter, the process ends.
  • Step S207 The control unit 102 activates the imaging unit 101 to display a moving image imaging screen on the display unit 103. Thereafter, the process proceeds to step S208.
  • Step S208 The control unit 102 determines whether the receiving unit 106 has received the start information from the remote control 30 or not. If the control unit 102 determines that it has been received, the process proceeds to step S209. Further, when the control unit 102 determines that it has not been received, the process of step S208 is performed again.
  • Step S209 The control unit 102 starts recording of a moving image captured by the imaging unit 101. Thereafter, the process proceeds to step S210.
  • Step S210 The control unit 102 determines whether the receiving unit 106 has received the stop information from the remote control 30. If the control unit 102 determines that it has been received, the process proceeds to step S211. Further, when the control unit 102 determines that it has not been received, the process of step S210 is performed again.
  • Step S211 The control unit 102 ends the recording of the moving image. Thereafter, the process proceeds to the process of step S212.
  • the moving image may be edited before the recording of the moving image is finished. For example, after rotating or trimming the orientation of the moving image, the recording of the moving image may be ended, and the process may proceed to step S212.
  • Step S212 The control unit 102 writes the stored moving image in the storage unit 104 in association with the personal information and the operation category acquired in step S201, and the date and time when the recording is ended. Thereafter, the process proceeds to step S213.
  • Step S213 The control unit 102 displays a moving image reproduction screen for reproducing the recorded moving image on the display unit 103. Thereafter, the process proceeds to step S214.
  • Step S214 The control unit 102 determines whether or not the simultaneous reproduction ON button is pressed on the moving image reproduction screen and the input is accepted. If the control unit 102 determines that the input has been received, the process proceeds to step S216. If the control unit 102 determines that the input has not been received, the process proceeds to step S215.
  • Step S215 The control unit 102 determines whether the end button is pressed on the moving image reproduction screen and the input is accepted. If the control unit 102 determines that the input has been received, the process returns to step S204. If the control unit 102 determines that the input has not been received, the process returns to step S213. (Step S216) The control unit 102 displays a moving image selection screen on the display unit 103. Thereafter, the process proceeds to step S217.
  • Step S21-7 The control unit 102 determines whether a moving image to be simultaneously reproduced on the moving image selection screen is selected. If the control unit 102 determines that it has been selected, the process proceeds to step S218. If the control unit 102 determines that no selection is made, the process returns to step S213. (Step S218) The control unit 102 displays on the display unit 103 a simultaneous reproduction screen for simultaneously reproducing the moving image selected on the moving image selection screen and the recorded moving image. Thereafter, the process proceeds to step S219.
  • Step S219) The control unit 102 determines whether or not the play button has been pressed on the simultaneous play screen and an input has been received. If the control unit 102 determines that the input has been received, the process proceeds to step S220. If the control unit 102 determines that the input is not received, the process proceeds to step S221. (Step S220) The control unit 102 simultaneously reproduces the selected moving image and the recorded moving image. Thereafter, the process proceeds to the process of step S221.
  • Step S221 The control unit 102 determines whether the end button has been pressed on the simultaneous reproduction screen and the input has been accepted. If the control unit 102 determines that the input has been received, the process returns to step S204. If the control unit 102 determines that the input has not been received, the process returns to step S218.
  • rehabilitation support system S1 of this embodiment is provided with portable tablet terminal 10 and station 20 which can detach tablet terminal 10.
  • the station 20 is paired with a first connection unit 204 which is connected to the tablet terminal 10 to transmit and receive data when the tablet terminal 10 is mounted, and target person identification information for identifying a rehabilitation target person.
  • the reading unit 201 and a control unit 203 that transmits the subject identification information acquired by the pairing reading unit 201 from the first connection unit 204 to the tablet terminal 10.
  • the tablet terminal 10 stores a moving image captured by the imaging unit 101, a connection unit 107 that connects to the station and transmits and receives data when mounted on the station 20, an imaging unit 101 that captures an image of a subject, and Recording unit 104 receives target person identification information from the station 20 via the storage unit 104 and the connection unit 107, and the imaging unit 101 associates the received target person identification information with the moving image obtained by imaging the target person and writes the associated in the storage unit 104 And a control unit 1021.
  • the target person identification information acquired by the station 20 is automatically associated with the moving image and stored in the tablet terminal 10.
  • the assistant SP does not have to check the moving image and perform the sorting operation for each target person after the work is completed, and the operability improves.
  • the assistant SP installs a video camera on a tripod and captures an image of the movement of the subject EP during the rehabilitation.
  • the assistant SP confirms the moving image captured immediately after imaging, and cleans up the tripod if there is no problem.
  • the recording medium is removed from the video camera and the moving image data is copied to a personal computer. After that, while visually checking the captured moving image on the personal computer, the record of the person to be rehabilitated and which operation was performed is updated, and the folders are further sorted.
  • the rehabilitation support system S1 of the present embodiment the operability in the moving image recording system can be improved, and the work time and work load of the assistant SP can be reduced.
  • the pairing reading unit 201 acquires the action category related to rehabilitation together with the target person identification information, and the control unit 203 performs the first action category together with the target person identification information.
  • the recording control unit 1021 transmits the target person identification information and the operation category received in the moving image to the storage unit 104 in association with each other.
  • the target person identification information and the operation category acquired by the station 20 are automatically associated with the moving image and stored in the tablet terminal 10.
  • the moving image obtained by capturing the target person EP can be divided and stored for each target person and operation category with a simple operation. Therefore, the assistant SP does not have to check the moving image and perform sorting work for each operation category after the work is completed, and the operability is improved.
  • the pairing reading part 201 reads object person identification information from the medium 40 which stores object person identification information.
  • object identification information can be input to the station 20 and the tablet terminal 10 with one simple operation of holding the medium 40 over the pairing reading unit 201.
  • the pairing reading unit 201 includes a reading area for reading target person identification information from the medium 40 storing the target person identification information for each operation category, and reads the target person identification information.
  • the operation category is acquired by the read area.
  • the tablet terminal 10 arranges the display part 103 which reproduces and displays the moving image which the memory
  • a plurality of moving images stored in the tablet terminal 10 can be arranged and reproduced simultaneously. Therefore, for example, by simultaneously reproducing and comparing two moving images, it is possible to easily compare with past rehabilitation situations. As a result, it is possible to more intuitively present the effect of rehabilitation, the state of recovery, etc. to the target person EP or the assistant SP.
  • the tablet terminal 10 is provided with the reproduction position designation part (The reproduction location bar BR1, BR11, BR21 and the end location bar BR2, BR12, BR22) which designate the reproduction position in a moving image.
  • the display control unit 1022 reproduces the reproduction position designated by the reproduction position designation unit in the moving image. According to the above configuration, it is possible to adjust the reproduction position of the moving image to be simultaneously reproduced. Therefore, a plurality of moving images can be simultaneously reproduced at the start timing of the operation or the like. This makes it easier to compare a plurality of moving images.
  • FIG. 12 is an image diagram showing an example of a moving image reproduction screen displayed on the display unit 103 of the tablet terminal 10 in the present modification.
  • the reproduction area G for reproducing the moving picture the reproduction button BT1 for reproducing the moving picture, and the current reproduction position up to the reproduction start position are reset.
  • Reset button BT2 a slow ON button BT3 for slow reproduction of moving images, a simultaneous reproduction ON button BT4 for simultaneously reproducing a plurality of moving images, and a moving image selection for selecting a moving image to be reproduced
  • a button BT5 and an end button BT6 for ending the moving image reproduction screen and returning to the original screen are disposed.
  • the reproduction location bar BR1, the end location bar BR2, and the current position bar BR3 are arranged in the lower part of the reproduction area G as in FIG.
  • an automatic OUTPUT button BT7 for automatically dividing a moving image into a predetermined number of still images, as well as various buttons, and a plurality of still images specified by the assistant SP as a moving image A manual OUTPUT button BT8 to be divided is disposed.
  • a moving image from the position specified by the reproduction position bar BR1 to the position specified by the end position bar BR2 Extract a predetermined number of still images from.
  • the predetermined number may be a preset number, or may be a number designated by the assistant SP before and after the depression of the automatic OUTPUT button BT7. Further, the intervals at which the still images are extracted may be equal intervals, or may be time intervals based on a predetermined ratio.
  • the display control unit 1022 arranges and displays the extracted still images on the display unit 103. Extracting and displaying a predetermined number of still images from a moving image is also referred to as automatic OUTPUT.
  • the display control unit 1022 of the control unit 102 extracts a still image corresponding to the input acceptance time point from the moving image and displays it on the display unit 103.
  • the display control unit 1022 arranges and displays the extracted still images on the display unit 103. Extracting and displaying a still image designated by the assistant SP from a moving image is also referred to as manual OUTPUT.
  • FIG. 13 is a first image diagram showing an example of the automatic OUTPUT screen displayed on the display unit 103 of the tablet terminal 10 in the present modification.
  • the data name is a name for identifying data, and is, for example, the date, time, hour, minute and second when automatic OUTPUT is performed.
  • the analysis time is a reproduction time of a moving image corresponding to the range from which the still image is extracted.
  • the display unit 103 displays a plurality of extracted still images.
  • the still images G1 to G4 are displayed side by side in time series.
  • various memos and fields where evaluations from the person in charge can be entered are also displayed.
  • one or more grid lines in the vertical and horizontal directions may be displayed on each still image, and the display positions of the grid lines may be synchronized between each still image. For example, a horizontal grid line may be displayed at the sitting position at the start of operation and a vertical grid line at the trunk position.
  • a marker may be added to a characteristic motion scene to be displayed.
  • a print button BT11, a stamp button BT12, a recording list button BT13, a moving image check button BT14, an angle measurement button BT15, a dimension measurement button BT16, and an end button BT17 are arranged below the display unit 103.
  • the print button BT11 When the print button BT11 is pressed, the content displayed on the display unit 103 can be printed on paper and output.
  • the stamp button BT12 is pressed, a symbol such as an arrow is displayed, and by moving the symbol to an arbitrary place in the display unit 103, an important place or the like can be indicated.
  • the record button BT13 is pressed, the screen changes to a screen displaying a list of recorded moving pictures.
  • the screen transitions to a playback screen of the selected video.
  • the angle measurement button BT15 is pressed, two lines can be drawn in the screen, and the angle of the inner angle can be measured. Thereby, for example, it is possible to easily measure the angle of raising the arm, the angle of inclination of the trunk, and the like.
  • the dimension measurement button BT16 is pressed, it is possible to input the reference dimension of the portion reflected in the still image, and the dimension in the still image can be simply measured based on the reference dimension.
  • the reference dimension is the length of a portion whose length has been measured in advance.
  • a button may be arranged to output and save the display content as data.
  • FIG. 14 is a second schematic diagram showing an example of the automatic OUTPUT screen displayed on the display unit 103 of the tablet terminal 10 in the present modification.
  • the display unit 103 is divided into upper and lower portions, and in the upper portion, still images G1 to G4 extracted from a moving image in which a rehabilitation operation is recorded by the display control unit 1022 are displayed side by side. In the lower part, still images G5 to G8 extracted from the moving image different from the upper part by the display control unit 1022 are displayed.
  • the moving image of the extraction source may be the same, and still images having different reproduction ranges may be extracted and displayed.
  • the comparison is not limited to the upper and lower two stages, and the display unit 103 may be divided into left and right, or may be divided into three or more to display three or more still image groups. Further, the memo column, the comment column, etc. may be arranged in the same manner as the example of FIG. 13, or the layout may be changed as appropriate.
  • a predetermined number of still images are extracted from a plurality of moving images obtained by capturing an operation of rehabilitation, and the predetermined number of extracted still images are displayed on the display unit 103 to list the plurality of operations. It is possible to compare and improve the degree of improvement of the rehabilitation movement more easily.
  • FIG. 15 is a perspective view showing a system configuration of a rehabilitation support system S2 (moving image recording system) according to the present embodiment.
  • the rehabilitation support system S2 is a system that supports the implementation of rehabilitation for the rehabilitation target person EP.
  • the rehabilitation support system S2 includes a tablet terminal 10, a station 20A, a sensor 100, an output device 200, and a rehabilitation support device 300.
  • the sensor 100 detects a target person EP within a detection range 800 of the sensor 100 (a range surrounded by a broken line in FIG. 15).
  • the sensor 100 is, for example, a sensor such as an image sensor, an infrared sensor, a laser sensor, or a thermo sensor that can detect the movement of the target person EP without attaching a marker to the target person EP.
  • a sensor such as an image sensor, an infrared sensor, a laser sensor, or a thermo sensor that can detect the movement of the target person EP without attaching a marker to the target person EP.
  • Kinect registered trademark
  • the sensor 100 includes, for example, an image sensor (not shown).
  • the image sensor (1) functions as a moving image camera that captures its own front direction in real time and acquires a plurality of continuous two-dimensional images (frame images); (2) the two-dimensional image from the sensor 100 It has a function as a distance sensor (depth sensor) for acquiring information on the distance to the actual position corresponding to each position in the image (frame image) (image displaying distance information).
  • a distance sensor depth sensor
  • an image obtained by imaging the target person EP and distance image information which is coordinate information in three-dimensional space of each part of the body of the target person EP captured in the image are acquired.
  • the three-dimensional space detected by the sensor 100 is a space indicated by the XYZ orthogonal coordinate system shown in FIG.
  • Each part of the subject EP's body is a part of the body required to be detected in order to recognize the motion of the subject EP.
  • each part of the body of the subject EP is, for example, the positions of the head, shoulders, arms, hands, hips, feet, and joints of the subject EP.
  • the sensor 100 outputs information (hereinafter referred to as “detection result information”) indicating the detected result to the rehabilitation support device 300.
  • the detection result information is, for example, position information of a part of the body of the target person EP.
  • the sensor 100 may be a sensor that attaches a marker to the target person EP and detects the target person EP by detecting the marker.
  • the output device 200 outputs an image regarding rehabilitation performed on the target person EP.
  • the output device 200 is, for example, an image projection device such as a projector.
  • the output device 200 projects an image for supporting rehabilitation and displays the image in the output area 900.
  • an image including the movement history of the position of the body part of the target person EP and the movement target position of the body part of the target person EP can be mentioned.
  • the output device 200 displays the movement history of the position of the foot of the subject EP and / or the target position at which the subject EP moves the foot to move. It is also good.
  • the output device 200 may include either or both of the movement history of the position of the hand of the target person EP and the target position at which the target person EP moves the hand. May be displayed.
  • an image indicating the movement history of the position of a part of the body of the target person EP is referred to as a history image.
  • an image showing a movement target position of a part of the body of the target person EP is referred to as a target image.
  • the rehabilitation support device 300 is configured using an information processing device. That is, the rehabilitation support device 300 includes a CPU connected by a bus, a memory, and an auxiliary storage device. The rehabilitation support device 300 operates by executing a rehabilitation support program. The rehabilitation support device 300 executes an application related to rehabilitation performed by the subject.
  • the tablet terminal 10 is a tablet-type portable information processing apparatus.
  • the tablet terminal 10 can be attached to the station 20A and can be detached from the station 20A.
  • the station 20A is a station to which the tablet terminal 10 can be removed.
  • the station 20 ⁇ / b> A holds the tablet terminal 10 in the upright state toward the front.
  • the station 20A is installed at a position where the tablet terminal 10 can image the target person EP (for example, the upper part of the rehabilitation support device 300) when the tablet terminal 10 is mounted. Also, when the tablet terminal 10 is attached, the station 20A is connected to the tablet terminal 10 to transmit and receive data. Also, the station 20A is connected to a power source, and automatically supplies power to the tablet terminal 10 when the tablet terminal 10 is attached.
  • the sensor 100 and the like are supported by the legs 310.
  • the legs 310 can extend and contract in the vertical direction, and can adjust the height positions of the sensor 100 and the output device 200. Thereby, it is possible to adjust the width of the detection range by the sensor 100.
  • the output device 200 is a projection device, the size of the output area 900 can be adjusted.
  • the legs 310 include casters 311, 312, 313, 314. Since the casters 311 to 314 can roll, the rehabilitation support system S2 can be freely moved on the floor by pushing the hand or the like.
  • FIG. 16 is a schematic block diagram showing an example of a functional configuration of the rehabilitation support device 300 provided in the rehabilitation support system S2.
  • the rehabilitation support device 300 includes an input unit 31, an output unit 32, a storage unit 33, a control unit 34, an operation unit 35, a display unit 36, and a connection unit 37.
  • the input unit 31 is an interface for inputting information from the outside. For example, the input unit 31 acquires information (detection result information) indicating a detection result from the sensor 100.
  • the output unit 32 is an interface that outputs the image generated by the control unit 34 to the output device 200.
  • the storage unit 33 is configured using a storage device such as a magnetic hard disk drive or a semiconductor storage device.
  • the storage unit 33 includes a calibration information storage unit 331, a determination condition information storage unit 332, a detection history information storage unit 333, a parameter information storage unit 334, and a program information storage unit 335.
  • the calibration information storage unit 331 stores calibration information.
  • the calibration information is information that associates the coordinate system of the coordinates indicating the detection result of the sensor 100 with the coordinate system of the image plane projected by the output device 200. Therefore, the calibration in the rehabilitation support device 300 is a process of grasping the positional relationship between the detection range 800 by the sensor 100 and the output area 900 of the image by the output device 200, and setting a common coordinate system for both.
  • the detection range that can be detected by the sensor 100 may be wider than the illustrated detection range 800.
  • the detection range 800 in the present embodiment is a detection range necessary for acquiring position information of a part of the body to be a target of detection of the target person EP in the operation of the target person EP performed on the output area 900. It is.
  • the output area 900 includes not only the area of the plane defined by the output area 900 but also a space up to a predetermined height based on the output area 900 in that area.
  • the calibration information may be obtained, for example, by performing calibration in advance.
  • the sensor 100 When the output device 200 projects a marker image, the sensor 100 outputs the position of each marker image to the rehabilitation support device 300 at the coordinates in the coordinate system of the sensor 100 (the coordinate system used by the sensor 100 to indicate the detected position). Do. Thereby, the rehabilitation support device 300 (the control unit 34) acquires the position of each marker in both the coordinate in the coordinate system of the sensor 100 and the coordinate in the coordinate system of the output device 200. Further, the rehabilitation support device 300 (the control unit 34) grasps the coordinates indicating the range of the output area 900 in the coordinate system of the output device 200 by the marker image projected to the four corners or the like. Thereby, the target determination unit 345 described later can calculate the target position in the coordinate system of the output device 200 in the output area 900.
  • the rehabilitation support device 300 acquires information for correcting the coordinate system of the sensor 100 as calibration information based on the obtained coordinates.
  • the rehabilitation support device 300 uses this function to calibrate information for adjusting the coordinate system of the sensor 100 to the coordinate system of the output device 200.
  • the rehabilitation support device 300 uses this function to adjust the coordinate system of the output device 200 to the coordinate system of the sensor 100. Calibration information may be generated.
  • the assistant SP manually performs position detection instead of position detection using the marker image. May be With the output device 200 projecting an image over the entire output area 900, the sensor 100 captures an area including the entire projected image with the image sensor. The rehabilitation support device 300 displays an image captured by the sensor 100 on the display screen. Then, the assistant SP designates each of the four corners of the output area 900 displayed on the monitor screen by touch operation.
  • the position designated by the assistant SP can be acquired by the coordinate in the coordinate system of the sensor 100.
  • the rehabilitation support device 300 acquires calibration information based on the coordinates and the coordinates of the four corners of the output area 900 in the coordinate system of the output device 200.
  • the coordinates of the floor are used as the coordinates in the height direction.
  • the assistant SP may place physical markers, such as cones, at four corners of the image plane. In this case, the sensor 100 detects the placed marker and outputs the coordinates of each marker.
  • the determination condition information storage unit 332 stores the condition for determining the operation area.
  • the operation area will be described later.
  • the detection history information storage unit 333 stores a history of position information (detection result information) related to a part of the body of the target person EP recognized by the recognition unit 341. For example, when rehabilitation of walking is performed, the detection history information storage unit 333 stores a history of detection result information of the position of the foot of the target person EP. In addition, when rehabilitation of the movement of the hand is performed, the detection history information storage unit 333 stores the history of the detection result information of the position of the hand of the target person EP.
  • the parameter information storage unit 334 is a foot display parameter set by a foot display parameter setting unit 347, a manual display parameter set by a manual display parameter setting unit 348 described later, and a disturbance display parameter setting unit 349 described later. Stores the display parameters for disturbance set by The program information storage unit 335 stores a rehabilitation support program.
  • the control unit 34 is configured using a CPU.
  • the control unit 34 executes the rehabilitation support program, whereby the recognition unit 341, the display control unit 342, the operation area determination unit 343, the recording unit 344, the target determination unit 345, the evaluation unit 346, the foot display parameter setting unit 347, It functions as a manual display parameter setting unit 348, a disturbance display parameter setting unit 349, and a transmission / reception control unit 3410.
  • the recognition unit 341 acquires the detection result information acquired by the input unit 31, and recognizes an object indicated by the detection result information. For example, the recognition unit 341 recognizes a person, a table, a floor, a wall, and the like existing in the detection range 800 based on the detection result information. For example, using Kinect (registered trademark), it is possible to recognize the positions of a plurality of sites on the human body of the subject EP. For example, when the recognition unit 341 recognizes the tip of the long detection target on the table, the recognition unit 341 detects positional information of the tip for each unit time. The recognition unit 341 recognizes the movement of the position of a part of the body of the target person EP based on the position information of these feature points detected by the sensor 100 from moment to moment. For example, when a long object is detected, the recognition unit 341 recognizes the movement of the position of the tip of the object. The movement of the position of the tip may be treated as, for example, the position of the hand of the subject EP.
  • Kinect registered trademark
  • the recognition unit 341 also has a function of recognizing the position of each part when the object can be recognized as a person by comparing the shape of the object indicated by the detection result information with the human skeletal model. Good. According to this function, the recognition unit 341 can recognize the position information of each part of the human body in association with the part. For example, the subject EP stands upright in front of the sensor 100. Then, the recognition unit 341 compares the detection result information detected in that state with the human skeletal model, and recognizes that the target is a human because the target has a human shape. Furthermore, the recognition unit 341 associates the position information of each part with each part, such as the left toe and its position information, the right heel and its position information, and the left and right wrists and their position information, for example. recognize.
  • the recognition unit 341 can recognize the movement of the position of each part of the target person EP. In this manner, the recognition unit 341 tracks the position of a part of the body of the target person EP and the tracking of the predetermined position of the object having the predetermined shape included in the detection result information or by using the skeleton tracking function. Recognize the movement. Further, by using Kinect (registered trademark), it is possible to obtain coordinate information of an object present in the detection range 800 (point cloud data including coordinate information at predetermined intervals of an object present in the detection range 800).
  • Kinect registered trademark
  • the recognition unit 341 analyzes the detection result information (point cloud data), and has an area of a predetermined size or more, and the surface where the value of the Z coordinate does not change (in other words, A group) is recognized as a plane with a wall, a floor, a table, etc.
  • the recognition unit 341 is detection data of a part (detection target portion) of the body of the target person EP related to the motion area determined by the motion area determination unit 343 described later among the detection result information. Recognize the data and select the data (information to be detected).
  • the action area is an area in which the action intended for the rehabilitation of the subject EP is performed. More specifically, it refers to a predetermined area in the space in which a site strongly associated with an operation intended to recover by rehabilitation operates.
  • the motion region is a region in which the subject EP brings the site close in rehabilitation.
  • the motion region is a region including a position that is a target (attainment point) of the motion in the rehabilitation of the target person EP.
  • the motion area is a place where the target person EP performs a desired motion during rehabilitation.
  • a floor, a table, etc. can be mentioned as a specific example of the operation area.
  • the site strongly associated with the action intended to recover by rehabilitation is the foot
  • the site concerned in the case of the table is the hand.
  • the target person EP brings the foot close to the floor in the rehabilitation of walking motion, and brings the hand close to the table in the rehabilitation of movement of the hand.
  • a floor is an area including a position (display position of a target image) which is an arrival point of walking motion
  • a table is a position where a hand reaches in rehabilitation of movement of a hand (target It is an area including the display position of the image.
  • the floor and the table are places for performing a target motion during rehabilitation of walking motion and rehabilitation of hand movement.
  • the output device 200 displays a target image meaning “10 cm” on the table.
  • “10 cm” may be displayed at a certain position on the table.
  • the position indicated by the target image is included in the three-dimensional motion area.
  • the three-dimensional motion region is a region in which a part (hand) strongly associated with a motion intended to be recovered by rehabilitation operates.
  • the three-dimensional motion area is an area in which the hand is brought close in rehabilitation of movement of the hand. Further, the three-dimensional motion area is an area including a position (position indicated by the target image) which is an arrival point of the movement of the hand. The three-dimensional motion area is a place where the target person EP performs a desired motion during rehabilitation of the movement of the hand.
  • the space on the output area 900 can be mentioned as another example in the case where the operation area is three-dimensional. For example, when the operation area is a space on the output area 900, a target image may be projected to this space, and the target person EP may perform rehabilitation such as touching the target image with a hand.
  • the display control unit 342 generates an image output by the output device 200.
  • the display control unit 342 is a target image for displaying the motion of the target person EP by displaying in the motion region, an image including information on the evaluation result of rehabilitation, the motion of the detection target region of the target person EP performed during rehabilitation. Generate an image or the like showing a locus.
  • the motion area determination unit 343 determines the motion area based on the recognition result by the recognition unit 341. As described later, the determination method of the motion area may be various. The operation area determination unit 343 determines that the operation area is a floor, for example, based on a predetermined determination condition. Also, for example, the operation area determination unit 343 determines that the operation area is a table.
  • the motion area determination unit 343 determines a portion to be detected (detection target portion) related to the motion area of the target person EP.
  • the detection target site is a part of the body that is closely related to the operation intended for rehabilitation. For example, when the motion area determination unit 343 determines that the motion area is a floor, the motion area determination unit 343 determines the ankle of the target person EP as a detection target portion. Alternatively, the motion area determination unit 343 may determine the toe of the target person EP as a detection target site. Also, for example, when the motion area determination unit 343 determines that the motion area is a table, the motion area determination unit 343 determines the back of the hand of the target person EP as the detection target portion. Alternatively, the motion area determination unit 343 may determine the fingertip of the target person EP as a detection target site.
  • the detection target site associated with the operation area is set in advance in the storage unit 33, and the operation area determination unit 343 determines the detection target site based on the information and the operation area determined by itself.
  • a part having a large movement range may be set as the detection target part.
  • the site where the motion range is large is the foot of the subject EP (ankle, toe, heel, etc.).
  • the region where the movement range is large is the hand of the target person EP (wrist, fingertip, back of hand, etc.).
  • a portion close to the display position of the target image generated by the display control unit 342 may be set as the detection target portion.
  • a target image imitating a footstep or the like is displayed at a position where the target person EP should step on a foot in walking motion.
  • the site to be treated is the foot of the subject EP (ankle, toe, heel, etc.).
  • the target image is displayed at the position where the target person EP should touch, but in this case, the part close to the display position of the target image is the hand (wrist, fingertip , The back of the hand, etc.).
  • the recognition unit 341 detects the detection target site data (position information of a part of the body) determined by the motion area determination unit 343 included in the detection result information via the recording unit 344 as the detection history information storage unit 333. Record on The recording unit 344 writes and records the detection result information in the detection history information storage unit 333.
  • the target determination unit 345 determines a target position of a part of the body of the target person EP based on the position of the part of the body of the target person EP (the detection target site) recognized by the recognition unit 341. For example, in the case of rehabilitation of walking, the goal determination unit 345 determines the foot of the subject EP based on at least one of the current foot position of the subject EP and the history of the foot position of the subject EP. Determine the movement target position. In particular, the target determination unit 345 may determine the traveling direction of the target person EP based on the history of the position of the foot of the target person EP, and determine the movement target position according to the determined traveling direction.
  • the target determination unit 345 may determine the traveling direction of the target person EP based on the direction of the foot of the target person EP, and determine the movement target position according to the determined traveling direction. Alternatively, the target determination unit 345 may determine the movement target position in, for example, a random direction or a predetermined goal position regardless of the traveling direction of the target person EP.
  • the target determination unit 345 may calculate the movement amount of the detection target part of the body of the target person EP and determine the movement target position based on the calculated movement amount. For example, when the recognition unit 341 recognizes the position of the foot of the target person EP, the target determination unit 345 calculates the stride of the target person EP based on the history of the position of the foot of the target person EP. Then, the target determination unit 345 sets the movement target position at a position moved by the stride from the current position of the foot of the target person EP.
  • the stride of the target person EP indicates the movement amount of the foot of the target person EP, and corresponds to an example of the movement amount of the detection target region of the body of the target person EP.
  • the target determination unit 345 may detect the interval in which the foot of the target person EP moved as the stride. Alternatively, when the recognition unit 341 recognizes the position where the target person EP has a foot on the floor, the target determination unit 345 determines that the target person EP has a foot next to the position where the target EP has a foot The interval up to may be detected as the stride.
  • the evaluation unit 346 evaluates the positional relationship between the position of the detection target portion of the body of the target person EP and the movement target position. For example, the evaluation unit 346 calculates the distance between the position of the body part of the target person EP recognized by the recognition unit 341 and the movement target position determined by the target determination unit 345. Then, the evaluation unit 346 determines whether the calculated distance is less than or equal to a predetermined threshold. When it is determined that the distance between the detection target site of the body of the target person EP and the movement target position is equal to or less than the threshold, the evaluation unit 346 evaluates that the target position has been reached. On the other hand, when it is determined that the distance between the detection target site of the body of the target person EP and the movement target position is larger than the threshold, the evaluation unit 346 evaluates that the target position is not reached.
  • the threshold of the distance used by the evaluation unit 346 may be a constant preset in common to a plurality of target persons EP.
  • the evaluation unit 346 may set a threshold for each target person EP, such as setting 1/10 of the stride of the target person EP as a threshold.
  • the threshold value of the distance used by the evaluation unit 346 may be set commonly for a plurality of types of rehabilitation, or may be set for each type of rehabilitation.
  • the size of the threshold may be set such that rehabilitation for moving the foot is larger than rehabilitation for moving the hand.
  • the number of stages in which the evaluation unit 346 evaluates the relative positional relationship between the position of a part of the body of the target person EP (the detection target portion) and the movement target position is not limited to two, and may be three or more.
  • the evaluation unit 346 uses the determination threshold whether the target position is not reached in addition to the determination threshold whether the target position is reached or not, and the threshold for reaching the target position, small displacement, large displacement. You may make it evaluate.
  • the method by which the evaluation unit 346 evaluates the positional relationship between the position of the detection target portion of the body of the target person EP and the movement target position is not limited to the method using the threshold.
  • the evaluation unit 346 may determine presence or absence of overlap between the position of the detection target portion of the body of the target person EP and the movement target position, and when it is determined that overlap is present, the target position may be evaluated.
  • the target determination unit 345 determines the movement target position on the floor in a range with an area
  • the recognition unit 341 determines the position of the foot of the target person EP It may be recognized in the range of the shape of the foot. Then, the evaluation unit 346 may determine the presence or absence of an overlap between the range determined as the movement target position and the range detected as the position of the foot of the target person EP.
  • the foot display parameter setting unit 347 sets a foot display parameter in rehabilitation for moving a foot such as walking.
  • the foot display parameter is a parameter used to display a target image when the subject EP moves the foot.
  • the manual display parameter setting unit 348 sets a manual display parameter in rehabilitation in which the hand is moved.
  • the manual display parameters are parameters used to display a target image when the target person EP moves his / her hand.
  • the disturbance display parameter setting unit 349 sets a disturbance display parameter.
  • the display parameter for disturbance is a parameter used for displaying a disturbance that hinders the target person EP from moving the foot or hand to the target image when the target person EP for rehabilitation moves the foot or hand to the predetermined target image. is there.
  • the display parameter for disturbance is a display of disturbance that prevents the target person EP from avoiding the foot or hand from the target image when the target person for rehabilitation EP causes the foot or hand to avoid the target image as a goal. It is a parameter to be used.
  • the transmission and reception control unit 3410 transmits and receives data to and from the station 20A via the connection unit 37.
  • the operation unit 35 is configured using an existing input device such as a keyboard, a pointing device (mouse, tablet or the like), a button, a touch panel or the like.
  • the operation unit 35 is operated by the assistant SP or the like when inputting an instruction to the rehabilitation support device 300.
  • the operation unit 35 may be an interface for connecting an input device to the rehabilitation support device 300. In this case, the operation unit 35 inputs an input signal generated in response to an input from the assistant SP or the like in the input device to the rehabilitation support device 300.
  • the operation unit 35 may be configured as a touch panel integrated with the display unit 36.
  • the display unit 36 is an image display device such as a cathode ray tube (CRT) display, a liquid crystal display, an organic EL display, or the like.
  • the display unit 36 displays an image and characters.
  • the display unit 36 may be an interface for connecting the image display device to the rehabilitation support device 300. In this case, the display unit 36 generates a video signal for displaying an image or a character, and outputs the video signal to an image display device connected to itself.
  • the connection unit 37 is an interface connected to the station 20A to transmit and receive data.
  • FIG. 17 is a schematic block diagram showing a functional configuration example of each of the tablet terminal 10 and the station 20A provided in the rehabilitation support system S2.
  • the configuration of the tablet terminal 10 in the present embodiment is the same as that of the first embodiment, and thus the description thereof is omitted.
  • the station 20A in the present embodiment includes a second connection unit 210 instead of the pairing reading unit 201 of the station 20 in the first embodiment.
  • the second connection unit 210 is an interface connected to the rehabilitation support device 300 to transmit and receive data.
  • the second connection unit 210 is an acquisition unit that receives and acquires a patient number for identifying the target person EP and an operation category (name of application) related to rehabilitation from the rehabilitation support device 300.
  • the other configuration of the station 20A is the same as the configuration of the station 20 in the first embodiment, and thus the description thereof will be omitted.
  • FIG. 18 is a schematic view showing a data configuration and an example of data of a correspondence table stored in the storage unit 104 of the tablet terminal 10.
  • the correspondence table has items of a subject person, an application name, a date and time, and moving image data.
  • the application name is the name of the application related to the rehabilitation performed by the target person EP.
  • the result image is a data name of the result image.
  • the other items are the same as the correspondence table in the first embodiment, and thus the description thereof will be omitted.
  • FIG. 19 is a perspective view showing a state in which the target person EP is performing rehabilitation in the rehabilitation support system S2.
  • FIG. 20 is a sequence diagram showing an example of processing in the rehabilitation support system S2.
  • the state of the rehabilitation of the target person EP performed by the rehabilitation support apparatus 300 can be recorded as a moving image by the tablet terminal 10, and the recorded moving image can be reproduced and confirmed on the tablet terminal 10.
  • the rehabilitation support system S2 is moved to the environment where the target person EP performs rehabilitation, according to the rehabilitation content that the assistant SP intends to carry out from now. Also, the height of the legs 310 is properly adjusted.
  • the target person EP takes a posture according to the content of rehabilitation to be performed in the detection range 800. For example, in the case of performing arm rehabilitation on a table, the target person EP takes a posture of sitting on a chair and placing a hand on the table. Also, for example, when performing rehabilitation of walking motion, the target person EP takes a standing posture.
  • FIG. 19 shows that the target person EP is performing rehabilitation of the movement of the hand on the table T.
  • the target person EP performs rehabilitation on the movement of the hand based on the target image M1 output by the output device 200 to the table T (output area 900). More specifically, the target person EP performs hand and arm rehabilitation by following the position of the target image M1 displayed by the output device 200 with one's own hand.
  • the content of the target image M1, the position to be displayed, the timing, and the like differ depending on the content of rehabilitation.
  • an application corresponding to each rehabilitation is implemented in advance. Then, the rehabilitation support device 300 causes the output device 200 to display the target image M1 by executing an application corresponding to the rehabilitation performed by the target person EP.
  • the assistant SP inputs preparation start instruction information to the rehabilitation support device 300 together with personal information such as the patient number, name, sex and height of the target person EP (step S301).
  • the preparation start instruction information includes information specifying an application corresponding to rehabilitation to be performed.
  • the control unit 34 of the rehabilitation support apparatus 300 determines the operation area, sets parameters used for displaying the target image, and executes the specified application (step S302). ).
  • the transmission / reception control unit 3410 of the control unit 34 is the name of the designated application (hereinafter referred to as “application name”) and personal information of the target person EP (entered patient number, name, gender, height, etc.) Are transmitted from the connection unit 37 to the station 20A (step S303).
  • the control unit 203 of the station 20A transmits the received application name and the personal information from the first connection unit 204 to the tablet terminal 10 (step S304).
  • the control unit 102 of the tablet terminal 10 activates the imaging unit 101 and displays a moving image recording screen for recording a moving image on the display unit 103 (step S305). An image captured by the imaging unit 101 is displayed on the moving image recording screen. Further, the received personal information and the application name are displayed on the moving image recording screen.
  • the assistant SP inputs rehabilitation start instruction information instructing the start of rehabilitation into the rehabilitation support device 300 (step S306).
  • the control unit 34 of the rehabilitation support device 300 causes the output device 200 to display the target image M1 by executing the specified application, and performs the rehabilitation of the target person EP. It starts (steps S307 to S309).
  • the transmission / reception control unit 3410 of the control unit 34 transmits start information indicating the start of rehabilitation from the connection unit 37 to the station 20A (step S310).
  • the control unit 203 of the station 20A transmits the received start information from the first connection unit 204 to the tablet terminal 10 (step S311).
  • the control unit 102 of the tablet terminal 10 starts recording of a moving image captured by the imaging unit 101 (step S312).
  • the sensor 100 continues to detect the motion of the target person EP, and outputs the motion to the rehabilitation support apparatus 300 (steps S313 and S314).
  • the input unit 31 acquires detection result information, and outputs the detection result information to the control unit 34.
  • the control unit 34 selects data of the detection target part from among the information (step S315).
  • the recognition unit 341 selects position information of the hand (for example, the back of the hand) from the detection result information.
  • the recognition unit 341 outputs the selected detection target site and its position information to the recording unit 344.
  • the recording unit 344 records the detection result information of the detection target portion in the detection history information storage unit 333 (step S316).
  • the rehabilitation support device 300 ends the process of generating and outputting the target image M1 in the control unit 34 and the process of detecting the detection target region and recording the data.
  • the control unit 34 acquires the information through the operation unit 35, and determines that the rehabilitation is terminated (step S318).
  • the control unit 34 determines to end the rehabilitation.
  • the transmission / reception control unit 3410 of the control unit 34 transmits stop information indicating the end of the rehabilitation from the connection unit 37 to the station 20A (step S319).
  • the control unit 203 of the station 20A transmits the received stop information from the first connection unit 204 to the tablet terminal 10 (step S320).
  • the control unit 102 of the tablet terminal 10 ends the recording of the moving image captured by the imaging unit 101 (step S321), writes the moving image data in the storage unit 104, and saves ( Step S322).
  • the control unit 102 associates and stores the patient number included in the personal information received from the station 20A, the application name, the date and time (the imaging date and time) when the recording of the moving image ends, and the moving image. Specifically, the control unit 102 writes the patient number, the application name, the imaging date and time, and the moving image in the correspondence table stored by the storage unit 104 in association with each other. That is, the target person, the application name, and the imaging date and time are automatically associated with the moving image. That is, when the personal information of the subject and the application to be executed are input to the rehabilitation support apparatus 300, these pieces of information are automatically input to the tablet terminal 10, and are associated with the moving image. Therefore, the assistant SP does not need to input such information to the tablet terminal 10, and the operability is improved. Thereby, the work load of assistant SP can be reduced.
  • the display control unit 342 of the rehabilitation support apparatus 300 uses the data (detection target information) of the detection target region of the target person EP recorded in the detection history information storage unit 333 to obtain the operation result of the target person EP in the current rehabilitation ( For example, a result image for displaying the locus of movement of the detection target portion is generated (step S323), and the result image is displayed on the output device 200. Further, the transmission / reception control unit 3410 transmits the image generated by the display control unit 342 from the connection unit 37 to the station 20A (step S324). When the second connection unit 210 receives the result image, the control unit 203 of the station 20A transmits the received result image from the first connection unit 204 to the tablet terminal 10 (step S325).
  • the control unit 102 of the tablet terminal 10 When the connection unit 107 receives the resultant image, the control unit 102 of the tablet terminal 10 writes the resultant image in the storage unit 104 in association with the moving image and stores the resultant image (step S326). Specifically, the control unit 102 writes the image data of the result image in the storage unit 104, and writes the image data name of the result image in the correspondence table stored in the storage unit 104 in association with the moving image. Thereby, a moving image and a result image can be matched and memorized.
  • the recorded moving image can be reproduced immediately on the spot.
  • the assistant SP can remove the tablet terminal 10 from the station 20A and confirm the moving image recorded as the target person EP. Since the tablet terminal 10 is removable from the station 20A, the target person EP does not have to go to a certain position of the station 20A. Since the position where the target person EP is located is an imaging point, it is often far from the station 20A. In that case, the tablet terminal 10 can be removed from the station 20A and taken to the front of the target person EP. Thus, it is possible to confirm and share the moving image recorded by the assistant SP and the target person EP on the spot where the image is taken.
  • the display control unit 1022 of the control unit 102 of the tablet terminal 10 displays a moving image reproduction screen for reproducing the recorded moving image on the display unit 103 (step S327).
  • the rehabilitation assistance apparatus 300 and the tablet terminal 10 may communicate not via the station 20A. That is, some or all of the functions of the station 20A may be realized by the application of the tablet terminal 10.
  • FIG. 21 is an image diagram showing an example of a moving image reproduction screen displayed on the display unit 103 of the tablet terminal 10.
  • the result image area RE displaying the result image
  • the reproduction area MV for reproducing the moving image
  • the reproduction button BT1 for reproducing the moving image
  • a reset button BT2 for resetting the playback position of the player
  • a slow ON button BT3 for slow playback of a moving image
  • a simultaneous playback ON button BT4 for simultaneously playing a plurality of moving images
  • a moving image selection button BT5 for setting and an ending button BT6 for ending the moving image reproduction screen and returning to the original screen are arranged.
  • the functions of the buttons BT1 to BT6 are the same as in the first embodiment.
  • a reproduction location bar BR1 an end location bar BR2, and a current position bar BR3 are arranged in the lower part of the reproduction area MV.
  • the functions of the bars BR1 to BR3 are the same as in the first embodiment.
  • the moving image reproduction screen since the moving image can be reproduced in a state where the corresponding result image is displayed, the result of rehabilitation can be compared with the moving image to be considered, and it becomes easier to confirm.
  • the tablet terminal 10 can reproduce
  • the assistant SP presses the simultaneous reproduction ON button BT4.
  • the display control unit 1022 of the control unit 102 of the tablet terminal 10 causes the display unit 103 to display a moving image selection screen for selecting a past moving image to be reproduced simultaneously when the moving image selection button BT4 is pressed on the moving image reproduction screen and receives an input. indicate.
  • FIG. 22 is an image diagram showing an example of a moving image selection screen displayed on the display unit 103 of the tablet terminal 10.
  • the patient number and the name of the target person EP are displayed in the upper left portion, and an icon indicating the moving image of the target person EP is displayed in a selectable list.
  • Each icon is configured by a pictogram and a character string indicating an application performed by the target person EP in the corresponding moving image. This makes it possible to easily determine the application performed by the target person EP in each moving image.
  • By representing the application using a pictogram the contents of the application can be intuitively transmitted without being restricted by the language, and a representation suitable for global correspondence is realized.
  • the icons are displayed separately for each date when the moving image was captured. Furthermore, the captured time is displayed below the icon. In addition, the icons are displayed in a manner that makes it easy to identify whether the time captured on each date is morning or afternoon. For example, the morning icon may be surrounded by a red area and the afternoon icon may be surrounded by a blue area.
  • moving images of applications of moving images reproduced on the moving image reproduction screen may be displayed as a list.
  • icons may be displayed on the moving image selection screen separately for each application.
  • the assistant SP selects and presses an icon of a moving image to be simultaneously reproduced on the moving image selection screen.
  • the display control unit 1022 of the control unit 102 of the tablet terminal 10 reads the moving image of the icon selected on the moving image selection screen and the corresponding resultant image from the storage unit 104, and displays the simultaneous reproduction screen on the display unit 103.
  • FIG. 23 is an image diagram showing an example of the simultaneous reproduction screen displayed on the display unit 103 of the tablet terminal 10.
  • the simultaneous reproduction screen shown in the figure corresponds to the result image area RE1 displaying the result image corresponding to the current moving image, the current reproduction area MV1 for reproducing the current moving image, and the previous moving image.
  • a result image area RE2 for displaying a result image, a past reproduction area MV2 for reproducing a past moving image, and buttons BT1 to BT6 are arranged.
  • the current moving image is a moving image reproduced on the moving image reproduction screen, and is, for example, a moving image captured most recently.
  • the past moving image is a moving image selected on the moving image selection screen. Further, the functions of the buttons BT1 to BT6 in the simultaneous reproduction screen are the same as those of the moving picture reproduction screen.
  • the display control unit 1022 of the control unit 102 simultaneously reproduces the current moving image in the reproduction area MV1 and the past moving image in the reproduction area MV2 when the reproduction button BT1 is pressed on the simultaneous reproduction screen and the input is received. That is, the tablet terminal 10 can simultaneously reproduce the current moving image and the past moving image side by side. Therefore, since two moving images can be arranged side by side on one screen and can be simultaneously reproduced, comparison with the past moving images can be easily performed on the spot where the image is taken. Therefore, the target person EP can easily confirm the recovery state (the effect of rehabilitation) on the spot how much it has improved compared to the past (for example, at the time of hospitalization). As a result, it is possible to compare moving images between the assistant SP and the target person EP, share a task, and implement a rehabilitation menu for the task on the spot where imaging is performed.
  • a reproduction location bar BR31, an end location bar BR32, and a current position bar BR33 corresponding to the current moving image are arranged in the lower part of the current reproduction area MV1.
  • a reproduction location bar BR41, an end location bar BR42 and a current position bar BR43 corresponding to a past moving image are arranged in the lower part of the past reproduction area MV2.
  • the functions of the bars BR31 to BR33 are the same as the functions of the bars BR11 to BR13 in the first embodiment, and the functions of the bars BR41 to BR43 are the same as the functions of the bars BR21 to BR23 in the first embodiment.
  • the reproduction location bars BR1, BR31 and BR41 and the end location bars BR2, BR32 and BR42 constitute a reproduction position designation unit for designating a reproduction position in a moving image.
  • the display control unit 1022 reproduces the reproduction position designated by the reproduction position designation unit in the moving image.
  • the tablet terminal 10 transfers data of moving images to another device (including a function of reproducing any moving image (including a function of reproducing any two moving images simultaneously)). Functions (including the function of automatically transferring data) and the like.
  • FIG. 24 is a flowchart showing an example of the application execution process by the rehabilitation support device 300. This figure shows processing when the rehabilitation support device 300 executes an application related to rehabilitation.
  • the assistant SP inputs personal information of the target person EP into the rehabilitation support apparatus 300 and selects an application to be executed.
  • Step S401 The control unit 34 receives a selection input of an application in the operation unit 35. Then, it progresses to the process of step S402. (Step S402) The control unit 34 transmits the input personal information and the application name of the selected application from the connection unit 37 to the station 20A. Then, it progresses to the process of step S403.
  • Step S403 The control unit 34 executes the selected application to start the rehabilitation play of the target person EP. Thereafter, the process proceeds to step S404.
  • Step S404 The control unit 34 transmits start information from the connection unit 37 to the station 20A. Then, it progresses to the process of step S405.
  • Step S405 The control unit 34 displays and records the play. Specifically, the control unit 34 causes the output device 200 to display the target image, detects the detection target region of the target person EP by the sensor 100, and records the detected detection result information. Thereafter, the process proceeds to step S406. (Step S406) The control unit 34 determines whether or not the play of rehabilitation has ended. If the control unit 34 determines that the process has ended, the process proceeds to step S407. If the control unit 34 determines that the process has not been completed, the process returns to step S405.
  • Step S407 The control unit 34 transmits stop information from the connection unit 37 to the station 20A. Thereafter, the process proceeds to step S408.
  • Step S408 The control unit 34 generates a result image, and displays the generated result image on the output device 200. Thereafter, the process proceeds to step S409.
  • Step S409 The control unit 34 transmits the generated image from the connection unit 37 to the station 20A. Thereafter, the process ends.
  • FIG. 25 is a flowchart showing an example of a moving image recording and reproducing process by the tablet terminal 10.
  • the tablet terminal 10 captures a target person EP, records a moving image, and reproduces the recorded moving image.
  • the tablet terminal 10 receives personal information and an application name from the station 20A, the tablet terminal 10 executes the processing shown in the figure.
  • the station 20A When receiving the personal information and the application name from the rehabilitation support apparatus 300 in step S402 described above, the station 20A outputs the received personal information and the application name to the tablet terminal 10.
  • Step S501 The control unit 102 acquires the personal information and the application name received from the station 20A via the connection unit 107. Thereafter, the process proceeds to step S502.
  • Step S502 The control unit 102 activates the imaging unit 101 to display a moving image imaging screen on the display unit 103. Then, it progresses to the process of step S503.
  • Step S503 The control unit 102 determines whether or not the connection unit 107 has received the start information transmitted by the rehabilitation support apparatus 300 in step S404 described above via the station 20A. If the control unit 102 determines that it has been received, the process proceeds to step S504. Further, when the control unit 102 determines that it has not been received, the process of step S503 is performed again. (Step S504) The control unit 102 starts recording of a moving image captured by the imaging unit 101. Thereafter, the process proceeds to step S505.
  • Step S505 The control unit 102 determines whether or not the connection unit 107 has received, via the station 20A, the stop information transmitted by the rehabilitation support apparatus 300 in step S407 described above. If the control unit 102 determines that it has been received, the process proceeds to step S506. Further, when the control unit 102 determines that it has not been received, the processing of step S505 is performed again. (Step S506) The control unit 102 ends the recording of the moving image. Thereafter, the process proceeds to step S507.
  • Step S507 The connection unit 107 receives the result image transmitted by the rehabilitation support apparatus 300 in step S409 described above via the station 20A. Thereafter, the process proceeds to step S508.
  • Step S508 The control unit 102 associates the recorded moving image with the personal information and the application name acquired in step S501, the date and time when the recording ended, and the result image received in step S507, in the storage unit 104. Write and save. Then, it progresses to the process of step S509.
  • Step S 509 The control unit 102 displays a moving image reproduction screen for reproducing the recorded moving image on the display unit 103. Thereafter, the process proceeds to step S510.
  • Step S510 The control unit 102 determines whether the simultaneous reproduction ON button is pressed on the moving image reproduction screen and the input is accepted. If the control unit 102 determines that the input has been received, the process proceeds to step S412. If the control unit 102 determines that the input is not received, the process proceeds to step S511.
  • Step S511 The control unit 102 determines whether the end button is pressed on the moving image reproduction screen and the input is accepted. If the control unit 102 determines that the input has been received, the process proceeds to step S518. If the control unit 102 determines that the input is not received, the process returns to step S509. (Step S512) The control unit 102 displays a moving image selection screen on the display unit 103. Thereafter, the process proceeds to step S513.
  • Step S513 The control unit 102 determines whether a moving image to be simultaneously reproduced is selected on the moving image selection screen. If the control unit 102 determines that it has been selected, the process proceeds to step S514. If the control unit 102 determines that no selection is made, the process returns to step S509. (Step S514) The control unit 102 displays, on the display unit 103, a simultaneous reproduction screen for simultaneously reproducing the moving image selected on the moving image selection screen and the recorded moving image. Thereafter, the process proceeds to step S515.
  • Step S515 The control unit 102 determines whether or not the play button has been pressed on the simultaneous play screen and an input has been received. If the control unit 102 determines that the input has been received, the process proceeds to step S516. If the control unit 102 determines that the input has not been received, the process proceeds to step S517. (Step S516) The control unit 102 simultaneously reproduces the selected moving image and the recorded moving image. Thereafter, the process proceeds to step S517.
  • Step S51-7 The control unit 102 determines whether the end button is pressed on the simultaneous reproduction screen and the input is accepted. If the control unit 102 determines that the input has been received, the process proceeds to step S518. If the control unit 102 determines that the input is not received, the process returns to step S514. (Step S518) The control unit 102 displays a menu screen on the display unit 103, and executes corresponding processing. Thereafter, the process ends.
  • rehabilitation support system S2 of this embodiment is provided with portable tablet terminal 10 and station 20A which can detach tablet terminal 10.
  • the station 20A receives and acquires target person identification information for identifying a target person of rehabilitation from the rehabilitation support device 300 that executes an application related to rehabilitation performed by the target person, and the tablet terminal 10
  • the first connection unit 204 that connects to the tablet terminal 10 to transmit and receive data when the user is attached, and the target person identification information acquired by the second connection unit 210 from the first connection unit 204 to the tablet terminal
  • a control unit 203 for transmitting data to the image forming apparatus 10.
  • the tablet terminal 10 stores a moving image captured by the imaging unit 101, a connection unit 107 connected to the station 20A to transmit and receive data when mounted on the station 20A, an imaging unit 101 imaging a subject, and Target identification information is received from the station 20A via the storage unit 104 and the connection unit 107, and the moving image obtained by the imaging unit 101 capturing the target person is written in the storage unit 104 in association with the received target person identification information And a recording control unit 1021.
  • the target person identification information received by the station 20A from the rehabilitation support device 300 is automatically associated with the moving image and stored in the tablet terminal 10.
  • the captured moving image can be divided and stored for each target person. Therefore, the assistant SP does not have to check the moving image and perform the sorting operation for each target person after the work is completed, and the operability improves.
  • the 2nd connection part 210 acquires the operation category (the name of an application) concerning rehabilitation with object person identification information, and control part 203 with object person identification information
  • the operation category is transmitted from the first connection unit 204 to the tablet terminal 10, and the recording control unit 1021 associates the received subject identification information and the operation category with the moving image and writes the association in the storage unit 104.
  • the application executed by the rehabilitation support device 300 is automatically associated with the moving image and stored in the tablet terminal 10.
  • the assistant SP does not have to check the moving image and perform sorting work for each operation category after the work is completed, and the operability is improved.
  • the tablet terminal 10 arranges the display part 103 which reproduces
  • a plurality of moving images stored in the tablet terminal 10 can be arranged and reproduced simultaneously. Therefore, for example, by simultaneously reproducing and comparing the moving image obtained by imaging the state of the past rehabilitation and the moving image obtained by imaging the current state of the rehabilitation, the state of the past rehabilitation can be easily compared. As a result, it is possible to more intuitively present the effects of rehabilitation, recovery status, etc. to the subject.
  • the tablet terminal 10 is provided with the reproduction position designation part (The reproduction location bar BR31, BR41, BR51 and the end location bar BR32, BR42, BR52) which designates the reproduction position in a moving image.
  • the display control unit 1022 reproduces the reproduction position designated by the reproduction position designation unit in the moving image. According to the above configuration, it is possible to adjust the reproduction position of the moving image to be simultaneously reproduced. Therefore, a plurality of moving images can be simultaneously reproduced at the start timing of the operation or the like. This makes it easier to compare a plurality of moving images.
  • the target person, the action category, and the date and time are associated with the moving image by the correspondence table, but not limited to this, for example, a folder corresponding to each action category is generated for each target person
  • the target person, the action category, and the date and time may be associated with the moving image by another method, such as distributing moving image data to which the date is added.
  • two moving images are simultaneously reproduced on the simultaneous reproduction screen, but two or more moving images may be simultaneously reproduced.
  • the configuration includes a plurality of tablet terminals 10 and stations 20 and 20A.
  • the number of tablet terminals 10 and the number of stations 20 and 20A may be different.
  • the number of stations 20 and 20A may be greater than the number of tablet terminals 10.
  • the tablet terminal 10 is installed at the stations 20 and 20A and imaged, but the present invention is not limited to this. After inputting the patient number and the operation category, the tablet terminal 10 is input from the stations 20 and 20A. You may remove and image. Thereby, imaging from arbitrary places is possible. For example, it is also possible for the assistant SP or the target person EP to directly capture an image of the tablet terminal 10.
  • a still image of the scene can be acquired by performing a screen shot on the characteristic timing of the operation on the moving image reproduction screen or the simultaneous reproduction screen.
  • By printing and outputting the still image acquired by the screen shot and the still image group acquired by the automatic OUTPUT and the manual OUTPUT it is possible to record it as a nursing record, a patient diary or the like.
  • the tablet terminal 10 may calculate the joint angle, the movement trajectory, the movement amount, and the like from the moving image by the additional application. This makes it possible to extract more specialized data from moving images.
  • a seal or the like for analysis may be attached to the body (for example, a joint) of the target person EP, and a movement trajectory or movement amount of the seal or the like in the moving image may be calculated by image analysis. In this case, it is possible to further improve the analysis accuracy of the movement trajectory, the movement amount, and the like.
  • the tablet terminal 10 can register data related to the target person EP measured by another device by unifying the patient number with the other device. Note that various methods can be considered for data sharing and communication methods.
  • the station 20 can be easily moved. Thereby, for example, imaging in various scenes such as a meal scene in a ward or an operation in a ward becomes possible. More specifically, imaging of occupational therapy, imaging of speech practice by a language audiologist, imaging of swallowing state at mealtime by a language audiologist, imaging for safety check around the bed by a nurse, etc. Is possible.
  • the tablet terminal 10 may be linked with a web camera, and may simultaneously image the target person EP from two or more different places.
  • a web camera may be connected to the tablet terminal 10, and the target person EP may be simultaneously imaged from a plurality of places.
  • imaging with a web camera alone is also possible, imaging from a different place becomes easy.
  • the operation category associated with the pairing reading unit 201 of the station 20 is customizable, and can be used in various fields such as the field of care and the field of nursing.
  • the reading area (i.e., operation category) of the pairing reading unit 201 is not limited to five, and may be less than five or more than five.
  • the operation category may be changed.
  • operation categories corresponding to the respective reading areas are set. A board in which each operation category is initially set may be prepared in advance, or the operation category may be freely set.
  • a fisheye lens may be installed in the imaging unit 101. By imaging in a wide area, it is possible to capture moving images effectively even in a narrow room.
  • a program for realizing the functions as the tablet terminal 10, the stations 20 and 20A, and the rehabilitation support device 300 described above is recorded in a computer readable recording medium, and the program recorded in the recording medium is a computer system.
  • the above-described tablet terminal 10, stations 20 and 20A, and the rehabilitation support device 300 may be processed by being read and executed.
  • "to read and execute the program recorded on the recording medium into the computer system” includes installing the program on the computer system.
  • the “computer system” mentioned here includes an OS and hardware such as peripheral devices.
  • the “computer system” may include a plurality of computer devices connected via a network including communication lines such as the Internet, WAN, LAN, and dedicated lines.
  • the “computer-readable recording medium” means a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in a computer system.
  • the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.
  • the recording medium also includes a recording medium provided internally or externally accessible from the distribution server for distributing the program.
  • the code of the program stored in the recording medium of the distribution server may be different from the code of the program executable in the terminal device. That is, the format stored in the distribution server does not matter as long as it can be downloaded from the distribution server and installed in a form that can be executed by the terminal device.
  • the program may be divided into a plurality of parts, and the configuration may be such that the terminal device integrates after being downloaded at different timings, or the distribution server that distributes each of the divided programs may be different.
  • “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) in a computer system serving as a server or a client when the program is transmitted via a network.
  • the program may be for realizing a part of the functions described above.
  • it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
  • a moving image recording method in a moving image recording system including an information processing apparatus and a station to which the information processing apparatus can be detached, wherein the station is connected to the information processing apparatus to transmit and receive data.
  • a moving image recording system including an information processing apparatus and a station to which the information processing apparatus can be detached, a procedure for connecting to the computer of the station with the information processing apparatus and transmitting and receiving data, and an imaging target To execute a procedure for acquiring target person identification information for identifying a person and a procedure for transmitting the acquired target person identification information to the information processing apparatus, and connecting the computer of the information processing apparatus to the station A procedure for transmitting and receiving data, a procedure for imaging the target person, a procedure for storing a captured moving image, and the target image identification information received from the station and received in the moving image obtained by imaging the target person A program for executing a procedure of associating target person identification information and writing it in a storage unit.
  • the station in a moving image recording system including an information processing apparatus and a station to which the information processing apparatus can be detached, the connection unit connected to the information processing apparatus to transmit and receive data, and an imaging target A station comprising: an acquisition unit for acquiring target person identification information for identifying a person; and a control unit for transmitting the target person identification information acquired by the acquisition unit from the connection unit to the information processing apparatus.
  • the method is a moving image recording method executed by the station, and target person identification information for identifying a target person for imaging Moving picture recording characterized by the steps of: acquiring the target person identification information transmitted to the information processing apparatus from the connection unit connected to the information processing apparatus to transmit and receive data; Method.
  • a procedure for acquiring target person identification information for identifying a target person for imaging in a computer of the station in a moving image recording system including an information processing device and a station to which the information processing device can be detached;
  • the information processing apparatus in a moving image recording system including an information processing apparatus and a station to which the information processing apparatus can be detached, the connection unit configured to connect to the station to transmit and receive data;
  • An imaging unit for imaging, a storage unit for storing a moving image imaged by the imaging unit, and object identification information for identifying an object person from the station via the connection unit are received, and the imaging unit is for receiving the object person
  • a recording control unit that writes the target person identification information to the storage unit in association with the moving image obtained by capturing the image.
  • a moving picture recording system including an information processing apparatus and a station to which the information processing apparatus can be detached, the moving picture recording method performed by the information processing apparatus, which is connected to the station to transmit and receive data Receiving target identification information identifying the target from the station via the connection unit, imaging the target, and moving image obtained by capturing the target, the target identification information received And associating the information with each other and writing the same in the storage unit.
  • the procedure of receiving the target person identification information for identifying the target person from the above, the procedure of imaging the target person, and the moving image obtained by imaging the target person are associated with the received target person identification information and written in the storage unit Procedures and programs for running.
  • a moving image recording system comprising an information processing apparatus detachable from a station having The information processing apparatus is A connection unit connected to the connection unit of the station to transmit and receive data; An imaging unit for imaging the subject; A storage unit that stores a moving image captured by the imaging unit; A recording control unit that receives the target person identification information from the station via the connection unit, and the imaging unit writes the target person identification information to the storage unit in association with the received moving image of the target person
  • a moving image recording system comprising: (2) The information processing apparatus A display unit that reproduces and displays a moving image stored in the storage unit; A display control unit that arranges the plurality of moving images of the target person on the display unit and simultaneously reproduces them; The moving image recording system according to the above (1), comprising: (3) The information processing apparatus A reproduction
  • the information processing apparatus A display unit that reproduces and displays a moving image stored in the storage unit; A playback position designation unit that designates a playback position in the moving image; A display control unit which extracts and outputs a predetermined number of still images from the moving image corresponding to the reproduction position designated by the reproduction position designation unit; The moving image recording system as described in said (3) provided with these.
  • the information processing apparatus A display unit that reproduces and displays a moving image stored in the storage unit; A playback position designation unit that designates a playback position in the moving image; A display control unit which extracts and outputs a predetermined number of still images from the moving image corresponding to the reproduction position designated by the reproduction position designation unit;
  • the moving image recording system comprising: (6) The information processing apparatus A display unit that reproduces and displays a moving image stored in the storage unit; A playback position designation unit that designates a playback position in the moving image; A display control unit which extracts and outputs a predetermined number of still images from the moving image corresponding to the reproduction position designated by the reproduction position designation unit;
  • the moving image recording system according to the above (1) comprising: (7) The information processing apparatus A display unit that reproduces and displays a moving image stored in the storage unit; A display control unit configured to display the moving image of the subject and a result image corresponding to the moving image and showing the operation result of the subject on the display unit;
  • the moving image recording system according to the
  • the information processing apparatus A reproduction position designating unit for designating a reproduction position of the moving image;
  • the display control unit reproduces the moving image corresponding to the reproduction position designated by the reproduction position designation unit.
  • the moving image recording system as described in said (8).
  • the information processing apparatus A reproduction position designating unit for designating a reproduction position of the moving image;
  • the display control unit extracts and outputs a predetermined number of still images from the moving image corresponding to the reproduction position designated by the reproduction position designation unit.
  • the moving image recording system as described in said (8).
  • at least the tablet terminal 10 and the station 20 are used, but the present invention is not limited thereto.
  • the function that the station 20 has without using the station 20 is added to the tablet terminal 10 You may In this case, as shown in the modification of FIGS. 26A and 26B, the tablet terminal 10 may be supported by the movable support rack 120 instead of the station 20.
  • the movable support frame 120 includes a plurality of casters 121, a plurality of legs 122, a pole 123, a support 124, a tablet terminal holder 125, and a camera holder 126.
  • Each caster 121 is attached to each leg 122, and can travel on the floor surface.
  • the pole 123 stands up along the vertical direction while being supported by the legs 122, and the length (height) along the vertical direction can be adjusted.
  • the pole 123 fixes the vertical position and rotational position of the pipe 123a provided upright on each leg 122, the extension portion 123b whose lower end is coaxially inserted in the pipe 123a, and the extension portion 123b with respect to the pipe 123a Or an adjustment unit 123c to permit.
  • the extending part 123b can be moved up and down and rotated with respect to the pipe 123a, so that the height of the external camera EC described later and the direction of the rotating direction can be adjusted to an optimal position. it can.
  • the height and rotational position of the extension part 123b that is, the height and rotational position of the external camera EC can be fixed by tightening the adjustment part 123c.
  • the support 124 is fixed at an intermediate position along the vertical direction of the pipe 123a, and the upper surface of the support 124 can receive the tablet terminal 10.
  • the tablet terminal holder 125 holds the tablet terminal 10 together with the support 124.
  • the tablet terminal 10 When a moving image is captured by the tablet terminal 10 without using an external camera, the tablet terminal 10 can be fixed vertically to the upper surface of the support 124, as shown in FIG. 26A. Further, when operating the tablet terminal 10 without performing imaging, as shown in FIG. 26B, the screen can be easily viewed by tilting the tablet terminal 10 against the upper surface of the support 124 and the operation is easy. Become. In any case, the tablet terminal holder 125 supports the back of the tablet terminal 10.
  • the camera holder 126 is pivotally fixed to the upper end of the extension portion 123b, and an external camera EC (such as a web camera) can be attached.
  • the camera holder 126 is capable of swinging movement in the lateral direction and tilting movement in the vertical direction.
  • the external camera EC when imaging with the external camera EC instead of imaging with the tablet terminal 10, the external camera EC is first attached to the camera holder 126 so as to face the opposite side (the direction of the dashed arrow) with respect to the screen of the tablet terminal 10. Fix it. Then, the adjusting unit 123c is operated to adjust the height and rotational position of the extension unit 123b. Further, the vertical direction of the camera holder 126 is adjusted. Thereby, the imaging direction of the external camera EC can be directed to the subject person EP. In addition, even when the distance to the target person EP is short, it is possible to cope flexibly by changing the direction of the external camera EC, so that it is possible to cope flexibly.
  • the height of the external camera EC is increased to make the facial expression of the target person EP and the work content on the table Can be included in one screen to be imaged.
  • various communications including transmission of a moving image between the external camera EC and the tablet terminal 10 may be performed by wire or may be performed wirelessly.
  • the user can input or select personal information identifying the target person EP on the screen of the tablet terminal 10.
  • the name of the target person EP may be registered in advance in the tablet terminal 10 together with the personal information, and may be selected.
  • personal information for identifying the target person EP may be linked to an identification number unique to the target person EP and registered in advance in the tablet terminal 10 so that it can be selected.
  • the user can input or select an operation category related to rehabilitation on the screen of the tablet terminal 10. For example, the operation categories “sitting”, “rise”, “walking”, and the like are displayed on the tablet terminal 10.
  • the user can use the present rehabilitation support system without using the medium 40 (without separately setting the medium 40). In this case, for the sequence of FIG.
  • step S101 of the medium 40 and step S103 of the station 20 are deleted, and step S102 of the station 20 is performed on the tablet terminal 10.
  • step S303, S310, S319, S324 input to the station 20A is input to the tablet terminal 10. That is, steps S303 and S304 are integrated into one step, steps S310 and S311 are integrated into one step, and steps S324 and S325 are integrated into one step.
  • S1, S2 ... rehabilitation support system (moving image recording system) 10 ... Tablet terminal (information processing apparatus) 20, 20A ... station 30 ... remote control 31 ... input unit 32 ... output unit 33 ... storage unit 34 ... control unit 35 ... operation unit 36 ... display unit 37 ... connection unit 40, 40-1, 40-2 ... medium 100 ... sensor 101: Imaging unit 102: Control unit 103: Display unit 104: Storage unit 105: Operation unit 106: Reception unit 107: Connection unit 200: Output device 201: Pairing reading unit (acquisition unit) 202: Power supply unit 203: Control unit 204: First connection unit (connection unit) 205: Docking unit 210: Second connection unit (acquisition unit) 300 ... rehabilitation support device 301 ... operation unit 302 ...
  • transmission unit 310 ... legs 311, 312, 313, 314 ... caster 331 ... calibration information storage unit 332 ... determination condition information storage unit 333 ... detection history information storage unit 334 ... parameter Information storage unit 335
  • Program information storage unit 341 Recognition unit 342
  • Display control unit 343 Operation area determination unit 344
  • Recording unit 345 Target determination unit 346
  • Hand display Parameter setting unit 349 ... Disturbance display parameter setting unit 401 ...
  • Storage unit 1021 ... Recording control unit 1022 ... Display control unit 2011, 2012, 2013, 2014, 2015 ... Reading area 3410 ... Transmission / reception control unit BR1, BR11, BR21 ... Reproduction point Bar (reproduction position specification part BR2, BR12, BR22 ... End point bar (reproduction position specification part)

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Rehabilitation Therapy (AREA)
  • Pain & Pain Management (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • Tourism & Hospitality (AREA)
  • Child & Adolescent Psychology (AREA)
  • Pathology (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Economics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Rehabilitation Tools (AREA)

Abstract

この動画像記録システムは、情報処理装置と、前記情報処理装置を脱着可能なステーションとを備える。前記ステーションは、前記情報処理装置と接続してデータを送受信する接続部と、撮像の対象者を識別する対象者識別情報を取得する取得部と、前記取得部が取得した前記対象者識別情報を前記接続部から前記情報処理装置に送信する制御部と、を備える。前記情報処理装置は、前記ステーションと接続してデータを送受信する接続部と、前記対象者を撮像する撮像部と、前記撮像部が撮像した動画像を記憶する記憶部と、前記接続部を介して前記ステーションから前記対象者識別情報を受信し、前記撮像部が前記対象者を撮像した動画像に受信した前記対象者識別情報を対応付けて前記記憶部に書き込む記録制御部と、を備える。

Description

動画像記録システム
 本発明は、動画像記録システムに関する。
 本願は、2017年10月27日に、日本国に出願された特願2017-208304号に基づき優先権を主張し、その内容をここに援用する。
 リハビリテーションの分野において、リハビリテーション中の対象者の動きを動画像で記録し、当該動画像をリハビリテーションに活用することが行われている(例えば、特許文献1参照)。
日本国特開2016-197330号公報
 本発明は、対象者を撮像する動画像記録システムにおける操作性を向上することができる動画像記録システムを提供する。
 本発明の一態様は、情報処理装置と、前記情報処理装置を脱着可能なステーションとを備える動画像記録システムであって、前記ステーションが、前記情報処理装置と接続してデータを送受信する接続部と、撮像の対象者を識別する対象者識別情報を取得する取得部と、前記取得部が取得した前記対象者識別情報を前記接続部から前記情報処理装置に送信する制御部と、を備え、前記情報処理装置が、前記ステーションと接続してデータを送受信する接続部と、前記対象者を撮像する撮像部と、前記撮像部が撮像した動画像を記憶する記憶部と、前記接続部を介して前記ステーションから前記対象者識別情報を受信し、前記撮像部が前記対象者を撮像した動画像に受信した前記対象者識別情報を対応付けて前記記憶部に書き込む記録制御部と、を備える。
 本発明によれば、対象者を撮像する動画像記録システムにおける操作性を向上することができる。
本発明の第1の実施形態におけるリハビリテーション支援システムのシステム構成を示す斜視図である。 本発明の第1の実施形態におけるリハビリテーション支援システムに備わるタブレット端末及びステーションの外観例を示す斜視図である。 本発明の第1の実施形態におけるリハビリテーション支援システムに備わるタブレット端末、ステーション、リモコン及び媒体それぞれの機能構成例を示す概略ブロック図である。 本発明の第1の実施形態におけるタブレット端末のハードウェア構成例を示す概略ブロック図である。 本発明の第1の実施形態におけるタブレット端末の記憶部が記憶する対応テーブルのデータ構成及びデータ例を示す概略図である。 本発明の第1の実施形態におけるリハビリテーション支援システムにおける処理の一例を示すイメージ図である。 本発明の第1の実施形態におけるリハビリテーション支援システムにおける処理の一例を示すシーケンス図である。 本発明の第1の実施形態におけるタブレット端末の表示部に表示される動画再生画面の一例を示すイメージ図である。 本発明の第1の実施形態におけるタブレット端末の表示部に表示される動画選択画面の一例を示すイメージ図である。 同動画選択画面の変形例を示すイメージ図である。 本発明の第1の実施形態におけるタブレット端末の表示部に表示される同時再生画面の一例を示すイメージ図である。 本発明の第1の実施形態におけるタブレット端末による動画記録再生処理の一例を示すフローチャートである。 変形例におけるタブレット端末の表示部に表示される動画再生画面の一例を示すイメージ図である。 変形例におけるタブレット端末の表示部に表示される自動OUTPUT画面の一例を示す第1のイメージ図である。 変形例におけるタブレット端末の表示部に表示される自動OUTPUT画面の一例を示す第2のイメージ図である。 本発明の第2の実施形態におけるリハビリテーション支援システムのシステム構成を示す斜視図である。 本発明の第2の実施形態におけるリハビリテーション支援システムに備わるリハビリテーション支援装置の機能構成例を示す概略ブロック図である。 本発明の第2の実施形態におけるリハビリテーション支援システムに備わるタブレット端末及びステーションそれぞれの機能構成例を示す概略ブロック図である。 本発明の第2の実施形態におけるタブレット端末の記憶部が記憶する対応テーブルのデータ構成及びデータ例を示す概略図である。 本発明の第2の実施形態において対象者がリハビリテーションを行っている様子を示す斜視図である。 本発明の第2の実施形態におけるリハビリテーション支援システムにおける処理の一例を示すシーケンス図である。 本発明の第2の実施形態におけるタブレット端末の表示部に表示される動画再生画面の一例を示すイメージ図である。 本発明の第2の実施形態におけるタブレット端末の表示部に表示される動画選択画面の一例を示すイメージ図である。 本発明の第2の実施形態におけるタブレット端末の表示部に表示される同時再生画面の一例を示すイメージ図である。 本発明の第2の実施形態におけるリハビリテーション支援装置によるアプリケーション実行処理の一例を示すフローチャートである。 本発明の第2の実施形態におけるタブレット端末による動画記録再生処理の一例を示すフローチャートである。 本発明の第1実施形態及び第2の実施形態における変形例を示す図であって、タブレット端末をステーションではなく移動支持架台に支持させる形態を示す斜視図である。 同変形例を示す図であって、図26Aの要部拡大図である。
 以下、本発明の実施形態について図面を参照して説明する。
[第1の実施形態]
 まず、第1の実施形態について説明する。図1は、本実施形態におけるリハビリテーション支援システムS1(動画像記録システム)のシステム構成を示す斜視図である。リハビリテーション支援システムS1は、リハビリテーションの対象者EP(以下「対象者EP」という。)に対して、リハビリテーションの実施を支援するシステムである。より具体的には、リハビリテーション支援システムS1は、対象者EPのリハビリテーションの様子を動画像で撮像して記録し、記録した動画像を再生表示するためのシステムである。
 リハビリテーション支援システムS1は、タブレット端末10、ステーション20、リモコン30、及び媒体40-1,40-2を備える。以降の説明において、媒体40-1,40-2について特に区別しない場合には、媒体40と記載する。
 タブレット端末10は、タブレット型の可搬可能な情報処理装置である。タブレット端末10は、ステーション20に装着することができ、また、ステーション20から離脱することができる。
 ステーション20は、部屋の壁面等に設置可能な据置型のステーションである。ステーション20は、タブレット端末10を脱着可能である。ステーション20は、タブレット端末10が装着されているときには、タブレット端末10を起立した状態で正面に向けて保持する。また、ステーション20は、タブレット端末10が装着されているときに、タブレット端末10と接続してデータを送受信する。また、ステーション20は、電源に接続されており、タブレット端末10が装着されると、自動的にタブレット端末10に電力を供給する。
 リモコン30は、タブレット端末10を遠隔操作するためのリモートコントローラである。リモコン30には、ボタンが正面に配置されている。また、リモコン30は、掌に収まるサイズであり、例えば手に持ちやすいデザインである。
 媒体40は、所持者に関する個人情報を記憶しているRFID(Radio Frequency IDentifier)タグを有する媒体である。個人情報は、少なくとも所有者を識別する識別情報を含む。対象者EPの識別情報は患者番号(対象者識別情報)である。図示する例では、対象者EPは、手首にバンド型の媒体40-1を装着している。一方、対象者EPのリハビリテーションを補助する理学療法士や作業療法士等の補助者SP(以下「補助者SP」という。)は、手にカード型の媒体40-2を保持している。
 媒体40をバンド型にすることにより、常に媒体40を身に付けていることができるため、持ってくるのを忘れたり、紛失したりすることを防ぐことができる。なお、媒体40は、RFIDに限らず、その他の非接触IDであってもよい。また、対象者EPがカード型の媒体40-2を使用し、操作者SPがバンド型の媒体40-1を使用してもよい。また、対象者EPと補助者SPがいずれもバンド型の媒体40-1を使用してもよいし、対象者EPと補助者SPがいずれもカード型の媒体40-2を使用してもよい。また、媒体40の形状はバンド型やカード型に限らず、対象者EPや操作者SPが保持、装着しやすい他の形状としてもよい。
 次に、タブレット端末10、ステーション20、リモコン30及び媒体40それぞれの構成例について説明する。図2は、リハビリテーション支援システムS1に備わるタブレット端末10及びステーション20の外観例を示す斜視図である。
 タブレット端末10は、その正面に撮像部101と表示部103とを備える。撮像部101は、被写体を撮像するカメラである。例えば、撮像部101は、リハビリテーションを実施している対象者EPを撮像する。表示部103は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイ等の画像表示装置である。表示部103は、その表示画面上にタッチパネルを備える。例えば、表示部103は、タブレット端末10が記憶している動画像を再生して表示する。
 ステーション20は、その正面にペアリング読取部201を備える。ペアリング読取部201は、対象者EPを識別する個人情報及びリハビリテーションに係る動作カテゴリを取得する取得部である。ペアリング読取部201は、媒体40から個人情報を読み取る。ペアリング読取部201には、5つの読取エリア2011~2015が設けられている。各読取エリア2011~2015には、それぞれ異なる動作カテゴリが対応付けられている。動作カテゴリは、リハビリテーションにおける動作のカテゴリである。図示する例では、読取エリア2011には動作カテゴリ「座位」が対応付けられおり、読取エリア2012には動作カテゴリ「立位」が対応付けられており、読取エリア2013には動作カテゴリ「立ち上り」が対応付けられており、読取エリア2014には動作カテゴリ「歩行」が対応付けられており、読取エリア2015には動作カテゴリ「その他」が対応付けられている。ペアリング読取部201は、媒体40から個人情報を読み取った読取エリア2011~2015により動作カテゴリを取得する。
 なお、動作カテゴリは上述したものに限らず、設定により、自由に変更、追加できる。また、動作カテゴリは、「動作」だけに限らず、「作業」や「練習」等を示すカテゴリを含んでもよい。また、読取エリア2011~2015を1つにして、個人情報の読み取り専用とし、動作カテゴリをタブレット端末10内のアプリケーションで選択するようにしてもよい。これにより、アプリケーションをアップデートすることで、カテゴリを柔軟に更新することができる。
 また、ステーション20は、ドッキング部205を備える。ドッキング部205は、側面に凹状の保持部を有し、当該保持部でタブレット端末10の側面を挟んで保持する。ドッキング部205は左右に可動式になっていてもよい。これにより、タブレット端末の縦横の向きを変更して保持する場合や、タブレット端末10のサイズが変更された場合であっても、ステーション20を変更することなく対応することが可能である。
 図3は、リハビリテーション支援システムS1に備わるタブレット端末10、ステーション20、リモコン30及び媒体40それぞれの機能構成例を示す概略ブロック図である。
 タブレット端末10は、撮像部101と、制御部102と、表示部103と、記憶部104と、操作部105と、受信部106と、接続部107とを備える。なお、タブレット端末10は、撮像部101を有さず、外部のカメラが撮像した動画像を、接続部107を介して取得して使用してもよい。より具体的に言うと、例えば、タブレット端末10とは別体をなす外部カメラ(ウェブカメラなど)を配置し、撮像部101の代わりに、この外部カメラで撮像してもよい。この場合、外部カメラは、撮像した動画像をリアルタイムでタブレット端末10に送信してもよいし、または、送信せずに外部カメラに一時的に保存してもよい。撮像した動画像を外部カメラに一時的に保存する場合には、タブレット端末10からの指示を受けた際に、外部カメラが動画像をタブレット端末10へ送信するようにしてもよい。
 制御部102は、CPU(Central Processing Unit;中央演算処理装置)を用いて構成され、タブレット端末10の動作を統括して制御する。制御部102は、記録制御部1021と、表示制御部1022とを備える。記録制御部1021は、撮像部101が対象者EPを撮像した動画像を記録し、記録した動画像と、ステーション20から受信した対象者EPの患者番号及びリハビリテーションに係る動作カテゴリと、動画像を撮像した撮像日時とを対応付けて記憶部104に書き込んで保存する。表示制御部1022は、記憶部104が記憶している動画像を表示部103に再生して表示する。また、表示制御部1022は、対象者EPの複数(例えば、2つ)の動画像を表示部103に並べて同時再生する。
 記憶部104は、ROM(Read Only Memory)やRAM(Random Access Memory)等の記憶装置を用いて構成され、種々の情報を記憶する。例えば、記憶部104は、撮像部101が撮像した動画像の画像データ(以下、動画像データと称する。)や、動画像と対象者と動作カテゴリと撮像日時とを対応付ける対応テーブル等を記憶する。
 操作部105は、ボタンやタッチパネル等の既存の入力装置を用いて構成され、入力を受け付ける。操作部105は、補助者SPの指示をタブレット端末10に入力する際に補助者SPによって操作される。
 受信部106は、赤外線等によりリモコン30からの制御データを受信する。制御データには、動画像の記録の開始を指示するスタート情報又は動画像の記録の停止を指示するストップ情報がある。
 接続部107は、タブレット端末10がステーション20に装着されているときに、ステーション20と接続してデータを送受信するインタフェースである。
 なお、タブレット端末10は、例えば、音声を出力する音声出力部等のスマートフォンやタブレット端末が一般的に有する機能部を有していてもよい。
 ステーション20は、ペアリング読取部201と、給電部202と、制御部203と、第1の接続部204とを備える。
 給電部202は、ステーション20の各部に電力を供給する。また、給電部202は、タブレット端末10がステーション20に装着されている際に、第1の接続部204を介してタブレット端末10に電力を供給する。
 制御部203は、ステーション20の動作を統括して制御する。制御部203は、CPUを用いて構成されてもよい。制御部203は、例えば、ペアリング読取部201が媒体40から読み取った個人情報及び動作カテゴリを第1の接続部204からタブレット端末10に送信する。第1の接続部204は、タブレット端末10がステーション20に装着されているときに、タブレット端末10と接続してデータを送受信するインタフェースである。
 なお、ステーション20の機能の一部又は全部をタブレット端末10のアプリケーションで実現してもよい。
 リモコン30は、操作部301と、送信部302とを備える。操作部301は、ボタンを用いて構成され、入力を受け付ける。送信部302は、操作部301が入力を受け付けた際に、赤外線等により制御データをタブレット端末10に送信する。
 媒体40は、記憶部401を備える。記憶部401は、所有者の個人情報を記憶する。個人情報は、例えば、患者番号、氏名、生年月日等である。
 図4は、リハビリテーション支援システムS1に備わるタブレット端末10のハードウェア構成例を示す概略ブロック図である。
 タブレット端末10は、CPU1001と、RAM1002と、ROM1003と、通信モジュール1004と、補助記憶装置1005と、入力装置1006と、出力装置1007とを含んで構成され、それぞれがバスライン1008等で接続されている。
 CPU1001は制御部102に対応する。RAM1002、ROM1003、及び補助記憶装置1005は記憶部104に対応する。通信モジュール1004は、受信部106及び接続部107に対応する。入力装置1006は、撮像部101に対応する。出力装置1007は、表示部103に対応する。
 図5は、タブレット端末10の記憶部104が記憶する対応テーブルのデータ構成及びデータ例を示す概略図である。図示するように対応テーブルは、対象者と、動作カテゴリと、日時と、動画像との各項目を有する。対象者は、動画像の被写体である対象者EPの患者番号である。動作カテゴリは、リハビリテーションの動作カテゴリである。日時は、動画像を撮像した年月日時分である。動画像は、動画像データのデータ名である。
 続いて、図6及び図7を参照して、本実施形態におけるリハビリテーション支援システムS1における処理の流れについて説明する。図6は、リハビリテーション支援システムS1における処理の一例を示すイメージ図である。図7は、リハビリテーション支援システムS1における処理の一例を示すシーケンス図である。リハビリテーション支援システムS1では、対象者EPのリハビリテーションの様子をタブレット端末10により動画像で記録し、記録した動画像をタブレット端末10において再生して確認することができる。
 タブレット端末10は、壁面等に設置されたステーション20に予め装着されている。これにより、補助者SPが、動画像を撮像するために、三脚の位置やカメラの高さ等を対象者EPが写るように調整してセッティングする手間を省くことができる。また、三脚等によりカメラの位置をセッティングすると、前回セッティングした位置を定点観察するのに手間が掛かったり、位置がずれたりする。それに対し、本リハビリテーション支援システムS1では、タブレット端末10をステーション20に装着するだけで容易にセッティングすることができる。また、タブレット端末10の位置が、前回の位置からずれることがないため、対象者EPの位置を決めておけば毎回同じ範囲におけるリハビリテーションの動画像を撮像することができ、動画像の比較等が行いやすい。また、ステーション20は壁面等に設置されているため、様々な人が行き交うリハビリテーション室において通常時は邪魔にならず、片付ける必要がない。また、使用したいときに直ぐに使用することができる。
 まず、補助者SPは、対象者EPに対応する媒体40をステーション20のペアリング読取部201にかざす(ステップS101)(図6(a)参照)。このとき、補助者SPは、ペアリング読取部201のうち、これから対象者EPがする(すなわち、動画像に記録される)動作カテゴリに対応する読取エリアに媒体40をかざす。図示する例では、動作カテゴリ「座位」に対応する読取エリア2011に媒体40がかざされている。
 ステーション20のペアリング読取部201は、媒体40から対象者EPの個人情報を読み取り、また、媒体40がかざされた読取エリアに対応する動作カテゴリを取得する(ステップS102)。そして、ペアリング読取部201は、取得した個人情報と動作カテゴリとを制御部203に出力する。制御部203は、入力された個人情報及び動作カテゴリを、第1の接続部204を介してタブレット端末10に送信する(ステップS103)。
 タブレット端末10の制御部102は、個人情報及び動作カテゴリをステーション20から受信すると、受信した個人情報に応じたメニュー画面を表示部103に表示する(ステップS104)。メニュー画面には、媒体40に対象者EPの個人情報を登録するための患者カード登録や、各種設定や、動画像を再生する動画再生や、動画像を他の機器に転送する動画転送や、動画像を記録する動画記録や、ログアウト等の各メニューが選択可能に表示される。補助者SPは、メニュー画面から動画記録を選択する(ステップS105)。
 制御部102は、メニュー画面において動画記録が選択されると(ステップS105)、記憶部104における動画像記録用の空き容量から記録可能な時間を算出して表示部103に表示する(ステップS106)。例えば、制御部102は、「残り〇〇MB(約××分)記録可能です」等のメッセージを表示部103に表示する。
 そして、制御部102は、撮像部101を起動し、動画を記録するための動画記録画面を表示部103に表示する(ステップS107)。動画記録画面には、撮像部101が撮像する画像が表示される。タブレット端末10の表示部103は、撮像部101と同じ面にその画面が配置されているため、補助者SP及び対象者EPから表示部103の画面が見える状態で撮像することができる。そして、撮像部101が撮像する画像を動画記録画面に表示することにより、補助者SPは動画像の記録を開始する前や記録中に対象者EPの写り具合を確認することができる。また、動画記録画面には、受信した個人情報と、動作カテゴリとが表示される。これにより、動画像の登録間違いを低減することができる。
 補助者SPは、タブレット端末10に動画記録画面が表示された後、リモコン30の操作部301にあるボタンを押下して記録の開始を指示する(ステップS108)(図6(b)参照)。リモコン30の送信部302は、操作部301が入力を受け付けると、スタート情報をタブレット端末10に送信する。タブレット端末10の制御部102の記録制御部1021は、受信部106がスタート情報を受信すると、撮像部101が撮像する動画像の記録を開始する(ステップS109)。なお、リモコン30を用いず、タブレット端末10に表示されるスタートボタンを押下することで動画像の記録を開始してもよい。
 その後、補助者SPは、対象者EPがリハビリテーションの動作を終了すると、再度、リモコン30の操作部301にあるボタンを押下して記録の終了を指示する(ステップS110)。このように、補助者SPは、リモコン30を使用してタブレット端末10を操作することができるため、タブレット端末10から離れていても動画像を撮像することができる。よって、リハビリテーション中は対象者EPの傍にいることができ、安全にリハビリテーションを実施することができる。また、リモコン30の操作部301に配置するボタンを最小限(例えば、1つ)にすることで、操作ミスの低減や、感覚的な操作が可能となる。なお、リモコン30を用いず、タブレット端末10に表示されるストップボタンを押下することで動画像の記録を終了してもよい。
 上述したように、上記ステップS108,S110は、リモコン30の代わりにタブレット端末10で行ってもよい。この場合、ステップS108において、補助者SPは、タブレット端末10に動画記録画面が表示された後、タブレット端末10を操作して記録を開始する。また、ステップS110において、補助者SPは、対象者EPがリハビリテーションの動作を終了すると、再度、タブレット端末10を操作して記録を終了する。
 なお、この場合、タブレット端末10に一時的に記憶した動画を編集して始点及び終点を変更し、保存するように構成してもよい。この場合、リモコン30が無くても、必要な時間範囲の動画を得ることができる。一方、リモコン30を用いる形態の場合は、編集作業が不要で操作が楽であるという点で利点がある。
 リモコン30の送信部302は、操作部301が入力を受け付けると、ストップ情報をタブレット端末10に送信する。タブレット端末10の制御部102の記録制御部1021は、受信部106がストップ情報を受信すると、撮像部101が撮像する動画像の記録を終了し(ステップS111)、動画像データを記憶部104に書き込んで保存する(ステップS112)。このとき、制御部102の記録制御部1021は、ステーション20から受信した個人情報に含まれる患者番号と、動作カテゴリと、動画像の記録を終了した日時(撮像日時)と、動画像とを対応付けて記憶する。具体的には、制御部102の記録制御部1021は、患者番号と、動作カテゴリと、撮像日時と、動画像とを対応付けて記憶部104が記憶する対応テーブルに書き込む。
 すなわち、動作カテゴリに対応する読取エリアに媒体40をかざすという簡単な1つの動作のみで、対象者と、動作カテゴリと、撮像日時とが自動的に動画像に対応付けられる。これは、動作カテゴリ毎に読取エリアが設置されているため、媒体40をかざす場所を変えるだけで動作カテゴリを指定できるからである。つまり、媒体40をかざすという1つの動作のみで、動画像に対応付ける個人情報及び動作カテゴリを入力することができる。よって、補助者SPはこれらの情報をタブレット端末10に入力する手間がなくなり、操作性が向上する。これにより、補助者SPの業務負担を軽減することができる。
 更に、記録した動画像は、その場で即時に再生可能である。例えば、補助者SPは、ステーション20からタブレット端末10を取り外して対象者EPと記録した動画像を確認することができる(図6(c)参照)。通常、ビデオカメラの画面はタブレット端末10の画面に比べて小さいため、高齢者等の視力が低下している対象者EPにとっては、ビデオカメラの画面において動画像を確認することが困難であった。これに対し、本リハビリテーション支援システムS1では、記録した動画像をタブレット端末10の比較的大きな画面で再生することができるため、撮像したその場で対象者EPに動画像を見せて確認することができる。また、記録した動画像をタブレット端末10から有線又は無線で接続する他の表示装置に転送して表示してもよい。これにより、より大きな画面や複数の画面で動画像を確認することができる。
 また、タブレット端末10は、ステーション20から取り外し可能であるため、対象者EPはステーション20のある位置まで行く必要がない。対象者EPがいる位置は撮像ポイントであるため、ステーション20から離れていることが多い。その場合には、ステーション20からタブレット端末10を取り外して、対象者EPの前まで持って行くことができる。これにより、撮像したその場で補助者SPと対象者EPとが記録した動画像を確認して共有することができる。さらに、補助者SPと対象者EPが、記録した動画像を確認しながら、動画像にタッチして手書きの絵(マーカ)や手書きのメモを書き入れ、そしてこれらマーカやメモを動画像と共に保存してもよい。この場合、補助者SPと対象者EPは情報をより共有しやすくなる。
 タブレット端末10の制御部102の表示制御部1022は、動画像の記録が終了すると、記録した動画像を再生するための動画再生画面を表示部103に表示する。
 図8は、タブレット端末10の表示部103に表示される動画再生画面の一例を示すイメージ図である。本図に示す動画再生画面には、動画像を再生するための再生エリアGと、動画像を再生するための再生ボタンBT1と、再生開始位置まで現在の再生位置をリセットするためのリセットボタンBT2と、動画像をスロー再生するためのスローONボタンBT3と、複数の動画像を同時に再生するための同時再生ONボタンBT4と、再生する動画像を選択するための動画選択ボタンBT5と、動画再生画面を終了して元の画面に戻るための終了ボタンBT6とが配置されている。
 制御部102の表示制御部1022は、動画再生画面において再生ボタンBT1が押下され入力を受け付けると、再生エリアGに動画像を再生する。また、制御部102の表示制御部1022は、動画再生画面においてリセットボタンBT2が押下され入力を受け付けると、再生エリアGに動画像を最初から再生する。また、制御部102の表示制御部1022は、動画再生画面においてスローONボタンBT3が押下され入力を受け付けると、再生エリアGにおける動画像の再生をスローにする。スロー再生することにより、起立動作等の早い動作も容易に分析や理解が可能となる。特に、対象者EPと一緒に確認する場合には、スロー再生の方が高齢者等は理解しやすい。また、制御部102の表示制御部1022は、動画再生画面において動画選択ボタンBT5が押下され入力を受け付けると、動画再生画面において再生する動画像を選択するための動画選択画面を表示部103に表示する。また、制御部102の表示制御部1022は、動画再生画面において終了ボタンBT6が押下され入力を受け付けると、動画再生画面を終了し、メニュー画面を表示部103に表示する。
 更に、動画再生画面には、再生箇所バーBR1と、終了箇所バーBR2と、現在位置バーBR3とが再生エリアGの下部に配置される。再生箇所バーBR1は、再生を開始する位置を調整するためのバーである。終了箇所バーBR2は、再生を終了する位置を調整するためのバーである。現在位置バーBR3は、現在の再生位置を示すバーである。再生箇所バーBR1及び終了箇所バーBR2は、例えばタッチパネル等における操作によりその位置を変更することができる。
 すなわち、補助者SPは、動画像の再生箇所を調整することが可能である。例えば、補助者SPは、再生箇所バーBR1及び終了箇所バーBR2の位置を調整した後、再生ボタンBT1を押下する。タブレット端末10の制御部102の表示制御部1022は、再生箇所バーBR1に対応する箇所から動画像を再生エリアGに再生し、終了箇所バーBR2に対応する箇所で動画像の再生を終了する。すなわち、動画像は、再生箇所バーBR1の位置から終了箇所バーBR2の位置まで再生される。これにより、見たい動作の箇所だけをピンポイントで再生が可能となる。動画像を確認する際は、複数回再生して見ることが多い上に、動画像の前半は動作準備期間で意味のないものであることが多いため、再生位置を変更することは有効である。
 また、タブレット端末10は、過去の動作(リハビリテーションの様子)と比べて見るために、過去に撮像した動画像と今回撮像した動画像とを同時に再生することができる。まず、補助者SPは、同時再生ONボタンBT4を押下する。タブレット端末10の制御部102の表示制御部1022は、動画再生画面において動画選択ボタンBT4が押下され入力を受け付けると、同時に再生する過去の動画像を選択するための動画選択画面を表示部103に表示する。
 図9Aは、タブレット端末10の表示部103に表示される動画選択画面の一例を示すイメージ図である。本図に示す動画選択画面には、対象者EPの患者番号及び氏名が左上部分に表示されるとともに、対象者EPの動画像を示すアイコンが選択可能に一覧表示される。各アイコンは、対応する動画像の動作カテゴリを示すピクトグラム及び文字列によって構成される。これにより、動画像の動作カテゴリを容易に判別することができる。また、ピクトグラムを用いて動作カテゴリを表すことにより、言語に制約されずに動作カテゴリの内容を直感的に伝達することができ、グローバル対応に向いた表現を実現している。
 図示するように、アイコンは、動画像が撮像された日付毎に分けて表示される。更に、アイコンの下には撮像された時刻が表示される。また、アイコンは、各日付において撮像された時刻が午前であるか午後であるかが容易に識別可能な態様で表示される。例えば、午前のアイコンを赤いエリアで囲み、午後のアイコンを青いエリアで囲む、等の色分けをしてもよい。
 なお、動画選択画面には、動画再生画面において再生された動画像の動作カテゴリ(すなわち、ステーション20が媒体40から個人情報を読み取った読取エリアに対応する動作カテゴリ)の動画像のみを一覧表示するようにしてもよい。或いは、動画選択画面には、動作カテゴリ毎に分けてアイコンを表示するようにしてもよい。
 補助者SPは、動画選択画面において、同時再生する動画像のアイコンを選択して押下する。タブレット端末10の制御部102の表示制御部1022は、動画選択画面において選択されたアイコンの動画像を記憶部104から読み出して、同時再生画面を表示部103に表示する。
 図9Aに示した動画選択画面に代わる変形例として、図9Bに示す動画選択画面を採用してもよい。同変形例では、動画像に付したマーカやメモ等の編集内容を、アイコンで確認可能である。
 図9Bに示される領域ar1には、動作カテゴリ、撮影日時、動画時間、が表示される。また、図9Bに示される領域ar2には、動画像に対して下記のような編集データが紐付けられていることがアイコンで示される。
・フラグ:データの重要度を任意で選択可能
・メモ記入のデータあり
・自由記入マーカのデータあり
・各種計測データあり(例えば、腕を上げた角度や、体幹の傾きの角度等のデータのあり)
・モザイク加工データあり
・連続写真作成データあり
・2画面比較データあり
・重ね比較データあり
 さらに、図9Bに示される領域ar3には、2画面比較データ、重ね比較データ、連続写真データ、のそれぞれに対して下記のような編集データが紐付けられていることが、アイコンで示される。
・メモ記入のデータあり
・自由記入マーカのデータあり
・各種計測データあり
・モザイク加工データあり
 図10は、タブレット端末10の表示部103に表示される同時再生画面の一例を示すイメージ図である。本図に示す同時再生画面には、今回の動画像を再生するための今回再生エリアG1と、過去の動画像を再生するための過去再生エリアG2と、ボタンBT1~BT6とが配置されている。今回の動画像は、動画再生画面において再生された動画像であり、例えば、直近に撮像した動画像である。また、過去の動画像は、動画選択画面において選択された動画像である。また、同時再生画面におけるボタンBT1~BT6の機能は、動画再生画面のものと同様である。
 制御部102の表示制御部1022は、同時再生画面において再生ボタンBT1が押下され入力を受け付けると、再生エリアG1に今回の動画像を、再生エリアG2に過去の動画像を同時に再生する。すなわち、タブレット端末10は、今回の動画像と過去の動画像とを並べて同時再生することができる。よって、1つの画面で2つの動画像を並べて同時に再生することができるため、撮像したその場で過去の動画像との比較を容易に行うことができる。そのため、対象者EPは、過去(例えば、入院時)と比べてどのくらい良くなったのかの回復状態(リハビリテーションの効果)をその場で容易に確認することができる。また、撮像したその場で、補助者SPと対象者EPとで動画像を比較して課題を共有し、その課題に対してのリハビリテーションメニューを実施することができる。
 なお、過去と現在の動画像を並べて比較表示する際、それぞれの位置を変更したり、またはそれぞれの大きさを拡大縮小したりしてもよい。
 また、現在の動画像を、互いに倍率を変えて2つ並べてもよい。例えば、一方は俯瞰した動画像で、他方がそのうちの一部を拡大した動画像であってもよい。
 また、セラピストなどの患者ではない第三者を撮像した動画像と、対象者EPを撮像した動画像との2つを並べてもよい。この場合、セラピストなどの第三者の動作を手本として、対象者EPの動作を対比したりすることができる。
 さらには、複数の動画像を並べて比較する際の並び配置を、横方向に並べることに限らず、縦方向に並べるようにしてもよい。動画像を縦方向に並べる場合、後述する再生箇所バーBR11、終了箇所バーBR12及び現在位置バーBR13を、縦並びの動画像の真横に配置してもよいし、または、縦並びの動画像の真下に配置してもよい。
 同時再生画面には、今回の動画像に対応する再生箇所バーBR11、終了箇所バーBR12及び現在位置バーBR13が今回再生エリアG1の下部に配置される。また、同時再生画面には、過去の動画像に対応する再生箇所バーBR21、終了箇所バーBR22及び現在位置バーBR23が過去再生エリアG2の下部に配置される。補助者SPは、再生箇所バーBR11及び終了箇所バーBR12の位置を変更することにより、今回の動画像の再生箇所を調整することができる。また、補助者SPは、再生箇所バーBR21及び終了箇所バーBR22の位置を変更することにより、過去の動画像の再生箇所を調整することができる。
 例えば、動画像の記録を開始してから動作を開始するまでの時間は、各動画像により異なる場合がある。よって、2つの動画像を同時に再生しても、各動画像において対象者EPが同時に動作を開始するとは限らない。そのため、2つの動画像をそのまま最初から再生させると、各動画像における対象者EPの動作のタイミングが異なり、比較し難い。これを解消するために、各動画像の再生箇所を動作の開始タイミング等に合わせて、2つの動画像における対象者EPの動作のタイミングが合うように調整することができる。
 例えば、補助者SPは、再生箇所バーBR11及び再生箇所バーBR21を動作の開始タイミングの位置に調整した後、再生ボタンBT1を押下する。タブレット端末10の制御部102の表示制御部1022は、今回の動画像を再生箇所バーBR11に対応する箇所から、過去の動画像を再生箇所バーBR21に対応する箇所から同時再生する。これにより、2つの動画像を同時に再生したときに、2つの動画像において対象者EPが同時に動作を開始するため、差異を比較し易くなり、動作速度の変化等を容易に確認することができる。再生箇所バーBR1,BR11,BR21及び終了箇所バーBR2,BR12,BR22が、動画像における再生位置を指定する再生位置指定部を構成する。表示制御部1022は、動画像のうち、再生位置指定部において指定された再生位置を再生する。
 また、タブレット端末10は、今回の動画像に限らず、記録した任意の動画像を選択して再生することができる。例えば、制御部102は、メニュー画面において動画再生が選択されると、再生する動画像を選択するための動画選択画面を表示部103に表示する。当該動画選択画面では、1つ又は2つの動画像を選択することができる。制御部102は、動画選択画面において1つの動画像が選択された場合には、選択された動画像を再生するための動画再生画面を表示部103に表示する。一方、制御部102は、動画選択画面において2つの動画像が選択された場合には、選択された2つの動画像を同時再生するための同時再生画面を表示部103に表示する。
 また、タブレット端末10は、記録した動画像をパーソナルコンピュータやクラウド(サーバ装置)等の他の機器に転送してデータ移管をすることができる。例えば、制御部102は、メニュー画面において動画転送が選択されると、転送する動画像を選択するための動画選択画面を表示し、動画選択画面において選択された動画像に関するデータ(動画像データ及び、対応テーブルにおいて当該動画像に対応付けられる対応データ(対象者、動作カテゴリ及び日時))を転送する。転送手段は、例えば、コンピュータが読み取り可能な記録媒体を用いてもよいし、無線LAN(Local Area Network)やBluetooth(登録商標)等の無線通信を用いてもよい。
 なお、タブレット端末10が、記録した動画像を他の機器に転送するデータ移管をする際、動画像に付したメモやマーカも、動画像と共にデータ移管してもよい。
 また、タブレット端末10は、記憶部104の空き容量が少なくなると新たな動画像を記録できなくなるため、これを防ぐために、動画像に関するデータを自動的に他の機器に転送してデータ移管してもよい。これにより動画像データによる容量負荷を軽減することができる。転送するタイミングは、予めスケジューリングされていてもよいし、新たな動画像を記録したタイミングであってもよいし、記憶部104の空き容量が所定値以下になったタイミング等であってもよい。
 また、タブレット端末10及びステーション20は、媒体40に紐づけられている対象者EP(媒体40が保持する個人情報)の解除と変更が可能である。対象者EPは定期的に退院していくので、退院後にはその対象者EPの媒体40は不要になる。よって、退院した対象者EPとの紐づけを解除し、新たな対象者EPを媒体40に紐づける必要がある。例えば、制御部102は、メニュー画面において患者カード登録が選択されると、現在、媒体40に紐づけされている対象者EPを解除し、新たな対象者EPを当該媒体40に紐づける処理を実行する。より具体的には、制御部102は、新たに媒体40に紐づける対象者EPの患者番号を含む個人情報をステーション20に送信する。ステーション20のペアリング読取部201は、媒体40の記憶部401が記憶する個人情報を、タブレット端末10から受信した新たな個人情報に書き換える。これにより、媒体40に紐づけられている対象者EPが変更される。
 図11は、タブレット端末10による動画記録再生処理の一例を示すフローチャートである。本図には、タブレット端末10が対象者EPを撮像して動画像を記録し、記録した動画像を再生する処理を示す。タブレット端末10は、個人情報及び動作カテゴリをステーション20から受信したときに、本図に示す処理を実行する。
 まず、補助者SPは、媒体40をステーションのペアリング読取部201にかざす。ステーション20は、ペアリング読取部201に媒体40がかざされると、媒体40から個人情報を読み取り、読み取った個人情報と、媒体40がかざされた読取エリアに対応する動作カテゴリとをタブレット端末10に送信する。
 (ステップS201)制御部102は、接続部107を介してステーション20から個人情報及び動作カテゴリを受信して取得する。その後、ステップS202の処理に進む。
 (ステップS201)制御部102は、受信した個人情報が権限者のものであるか否かを判定する。権限者は、タブレット端末10を操作する権限を有する者であって、例えば、補助者SPである。権限者であると制御部102が判定した場合には、ステップS203の処理に進む。また、権限者でない(すなわち、対象者EPである)と制御部102が判定した場合には、ステップS204の処理に進む。
 (ステップS203)制御部102は、権限者が操作可能な処理を示す各種設定画面を表示部103に表示し、対応する各処理を実行する。権限者が操作可能な処理は、例えば、対象者EPの動画像の確認、対象者EP同士の動画像の比較、動画像の削除等である。なお、権限に種別を設け、種別に基づいて実行可能な処理が異なるようにしてもよい。例えば、第1権限者は全ての対象者EPの動画像の確認、比較、及び削除を可能とし、第2権限者は担当する対象者EPについてのみ動画像の確認、比較、及び削除を可能としてもよい。その後、処理を終了する。
 (ステップS204)制御部102は、メニュー画面を表示部103に表示する。メニュー画面に表示される項目は、例えば、動画記録、動画再生、動画転送、患者カード登録、ログアウト等である。その後、ステップS205の処理に進む。
 (ステップS205)制御部102は、メニュー画面から動画記録が選択されたか否かを判定する。動画記録が選択されたと制御部102が判定した場合には、ステップS207の処理に進む。また、動画記録が選択されなかったと制御部102が判定した場合には、ステップS206の処理に進む。
 (ステップS206)制御部102は、メニュー画面において選択された各処理を実行する。その後、処理を終了する。
 (ステップS207)制御部102は、撮像部101を起動して動画撮像画面を表示部103に表示する。その後、ステップS208の処理に進む。
 (ステップS208)制御部102は、受信部106がリモコン30からスタート情報を受信したか否かを判定する。受信したと制御部102が判定した場合には、ステップS209の処理に進む。また、受信していないと制御部102が判定した場合には、ステップS208の処理を再度実行する。
 (ステップS209)制御部102は、撮像部101が撮像する動画像の記録を開始する。その後、ステップS210の処理に進む。
 (ステップS210)制御部102は、受信部106がリモコン30からストップ情報を受信したか否かを判定する。受信したと制御部102が判定した場合には、ステップS211の処理に進む。また、受信していないと制御部102が判定した場合には、ステップS210の処理を再度実行する。
 (ステップS211)制御部102は、動画像の記録を終了する。その後、ステップS212の処理に進む。なお、動画像の記録を終了する前に、動画像の編集が行えるようにしてもよい。例えば、動画像の向きを回転させたり、トリミングをしたりした後に、動画像の記録を終了し、そしてステップS212の処理に進んでもよい。
 (ステップS212)制御部102は、記録した動画像を、ステップS201において取得した個人情報及び動作カテゴリと、記録を終了した日時とに対応付けて記憶部104に書き込んで保存する。その後、ステップS213の処理に進む。
 (ステップS213)制御部102は、記録した動画像を再生する動画再生画面を表示部103に表示する。その後、ステップS214の処理に進む。
 (ステップS214)制御部102は、動画再生画面において同時再生ONボタンが押下され入力を受け付けたか否かを判定する。入力を受け付けたと制御部102が判定した場合には、ステップS216の処理に進む。また、入力を受け付けていないと制御部102が判定した場合には、ステップS215の処理に進む。
 (ステップS215)制御部102は、動画再生画面において終了ボタンが押下され入力を受け付けたか否かを判定する。入力を受け付けたと制御部102が判定した場合には、ステップS204の処理に戻る。また、入力を受け付けていないと制御部102が判定した場合には、ステップS213の処理に戻る。
 (ステップS216)制御部102は、動画選択画面を表示部103に表示する。その後、ステップS217の処理に進む。
 (ステップS217)制御部102は、動画選択画面において同時再生する動画像が選択されたか否かを判定する。選択されたと制御部102が判定した場合には、ステップS218の処理に進む。また、選択されていないと制御部102が判定した場合には、ステップS213の処理に戻る。
 (ステップS218)制御部102は、動画選択画面において選択された動画像と、記録した動画像とを同時再生するための同時再生画面を表示部103に表示する。その後、ステップS219の処理に進む。
 (ステップS219)制御部102は、同時再生画面において再生ボタンが押下され入力を受け付けたか否かを判定する。入力を受け付けたと制御部102が判定した場合には、ステップS220の処理に進む。また、入力を受け付けていないと制御部102が判定した場合には、ステップS221の処理に進む。
 (ステップS220)制御部102は、選択された動画像と、記録した動画像とを同時再生する。その後、ステップS221の処理に進む。
 (ステップS221)制御部102は、同時再生画面において終了ボタンが押下され入力を受け付けたか否かを判定する。入力を受け付けたと制御部102が判定した場合には、ステップS204の処理に戻る。また、入力を受け付けていないと制御部102が判定した場合には、ステップS218の処理に戻る。
 以上説明したように、本実施形態のリハビリテーション支援システムS1は、可搬可能なタブレット端末10と、タブレット端末10を脱着可能なステーション20とを備える。ステーション20は、タブレット端末10が装着されているときに、タブレット端末10と接続してデータを送受信する第1の接続部204と、リハビリテーションの対象者を識別する対象者識別情報を取得するペアリング読取部201と、ペアリング読取部201が取得した対象者識別情報を第1の接続部204からタブレット端末10に送信する制御部203とを備える。タブレット端末10は、ステーション20に装着されているときに、ステーションと接続してデータを送受信する接続部107と、対象者を撮像する撮像部101と、撮像部101が撮像した動画像を記憶する記憶部104と、接続部107を介してステーション20から対象者識別情報を受信し、撮像部101が対象者を撮像した動画像に受信した対象者識別情報を対応付けて記憶部104に書き込む記録制御部1021と、を備える。
 上記構成によれば、ステーション20の取得した対象者識別情報が自動的に動画像に対応付けられてタブレット端末10に記憶される。これにより、対象者EPを撮像した動画像を簡単な操作で対象者毎に分けて記憶することができる。よって、補助者SPは、業務終了後に、動画像を確認して対象者毎に仕分ける作業を行う必要がなく、操作性が向上する。
 特にリハビリテーションの現場では、一般的に次のような手順で動画像の記録及び管理が行われている。まず、補助者SPが、リハビリテーション動作を定点観察するため、三脚にビデオカメラを設置して、対象者EPのリハビリテーション中の動きを撮像する。補助者SPは、撮像直後に撮像した動画像を確認し、問題がなければ三脚の片づけを行う。リハビリテーション終了後に、ビデオカメラから記録媒体を抜き取り、パーソナルコンピュータに動画像のデータをコピーする。その後、パーソナルコンピュータ上で、撮像した動画像を目視で確認しながら、リハビリテーションの対象者名と、どの動作をしたか等の記録を更新し、更にフォルダの仕分け等を行う。このように、従来の動画像の記録及び管理においては、作業の工数が多く、手間がかかるという問題がある。また、補助者SPが日中のリハビリテーション等の業務を終えた後から動画像の登録や整理を行うため、補助者SPの業務終了時間が遅くなってしまう場合がある。本実施形態のリハビリテーション支援システムS1により、動画像記録システムにおける操作性を向上するとともに、補助者SPの作業時間及び作業負担を低減することができる。
 また、本実施形態におけるリハビリテーション支援システムS1において、ペアリング読取部201は、対象者識別情報とともに、リハビリテーションに係る動作カテゴリを取得し、制御部203は、対象者識別情報とともに動作カテゴリを第1の接続部204からタブレット端末10に送信し、記録制御部1021は、動画像に受信した対象者識別情報及び動作カテゴリを対応付けて記憶部104に書き込む。上記構成によれば、ステーション20の取得した対象者識別情報及び動作カテゴリが自動的に動画像に対応付けられてタブレット端末10に記憶される。これにより、対象者EPを撮像した動画像を簡単な操作で対象者及び動作カテゴリ毎に分けて記憶することができる。よって、補助者SPは、業務終了後に、動画像を確認して動作カテゴリ毎に仕分ける作業を行う必要がなく、操作性が向上する。
 また、本実施形態におけるリハビリテーション支援システムS1において、ペアリング読取部201は、対象者識別情報を記憶する媒体40から対象者識別情報を読み取る。これにより、ペアリング読取部201に媒体40をかざすという簡単な操作1つで対象者識別情報をステーション20及びタブレット端末10に入力することができる。
 また、本実施形態におけるリハビリテーション支援システムS1において、ペアリング読取部201は、対象者識別情報を記憶する媒体40から対象者識別情報を読み取る読取エリアを動作カテゴリ毎に備え、対象者識別情報を読み取った読取エリアにより動作カテゴリを取得する。これにより、これから対象者EPが行うリハビリテーションの動作カテゴリに対応する読取エリアに媒体40をかざすという簡単な操作1つで対象者識別情報及び動作カテゴリをステーション20及びタブレット端末10に入力することができる。
 また、本実施形態におけるリハビリテーション支援システムS1において、タブレット端末10は、記憶部104が記憶する動画像を再生して表示する表示部103と、対象者EPの複数の動画像を表示部103に並べて同時再生する表示制御部1022と、を備える。上記構成によれば、タブレット端末10に記憶されている複数の動画像を並べて同時に再生することができる。よって、例えば、2つの動画像を同時再生して見比べることにより、過去のリハビリテーションの様子と容易に比較をすることができる。これにより、リハビリテーションの効果や回復状態等をより直観的に対象者EP又は補助者SPに提示することができる。
 また、本実施形態におけるリハビリテーション支援システムS1において、タブレット端末10は、動画像における再生位置を指定する再生位置指定部(再生箇所バーBR1,BR11,BR21及び終了箇所バーBR2,BR12,BR22)を備え、表示制御部1022は、動画像のうち、再生位置指定部において指定された再生位置を再生する。上記構成によれば、同時再生する動画像の再生位置を調整することができる。よって、複数の動画像を動作の開始タイミング等に合わせて同時再生することができる。これにより、複数の動画像をより比較し易くなる。
[変形例]
 次に、第1の実施形態における変形例について説明する。
 図12は、本変形例においてタブレット端末10の表示部103に表示される動画再生画面の一例を示すイメージ図である。本図に示す動画再生画面には、図8と同様に、動画像を再生するための再生エリアGと、動画像を再生するための再生ボタンBT1と、再生開始位置まで現在の再生位置をリセットするためのリセットボタンBT2と、動画像をスロー再生するためのスローONボタンBT3と、複数の動画像を同時に再生するための同時再生ONボタンBT4と、再生する動画像を選択するための動画選択ボタンBT5と、動画再生画面を終了して元の画面に戻るための終了ボタンBT6とが配置されている。
 また、動画再生画面には、図8と同様に再生箇所バーBR1と、終了箇所バーBR2と、現在位置バーBR3とが再生エリアGの下部に配置される。これに加えて、本変形例では、各種ボタンと並んで、動画像を所定の枚数の静止画に自動で分割する自動OUTPUTボタンBT7と、動画像を補助者SPが指定した複数の静止画に分割する手動OUTPUTボタンBT8が配置される。
 制御部102の表示制御部1022は、動画再生画面において自動OUTPUTボタンBT7が押下され入力を受け付けると、再生箇所バーBR1で指定された位置から、終了箇所バーBR2で指定された位置までの動画像から所定の枚数の静止画像を抽出する。所定の枚数とは予め設定された枚数であってもよいし、自動OUTPUTボタンBT7の押下の前後で補助者SPが指定した枚数であってもよい。また、静止画を抽出する間隔は等間隔であってもよいし、所定の比率に基づいた時間間隔であってもよい。表示制御部1022は、抽出した静止画像を表示部103上に並べて表示する。動画像から所定の枚数の静止画像を抽出し表示することを自動OUTPUTとも称する。
 制御部102の表示制御部1022は、動画再生画面において手動OUTPUTボタンBT8が押下され入力を受け付けると、動画像から入力受付時点に対応する静止画像を抽出し、表示部103上に表示する。手動OUTPUTボタンBT8が複数回押下されると、表示制御部1022は、抽出した各静止画像を表示部103上に並べて表示する。動画像から補助者SPが指定した静止画像を抽出し表示することを手動OUTPUTとも称する。
 図13は、本変形例においてタブレット端末10の表示部103に表示される自動OUTPUT画面の一例を示す第1のイメージ図である。表示部103の上部には、データ名と分析時間が表示される。データ名は、データを識別する名称であり、例えば、自動OUTPUTを実行した年月日時分秒である。分析時間は、静止画像を抽出した範囲に対応する動画像の再生時間である。
 表示部103内に、抽出された複数の静止画像が表示される。本図の例では、静止画像G1~G4が時系列に並べて表示されている。各静止画像G1~G4の下には、コメント欄があり、特徴的な動作シーンにコメントを記入して表示することができる。また、各種メモや担当からの評価を記入可能な欄もあわせて表示される。また、各静止画像に縦及び横の1以上のグリッド線を表示し、各静止画像間でグリッド線の表示位置を同期させてもよい。例えば、動作開始時の座った状態の座面位置に横のグリッド線を、体幹位置に縦のグリッド線を表示してもよい。これにより、例えば、立ち座り動作の過去比較を行う際に「以前より前傾がしっかり取れている」、「姿勢が安定している」等の確認が行いやすくなる。また、静止画像G1~G4のそれぞれにおいて、特徴的な動作シーンにマーカを書き加えて表示できるようにしてもよい。
 表示部103の下部には、印刷ボタンBT11と、スタンプボタンBT12と、記録一覧ボタンBT13と、動画確認ボタンBT14と、角度測定ボタンBT15と、寸法測定ボタンBT16と、終了ボタンBT17とが配置される。印刷ボタンBT11を押下すると、表示部103に表示する内容を紙に印刷して出力することができる。スタンプボタンBT12を押下すると、矢印等の記号が表示され、当該記号を表示部103内の任意の場所に移動させることで、重要な箇所等を示すことができる。記録ボタンBT13を押下すると、記録した動画の一覧を表示する画面に遷移する。動画確認ボタンBT14を押下すると、選択された動画の再生画面に遷移する。角度測定ボタンBT15を押下すると、画面内に2本の線を引くことができ、その内角の角度を計測することができる。これにより、例えば、腕を上げた角度や、体幹の傾きの角度等を簡易に計測することができる。寸法測定ボタンBT16を押下すると、静止画像に写っている部分の基準寸法を入力することができ、基準寸法に基づいて静止画像内の寸法を簡易的に計測することができる。基準寸法とは、予め長さを計測してある部分の長さである。例えば、静止画像中の腕部分を選択し、予め計測してある腕の長さを入力することで、その長さを基準に静止画像内の寸法を測定することができる。終了ボタンBT17を押下すると、アプリケーションを終了する。なお、この例では印刷ボタンBT11に代えて、又は加えて、表示内容をデータとして出力し保存するボタンを配置してもよい。
 このように、リハビリテーションの動作を撮像した動画像から所定の数の静止画を抽出し、表示することで、動作の変化を一覧して確認することができ、リハビリテーション動作の確認の効率を向上させることができる。特に、リハビリテーションの現場では情報伝達の手段として紙媒体のカルテを用いることが多い。従来は、1枚の資料に動画の画像を切り出して、1枚1枚貼り付けを実施することもあったが、作業に手間がかかり効率が悪かった。本変形例に係るリハビリテーション支援システムS1では、自動OUTPUTボタンBT7を押下することで、動画像から所定の枚数の静止画を抽出し、表示することができ、更に印刷ボタンBT11を押下することで、1枚の用紙で出力することができる。これによりカルテとあわせて出力した用紙を用いることで現場での確認作業を容易にすることができる。また、データとして出力することで、その後の資料作成等も容易に行うことができる。
 図14は、本変形例においてタブレット端末10の表示部103に表示される自動OUTPUT画面の一例を示す第2のイメージ図である。表示部103は上段と下段に分割され、上段には、表示制御部1022によりリハビリテーション動作を記録した動画像から抽出された静止画像G1~G4が並んで表示される。下段には、表示制御部1022により上段と異なる動画像から抽出された静止画像G5~G8が表示される。上下の各静止画像を一画面に表示してすることで、複数枚の動画像から抽出された動作を容易に比較することができる。なお、抽出元の動画像は同じであって、再生範囲の異なる静止画像を抽出して表示してもよい。また、比較は上下2段に限らず、表示部103を左右に分割してもよいし、3つ以上に分割して3つ以上の静止画群を表示してもよい。また、メモ欄、コメント欄等は図13の例と同様に配置してもよいし、適宜レイアウトを変更して配置してもよい。
 このように、リハビリテーションの動作を撮像した複数の動画像から所定の枚数の静止画を抽出し、抽出したそれぞれの所定の枚数の静止画を表示部103に表示することで、複数の動作を一覧して比較することができ、リハビリテーション動作の改善具合をより容易に把握することができる。
[第2の実施形態]
 次に、第2の実施形態について説明する。図15は、本実施形態に係るリハビリテーション支援システムS2(動画像記録システム)のシステム構成を示す斜視図である。リハビリテーション支援システムS2は、リハビリテーションの対象者EPに対して、リハビリテーションの実施を支援するシステムである。リハビリテーション支援システムS2は、タブレット端末10、ステーション20A、センサ100、出力装置200及びリハビリテーション支援装置300を備える。
 センサ100は、同センサ100の検出範囲800内(図15の破線で囲った範囲)で対象者EPを検出する。センサ100は、例えば、画像センサ、赤外線センサ、レーザセンサ、サーモセンサなど、対象者EPにマーカを装着することなく対象者EPの動きが検出できるセンサである。本実施形態では、このようなセンサの例として、センサ100に、距離センサと画像センサを組み込んだKinect(登録商標)を用いた場合を例に説明を行う。
 センサ100は、例えば、画像センサ(不図示)を備える。前記画像センサは、(1)自らの正面方向をリアルタイムに撮像し、連続した複数枚の2次元画像(フレーム画像)を取得する動画カメラとしての機能と、(2)センサ100から、前記2次元画像(フレーム画像)内の各位置に対応する実際の位置までの距離の情報(距離情報を表示した画像)を取得する距離センサ(デプスセンサ)としての機能と、を有している。前記距離センサが有する機能により、対象者EPを撮像した画像と、当該画像に撮像された対象者EPの体の各部位の3次元空間における座標情報である距離画像情報とを取得する。センサ100が検出する3次元空間とは、図15に示すXYZ直交座標系によって示される空間である。
 対象者EPの体の各部位とは、対象者EPの動作を認識するために検出することが求められる体の部位である。具体的には、対象者EPの体の各部位とは、例えば、対象者EPの頭、肩、腕、手、腰、足及び各関節部等の位置である。
 センサ100は、検出した結果を示す情報(以下「検出結果情報」という。)をリハビリテーション支援装置300に出力する。検出結果情報とは、例えば、対象者EPの体の一部の位置情報である。 
 なお、センサ100は、対象者EPにマーカを装着し、そのマーカの検出により対象者EPを検出するセンサであっても構わない。
 出力装置200は、対象者EPに対して行われるリハビリテーションに関する画像を出力する。出力装置200は、例えば、プロジェクタ等の画像投影装置である。出力装置200は、リハビリテーションを支援する画像を投影して、出力領域900に表示する。出力画像の例としては、対象者EPの体の一部の位置の移動履歴、及び、対象者EPの体の一部の移動目標位置を含む画像を挙げることができる。例えば、歩行のリハビリテーションの場合、出力装置200が対象者EPの足の位置の移動履歴、及び、対象者EPが足を動かして移動させる目標位置のうちいずれか一方又は両方を表示するようにしてもよい。また、手の移動のリハビリテーションの場合であれば、出力装置200が、対象者EPの手の位置の移動履歴、及び、対象者EPが手を動かして移動させる目標位置のうちいずれか一方又は両方を表示するようにしてもよい。以下の説明では、対象者EPの体の一部の位置の移動履歴を示す画像を履歴画像と称する。また、対象者EPの体の一部の移動目標位置を示す画像を目標画像と称する。
 リハビリテーション支援装置300は、情報処理装置を用いて構成される。すなわち、リハビリテーション支援装置300は、バスで接続されたCPU、メモリ及び補助記憶装置を備える。リハビリテーション支援装置300は、リハビリテーション支援プログラムを実行することによって動作する。リハビリテーション支援装置300は、対象者が実施するリハビリテーションに係るアプリケーションを実行する。
 タブレット端末10は、タブレット型の可搬可能な情報処理装置である。タブレット端末10は、ステーション20Aに装着することができ、また、ステーション20Aから離脱することができる。
 ステーション20Aは、タブレット端末10を脱着可能なステーションである。ステーション20Aは、タブレット端末10を起立した状態で正面に向けて保持する。ステーション20Aは、タブレット端末10が装着されているときに、タブレット端末10が対象者EPを撮像可能な位置(例えば、リハビリテーション支援装置300の上部)に設置されている。また、ステーション20Aは、タブレット端末10が装着されているときに、タブレット端末10と接続してデータを送受信する。また、ステーション20Aは、電源に接続されており、タブレット端末10が装着されると、自動的にタブレット端末10に電力を供給する。
 センサ100等は、脚部310によって支持される。脚部310は、上下方向に伸縮可能であり、センサ100、出力装置200の高さ位置を調整することができる。これにより、センサ100による検出範囲の広さを調整することが可能である。また、出力装置200が投影装置の場合、出力領域900の広さを調整することが可能である。また、脚部310は、キャスター311、312、313、314を備えている。キャスター311~314は転動可能であるため、手押しなどすることにより、リハビリテーション支援システムS2を、フロア上で自由に移動させることができる。
 図16は、リハビリテーション支援システムS2に備わるリハビリテーション支援装置300の機能構成例を示す概略ブロック図である。リハビリテーション支援装置300は、入力部31、出力部32、記憶部33、制御部34、操作部35、表示部36及び接続部37を備える。
 入力部31は、外部からの情報を入力するインタフェースである。例えば、入力部31は、センサ100から検出結果を示す情報(検出結果情報)を取得する。
 出力部32は、制御部34によって生成された画像を出力装置200に対して出力するインタフェースである。
 記憶部33は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部33は、キャリブレーション情報記憶部331、判定条件情報記憶部332、検出履歴情報記憶部333、パラメータ情報記憶部334、プログラム情報記憶部335を含む。
 キャリブレーション情報記憶部331は、キャリブレーション情報を記憶する。キャリブレーション情報は、センサ100の検出結果を示す座標の座標系と、出力装置200が投影する画像面の座標系とを対応付ける情報である。従って、リハビリテーション支援装置300におけるキャリブレーションは、センサ100による検出範囲800と、出力装置200による画像の出力領域900との位置関係を把握し、両者に共通の座標系を設定する処理である。なお、センサ100が検出できる検出範囲は、図示する検出範囲800より広くてもよい。本実施形態における検出範囲800とは、出力領域900上で行われる対象者EPの動作において、対象者EPの検出目的とする体の一部の位置情報を取得するのに必要な検出範囲のことである。なお、出力領域900上とは、出力領域900で規定される平面の領域だけではなく、その領域において、出力領域900を基準とする所定高さまでの空間も含む。キャリブレーション情報は、例えば事前にキャリブレーションを実施することによって得てもよい。
 出力装置200がマーカ画像を投影すると、センサ100は、各マーカ画像の位置を、センサ100の座標系(センサ100が検出位置を示すのに用いる座標系)における座標にてリハビリテーション支援装置300へ出力する。これにより、リハビリテーション支援装置300(制御部34)は、各マーカの位置を、センサ100の座標系における座標、及び、出力装置200の座標系における座標の両方で取得する。また、リハビリテーション支援装置300(制御部34)は、四隅等に投影されたマーカ画像により、出力装置200の座標系における出力領域900の範囲を示す座標を把握する。これにより、後述する目標決定部345は、出力領域900における出力装置200の座標系における目標位置を計算することができる。
 リハビリテーション支援装置300(制御部34)は、得られた座標に基づいて、センサ100の座標系を補正するための情報をキャリブレーション情報として取得する。センサ100が座標系調整機能を有している場合、リハビリテーション支援装置300(制御部34)は、この機能を利用してセンサ100の座標系を出力装置200の座標系に合わせるためのキャリブレーション情報を生成する。あるいは、出力装置200が座標系調整機能を有している場合、リハビリテーション支援装置300(制御部34)が、この機能を利用して出力装置200の座標系をセンサ100の座標系に合わせるためのキャリブレーション情報を生成するようにしてもよい。
 床面が光を散乱させてマーカ画像がぼやける場合など、センサ100によるマーカ画像の検出が困難な場合は、マーカ画像を用いた位置検出の代わりに補助者SPが手動で位置検出を行うようにしてもよい。出力装置200が出力領域900の全体に画像を投影している状態で、センサ100が画像センサで投影画像全体を含む領域を撮像する。リハビリテーション支援装置300は、センサ100による撮像画像を表示画面に表示する。そして、補助者SPは、モニタ画面に表示されている出力領域900の四隅の各々をタッチ操作にて指定する。
 モニタ画面に表示されている画像は、センサ100が撮像した画像なので、補助者SPが指定した位置をセンサ100の座標系における座標で取得し得る。リハビリテーション支援装置300(制御部34)は、この座標と、出力装置200の座標系における出力領域900の四隅の座標とに基づいて、キャリブレーション情報を取得する。なお、高さ方向の座標として、フロアの座標を用いる。あるいは、補助者SPが、例えばコーンなど物理的なマーカを画像面の四隅位置に置くようにしてもよい。この場合、センサ100は、置かれたマーカを検出し、各マーカの座標を出力する。
 出力装置200が床面に画像を投影する場合、リハビリテーション支援システム1の初回使用時にキャリブレーションを行えば、2回目の使用時以降はキャリブレーションを行う必要が無い。センサ100と床面との位置関係、及び、出力装置200と床面との位置関係のいずれも変わらないため、初回使用時に得られたキャリブレーション情報を2回目以降の使用時にも使用できるためである。
 判定条件情報記憶部332は、動作領域を判定するための条件を記憶する。動作領域については後述する。
 検出履歴情報記憶部333は、認識部341が認識した対象者EPの体の一部に関する位置情報(検出結果情報)の履歴を記憶する。例えば、歩行のリハビリテーションを行う場合、検出履歴情報記憶部333は、対象者EPの足の位置の検出結果情報の履歴を記憶する。また、手の移動のリハビリテーションを行う場合、検出履歴情報記憶部333は、対象者EPの手の位置の検出結果情報の履歴を記憶する。
 パラメータ情報記憶部334は、後述する足用表示パラメータ設定部347が設定した足用表示パラメータ、後述する手用表示パラメータ設定部348が設定した手用表示パラメータ、後述する外乱用表示パラメータ設定部349が設定した外乱用表示パラメータを記憶する。
 プログラム情報記憶部335は、リハビリテーション支援プログラムを記憶する。
 制御部34は、CPUを用いて構成される。制御部34は、リハビリテーション支援プログラムを実行することによって、認識部341、表示制御部342、動作領域判定部343、記録部344、目標決定部345、評価部346、足用表示パラメータ設定部347、手用表示パラメータ設定部348、外乱用表示パラメータ設定部349、送受信制御部3410として機能する。
 認識部341は、入力部31が取得した検出結果情報を取得し、検出結果情報が示す対象物を認識する。例えば、認識部341は、検出結果情報に基づいて、検出範囲800に存在する人、テーブル、床、壁等を認識する。例えば、Kinect(登録商標)を用いると、対象者EPの人体上の複数の部位の位置を認識することができる。例えば、認識部341は、テーブル上の長尺状の検出対象の先端部を認識すると、その先端部の単位時間ごとの位置情報を検出する。認識部341は、センサ100が時々刻々と検出したこれらの特徴点の位置情報により、対象者EPの体の一部の位置の動きを認識する。例えば、長尺状の対象物を検出した場合、認識部341は、その対象物の先端の位置の動きを認識する。当該先端の位置の動きは、例えば、対象者EPの手の位置として扱ってもよい。
 また、認識部341は、検出結果情報が示す対象物の形状と人の骨格モデルとの比較を行って対象物が人と認識できる場合、各部位の位置を認識する機能を有していてもよい。この機能によれば、認識部341は、人体の各部位の位置情報を、その部位に対応付けて認識することができる。例えば、対象者EPがセンサ100の前で直立する。すると、認識部341は、その状態で検出された検出結果情報と人の骨格モデルとの比較を行い、対象物が人の形状をしていることから対象物は人であると認識する。さらに、認識部341は、例えば、左のつま先とその位置情報、右の踵とその位置情報、左右の手首とそれぞれの位置情報というように、各部位の位置情報をそれぞれの部位に対応付けて認識する。
 骨格モデルによる各部位の位置を認識する機能(以下「骨格トラッキング機能」という。)を用いると、認識部341は、対象者EPの各部位の位置の動きを認識することができる。このように認識部341は、検出結果情報に含まれる所定の形状をした対象物の所定の位置をトラッキングすることにより、又は、骨格トラッキング機能により、対象者EPの体の一部の位置及びその動きを認識する。また、Kinect(登録商標)を用いると、検出範囲800に存在する物の座標情報(検出範囲800に存在する物の所定間隔ごとの座標情報を含む点群データ)を得ることができる。認識部341は、検出結果情報(点群データ)を分析し、所定の広さ以上の面積を有し、Z座標の値が変化しない面(要するに、Z座標の値がほぼ一定の点群の集合)を、壁、フロア、テーブル等との平面として認識する。また、認識部341は、検出結果情報のうち、どのデータが、後述する動作領域判定部343が判定した動作領域に関連する対象者EPの体の一部(検出対象部位)の検出データであるかを認識し、そのデータ(検出対象情報)を選択する。
 ここで、動作領域とは、対象者EPのリハビリテーションの目的とする動作が行われる領域のことである。より具体的には、リハビリテーションによって回復することを目的とする動作に強く関連する部位が動作する空間内の所定の領域のことである。また、例えば、動作領域とは、対象者EPがリハビリテーションにおいてその部位を近接させる領域である。また、例えば、動作領域とは、対象者EPのリハビリテーションにおいて、その動作の目標(到達点)となる位置を含む領域である。また、動作領域とは、対象者EPがリハビリテーション中に目的とする動作を行う場所である。動作領域の具体例として、2次元領域の場合では、フロア、テーブル等を挙げることができる。例えば、フロアであれば、リハビリテーションによって回復することを目的とする動作に強く関連する部位は足であり、テーブルの場合の当該部位は手である。
 また、対象者EPは、歩行動作のリハビリテーションにおいて足をフロアに近接させ、手の移動のリハビリテーションにおいては手をテーブルに近接させる。また、例えば、歩行動作のリハビリテーションにおいてフロアは、歩行動作の到達点となる位置(目標画像の表示位置)を含む領域であり、テーブルは手の移動のリハビリテーションにおける手の到達点となる位置(目標画像の表示位置)を含む領域である。また、フロア、テーブルはそれぞれ、歩行動作のリハビリテーション、手の移動のリハビリテーション中に目的となる動作を行う場所である。
 なお、動作領域が3次元である場合の具体例としては、テーブル上のテーブル表面を基準とする所定高さの範囲の空間(以下「3次元動作領域」という)を挙げることができる。例えば、出力装置200は、テーブルに「10cm」を意味する目標画像を表示する。例えば、テーブル上のある位置に「10cm」と表示してもよい。これは、テーブルの当該目標画像が表示された位置の真上の空間の、テーブル表面を基準とする高さ10cmの位置が、手の到達点となる位置であることを意味する目標画像である。この目標画像が示す位置は、当該3次元動作領域に含まれている。この例の場合も、例えば、3次元動作領域は、リハビリテーションによって回復することを目的とする動作に強く関連する部位(手)が動作する領域である。
 また、3次元動作領域は、手の移動のリハビリテーションにおいて、手を近接させる領域である。また、3次元動作領域は、手の移動の到達点となる位置(目標画像が示す位置)を含む領域である。また、3次元動作領域は、対象者EPが手の移動のリハビリテーション中に目的とする動作を行う場所である。なお、動作領域が3次元である場合の他の例として、出力領域900上の空間を挙げることができる。例えば、動作領域が出力領域900上の空間の場合、この空間に目標画像を投影し、対象者EPがその目標画像を手で触れる等のリハビリテーションを行ってもよい。
 表示制御部342は、出力装置200が出力する画像を生成する。例えば、表示制御部342は、動作領域に表示して対象者EPの動作を誘導する目標画像、リハビリテーションの評価結果の情報を含む画像、リハビリテーション中に行った対象者EPの検出対象部位の動作の軌跡を示す画像などを生成する。
 動作領域判定部343は、認識部341による認識結果に基づいて動作領域を判定する。後述するように、動作領域の判定方法は、様々であってよい。動作領域判定部343は、所定の判定条件に基づいて、例えば、動作領域がフロアであると判定する。また、例えば、動作領域判定部343は、動作領域がテーブルであると判定する。
 動作領域判定部343は、動作領域を判定すると、対象者EPの動作領域に関連する検出対象となる部位(検出対象部位)を決定する。検出対象部位とは、リハビリテーションの目的とする動作に関係が深い体の一部である。例えば、動作領域判定部343は、動作領域をフロアであると判定した場合、対象者EPの足首を検出対象部位として決定する。あるいは、動作領域判定部343は、対象者EPのつま先を検出対象部位として決定してもよい。また、例えば、動作領域判定部343は、動作領域をテーブルであると判定した場合、対象者EPの手の甲を検出対象部位として決定する。あるいは、動作領域判定部343は、対象者EPの指先を検出対象部位として決定してもよい。
 なお、動作領域に関連する検出対象部位は、予め記憶部33に設定されており、動作領域判定部343は、その情報と自らが判定した動作領域とに基づいて検出対象部位を決定する。検出対象部位には、例えば、リハビリテーションの目標とする動作において、動作範囲が大きい部位が設定されていてもよい。例えば、歩行動作のリハビリテーションであれば、動作範囲が大きい部位は、対象者EPの足(足首、つま先、踵など)である。手の移動のリハビリテーションであれば、動作範囲が大きい部位は、対象者EPの手(手首、指先、手の甲など)である。
 あるいは、検出対象部位には、表示制御部342が生成する目標画像の表示位置に近接する部位が設定されていてもよい。例えば、歩行動作のリハビリテーションの場合、本実施形態では、対象者EPが歩行動作において足を踏み出すべき位置に足型などを模した目標画像を表示するが、この場合、目標画像の表示位置に近接する部位とは、対象者EPの足(足首、つま先、踵など)である。また、手の移動のリハビリテーションの場合、対象者EPがタッチすべき位置に目標画像を表示するが、この場合、目標画像の表示位置に近接する部位とは、対象者EPの手(手首、指先、手の甲など)である。
 なお、認識部341は、検出結果情報に含まれる動作領域判定部343が決定した検出対象部位のデータ(体の一部の位置情報)を、記録部344を介して、検出履歴情報記憶部333に記録する。
 記録部344は、検出結果情報を検出履歴情報記憶部333に書き込んで記録する。
 目標決定部345は、認識部341が認識する対象者EPの体の一部(検出対象部位)の位置に基づいて対象者EPの体の一部の目標位置を決定する。例えば、歩行のリハビリテーションの場合、目標決定部345は、対象者EPの現在の足の位置、及び、対象者EPの足の位置の履歴のうち少なくともいずれかに基づいて、対象者EPの足の移動目標位置を決定する。特に、目標決定部345が、対象者EPの足の位置の履歴に基づいて対象者EPの進行方向を判定し、判定した進行方向に応じて移動目標位置を決定するようにしてもよい。あるいは、目標決定部345が、対象者EPの足の向きに基づいて対象者EPの進行方向を判定し、判定した進行方向に応じて移動目標位置を決定するようにしてもよい。あるいは、目標決定部345が、対象者EPの進行方向にかかわらず、例えばランダムな向きに、或いは所定のゴールの位置に向けて、移動目標位置を決定するようにしてもよい。
 目標決定部345が、対象者EPの体の検出対象部位の移動量を算出し、算出した移動量に基づいて移動目標位置を決定するようにしてもよい。例えば、認識部341が対象者EPの足の位置を認識する場合、目標決定部345は、対象者EPの足の位置の履歴に基づいて対象者EPの歩幅を算出する。そして、目標決定部345は、対象者EPの足の現在位置から歩幅分だけ移動した位置に移動目標位置を設定する。対象者EPの歩幅は、対象者EPの足の移動量を示しており、対象者EPの体の検出対象部位の移動量の例に該当する。
 認識部341が対象者EPの足の位置の動きを認識する場合、目標決定部345が、対象者EPの足が動いた間隔を歩幅として検出するようにしてもよい。あるいは、認識部341が、対象者EPが床面に足をついた位置を認識する場合、目標決定部345が、対象者EPが床面に足をついた位置から次に足をついた位置までの間隔を歩幅として検出するようにしてもよい。
 評価部346は、対象者EPの体の検出対象部位の位置と移動目標位置との位置関係を評価する。例えば、評価部346は、認識部341が認識した対象者EPの体の部位の位置と、目標決定部345が決定した移動目標位置との距離を算出する。そして、評価部346は、算出した距離が所定の閾値以下か否かを判定する。対象者EPの体の検出対象部位と移動目標位置との距離が閾値以下であると判定した場合、評価部346は、目標位置到達と評価する。一方、対象者EPの体の検出対象部位と移動目標位置との距離が閾値より大きいと判定した場合、評価部346は、目標位置不到達と評価する。
 評価部346が用いる距離の閾値は、複数の対象者EPに共通に予め設定された定数であってもよい。あるいは、評価部346が、対象者EPの歩幅の10分の1を閾値に設定するなど対象者EP毎に閾値を設定するようにしてもよい。また、評価部346が用いる距離の閾値は、複数種類のリハビリテーションに共通に設定されていてもよいし、リハビリテーションの種類毎に設定されていてもよい。また閾値の大きさは、手を移動させるリハビリテーションよりも足を移動させるリハビリテーションの方が大きくなるよう設定されていてもよい。
 また、評価部346が、対象者EPの体の一部の位置(検出対象部位)と移動目標位置との相対的な位置関係を評価する段階数は、上述した目標位置到達又は目標位置不到達の2段階に限らず、3段階以上の多段階であってもよい。例えば、評価部346が、目標位置到達か否かの判定閾値に加えてさらに目標位置不到達の場合のずれの大小の判定閾値を用いて、目標位置到達、ずれ小、ずれ大の3段階で評価を行うようにしてもよい。
 また、評価部346が対象者EPの体の検出対象部位の位置と移動目標位置との位置関係を評価する方法は、閾値を用いる方法のみに限らない。例えば、評価部346が、対象者EPの体の検出対象部位の位置と移動目標位置との重なりの有無を判定し、重なり有りと判定した場合に目標位置到達と評価するようにしてもよい。
 さらに、例えば歩行のリハビリテーションの場合、目標決定部345が、移動目標位置を面積のある範囲にて床面上に決定し、認識部341が、対象者EPの足の位置を、対象者EPの足の形状の範囲にて認識するようにしてもよい。そして、評価部346が、移動目標位置として決定されている範囲と、対象者EPの足の位置として検出された範囲との重なりの有無を判定するようにしてもよい。
 足用表示パラメータ設定部347は、歩行などの足を移動させるリハビリテーションにおいて、足用表示パラメータを設定する。足用表示パラメータは、対象者EPが足を移動させるときの目標画像の表示に用いられるパラメータである。
 手用表示パラメータ設定部348は、手を動かすリハビリテーションにおいて、手用表示パラメータを設定する。手用表示パラメータは、対象者EPが手を動かすときの目標画像の表示に用いられるパラメータである。
 外乱用表示パラメータ設定部349は、外乱用表示パラメータを設定する。外乱用表示パラメータは、リハビリテーションの対象者EPが足又は手を所定の目標画像まで移動させるときに、対象者EPが足又は手を目標画像まで移動させる妨げとなる外乱の表示に用いられるパラメータである。又は、外乱用表示パラメータは、リハビリテーションの対象者EPが足又は手を回避目標となる目標画像から回避させるときに、対象者EPが足又は手を目標画像から回避させる妨げとなる外乱の表示に用いられるパラメータである。
 送受信制御部3410は、接続部37を介して、ステーション20Aにデータを送受信する。
 操作部35は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の既存の入力装置を用いて構成される。操作部35は、指示をリハビリテーション支援装置300に入力する際に補助者SP等によって操作される。操作部35は、入力装置をリハビリテーション支援装置300に接続するためのインタフェースであってもよい。この場合、操作部35は、入力装置において補助者SP等の入力に応じ生成された入力信号をリハビリテーション支援装置300に入力する。操作部35は、表示部36と一体のタッチパネルとして構成されてもよい。
 表示部36は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機ELディスプレイ等の画像表示装置である。表示部36は、画像や文字を表示する。表示部36は、画像表示装置をリハビリテーション支援装置300に接続するためのインタフェースであってもよい。この場合、表示部36は、画像や文字を表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。
 接続部37は、ステーション20Aと接続してデータを送受信するインタフェースである。
 図17は、リハビリテーション支援システムS2に備わるタブレット端末10及びステーション20Aそれぞれの機能構成例を示す概略ブロック図である。
 本実施形態におけるタブレット端末10の構成は、第1の実施形態と同様であるため、その説明を省略する。
 本実施形態におけるステーション20Aは、第1の実施形態におけるステーション20のペアリング読取部201に代えて第2の接続部210を備える。第2の接続部210は、リハビリテーション支援装置300と接続してデータを送受信するインタフェースである。第2の接続部210は、対象者EPを識別する患者番号及びリハビリテーションに係る動作カテゴリ(アプリケーションの名称)をリハビリテーション支援装置300から受信して取得する取得部である。ステーション20Aの他の構成は、第1の実施形態におけるステーション20の構成と同様であるため、その説明を省略する。
 図18は、タブレット端末10の記憶部104が記憶する対応テーブルのデータ構成及びデータ例を示す概略図である。図示するように対応テーブルは、対象者と、アプリ名と、日時と、動画像データとの各項目を有する。アプリ名は、対象者EPが実施したリハビリテーションに係るアプリケーションの名称である。結果画像は、結果画像のデータ名である。他の項目は、第1の実施形態における対応テーブルと同様であるため、その説明を省略する。
 続いて、本実施形態におけるリハビリテーション支援システムS2の動作について図19及び図20を参照して説明する。図19は、リハビリテーション支援システムS2において対象者EPがリハビリテーションを行っている様子を示す斜視図である。図20は、リハビリテーション支援システムS2における処理の一例を示すシーケンス図である。リハビリテーション支援システムS2では、リハビリテーション支援装置300が実施する対象者EPのリハビリテーションの様子をタブレット端末10により動画像で記録し、記録した動画像をタブレット端末10において再生して確認することができる。
 まず、補助者SPがこれから行おうとするリハビリテーション内容に応じて、対象者EPがリハビリテーションを行う環境にリハビリテーション支援システムS2を移動させる。また、脚部310の高さを適切に調節する。次に、対象者EPが、検出範囲800で、これから行うリハビリテーション内容に応じた姿勢を取る。例えば、テーブル上での腕のリハビリテーションを行う場合であれば、対象者EPは椅子に座ってテーブル上に手を置く姿勢を取る。また、例えば、歩行動作のリハビリテーションを行う場合、対象者EPは起立した姿勢を取る。
 図19は、対象者EPがテーブルT上で手の移動のリハビリテーションを行っている様子を示している。例えば、対象者EPは、出力装置200がテーブルT(出力領域900)に出力する目標画像M1に基づいて、手の移動に関するリハビリテーションを行う。より具体的には、対象者EPは、出力装置200によって表示された目標画像M1の位置を自らの手で追いかけることによって、手や腕のリハビリテーションを行う。
 目標画像M1の内容や表示する位置やタイミング等は、リハビリテーション内容によって異なる。リハビリテーション支援装置300には各リハビリテーションそれぞれに対応するアプリケーションが予め実装されている。そして、リハビリテーション支援装置300は、これから対象者EPがするリハビリテーションに対応するアプリケーションを実行することにより、出力装置200に目標画像M1を表示させる。
 対象者EPがリハビリテーションを開始する姿勢を取ると、補助者SPは、対象者EPの患者番号、氏名、性別、身長等の個人情報と共に、準備開始指示情報をリハビリテーション支援装置300に入力する(ステップS301)。準備開始指示情報には、これから行うリハビリテーションに対応するアプリケーションを指定する情報が含まれる。リハビリテーション支援装置300の制御部34は、操作部35が準備開始指示情報を取得すると、動作領域を判定して目標画像の表示に用いられるパラメータを設定し、指定されたアプリケーションを実行する(ステップS302)。また、制御部34の送受信制御部3410は、指定されたアプリケーションの名称(以下、「アプリ名」と称する。)及び対象者EPの個人情報(入力された患者番号、氏名、性別、身長等)を接続部37からステーション20Aに送信する(ステップS303)。
 ステーション20Aの制御部203は、第2の接続部210がアプリ名及び個人情報を受信すると、受信したアプリ名及び個人情報を第1の接続部204からタブレット端末10に送信する(ステップS304)。タブレット端末10の制御部102は、接続部107がアプリ名及び個人情報を受信すると、撮像部101を起動し、動画を記録するための動画記録画面を表示部103に表示する(ステップS305)。動画記録画面には、撮像部101が撮像する画像が表示される。また、動画記録画面には、受信した個人情報と、アプリ名とが表示される。
 その後、補助者SPは、リハビリテーションの開始を指示するリハビリテーション開始指示情報をリハビリテーション支援装置300に入力する(ステップS306)。リハビリテーション支援装置300の制御部34は、操作部35がリハビリテーション開始指示情報を取得すると、指定されたアプリケーションを実行することにより、目標画像M1を出力装置200に表示させて、対象者EPのリハビリテーションを開始する(ステップS307~S309)。また、制御部34の送受信制御部3410は、リハビリテーションを開始する際に、リハビリテーションの開始を示すスタート情報を接続部37からステーション20Aに送信する(ステップS310)。ステーション20Aの制御部203は、第2の接続部210がスタート情報を受信すると、受信したスタート情報を第1の接続部204からタブレット端末10に送信する(ステップS311)。タブレット端末10の制御部102は、接続部107がスタート情報を受信すると、撮像部101が撮像する動画像の記録を開始する(ステップS312)。
 センサ100は、対象者EPの動作を検出し続け、リハビリテーション支援装置300へ出力する(ステップS313、S314)。リハビリテーション支援装置300では、入力部31が検出結果情報を取得し、検出結果情報を、制御部34へ出力する。制御部34では、認識部341が検出結果情報を取得すると、その中から検出対象部位のデータを選択する(ステップS315)。例えば、認識部341は、検出結果情報の中から手(例えば、手の甲)の位置情報を選択する。認識部341は、選択した検出対象部位とその位置情報を記録部344へ出力する。記録部344は、検出対象部位の検出結果情報を検出履歴情報記憶部333へ記録する(ステップS316)。
 その後、リハビリテーション支援装置300は、リハビリテーションが終了すると、制御部34における目標画像M1を生成して出力する処理や検出対象部位を検出してデータを記録する処理を終了する。例えば、補助者SPがリハビリテーション終了指示情報を入力した場合(ステップS317)、制御部34は、操作部35を介してその情報を取得し、リハビリテーションを終了すると判定する(ステップS318)。また、対象者EPが検出範囲800の外に出てしまった場合や対象者EPの手が検出範囲800の外に出てしまった場合、あるいは、予め設定されたリハビリテーションの実施時間が経過した場合にも、制御部34は、リハビリテーションを終了すると判定する。
 また、制御部34の送受信制御部3410は、リハビリテーションが終了すると、リハビリテーションの終了を示すストップ情報を接続部37からステーション20Aに送信する(ステップS319)。ステーション20Aの制御部203は、第2の接続部210がストップ情報を受信すると、受信したストップ情報を第1の接続部204からタブレット端末10に送信する(ステップS320)。タブレット端末10の制御部102は、接続部107がストップ情報を受信すると、撮像部101が撮像する動画像の記録を終了し(ステップS321)、動画像データを記憶部104に書き込んで保存する(ステップS322)。このとき、制御部102は、ステーション20Aから受信した個人情報に含まれる患者番号と、アプリ名と、動画像の記録を終了した日時(撮像日時)と、動画像とを対応付けて記憶する。具体的には、制御部102は、患者番号と、アプリ名と、撮像日時と、動画像とを対応付けて記憶部104が記憶する対応テーブルに書き込む。すなわち、対象者と、アプリ名と、撮像日時とが自動的に動画像に対応付けられる。つまり、リハビリテーション支援装置300に対象者の個人情報及び実行するアプリケーションを入力すれば、自動的にこれらの情報がタブレット端末10に入力され、動画像に対応付けられる。よって、補助者SPはこれらの情報をタブレット端末10に入力する手間がなくなり、操作性が向上する。これにより、補助者SPの業務負担を軽減することができる。
 また、リハビリテーション支援装置300の表示制御部342は、検出履歴情報記憶部333に記録された対象者EPの検出対象部位のデータ(検出対象情報)から、今回のリハビリテーションにおける対象者EPの動作結果(例えば、検出対象部位が動いた軌跡)を表示する結果画像を生成し(ステップS323)、出力装置200に結果画像を表示させる。また、送受信制御部3410は、表示制御部342が生成した結果画像を接続部37からステーション20Aに送信する(ステップS324)。ステーション20Aの制御部203は、第2の接続部210が結果画像を受信すると、受信した結果画像を第1の接続部204からタブレット端末10に送信する(ステップS325)。タブレット端末10の制御部102は、接続部107が結果画像を受信すると、当該結果画像を動画像に対応付けて記憶部104に書き込んで保存する(ステップS326)。具体的には、制御部102は、結果画像の画像データを記憶部104に書き込むとともに、結果画像の画像データ名を当該動画像に対応付けて記憶部104が記憶する対応テーブルに書き込む。これにより、動画像と結果画像とを対応付けて記憶することができる。
 更に、記録した動画像は、その場で即時に再生可能である。例えば、補助者SPは、ステーション20Aからタブレット端末10を取り外して対象者EPと記録した動画像を確認することができる。タブレット端末10は、ステーション20Aから取り外し可能であるため、対象者EPはステーション20Aのある位置まで行く必要がない。対象者EPがいる位置は撮像ポイントであるため、ステーション20Aから離れていることが多い。その場合には、ステーション20Aからタブレット端末10を取り外して、対象者EPの前まで持って行くことができる。これにより、撮像したその場で補助者SPと対象者EPとが記録した動画像を確認して共有することができる。
 タブレット端末10の制御部102の表示制御部1022は、動画像の記録が終了すると、記録した動画像を再生するための動画再生画面を表示部103に表示する(ステップS327)。
 なお、上述した処理において、リハビリテーション支援装置300とタブレット端末10はステーション20Aを介さずに通信を行ってもよい。つまり、ステーション20Aの機能の一部又は全部をタブレット端末10のアプリケーションで実現してもよい。
 図21は、タブレット端末10の表示部103に表示される動画再生画面の一例を示すイメージ図である。本図に示す動画再生画面には、結果画像を表示する結果画像エリアREと、動画像を再生するための再生エリアMVと、動画像を再生するための再生ボタンBT1と、再生開始位置まで現在の再生位置をリセットするためのリセットボタンBT2と、動画像をスロー再生するためのスローONボタンBT3と、複数の動画像を同時に再生するための同時再生ONボタンBT4と、再生する動画像を選択するための動画選択ボタンBT5と、動画再生画面を終了して元の画面に戻るための終了ボタンBT6とが配置されている。ボタンBT1~BT6の機能は、第1の実施形態と同様である。
 また、動画再生画面には、再生箇所バーBR1と、終了箇所バーBR2と、現在位置バーBR3とが再生エリアMVの下部に配置される。バーBR1~BR3の機能は、第1の実施形態と同様である。
 動画再生画面では、対応する結果画像を表示した状態で動画像を再生することができるため、リハビリテーションの結果を動画像と見比べて考察することができ、より確認し易くなる。
 また、タブレット端末10は、過去の動作(リハビリテーションの様子)と比べて見るために、過去に撮像した動画像と今回撮像した動画像とを同時に再生することができる。補助者SPは、同時再生ONボタンBT4を押下する。タブレット端末10の制御部102の表示制御部1022は、動画再生画面において動画選択ボタンBT4が押下され入力を受け付けると、同時に再生する過去の動画像を選択するための動画選択画面を表示部103に表示する。
 図22は、タブレット端末10の表示部103に表示される動画選択画面の一例を示すイメージ図である。本図に示す動画選択画面には、対象者EPの患者番号及び氏名が左上部分に表示されるとともに、対象者EPの動画像を示すアイコンが選択可能に一覧表示される。各アイコンは、対応する動画像で対象者EPが実施したアプリケーションを示すピクトグラム及び文字列によって構成される。これにより、各動画像で対象者EPが実施したアプリケーションを容易に判別することができる。ピクトグラムを用いてアプリケーションを表すことにより、言語に制約されずにアプリケーションの内容を直感的に伝達することができ、グローバル対応に向いた表現を実現している。
 図示するように、アイコンは、動画像が撮像された日付毎に分けて表示される。更には、アイコンの下には撮像された時刻が表示される。また、アイコンは、各日付において撮像された時刻が午前であるか午後であるかが容易に識別可能な態様で表示される。例えば、午前のアイコンを赤いエリアで囲み、午後のアイコンを青いエリアで囲む等の色分けをしてもよい。
 なお、動画選択画面には、動画再生画面において再生された動画像のアプリケーション(すなわち、リハビリテーション支援装置300が実行したアプリケーション)の動画像のみを一覧表示するようにしてもよい。或いは、動画選択画面には、アプリケーション毎に分けてアイコンを表示するようにしてもよい。
 補助者SPは、動画選択画面において、同時再生する動画像のアイコンを選択して押下する。タブレット端末10の制御部102の表示制御部1022は、動画選択画面において選択されたアイコンの動画像及び対応する結果画像を記憶部104から読み出して、同時再生画面を表示部103に表示する。
 図23は、タブレット端末10の表示部103に表示される同時再生画面の一例を示すイメージ図である。本図に示す同時再生画面には、今回の動画像に対応する結果画像を表示する結果画像エリアRE1と、今回の動画像を再生するための今回再生エリアMV1と、過去の動画像に対応する結果画像を表示する結果画像エリアRE2と、過去の動画像を再生するための過去再生エリアMV2と、ボタンBT1~BT6とが配置されている。今回の動画像は、動画再生画面において再生された動画像であり、例えば、直近に撮像した動画像である。また、過去の動画像は、動画選択画面において選択された動画像である。また、同時再生画面におけるボタンBT1~BT6の機能は、動画再生画面のものと同様である。
 制御部102の表示制御部1022は、同時再生画面において再生ボタンBT1が押下され入力を受け付けると、再生エリアMV1に今回の動画像を、再生エリアMV2に過去の動画像を同時に再生する。すなわち、タブレット端末10は、今回の動画像と過去の動画像とを並べて同時再生することができる。よって、1つの画面で2つの動画像を並べて同時に再生することができるため、撮像したその場で過去の動画像との比較を容易に行うことができる。そのため、対象者EPは、過去(例えば、入院時)と比べてどのくらい良くなったのかの回復状態(リハビリテーションの効果)をその場で容易に確認することができる。これにより、撮像したその場で、補助者SPと対象者EPとで動画像を比較して課題を共有し、その課題に対してのリハビリテーションメニューを実施することができる。
 また、同時再生画面には、今回の動画像に対応する再生箇所バーBR31、終了箇所バーBR32及び現在位置バーBR33が今回再生エリアMV1の下部に配置される。また、同時再生画面には、過去の動画像に対応する再生箇所バーBR41、終了箇所バーBR42及び現在位置バーBR43が過去再生エリアMV2の下部に配置される。バーBR31~BR33の機能は第1の実施形態におけるバーBR11~BR13の機能と同様であり、バーBR41~BR43の機能は第1の実施形態におけるバーBR21~BR23の機能と同様である。再生箇所バーBR1,BR31,BR41及び終了箇所バーBR2,BR32,BR42が、動画像における再生位置を指定する再生位置指定部を構成する。表示制御部1022は、動画像のうち、再生位置指定部において指定された再生位置を再生する。
 また、タブレット端末10は、第1の実施形態と同様に、任意の動画像を再生する機能(同時に任意の2つの動画像を再生する機能を含む)や、他の機器に動画像をデータ移管する機能(自動的にデータ移管する機能を含む)等を備える。
 図24は、リハビリテーション支援装置300によるアプリケーション実行処理の一例を示すフローチャートである。本図には、リハビリテーション支援装置300がリハビリテーションに係るアプリケーションを実行する際の処理を示す。補助者SPは、対象者EPの個人情報をリハビリテーション支援装置300に入力するとともに、実行するアプリケーションを選択する。
 (ステップS401)制御部34は、操作部35においてアプリケーションの選択入力を受け付ける。その後、ステップS402の処理に進む。
 (ステップS402)制御部34は、入力された個人情報及び選択されたアプリケーションのアプリ名を接続部37からステーション20Aに送信する。その後、ステップS403の処理に進む。
 (ステップS403)制御部34は、選択されたアプリケーションを実行して、対象者EPのリハビリテーションのプレイを開始する。その後、ステップS404の処理に進む。
 (ステップS404)制御部34は、スタート情報を接続部37からステーション20Aに送信する。その後、ステップS405の処理に進む。
 (ステップS405)制御部34は、プレイの表示及び記録をする。具体的には、制御部34は、目標画像を出力装置200に表示させるとともに、センサ100により対象者EPの検出対象部位を検出し、検出した検出結果情報を記録する。その後、ステップS406の処理に進む。
 (ステップS406)制御部34は、リハビリテーションのプレイが終了したか否かを判定する。終了したと制御部34が判定した場合には、ステップS407の処理に進む。また、終了していないと制御部34が判定した場合には、ステップS405の処理に戻る。
 (ステップS407)制御部34は、ストップ情報を接続部37からステーション20Aに送信する。その後、ステップS408の処理に進む。
 (ステップS408)制御部34は、結果画像を生成し、生成した結果画像を出力装置200に表示する。その後、ステップS409の処理に進む。
 (ステップS409)制御部34は、生成した結果画像を接続部37からステーション20Aに送信する。その後、処理を終了する。
 図25は、タブレット端末10による動画記録再生処理の一例を示すフローチャートである。本図には、タブレット端末10が対象者EPを撮像して動画像を記録し、記録した動画像を再生する処理を示す。タブレット端末10は、個人情報及びアプリ名をステーション20Aから受信したときに、本図に示す処理を実行する。
 ステーション20Aは、上述したステップS402において、リハビリテーション支援装置300から個人情報及びアプリ名を受信すると、受信した個人情報及びアプリ名をタブレット端末10に出力する。
 (ステップS501)制御部102は、接続部107を介してステーション20Aから受信した個人情報及びアプリ名を取得する。その後、ステップS502の処理に進む。
 (ステップS502)制御部102は、撮像部101を起動して動画撮像画面を表示部103に表示する。その後、ステップS503の処理に進む。
 (ステップS503)制御部102は、接続部107がステーション20Aを介して、上述したステップS404においてリハビリテーション支援装置300が送信したスタート情報を受信したか否かを判定する。受信したと制御部102が判定した場合には、ステップS504の処理に進む。また、受信していないと制御部102が判定した場合には、ステップS503の処理を再度実行する。
 (ステップS504)制御部102は、撮像部101が撮像する動画像の記録を開始する。その後、ステップS505の処理に進む。
 (ステップS505)制御部102は、接続部107がステーション20Aを介して、上述したステップS407においてリハビリテーション支援装置300が送信したストップ情報を受信したか否かを判定する。受信したと制御部102が判定した場合には、ステップS506の処理に進む。また、受信していないと制御部102が判定した場合には、ステップS505の処理を再度実行する。
 (ステップS506)制御部102は、動画像の記録を終了する。その後、ステップS507の処理に進む。
 (ステップS507)接続部107は、ステーション20Aを介して、上述したステップS409においてリハビリテーション支援装置300が送信した結果画像を受信する。その後、ステップS508の処理に進む。
 (ステップS508)制御部102は、記録した動画像を、ステップS501において取得した個人情報及びアプリ名と、記録を終了した日時と、ステップS507において受信した結果画像とに対応付けて記憶部104に書き込んで保存する。その後、ステップS509の処理に進む。
 (ステップS509)制御部102は、記録した動画像を再生する動画再生画面を表示部103に表示する。その後、ステップS510の処理に進む。
 (ステップS510)制御部102は、動画再生画面において同時再生ONボタンが押下され入力を受け付けたか否かを判定する。入力を受け付けたと制御部102が判定した場合には、ステップS412の処理に進む。また、入力を受け付けていないと制御部102が判定した場合には、ステップS511の処理に進む。
 (ステップS511)制御部102は、動画再生画面において終了ボタンが押下され入力を受け付けたか否かを判定する。入力を受け付けたと制御部102が判定した場合には、ステップS518の処理に進む。また、入力を受け付けていないと制御部102が判定した場合には、ステップS509の処理に戻る。
 (ステップS512)制御部102は、動画選択画面を表示部103に表示する。その後、ステップS513の処理に進む。
 (ステップS513)制御部102は、動画選択画面において同時再生する動画像が選択されたか否かを判定する。選択されたと制御部102が判定した場合には、ステップS514の処理に進む。また、選択されていないと制御部102が判定した場合には、ステップS509の処理に戻る。
 (ステップS514)制御部102は、動画選択画面において選択された動画像と、記録した動画像とを同時再生するための同時再生画面を表示部103に表示する。その後、ステップS515の処理に進む。
 (ステップS515)制御部102は、同時再生画面において再生ボタンが押下され入力を受け付けたか否かを判定する。入力を受け付けたと制御部102が判定した場合には、ステップS516の処理に進む。また、入力を受け付けていないと制御部102が判定した場合には、ステップS517の処理に進む。
 (ステップS516)制御部102は、選択された動画像と、記録した動画像とを同時再生する。その後、ステップS517の処理に進む。
 (ステップS517)制御部102は、同時再生画面において終了ボタンが押下され入力を受け付けたか否かを判定する。入力を受け付けたと制御部102が判定した場合には、ステップS518の処理に進む。また、入力を受け付けていないと制御部102が判定した場合には、ステップS514の処理に戻る。
 (ステップS518)制御部102は、メニュー画面を表示部103に表示し、対応する各処理を実行する。その後、処理を終了する。
 以上説明したように、本実施形態のリハビリテーション支援システムS2は、可搬可能なタブレット端末10と、タブレット端末10を脱着可能なステーション20Aとを備える。ステーション20Aは、対象者が実施するリハビリテーションに係るアプリケーションを実行するリハビリテーション支援装置300から、リハビリテーションの対象者を識別する対象者識別情報を受信して取得する第2の接続部210と、タブレット端末10が装着されているときに、タブレット端末10と接続してデータを送受信する第1の接続部204と、第2の接続部210が取得した対象者識別情報を第1の接続部204からタブレット端末10に送信する制御部203とを備える。タブレット端末10は、ステーション20Aに装着されているときに、ステーション20Aと接続してデータを送受信する接続部107と、対象者を撮像する撮像部101と、撮像部101が撮像した動画像を記憶する記憶部104と、接続部107を介してステーション20Aから対象者識別情報を受信し、撮像部101が対象者を撮像した動画像に受信した対象者識別情報を対応付けて記憶部104に書き込む記録制御部1021と、を備える。
 上記構成によれば、ステーション20Aがリハビリテーション支援装置300から受信した対象者識別情報が自動的に動画像に対応付けられてタブレット端末10に記憶される。これにより、リハビリテーション支援装置300に対象者識別情報を入力するだけで、撮像した動画像を対象者毎に分けて記憶することができる。よって、補助者SPは、業務終了後に、動画像を確認して対象者毎に仕分ける作業を行う必要がなく、操作性が向上する。
 また、本実施形態におけるリハビリテーション支援システムS2において、第2の接続部210は、対象者識別情報とともに、リハビリテーションに係る動作カテゴリ(アプリケーションの名称)を取得し、制御部203は、対象者識別情報とともに動作カテゴリを第1の接続部204からタブレット端末10に送信し、記録制御部1021は、動画像に受信した対象者識別情報及び動作カテゴリを対応付けて記憶部104に書き込む。
 上記構成によれば、リハビリテーション支援装置300が実行するアプリケーションが自動的に動画像に対応付けられてタブレット端末10に記憶される。これにより、対象者を撮像した動画像を簡単な操作で対象者及び動作カテゴリ毎に分けて記憶することができる。よって、補助者SPは、業務終了後に、動画像を確認して動作カテゴリ毎に仕分ける作業を行う必要がなく、操作性が向上する。
 また、本実施形態におけるリハビリテーション支援システムS2において、タブレット端末10は、記憶部104が記憶する動画像を再生して表示する表示部103と、対象者の複数の動画像を表示部103に並べて同時再生する表示制御部1022と、を備える。上記構成によれば、タブレット端末10に記憶されている複数の動画像を並べて同時に再生することができる。よって、例えば、過去のリハビリテーションの様子を撮像した動画像と現在のリハビリテーションの様子を撮像した動画像とを同時再生して見比べることにより、過去のリハビリテーションの様子と容易に比較をすることができる。これにより、リハビリテーションの効果や回復状態等をより直観的に対象者に提示することができる。
 また、本実施形態におけるリハビリテーション支援システムS2において、タブレット端末10は、動画像における再生位置を指定する再生位置指定部(再生箇所バーBR31,BR41,BR51及び終了箇所バーBR32,BR42,BR52)を備え、表示制御部1022は、動画像のうち、再生位置指定部において指定された再生位置を再生する。上記構成によれば、同時再生する動画像の再生位置を調整することができる。よって、複数の動画像を動作の開始タイミング等に合わせて同時再生することができる。これにより、複数の動画像をより比較し易くなる。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 例えば、上述した実施形態では、対応テーブルにより対象者と動作カテゴリと日時とを動画像に対応付けているが、これに限らず、例えば、対象者毎に各動作カテゴリに対応するフォルダを生成して日付が付加された動画像データを振り分ける等、他の方法により対象者と動作カテゴリと日時とを動画像に対応付けてもよい。
 また、上述した実施形態では、同時再生画面において2つの動画像を同時再生しているが、同時再生する動画像は2つ以上であってもよい。
 また、上述した実施形態では、タブレット端末10及びステーション20,20Aが1台ずつである場合を例に説明したが、これに限らず、タブレット端末10及びステーション20,20Aを複数台含む構成であってもよい。また、タブレット端末10の台数とステーション20,20Aの台数は、異なっていてもよい。例えば、ステーション20,20Aの台数がタブレット端末10の台数より多くてもよい。複数のステーション20,20Aをそれぞれ異なる場所に設置することで、様々な位置での撮像が可能になる。また、複数のタブレット端末10が存在する場合、例えば、同期を管理するサーバ等を設置し、当該サーバ等が定期的に前回更新分からの差分データを各タブレット端末10から抽出することでデータの同期を行ってもよい。また、当該サーバ等で全てのタブレット端末10の情報を管理し、上述した動画像の比較や各種の出力を一元的に行ってもよい。
 また、上述した実施形態では、タブレット端末10をステーション20,20Aに設置して撮像しているが、これに限らず、患者番号及び動作カテゴリを入力した後に、タブレット端末10をステーション20,20Aから取り外して撮像してもよい。これにより、任意の場所からの撮像が可能である。例えば、タブレット端末10を補助者SPや対象者EPが直接手にもって撮像することも可能である。
 また、動画再生画面や同時再生画面において、動作の特徴的なタイミングをスクリーンショットすることで、その場面の静止画像を取得することができる。スクリーンショットで取得した静止画像や、自動OUTPUT及び手動OUTPUTで取得した静止画像群を印刷して出力することにより、看護記録や患者日誌等に記録として残すことができる。
 また、タブレット端末10において撮像した動画像を電子化カルテと共有することも可能である。これにより、対象者EPの状態把握が医療関係者全てと共有することが可能となる。
 また、タブレット端末10は、追加アプリケーションにより、動画像から関節角度や移動軌跡や移動量等を算出してもよい。これにより、動画像からより専門的なデータ抽出を行うことが可能となる。さらには、対象者EPの身体(例えば関節)に解析用のシール等を貼り、そして動画像内におけるシール等の移動軌跡や移動量等を画像解析により算出してもよい。この場合、移動軌跡や移動量等の解析精度をより向上させることが可能となる。
 また、タブレット端末10は、他の機器と患者番号を統一しておくことにより、他の機器で計測した対象者EPに関するデータを登録することができる。なお、データの共有方法や通信方法は様々な方法が考えらえる。
 また、ステーション20に可動式のスタンドを設置することにより、ステーション20を容易に移動させることができる。これにより、例えば、病棟での食事シーンや病棟での動作等、様々なシーンでの撮像が可能となる。より具体的には、作業療法の撮像や、言語聴覚士による発話練習の撮像や、言語聴覚士による食事時の嚥下状態の撮像や、看護師によるベッド周辺での動作安全確認のための撮像等が可能となる。
 また、タブレット端末10は、ウェブカメラと連動して、2箇所以上の別の場所から同時に対象者EPを撮像してもよい。リハビリテーションにおける動作を記録する場合には、前方と側方等の2箇所からの撮像が求められる。よって、タブレット端末10にウェブカメラを接続し、複数個所から同時に対象者EPを撮像してもよい。なお、ウェブカメラ単独での撮像も可能であるため、違う場所からの撮像も容易になる。
 また、上述した実施形態では、リハビリテーションに係る動作を撮像する場合について説明したが、動画像を撮像する分野はこれに限られない。ステーション20のペアリング読取部201に対応付ける動作カテゴリはカスタマイズ可能であり、介護の分野や看護の分野等の様々な分野での使用が可能である。また、ペアリング読取部201の読取エリア(すなわち、動作カテゴリ)は5つに限らず、5つより少なくてもよいし5つより多くてもよい。例えば、ペアリング読取部201に設置するボードを変更することにより、動作カテゴリを変更できるようにしてもよい。ボードには、各読取エリアに対応する動作カテゴリがセッティングされている。各動作カテゴリが初めからセッティングされているボードを予め準備してもよいし、自由に動作カテゴリをセッティングできるようにしてもよい。
 また、歩行動作等は広範囲で撮像したいことが多い。よって、魚眼レンズを撮像部101に設置してもよい。広範囲に撮像することで、狭い部屋でも有効に動画像を撮像することが可能となる。
 なお、上述のタブレット端末10、ステーション20,20A及びリハビリテーション支援装置300などとしての機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述のタブレット端末10、ステーション20,20A及びリハビリテーション支援装置300などとしての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。
 また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
[付記1]
(1)情報処理装置と、前記情報処理装置を脱着可能なステーションとを備える動画像記録システムにおける動画像記録方法であって、前記ステーションが、前記情報処理装置と接続してデータを送受信するステップと、撮像の対象者を識別する対象者識別情報を取得するステップと、取得した前記対象者識別情報を前記情報処理装置に送信するステップと、前記情報処理装置が、前記ステーションと接続してデータを送受信するステップと、前記対象者を撮像するステップと、撮像した動画像を記憶するステップと、前記ステーションから前記対象者識別情報を受信し、前記対象者を撮像した動画像に受信した前記対象者識別情報を対応付けて記憶部に書き込むステップと、を有することを特徴とする動画像記録方法。
(2)情報処理装置と、前記情報処理装置を脱着可能なステーションとを備える動画像記録システムにおいて、前記ステーションのコンピュータに、前記情報処理装置と接続してデータを送受信する手順と、撮像の対象者を識別する対象者識別情報を取得する手順と、取得した前記対象者識別情報を前記情報処理装置に送信する手順と、を実行させ、前記情報処理装置のコンピュータに、前記ステーションと接続してデータを送受信する手順と、前記対象者を撮像する手順と、撮像した動画像を記憶する手順と、前記ステーションから前記対象者識別情報を受信し、前記対象者を撮像した動画像に受信した前記対象者識別情報を対応付けて記憶部に書き込む手順と、を実行させるためのプログラム。
(3)情報処理装置と、前記情報処理装置を脱着可能なステーションとを備える動画像記録システムにおける前記ステーションであって、前記情報処理装置と接続してデータを送受信する接続部と、撮像の対象者を識別する対象者識別情報を取得する取得部と、前記取得部が取得した前記対象者識別情報を前記接続部から前記情報処理装置に送信する制御部と、を備えることを特徴とするステーション。
(4)情報処理装置と、前記情報処理装置を脱着可能なステーションとを備える動画像記録システムにおいて、前記ステーションが実行する動画像記録方法であって、撮像の対象者を識別する対象者識別情報を取得するステップと、前記情報処理装置と接続してデータを送受信する接続部から、取得した前記対象者識別情報を前記情報処理装置に送信するステップと、を有することを特徴とする動画像記録方法。
(5)情報処理装置と、前記情報処理装置を脱着可能なステーションとを備える動画像記録システムにおける前記ステーションのコンピュータに、撮像の対象者を識別する対象者識別情報を取得する手順と、前記情報処理装置と接続してデータを送受信する接続部から、取得した前記対象者識別情報を前記情報処理装置に送信する手順と、を実行させるためのプログラム。
(6)情報処理装置と、前記情報処理装置を脱着可能なステーションとを備える動画像記録システムにおける前記情報処理装置であって、前記ステーションと接続してデータを送受信する接続部と、対象者を撮像する撮像部と、前記撮像部が撮像した動画像を記憶する記憶部と、前記接続部を介して前記ステーションから対象者を識別する対象者識別情報を受信し、前記撮像部が前記対象者を撮像した動画像に受信した前記対象者識別情報を対応付けて前記記憶部に書き込む記録制御部と、を備えることを特徴とする情報処理装置。
(7)情報処理装置と、前記情報処理装置を脱着可能なステーションとを備える動画像記録システムにおいて、前記情報処理装置が実行する動画像記録方法であって、前記ステーションと接続してデータを送受信する接続部を介して前記ステーションから対象者を識別する対象者識別情報を受信するステップと、前記対象者を撮像するステップと、前記対象者を撮像した動画像に、受信した前記対象者識別情報を対応付けて記憶部に書き込むステップと、を有することを特徴とする動画像記録方法。
(8)情報処理装置と、前記情報処理装置を脱着可能なステーションとを備える動画像記録システムにおける前記情報処理装置のコンピュータに、前記ステーションと接続してデータを送受信する接続部を介して前記ステーションから対象者を識別する対象者識別情報を受信する手順と、前記対象者を撮像する手順と、前記対象者を撮像した動画像に、受信した前記対象者識別情報を対応付けて記憶部に書き込む手順と、を実行させるためのプログラム。
[付記2]
(1)データを送受信する接続部と、撮像の対象者を識別する対象者識別情報を取得する取得部と、前記取得部が取得した前記対象者識別情報を前記接続部から送信する制御部と、を有するステーションに対して脱着可能な情報処理装置を備える動画像記録システムであって、
 前記情報処理装置は、
 前記ステーションの前記接続部と接続してデータを送受信する接続部と、
 前記対象者を撮像する撮像部と、
 前記撮像部が撮像した動画像を記憶する記憶部と、
 前記接続部を介して前記ステーションから前記対象者識別情報を受信し、前記撮像部が前記対象者を撮像した動画像に受信した前記対象者識別情報を対応付けて前記記憶部に書き込む記録制御部と、
 を備える動画像記録システム。
(2)前記情報処理装置が、
 前記記憶部が記憶する動画像を再生して表示する表示部と、
 前記対象者の複数の前記動画像を前記表示部に並べて同時再生する表示制御部と、
 を備える上記(1)に記載の動画像記録システム。
(3)前記情報処理装置が、
 前記動画像における再生位置を指定する再生位置指定部を備え、
 前記表示制御部が、前記再生位置指定部において指定された再生位置に対応する前記動画像を再生する、
 上記(2)に記載の動画像記録システム。
(4)前記情報処理装置が、
 前記記憶部が記憶する動画像を再生して表示する表示部と、
 前記動画像における再生位置を指定する再生位置指定部と、
 前記再生位置指定部において指定された再生位置に対応する前記動画像から、所定の数の静止画像を抽出し出力する表示制御部と、
 を備える上記(3)に記載の動画像記録システム。
(5)前記情報処理装置が、
 前記記憶部が記憶する動画像を再生して表示する表示部と、
 前記動画像における再生位置を指定する再生位置指定部と、
 前記再生位置指定部において指定された再生位置に対応する前記動画像から、所定の数の静止画像を抽出し出力する表示制御部と、
 を備える上記(1)に記載の動画像記録システム。
(6)前記情報処理装置が、
 前記記憶部が記憶する動画像を再生して表示する表示部と、
 前記動画像における再生位置を指定する再生位置指定部と、
 前記再生位置指定部において指定された再生位置に対応する前記動画像から、所定の数の静止画像を抽出し出力する表示制御部と、
 を備える上記(1)に記載の動画像記録システム。
(7)前記情報処理装置が、
 前記記憶部が記憶する動画像を再生して表示する表示部と、
 前記対象者の前記動画像、及び、前記動画像に対応してかつ前記対象者の動作結果を示す結果画像を、前記表示部に並べて表示する表示制御部と、
 を備える上記(1)に記載の動画像記録システム。
(8)前記表示制御部が、前記対象者の複数の前記動画像及び前記結果画像を前記表示部に並べて表示する上記(7)に記載の動画像記録システム。
(9)前記情報処理装置が、
 前記動画像における再生位置を指定する再生位置指定部を備え、
 前記表示制御部は、前記再生位置指定部において指定された再生位置に対応する前記動画像を再生する、
 上記(8)に記載の動画像記録システム。
(10)前記情報処理装置が、
 前記動画像における再生位置を指定する再生位置指定部を備え、
 前記表示制御部は、前記再生位置指定部において指定された再生位置に対応する前記動画像から、所定の数の静止画像を抽出し出力する、
 上記(8)に記載の動画像記録システム。
 各実施形態のリハビリテーション支援システムでは、タブレット端末10とステーション20を少なくとも使用しているが、これに限定されることなく、例えばステーション20を使用せずにステーション20が有する機能をタブレット端末10に追加してもよい。この場合、図26A及び図26Bの変形例に示すように、タブレット端末10を、ステーション20ではなく移動支持架台120に支持させてもよい。
 移動支持架台120は、複数のキャスター121と、複数本の脚部122と、ポール123と、支持台124と、タブレット端末ホルダー125と、カメラホルダー126と、を備えている。
 各キャスター121は、それぞれ各脚部122に取り付けられており、床面上を走行可能である。
 ポール123は、各脚部122により支持された状態で鉛直方向に沿って起立しており、その鉛直方向に沿った長さ(高さ)が調整可能である。ポール123は、各脚部122上に立設されたパイプ123aと、このパイプ123a内に下端部が同軸に挿入された伸展部123bと、パイプ123aに対する伸展部123bの上下位置及び回転位置を固定または許可する調整部123cと、を有している。調整部123cを緩めた場合には、パイプ123aに対する伸展部123bの上下動作と回転動作できるので、後述する外部カメラECの高さと回転方向の向きとが最適な位置になるように調整することができる。調整後は、調整部123cを締め付けることで、伸展部123bの高さ及び回転位置、すなわち外部カメラECの高さ及び回転位置を固定することができる。
 支持台124は、パイプ123aの鉛直方向に沿った途中位置に固定されており、その上面にタブレット端末10を受け入れ可能としている。
 タブレット端末ホルダー125は、支持台124と共にタブレット端末10を保持する。外部カメラを用いずにタブレット端末10で動画像を撮像する場合、図26Aに示すように、タブレット端末10を支持台124の上面に対して垂直に固定することができる。また、撮像を行わずにタブレット端末10を操作する場合には、図26Bに示すように、タブレット端末10を支持台124の上面に対して斜めに立てかけることで画面が見やすくなり、操作が容易となる。何れの場合も、タブレット端末ホルダー125でタブレット端末10の背面を支える。
 カメラホルダー126は、伸展部123bの上端に対して揺動可能に固定されており、外部カメラEC(ウェブカメラなど)が取付可能である。カメラホルダー126は、左右方向の首振り動作と、鉛直方向の傾斜動作とが可能である。したがって、タブレット端末10で撮像する代わりに外部カメラECで撮像する場合には、タブレット端末10の画面に対して反対側(破線矢印の方向)を向くように、外部カメラECをまずカメラホルダー126に固定する。そして、前記調整部123cを操作して伸展部123bの高さ及び回転位置を調整する。さらに、カメラホルダー126の上下方向の向きを調整する。これにより、外部カメラECの撮像方向を対象者EPに向けることができる。また、対象者EPとの距離が短い場合であっても、外部カメラECの向きを変えることで対応可能であるので、柔軟に対応することができる。例えば、リハビリを行う場所が狭くて対象者EPとの距離が短い場合であっても、外部カメラECの高さを高めにすることで、対象者EPの顔の表情とテーブル上の作業内容とを、一つの画面内に含めて撮像することができる。
 なお、外部カメラECとタブレット端末10との間における、動画像の送信を含む各種通信は、有線で行っても良いし、または無線で行っても良い。
 利用者は、タブレット端末10の画面上で対象者EPを識別する個人情報を入力または選択することができる。なお、対象者EPの氏名を個人情報と共にタブレット端末10に予め登録しておき、選択できるようにしてもよい。または、対象者EPを識別する個人情報を対象者EP固有の識別番号に紐付けてタブレット端末10に予め登録しておき、選択できるようにしてもよい。
 利用者は、タブレット端末10の画面上でリハビリテーションに係る動作カテゴリを入力または選択することができる。例えば、タブレット端末10に動作カテゴリ「座位」、「立ち上がり」、「歩行」等が表示される。
 これにより、利用者は媒体40を使用せずに(媒体40の個人設定を別途することなく)、本リハビリテーション支援システムを使用できる。
 この場合、図7のシーケンスについて、媒体40のステップS101及びステーション20のステップS103は削除され、ステーション20のステップS102はタブレット端末10で行われる。図20のシーケンスについて、ステーション20Aに入力される各ステップ(S303、S310、S319、S324)はタブレット端末10に入力される。つまり、ステップS303とS304は1つのステップに統合され、ステップS310とS311は1つのステップに統合され、ステップS324とS325は1つのステップに統合される。
 この動画像記録システムによれば、その操作性を向上することができる。
 S1,S2…リハビリテーション支援システム(動画像記録システム)
 10…タブレット端末(情報処理装置)
 20,20A…ステーション
 30…リモコン
 31…入力部
 32…出力部
 33…記憶部
 34…制御部
 35…操作部
 36…表示部
 37…接続部
 40,40-1,40-2…媒体
 100…センサ
 101…撮像部
 102…制御部
 103…表示部
 104…記憶部
 105…操作部
 106…受信部
 107…接続部
 200…出力装置
 201…ペアリング読取部(取得部)
 202…給電部
 203…制御部
 204…第1の接続部(接続部)
 205…ドッキング部
 210…第2の接続部(取得部)
 300…リハビリテーション支援装置
 301…操作部
 302…送信部
 310…脚部
 311,312,313,314…キャスター
 331…キャリブレーション情報記憶部
 332…判定条件情報記憶部
 333…検出履歴情報記憶部
 334…パラメータ情報記憶部
 335…プログラム情報記憶部
 341…認識部
 342…表示制御部
 343…動作領域判定部
 344…記録部
 345…目標決定部
 346…評価部
 347…足用表示パラメータ設定部
 348…手用表示パラメータ設定部
 349…外乱用表示パラメータ設定部
 401…記憶部
 1021…記録制御部
 1022…表示制御部
 2011,2012,2013,2014,2015…読取エリア
 3410…送受信制御部
 BR1,BR11,BR21…再生箇所バー(再生位置指定部)
 BR2,BR12,BR22…終了箇所バー(再生位置指定部)

Claims (18)

  1.  情報処理装置と、前記情報処理装置を脱着可能なステーションとを備える動画像記録システムであって、
     前記ステーションは、
     前記情報処理装置と接続してデータを送受信する接続部と、
     撮像の対象者を識別する対象者識別情報を取得する取得部と、
     前記取得部が取得した前記対象者識別情報を前記接続部から前記情報処理装置に送信する制御部と、
     を備え、
     前記情報処理装置は、
     前記ステーションと接続してデータを送受信する接続部と、
     前記対象者を撮像する撮像部と、
     前記撮像部が撮像した動画像を記憶する記憶部と、
     前記接続部を介して前記ステーションから前記対象者識別情報を受信し、前記撮像部が前記対象者を撮像した動画像に受信した前記対象者識別情報を対応付けて前記記憶部に書き込む記録制御部と、
     を備えることを特徴とする動画像記録システム。
  2.  前記ステーションの前記取得部は、前記対象者識別情報とともに動作カテゴリを取得し、
     前記ステーションの前記制御部は、前記対象者識別情報とともに前記動作カテゴリを前記接続部から前記情報処理装置に送信し、
     前記情報処理装置の前記記録制御部は、受信した前記対象者識別情報及び前記動作カテゴリを前記動画像に対応付けて前記記憶部に書き込む
     ことを特徴とする請求項1に記載の動画像記録システム。
  3.  前記ステーションの前記取得部は、対象者識別情報を記憶する媒体から前記対象者識別情報を読み取る
     ことを特徴とする請求項2に記載の動画像記録システム。
  4.  前記ステーションの前記取得部は、対象者識別情報を記憶する媒体から前記対象者識別情報を読み取る読取エリアを前記動作カテゴリ毎に備え、前記対象者識別情報を読み取った読取エリアにより前記動作カテゴリを取得する
     ことを特徴とする請求項2に記載の動画像記録システム。
  5.  前記ステーションの前記取得部は、前記対象者が実施するリハビリテーションに係るアプリケーションを実行するリハビリテーション支援装置から前記対象者識別情報を受信する
     ことを特徴とする請求項2に記載の動画像記録システム。
  6.  前記ステーションの前記取得部は、対象者識別情報を記憶する媒体から前記対象者識別情報を読み取る
     ことを特徴とする請求項1に記載の動画像記録システム。
  7.  前記ステーションの前記取得部は、前記対象者が実施するリハビリテーションに係るアプリケーションを実行するリハビリテーション支援装置から前記対象者識別情報を受信する
     ことを特徴とする請求項1に記載の動画像記録システム。
  8.  前記情報処理装置は、
     前記記憶部が記憶する動画像を再生して表示する表示部と、
     前記対象者の複数の前記動画像を前記表示部に並べて同時再生する表示制御部と、
     を備えることを特徴とする請求項1から請求項7のいずれか1項に記載の動画像記録システム。
  9.  前記情報処理装置は、
     前記動画像における再生位置を指定する再生位置指定部を備え、
     前記表示制御部は、前記再生位置指定部において指定された再生位置に対応する前記動画像を再生する
     ことを特徴とする請求項8に記載の動画像記録システム。
  10.  前記情報処理装置は、
     前記記憶部が記憶する動画像を再生して表示する表示部と、
     前記動画像における再生位置を指定する再生位置指定部と、
     前記再生位置指定部において指定された再生位置に対応する前記動画像から、所定の数の静止画像を抽出し出力する表示制御部と、
     を備えることを特徴とする請求項9に記載の動画像記録システム。
  11.  前記情報処理装置は、
     前記記憶部が記憶する動画像を再生して表示する表示部と、
     前記動画像における再生位置を指定する再生位置指定部と、
     前記再生位置指定部において指定された再生位置に対応する前記動画像から、所定の数の静止画像を抽出し出力する表示制御部と、
     を備えることを特徴とする請求項8に記載の動画像記録システム。
  12.  前記情報処理装置は、
     前記記憶部が記憶する動画像を再生して表示する表示部と、
     前記動画像における再生位置を指定する再生位置指定部と、
     前記再生位置指定部において指定された再生位置に対応する前記動画像から、所定の数の静止画像を抽出し出力する表示制御部と、
     を備えることを特徴とする請求項1から請求項7のいずれか1項に記載の動画像記録システム。
  13.  前記情報処理装置は、
     表示部と、
     前記記憶部が記憶している、前記対象者の前記動画像と、前記動画像に対応してかつ前記対象者の動作結果を示す結果画像とを、前記表示部に並べて表示する表示制御部と、
     を備えることを特徴とする請求項1から請求項7のいずれか1項に記載の動画像記録システム。
  14.  前記情報処理装置は、
     前記動画像における再生位置を指定する再生位置指定部を備え、
     前記表示制御部は、前記再生位置指定部において指定された再生位置に対応する前記動画像を再生する
     ことを特徴とする請求項13に記載の動画像記録システム。
  15.  前記情報処理装置は、
     前記動画像における再生位置を指定する再生位置指定部を備え、
     前記表示制御部は、前記再生位置指定部において指定された再生位置に対応する前記動画像から、所定の数の静止画像を抽出し出力する
     ことを特徴とする請求項13に記載の動画像記録システム。
  16.  前記表示制御部は、前記対象者の複数の前記動画像及び前記結果画像を前記表示部に並べて表示する
    ことを特徴とする請求項13に記載の動画像記録システム。
  17.  前記情報処理装置は、
     前記動画像における再生位置を指定する再生位置指定部を備え、
     前記表示制御部は、前記再生位置指定部において指定された再生位置に対応する前記動画像を再生する
     ことを特徴とする請求項16に記載の動画像記録システム。
  18.  前記情報処理装置は、
     前記動画像における再生位置を指定する再生位置指定部を備え、
     前記表示制御部は、前記再生位置指定部において指定された再生位置に対応する前記動画像から、所定の数の静止画像を抽出し出力する
     ことを特徴とする請求項16に記載の動画像記録システム。
PCT/JP2018/037544 2017-10-27 2018-10-09 動画像記録システム WO2019082635A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880038885.0A CN111226289B (zh) 2017-10-27 2018-10-09 动态图像记录系统
US16/620,710 US11648168B2 (en) 2017-10-27 2018-10-09 Moving image recording system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-208304 2017-10-27
JP2017208304 2017-10-27

Publications (1)

Publication Number Publication Date
WO2019082635A1 true WO2019082635A1 (ja) 2019-05-02

Family

ID=66246934

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/037544 WO2019082635A1 (ja) 2017-10-27 2018-10-09 動画像記録システム

Country Status (4)

Country Link
US (1) US11648168B2 (ja)
JP (1) JP7010798B2 (ja)
CN (1) CN111226289B (ja)
WO (1) WO2019082635A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021178111A (ja) * 2020-05-15 2021-11-18 コニカミノルタ株式会社 動態画像解析装置、動態画像解析方法及びプログラム
WO2023048287A1 (ja) * 2021-09-27 2023-03-30 テルモ株式会社 情報処理システム、プログラム及び情報処理方法
JP7474568B2 (ja) 2019-05-08 2024-04-25 キヤノンメディカルシステムズ株式会社 医用情報表示装置、及び医用情報表示システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153453A1 (ja) * 2022-02-08 2023-08-17 ソニーグループ株式会社 リハビリテーション支援システム、情報処理方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310350A (ja) * 2003-04-04 2004-11-04 Hitachi Building Systems Co Ltd 動態管理システム
JP2006260082A (ja) * 2005-03-16 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> 介護予防支援システム
US20150269851A1 (en) * 2014-03-21 2015-09-24 Rmg, Inc. Mobile based exercise and rehabilitation prescription tool and application

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004304653A (ja) 2003-03-31 2004-10-28 Matsushita Electric Ind Co Ltd 撮影システム
US20080119763A1 (en) * 2006-11-21 2008-05-22 Jay Wiener Acquisition processing and reporting physical exercise data
US20130165825A1 (en) * 2010-02-12 2013-06-27 Luis Enrique Sucar-Succar Portable handle for upper limb rehabilitation
US9411457B2 (en) * 2010-10-12 2016-08-09 New York University Sensor having a set of plates, and method
JP5925055B2 (ja) 2012-05-31 2016-05-25 株式会社Pfu 情報処理装置、周辺装置制御システム、プログラムおよび周辺装置の制御方法
TWI484439B (zh) * 2012-12-17 2015-05-11 Preventive Medical Health Care Co Ltd 復健回饋整合系統及其方法
US10430985B2 (en) * 2014-03-14 2019-10-01 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
CN106233283A (zh) * 2014-04-15 2016-12-14 奥林巴斯株式会社 图像处理装置、通信系统以及通信方法和摄像装置
JP6540169B2 (ja) 2015-04-03 2019-07-10 日本電気株式会社 分析システム、リハビリテーション支援システム、方法およびプログラム
US10575759B2 (en) * 2015-07-01 2020-03-03 BaziFIT, Inc. Method and system for monitoring and analyzing position, motion, and equilibrium of body parts
US20170188864A1 (en) * 2016-01-06 2017-07-06 Healmet, Inc. Spherical handheld biosensor array device for physiological status monitoring
WO2017127571A1 (en) * 2016-01-19 2017-07-27 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
JP2017173252A (ja) * 2016-03-25 2017-09-28 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
US20190147721A1 (en) * 2016-03-30 2019-05-16 Live Care Corp. Personal emergency response system and method for improved signal initiation, transmission, notification/annunciation, and level of performance
EP3583487A4 (en) * 2017-02-16 2020-11-11 The Johns Hopkins University HAND REHABILITATION SYSTEM
US10070805B1 (en) * 2017-03-13 2018-09-11 General Electric Company Patient monitoring system and method having location-specific contextual alarming

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310350A (ja) * 2003-04-04 2004-11-04 Hitachi Building Systems Co Ltd 動態管理システム
JP2006260082A (ja) * 2005-03-16 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> 介護予防支援システム
US20150269851A1 (en) * 2014-03-21 2015-09-24 Rmg, Inc. Mobile based exercise and rehabilitation prescription tool and application

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7474568B2 (ja) 2019-05-08 2024-04-25 キヤノンメディカルシステムズ株式会社 医用情報表示装置、及び医用情報表示システム
JP2021178111A (ja) * 2020-05-15 2021-11-18 コニカミノルタ株式会社 動態画像解析装置、動態画像解析方法及びプログラム
JP7435242B2 (ja) 2020-05-15 2024-02-21 コニカミノルタ株式会社 動態画像解析装置、動態画像解析方法及びプログラム
WO2023048287A1 (ja) * 2021-09-27 2023-03-30 テルモ株式会社 情報処理システム、プログラム及び情報処理方法

Also Published As

Publication number Publication date
CN111226289B (zh) 2023-09-26
US20210137762A1 (en) 2021-05-13
JP7010798B2 (ja) 2022-01-26
CN111226289A (zh) 2020-06-02
JP2019083519A (ja) 2019-05-30
US11648168B2 (en) 2023-05-16

Similar Documents

Publication Publication Date Title
JP7010798B2 (ja) 動画像記録システム
JP6842044B2 (ja) 情報処理装置、情報処理方法、プログラム
US11678950B2 (en) Multiple-viewpoint video image viewing system and camera system
CN109558004B (zh) 一种人体辅助机器人的控制方法及装置
TW201909058A (zh) 活動支援方法、程式及活動支援系統
JP2017080197A (ja) 情報処理装置、情報処理方法、プログラム
JP2017012691A (ja) リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法及びプログラム
CN106650217B (zh) 信息处理装置以及信息处理方法
JP6744559B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2019058285A (ja) 活動支援方法、プログラム、及び活動支援システム
JP2014086988A (ja) 画像表示装置及びプログラム
JP2000138927A (ja) 画像比較表示装置
JP2017080199A (ja) 情報処理装置、情報処理方法、プログラム
JP6631594B2 (ja) 情報処理装置、情報処理装置の制御方法、プログラム
CN109551489B (zh) 一种人体辅助机器人的控制方法及装置
JP6803111B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2017080203A (ja) 情報処理装置、情報処理方法、プログラム
JP2017080202A (ja) 情報処理装置、情報処理方法、プログラム
JP2017085427A (ja) 情報処理装置、情報処理方法、プログラム
JP2020140719A (ja) 情報処理装置、情報処理方法、プログラム
JP6982656B2 (ja) 眼で操作するアイポインティングシステム
JP2012065049A (ja) 画像処理装置及び画像処理方法
JP5796596B2 (ja) 支援方法、支援システム、制御装置、画像形成装置、および支援プログラム
JP2017080195A (ja) 情報処理装置、情報処理方法、プログラム
JP2017084194A (ja) 情報処理装置、情報処理方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18870585

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18870585

Country of ref document: EP

Kind code of ref document: A1