WO2014192085A1 - 介助ロボット - Google Patents

介助ロボット Download PDF

Info

Publication number
WO2014192085A1
WO2014192085A1 PCT/JP2013/064805 JP2013064805W WO2014192085A1 WO 2014192085 A1 WO2014192085 A1 WO 2014192085A1 JP 2013064805 W JP2013064805 W JP 2013064805W WO 2014192085 A1 WO2014192085 A1 WO 2014192085A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
assisted
assistance robot
unit
assistance
Prior art date
Application number
PCT/JP2013/064805
Other languages
English (en)
French (fr)
Inventor
英明 野村
丈二 五十棲
伸幸 中根
Original Assignee
富士機械製造株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士機械製造株式会社 filed Critical 富士機械製造株式会社
Priority to EP13886119.0A priority Critical patent/EP3006004B1/en
Priority to CN201380076990.0A priority patent/CN105246449A/zh
Priority to PCT/JP2013/064805 priority patent/WO2014192085A1/ja
Priority to JP2015519531A priority patent/JP6360048B2/ja
Publication of WO2014192085A1 publication Critical patent/WO2014192085A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/04Wheeled walking aids for patients or disabled persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/10Parts, details or accessories
    • A61G5/14Standing-up or sitting-down aids
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/008Appliances for aiding patients or disabled persons to walk about using suspension devices for supporting the body in an upright walking or standing position, e.g. harnesses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/04Wheeled walking aids for patients or disabled persons
    • A61H2003/043Wheeled walking aids for patients or disabled persons with a drive mechanism
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/1619Thorax
    • A61H2201/1621Holding means therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • A61H2201/501Control means thereof computer controlled connected to external computer devices or networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2230/00Measuring physical parameters of the user
    • A61H2230/04Heartbeat characteristics, e.g. E.G.C., blood pressure modulation
    • A61H2230/06Heartbeat rate
    • A61H2230/065Heartbeat rate used as a control parameter for the apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2230/00Measuring physical parameters of the user
    • A61H2230/08Other bio-electrical signals
    • A61H2230/085Other bio-electrical signals used as a control parameter for the apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2230/00Measuring physical parameters of the user
    • A61H2230/30Blood pressure
    • A61H2230/305Blood pressure used as a control parameter for the apparatus
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45108Aid, robot for aid to, assist human disabled

Definitions

  • the present invention relates to an assistance robot for assisting a person being assisted.
  • the assistance robot is a transfer support device that supports a transfer operation of a person being assisted held by a holder (3) provided in an arm portion (2). (10) and an anxiety measuring means for detecting a physical change linked to the caregiver's anxiety and measuring the degree of anxiety of the caregiver, and driving according to an input instruction from the operation unit (25) And a controller (17) that controls the drive of the means (61-65) and performs feedback control so as to suppress the degree of anxiety measured by the anxiety measuring means.
  • the anxiety measuring means is a physical change linked to the caregiver's anxiety, and at least one of heart rate, sweating, respiration rate, eye movement, skin electrical resistance, and skin temperature that increases with anxiety. It measures more than one.
  • This anxiety measuring means includes a heart rate sensor (40, 41) for measuring the heart rate of the person being assisted, a sweat sensor (42) for measuring the amount of sweat by the person being assisted, and a slight vibration of the person being assisted by the respiratory rate.
  • a pressure sensor (43) for detecting, a camera (44) for imaging the eye movement of the person being assisted, a current sensor (45) for detecting the skin electrical resistance of the person being assisted, and a temperature for measuring the skin temperature of the person being assisted.
  • a heart rate that is a physical change of a person being assisted (cared by) held and transferred by the holder (3) is detected by a heart rate sensor (40, 41) or the like. Therefore, it is possible to directly and in real time monitor the physical condition of the person being transferred while holding, and it is possible to appropriately adjust the speed of the arm portion (2) according to the physical condition. .
  • the physical condition of the person being assisted is not good before the transfer (assistance), or the physical condition is not bad before the transfer, but the physical condition is deteriorated by the transfer. In these cases, it is not appropriate to transfer the person being assisted, and appropriate assistance is required so that the physical condition of the person being assisted does not deteriorate.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to provide an assistance robot that can assist the person being assisted while ensuring the physical condition of the person being assisted.
  • the assistance robot is provided on a base, and supports a part of the body of the person being assisted and assists standing and sitting, and identifies the person being assisted
  • a specific information acquisition device for acquiring specific information for the recognition
  • a recognition unit for recognizing the person being assisted from the specific information acquired by the specific information acquisition device
  • an acquisition unit for acquiring information regarding the person being assisted by the recognition unit
  • a control unit that performs drive control of the holding unit based on information on the person being assisted acquired by the acquisition unit.
  • FIG. 5a It is a schematic diagram which shows the outline
  • 6b is an end view taken along line 6b-6b shown in FIG. 6a. It is a front view which shows the periphery containing the 1st slide part shown to FIG. 6a. It is a block diagram which shows the assistance robot shown in FIG. It is a block diagram which shows the control apparatus shown in FIG. It is a side view which shows a mode that the assistance robot is supporting the person who is sitting. It is a side view which shows a mode that the assistance robot is supporting the person who is standing. It is a top view which shows a terminal device. It is a figure which shows an operator database, a medication database, a vital sign database, and a care database in order from the top.
  • FIG. 1 is a schematic diagram showing an outline of a care center 10 in which the assistance robot 20 is arranged.
  • the care center 10 is provided with a station 11, a training room 12, and individual rooms 13a to 13d.
  • the care center 10 is a living area where people live.
  • a person existing in the care center 10 is a person M1 who needs assistance or a person M2 who helps the person M1.
  • the station 11 is a place where the assistant M2 is packed, and is a base on which the assistant robot 20 stands by or is charged.
  • the training room 12 is a room where the person being assisted M1 performs training and rehabilitation.
  • Each of the private rooms 13a to 13d is a room in which the care recipient M1 lives.
  • the station 11, the training room 12, and the individual rooms 13a to 13d are provided with entrances / exits 11a, 12a, 13a1 to 13d1, respectively, and the entrances / exits 11a, 12a, and 13a1 to 13d1 are connected via a passage 14. .
  • a host computer 51 that can communicate with the assisting robot 20 wirelessly is provided.
  • the host computer 51 collectively manages treatment / diagnosis information (for example, medical record information), care information (for example, rehabilitation information), identification numbers (identification codes) of the assistant M1 and the assistant M2, and the like. Yes.
  • the assistance robot 20 is allowed to move in a living area where a person lives, and moves in the living area by being driven by left and right drive wheel motors 21g and 21h as driving sources.
  • an arrow in the vicinity of the assisting robot 20 indicates the traveling direction of the assisting robot 20.
  • the assistance robot 20 can communicate with the terminal device 41 attached to the person being assisted M1 (or the assistant M2) who is an operator, and can communicate with the host computer 51. is there. Note that the assistance robot 20 may be able to communicate with the terminal device 41 via the host computer 51.
  • the assistance robot 20 is an assistance robot for supporting a part of the body of the person being assisted M1 (for example, the upper body, particularly the chest) to assist standing and sitting.
  • the assistance robot 20 includes a base 21, a robot arm unit 22, a holding unit 23, a handle 24, an operation device 25, and a control device 26.
  • the base 21 includes left and right base portions 21a and 21b and left and right leg portions 21c and 21d.
  • the left and right base portions 21a and 21b are disposed at a predetermined distance in the left and right direction, and the left and right base portions 21a and 21b are provided with left and right drive wheels 21e and 21f, respectively, as shown in FIG.
  • Built-in motors 21g and 21h for left and right driving wheels for driving the wheels 21e and 21f, respectively.
  • the assistance robot 20 travels by left and right drive wheels 21e and 21f driven by left and right drive wheel motors 21g and 21h, respectively.
  • the left and right drive wheels 21e and 21f and the left and right drive wheel motors 21g and 21h constitute a travel drive unit AC.
  • the drive source provided on the base 21 may be omitted and configured to be moved by being pushed by the person being assisted M1.
  • the left and right leg portions 21c and 21d extend horizontally from the left and right base portions 21a and 21b in the forward direction (left direction in FIGS. 3 and 4).
  • Left and right driven wheels 21i and 21j are provided at the distal ends of the left and right leg portions 21c and 21d, respectively.
  • a pair of collision prevention sensors 21k and 21l are provided at the ends of the left and right leg portions 21c and 21d, respectively.
  • the collision prevention sensors 21k and 21l are sensors that detect obstacles, and the detection signals thereof are transmitted to the control device 26.
  • the robot arm portion 22 is attached to the base 21 and mainly includes first and second rotation motors 22a1c and 22b3 and a slide motor 22a2b as shown in FIGS. 5a and 6a.
  • the robot arm unit 22 may be configured from a plurality of axes.
  • the shaft may include at least one of the rotation shaft and the slide shaft.
  • the base of the first arm 22a is attached to the base 21.
  • FIG. The first arm 22a includes a slide base 22a1, a first slide 22a2, and a second slide 22a3.
  • the slide base 22a1 is formed in a substantially rectangular parallelepiped shape as shown in FIGS.
  • the slide base 22a1 includes a frame 22a1b whose base end is attached to the base 21 so as to be rotatable around the first rotation shaft 22a1a.
  • the frame 22a1b has a substantially U-shaped cross section.
  • the left and right plate members 22a1b1, 22a1b2 and the left and right plate members 22a1b1, 22a1b2 The rear plate-like member 22a1b3 is connected to both ends.
  • the first rotation motor 22a1c is provided on the base 21, as shown in FIG. 5a.
  • the first drive belt 22a1d is mounted between the pulley of the first rotation motor 22a1c and the pulley of the first rotation shaft 22a1a.
  • the frame 22a1b that is, the slide base portion 22a1, rotates forward or backward around the first rotation shaft 22a1a.
  • the first slide portion 22a2 is formed in a substantially rectangular parallelepiped shape and is smaller than the slide base portion 22a1.
  • the first slide portion 22a2 slides in the longitudinal direction (axial movement direction) with respect to the slide base portion 22a1, and is configured to be substantially accommodated in the slide base portion 22a1 when contracted.
  • the first slide portion 22a2 includes a frame 22a2a (see FIG. 5a).
  • the frame 22a2a is formed in an H-shaped cross section and an H-shaped side view, and the front and rear plate members 22a2a1, 22a2a2 and the front and rear plate members 22a2a1, 22a2a2 It is comprised from the connection plate-shaped member 22a2a3 to which both ends were connected.
  • the left and right ends of the rear plate member 22a2a2 are slidably engaged with the left and right guide grooves 22a1e of the frame 22a1b.
  • a slide motor 22a2b is provided above the rear plate member 22a2a2.
  • a pulley 22a2c is rotatably provided below the rear plate member 22a2a2.
  • a slide belt 22a2e is mounted between the pulley 22a2d and the pulley 22a2c of the slide motor 22a2b.
  • guide rails 22a2f are provided at the left and right ends of the front plate member 22a2a1 of the frame 22a2a.
  • the guide rail 22a2f is slidably engaged with the left and right guide receiving portions 22a3b inside the left and right plate-like members of the frame 22a3a of the second slide portion 22a3 which will be described later.
  • the second slide portion 22a3 is formed in a substantially rectangular parallelepiped shape and is configured to be smaller than the first slide portion 22a2.
  • the second slide portion 22a3 slides in the longitudinal direction (axial movement direction) with respect to the first slide portion 22a2, and is configured to be substantially accommodated in the first slide portion 22a2 when contracted. Yes.
  • the second slide portion 22a3 includes a frame 22a3a (see FIG. 5a).
  • the frame 22a3a has a substantially U-shaped cross section. It is comprised from the shape member 22a3a3.
  • left and right guide receiving portions 22a3b that are slidably engaged with the guide rails 22a2f of the frame 22a2a are provided.
  • a fixing portion 22a3c that is attached to and fixed to the sliding belt 22a2e is provided below the right plate member 22a3a2 of the frame 22a3a (see FIGS. 5b and 6c).
  • the frame 22a2a of the first slide part 22a2 extends along the axial direction with respect to the frame 22a1b of the slide base 22a1 (expanded state shown in FIGS. 5a and 5b).
  • the frame 22a3a of the second slide portion 22a3 extends relative to the frame 22a2a of the first slide portion 22a2 (the extended state shown in FIGS. 5a and 5b).
  • the second arm 22b is formed in a substantially rectangular parallelepiped shape, and is formed at the tip of the second slide portion 22a3 so as to extend in a direction perpendicular to the longitudinal direction (forward direction).
  • the second arm 22b includes a frame 22b1 composed of left and right plate-like members 22b1a and 22b1b.
  • the rear ends of the left and right plate members 22b1a and 22b1b of the frame 22b1 are connected and fixed to the upper ends of the left and right plate members 22a3a1 and 22a3a2 of the frame 22a3a, respectively.
  • the second rotating shaft 22b2 is rotatably interposed at the front ends of the left and right plate-like members 22b1a and 22b1b of the frame 22b1.
  • a second rotation motor 22b3 is provided at the center of the left and right plate-like members 22b1a and 22b1b.
  • the second rotating belt 22b4 is mounted between the pulley of the second rotating motor 22b3 and the pulley of the second rotating shaft 22b2.
  • the third arm 22c is formed in a substantially rectangular parallelepiped shape, and a base end portion thereof is attached to a distal end portion of the second arm 22b so as to be rotatable around the second rotation shaft 22b2.
  • the third arm 22c includes a frame 22c2.
  • the rear end of the frame 22c2 is fixed so as to rotate integrally with the second rotation shaft 22b2.
  • the front end portion of the frame 22c2 is fixed to the rear end of the holding portion 23.
  • the holding part 23 is fixed to the tip of the third arm 22c.
  • the holding unit 23 supports a part of the body of the person being assisted M1 (for example, the upper body, particularly the chest) and assists standing and sitting.
  • the holding part 23 is a member that supports both arms (both sides) from the lower side when facing the person being assisted M1 in the standing and sitting movements of the person being assisted, for example, toward the front. It is formed in a substantially U shape in plan view that opens.
  • the holding portion 23 is formed of, for example, a relatively soft material on the premise that the holding portion 23 contacts the person being assisted.
  • the handle 24 is fixed to the upper surface of the third arm 22c as shown in FIGS.
  • the handle 24 is composed of a pair of left and right bar-shaped handles, and is gripped by the left and right hands of the person being assisted M1.
  • the handle 24 is provided with contact sensors 24a and 24b that detect gripping.
  • the handle 24 is provided with a left turn switch 24c for turning the assistance robot 20 to the left and a right turn switch 24d for turning the assistance robot 20 to the right. Further, the handle 24 is provided with a stop switch 24e for stopping the assisting robot 20.
  • the third arm 22c receives from the person being assisted M1 when walking while the person being assisted M1 is supported by the holding unit 23 or when the person being assisted is holding the handle 24.
  • a load sensor 22c1 for detecting the force received is provided.
  • the load sensor 22c1 detects a strain amount of the strain generating body that changes due to a change in load as a voltage change, or when pressure is applied to the silicon chip, the gauge resistance changes according to the deflection and is converted into an electric signal.
  • a semiconductor pressure sensor for example, a semiconductor pressure sensor.
  • the operation device 25 includes a display unit 25a that displays an image, and an operation unit 25b that receives input operations from operators (the assistant M2 and the assistant M1).
  • the display unit 25a is configured by a liquid crystal display, and displays an operation mode selection screen of the assistance robot 20 and the like.
  • a standing motion assist mode for assisting the standing motion of the person being assisted M1 a seating motion assist mode for assisting the seating motion of the attendant M1, and the like are set.
  • each mode corresponding to the body part that the person being assisted M1 wants to train is set in the standing motion assist mode.
  • these modes include an upper body mode for training the upper body, particularly the back muscles, and a lower body mode for training the lower body, particularly the lower limbs.
  • the operation unit 25b includes a cursor key for moving the cursor up / down / left / right, a cancel key for canceling input, a determination key for determining selection, and the like, and is configured to be able to input an operator's instruction.
  • the operation device 25 includes a display function of the display unit 25a and an input function of the operation unit 25b, and may be configured by a touch panel that operates the device by pressing a display on the screen.
  • the storage device 27 passes, for example, a shoulder position that is a movement control part of the person being assisted M1 when standing the person being assisted M1 (see FIG. 9) sitting and supported by the holding part 23.
  • a shoulder position that is a movement control part of the person being assisted M1 when standing the person being assisted M1 (see FIG. 9) sitting and supported by the holding part 23.
  • the standing locus reference data indicating the standing locus and the person to be assisted M1 (see FIG. 10) standing by being supported by the holding portion 23 are seated, the locus is different from the standing locus, and the person to be assisted M1.
  • Seating locus reference data indicating a seating locus through which the shoulder position passes is stored.
  • the storage device 27 may store each standing locus data for training a plurality of different body parts of the person being assisted M1.
  • Each locus data described above is represented by two-dimensional coordinates or robot coordinates.
  • the storage device 27 corrects the correction amount (first correction amount) according to the height of the seating portion such as the chair or bed on which the person being assisted M1 is seated, and the correction amount according to the height of the person being assisted M1 ( The second correction amount) may be stored.
  • first and second correction amounts are values for correcting the above-described data.
  • the specific information acquisition device 52 acquires specific information for specifying the person being assisted M1, and in this embodiment, the terminal device 41, the receiver 31 that receives transmission data from the terminal device 41, and It is comprised.
  • the specific information is identification numbers (operator ID, care recipient ID) of the care recipient M1 and the caregiver M2.
  • the control device 26 performs control related to traveling and posture deformation of the assistance robot 20.
  • the control device 26 includes the above-described collision prevention sensors 21k and 21l, knee sensors 22a1d, load sensors 22c1, contact sensors 24a and 24b, a left turn switch 24c, a right turn switch 24d, a stop switch 24e,
  • the left and right drive wheel motors 21g and 21h, the first rotation motor 22a1c, the slide motor 22a2b, the second rotation motor 22b3, the operation device 25, the storage device 27, the imaging device 28, the guide device 29, and the transceiver 31 are connected.
  • the control device 26 includes a microcomputer (not shown), and the microcomputer includes an input / output interface, a CPU, a RAM, and a ROM (all not shown) connected via a bus.
  • the control device 26 includes a specific information acquisition unit 26a, an operation permission / rejection unit 26b, a recognition unit 26c, a caregiver information acquisition unit 26d, and a control unit 26e.
  • the specific information acquisition unit 26 a acquires the specific information acquired by the specific information acquisition device 52 from the specific information acquisition device 52.
  • the operation permission / refusal unit 26b permits the operation when the operator has the operation authority for the operation of the assistance robot 20, and prohibits the operation when the operator does not have the operation authority.
  • the recognition unit 26c recognizes the person being assisted M1 from the specific information acquired by the specific information acquisition device 52.
  • the assisted person information acquisition unit 26d acquires information regarding the assisted person M1 recognized by the recognition unit 26c from the host computer 51.
  • the control unit 26e controls the holding unit 23 by driving the robot arm unit 22 based on the information regarding the person being assisted M1 acquired by the person assisted information acquiring unit 26d.
  • the imaging device 28 is provided on each of the front surface of the slide base portion 22a1 and the back surface of the first slide portion 22a2.
  • the imaging device 28 provided on the front surface of the slide base 22a1 captures an object in front of the moving body 20.
  • the imaging device 28 provided on the back surface of the first slide portion 22a2 captures an object behind or above the moving body 20.
  • the guidance device 29 guides the state of the assistance robot 20 to the surrounding people including the person being assisted M1 and the person M2 by voice or display.
  • the guidance device 29 may be a speaker that outputs voice, or a display device such as an LCD or LED that displays characters, graphics, and the like.
  • the transceiver 31 can communicate with the transceiver of the terminal device 41 and the host computer 51.
  • the transceiver 31 receives transmission data from the terminal device 41 and the host computer 51 and transmits transmission data to the terminal device 41 and the host computer 51.
  • the terminal device 41 is for remotely operating the assistance robot 20.
  • the terminal device 41 is a terminal device that is attached to the person being assisted M1 and has an identification code associated with the person being assisted M1, and transmits an operation instruction for the assistance robot 20 and the identification code of the person being assisted M1 as transmission data. To do.
  • the terminal device 41 is a wristwatch type worn on the operator's arm and includes a main body 41a formed in a disc shape and bands 41b connected to both sides.
  • the main body 41a includes a display unit 41c, a start switch 41d, a menu switch 41e, a selection switch 41f, a transceiver 41g, a GPS receiver 41h, and a control device 41i.
  • the display unit 41c displays the operating state of the assisting robot 20 (for example, recognition, approaching, standing up, sitting, etc.), the result of the operation permission (for example, “no operation authority”), and the like.
  • the start switch 41 d is a switch for starting the assistance operation of the assistance robot 20.
  • the start switch 41d also functions as a determination switch.
  • the menu switch 41e is a switch for displaying a menu screen, which is a screen for displaying the operation mode, on the display unit 41c.
  • a standing motion assist mode for assisting the user's standing motion a seating motion assist mode for assisting the user's seat motion, a movement assist mode for assisting the user's movement, and the like are set.
  • a standing walking assistance mode a walking assistance mode with an elbow, a handed walking assistance mode, a standing boarding movement mode, and a seated boarding movement mode are set.
  • the selection switch 41f is a switch for selecting a desired menu (operation mode) from the menu screen.
  • the transceiver 41g can communicate with the transceiver 31 of the assisting robot 20 mutually.
  • the transceiver 41g may be able to communicate with the host computer 51.
  • the GPS receiver 41h receives a signal from GPS in order to derive the current position.
  • the control device 41i is connected to and controls the display unit 41c, the start switch 41d, the menu switch 41e, the selection switch 41f, the transceiver 41g, and the GPS receiver 41h.
  • the storage unit of the control device 41i stores an operator ID that is an identification number (identification code) associated with the operator.
  • the operator ID is preferably written in the storage unit of the control device 41i.
  • the host computer 51 collectively manages treatment / diagnosis information (for example, medical record information), care information (for example, rehabilitation information), identification numbers (identification codes) of the assistant M1 and the assistant M2, and the like. Yes.
  • the host computer 51 stores a database 51a as shown in FIG.
  • the database 51a includes, for example, an operator database, a medication database, a vital sign database, a care database, and the like.
  • the operator database is composed of operator information such as an operator ID, an operator name, an operator type (a person being assisted or a caregiver), presence / absence of operation authority, and operation items.
  • the medication database is composed of an operator ID (caregiver ID), medication information ID that is an identification number of medication information, medication information such as medication time and medication type.
  • the vital sign database is composed of vital sign information such as an operator ID (caregiver ID), the body temperature, blood pressure, pulse (heart rate), and respiratory rate of the care recipient.
  • the vital sign information may include a trend (change amount) of these vital signs.
  • the care database is composed of care information such as an operator ID (caregiver ID), the degree of care required of the caregiver, presence / absence (degree) of visual impairment, presence / absence (degree) of hearing impairment, and the like.
  • This database 51a is updated with the latest data. That is, after medical treatment, treatment, and rehabilitation, information related to the person being assisted M1 is transmitted to the host computer 51, and the host computer 51 updates information related to the person being assisted M1 based on the information.
  • step S102 the control device 26 determines whether or not transmission data (including an operation start signal) has been received from the terminal device 41. For example, when the operator presses the start switch 41 d of the terminal device 41, the terminal device 41 transmits the operation start signal, the operator ID, and transmission data having the current position to the assisting robot 20.
  • transmission data including an operation start signal
  • control device 26 since the control device 26 receives the transmission data from the terminal device 41, it determines “YES” in step S102 and advances the program to step S104. When there is no transmission from the terminal device 41, the control device 26 repeats the determination of “NO” in step S102.
  • the control device 26 acquires the operator ID from the transceiver 31 in step S104.
  • the control device 26 requests the host computer 51 for operator information corresponding to the previously acquired operator ID.
  • the host computer 51 transmits the corresponding operator information, that is, the operator's name, operator type (assistant person), presence / absence of operation authority, and operation items to the requested assisting robot 20.
  • the control apparatus 26 receives (acquires) the operator information applicable to the operator ID acquired previously.
  • step S108 the control device 26 determines whether or not the operator has an operation authority based on the operator information acquired in step S106. If “operation authority is present” is present, the control device 26 determines “YES” in step S108 and advances the program to step S112. On the other hand, if “no operation authority” is absent, the control device 26 determines “NO” in step S108 and advances the program to step S110.
  • step S110 the control device 26 notifies “not operable”. Specifically, the control device 26 displays “not operable” on the display unit 25 a or guides by voice from the guidance device 29. At the same time, the control device 26 transmits “not operational” to the terminal device 41. The terminal device 41 displays “not operational” on the display unit 41c. Furthermore, the control device 26 prohibits (regulates) the operation of the assisting robot 20.
  • step S112 the control device 26 determines whether the operator is a caregiver or a caregiver based on the operator information acquired in step S106. If the “operator type” is “assistant”, the control device 26 determines “YES” in step S112 and advances the program to step S114. On the other hand, if the “operator type” is “caregiver”, the control device 26 determines “NO” in step S112 and advances the program to step S116.
  • the control device 26 uses the identification number of the person assisted M1. Wait for the input of a person ID (operator ID) or name (it repeats the determination of “NO” in step S114).
  • the caregiver M2 inputs a caregiver ID (or name) at the operation unit 25b of the operation device 25, or the caregiver M2 operates the menu switch 41e and the selection switch 41f of the terminal device 41 to receive the caregiver.
  • the control device 26 determines “YES” in step S114.
  • step S116 the control device 26 recognizes the person being assisted M1 from the person being assisted ID. Thereby, the person M1 who is the assistance subject of the assistance robot 20 is specified. Therefore, the control apparatus 26 requests
  • the host computer 51 provides information on the corresponding care recipient, for example, medication information ID that is an identification number of medication information, medication information such as medication time, medication type, and vital sign information such as body temperature, blood pressure, pulse, respiratory rate, etc. Also, care information such as the degree of care required, presence / absence (degree) of visual impairment, and presence / absence (degree) of hearing impairment is transmitted to the requested assisting robot 20.
  • the control device 26 determines whether or not information on the person being assisted has been acquired in step S120.
  • the control device 26 repeats the determination of “NO” in step S120 until the information about the person being assisted is acquired. If acquired, it determines “YES” in step S120, and the program is transferred to step S122. Proceed.
  • step S122 the control device 26 controls the assistance robot 20 based on the information regarding the person who was previously obtained in step S118. For example, as shown in FIG. 1, the case where the person being assisted M1 in the first private room 13a calls the assistance robot 20 will be described. As described above, the person being assisted M1 can call the assistance robot 20 to the first private room 13a at the current position by pressing the start switch 41d of the terminal device 41.
  • the movement of the assistance robot 20 will be described.
  • the case where the assistance robot 20 moves independently from the station 11 to the individual rooms 13a to 13d (or from the individual rooms 13a to 13d to the station 11) will be described.
  • the assistance robot 20 is a route from the entrance / exit 11a of the station 11 to each of the entrances / exits 13a1 to 13d1 of the individual rooms 13a to 13d. It moves along the route stored in the storage device 27.
  • the assistance robot 20 reads the guidance mark 14a provided in the passage 14 via the imaging device 28, calculates the remaining journey from the information, and moves based on the result.
  • the guide mark 14a is, for example, a two-dimensional barcode.
  • the two-dimensional barcode includes the current point (for example, the intersection of the passage 14), the distance and direction from the current point to the destination (for example, the passage when the assisting robot 20 moves from the station 11 to the first private room 13a). Information such as the distance and direction (left turn) from the intersection to the first private room 13a when 14 intersections are reached is described.
  • the guide marks 14a are provided at the corners of the entrance / exit 11a of the station 11, the entrances / exits 13a1 to 13d1 of the individual chambers 13a to 13d, and predetermined locations of the passage 14 (for example, the corners of the intersections and the ceiling surface).
  • the assistance robot 20 enters the first private room 13a through the entrance / exit 13a1 of the first private room 13a, and then approaches the person M1 sitting on the bedside.
  • the assistance robot 20 moves forward with the front surface of the assistance robot 20 in the traveling direction.
  • the assistance robot 20 reads the guidance mark 14b provided in the vicinity of the person being assisted M1 via the imaging device 28 on the front surface (or receives it from the current position information from the terminal device 41), and based on the information. Approaches the person being assisted M1.
  • the assistance robot 20 uses a detection result of the knee sensor 22a1d (a distance between the assistance robot 20 and the knee of the person being assisted M1), and a predetermined position at which the distance from the sitting person M1 is a predetermined distance. Move up.
  • This predetermined position is an optimum position (an optimum standing position) for raising the person being assisted M1.
  • the assistance robot 20 provides guidance to the person being assisted with “hold the handle” by the guidance device 29.
  • the assistance robot 20 performs an erection operation to erect the person to be assisted M1 in order to detect that the person has grasped the handle 24 by the contact sensors 24a and 24b.
  • the assistance robot 20 is controlled based on the information about the person who was previously obtained in step S118. For example, when it is within 30 minutes after the medication, the robot arm 22 and thus the holding unit 23 are controlled at the standing motion speed corresponding to the elapsed time from the medication to the assistance, such as lowering the standing motion speed than usual. Further, the robot arm 22 may be controlled at a vital sign such as the body temperature, blood pressure, pulse rate, respiration rate, etc. of the care recipient M1 measured in advance, or at a rising motion speed corresponding to these trends (variations). Good. Note that the assist amount of the robot arm 22 and thus the holding unit 23 may be adjusted according to the elapsed time from the medication to the assistance and the vital sign. Both may be adjusted. The same applies to a seating operation described later.
  • the assistance robot 20 holds the upper body of the sitting person M1 by the holding unit 23 (see FIG. 9). Then, the assistance robot 20 raises the person being assisted M1 while holding the upper body (see FIG. 10).
  • the assistance robot 20 assists the person M1 in the standing state.
  • the person being assisted M1 walks and moves while the armpit is held by the holding unit 23.
  • the assistance robot 20 that assists the walking of the person being assisted M1 moves from the first private room 13a to the training room 12, as in the case where the assistance robot 20 moves alone as described above, It moves along the stored route, or moves by reading the guide mark 14a with the imaging device 28.
  • the assistance robot 20 blocks the entry even if the caregiver M1 attempts to enter the prohibited area. Then, it guides to the training room 12 which is the initial destination.
  • the no-entry area is one piece of information about the person being assisted.
  • the assistance robot 20 turns right at the entrance / exit 13a1 of the first private room 13a, exits the passage 14, turns right at the intersection of the passage 14, turns left at the entrance / exit 12a of the training room 12, and enters the training room 12.
  • the assistance robot 20 moves forward with the back surface of the assistance robot 20 in the traveling direction.
  • the assistance robot 20 holds the person M1 in the standing state (see FIG. 10) by holding the upper body of the person being assisted by the holding unit 23.
  • the seat is held in a held state (see FIG. 9).
  • the assistance robot 20 provides guidance to the person being assisted with “Please let go of the handle” by the guidance device 29.
  • the assistance robot 20 moves away from the person being assisted M1 in order to detect that his / her hand has been released from the handle 24 by the contact sensors 24a and 24b.
  • the assistance robot 20 is provided on the base 21 and supports the part of the body of the person being assisted M1 to assist standing and sitting, and the person being assisted M1.
  • Specific information acquisition device 52 for acquiring specific information (a person being assisted) for identifying the person, and a recognition unit (control device 26: step S116) for recognizing the person being assisted from the specific information acquired by the specific information acquisition device 52 ),
  • An acquisition unit (control device 26: Steps S118 and 120) that acquires information about the person being assisted M1 recognized by the recognition unit, and driving of the holding unit 23 based on the information about the person being assisted M1 acquired by the acquisition unit
  • a control unit control device 26: step S122) for performing control.
  • the assistance target of the assistance robot 20 can be accurately and reliably specified without making a mistake. Furthermore, prior to the assistance of the care recipient M1 by the assistance robot 20, information (medicine information, vital sign information) regarding the care recipient M1 previously identified can be acquired in advance and with certainty. In performing the assistance by the assistance robot 20, it is possible to appropriately perform the drive control of the holding unit 23 according to information (medicine information, vital sign information) regarding the person M1 acquired in advance.
  • the caregiver M1 can be assisted based on the pre-assistance information (medication information, vital sign information) regarding the caregiver M1, so that the physical condition of the caregiver M1 can be ensured better.
  • assistance of the person being assisted M1 can be performed.
  • the specific information acquisition device 52 is a terminal device that is attached to the person being assisted M1 and has an identification code (a person being assisted) associated with the person being assisted M1.
  • a terminal device 41 that transmits the identification code (subject ID) of the person M1 as transmission data, and a receiver 31 that receives the transmission data from the terminal device 41, and a recognition unit (control device 26: step S116). ) Recognizes the person being assisted M1 from the identification code (the person being assisted ID) of the person being assisted M1 in the transmission data received by the receiver 31.
  • the assistant robot 20 is attached to the person being assisted, and the assistance robot 20 receives the identification code (assistant person ID) of the person being assisted from the terminal apparatus 41, so that the person assisted by the assistance robot 20 is the person to be assisted M1.
  • the identification code essential person ID
  • the specific information acquisition device 52 is a terminal device that is attached to the assistant M2 who assists the person being assisted M1 and has an identification code associated with the assistant M2, and includes an operation instruction for the assistant robot 20, and the assistant M2.
  • a terminal device 41 that transmits the identification code (operator ID: assistant ID) and the identification code of the person being assisted (subject ID), and a receiver 31 that receives the transmission data from the terminal device 41.
  • the recognizing unit (control device 26: step S116) recognizes the person being assisted M1 from the identification code (the person being assisted) of the assisted person M1 in the transmission data received by the receiver 31.
  • the operator when the operator is the assistant M2, the operator receives the identification code (operator ID: assistant ID) of the assistant M2 from the terminal device 41 attached to the assistant M2, and the operator receives the assistant M2.
  • the assistance robot 20 can specify the assistance subject M1 as an assistance target by inputting the identification code (assistant person ID) of the assistance person M1 by the assistance person M2. . That is, even if the operator is the assistant M2, the assistant M1 who is assisted by the assistant robot 20 can be reliably identified with a simple configuration.
  • control device 26 steps S108, 110, 122 that prohibits the operation is further provided.
  • the assisting robot 20 permits (restricts the operation content) the operation requested by the operator based on the authority (contents of authority) of the identified operator. be able to. Therefore, for example, when the person being assisted M1 suffers from dementia, the operation authority is set to “none”, thereby suppressing erroneous operation by the person assisted by M2 suffering from dementia, and the person M2 who is assisted. Proper assistance can be provided.
  • the operation content may be limited. For example, depending on the degree of dementia, calling the assistance robot 20 from a remote location is prohibited.
  • control unit (control device 26: step S122) is used when assisting the standing and sitting of the person being assisted M1 based on the information regarding the person assisted by M1 acquired by the acquisition unit (control device 26: step S118). At least one of the speed of the holding unit 23 and the assist amount is adjusted.
  • the assistance robot 20 specifies the person being assisted M1, and then includes information about the person being assisted (eg, physical condition information (vital sign information) and medication information of the person being assisted before assistance by the assistance robot). Appropriate assistance can be provided accordingly.
  • information about the person being assisted eg, physical condition information (vital sign information) and medication information of the person being assisted before assistance by the assistance robot.
  • Appropriate assistance can be provided accordingly.
  • the assistance robot 20 further includes a driving unit AC for driving the base 21. Thereby, the assistance robot 20 can appropriately assist the walking when assisting the walking of the person being assisted M1.
  • control unit assists the movement of the care recipient M1 based on the information related to the person M1 acquired by the acquisition unit (control device 26: step S118).
  • the traveling drive unit AC is controlled to adjust the traveling speed of the base 21.
  • the assistance robot 20 specifies the person being assisted M1, and then includes information about the person being assisted (eg, physical condition information (vital sign information) and medication information of the person being assisted before assistance by the assistance robot). Appropriate walking assistance can be performed accordingly.
  • information about the person being assisted eg, physical condition information (vital sign information) and medication information of the person being assisted before assistance by the assistance robot. Appropriate walking assistance can be performed accordingly.
  • the person being assisted M1 when the person being assisted M1 is a visually handicapped person, guidance is given by voice from the display, and when the person being assisted M1 is a person with hearing impairment, voice guidance is given. It is preferable to provide guidance by display. Whether it is a visually handicapped person or a hearing handicapped person may be acquired from the care information related to the care database.
  • the received data from the terminal device 41 is once received by the assisting robot 20.
  • the received data is directly received from the terminal device 41 by the host computer 51, and then The information regarding the person being assisted and the information regarding the person being assisted may be transmitted to the assistance robot 20 together.
  • the specific information acquisition device 53 is different from the above-described embodiment in that the specific information acquisition device 53 is a physical feature acquisition device that acquires a physical feature of the person being assisted M1.
  • the physical feature acquisition device is a device that reads fingerprints, voiceprints, retina and palm vein patterns, which are physical features. This physical feature is the identification information of the person being assisted.
  • the specific information acquisition device 53 may be provided in the operation device 25 of the assistance robot 20 or may be provided in the terminal device 41.
  • This embodiment is basically the same as the flowchart shown in FIG. 13, but different points will be described with reference to FIG. 15, the same contents are denoted by the same reference numerals, and description thereof will be omitted.
  • the control device 26 determines whether or not a physical feature has been acquired from the specific information acquisition device 53 in step S202. For example, when the operator operates the operation device 25, when the specific information acquisition device 53 causes a physical feature such as a fingerprint to be read, the specific information acquisition device 53 acquires physical feature data.
  • control device 26 determines “YES” in step S102 and advances the program to step S204. If not acquired, the control device 26 repeats the determination of “NO” in step S202.
  • step S204 the control device 26 acquires an operator ID from the acquired physical feature data.
  • the control device 26 may transmit the acquired physical feature data to the host computer 51 and receive the operator ID obtained by the host computer 51 by collating with the physical feature database.
  • step S106 the control device 26 requests the host computer 51 for operator information corresponding to the previously acquired operator ID.
  • the specific information acquisition device 53 is a physical feature acquisition device that acquires the physical feature of the person being assisted M1
  • the recognition unit (control device 26: step S116) is the physical feature acquisition device.
  • the person being assisted is recognized from the physical characteristics acquired by the user.
  • the assistance robot 20 can identify the person to be assisted M1 as the assistance object from the physical characteristics of the person to be assisted M1 acquired by the physical characteristic acquisition device 53. That is, with a simple configuration, the person being assisted M1 assisted by the assistance robot 20 can be reliably identified.
  • step S102 step S202
  • step S118 may be performed by the host computer 51.

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Rehabilitation Therapy (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Nursing (AREA)
  • Invalid Beds And Related Equipment (AREA)
  • Rehabilitation Tools (AREA)
  • Manipulator (AREA)

Abstract

 被介助者の体調をより良好に確保しながら被介助者の介助を行うことができる介助ロボットを提供する。 介助ロボットは、基台に設けられて、被介助者の体の一部を支えて起立および着座を補助する保持部と、被介助者を特定するための特定情報を取得する特定情報取得装置と、を備え、特定情報取得装置によって取得した特定情報から被介助者を認識し(認識部:ステップS116)、認識部によって認識した被介助者に関する情報を取得し(取得部:ステップS118)と、取得部によって取得した被介助者に関する情報に基づいて保持部の駆動制御を行う(制御部:ステップS122)。

Description

介助ロボット
 本発明は、被介助者を補助する介助ロボットに関する。
 介助ロボットの一形式として、特許文献1に示されているものが知られている。特許文献1の図1,3に示されているように、介助ロボットは、アーム部(2)に設けられた保持具(3)により保持された被介助者の乗り移り動作を支援する移乗支援装置(10)であり、かつ、被介助者の不安感に連動する身体的変化を検出して被介助者の不安度を測定する不安測定手段と、操作部(25)による入力指示に応じて駆動手段(61-65)を駆動制御するとともに不安測定手段にて測定された不安度を抑制するようにフィードバック制御を行う制御部(17)と、を備えている。
 不安測定手段は、被介助者の不安感に連動する身体的変化として、不安感の高まりとともに多くなる心拍数、発汗量、呼吸数、眼球運動、皮膚電気抵抗、および、皮膚温度のうち少なくとも一つ以上を測定するものである。この不安測定手段は、被介助者の心拍数を測定する心拍センサ(40、41)、被介助者の発汗量を測定する発汗センサ(42)、呼吸数に連動する被介助者の微振動を検出する圧力センサ(43)、被介助者の眼球運動を撮像するカメラ(44)、被介助者の皮膚電気抵抗を検出する電流センサ(45)、および、被介助者の皮膚温度を測定する温度センサ(46)、のうちの少なくとも一つ以上を備えている。
特許第4692642号公報
 上述した特許文献1に記載されている介助ロボットにおいては、保持具(3)によって保持され移乗されている被介助者(被介護者)の身体的変化である心拍数などが心拍センサ(40,41)などによって直接的に測定されている。よって、保持移乗中の被介助者の体調を直接的かつリアルタイムに監視することは可能であり、ひいては、その体調に応じてアーム部(2)の速度などを適切に調整することは可能である。しかし、移乗(補助)する前から被介助者の体調がよくない場合、または、移乗する前は体調が悪くないが実は移乗することによって体調が悪くなる状態である場合などがある。これらの場合に、被介助者を移乗させるのは適切ではなく、また、移乗させる場合には被介助者の体調が悪化しないような適切な介助が必要である。
 本発明は、上述した問題を解消するためになされたもので、被介助者の体調をより良好に確保しながら被介助者の介助を行うことができる介助ロボットを提供することを目的とする。
 上記の課題を解決するため、本発明に係る介助ロボットは、基台に設けられて、被介助者の体の一部を支えて起立および着座を補助する保持部と、被介助者を特定するための特定情報を取得する特定情報取得装置と、特定情報取得装置によって取得した特定情報から被介助者を認識する認識部と、認識部によって認識した被介助者に関する情報を取得する取得部と、取得部によって取得した被介助者に関する情報に基づいて保持部の駆動制御を行う制御部と、を備えたことを特徴とする。
本発明による介助ロボットの一実施形態についてその介助ロボットが配置されている介護センタの概要を示す概要図である。 介助ロボット、端末装置およびホストコンピュータとの関係を示す図である。 図1に示す介助ロボットを示す右側面図である。 図1に示す介助ロボットを示す平面図である。 図1に示す伸張状態にある介助ロボットの内部構造の概要を示す右側面図である。 図5aに示す第1スライド部を含む周辺を示す正面図である。 図1に示す収縮状態にある介助ロボットの内部構造の概要を示す右側面図である。 図6aに示す6b-6b線に沿った端面図である。 図6aに示す第1スライド部を含む周辺を示す正面図である。 図1に示す介助ロボットを示すブロック図である。 図7に示す制御装置を示すブロック図である。 介助ロボットが着座している被介助者を支えている様子を示す側面図である。 介助ロボットが起立している被介助者を支えている様子を示す側面図である。 端末装置を示す上面図である。 上から順番に操作者データベース、投薬データベース、バイタルサインデータベースおよび介護データベースを示す図である。 図7に示す制御装置で実施される介助ロボットの動作のフローチャートである。 他の実施形態に係る、図7に示す制御装置を示すブロック図である。 他の実施形態に係る、図7に示す制御装置で実施される介助ロボットの動作のフローチャートである。
 以下、本発明による介助ロボットの一実施形態について説明する。図1はこの介助ロボット20が配置されている介護センタ10の概要を示す概要図である。この介護センタ10は、ステーション11、トレーニング室12、各個室13a~13dが設けられている。介護センタ10は、人が居住する居住区域である。介護センタ10内に存在する人は、介助を必要とする被介助者M1や被介助者M1を介助する介助者M2である。
 図1に示すように、ステーション11は、介助者M2の詰め所であり、介助ロボット20が待機したり、充電されたりする基地である。トレーニング室12は、被介助者M1がトレーニングやリハビリテーションを行う部屋である。各個室13a~13dは、被介助者M1が居住する部屋である。ステーション11、トレーニング室12、および各個室13a~13dは、入出口11a,12a,13a1~13d1がそれぞれ設けられており、入出口11a,12a,13a1~13d1は通路14を介して接続されている。
 ステーション11内には、介助ロボット20と互いに無線で通信可能なホストコンピュータ51が備えられている。ホストコンピュータ51は、被介助者M1に対する治療・診断情報(例えばカルテ情報)、介護情報(例えばリハビリ情報)、被介助者M1および介助者M2の識別番号(識別符号)を一括して管理している。
 介助ロボット20は、人が居住する居住区域内の移動が許可されかつ居住区域内を駆動源である左右駆動輪用モータ21g,21hによる駆動によって移動するものである。なお、図1において、介助ロボット20の近傍の矢印は、介助ロボット20の進行方向を示している。
 介助ロボット20は、図2に示すように、操作者である被介助者M1(または介助者M2)に装着されている端末装置41と互いに通信可能であるとともに、ホストコンピュータ51と互いに通信可能である。なお、介助ロボット20は、ホストコンピュータ51経由で端末装置41と互いに通信可能となるようにしてもよい。
 介助ロボット20は、被介助者M1の体の一部(例えば、上半身特に胸部)を支えて起立および着座を補助するための介助ロボットである。この介助ロボット20は、図3および図4に示すように、基台21、ロボットアーム部22、保持部23、ハンドル24、操作装置25、および制御装置26を含んで構成されている。
 基台21は、左右基部21a,21bと左右脚部21c,21dを備えている。左右基部21a,21bは、左右方向に所定距離を置いて配設されており、左右基部21a,21bには、図4に示すように、左右駆動輪21e、21fがそれぞれ設けられるとともに、左右駆動輪21e、21fをそれぞれ駆動する左右駆動輪用モータ21g,21hが内蔵されている。介助ロボット20は、左右駆動輪用モータ21g,21hによりそれぞれ駆動する左右駆動輪21e、21fによって走行する。
 なお、左右駆動輪21e,21fおよび左右駆動輪用モータ21g,21hから走行用駆動部ACが構成されている。また、基台21に設けた前記駆動源を省略して構成して、被介助者M1により押されて移動するようにしてもよい。
 左右脚部21c,21dは、左右基部21a,21bから前方方向(図3,4において左方向)に水平に延設されている。左右脚部21c,21dの先端部には、左右従動輪21i,21jがそれぞれ設けられている。また、左右脚部21c,21dの先端には、一対の衝突防止センサ21k、21lがそれぞれ設けられている。衝突防止センサ21k、21lは、障害物を検知するセンサであり、その検出信号は制御装置26に送信されるようになっている。
 ロボットアーム部22は、基台21にその基部が取り付けられており、主として図5a、図6aに示すように、第1および第2回転用モータ22a1c,22b3およびスライド用モータ22a2bを含んで構成される駆動部によって互いに相対移動が可能である複数のアーム22a,22b,22cを備えている。なお、ロボットアーム部22は、複数の軸から構成するようにしてもよい。この場合の軸は回転軸およびスライド軸の少なくともいずれかを含めばよい。
 図5a,5bおよび図6a~6cに示すように、第1アーム22aは、その基部が基台21に取りつけられている。第1アーム22aは、スライド基部22a1、第1スライド部22a2および第2スライド部22a3を備えている。
 スライド基部22a1は、図3,4に示すように、ほぼ直方体状に形成されている。スライド基部22a1は、主として図5aに示すように、その基端部が基台21に第1回転軸22a1a回りに回転可能に取り付けられているフレーム22a1bを備えている。このフレーム22a1bは、ほぼ断面U字状に形成されており、主として図6bに示すように、曲げて形成された左右板状部材22a1b1、22a1b2と左右板状部材22a1b1、22a1b2の上部後端に左右両端が接続された後板状部材22a1b3とから構成されている。
 第1回転用モータ22a1cは、図5aに示すように、基台21に設けられている。第1駆動ベルト22a1dは、この第1回転用モータ22a1cのプーリと第1回転軸22a1aのプーリとの間に装架されている。第1回転用モータ22a1cが駆動すると、フレーム22a1bすなわちスライド基部22a1が第1回転軸22a1a回りに前方向または後方向に回転する。
 図6bに示すように、フレーム22a1bの内側(左右板状部材22a1b1、22a1b2の内側)には、後述する第1スライド部22a2のフレーム22a2aの後板状部材22a2a2の左右端に摺動可能に係合する左右ガイド溝22a1eが形成されている。フレーム22a1bの左板状部材22a1b1の上部には、後述するスライド用ベルト22a2eに取り付けられて固定される固定部22a1fが設けられている(図5b、図6c参照)。
 第1スライド部22a2は、図3,4に示すように、ほぼ直方体状に形成されており、スライド基部22a1より小さく構成されている。第1スライド部22a2は、スライド基部22a1に対して長手方向(軸動方向)にスライドするものであり、収縮した際にはスライド基部22a1内にほぼ収容されるように構成されている。
 具体的には、第1スライド部22a2は、フレーム22a2aを備えている(図5a参照)。このフレーム22a2aは、図6bに示すように、断面H字状かつ側面視H字状に形成されており、前後板状部材22a2a1、22a2a2と前後板状部材22a2a1、22a2a2の上下方向中央部に前後両端が接続された接続板状部材22a2a3とから構成されている。後板状部材22a2a2の左右両端は、フレーム22a1bの左右ガイド溝22a1eに摺動可能に係合されている。主として図5aに示すように、後板状部材22a2a2の上部には、スライド用モータ22a2bが設けられている。後板状部材22a2a2の下部には、プーリ22a2cが回転可能に設けられている。このスライド用モータ22a2bのプーリ22a2dとプーリ22a2cとの間には、スライド用ベルト22a2eが装架されている。
 フレーム22a2aの前板状部材22a2a1の左右両端部には、図6bに示すように、ガイドレール22a2fが設けられている。ガイドレール22a2fは、後述する第2スライド部22a3のフレーム22a3aの左右板状部材の内側の左右ガイド受け部22a3bに摺動可能に係合する。
 第2スライド部22a3は、図3,4に示すように、ほぼ直方体状に形成されており、第1スライド部22a2より小さく構成されている。第2スライド部22a3は、第1スライド部22a2に対して長手方向(軸動方向)にスライドするものであり、収縮した際には第1スライド部22a2内にほぼ収容されるように構成されている。
 具体的には、第2スライド部22a3は、フレーム22a3aを備えている(図5a参照)。このフレーム22a3aは、図6bに示すように、ほぼ断面U字状に形成されており、左右板状部材22a3a1、22a3a2と左右板状部材22a3a1、22a3a2の前端部に左右両端が接続された前板状部材22a3a3とから構成されている。フレーム22a3aの内側(左右板状部材22a3a1、22a3a2の内壁面)には、フレーム22a2aのガイドレール22a2fに摺動可能に係合する左右ガイド受け部22a3bが設けられている。フレーム22a3aの右板状部材22a3a2の下部には、スライド用ベルト22a2eに取り付けられて固定される固定部22a3cが設けられている(図5b、図6c参照)。
 スライド用モータ22a2bが駆動すると、第1スライド部22a2のフレーム22a2aは、スライド基部22a1のフレーム22a1bに対して軸動方向に沿って伸張する(図5aおよび5bに示す伸張状態)。これと同時に、第2スライド部22a3のフレーム22a3aは第1スライド部22a2のフレーム22a2aに対して伸張する(図5aおよび5bに示す伸張状態)。
 一方、スライド用モータ22a2bが逆方向に駆動すると、第1スライド部22a2のフレーム22a2aは、スライド基部22a1のフレーム22a1bに対して軸動方向に沿って収縮する(図6aおよび図6cに示す収縮状態)。これと同時に、第2スライド部22a3のフレーム22a3aは第1スライド部22a2のフレーム22a2aに対して収縮する(図6aおよび図6cに示す収縮状態)。
 第2アーム22bは、図3,4に示すように、ほぼ直方体状に形成されており、第2スライド部22a3の先端部に、長手方向に対して直交する方向(前方向)に延ばして形成されている。具体的には、主として図5aに示すように、第2アーム22bは、左右板状部材22b1a、22b1bから構成されているフレーム22b1を備えている。フレーム22b1の左右板状部材22b1a、22b1bの後端部が、フレーム22a3aの左右板状部材22a3a1、22a3a2の上端部にそれぞれ接続固定されている。
 フレーム22b1の左右板状部材22b1a、22b1bの先端部には、第2回転軸22b2が回動可能に介装されている。左右板状部材22b1a、22b1bの中央部には、第2回転用モータ22b3が設けられている。第2回動ベルト22b4は、第2回転用モータ22b3のプーリと第2回転軸22b2のプーリとの間に装架されている。
 第3アーム22cは、ほぼ直方体状に形成されており、その基端部が第2アーム22bの先端部に第2回転軸22b2回りに回転可能に取り付けられている。具体的には、第3アーム22cは、フレーム22c2を備えている。フレーム22c2の後端部は、第2回転軸22b2と一体回転するように固定されている。フレーム22c2の前端部は、保持部23の後端に固定されている。
 第2回転用モータ22b3が駆動すると、フレーム22c2すなわち第3アーム22cが第2回転軸22b2回りに上方向または下方向に回転する。
 保持部23は、第3アーム22cの先端に固定されている。この保持部23は、被介助者M1の体の一部(例えば、上半身特に胸部)を支えて起立および着座を補助するものである。保持部23は、例えば、被介助者M1の起立動作及び着座動作において被介助者M1に対して対向したときに、その両腕(両脇)を下側から支える部材であり、前方向に向けて開放する平面視略U字形状に形成されている。保持部23は、例えば、被介助者M1に接することを前提とした比較的柔らかい材質で形成されている。
 ハンドル24は、図3,4に示すように、第3アーム22cの上面に固定されている。このハンドル24は、左右一対の棒状取っ手で構成されており、被介助者M1の左右の手でそれぞれ握られるようになっている。ハンドル24には、握っていることを検知する接触センサ24a,24bが設けられている。ハンドル24には、介助ロボット20を左旋回させるための左旋回スイッチ24cと介助ロボット20を右旋回させるための右旋回スイッチ24dが設けられている。さらにハンドル24には、介助ロボット20を停止させるための停止スイッチ24eが設けられている。
 また、第3アーム22cには、被介助者M1が保持部23により支持されている状態で歩行する場合や被介助者M1がハンドル24を握った状態で歩行する場合に、被介助者M1から受ける力を検知する荷重センサ22c1が設けられている。荷重センサ22c1は、荷重の変化によって変化する起歪体の歪み量を電圧変化として検出するものや、シリコンチップに圧力が加わると、そのたわみに応じ、ゲージ抵抗が変化し電気信号に変換される半導体式圧力センサなどである。
 操作装置25は、画像を表示する表示部25aと、操作者(介助者M2および被介助者M1である)からの入力操作を受け付ける操作部25bとを備えている。
 表示部25aは、液晶ディスプレイで構成されており、介助ロボット20の作動モードの選択画面などを表示する。作動モードとしては、被介助者M1の起立動作を補助する起立動作補助モードや、被介助者M1の着座動作を補助する着座動作補助モードなどが設定されている。また、起立動作補助モードには、被介助者M1がトレーニングしたい身体部位に対応した各モードが設定されている。例えば、これらモードとしては、上半身特に背筋をトレーニングしたい上半身モードや、下半身特に下肢をトレーニングしたい下半身モードがある。
 操作部25bは、カーソルを上下左右に移動させるカーソルキー、入力をキャンセルするキャンセルキー,選択内容を決定する決定キーなどを備えており、操作者の指示をキー入力できるように構成されている。なお、操作装置25は、表示部25aの表示機能と操作部25bの入力機能とを備えており、画面上の表示を押すことで機器を操作するタッチパネルで構成するようにしてもよい。
 記憶装置27(記憶部)は、保持部23に支えられて着座している被介助者M1(図9参照)を起立させる場合において、被介助者M1の移動制御部位である例えば肩位置が通過する起立軌跡を示す起立軌跡用基準データと、保持部23に支えられて起立している被介助者M1(図10参照)を着座させる場合において、起立軌跡と異なる軌跡であって被介助者M1の肩位置が通過する着座軌跡を示す着座軌跡用基準データと、を記憶している。
 また、記憶装置27は、被介助者M1の異なる複数の身体部位をそれぞれトレーニングするための各起立軌跡用データを記憶するようにしてもよい。なお、上述した各軌跡用データは、二次元座標や、ロボット座標で表わされている。
 さらに、記憶装置27は、被介助者M1が着座する椅子やベッドなどの着座部の高さに応じた補正量(第1の補正量)や、被介助者M1の身長に応じた補正量(第2の補正量)を記憶するようにしてもよい。これらの第1および第2の補正量は、上述した各データを補正するための値である。
 特定情報取得装置52は、被介助者M1を特定するための特定情報を取得するものであり、本実施形態では、端末装置41と、端末装置41からの送信データを受信する受信機31と、を有して構成されている。特定情報は、被介助者M1および介助者M2の識別番号(操作者ID、被介助者ID)である。
 制御装置26は、介助ロボット20の走行や姿勢変形に関する制御を行う。制御装置26は、図7に示すように、上述した衝突防止センサ21k,21l、膝センサ22a1d、荷重センサ22c1、接触センサ24a,24b、左旋回スイッチ24c、右旋回スイッチ24d、停止スイッチ24e、左右駆動輪用モータ21g,21h、第1回転用モータ22a1c、スライド用モータ22a2b、第2回転用モータ22b3、操作装置25、記憶装置27、撮像装置28、案内装置29および送受信機31が接続されている。また、制御装置26はマイクロコンピュータ(図示省略)を有しており、マイクロコンピュータは、バスを介してそれぞれ接続された入出力インターフェース、CPU、RAMおよびROM(いずれも図示省略)を備えている。
 制御装置26は、図8に示すように、特定情報取得部26a、操作許否部26b、認識部26c、被介助者情報取得部26dおよび制御部26eを備えている。特定情報取得部26aは、特定情報取得装置52が取得した特定情報を特定情報取得装置52から取得する。操作許否部26bは、操作者が介助ロボット20の操作に対する操作権限を有する場合には、その操作を許可し、操作権限を有さない場合には、その操作を禁止する。認識部26cは、特定情報取得装置52によって取得した特定情報から被介助者M1を認識する。被介助者情報取得部26dは、認識部26cによって認識した被介助者M1に関する情報を、ホストコンピュータ51から取得する。制御部26eは、被介助者情報取得部26dによって取得した被介助者M1に関する情報に基づいてロボットアーム部22を駆動させて保持部23の駆動制御を行う。
 撮像装置28は、スライド基部22a1の前面および第1スライド部22a2の背面にそれぞれ設けられている。スライド基部22a1の前面に設けられた撮像装置28は、移動体20の前方にある対象を撮影する。第1スライド部22a2の背面に設けられた撮像装置28は、移動体20の後方または上方にある対象を撮影する。
 案内装置29は、被介助者M1、介助者M2を含む周囲にいる人に対して介助ロボット20の状態を音声や表示により案内するものである。案内装置29は、音声を出力するスピーカでもよく、文字、図形等を表示するLCDやLEDなどの表示装置でもよい。
 送受信機31は、端末装置41およびホストコンピュータ51の送受信機と互いに通信可能なものである。送受信機31は、端末装置41およびホストコンピュータ51からの送信データを受信するとともに、端末装置41およびホストコンピュータ51への送信データを送信する。
 端末装置41は、介助ロボット20を遠隔操作するためのものである。端末装置41は、被介助者M1に装着されて該被介助者M1と関連付けられた識別符号を有する端末装置であって介助ロボット20に対する操作指示および被介助者M1の識別符号を送信データとして送信する。
 端末装置41は、図11に示すように、操作者の腕に装着される腕時計型であり、円盤状に形成された本体41a、および両側に接続されたバンド41bを備えている。本体41aは、表示部41c、スタートスイッチ41d、メニュースイッチ41e、選択スイッチ41f、送受信機41g、GPS受信機41h、および制御装置41iを備えている。
 表示部41cは、介助ロボット20の作動状態(例えば認識中、接近中、起立中、着座中など)、操作許否の結果(例えば、「操作権限がありません」)などを表示する。スタートスイッチ41dは、介助ロボット20の介助操作を開始するためのスイッチである。スタートスイッチ41dは、決定スイッチとしても機能する。
 メニュースイッチ41eは、作動モードを表示する画面であるメニュー画面を表示部41cに表示するためのスイッチである。作動モードとしては、使用者の起立動作を補助する起立動作補助モードや、使用者の着座動作を補助する着座動作補助モードや、使用者の移動を補助する移動補助モードなどが設定されている。移動補助モードとしては、起立歩行補助モード、肘つき歩行補助モード、手つき歩行補助モード、起立搭乗移動モードおよび着座搭乗移動モードが設定されている。選択スイッチ41fは、メニュー画面のなかから所望のメニュー(作動モード)を選択するためのスイッチである。
 送受信機41gは、介助ロボット20の送受信機31と互いに通信可能なものである。送受信機41gは、ホストコンピュータ51と互いに通信可能としてもよい。GPS受信機41hは、現在位置を導出するためGPSからの信号を受信する。制御装置41iは、表示部41c、スタートスイッチ41d、メニュースイッチ41e、選択スイッチ41f、送受信機41g、およびGPS受信機41hと接続されており、これらを制御している。
 制御装置41iの記憶部は、操作者と関連付けられた識別番号(識別符号)である操作者IDを記憶している。なお、端末装置41を新しい操作者に装着する際に、その操作者IDが制御装置41iの記憶部に書き込まれることが好ましい。
 ホストコンピュータ51は、被介助者M1に対する治療・診断情報(例えばカルテ情報)、介護情報(例えばリハビリ情報)、被介助者M1および介助者M2の識別番号(識別符号)を一括して管理している。ホストコンピュータ51は、図12に示すようなデータベース51aを記憶している。データベース51aは、例えば、操作者データベース、投薬データベース、バイタルサインデータベース、介護データベースなどを有している。
 操作者データベースは、操作者ID、操作者の氏名、操作者種別(被介助者または介助者)、操作権限の有無、操作事項などの操作者情報から構成されている。投薬データベースは、操作者ID(被介助者ID)、投薬情報の識別番号である投薬情報ID、投薬時間、薬種別などの投薬情報から構成されている。バイタルサインデータベースは、操作者ID(被介助者ID)、被介助者の体温、血圧、脈拍(心拍数)、呼吸数などのバイタルサイン情報から構成されている。なお、バイタルサイン情報は、これらバイタルサインのトレンド(変化量)を含めるようにしてもよい。介護データベースは、操作者ID(被介助者ID)、被介助者の要介護度、視覚障害の有無(程度)、聴覚障害の有無(程度)などの介護情報から構成されている。
 このデータベース51aは、最新のデータに更新されている。すなわち、診療、治療、リハビリ後には、それらに係る被介助者M1に関する情報がホストコンピュータ51に送信され、ホストコンピュータ51は、それらの情報に基づいて被介助者M1に関する情報を更新する。
 次に、上述したように構成された介助ロボット20の作動の一例について、図13に示すフローチャートに沿って説明する。
 制御装置26は、ステップS102において、端末装置41から送信データ(操作開始信号を含む)を受信したか否かを判定する。例えば、操作者が端末装置41のスタートスイッチ41dを押した場合、端末装置41は、操作開始信号、操作者IDおよび現在位置を有する送信データを介助ロボット20に送信する。
 このとき、制御装置26は、端末装置41からの送信データを受信するので、ステップS102にて「YES」と判定しプログラムをステップS104に進める。なお、端末装置41からの送信がない場合には、制御装置26は、ステップS102にて「NO」と判定を繰り返す。
 制御装置26は、ステップS104において、送受信機31から操作者IDを取得する。そして、制御装置26は、ステップS106において、先に取得した操作者IDに該当する操作者情報をホストコンピュータ51に要求する。ホストコンピュータ51は、該当する操作者情報、すなわち、操作者の氏名、操作者種別(被介助者)、操作権限の有無、操作事項を要求のあった介助ロボット20に送信する。そして、制御装置26は、先に取得した操作者IDに該当する操作者情報を受信(取得)する。
 制御装置26は、ステップS108において、ステップS106にて取得した操作者情報に基づいて操作者が操作権限を有するか否かを判定する。「操作権限の有無」が有りであれば、制御装置26は、ステップS108にて「YES」と判定しプログラムをステップS112に進める。一方、「操作権限の有無」が無しであれば、制御装置26は、ステップS108にて「NO」と判定しプログラムをステップS110に進める。
 ステップS110において、制御装置26は、「操作できない旨」を通知する。具体的には、制御装置26は、「操作できない旨」を表示部25aに表示したり、案内装置29から音声で案内したりする。これとともに制御装置26は、「操作できない旨」を端末装置41に送信する。端末装置41は、「操作できない旨」を表示部41cに表示する。さらに、制御装置26は、介助ロボット20の操作を禁止(規制)する。
 制御装置26は、ステップS112において、ステップS106にて取得した操作者情報に基づいて操作者が介助者であるか被介助者であるかを判定する。「操作者種別」が「介助者」であれば、制御装置26は、ステップS112にて「YES」と判定しプログラムをステップS114に進める。一方、「操作者種別」が「被介助者」であれば、制御装置26は、ステップS112にて「NO」と判定しプログラムをステップS116に進める。
 操作者が介助者M2である場合には、取得した操作者IDからでは介助ロボット20の介助対象すなわち被介助者が具体的に把握できないため、制御装置26は、被介助者M1の識別番号である被介助者ID(操作者ID)または氏名が入力されるのを待つ(ステップS114にて「NO」の判定を繰り返す)。介助者M2が操作装置25の操作部25bにて被介助者ID(または氏名)を入力するか、または、介助者M2が端末装置41のメニュースイッチ41eおよび選択スイッチ41fを操作して被介助者IDを入力すると、制御装置26は、ステップS114にて「YES」と判定する。
 制御装置26は、ステップS116において、被介助者IDから被介助者M1を認識する。これにより、介助ロボット20の介助対象である被介助者M1が特定される。よって、制御装置26は、ステップS118において、先に特定された被介助者IDに該当する被介助者に関する情報をホストコンピュータ51に要求する。ホストコンピュータ51は、該当する被介助者に関する情報、例えば、投薬情報の識別番号である投薬情報ID、投薬時間、薬種別などの投薬情報や、体温、血圧、脈拍、呼吸数などのバイタルサイン情報や、要介護度、視覚障害の有無(程度)、聴覚障害の有無(程度)などの介護情報を要求のあった介助ロボット20に送信する。
 制御装置26は、ステップS120において、被介助者に関する情報を取得した否かを判定する。制御装置26は、被介助者に関する情報を取得するまでは、ステップS120にて「NO」の判定を繰り返し、取得した場合には、ステップS120にて「YES」と判定し、プログラムをステップS122に進める。
 制御装置26は、ステップS122において、先にステップS118にて取得した被介助者に関する情報に基づいて介助ロボット20を制御する。例えば、図1に示すように、第1個室13aに居る被介助者M1が介助ロボット20を呼ぶ場合について説明する。上述したように、被介助者M1は端末装置41のスタートスイッチ41dを押すことで、介助ロボット20を現在位置である第1個室13aに呼ぶことができる。
 最初に、介助ロボット20の移動について説明する。介助ロボット20が、ステーション11から各個室13a~13dまで(または各個室13a~13dからステーション11まで)単独で移動する場合について説明する。ステーション11から各個室13a~13dまでの通路14を移動する場合には、介助ロボット20は、ステーション11の入出口11aから各個室13a~13dの各入出口13a1~13d1までの経路であって予め記憶装置27に記憶されている経路に沿って移動する。
 また、介助ロボット20は、通路14に設けられている案内用マーク14aを撮像装置28を介して読み取り、その情報から残りの道程を算出しその結果に基づいて移動する。案内用マーク14aは、例えば二次元バーコードである。二次元バーコードには、現在地点(例えば、通路14の交差点)、現在地点から目的地までの距離と方向(例えば、介助ロボット20がステーション11から第1個室13aに移動する場合には、通路14の交差点に差し掛かった際に交差点から第1個室13aまでの距離と方向(左折))などの情報が記載されている。案内用マーク14aは、ステーション11の入出口11a、各個室13a~13dの各入出口13a1~13d1の角や、通路14の所定箇所(例えば、交差点の角や天井面)に設けられている。
 次に、介助ロボット20が着座している被介助者M1に接近している場合について説明する。このとき、介助ロボット20は、第1個室13aの入出口13a1から第1個室13aに入室し、その後、ベッド脇に着座している被介助者M1に向けて接近する。介助ロボット20は、介助ロボット20の前面を進行方向に向けて前進する。介助ロボット20は、被介助者M1の近傍に設けられている案内用マーク14bを前面の撮像装置28を介して読み取り(または端末装置41からの現在位置情報から受信し)、その情報に基づいて被介助者M1に接近する。
 さらに、介助ロボット20の起立動作と着座動作について図9,図10を参照して説明する。介助ロボット20は、膝センサ22a1dの検出結果(介助ロボット20と被介助者M1の膝との距離)を使用して、着座している被介助者M1との距離が所定距離となる所定の位置まで移動する。この所定の位置は、被介助者M1を起立させるために最適な位置(起立最適位置)である。
 そして、介助ロボット20は、被介助者M1に対して「ハンドルを握ってください」という案内を案内装置29により行う。被介助者M1が両手でハンドル24を握ると、接触センサ24a,24bによってハンドル24を握ったことを検知するため、介助ロボット20は、被介助者M1を起立させるための起立動作を行う。
 起立動作中においては、先にステップS118にて取得した被介助者に関する情報に基づいて介助ロボット20を制御する。例えば、投薬後30分以内である場合、起立動作速度を通常時より遅くするなど、投薬後から介助までの経過時間に応じた起立動作速度でロボットアーム22ひいては保持部23を制御する。また、事前に測定した被介助者M1の体温、血圧、脈拍、呼吸数などのバイタルサイン、または、これらのトレンド(変化量)に応じた起立動作速度でロボットアーム22を制御するようにしてもよい。なお、投薬後から介助までの経過時間、バイタルサインに応じて、ロボットアーム22ひいては保持部23のアシスト量を調整するようにしてもよい。両方を調整するようにしてもよい。また、後述する着座動作中においても、同様である。
 起立動作が開始されると、介助ロボット20は、着座している被介助者M1の上半身を保持部23によって保持する(図9参照)。そして、介助ロボット20は、上半身を保持した状態で、被介助者M1を起立状態にする(図10参照)。
 介助ロボット20は、被介助者M1を起立状態で補助している。被介助者M1は、その脇の下を保持部23により保持された状態で歩行して移動する。このように被介助者M1の歩行を補助している介助ロボット20が、第1個室13aからトレーニング室12まで移動する場合には、上述した介助ロボット20が単独で移動する場合と同様に、予め記憶されている経路に沿って移動し、または案内用マーク14aを撮像装置28により読み取って移動する。
 この移動中において、被介助者M1の進入が禁止されている区域が設定されている場合には、被介助者M1がその禁止区域に進入しようとしても、介助ロボット20はその進入を阻止して、当初の目的地であるトレーニング室12に案内する。進入禁止区域は、被介助者に関する情報の一つである。
 介助ロボット20は、第1個室13aの入出口13a1で右折して通路14に出て、通路14の交差点で右折し、トレーニング室12の入出口12aで左折してトレーニング室12に入室する。介助ロボット20は、介助ロボット20の背面を進行方向に向けて前進する。
 また、介助ロボット20は、被介助者M1を着座させるための着座動作が開始されると、起立状態にある被介助者M1(図10参照)を、被介助者M1の上半身を保持部23によって保持した状態で着座状態にする(図9参照)。
 そして、介助ロボット20は、着座動作が終了すると、被介助者M1に対して「ハンドルから手を放してください」という案内を案内装置29により行う。被介助者M1がハンドル24から手を放すと、接触センサ24a,24bによってハンドル24から手を放したことを検知するため、介助ロボット20は、被介助者M1から離れる。
 上述したように、本実施形態に係る介助ロボット20は、基台21に設けられて、被介助者M1の体の一部を支えて起立および着座を補助する保持部23と、被介助者M1を特定するための特定情報(被介助者ID)を取得する特定情報取得装置52と、特定情報取得装置52によって取得した特定情報から被介助者M1を認識する認識部(制御装置26:ステップS116)と、認識部によって認識した被介助者M1に関する情報を取得する取得部(制御装置26:ステップS118,120)と、取得部によって取得した被介助者M1に関する情報に基づいて保持部23の駆動制御を行う制御部(制御装置26:ステップS122)と、を備えたことを特徴とする。
 これにより、被介助者M1を特定するための特定情報(被介助者ID)を取得する特定情報取得装置52によって取得した特定情報(被介助者ID)から被介助者M1を認識することにより、介助ロボット20の介助対象を間違えることなく正確かつ確実に特定することができる。さらに、介助ロボット20による被介助者M1の介助の実施に先だって、先に特定された被介助者M1に関する情報(投薬情報、バイタルサイン情報)を事前かつ確実に取得することができる。そして、介助ロボット20による介助の実施に当たって、事前に取得した被介助者M1に関する情報(投薬情報、バイタルサイン情報)に応じて保持部23の駆動制御を適切に行うことが可能となる。このように、被介助者M1に関する介助前の事前情報(投薬情報、バイタルサイン情報)に基づいて被介助者M1の介助を行うことができるため、被介助者M1の体調をより良好に確保しながら被介助者M1の介助を行うことができる。
 また、特定情報取得装置52は、被介助者M1に装着されて該被介助者M1と関連付けられた識別符号(被介助者ID)を有する端末装置であって介助ロボット20に対する操作指示および被介助者M1の識別符号(被介助者ID)を送信データとして送信する端末装置41と、端末装置41からの送信データを受信する受信機31と、を有し、認識部(制御装置26:ステップS116)は、受信機31によって受信された送信データのうち被介助者M1の識別符号(被介助者ID)から被介助者M1を認識する。
 これにより、被介助者M1に端末装置41を装着しその端末装置41から被介助者M1の識別符号(被介助者ID)を受信することにより、介助ロボット20は介助対象である被介助者M1を特定することができる。すなわち、簡単な構成により、介助ロボット20が介助する被介助者M1を確実に特定することができる。
 また、特定情報取得装置52は、被介助者M1を介助する介助者M2に装着されて該介助者M2と関連付けられた識別符号を有する端末装置であって介助ロボット20に対する操作指示、介助者M2の識別符号(操作者ID:介助者ID)および被介助者の識別符号(被介助者ID)を送信データとして送信する端末装置41と、端末装置41からの送信データを受信する受信機31と、を有し、認識部(制御装置26:ステップS116)は、受信機31によって受信された送信データのうち被介助者M1の識別符号(被介助者ID)から被介助者M1を認識する。
 これにより、操作者が介助者M2である場合、介助者M2に装着されている端末装置41から介助者M2の識別符号(操作者ID:介助者ID)を受信して操作者が介助者M2であることを認識し、その介助者M2により被介助者M1の識別符号(被介助者ID)が入力されることにより、介助ロボット20は介助対象である被介助者M1を特定することができる。すなわち、操作者が介助者M2である場合であっても、簡単な構成により、介助ロボット20が介助する被介助者M1を確実に特定することができる。
 また、被介助者M1および介助者M2が介助ロボット20を操作する操作者であり、操作者が介助ロボット20の操作に対する操作権限を有する場合には、操作を許可し、操作権限を有さない場合には、操作を禁止する操作許否部(制御装置26:ステップS108、110、122)をさらに備えている。
 これにより、介助ロボット20は、操作者を特定した後、その特定された操作者の権限の有無(権限の内容)に基づいて操作者が要求している操作を許否(操作内容を制限)することができる。よって、例えば被介助者M1が認知症を患っている場合には操作権限を「無し」に設定することにより、認知症を患っている被介助者M2による誤操作を抑制しひいてはその被介助者M2に対する適正な介助を行うことができる。
 なお、上述した実施形態においては、操作者が被介助者M1である場合、操作権限はあるが、操作内容が制限される場合がある。例えば、認知症の程度によっては、離れた所から介助ロボット20を呼ぶことを禁止する。
 また、制御部(制御装置26:ステップS122)は、取得部(制御装置26:ステップS118)によって取得した被介助者M1に関する情報に基づいて、被介助者M1の起立および着座を補助する際における保持部23の速度およびアシスト量の少なくともいずれかの調整を行う。
 これにより、介助ロボット20は、被介助者M1を特定した後、その被介助者M1に関する情報(例えば、介助ロボットによる介助前における、被介助者の体調情報(バイタルサイン情報)、投薬情報)に応じて適切な介助を行うことができる。
 また介助ロボット20は、基台21を走行させる走行用駆動部ACをさらに備えている。これにより、介助ロボット20は、被介助者M1の歩行を介助する際に、その歩行を適切に補助することができる。
 また介助ロボット20は、制御部(制御装置26:ステップS122)は、取得部(制御装置26:ステップS118)によって取得した被介助者M1に関する情報に基づいて、被介助者M1の移動を補助する際に走行用駆動部ACを制御して基台21の走行速度の調整を行う。
 これにより、介助ロボット20は、被介助者M1を特定した後、その被介助者M1に関する情報(例えば、介助ロボットによる介助前における、被介助者の体調情報(バイタルサイン情報)、投薬情報)に応じて適切な歩行介助を行うことができる。
 なお、上述した実施形態においては、被介助者M1が視覚障害者である場合には、表示より音声による案内をしたり、被介助者M1が聴覚障害者である場合には、音声による案内より表示による案内をしたりするのが好ましい。視覚障害者であるか聴覚障害者であるかは、介護データベースに係る介護情報から取得するようにすればよい。
 また、上述した実施形態においては、端末装置41から受信データは介助ロボット20に一旦受信されるようになっているが、端末装置41から受信データをホストコンピュータ51に直接に受信して、その後、被介助者IDと被介助者に関する情報を合わせて介助ロボット20に送信するようにしてもよい。
 さらに、上述したように構成された介助ロボット20の他の実施形態について図14に示すブロック図および図15に示すフローチャートを参照して説明する。本実施形態においては、特定情報取得装置53は、被介助者M1の身体的特徴を取得する身体的特徴取得装置である点が上述した実施形態と異なる。身体的特徴取得装置は、身体的特徴である指紋、声紋、網膜や手のひらの静脈のパターンなどを読み取る装置である。この身体的特徴が被介助者の特定情報である。特定情報取得装置53は、介助ロボット20の操作装置25に設けてもよく、端末装置41に設けてもよい。
 本実施形態においては、基本的には図13に示すフローチャートと同じであるが、異なる点について図15を参照して説明し、同一内容について同一符号を付してその説明を省略する。
 制御装置26は、ステップS202において、特定情報取得装置53から身体的特徴を取得したか否かを判定する。例えば、操作者が操作装置25を操作する際に、特定情報取得装置53に身体的特徴例えば指紋を読み取らせた場合、特定情報取得装置53は身体的特徴データを取得する。
 このとき、制御装置26は、身体的特徴データを取得した場合、ステップS102にて「YES」と判定しプログラムをステップS204に進める。なお、取得しない場合には、制御装置26は、ステップS202にて「NO」と判定を繰り返す。
 制御装置26は、ステップS204において、取得した身体的特徴データから操作者IDを取得する。このとき、制御装置26は、取得した身体的特徴データをホストコンピュータ51に送信し、ホストコンピュータ51にて身体的特徴データベースと照合して得た操作者IDを受信するようにしてもよい。そして、制御装置26は、ステップS106において、先に取得した操作者IDに該当する操作者情報をホストコンピュータ51に要求する。
 本実施形態によれば、特定情報取得装置53は、被介助者M1の身体的特徴を取得する身体的特徴取得装置であり、認識部(制御装置26:ステップS116)は、身体的特徴取得装置によって取得された身体的特徴から被介助者を認識する。
 これにより、介助ロボット20は、身体的特徴取得装置53によって取得した被介助者M1の身体的特徴から介助対象である被介助者M1を特定することができる。すなわち、簡単な構成により、介助ロボット20が介助する被介助者M1を確実に特定することができる。
 なお、上述した各実施形態においては、ステップS102(ステップS202)からステップS118までの処理をホストコンピュータ51で実施するようにしてもよい。
 10…介護センタ、11…ステーション、12…トレーニング室、13a~13d…第1~第4個室、14…通路、20…介助ロボット、21…基台、21g,21h…左右駆動輪用モータ(走行用駆動部)、22…ロボットアーム部、22a…第1アーム、22a1c…第1回転用モータ(駆動部)、22a2b…スライド用モータ(駆動部)、22b…第2アーム、22b3…第2回転用モータ(駆動部)、22c…第3アーム、23…保持部、24…ハンドル、25…操作装置、26…制御装置(認識部、取得部、制御部、操作許否部)、26a…取得部、26b…操作許否部、26c…認識部、26d…取得部、26e…制御部、27…記憶装置、28…撮像装置、29…案内装置、31…送受信機(受信機)、41…端末装置、51…ホストコンピュータ、52,53…特定情報取得装置、M1…被介助者、M2…介助者。

Claims (8)

  1.  基台に設けられて、被介助者の体の一部を支えて起立および着座を補助する保持部と、
     前記被介助者を特定するための特定情報を取得する特定情報取得装置と、 
     前記特定情報取得装置によって取得した特定情報から前記被介助者を認識する認識部と、
     前記認識部によって認識した前記被介助者に関する情報を取得する取得部と、
     前記取得部によって取得した前記被介助者に関する情報に基づいて前記保持部の駆動制御を行う制御部と、
     を備えたことを特徴とする介助ロボット。
  2.  前記特定情報取得装置は、前記被介助者に装着されて該被介助者と関連付けられた識別符号を有する端末装置であって請求項1に記載の介助ロボットに対する操作指示および前記被介助者の識別符号を送信データとして送信する端末装置と、前記端末装置からの前記送信データを受信する受信機と、を有し、
     前記認識部は、前記受信機によって受信された前記送信データのうち前記被介助者の識別符号から前記被介助者を認識する請求項1記載の介助ロボット。
  3.  前記特定情報取得装置は、前記被介助者を介助する介助者に装着されて該介助者と関連付けられた識別符号を有する端末装置であって請求項1に記載の介助ロボットに対する操作指示、前記介助者の識別符号および前記被介助者の識別符号を送信データとして送信する端末装置と、前記端末装置からの前記送信データを受信する受信機と、を有し、
     前記認識部は、前記受信機によって受信された前記送信データのうち前記被介助者の識別符号から前記被介助者を認識する請求項1記載の介助ロボット。
  4.  前記特定情報取得装置は、前記被介助者の身体的特徴を取得する身体的特徴取得装置であり、
     前記認識部は、前記身体的特徴取得装置によって取得された前記身体的特徴から前記被介助者を認識する請求項1記載の介助ロボット。
  5.  前記被介助者および前記介助者が請求項1乃至請求項4の何れか一項に記載の介助ロボットを操作する操作者であり、
     前記操作者が前記介助ロボットの操作に対する操作権限を有する場合には、前記操作を許可し、前記操作権限を有さない場合には、前記操作を禁止する操作許否部をさらに備えた請求項1乃至請求項4の何れか一項に記載の介助ロボット。
  6.  前記制御部は、前記取得部によって取得した前記被介助者に関する情報に基づいて、前記被介助者の起立および着座を補助する際における前記保持部の速度およびアシスト量の少なくともいずれかの調整を行う請求項1乃至請求項5の何れか一項に記載の介助ロボット。
  7.  前記基台を走行させる走行用駆動部をさらに備えた請求項1乃至請求項6の何れか一項に記載の介助ロボット。
  8.  前記制御部は、前記取得部によって取得した前記被介助者に関する情報に基づいて、前記被介助者の移動を補助する際に前記走行用駆動部を制御して前記基台の走行速度の調整を行う請求項7に記載の介助ロボット。
PCT/JP2013/064805 2013-05-28 2013-05-28 介助ロボット WO2014192085A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP13886119.0A EP3006004B1 (en) 2013-05-28 2013-05-28 Assistance robot
CN201380076990.0A CN105246449A (zh) 2013-05-28 2013-05-28 护理机器人
PCT/JP2013/064805 WO2014192085A1 (ja) 2013-05-28 2013-05-28 介助ロボット
JP2015519531A JP6360048B2 (ja) 2013-05-28 2013-05-28 介助ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/064805 WO2014192085A1 (ja) 2013-05-28 2013-05-28 介助ロボット

Publications (1)

Publication Number Publication Date
WO2014192085A1 true WO2014192085A1 (ja) 2014-12-04

Family

ID=51988160

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/064805 WO2014192085A1 (ja) 2013-05-28 2013-05-28 介助ロボット

Country Status (4)

Country Link
EP (1) EP3006004B1 (ja)
JP (1) JP6360048B2 (ja)
CN (1) CN105246449A (ja)
WO (1) WO2014192085A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150005938A1 (en) * 2012-02-10 2015-01-01 Fuji Machine Mfg. Co., Ltd. Motion setting method
JP2017012426A (ja) * 2015-06-30 2017-01-19 パラマウントベッド株式会社 移乗支援システム
JP2017148425A (ja) * 2016-02-26 2017-08-31 トヨタ自動車株式会社 移乗装置及びその制御方法
JP2018130439A (ja) * 2017-02-17 2018-08-23 ナブテスコ株式会社 移動補助装置、管理装置、移動補助システム、移動補助装置の制御方法、および移動補助装置の支援方法
KR20210044861A (ko) * 2019-03-05 2021-04-23 가부시키가이샤 후지 시중 정보 관리 시스템

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105798916B (zh) * 2016-03-31 2019-03-26 深圳市金乐智能健康科技有限公司 一种智能护理机器人控制方法及系统
CN107811736B (zh) * 2016-09-12 2024-01-19 安徽三联机器人科技有限公司 一种站立辅助装置
CA3102513A1 (en) * 2018-06-05 2019-12-12 Fuji Corporation Management device for assistive device and management method
CA3131236A1 (en) * 2019-03-05 2020-09-10 Fuji Corporation Assistance device usage report system
CN111261274A (zh) * 2020-01-17 2020-06-09 广东精茂健康科技股份有限公司 一种护理机器人远程控制系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163367A (ja) * 2000-11-28 2002-06-07 Aoyama Medical:Kk 介護関連事業連携システム
JP2008257699A (ja) * 2007-03-13 2008-10-23 Heal:Kk 介護支援および管理システム
JP2010142562A (ja) * 2008-12-22 2010-07-01 Toyota Motor Corp 移乗支援装置、移乗支援装置の制御方法
JP4692642B2 (ja) 2009-01-22 2011-06-01 トヨタ自動車株式会社 移乗支援装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008073501A (ja) * 2006-08-21 2008-04-03 Toshihiko Yasuda 移乗介助ロボット
JP2008279012A (ja) * 2007-05-09 2008-11-20 Toyota Motor Corp 移動補助システム
US20130171601A1 (en) * 2010-09-22 2013-07-04 Panasonic Corporation Exercise assisting system
KR101203669B1 (ko) * 2010-10-25 2012-11-21 경희대학교 산학협력단 사용자 인식 기능을 가지는 보행 보조 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163367A (ja) * 2000-11-28 2002-06-07 Aoyama Medical:Kk 介護関連事業連携システム
JP2008257699A (ja) * 2007-03-13 2008-10-23 Heal:Kk 介護支援および管理システム
JP2010142562A (ja) * 2008-12-22 2010-07-01 Toyota Motor Corp 移乗支援装置、移乗支援装置の制御方法
JP4692642B2 (ja) 2009-01-22 2011-06-01 トヨタ自動車株式会社 移乗支援装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150005938A1 (en) * 2012-02-10 2015-01-01 Fuji Machine Mfg. Co., Ltd. Motion setting method
JP2017012426A (ja) * 2015-06-30 2017-01-19 パラマウントベッド株式会社 移乗支援システム
JP2017148425A (ja) * 2016-02-26 2017-08-31 トヨタ自動車株式会社 移乗装置及びその制御方法
JP2018130439A (ja) * 2017-02-17 2018-08-23 ナブテスコ株式会社 移動補助装置、管理装置、移動補助システム、移動補助装置の制御方法、および移動補助装置の支援方法
KR20210044861A (ko) * 2019-03-05 2021-04-23 가부시키가이샤 후지 시중 정보 관리 시스템
US20220175598A1 (en) * 2019-03-05 2022-06-09 Fuji Corporation Assistance information management system
KR102508332B1 (ko) * 2019-03-05 2023-03-08 가부시키가이샤 후지 시중 정보 관리 시스템

Also Published As

Publication number Publication date
EP3006004B1 (en) 2020-07-22
JPWO2014192085A1 (ja) 2017-02-23
EP3006004A1 (en) 2016-04-13
CN105246449A (zh) 2016-01-13
JP6360048B2 (ja) 2018-07-18
EP3006004A4 (en) 2017-03-01

Similar Documents

Publication Publication Date Title
JP6360048B2 (ja) 介助ロボット
JP6126139B2 (ja) 移動補助ロボット
JP6351978B2 (ja) 動作情報処理装置及びプログラム
US20170354564A1 (en) Mobile walker, monitoring and information system with a mobile walker and method for operating a mobile walker
EP2954882B1 (en) Patient-care robot
WO2015011839A1 (ja) 介助ロボット
JP6267215B2 (ja) 介助ロボット
JP6137924B2 (ja) 回診支援ロボットおよび回診支援ロボットの制御プログラム
JP6490517B2 (ja) 移乗支援システム
Moreira et al. Smart and assistive walker–asbgo: rehabilitation robotics: a smart–walker to assist ataxic patients
KR20120103899A (ko) 간호보조 로봇시스템 및 그 제어방법
JP6961323B2 (ja) リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法及びプログラム
JP6258875B2 (ja) 移動体
JP2006239150A (ja) 歩行支援装置、歩行支援装置の制御装置およびコンピュータプログラム
WO2020250492A1 (ja) 支援装置、支援方法およびプログラム
JP6306769B2 (ja) 移動補助ロボット
JP6944791B2 (ja) 移動補助装置、管理装置、移動補助システム、移動補助方法、および制御情報提供方法
JP6895504B2 (ja) リハビリテーション支援装置
KR101945338B1 (ko) 체력 측정 진단에 대한 체력 개선 시스템
JP2022134823A (ja) 経頭蓋磁気刺激システム
JP2021126245A (ja) 訓練装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13886119

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015519531

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013886119

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE