WO2022249449A1 - アシスト装置 - Google Patents

アシスト装置 Download PDF

Info

Publication number
WO2022249449A1
WO2022249449A1 PCT/JP2021/020426 JP2021020426W WO2022249449A1 WO 2022249449 A1 WO2022249449 A1 WO 2022249449A1 JP 2021020426 W JP2021020426 W JP 2021020426W WO 2022249449 A1 WO2022249449 A1 WO 2022249449A1
Authority
WO
WIPO (PCT)
Prior art keywords
time
series data
arm
output
user
Prior art date
Application number
PCT/JP2021/020426
Other languages
English (en)
French (fr)
Inventor
喜紳 加藤
元気 村田
藍 樋口
篤史 安藤
Original Assignee
株式会社ジェイテクト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ジェイテクト filed Critical 株式会社ジェイテクト
Priority to PCT/JP2021/020426 priority Critical patent/WO2022249449A1/ja
Priority to JP2023523955A priority patent/JPWO2022249523A1/ja
Priority to PCT/JP2021/048533 priority patent/WO2022249523A1/ja
Publication of WO2022249449A1 publication Critical patent/WO2022249449A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for

Definitions

  • the present invention relates to an assist device.
  • the assist torque given to the user does not need to be so large if the weight of the load to be lifted by the user is relatively small, and is preferably adjustable according to the weight of the load.
  • the assist device disclosed in Patent Literature 1 provides load sensors on the soles and hands of the user. The weight of the load detected by the load sensor is detected, and the assist torque is adjusted according to the weight of the load.
  • a dedicated sensor for detecting the weight of the luggage needs to be provided on the soles of the feet, etc. away from the attachments attached to the waist and thighs, which causes an increase in cost. In addition, it becomes complicated to wear the assist device on the user.
  • the assist device which is an embodiment, a first wearing device worn on at least the waist of the user; an arm arranged along the thigh of the user and rotatable with respect to the first wearing device; a motor that generates torque for rotating the arm; a second attachment provided on the arm and attached to the thigh; an acceleration sensor provided on the first attachment; a rotation detector that detects the rotation state of the arm; a control device that controls the motor,
  • the control device is an estimation process for obtaining an estimated weight of luggage to be lifted by the user based on the output of the acceleration sensor and the output of the rotation detector; and a control process for controlling the motor based on the estimated weight.
  • FIG. 1 is a rear view of an assist device worn by a user.
  • FIG. 2 is a side view of the assist device.
  • FIG. 3 is a diagram showing the configuration of an actuator.
  • FIG. 4 is a block diagram showing a configuration example of a control device.
  • FIG. 5 is a diagram showing the posture of the user, where (a) in FIG. 5 is a side view when the user is in an upright posture, and (b) in FIG. 5 is a squatting posture. is a side view in the case of gripping the luggage on the luggage table.
  • FIG. 6 is a flowchart showing a mode of motor control performed by the processing unit.
  • FIG. 7 is a flowchart illustrating an example of estimation processing.
  • FIG. 1 is a rear view of an assist device worn by a user.
  • FIG. 2 is a side view of the assist device.
  • FIG. 3 is a diagram showing the configuration of an actuator.
  • FIG. 4 is a block diagram showing a configuration example of
  • FIG. 8 is a diagram showing the contents of first time-series data and second time-series data obtained from discrete value data.
  • FIG. 9 is a diagram for explaining a user's operation of lifting and unloading a load.
  • FIG. 10 is a graph showing an example of arm angular velocities when a user continuously lifts and unloads a load.
  • FIG. 11 is a graph showing an example of the f1 score when the estimated weight is obtained by changing the threshold and the time length of the past period.
  • FIG. 12 is a block diagram showing the configuration of a processing unit of an assist device according to another embodiment.
  • the assist device is a first wearing device worn on at least the waist of the user; an arm arranged along the thigh of the user and rotatable with respect to the first wearing device; a motor that generates torque for rotating the arm; a second attachment provided on the arm and attached to the thigh; an acceleration sensor provided on the first attachment; a rotation detector that detects the rotation state of the arm; a control device that controls the motor,
  • the control device is an estimation process for obtaining an estimated weight of luggage to be lifted by the user based on the output of the acceleration sensor and the output of the rotation detector; and a control process for controlling the motor based on the estimated weight.
  • the estimation process for obtaining the estimated weight of the luggage to be lifted by the user is executed based on the output of the rotation detector and the output of the acceleration sensor. It is possible to control the torque (assist torque) according to the weight of the luggage without providing the
  • the estimation process includes Acquisition processing for acquiring the output of the rotation detector and the output of the acceleration sensor over time; a determination process for determining whether or not the output of the rotation detector satisfies a predetermined condition; When it is determined that the output of the rotation detector satisfies the predetermined condition, the output of the rotation detector that satisfies the predetermined condition is obtained in the past period from the time when the output of the rotation detector satisfying the predetermined condition is obtained to the time before a predetermined time.
  • Weight estimation for obtaining the estimated weight based on first time-series data based on the outputs of the plurality of rotation detectors and second time-series data based on the outputs of the plurality of acceleration sensors acquired in the past period It preferably includes processing and.
  • the output of the rotation detector indicates the rotation state of the thigh relative to the waist. Therefore, if a predetermined condition is set so that the determination process is performed immediately after the thigh starts to rotate, the first time-series data and the second time-series data immediately after the user starts lifting the luggage can be obtained. Therefore, the estimation accuracy of the estimated weight can be improved by obtaining the estimated weight using the first time-series data and the second time-series data immediately after the thigh starts rotating.
  • the predetermined condition is that the angular velocity of the arm obtained from the output of the rotation detector when the arm rotates in the direction in which the hip joint of the user extends is greater than a preset threshold. There may be.
  • the start of rotation of the thigh can be determined by the threshold, and the first time-series data and the second time-series data immediately after the user starts lifting the load can be appropriately acquired. can.
  • the first time-series data includes time-series data of the angle of the arm with respect to the first attachment and time-series data of the angular velocity of the arm
  • the second time-series data includes time-series data of vertical acceleration in the acceleration sensor and time-series data of longitudinal acceleration of the user in the acceleration sensor.
  • the estimated weight is obtained using a learned model that has learned the relationship between the first time-series data and the second time-series data and the weight of the package. In this case, the estimation accuracy of the estimated weight can be further improved.
  • the processing unit is a process of receiving teacher data indicating the relationship between the first time-series data and the second time-series data, and the weight of the package; and a process of re-learning the learned model based on the teacher data.
  • the relationship between the first time-series data and the second time-series data when the user actually lifts the luggage and the weight of the luggage is used as teacher data to re-learn the learned model.
  • the model can be optimized for the user and the accuracy of the estimated weight can be increased.
  • the estimation process includes Acquisition processing for acquiring the output of the rotation detector and the output of the acceleration sensor over time; Based on the inclination angle and angular velocity of the user's upper body obtained from the output of the acceleration sensor, and the angle and angular velocity of the arm obtained from the output of the rotation detector, the user's muscle strength exerts the a muscle torque estimation process for obtaining an estimated muscle torque for rotating the thigh; a determination process for determining whether or not the output of the rotation detector satisfies a predetermined condition; When it is determined that the output of the rotation detector satisfies the predetermined condition, the output of the rotation detector that satisfies the predetermined condition is obtained in the past period from the time when the output of the rotation detector satisfying the predetermined condition is obtained to the time before a predetermined time.
  • the estimated weight can be obtained based on a plurality of estimated muscle torques obtained in the past period, and the estimated weight can be obtained with high accuracy.
  • FIG. 1 is a rear view of an assist device worn by a user
  • FIG. 2 is a side view of the assist device.
  • the assist device 10 according to the embodiment rotates the thigh BF with respect to the waist BW of the user U (flexion and extension of the hip joint) when the user U lifts or lowers a load, for example. and support the rotation of the thigh BF with respect to the waist BW of the user U when the subject walks.
  • the motion assisted by the assist device 10 with respect to the body of the user U is called "assisted motion".
  • the Z direction is parallel to the vertical direction.
  • the Y direction is the front-rear direction of the user U wearing the assist device 10 and standing upright.
  • the X direction is the left-right direction of the user U wearing the assist device 10 and standing upright.
  • the support for turning the thigh BF relative to the waist BW as described above is the same as the support for turning the waist BW relative to the thigh BF.
  • the assist operation is an operation that gives the user U a torque about a virtual axis Li passing through the user's U waist BW and parallel to the X direction. This torque is also called "assist torque".
  • the assist device 10 shown in FIG. 1 includes a first attachment 11, a pair of second attachments 12, and a pair of assist arms 13.
  • the first wearing tool 11 is worn on the user's U upper body BU including the waist BW.
  • the pair of second wearing tools 12 are worn on the left and right thighs BF of the user U. As shown in FIG.
  • the first attachment 11 has a waist support portion 21 , a jacket portion 22 , a frame pipe 39 , a backpack portion 24 and a pair of rotating mechanisms 25 .
  • the waist support part 21 is worn around the user's U waist BW.
  • the waist support portion 21 includes a front belt 21a, a pair of rear belts 21b, and a pair of waist side pads 21c.
  • the front belt 21a and the pair of rear belts 21b fix the pair of waist side pads 21c to both sides of the user's U waist BW.
  • the pair of rotating mechanisms 25 are fixed to the pair of waist side pads 21c.
  • One of the pair of rotating mechanisms 25 is fixed to the right side waist pad 21c, and the other is fixed to the left side waist pad 21c.
  • a pair of assist arms 13 are rotatably fixed to the pair of rotating mechanisms 25 .
  • Each rotating mechanism 25 includes a case 25a fixed to the waist side pad 21c and a driven pulley (not shown) housed inside the case 25a and capable of rotating with respect to the case 25a.
  • the driven pulley has a shaft portion 25b that can rotate integrally with the driven pulley.
  • the shaft portion 25b protrudes to the outside of the case 25a from the surface opposite to the surface facing the user U side of the case 25a.
  • the assist arm 13 is fixed to the shaft portion 25b. Therefore, the driven pulley and the pair of assist arms 13 can rotate integrally. Thereby, the pair of assist arms 13 are rotatable with respect to the first attachment 11 .
  • the jacket part 22 is worn around the user U's shoulders BS and chest BB.
  • the jacket portion 22 has a pair of shoulder belts 22a and a chest belt 22b.
  • a pair of shoulder belts 22 a are connected to the frame pipe 39 .
  • the frame pipe 39 is fixed to the back of the user U by a pair of shoulder belts 22a.
  • the chest belt 22b connects the pair of shoulder belts 22a in front of the user's U chest BB.
  • the frame pipe 39 is more firmly fixed to the back of the user U by the chest belt 22b.
  • the frame pipe 39 is provided in a U shape.
  • the frame pipe 39 passes between the back surface of the user U and the backpack part 24 and connects the rotating mechanisms 25 arranged on the left and right sides of the user U to each other.
  • the backpack part 24 is fixed to the frame pipe 39 .
  • the pair of rotating mechanisms 25 are fixed to both ends of the frame pipe 39 and to the pair of waist side pads 21c. At this time, the center of rotation of the pair of assist arms 13 coincides with the virtual axis Li in the left-right direction of the user U passing through the user's U waist BW.
  • the pair of second wearing tools 12 are worn around the user's U left and right thighs BF.
  • the second wearing tool 12 is a belt-like member made of resin, leather, cloth, or the like, is wound around the thigh BF, and is attached and fixed to the thigh BF.
  • a distal end portion of an assist arm 13 is attached to each second mounting tool 12 .
  • the pair of assist arms 13 extends from the pair of rotating mechanisms 25 along both sides of the user U. As shown in FIG. Therefore, the pair of assist arms 13 connects the pair of second mounting devices 12 and the first mounting device 11 .
  • the pair of second wearing tools 12 fixes the distal ends of the pair of assist arms 13 to both thighs BF of the user U. As shown in FIG. Thereby, the pair of assist arms 13 are arranged along both thighs BF of the user U and rotate together with both thighs BF.
  • the assist device 10 further includes a pair of actuators 14 , an acceleration sensor 15 and a control device 16 .
  • a pair of actuators 14 , acceleration sensor 15 , and controller 16 are housed within backpack section 24 .
  • the backpack section 24 also accommodates a battery (not shown) for supplying necessary power to each section.
  • FIG. 3 is a diagram showing the configuration of the actuator 14. As shown in FIG. Note that FIG. 3 shows a simplified configuration of the actuator 14 .
  • the actuator 14 includes a motor 40 , a spiral spring 40 b, a rotation detector 41 , a speed reducer 42 and a drive pulley 43 .
  • the motor 40 generates torque for rotating the assist arm 13 .
  • the motor 40 outputs rotational force from the output shaft 40a.
  • Motor 40 is controlled by controller 16 .
  • One end of the spiral spring 40 b is connected to the output shaft 40 a of the motor 40 .
  • the other end of the spiral spring 40b is connected to the input shaft 42a of the reduction gear 42. As shown in FIG. Thereby, the spiral spring 40 b transmits the rotational force of the motor 40 to the speed reducer 42 .
  • the speed reducer 42 has a function of reducing the rotational force of the motor 40 .
  • the rotational force of the motor 40 is transmitted to the input shaft 42a via the spiral spring 40b.
  • the reduced rotational force of the motor 40 is transmitted to the driving pulley 43 .
  • the rotation detector 41 has a function of detecting the rotation state of the input shaft 42 a of the speed reducer 42 and detects the rotation state of the assist arm 13 .
  • the rotation detector 41 is a rotary encoder, Hall sensor, resolver, or the like.
  • the output of rotation detector 41 is provided to controller 16 .
  • the drive pulley 43 is rotationally driven by the rotational force of the motor 40 reduced by the speed reducer 42 .
  • a wire 44 is fixed to the drive pulley 43 .
  • the wire 44 passes through a protective tube (not shown) extending along the frame pipe 39 and is connected to one of the pair of rotating mechanisms 25 (FIG. 1).
  • One end of wire 44 is fixed to drive pulley 43 .
  • the other end of the wire 44 is fixed to the driven pulley of the rotating mechanism 25 . Therefore, the rotational force of the drive pulley 43 is transmitted to the driven pulley of the rotating mechanism 25 via the wire 44 .
  • the wire 44 is protected by a frame cover 23 arranged along the frame pipe 39. As shown in FIG.
  • a driven pulley of the rotating mechanism 25 is rotated by a rotating force from the drive pulley 43 .
  • the assist arm 13 which can rotate integrally with the driven pulley, also rotates.
  • the rotational force of the motor 40 is transmitted to the rotating mechanism 25 via the driving pulley 43, the wire 44, and the driven pulley, and is used as torque for rotating the assist arm 13.
  • the pair of actuators 14 are arranged side by side in the backpack section 24 .
  • the left actuator 14 of the pair of actuators 14 is connected to the left rotation mechanism 25 of the pair of rotation mechanisms 25 and transmits rotational force to the left rotation mechanism 25 .
  • the right actuator 14 of the pair of actuators 14 is connected to the right rotation mechanism 25 of the pair of rotation mechanisms 25 and transmits the rotation force to the right rotation mechanism 25 .
  • the acceleration sensor 15 is a three-axis acceleration sensor that detects acceleration in directions of three mutually orthogonal axes.
  • the acceleration sensor is mounted, for example, on the substrate of the control device 16 and fixed inside the backpack section 24 .
  • the output of acceleration sensor 15 is provided to control device 16 .
  • the controller 16 is housed fixedly within the backpack portion 24 .
  • the control device 16 is configured by a computer or the like.
  • FIG. 4 is a block diagram showing a configuration example of the control device 16. As shown in FIG. As shown in FIG. 4, the control device 16 includes a processing unit 45 such as a processor, and a storage unit 46 such as a memory and a hard disk.
  • a processing unit 45 such as a processor
  • a storage unit 46 such as a memory and a hard disk.
  • the storage unit 46 stores computer programs to be executed by the processing unit 45 and necessary information.
  • the processing unit 45 implements various processing functions of the processing unit 45 by executing computer programs stored in a computer-readable non-transitory recording medium such as the storage unit 46 .
  • the storage unit 46 also stores a learned model 46a and discrete value data 46b, which will be described later.
  • the processing unit 45 can execute the control processing 45a, the estimation processing 45b (the acquisition processing 45b1, the determination processing 45b2, the weight estimation processing 45b3), and the relearning processing 45c by executing the computer program described above. These processes will be described later.
  • the processing unit 45 executes an acquisition process 45b1 (FIG. 4) to acquire the output of the acceleration sensor 15 and the output of the rotation detector 41 over time, and obtain values and information necessary for various processes.
  • the processing unit 45 Based on the output of the acceleration sensor 15 , the processing unit 45 obtains the acceleration in the Y direction of the acceleration sensor 15 and the acceleration in the Z direction of the acceleration sensor 15 .
  • the acceleration sensor 15 is a three-axis acceleration sensor that detects acceleration in directions of three axes orthogonal to each other as described above. Therefore, based on the output of the acceleration sensor 15 , the processing unit 45 can obtain the acceleration in the Y direction and the acceleration in the Z direction of the acceleration sensor 15 .
  • the acceleration sensor 15 is housed and fixed within the backpack section 24 . Therefore, the acceleration in the Y direction of the acceleration sensor 15 and the acceleration in the Z direction of the acceleration sensor 15 indicate the acceleration of the upper body BU of the user U in the Y direction and the acceleration in the Z direction.
  • the Y-direction acceleration of the acceleration sensor 15 is simply referred to as Y-direction acceleration
  • the Z-direction acceleration of the acceleration sensor 15 is simply referred to as Z-direction acceleration.
  • the processing unit 45 can three-dimensionally obtain the tilt angle of the acceleration sensor 15 with respect to the vertical direction (direction of gravitational acceleration) based on the output of the acceleration sensor. Therefore, the processing unit 45 can also obtain the inclination angle of the upper body BU with respect to the vertical direction.
  • FIG. 5 is a diagram showing the posture of the user, where (a) in FIG. 5 is a side view when the user U is in an upright posture, and (b) in FIG. FIG. 10 is a side view of a case where a load N on the load table D is gripped in a squatting posture. (b) in FIG. 5 shows a state in which the user U is in a squatting posture with the hip joints and knee joints bent.
  • a virtual line Lu extending from the virtual axis Li along the upper body BU is a diagram showing the inclination direction of the first attachment 11 (upper body BU) with respect to the vertical direction.
  • the virtual line Lu is defined so as to be parallel to the vertical direction when the user U stands upright.
  • the virtual line Lu is assumed to be inclined corresponding to the inclination of the first wearing tool 11 (upper body BU).
  • It is defined as a diagram showing the angular position.
  • the virtual line Lf is defined so as to be parallel to the vertical direction when the user U is in an upright posture. It is assumed that the virtual line Lf rotates corresponding to the rotation of the assist arm 13 with respect to the first mounting tool 11 .
  • the virtual line Lu upper body BU
  • the virtual line Lf thigh BF
  • the inclination angle ⁇ of the upper body BU with respect to the vertical direction is represented by a virtual line Lu and a vertical line g passing through the virtual axis Li and parallel to the vertical direction.
  • the processing unit 45 can obtain the tilt angle ⁇ based on the output of the acceleration sensor 15 .
  • the arm angle ⁇ is the relative angle of the assist arm 13 (thigh BF) with respect to the first wearing tool 11 (upper body BU). It is the angle between the virtual line Lf. That is, the arm angle ⁇ indicates the user's U hip joint angle.
  • the processing unit 45 Based on the output of the rotation detector 41, the processing unit 45 obtains the arm angle ⁇ and the arm angular velocity ⁇ .
  • the arm angular velocity ⁇ is the angular velocity of the assist arm 13 when the assist arm 13 rotates with respect to the first attachment 11 .
  • the processing unit 45 can obtain the angle and angular velocity of the input shaft 42a, which is the rotation state of the speed reducer 42.
  • FIG. The angle of the input shaft 42a indicates the cumulative angle of the input shaft 42a.
  • the rotational force of the motor 40 is transmitted to the assist arm 13 via the speed reducer 42 , drive pulley 43 , wire 44 and rotating mechanism 25 . Therefore, the rotation of the motor 40 and the speed reducer 42 corresponds to the rotation of the assist arm 13 at a constant rate. That is, the angle and angular velocity of the input shaft 42a can be converted into the relative angle and angular velocity of the assist arm 13 with respect to the first attachment 11 . Thereby, the processing unit 45 can obtain the relative angle and angular velocity of the assist arm 13 (thigh BF) with respect to the first wearing tool 11 based on the output of the rotation detector 41 .
  • the output of the rotation detector 41 includes the output when the motor 40 and the speed reducer 42 are outputting rotational force, as well as the output when the assist arm 13 rotates with respect to the first attachment 11 .
  • the angular position of the assist arm 13 with respect to the first wearing tool 11 when the user U is in an upright posture is regarded as a state in which the hip joint is extended, and this angular position is set as the reference angular position.
  • the virtual line Lf0 indicating the reference angular position overlaps with the virtual line Lf.
  • the arm angle ⁇ is 180 degrees when the angular position of the assist arm 13 (virtual line Lf) is the reference angular position.
  • the assist arm 13 is rotating toward the upper body BU. Therefore, the virtual line Lf is rotated toward the upper body BU side of the virtual line Lf0.
  • the processing unit 45 can obtain the arm angle ⁇ by obtaining the angle ⁇ between the virtual line Lf0, which is the reference angular position, and the virtual line Lf, and subtracting the angle ⁇ from 180 degrees.
  • the processing unit 45 can obtain the arm angle ⁇ based on the virtual line Lf0 indicating the reference angular position.
  • the arm angular velocity ⁇ when the thigh BF rotates with respect to the upper body is obtained based on the increment of the arm angle ⁇ per unit time by acquiring the arm angle ⁇ over time.
  • the processing unit 45 obtains the Y-direction acceleration and the Z-direction acceleration based on the acquired output of the acceleration sensor 15 . Also, the processing unit 45 obtains the arm angle ⁇ and the arm angular velocity ⁇ based on the acquired output of the rotation detector 41 . The processing unit 45 obtains the arm angle ⁇ and the arm angular velocity ⁇ for each of the left and right assist arms 13 .
  • the processing unit 45 acquires the output of the acceleration sensor 15 and the output of the rotation detector 41 over time every predetermined sampling time (for example, every 100 milliseconds), and obtains discrete values including temporally continuous values. It is stored in the storage unit 46 as data 46b.
  • FIG. 6 is a flow chart showing how the processing unit 45 controls the motor 40 .
  • the processing unit 45 first performs an estimation process 45b (FIG. 4) (step S1 in FIG. 6).
  • the estimation process 45b is a process of obtaining an estimated weight of the luggage that the user U lifts.
  • the processing unit 45 performs the control process 45a (FIG. 4) (step S2 in FIG. 6).
  • the control processing 45a is processing for controlling the motor 40 based on the estimated weight to generate assist torque.
  • the processing unit 45 After obtaining the estimated weight through the estimation processing 45b, the processing unit 45 generates an assist torque. In this way, the processing unit 45 first performs the estimation process 45b before controlling the motor 40 .
  • FIG. 7 is a flowchart illustrating an example of estimation processing.
  • the processing unit 45 first executes a determination process 45b2 (FIG. 4) to determine whether or not the output of the rotation detector 41 satisfies a predetermined condition (steps S11 and S12 in FIG. 7). More specifically, the predetermined condition is that when the assist arm 13 rotates in the direction in which the hip joint of the user U is extended from the bent state, the arm angular velocity ⁇ becomes greater than the preset threshold value Th. That is. That is, the predetermined condition is that the arm angular velocity ⁇ becomes greater than the preset threshold value Th when the assist arm 13 rotates in the direction in which the arm angle ⁇ increases.
  • the processing unit 45 determines whether or not the assist arm 13 is rotating in the direction in which the arm angle ⁇ increases (step S11 in FIG. 7).
  • the processing unit 45 also obtains information indicating the rotational direction of the assist arm 13 when obtaining the arm angular velocity ⁇ .
  • the processing unit 45 determines whether or not the assist arm 13 is rotating in the direction in which the arm angle ⁇ increases based on the information indicating the rotating direction of the assist arm 13 acquired when obtaining the arm angular velocity ⁇ . .
  • the processing unit 45 repeats step S11 until it determines that the assist arm 13 is rotating in the direction in which the arm angle ⁇ increases.
  • the processing unit 45 determines whether or not the most recently obtained arm angular velocity ⁇ is greater than the threshold value Th (in FIG. 7, step S12). When determining that the arm angular velocity ⁇ is not greater than the threshold Th (below the threshold Th), the processing unit 45 returns to step S11 again. In this way, the processing unit 45 executes the determination processing 45b2 to determine whether or not the arm angular velocity ⁇ is greater than the threshold value Th when the assist arm 13 rotates in the direction in which the arm angle ⁇ increases. (steps S11 and S12 in FIG. 7).
  • step S12 If it is determined in step S12 that the arm angular velocity ⁇ is greater than the threshold Th, the processing unit 45 executes the weight estimation process 45b3 (FIG. 4) to obtain the first time-series data and the second time-series data (FIG. 7). middle, step S13).
  • the first time-series data and the second time-series data are obtained from the discrete value data 46b stored in the storage unit 46.
  • FIG. FIG. 8 is a diagram showing the contents of the first time-series data and the second time-series data acquired from the discrete value data 46b.
  • the first time-series data T1 is for a past period from when the arm angular velocity ⁇ (output of the rotation detector 41) used for determination in steps S11 and S12 is acquired to when a predetermined time has passed.
  • 4 is time-series data based on the outputs of a plurality of rotation detectors 41 acquired in .
  • the first time-series data T1 includes time-series data T11 of the arm angle ⁇ and time-series data T12 of the arm angular velocity ⁇ .
  • the first time-series data T1 is obtained from the discrete value data 46b stored in the storage unit 46.
  • the discrete value data 46b includes discrete value data D11 of the arm angle ⁇ and discrete value data D12 of the arm angular velocity ⁇ .
  • the discrete value data D11 of the arm angle ⁇ includes a plurality of temporally continuous values of the arm angle ⁇ .
  • the discrete value data D12 of the arm angular velocity ⁇ includes a plurality of values of the arm angular velocity ⁇ that are temporally continuous.
  • the processing unit 45 acquires a plurality of arm angles ⁇ acquired during the past period from the discrete value data D11 of the arm angles ⁇ as time-series data T11 of the arm angles ⁇ .
  • the processing unit 45 acquires a plurality of arm angular velocities ⁇ acquired during the past period from the discrete value data D12 of the arm angular velocities ⁇ as the time-series data T12 of the arm angular velocities ⁇ . Thereby, the processing unit 45 acquires the first time-series data T1. Note that the processing unit 45 acquires the first time-series data T1 for each of the left and right assist arms 13 .
  • the second time-series data T2 is time-series data based on the outputs of the multiple acceleration sensors 15 acquired during the past period described above.
  • the second time-series data T2 includes Y-direction acceleration time-series data T21 and Z-direction acceleration time-series data T22.
  • the second time-series data T2 is also obtained from the discrete value data 46b stored in the storage unit 46.
  • the discrete value data 46b includes discrete value data D21 of Y-direction acceleration and discrete value data D22 of Z-direction acceleration.
  • the Y-direction acceleration discrete value data D21 includes a plurality of temporally continuous Y-direction acceleration values.
  • the discrete value data D22 of the Z-direction acceleration includes a plurality of temporally continuous Z-direction acceleration values.
  • the processing unit 45 acquires a plurality of Y-direction accelerations acquired during the past period from the Y-direction acceleration discrete value data D21 as the Y-direction acceleration time-series data T21.
  • the processing unit 45 acquires a plurality of Z-direction accelerations acquired during the past period from the discrete value data D22 of Z-direction acceleration as time-series data T22 of Z-direction acceleration. Thereby, the processing unit 45 acquires the second time-series data T2.
  • the processing unit 45 obtains the estimated weight of the luggage that the user U is about to lift based on the first time series data T1 and the second time series data T2 (step S14 in FIG. 7).
  • the processing unit 45 uses the learned model 46a (FIG. 4) stored in the storage unit 46 to obtain the estimated weight.
  • the learned model 46a is a model obtained by machine-learning the relationship between the first time-series data T1 and the second time-series data T2 and the weight of the package.
  • a trained model 46a is constructed based on this correlation.
  • the processing unit 45 needs to acquire the first time-series data T1 based on the output of the rotation detector 41 immediately after the user U starts lifting the luggage, and the second time-series data T2 based on the acceleration sensor 15.
  • the output of the rotation detector 41 indicates the rotation state of the thigh BF with respect to the waist BW. Therefore, if a predetermined condition (steps S11 and S12 in FIG. 7) is set so that the determination process 45b2 is performed immediately after the thigh BF starts rotating, the processing unit 45 determines that the user U It is possible to acquire the first time-series data T1 and the second time-series data T2 immediately after starting the lifting.
  • the predetermined condition is that when the assist arm 13 rotates in the direction in which the arm angle ⁇ increases (step S11 in FIG. 7), the arm angular velocity ⁇ is greater than the preset threshold value Th. Since it is assumed to be the case (step S12 in FIG. 7), the processing unit 45 can determine the start of rotation of the thigh BF based on the threshold value Th. As a result, the processing unit 45 can appropriately acquire the first time-series data T1 and the second time-series data T2 immediately after the user U starts lifting the luggage.
  • Teacher data used for machine learning of the trained model 46a is the first time-series data T1 and the second time-series data T2 obtained when the user U lifts a load whose weight is known.
  • the learned model 46a is machine-learned using the teacher data.
  • a machine learning algorithm either classification or regression may be used.
  • SVC Serial Vector Classification
  • SVR Serial Vector Regression
  • a neural network a decision tree, a random forest, or the like may be used.
  • the processing unit 45 provides the learned model 46a with the first time-series data T1 and the second time-series data T2 acquired in step S13 as feature amounts to obtain an estimated weight. After obtaining the estimated weight, the processing section 45 returns to FIG. 6, performs the control processing 45a (FIG. 4), and controls the motor 40 based on the estimated weight.
  • the estimation process 45b (FIG. 4) for obtaining the estimated weight of the baggage to be lifted by the user U is executed based on the output of the acceleration sensor 15 and the output of the rotation detector 41. Therefore, it is possible to control the torque (assist torque) according to the weight of the luggage without providing a dedicated sensor for detecting the weight of the luggage. As a result, the cost of the assist device 10 can be reduced, and the user U does not need to wear anything other than the first wearing device 11 and the second wearing device 12, and the user U can also wear the assist device 10. easier.
  • FIG. 9 shows three states of the user U, ie, an upright state, a holding state, and a lifting state.
  • the upright state the user U is in an upright posture.
  • the upper body BU and thighs BF are substantially parallel to the vertical direction.
  • the gripping state the user U takes a squatting posture and grips the luggage N placed on the luggage rack D placed in front of the user U.
  • the holding state the user U is not picking up the load N.
  • the hip joints and knee joints of the user U are bent, the upper body BU is tilted forward, and the thighs BF are tilted backward.
  • the user U lifts the gripped load N from the load table D in a squatting posture.
  • the hip joints and knee joints of the user U are bent, the upper body BU is tilted forward, and the thighs BF are tilted backward.
  • the height position of the waist BW of the user U in the lifted state is higher than the height position of the waist BW in the gripped state.
  • FIG. 9 shows the case of holding and lifting a load in a squatting posture, but the same applies to holding and lifting a load in a posture in which only the waist is bent without bending the knee joints. , the estimation process 45b can be performed.
  • FIG. 10 is a graph showing an example of the arm angular velocity ⁇ when the user U continuously lifts and unloads the load N.
  • the horizontal axis indicates time
  • the vertical axis indicates arm angular velocity ⁇ .
  • the arm angular velocity ⁇ when the assist arm 13 rotates in the direction in which the arm angle ⁇ increases is displayed as a negative value
  • the angular velocity ⁇ is displayed as a positive value.
  • the arm angular velocity ⁇ is approximately 0, and the user U is in an upright state.
  • the assist arm 13 rotates in the direction in which the arm angle ⁇ decreases. In other words, the user U bends the hip joints between the timing t2 and the timing t3 to change the posture from the upright state (upright posture) to the holding state (crouching posture).
  • timing t3 and timing t4 the arm angular velocity ⁇ is approximately 0, and the user U maintains the gripping state.
  • the assist arm 13 rotates in the direction in which the arm angle ⁇ increases.
  • the user U extends the hip joints between timing t4 and timing t6, changes the posture from the gripping state (crouching posture) to the lifting state (crouching posture), and performs the lifting motion.
  • the assist arm 13 rotates in the direction in which the arm angle ⁇ decreases.
  • the user U bends the hip joints between timing t7 and timing t8, changes the posture from the lifting state (crouching posture) to the gripping state (crouching posture), and performs the unloading motion.
  • the arm angular velocity ⁇ is approximately 0, and the user U maintains the gripping state.
  • the assist arm 13 rotates in the direction in which the arm angle ⁇ increases. That is, the user U extends the hip joints between timing t9 and timing t10 to change the posture from the holding state (crouching posture) to the upright state (upright posture).
  • the threshold value Th in step S11 is 50 degrees/second.
  • the assist arm 13 rotates in the direction in which the arm angle ⁇ increases.
  • the user U extends the hip joints between timing t4 and timing t6, changes the posture from the gripping state (crouching posture) to the lifting state (crouching posture), and performs the lifting motion.
  • the arm angular velocity ⁇ increases with the lapse of time from timing t4, and reaches 50 degrees/second, which is the threshold value Th, at timing t5. Therefore, after timing t5, the arm angular velocity ⁇ becomes greater than the threshold Th. In this case, the arm angular velocity ⁇ when the assist arm 13 rotates in the direction in which the arm angle ⁇ increases becomes larger than the threshold Th. Therefore, after passing the timing t5, the processing unit 45 determines that the arm angular velocity ⁇ is greater than the threshold value Th (step S12 in FIG. 7), executes the weight estimation processing 45b3 (FIG. 4), Series data T1 and second time series data T2 are obtained (step S13 in FIG. 7).
  • the processing unit 45 acquires the time-series data T12 of the arm angular velocity ⁇ included in the first time-series data T1 .
  • the processing unit 45 acquires a plurality of values of the arm angular velocity ⁇ acquired during the past period P from the discrete value data D12 of the arm angular velocity ⁇ as the time-series data T12 of the arm angular velocity ⁇ . do.
  • the past period P is from the point in time when the arm angular velocity ⁇ determined to be greater than the threshold value Th (the output of the rotation detector 41 obtained) is obtained, to the point in time going back a predetermined time.
  • the time length of the past period P is assumed to be 0.5 seconds.
  • the processing unit 45 acquires a plurality of values of the arm angular velocity ⁇ included in the past period P 0.5 seconds before the timing t5 as the time-series data T12 of the arm angular velocity ⁇ .
  • FIG. 10 shows a mode when the processing unit 45 acquires the time-series data T12 of the arm angular velocity ⁇ , but the mode when acquiring the time-series data T11 of the arm angle ⁇ This is the same as in the case of obtaining series data T12.
  • the processing unit 45 acquires a plurality of arm angles ⁇ included in the past period P as time-series data of the arm angles ⁇ .
  • the manner of obtaining the time-series data T21 of the Y-direction acceleration and the time-series data T22 of the Z-axis direction acceleration is also the same as the manner of obtaining the time-series data T12 of the arm angular velocity ⁇ .
  • the processing unit 45 acquires a plurality of Y-direction accelerations included in the past period P as time-series data T21 of the Y-direction acceleration, and obtains a plurality of Z-direction accelerations included in the past period P as the Z-direction acceleration Obtained as series data T22. Thereby, the processing unit 45 acquires the first time-series data T1 and the second time-series data T2.
  • the processing unit 45 After acquiring the first time-series data T1 and the second time-series data T2, the processing unit 45 obtains an estimated weight (step S14 in FIG. 7). Further, the processing unit 45 performs control processing 45a to control the motor 40 based on the estimated weight to generate assist torque (step S2 in FIG. 6).
  • the processing unit 45 executes the weight estimation process 45b3 (FIG. 4) from the timing t9 to the timing t10 to obtain the first time series data T1 and the second time series data T2.
  • the processing unit 45 Since the processing unit 45 generates the assist torque based on the estimated weight when the baggage N is not carried, it is possible to perform control so as not to give the user U more than necessary assist torque.
  • the processing unit 45 generates the first time-series data T1 based on the output of the rotation detector 41 immediately after the user U starts lifting the luggage, and the second time-series data T2 based on the acceleration sensor 15. need to get.
  • the threshold value Th is used to detect the start of rotation of the thigh BF, and based on the output of the rotation detector 41 and the output of the acceleration sensor 15 acquired in the past period P, which is a period that goes back a predetermined time. to obtain first time-series data T1 and second time-series data T2.
  • the first time-series data T1 based on the output of the rotation detector 41 and the second time-series data T2 based on the acceleration sensor 15 immediately after the user U starts lifting the luggage are obtained. Therefore, it is necessary to appropriately set the past period P (FIG. 10).
  • FIG. 11 is a graph showing an example of the f1 score when the estimated weight is obtained by changing the threshold Th and the time length of the past period P.
  • the horizontal axis is the time length (seconds) of the past period P
  • the vertical axis is the f1 score.
  • graph G1 indicates the f1 score when the threshold Th is 20 degrees/second.
  • Graph G2 shows the f1 score when the threshold Th is 30 degrees/second.
  • a graph G3 shows the f1 score when the threshold Th is 40 degrees/second.
  • a graph G4 shows the f1 score when the threshold Th is 50 degrees/second.
  • the assist device 10 of the present embodiment executes a process of receiving teacher data given from the outside and a process of re-learning the trained model 46a based on this teacher data. have a function.
  • the processing unit 45 switches the mode from the normal mode to the learning mode.
  • the normal mode is a mode for assisting the work of the user U, and is a mode for executing the above-described estimation processing 45b and control processing 45a.
  • the learning mode is a mode for re-learning the trained model 46a.
  • the processing unit 45 can receive teacher data via an input unit (not shown) for receiving input from the outside. Further, in the learning mode, when the user U lifts a load whose weight is known, the processing unit 45 stores the first time-series data T1 and the second time-series data T2 obtained at that time, the load can be used as training data.
  • the relationship between the first time-series data and the second time-series data when actually used by the user U and the weight of the package is used as training data to re-learn the learned model 46a.
  • the finished model 46a can be optimized according to the user U, and the accuracy of the estimated weight can be improved.
  • FIG. 12 is a block diagram showing the configuration of the processing section 45 of the assist device 10 according to another embodiment.
  • the present embodiment differs from the above embodiment in that the processing unit 45 has a function of executing muscle torque estimation processing 45b4.
  • the processing unit 45 of the present embodiment performs the inclination angle ⁇ (FIG. 5) of the upper body BU of the user U obtained from the output of the acceleration sensor 15, the angular velocity of the upper body BU, and the rotation detector 41 Based on the arm angle ⁇ and the arm angular velocity ⁇ obtained from the output of , an estimated muscle torque exerted by the muscle force of the user U for rotating the thigh BF is obtained.
  • the angular velocity of the upper body BU is determined based on the increment of the inclination angle ⁇ per unit time obtained by temporally acquiring the inclination angle ⁇ of the upper body BU.
  • the estimated muscle torque is obtained by giving the above parameters to a muscle torque estimation model constructed in advance.
  • the processing unit 45 of the present embodiment determines that the assist arm 13 rotates in the direction in which the arm angle ⁇ increases and that the arm angular velocity ⁇ is greater than the threshold value Th ( , steps S11 and S12), time-series data of the estimated muscle torque is obtained (step S13 in FIG. 7), and an estimated weight is obtained based on the time-series data of the estimated muscle torque (step S14 in FIG. 7).
  • the estimated muscle torque time-series data includes a plurality of estimated muscle torque values obtained based on the outputs of the plurality of rotation detectors 41 and the acceleration sensors 15 obtained in the past period P.
  • the learned model 46a of the present embodiment is a model obtained by machine-learning the relationship between the estimated muscle torque time-series data and the weight of the package.
  • the processing unit 45 gives the time-series data of the estimated muscle torque as a feature quantity to the learned model 46a to obtain the estimated weight.
  • the estimated weight can be obtained based on the time-series data of the estimated muscle torque obtained in the past period P, and the estimated weight can be obtained with high accuracy.
  • the second time-series data T2 includes the Y-direction acceleration time-series data T21 and the Z-direction acceleration time-series data T22.
  • Time-series data of the inclination angle ⁇ and time-series data of the angular velocity of the upper body BU may be included.
  • the case where the first time-series data T1 is acquired for each of the left and right assist arms 13 was exemplified. It may be configured to acquire the time-series data T1. In this case, the amount of data processed by the processing unit 45 can be reduced, and the load on the processing unit 45 can be reduced.
  • determination can be made for each of the left and right assist arms 13, and the estimation accuracy of the estimated weight can be further improved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

【解決手段】アシスト装置10は、利用者Uの少なくとも腰部BWに装着される第一装着具11と、利用者Uの大腿部BFに沿って配置され、第1装着具11に対して回動可能なアシストアーム13と、アシストアーム13を回動させるトルクを発生するモータ40と、アシストアーム13に設けられるとともに、大腿部BFに装着される第2装着具12と、第1装着具11に設けられた加速度センサ15と、アシストアーム13の回動状態を検出する回転検出器41と、モータ40を制御する制御装置16と、を備える。制御装置16は、加速度センサ15の出力と、回転検出器41の出力とに基づいて、利用者Uが持ち上げる荷物の推定重量を求める推定処理45bと、前記推定重量に基づいてモータ40を制御する制御処理45aとを実行する処理部45を備える。

Description

アシスト装置
 本発明は、アシスト装置に関する。
 近年、利用者の身体に装着され、その利用者の作業を補助するアシスト装置が種々提案されている(例えば、特許文献1参照)。
 このようなアシスト装置は、アームを介してアクチュエータ(モータ)の出力を利用者の大腿部に伝え、腰部に対する大腿部の回動動作(股関節の屈曲動作及び伸展動作)をアシストするように構成されている。
 利用者へ与えられるアシストトルクは、利用者が持ち上げる荷物の重量が比較的小さければそれほど大きい必要がなく、荷物の重量に応じて調整できることが好ましい。
 このため、例えば、特許文献1に開示されているアシスト装置は、荷重センサを利用者の足裏や手に設けている。この荷重センサによって検出される荷物の重量を検出し、荷物の重量に応じてアシストトルクを調整するように構成されている。
特開2020-93375号公報
 上記従来のアシスト装置では、荷物の重量を検出するための専用のセンサを、腰部や大腿部に装着される装着具から離れた足裏等に設ける必要があるため、コスト増加の要因となる上、利用者に対するアシスト装置の装着も煩雑となる。
 このため、荷物の重量を検出するための専用のセンサを設けることなく、荷物の重量に応じたアシストトルクの制御を行うことができる方策が望まれる。
 実施形態であるアシスト装置は、
 利用者の少なくとも腰部に装着される第1装着具と、
 前記利用者の大腿部に沿って配置され、前記第1装着具に対して回動可能なアームと、
 前記アームを回動させるトルクを発生するモータと、
 前記アームに設けられるとともに、前記大腿部に装着される第2装着具と、
 前記第1装着具に設けられた加速度センサと、
 前記アームの回動状態を検出する回転検出器と、
 前記モータを制御する制御装置と、を備え、
 前記制御装置は、
 前記加速度センサの出力と、前記回転検出器の出力とに基づいて、前記利用者が持ち上げる荷物の推定重量を求める推定処理と、
 前記推定重量に基づいて前記モータを制御する制御処理と、を実行する処理部を備える。
 本開示によれば、荷物の重量を検出するための専用のセンサを設けることなく、荷物の重量に応じたアシストトルクの制御を行うことができる。
図1は、利用者に装着されたアシスト装置の背面図である。 図2は、アシスト装置の側面図である。 図3は、アクチュエータの構成を示す図である。 図4は、制御装置の構成例を示すブロック図である。 図5は、利用者の姿勢を示した図であり、図5中の(a)は、利用者が直立姿勢である場合の側面図、図5中の(b)は、利用者がしゃがみ姿勢で荷物台上の荷物を把持している場合の側面図である。 図6は、処理部が行うモータの制御の態様を示すフローチャートである。 図7は、推定処理の一例を示すフローチャートである。 図8は、離散値データから取得される第1時系列データ及び第2時系列データの内容を示す図である。 図9は、利用者による荷物の持ち上げ動作、及び荷下ろし動作を説明するための図である。 図10は、利用者が荷物の持ち上げ動作及び荷下ろし動作を連続的に行ったときのアーム角速度の一例を示すグラフである。 図11は、閾値と、過去期間の時間長さとを変化させて推定重量を求めたときのf1スコアの一例を示すグラフである。 図12は、他の実施形態に係るアシスト装置の処理部の構成を示すブロック図である。
 最初に実施形態の内容を列記して説明する。
[実施形態の概要]
(1)実施形態であるアシスト装置は、
 利用者の少なくとも腰部に装着される第1装着具と、
 前記利用者の大腿部に沿って配置され、前記第1装着具に対して回動可能なアームと、
 前記アームを回動させるトルクを発生するモータと、
 前記アームに設けられるとともに、前記大腿部に装着される第2装着具と、
 前記第1装着具に設けられた加速度センサと、
 前記アームの回動状態を検出する回転検出器と、
 前記モータを制御する制御装置と、を備え、
 前記制御装置は、
 前記加速度センサの出力と、前記回転検出器の出力とに基づいて、前記利用者が持ち上げる荷物の推定重量を求める推定処理と、
 前記推定重量に基づいて前記モータを制御する制御処理と、を実行する処理部を備える。
 上記構成によれば、回転検出器の出力と加速度センサの出力と、に基づいて、利用者が持ち上げる荷物の推定重量を求める推定処理を実行するので、荷物の重量を検出するための専用のセンサを設けることなく、荷物の重量に応じたトルク(アシストトルク)の制御を行うことができる。
(2)上記アシスト装置において、
 前記推定処理は、
 前記回転検出器の出力及び前記加速度センサの出力を経時的に取得する取得処理と、
 前記回転検出器の出力が所定の条件を満たしたか否かを判定する判定処理と、
 前記回転検出器の出力が前記所定の条件を満たすと判定されると、前記所定の条件を満たした前記回転検出器の出力を取得した時点から、所定時間遡った時点までの過去期間で取得された複数の前記回転検出器の出力に基づく第1時系列データ、及び、前記過去期間で取得された複数の前記加速度センサの出力に基づく第2時系列データに基づいて前記推定重量を求める重量推定処理と、を含むことが好ましい。
 利用者が荷物の持ち上げを開始した直後の回転検出器の出力及び加速度センサの出力と、利用者が持ち上げる荷物の重量と、の間には相関がある。
 回転検出器の出力は、腰部に対する大腿部の回動状態を示している。よって、大腿部が回動を開始した直後に判定処理が行われるように所定の条件を定めれば、利用者が荷物の持ち上げを開始した直後の第1時系列データ及び第2時系列データを取得することができる。
 よって、大腿部が回動を開始した直後の第1時系列データ及び第2時系列データを用いて推定重量を求めることで、推定重量の推定精度を高めることができる。
(3)上記アシスト装置において、
 前記所定の条件は、前記利用者の股関節が伸展する方向に前記アームが回動したときに前記回転検出器の出力から得られる前記アームの角速度が、予め設定された閾値よりも大きくなることであってもよい。
 この場合、閾値によって、大腿部の回動の開始を判定することができ、利用者が荷物の持ち上げを開始した直後の第1時系列データ及び第2時系列データを適切に取得することができる。
(4)上記アシスト装置において、
 前記第1時系列データは、前記第1装着具に対する前記アームの角度の時系列データ、及び前記アームの角速度の時系列データを含み、
 前記第2時系列データは、前記加速度センサにおける上下方向の加速度の時系列データ、及び、前記加速度センサにおける前記利用者の前後方向の加速度の時系列データを含むことが好ましい。
 これら各時系列データを用いることで、精度良く推定重量を求めることができる。
(5)上記アシスト装置において、
 前記重量推定処理では、前記第1時系列データ及び前記第2時系列データと、前記荷物の重量と、の関係を学習した学習済みモデルを用いて前記推定重量が求められることが好ましい。
 この場合、推定重量の推定精度をより高めることができる。
(6)上記アシスト装置において、
 前記処理部は、
 前記第1時系列データ及び前記第2時系列データと、前記荷物の重量と、の関係を示す教師データを受け付ける処理と、
 前記教師データに基づいて前記学習済みモデルの再学習を行う処理と、をさらに実行するものであってもよい。
 この場合、実際に利用者が荷物を持ち上げたときの第1時系列データ及び第2時系列データと荷物の重量との関係を教師データとして用いて学習済みモデルの再学習を行うので、学習済みモデルを利用者に応じて最適化することができ、さらに、推定重量の精度を高めることができる。
(7)上記アシスト装置において、
 前記推定処理は、
 前記回転検出器の出力及び前記加速度センサの出力を経時的に取得する取得処理と、
 前記加速度センサの出力から得られる前記利用者の上半身の傾斜角度及び角速度、並びに、前記回転検出器の出力から得られる前記アームの角度及び角速度に基づいて、前記利用者の筋力によって発揮される前記大腿部を回動させるための推定筋トルクを求める筋トルク推定処理と、
 前記回転検出器の出力が所定の条件を満たしたか否かを判定する判定処理と、
 前記回転検出器の出力が前記所定の条件を満たすと判定されると、前記所定の条件を満たした前記回転検出器の出力を取得した時点から、所定時間遡った時点までの過去期間で取得された複数の回転検出器の出力及び複数の加速度センサの出力に基づいて求められる複数の推定筋トルクに基づいて前記推定重量を求める重量推定処理と、を含んでいてもよい。
 この場合、過去期間で求められた複数の推定筋トルクに基づいて推定重量を求めることができ、精度良く推定重量を求めることができる。
[実施形態の詳細]
 以下、好ましい実施形態について図面を参照しつつ説明する。
〔アシスト装置の全体構成について〕
 図1は、利用者に装着されたアシスト装置の背面図、図2は、アシスト装置の側面図である。
 実施形態に係るアシスト装置10は、利用者Uが例えば荷物を持ち上げる際及び荷物を持ち下げる際に、その利用者Uの腰部BWに対する大腿部BFの回動(股関節の屈曲動作及び伸展動作)を支援したり、対象者が歩行する際に、その利用者Uの腰部BWに対する大腿部BFの回動を支援したりする装置である。利用者Uの身体に対してアシスト装置10が支援する動作を「アシスト動作」と称する。
 各図中、互いに直交するX方向、Y方向、及びZ方向のうち、Z方向は、鉛直方向に平行な方向である。Y方向はアシスト装置10を装着し直立姿勢にある利用者Uの前後方向である。X方向はアシスト装置10を装着し直立姿勢にある利用者Uの左右方向である。
 アシスト動作に関して、前記のような、腰部BWに対する大腿部BFの回動の支援は、大腿部BFに対する腰部BWの回動の支援と同じである。アシスト動作は、利用者Uの腰部BWを通過するX方向に平行な仮想軸Liを中心としたトルクを、その利用者Uに与える動作である。このトルクを「アシストトルク」とも称する。
 図1に示すアシスト装置10は、第一装着具11と、一対の第二装着具12と、一対のアシストアーム13とを備える。第一装着具11は、利用者Uの腰部BWを含む上半身BUに装着される。一対の第二装着具12は、利用者Uの左右の大腿部BFに装着される。
 第一装着具11は、腰サポート部21、ジャケット部22、フレームパイプ39、バックパック部24、及び一対の回動機構25を有する。腰サポート部21は、利用者Uの腰部BWの周りに装着される。腰サポート部21は、前ベルト21aと、一対の後ベルト21bと、一対の腰側方パッド21cとを含む。前ベルト21a及び一対の後ベルト21bは、一対の腰側方パッド21cを利用者Uの腰部BWの両側の側方に固定する。
 一対の回動機構25は、一対の腰側方パッド21cに固定されている。一対の回動機構25のうち、一方は右側の腰側方パッド21cに固定され、他方は左側の腰側方パッド21cに固定されている。一対の回動機構25には、一対のアシストアーム13が回動可能に固定されている。
 各回動機構25は、腰側方パッド21cに固定されたケース25aと、ケース25aの内部に収容されケース25aに対して回動可能な従動プーリ(図示省略)とを含む。従動プーリは、当該従動プーリと一体回転可能な軸部25bを有する。軸部25bはケース25aの利用者U側に向く面の反対面からケース25aの外部に突出している。
 アシストアーム13は、軸部25bに固定されている。よって、従動プーリと、一対のアシストアーム13とは一体回動可能である。これにより、一対のアシストアーム13は、第一装着具11に対して回動可能である。
 ジャケット部22は、利用者Uの肩部BS及び胸BBの周りに装着される。ジャケット部22は一対の肩ベルト22aと胸ベルト22bとを有する。
 一対の肩ベルト22aはフレームパイプ39に連結される。フレームパイプ39は、一対の肩ベルト22aによって利用者Uの背面に固定される。
 胸ベルト22bは、利用者Uの胸BBの前方で一対の肩ベルト22aを連結する。フレームパイプ39は、胸ベルト22bにより、利用者Uの背面に、より強固に固定される。
 フレームパイプ39は、U字型に設けられている。フレームパイプ39は、利用者Uの背面とバックパック部24との間を通過して、利用者Uの左右に配置された回動機構25を互いに繋ぐ。
 バックパック部24は、フレームパイプ39に固定されている。
 一対の回動機構25は、フレームパイプ39の両端に固定されるとともに、一対の腰側方パッド21cに固定される。このとき、一対のアシストアーム13の回動中心は、利用者Uの腰部BWを通る利用者Uの左右方向の仮想軸Liに一致している。
 一対の第二装着具12は、利用者Uの左右の大腿部BFの周りに装着される。第二装着具12は、樹脂や、革、布等を用いたベルト状の部材であり、大腿部BFに巻き付けられ、大腿部BFに装着固定される。
 各第二装着具12には、アシストアーム13の先端部が取り付けられている。
 一対のアシストアーム13は、利用者Uの両側の側方に沿って一対の回動機構25から延びている。よって、一対のアシストアーム13は、一対の第二装着具12と、第一装着具11とを繋いでいる。
 一対の第二装着具12は、一対のアシストアーム13の先端部を利用者Uの両方の大腿部BFに固定する。これにより、一対のアシストアーム13は、利用者Uの両方の大腿部BFに沿って配置され、両方の大腿部BFとともに回動する。
 アシスト装置10は、さらに、一対のアクチュエータ14と、加速度センサ15と、制御装置16とを備える。
 一対のアクチュエータ14、加速度センサ15、及び制御装置16は、バックパック部24内に収容される。
 バックパック部24内には、これらの他、各部に必要な電力を供給するためのバッテリ(図示省略)も収容される。
 各アクチュエータ14は、アシストアーム13を第一装着具11に対して回動させるアシストトルクを発生する機能を有する。
 図3は、アクチュエータ14の構成を示す図である。なお、図3では、アクチュエータ14の構成を簡略化して示している。
 アクチュエータ14は、モータ40と、渦巻バネ40bと、回転検出器41と、減速機42と、駆動プーリ43とを備える。
 モータ40は、アシストアーム13を回動させるトルクを発生する。モータ40は、出力軸40aから回転力を出力する。モータ40は、制御装置16によって制御される。
 渦巻バネ40bの一端はモータ40の出力軸40aに接続されている。また、渦巻バネ40bの他端は減速機42の入力軸42aに接続されている。これにより、渦巻バネ40bは、モータ40の回転力を減速機42へ伝達する。
 減速機42は、モータ40の回転力を減速する機能を有する。モータ40の回転力は、渦巻バネ40bを介して入力軸42aに伝達される。減速されたモータ40の回転力は、駆動プーリ43へ伝達される。
 回転検出器41は、減速機42の入力軸42aの回転状態を検出する機能を有しており、アシストアーム13の回動状態を検出する。回転検出器41は、ロータリエンコーダ、ホールセンサ、レゾルバ等である。回転検出器41の出力は、制御装置16へ与えられる。
 駆動プーリ43は、減速機42により減速されたモータ40の回転力によって回動駆動される。
 駆動プーリ43には、ワイヤ44が固定されている。
 ワイヤ44は、フレームパイプ39に沿って延びる保護チューブ(図示省略)内を通過し、一対の回動機構25の内の一方の回動機構25に接続される(図1)。
 ワイヤ44の一端は、駆動プーリ43に固定される。ワイヤ44の他端は、回動機構25の従動プーリに固定される。
 よって、駆動プーリ43の回転力は、ワイヤ44を介して回動機構25の従動プーリに伝達される。
 なお、ワイヤ44は、フレームパイプ39に沿って配置されたフレームカバー23によって保護されている。
 回動機構25の従動プーリは、駆動プーリ43からの回転力によって回動する。これにより、従動プーリに一体回動可能なアシストアーム13も回動する。
 このように、モータ40の回転力は、駆動プーリ43、ワイヤ44、及び従動プーリを介して回動機構25に伝達され、アシストアーム13を回動させるトルクとして用いられる。
 図1に示すように、一対のアクチュエータ14は、バックパック部24内において左右に並べて配置されている。一対のアクチュエータ14の内の左側のアクチュエータ14は、一対の回動機構25の内の左側の回動機構25に接続され、左側の回動機構25へ回転力を伝達する。
 一対のアクチュエータ14の内の右側のアクチュエータ14は、一対の回動機構25の内の右側の回動機構25に接続され、右側の回動機構25へ回転力を伝達する。
 加速度センサ15は、互いに直交する3軸それぞれの方向の加速度を検出する3軸加速度センサである。加速度センサは、例えば、制御装置16の基板に実装されており、バックパック部24内に固定される。加速度センサ15の出力は、制御装置16へ与えられる。
 制御装置16は、バックパック部24内に固定されて収容される。制御装置16は、コンピュータ等により構成されている。
 図4は、制御装置16の構成例を示すブロック図である。
 図4に示すように、制御装置16は、プロセッサ等からなる処理部45と、メモリやハードディスクからなる記憶部46とを備える。
 記憶部46には、処理部45に実行させるためのコンピュータプログラムや、必要な情報が記憶されている。
 処理部45は、記憶部46のようなコンピュータ読み取り可能な非一過性の記録媒体に記憶されたコンピュータプログラムを実行することで、処理部45が有する各種処理機能を実現する。
 また、記憶部46には、後述する学習済みモデル46aと、離散値データ46bとが記憶されている。
 処理部45は、上述のコンピュータプログラムを実行することで、制御処理45a、推定処理45b(取得処理45b1、判定処理45b2、重量推定処理45b3)、及び再学習処理45cを実行することができる。これら処理については、後に説明する。
〔取得処理について〕
 処理部45は、取得処理45b1(図4)を実行することで、加速度センサ15の出力及び回転検出器41の出力を経時的に取得し、各種処理に必要な値や情報を求める。
 処理部45は、加速度センサ15の出力に基づいて、加速度センサ15におけるY方向の加速度及び加速度センサ15におけるZ方向の加速度を求める。
 加速度センサ15は、上述のように互いに直交する3軸それぞれの方向の加速度を検出する3軸加速度センサである。よって、処理部45は、加速度センサ15の出力に基づいて、加速度センサ15におけるY方向の加速度及び加速度センサ15におけるZ方向の加速度を求めることができる。
 加速度センサ15は、バックパック部24内に収容固定されている。よって、加速度センサ15におけるY方向の加速度及び加速度センサ15におけるZ方向の加速度は、利用者Uの上半身BUのY方向の加速度及びZ方向の加速度を示す。
 なお、以下の説明では、加速度センサ15におけるY方向の加速度を、単にY方向加速度といい、加速度センサ15におけるZ方向の加速度を、単にZ方向加速度という。
 また、処理部45は、加速度センサの出力に基づいて、鉛直方向(重力加速度の方向)に対する加速度センサ15の傾斜角度を3次元的に求めることができる。よって、処理部45は、鉛直方向に対する上半身BUの傾斜角度も求めることができる。
 図5は、利用者の姿勢を示した図であり、図5中の(a)は、利用者Uが直立姿勢である場合の側面図、図5中の(b)は、利用者Uがしゃがみ姿勢で荷物台D上の荷物Nを把持している場合の側面図である。
 図5中の(b)では、利用者Uが、股関節及び膝関節を屈曲させてしゃがみ姿勢をとっている状態を示している。
 図5中の(a)及び(b)に示すように、仮想軸Liから延び上半身BUに沿う仮想線Luを、鉛直方向に対する第一装着具11(上半身BU)の傾斜方向を示す線図と定める。仮想線Luは、利用者Uが直立姿勢のときに鉛直方向に平行となるように定める。仮想線Luは、第一装着具11(上半身BU)の傾斜に対応して傾斜するものとする。
 また、図5中の(a)及び(b)に示すように、仮想軸Liから延びてアシストアーム13に沿う仮想線Lfを、第一装着具11に対するアシストアーム13(大腿部BF)の角度位置を示す線図と定める。仮想線Lfは、利用者Uが直立姿勢のときに鉛直方向に平行となるように定める。仮想線Lfは、第一装着具11に対するアシストアーム13の回動に対応して回動するものとする。
 利用者Uが図5中の(b)のようにしゃがみ姿勢となると、仮想線Lu(上半身BU)は前方に倒れるように傾斜する。また、仮想線Lf(大腿部BF)は後方に倒れるように傾斜する。
 図5中の(b)において、鉛直方向に対する上半身BUの傾斜角度αは、仮想線Luと、仮想軸Liを通過し鉛直方向に平行な鉛直方向線gとによって表される。
 上述したように、処理部45は、加速度センサ15の出力に基づいて、傾斜角度αを求めることができる。
 また、図5中の(a)及び(b)において、アーム角度βは、第一装着具11(上半身BU)に対するアシストアーム13(大腿部BF)の相対角度であり、仮想線Luと、仮想線Lfとの間の角度である。つまり、アーム角度βは、利用者Uの股関節角度を示している。
 処理部45は、回転検出器41の出力に基づいて、アーム角度β、及びアーム角速度ωを求める。アーム角速度ωは、アシストアーム13が第一装着具11に対して回動する際のアシストアーム13の角速度である。
 処理部45は、回転検出器41の出力に基づいて、減速機42の回転状態である入力軸42aの角度、及び角速度を求めることができる。なお、入力軸42aの角度は入力軸42aの累積角度を示す。
 ここで、モータ40の回転力は、減速機42、駆動プーリ43、ワイヤ44、及び回動機構25を介してアシストアーム13に伝達する。よって、モータ40並びに減速機42の回転と、アシストアーム13の回転とは一定の割合で対応している。
 つまり、入力軸42aの角度、及び角速度は、第一装着具11に対するアシストアーム13の相対角度、及び角速度に換算することができる。これにより、処理部45は、回転検出器41の出力に基づいて、第一装着具11に対するアシストアーム13(大腿部BF)の相対角度、及び角速度を求めることができる。
 なお、回転検出器41の出力には、モータ40並びに減速機42が回転力を出力している場合の出力の他、アシストアーム13が第一装着具11に対して回動することで、減速機42の入力軸42aがアシストアーム13の回動によって回転する場合の出力も含まれる。
 例えば、利用者Uが直立姿勢のときの第一装着具11に対するアシストアーム13の角度位置を股関節が伸展した状態と見なし、この角度位置を基準角度位置とする。
 図5中の(a)では、利用者Uが直立姿勢なので、基準角度位置を示す仮想線Lf0と、仮想線Lfとは、互いに重複する。
 また、アシストアーム13(仮想線Lf)の角度位置が基準角度位置である場合におけるアーム角度βを180度とする。
 一方、図5中の(b)では、アシストアーム13が上半身BU側に回動している。よって、仮想線Lfは、仮想線Lf0よりも上半身BU側に回動している。
 処理部45は、基準角度位置である仮想線Lf0と、仮想線Lfとの間の角度γを求め、180度から角度γを減算することで、アーム角度βを求めることができる。
 このように、処理部45は、基準角度位置を示す仮想線Lf0に基づき、アーム角度βを求めることができる。
 大腿部BFが上半身に対して回動する際のアーム角速度ωは、アーム角度βを経時的に取得し、単位時間当たりのアーム角度βの増分に基づいて求められる。
 以上のようにして、処理部45は、取得した加速度センサ15の出力に基づいて、Y方向加速度、及びZ方向加速度を求める。
 また、処理部45は、取得した回転検出器41の出力に基づいて、アーム角度β、及びアーム角速度ωを求める。処理部45は、左右のアシストアーム13それぞれについて、アーム角度β、及びアーム角速度ωを求める。
 処理部45は、加速度センサ15の出力及び回転検出器41の出力を、所定のサンプリング時間ごと(例えば、100ミリ秒ごと)に経時的に取得し、時間的に連続した各値を含む離散値データ46bとして記憶部46に記憶する。
〔アシスト装置の動作について〕
 図6は、処理部45が行うモータ40の制御の態様を示すフローチャートである。
 処理部45は、まず、推定処理45b(図4)を行う(図6中、ステップS1)。推定処理45bは、利用者Uが持ち上げる荷物の推定重量を求める処理である。
 推定処理45bを行った後、処理部45は、制御処理45a(図4)を行う(図6中、ステップS2)。制御処理45aは、推定重量に基づいてモータ40を制御しアシストトルクを発生させる処理である。
 処理部45は、推定処理45bによって推定重量を求めると、アシストトルクを発生させる。
 このように、処理部45は、モータ40の制御を行う前に、まず、推定処理45bを行う。
 図7は、推定処理の一例を示すフローチャートである。
 処理部45は、まず、判定処理45b2(図4)を実行し、回転検出器41の出力が所定の条件を満たしたか否かを判定する(図7中、ステップS11、S12)。
 より具体的に、所定の条件とは、利用者Uの股関節が屈曲した状態から伸展する方向にアシストアーム13が回動したときに、アーム角速度ωが、予め設定された閾値Thよりも大きくなることである。つまり、所定の条件とは、アーム角度βが増加する方向にアシストアーム13が回動したときに、アーム角速度ωが、予め設定された閾値Thよりも大きくなることである。
 よって、処理部45は、アーム角度βが増加する方向にアシストアーム13が回動しているか否かを判定する(図7中、ステップS11)。処理部45は、アーム角速度ωを求める際に、アシストアーム13の回動方向を示す情報も得る。
 処理部45は、アーム角速度ωを求める際に取得したアシストアーム13の回動方向を示す情報に基づいて、アーム角度βが増加する方向にアシストアーム13が回動しているか否かを判定する。
 処理部45は、アーム角度βが増加する方向にアシストアーム13が回動していると判定するまで、ステップS11を繰り返す。
 アーム角度βが増加する方向にアシストアーム13が回動していると判定すると、処理部45は、直近に求めたアーム角速度ωが閾値Thよりも大きいか否かを判定する(図7中、ステップS12)。
 アーム角速度ωが閾値Thよりも大きくない(閾値Th以下である)と判定すると、処理部45は、再度、ステップS11に戻る。
 このように、処理部45は、判定処理45b2を実行することで、アーム角度βが増加する方向にアシストアーム13が回動したときに、アーム角速度ωが閾値Thよりも大きいか否かを判定する(図7中、ステップS11、S12)。
 ステップS12においてアーム角速度ωが閾値Thよりも大きいと判定すると、処理部45は、重量推定処理45b3(図4)を実行し、第1時系列データ及び第2時系列データを取得する(図7中、ステップS13)。
 第1時系列データ及び第2時系列データは、記憶部46に記憶された離散値データ46bの中から取得される。
 図8は、離散値データ46bから取得される第1時系列データ及び第2時系列データの内容を示す図である。
 図8中、第1時系列データT1は、ステップS11、S12において判定に用いたアーム角速度ω(回転検出器41の出力)が取得された時点から、所定時間遡った時点までの過去期間の間に取得された複数の回転検出器41の出力に基づく時系列データである。
 第1時系列データT1は、アーム角度βの時系列データT11、及びアーム角速度ωの時系列データT12を含む。
 第1時系列データT1は、記憶部46に記憶された離散値データ46bの中から取得される。
 離散値データ46bには、アーム角度βの離散値データD11及びアーム角速度ωの離散値データD12が含まれている。アーム角度βの離散値データD11は、時間的に連続した複数のアーム角度βの値を含む。また、アーム角速度ωの離散値データD12は、時間的に連続した複数のアーム角速度ωの値を含む。
 処理部45は、アーム角度βの離散値データD11の中から、過去期間の間に取得された複数のアーム角度βを、アーム角度βの時系列データT11として取得する。また、処理部45は、アーム角速度ωの離散値データD12の中から、過去期間の間に取得された複数のアーム角速度ωを、アーム角速度ωの時系列データT12として取得する。
 これにより処理部45は、第1時系列データT1を取得する。
 なお、処理部45は、左右のアシストアーム13それぞれについて、第1時系列データT1を取得する。
 第2時系列データT2は、上述の過去期間の間に取得された複数の加速度センサ15の出力に基づく時系列データである。
 第2時系列データT2は、Y方向加速度の時系列データT21、及びZ方向加速度の時系列データT22を含む。
 第2時系列データT2も、記憶部46に記憶された離散値データ46bの中から取得される。
 離散値データ46bには、Y方向加速度の離散値データD21及びZ方向加速度の離散値データD22が含まれている。Y方向加速度の離散値データD21は、時間的に連続した複数のY方向加速度の値を含む。また、Z方向加速度の離散値データD22は、時間的に連続した複数のZ方向加速度の値を含む。
 処理部45は、Y方向加速度の離散値データD21の中から、過去期間の間に取得された複数のY方向加速度を、Y方向加速度の時系列データT21として取得する。また、処理部45は、Z方向加速度の離散値データD22の中から、過去期間の間に取得された複数のZ方向加速度を、Z方向加速度の時系列データT22として取得する。
 これにより処理部45は、第2時系列データT2を取得する。
 次いで、処理部45は、第1時系列データT1及び第2時系列データT2に基づいて利用者Uが持ち上げようとしている荷物の推定重量を求める(図7中、ステップS14)。
 処理部45は、記憶部46に記憶された学習済みモデル46a(図4)を用いて推定重量を求める。
 学習済みモデル46aは、第1時系列データT1及び第2時系列データT2と、荷物の重量と、の関係を機械学習させることで得られたモデルである。
 利用者Uが荷物の持ち上げを開始した直後の回転検出器41の出力及び加速度センサ15の出力と、利用者Uが持ち上げる荷物の重量と、の間には相関がある。学習済みモデル46aは、この相関に基づいて構築される。
 よって、処理部45は、利用者Uが荷物の持ち上げを開始した直後の回転検出器41の出力に基づく第1時系列データT1、及び加速度センサ15に基づく第2時系列データT2を取得する必要がある。
 回転検出器41の出力は、腰部BWに対する大腿部BFの回動状態を示している。よって、大腿部BFが回動を開始した直後に判定処理45b2が行われるように所定の条件(図7中、ステップS11、S12)を定めれば、処理部45は、利用者Uが荷物の持ち上げを開始した直後の第1時系列データT1及び第2時系列データT2を取得することができる。
 本実施形態では、所定の条件を、アーム角度βが増加する方向にアシストアーム13が回動したときに(図7中、ステップS11)、アーム角速度ωが、予め設定された閾値Thよりも大きくなること(図7中、ステップS12)としたので、処理部45は、閾値Thによって、大腿部BFの回動の開始を判定することができる。この結果、処理部45は、利用者Uが荷物の持ち上げを開始した直後の第1時系列データT1及び第2時系列データT2を適切に取得することができる。
 学習済みモデル46aの機械学習に用いられる教師データは、重量が既知である荷物の持ち上げ動作を利用者Uが行ったときに得られる第1時系列データT1及び第2時系列データT2である。学習済みモデル46aは、上記教師データを用いて機械学習される。
 機械学習のアルゴリズムとしては、分類及び回帰のいずれを用いてもよい。例えば、SVC(Support Vector Classification)、SVR(Support Vector Regression)等が用いられる。また、これに限らず、ニューラルネットワーク、決定木、ランダムフォレストなどを用いてもよい。
 処理部45は、ステップS13で取得した第1時系列データT1及び第2時系列データT2を特徴量として学習済みモデル46aに与え、推定重量を求める。
 推定重量を求めると、処理部45は、図6に戻り、制御処理45a(図4)を行い、推定重量に基づいてモータ40を制御する。
 上記構成のアシスト装置10によれば、加速度センサ15の出力と、回転検出器41の出力とに基づいて、利用者Uが持ち上げる荷物の推定重量を求める推定処理45b(図4)を実行するので、荷物の重量を検出するための専用のセンサを設けることなく、荷物の重量に応じたトルク(アシストトルク)の制御を行うことができる。
 この結果、アシスト装置10の低コスト化が可能になる上、利用者Uは、第一装着具11及び第二装着具12以外に装着する必要がなく、利用者Uによるアシスト装置10の装着も容易となる。
 ここで、図9に示すように、利用者Uが、前方の荷物Nの持ち上げ動作、及び荷下ろし動作を連続的に行う場合における、アシスト装置10の推定処理45bについて説明する。
 図9では、利用者Uの状態として、直立状態、把持状態、及び持ち上げ状態の3つの状態を示している。
 直立状態では、利用者Uは直立姿勢である。直立状態では、上半身BU及び大腿部BFは鉛直方向にほぼ平行である。
 把持状態では、利用者Uは、しゃがみ姿勢をとり、利用者Uの前方に配置された荷物台Dの上に配置された荷物Nを把持している。把持状態では、利用者Uは、荷物Nを持ち上げていない。また、利用者Uの股関節及び膝関節は屈曲し、上半身BUは前方に傾斜し、大腿部BFは後方に傾斜する。
 持ち上げ状態では、利用者Uは、しゃがみ姿勢の状態で、把持した荷物Nを荷物台Dから持ち上げている。利用者Uの股関節及び膝関節は屈曲し、上半身BUは前方に傾斜し、大腿部BFは後方に傾斜する。持ち上げ状態のときの利用者Uの腰部BWの高さ位置は、把持状態のときの腰部BWの高さ位置よりも高くなっている。
 ここで、利用者Uによる荷物Nの持ち上げ動作が、直立状態から、把持状態を経て、持ち上げ状態に至ることで行われるものとする。
 また、利用者Uによる荷物Nの荷下ろし動作が、持ち上げ状態から、把持状態を経て、直立状態に至ることで行われるものとする。また、利用者Uは、大腿部BFを含む足を左右で同じように動かして持ち上げ動作及び荷下ろし動作を行うものとする。
 なお、図9では、しゃがみ姿勢をとって荷物の把持、持ち上げを行う場合を示しているが、膝間接を屈曲させず腰部のみを曲げた姿勢をとって荷物の把持、持ち上げを行う場合も同様に推定処理45bを行うことができる。
 図10は、利用者Uが荷物Nの持ち上げ動作及び荷下ろし動作を連続的に行ったときのアーム角速度ωの一例を示すグラフである。
 図10中、横軸は時間、縦軸はアーム角速度ωを示す。
 図10では、アーム角度βが増加する方向にアシストアーム13が回動したときのアーム角速度ωをマイナスの値として表示し、アーム角度βが減少する方向にアシストアーム13が回動したときのアーム角速度ωをプラスの値として表示している。
 なお、図10においてマイナスの値として表示されているアーム角速度ωは、アーム角度βが増加する方向にアシストアーム13が回動したときのアーム角速度ωを表しており、アーム角速度ωがマイナスの数値であることを示していない。図10中、アーム角速度ωが-50度/秒を示す場合、アーム角度βが増加する方向にアシストアーム13が回動したときのアーム角速度ωが50度/秒であることを示している。
 図10中、タイミングt1からタイミングt2までの間では、アーム角速度ωは、ほぼ0であり、利用者Uは直立状態である。
 タイミングt2からタイミングt3までの間では、アーム角度βが減少する方向にアシストアーム13が回動している。つまり、利用者Uは、タイミングt2からタイミングt3の間において股関節を屈曲動作させ、直立状態(直立姿勢)から把持状態(しゃがみ姿勢)へ体勢を変化させている。
 タイミングt3からタイミングt4までの間では、アーム角速度ωは、ほぼ0であり、利用者Uは把持状態を維持している。
 タイミングt4からタイミングt6までの間では、アーム角度βが増加する方向にアシストアーム13が回動している。つまり、利用者Uは、タイミングt4からタイミングt6の間において股関節を伸展動作させ、把持状態(しゃがみ姿勢)から持ち上げ状態(しゃがみ姿勢)へ体勢を変化させ、持ち上げ動作を行っている。
 タイミングt6からタイミングt7までの間では、アーム角速度ωは、ほぼ0であり、利用者Uは持ち上げ状態を維持している。
 タイミングt7からタイミングt8までの間では、アーム角度βが減少する方向にアシストアーム13が回動している。つまり、利用者Uは、タイミングt7からタイミングt8の間において股関節を屈曲動作させ、持ち上げ状態(しゃがみ姿勢)から把持状態(しゃがみ姿勢)へ体勢を変化させ、荷下ろし動作を行っている。
 タイミングt8からタイミングt9までの間では、アーム角速度ωは、ほぼ0であり、利用者Uは把持状態を維持している。
 タイミングt9からタイミングt10までの間では、アーム角度βが増加する方向にアシストアーム13が回動している。つまり、利用者Uは、タイミングt9からタイミングt10の間において股関節を伸展動作させ、把持状態(しゃがみ姿勢)から直立状態(直立姿勢)へ体勢を変化させている。
 ここで、図7中、ステップS11の閾値Thが50度/秒であるとする。
 この場合、図10中、タイミングt4からタイミングt6までの間では、アーム角度βが増加する方向にアシストアーム13が回動している。つまり、利用者Uは、タイミングt4からタイミングt6の間において股関節を伸展動作させ、把持状態(しゃがみ姿勢)から持ち上げ状態(しゃがみ姿勢)へ体勢を変化させ、持ち上げ動作を行っている。
 図10中、アーム角速度ωはタイミングt4から時間の経過に伴って増加し、タイミングt5の時点で閾値Thである50度/秒となる。よって、タイミングt5を超えると、アーム角速度ωは、閾値Thよりも大きくなる。
 この場合、アーム角度βが増加する方向にアシストアーム13が回動したときのアーム角速度ωが、閾値Thよりも大きくなる。
 よって、タイミングt5を通過すると、処理部45は、アーム角速度ωが、閾値Thよりも大きいと判定し(図7中、ステップS12)、重量推定処理45b3(図4)を実行し、第1時系列データT1及び第2時系列データT2を取得する(図7中、ステップS13)。
 ここでは、処理部45が、第1時系列データT1に含まれるアーム角速度ωの時系列データT12を取得する際の態様について説明する。
 上述したように、処理部45は、アーム角速度ωの離散値データD12の中から、過去期間Pの間に取得された複数のアーム角速度ωの値を、アーム角速度ωの時系列データT12として取得する。
 また、過去期間Pは、閾値Thよりも大きいと判定されたアーム角速度ω(を求めた回転検出器41の出力)を取得した時点から、所定時間過去に遡った時点までである。
 本実施形態において、過去期間Pの時間長さは、0.5秒であるとする。
 処理部45は、タイミングt5から0.5秒遡った過去期間Pの間に含まれる複数のアーム角速度ωの値を、アーム角速度ωの時系列データT12として取得する。
 なお、図10では、処理部45がアーム角速度ωの時系列データT12を取得する際の態様を示したが、アーム角度βの時系列データT11を取得する際の態様も、アーム角速度ωの時系列データT12を取得する場合の態様と同様である。処理部45は、過去期間Pに含まれる複数のアーム角度βを、アーム角度βの時系列データとして取得する。
 また、Y方向加速度の時系列データT21及びZ軸方向加速度の時系列データT22を取得する際の態様も、アーム角速度ωの時系列データT12を取得する場合の態様と同様である。処理部45は、過去期間Pに含まれる複数のY方向の加速度を、Y方向加速度の時系列データT21として取得し、過去期間Pに含まれる複数のZ方向の加速度を、Z方向加速度の時系列データT22として取得する。
 これにより、処理部45は、第1時系列データT1及び第2時系列データT2を取得する。
 処理部45は、第1時系列データT1及び第2時系列データT2を取得すると、推定重量を求める(図7中、ステップS14)。
 さらに、処理部45は、制御処理45aを行い、推定重量に基づいてモータ40を制御しアシストトルクを発生させる(図6中、ステップS2)。
 なお、図10中、タイミングt9からタイミングt10までの間においても、アーム角度βが増加する方向にアシストアーム13が回動したときのアーム角速度ωが、閾値Thよりも大きくなる。
 よって、処理部45は、タイミングt9からタイミングt10までの間において、重量推定処理45b3(図4)を実行し、第1時系列データT1及び第2時系列データT2を取得する。
 この場合、利用者Uは、荷物Nを持っていないので、推定処理45bによる推定重量は、荷物Nを持っていない場合の値となる。処理部45は、荷物Nを持っていない場合の推定重量に基づいてアシストトルクを発生させるので、利用者Uに対して必要以上のアシストトルクを与えないように制御することができる。
〔過去期間について〕
 上述したように、処理部45は、利用者Uが荷物の持ち上げを開始した直後の回転検出器41の出力に基づく第1時系列データT1、及び加速度センサ15に基づく第2時系列データT2を取得する必要がある。
 本実施形態では、閾値Thによって、大腿部BFの回動の開始を検知し、所定時間遡った期間である過去期間Pで取得された回転検出器41の出力及び加速度センサ15の出力に基づいて、第1時系列データT1及び第2時系列データT2を得る。これにより、利用者Uが荷物の持ち上げを開始した直後の回転検出器41の出力に基づく第1時系列データT1、及び加速度センサ15に基づく第2時系列データT2を取得する。
 このため、過去期間P(図10)を適切に設定する必要がある。
 過去期間Pは、閾値Th、及び過去期間Pの時間長さによって定まる。
 図11は、閾値Thと、過去期間Pの時間長さとを変化させて推定重量を求めたときのf1スコアの一例を示すグラフである。
 図11中、横軸は過去期間Pの時間長さ(秒)であり、縦軸はf1スコアである。
 また、図11中、グラフG1は閾値Thが20度/秒の場合のf1スコアを示している。また、グラフG2は閾値Thが30度/秒の場合のf1スコアを示している。グラフG3は閾値Thが40度/秒の場合のf1スコアを示している。グラフG4は閾値Thが50度/秒の場合のf1スコアを示している。
 図11に示すように、過去期間Pの時間長さが0.3秒以下の場合、精度の低下が見られ、0.4秒以上の場合、相対的に高い精度が得られる。
 また、閾値Thが30度/秒以下の場合、精度の低下が見られ、40度/秒から、50度/秒までの範囲であれば、相対的に高い精度が得られる。
 このように、過去期間Pを適切に設定することで、推定重量の推定精度が高められることが判る。
〔再学習処理について〕
 本実施形態のアシスト装置10は、再学習処理45cを実行することで、外部から与えられる教師データを受け付ける処理と、この教師データに基づいて学習済みモデル46aの再学習を行う処理とを実行する機能を有する。
 処理部45は、再学習処理45cを行う場合、通常モードから、学習モードへモード切替を行う。通常モードは、利用者Uの作業のアシストを行うモードであり、上述の推定処理45b及び制御処理45aを実行するモードである。
 学習モードは、学習済みモデル46aの再学習を行うためのモードである。
 処理部45は、学習モードにおいて、外部からの入力を受け付けるための入力部(図示省略)を介して教師データを受け付けることができる。
 また、学習モードにおいて、重量が既知である荷物の持ち上げ動作を利用者Uが行ったとき、処理部45は、そのときに得られる第1時系列データT1及び第2時系列データT2と、荷物の重量とを教師データとして用いることができる。
 このように、実際に利用者Uが用いたときの第1時系列データ及び第2時系列データと荷物の重量との関係を教師データとして用いて学習済みモデル46aの再学習を行うので、学習済みモデル46aを利用者Uに応じて最適化することができ、さらに、推定重量の精度を高めることができる。
〔他の実施形態について〕
 図12は、他の実施形態に係るアシスト装置10の処理部45の構成を示すブロック図である。
 本実施形態では、処理部45が、筋トルク推定処理45b4を実行する機能を有する点において、上記実施形態と相違する。
 本実施形態の処理部45は、筋トルク推定処理45b4において、加速度センサ15の出力から得られる利用者Uの上半身BUの傾斜角度α(図5)及び上半身BUの角速度、並びに、回転検出器41の出力から得られるアーム角度β及びアーム角速度ωに基づいて、利用者Uの筋力によって発揮される大腿部BFを回動させるための推定筋トルクを求める。
 上半身BUの角速度は、上半身BUの傾斜角度αを経時的に取得し、単位時間当たりの傾斜角度αの増分に基づいて求められる。
 推定筋トルクは、予め構築された筋トルク推定モデルに、上述のパラメータを与えることで求められる。
 本実施形態の処理部45は、判定処理45b2を実行することで、アーム角度βが増加する方向にアシストアーム13が回動し、アーム角速度ωが閾値Thよりも大きいと判定すると(図7中、ステップS11、S12)、推定筋トルクの時系列データを取得し(図7中、ステップS13)、推定筋トルクの時系列データに基づいて推定重量を求める(図7中、ステップS14)。
 推定筋トルクの時系列データは、過去期間Pで取得された複数の回転検出器41の出力及び複数の加速度センサ15の出力に基づいて求められる複数の推定筋トルクの値を含む。
 本実施形態の学習済みモデル46aは、推定筋トルクの時系列データと、荷物の重量と、の関係を機械学習させることで得られたモデルである。
 処理部45は、推定筋トルクの時系列データを特徴量として上記学習済みモデル46aに与え、推定重量を求める。
 本実施形態においても、過去期間Pで求められた推定筋トルクの時系列データに基づいて推定重量を求めることができ、精度良く推定重量を求めることができる。
〔その他〕
 今回開示した実施形態はすべての点で例示であって制限的なものではない。
 上記実施形態では、第2時系列データT2がY方向加速度の時系列データT21及びZ方向加速度の時系列データT22を含む場合を例示したが、第2時系列データT2は、さらに、上半身BUの傾斜角度αの時系列データや、上半身BUの角速度の時系列データを含んでいてもよい。
 また、上記実施形態では、左右のアシストアーム13それぞれについて、第1時系列データT1を取得する場合を例示したが、例えば、左右のアシストアーム13のうちのいずれか一方のアシストアーム13の第1時系列データT1を取得するように構成してもよい。
 この場合、処理部45によって処理されるデータ量を減少させることができ、処理部45の負荷を軽減することができる。
 なお、左右のアシストアーム13それぞれについて、第1時系列データT1を取得する場合、左右のアシストアーム13それぞれについて判定することができ、より推定重量の推定精度を高めることができる。
 本発明の権利範囲は、上述の実施形態に限定されるものではなく、請求の範囲に記載された構成と均等の範囲内でのすべての変更が含まれる。
10 アシスト装置
11 第一装着具
12 第二装着具
13 アシストアーム
14 アクチュエータ
15 加速度センサ
16 制御装置
21 腰サポート部
21a 前ベルト
21b 後ベルト
21c 腰側方パッド
22 ジャケット部
22a 肩ベルト
22b 胸ベルト
23 フレームカバー
24 バックパック部
25 回動機構
25a ケース
25b 軸部
39 フレームパイプ
40 モータ
40a 出力軸
40b 渦巻バネ
41 回転検出器
42 減速機
42a 入力軸
43 駆動プーリ
44 ワイヤ
45 処理部
45a 制御処理
45b 推定処理
45b1 取得処理
45b2 判定処理
45b3 重量推定処理
45b4 筋トルク推定処理
45c 再学習処理
46 記憶部
46a モデル
46b 離散値データ
BB 胸
BF 大腿部
BS 肩部
BU 上半身
BW 腰部
D 荷物台
D11 離散値データ
D12 離散値データ
D21 離散値データ
D22 離散値データ
N 荷物
P 過去期間
T1 第1時系列データ
T11 時系列データ
T12 時系列データ
T2 第2時系列データ
T21 時系列データ
T22 時系列データ
Th 閾値
U 利用者
g 鉛直方向線
α 傾斜角度
β アーム角度
γ 角度
ω アーム角速度
 

Claims (7)

  1.  利用者の少なくとも腰部に装着される第1装着具と、
     前記利用者の大腿部に沿って配置され、前記第1装着具に対して回動可能なアームと、
     前記アームを回動させるトルクを発生するモータと、
     前記アームに設けられるとともに、前記大腿部に装着される第2装着具と、
     前記第1装着具に設けられた加速度センサと、
     前記アームの回動状態を検出する回転検出器と、
     前記モータを制御する制御装置と、を備え、
     前記制御装置は、
     前記加速度センサの出力と、前記回転検出器の出力とに基づいて、前記利用者が持ち上げる荷物の推定重量を求める推定処理と、
     前記推定重量に基づいて前記モータを制御する制御処理と、を実行する処理部を備える
    アシスト装置。
  2.  前記推定処理は、
     前記回転検出器の出力及び前記加速度センサの出力を経時的に取得する取得処理と、
     前記回転検出器の出力が所定の条件を満たしたか否かを判定する判定処理と、
     前記回転検出器の出力が前記所定の条件を満たすと判定されると、前記所定の条件を満たした前記回転検出器の出力を取得した時点から、所定時間遡った時点までの過去期間で取得された複数の前記回転検出器の出力に基づく第1時系列データ、及び、前記過去期間で取得された複数の前記加速度センサの出力に基づく第2時系列データに基づいて前記推定重量を求める重量推定処理と、を含む
    請求項1に記載のアシスト装置。
  3.  前記所定の条件は、前記利用者の股関節が伸展する方向に前記アームが回動したときに前記回転検出器の出力から得られる前記アームの角速度が、予め設定された閾値よりも大きくなることである
    請求項2に記載のアシスト装置。
  4.  前記第1時系列データは、前記第1装着具に対する前記アームの角度の時系列データ、及び前記アームの角速度の時系列データを含み、
     前記第2時系列データは、前記加速度センサにおける上下方向の加速度の時系列データ、及び、前記加速度センサにおける前記利用者の前後方向の加速度の時系列データを含む
    請求項2又は請求項3に記載のアシスト装置。
  5.  前記重量推定処理では、前記第1時系列データ及び前記第2時系列データと、前記荷物の重量と、の関係を学習した学習済みモデルを用いて前記推定重量が求められる
    請求項2から請求項4のいずれか一項に記載のアシスト装置。
  6.  前記処理部は、
     前記第1時系列データ及び前記第2時系列データと、前記荷物の重量と、の関係を示す教師データを受け付ける処理と、
     前記教師データに基づいて前記学習済みモデルの再学習を行う処理と、をさらに実行する
    請求項5に記載のアシスト装置。
  7.  前記推定処理は、
     前記回転検出器の出力及び前記加速度センサの出力を経時的に取得する取得処理と、
     前記加速度センサの出力から得られる前記利用者の上半身の傾斜角度及び角速度、並びに、前記回転検出器の出力から得られる前記アームの角度及び角速度に基づいて、前記利用者の筋力によって発揮される前記大腿部を回動させるための推定筋トルクを求める筋トルク推定処理と、
     前記回転検出器の出力が所定の条件を満たしたか否かを判定する判定処理と、
     前記回転検出器の出力が前記所定の条件を満たすと判定されると、前記所定の条件を満たした前記回転検出器の出力を取得した時点から、所定時間遡った時点までの過去期間で取得された複数の回転検出器の出力及び複数の加速度センサの出力に基づいて求められる複数の推定筋トルクに基づいて前記推定重量を求める重量推定処理と、を含む
    請求項1に記載のアシスト装置。
     
PCT/JP2021/020426 2021-05-28 2021-05-28 アシスト装置 WO2022249449A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2021/020426 WO2022249449A1 (ja) 2021-05-28 2021-05-28 アシスト装置
JP2023523955A JPWO2022249523A1 (ja) 2021-05-28 2021-12-27
PCT/JP2021/048533 WO2022249523A1 (ja) 2021-05-28 2021-12-27 アシスト装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/020426 WO2022249449A1 (ja) 2021-05-28 2021-05-28 アシスト装置

Publications (1)

Publication Number Publication Date
WO2022249449A1 true WO2022249449A1 (ja) 2022-12-01

Family

ID=84228484

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2021/020426 WO2022249449A1 (ja) 2021-05-28 2021-05-28 アシスト装置
PCT/JP2021/048533 WO2022249523A1 (ja) 2021-05-28 2021-12-27 アシスト装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/048533 WO2022249523A1 (ja) 2021-05-28 2021-12-27 アシスト装置

Country Status (2)

Country Link
JP (1) JPWO2022249523A1 (ja)
WO (2) WO2022249449A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012125388A (ja) * 2010-12-15 2012-07-05 Toyota Motor Corp 歩行リハビリ装置
JP2016049122A (ja) * 2014-08-28 2016-04-11 国立大学法人九州大学 関節運動補助装置
JP2020093375A (ja) * 2018-12-14 2020-06-18 株式会社ジェイテクト アシスト装置
JP2020116684A (ja) * 2019-01-24 2020-08-06 株式会社ジェイテクト アシスト装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012125388A (ja) * 2010-12-15 2012-07-05 Toyota Motor Corp 歩行リハビリ装置
JP2016049122A (ja) * 2014-08-28 2016-04-11 国立大学法人九州大学 関節運動補助装置
JP2020093375A (ja) * 2018-12-14 2020-06-18 株式会社ジェイテクト アシスト装置
JP2020116684A (ja) * 2019-01-24 2020-08-06 株式会社ジェイテクト アシスト装置

Also Published As

Publication number Publication date
JPWO2022249523A1 (ja) 2022-12-01
WO2022249523A1 (ja) 2022-12-01

Similar Documents

Publication Publication Date Title
US8079967B2 (en) Controller for walking assistance device
JP6884526B2 (ja) 起立補助方法及び装置
KR101772974B1 (ko) 휴머노이드 로봇의 인간 유사 동작 생성 방법
US7883483B2 (en) Control device and control program of walking assisting device
US7828755B2 (en) Control device and control program for walking assist apparatus
EP2762123B1 (en) Movement assisting device and movement assisting method, computer program, and program storage medium
JP6941058B2 (ja) 支持−運動機構の機能障害を伴うユーザーのための歩行補助デバイス
JP5507224B2 (ja) 歩行介助ロボット
US8323222B2 (en) Control device for walking assist device
CN110678157B (zh) 机电机器人操作器装置
US20100010639A1 (en) Control device for walking assistance device
WO2013035814A1 (ja) パワーアシストロボット装置およびその制御方法
JP2018061663A (ja) パワーアシストロボット装置
JP5147595B2 (ja) 歩行補助装置の制御装置および制御方法
WO2006080134A1 (ja) 装着式動作補助装置及び制御用プログラム
JP2018199205A (ja) アシスト装置
JP4440759B2 (ja) 2足歩行移動体の床反力推定方法
CN113894769A (zh) 辅助装置
US8303524B2 (en) Control device for walking assist device
WO2022249449A1 (ja) アシスト装置
CN114055428A (zh) 辅助装置
US20220000701A1 (en) Assist device
JP7478024B2 (ja) 装着式動作補助装置
KR20220060616A (ko) 상지 착용 로봇장치
JP2010082159A (ja) 歩行補助装置の制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21943094

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21943094

Country of ref document: EP

Kind code of ref document: A1