WO2019224994A1 - 動き検出装置 - Google Patents

動き検出装置 Download PDF

Info

Publication number
WO2019224994A1
WO2019224994A1 PCT/JP2018/020103 JP2018020103W WO2019224994A1 WO 2019224994 A1 WO2019224994 A1 WO 2019224994A1 JP 2018020103 W JP2018020103 W JP 2018020103W WO 2019224994 A1 WO2019224994 A1 WO 2019224994A1
Authority
WO
WIPO (PCT)
Prior art keywords
finger
unit
motion detection
movement
detection device
Prior art date
Application number
PCT/JP2018/020103
Other languages
English (en)
French (fr)
Inventor
昌宏 粕谷
達也 關
Original Assignee
株式会社メルティンMmi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メルティンMmi filed Critical 株式会社メルティンMmi
Priority to JP2020520975A priority Critical patent/JP6891344B2/ja
Priority to CN201880093807.0A priority patent/CN112166012A/zh
Priority to EP18919950.8A priority patent/EP3782775A4/en
Priority to PCT/JP2018/020103 priority patent/WO2019224994A1/ja
Publication of WO2019224994A1 publication Critical patent/WO2019224994A1/ja
Priority to US17/099,577 priority patent/US20210072762A1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0227Control of position or course in two dimensions specially adapted to land vehicles using mechanical sensing means, e.g. for sensing treated area
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • B25J13/025Hand grip control means comprising haptic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0009Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P13/00Indicating or recording presence, absence, or direction, of movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Definitions

  • the present invention relates to a motion detection device that detects the movement of an operator's finger for remotely operating an articulated robot.
  • a remote operation system in which a robot hand, which is an example of an articulated robot, is remotely operated by an operator is used.
  • a robot hand which is an example of an articulated robot
  • an operator wears a glove that is provided with a sensor or an optical fiber for detecting the movement of a finger inside, and moves the robot hand according to the detected movement of the finger. Techniques for making them disclosed are disclosed.
  • a bending type sensor is used to detect the movement of the finger.
  • a sensor has a problem that it is easily damaged and detection accuracy is low.
  • it is necessary for an operator to wear a glove so that an internal sensor or the like is not damaged there is a problem that it is difficult to wear the glove.
  • the present invention has been made in view of these points, and can detect the movement of an operator's hand for operating an articulated robot with high accuracy, and has excellent durability and easy mounting.
  • An object is to provide a detection device.
  • a motion detection device for detecting the motion of an operator's finger for remotely operating an articulated robot, wherein the device main body is installed so that the finger is attached, and the device A movement formed by following the shape of the finger in the main body, the contact part contacting the finger, and a detection part detecting the movement of the finger based on a pressing state of the finger against the contact part A detection device is provided.
  • a region where the belly of the finger comes into contact may be curved in a convex shape toward the finger side.
  • the contact portion includes a rotation portion that rotates around a shaft portion in response to the pressure of the finger, and the detection portion moves the finger based on a pressing state of the finger against the rotation portion. May be detected.
  • the said contact part is good also as elastically deforming according to the press state by the said finger
  • the contact portion may be a groove portion formed following the shape of the finger. Further, the groove portion may be formed on the outer peripheral surface of the apparatus main body.
  • the apparatus main body may have an insertion hole part into which the finger can be inserted, and the contact part may be provided in the insertion hole part.
  • the apparatus main body may have a spherical part made up of a part or all of a spherical shape or an ellipsoid, and the contact part may be provided in the spherical part.
  • the detection unit is arranged at a position corresponding to at least one phalanx of the finger in contact with the contact unit, the middle node, and the terminal node, and detects a pressing state of the phalanx It is good also as having a detection part.
  • the contact portion has a rotating portion that rotates around a shaft portion in response to the pressure of the finger
  • the detection portion further includes a position detection portion that detects the position of the fingertip of the finger, The movement of the finger may be detected based on the amount of rotation of the rotation unit and the position of the fingertip detected by the position detection unit.
  • the contact portion has a rotation portion that rotates around a shaft portion in response to the pressing of the finger, and the phalanx detection unit and the position detection unit are provided in the rotation unit. It is good.
  • the detection unit may be arranged in a region where the side surface of the finger contacts in the groove, and may detect at least one movement of the finger in the left-right direction.
  • the detection unit may be disposed in a region where the side surface of the finger contacts the insertion hole, and may detect at least one movement of the finger in the left-right direction.
  • the motion detection device may further include a force generation unit that generates a force corresponding to a reaction force from the object when the articulated robot touches the object.
  • the contact portion includes a rotation portion that rotates around a shaft portion in a first direction in response to the pressing of the finger, and the force sense generation portion is a second direction that is opposite to the first direction.
  • a driving unit that rotates the rotating unit in a direction may be provided, and the force sense may be generated by rotating the rotating unit in the second direction by the driving unit.
  • the present invention it is possible to detect a motion of an operator's hand for operating an articulated robot with high accuracy, and to provide an effect of providing a motion detection device excellent in durability and wearing convenience.
  • FIG. 2 is a schematic diagram for explaining an example of a configuration of a multi-finger robot 10.
  • FIG. 6 is a schematic diagram illustrating an example of a state in which an operator's right hand is attached to the apparatus main body 32.
  • FIG. It is a schematic diagram which shows an example in the state where the operator bent the finger of the right hand.
  • 4 is a schematic diagram for explaining an example of a configuration of an apparatus main body 32.
  • FIG. It is the schematic diagram which looked at the apparatus main body 32 shown in FIG. 5 from the back side.
  • It is a schematic diagram for demonstrating the detection of the position of a fingertip.
  • FIG. 6 is a schematic diagram for explaining an example of an arrangement state of a phalanx detector 52;
  • FIG. 6 is a schematic diagram for explaining an example of a configuration of a driving unit 62.
  • FIG. 10 is a schematic diagram for explaining a modification of the configuration of the drive unit 62. It is a schematic diagram for demonstrating the structure of the apparatus main body 32 which concerns on a modification.
  • FIG. 1 is a block diagram for explaining a configuration of a remote control system S for a robot according to an embodiment.
  • the remote operation system S includes a multi-finger robot 10, a motion detection device 30, and a control device 70.
  • the remote operation system S detects the movement of an operator's hand (specifically a finger) that is remotely operated by the movement detection device 30 and operates the multi-fingered robot 10 in conjunction with the detected movement of the hand.
  • FIG. 2 is a schematic diagram for explaining an example of the configuration of the multi-fingered robot 10.
  • the multi-finger robot 10 is an articulated robot that is remotely operated by an operator.
  • the multi-fingered robot 10 is a humanoid robot hand formed following a human hand.
  • the multi-finger robot 10 touches or grabs an object.
  • FIG. 2 only the robot hand imitating the human right hand is shown as the multi-fingered robot 10, but the robot hand imitating the human left hand has the same configuration.
  • the multi-finger robot 10 includes a finger mechanism 12 and a drive source 14 as shown in FIG.
  • five finger mechanisms 12 are provided corresponding to five fingers (thumb, forefinger, middle finger, ring finger, little finger) of a human hand.
  • Each of the five finger mechanisms 12 is a joint mechanism driven by a drive source 14.
  • the drive source 14 is an actuator such as a motor.
  • the drive source 14 operates the finger mechanism 12 by wire drive, for example.
  • the multi-finger robot 10 receives an operation command from the control device 70 and operates the corresponding finger mechanisms 12 in conjunction with the movement of the five fingers of the remote operator's hand.
  • the motion detection device 30 is a detection device that detects the motion of an operator's hand (specifically, a finger) for remotely operating the multi-finger robot 10.
  • the motion detection device 30 includes a left hand detection device that detects the movement of the finger of the operator's left hand and a right hand detection device that detects the motion of the finger of the operator's right hand.
  • the configurations of the left-hand detection device and the right-hand detection device are the same.
  • the motion detection device 30 includes a device main body 32, a detection unit 50, and a force sense generation unit 60.
  • the apparatus main body 32 is installed so that the operator can easily touch it.
  • the apparatus main body 32 is installed at a position where an operator in a sitting posture or a standing posture can easily add a hand.
  • the operator moves his / her finger with the hand attached to the apparatus main body 32.
  • the operator bends or stretches a finger attached to the apparatus main body 32.
  • the operator widens or shortens the interval between the two fingers.
  • the apparatus main body 32 includes a left-hand main body to which an operator's left hand is attached and a right-hand main body to which a right hand is attached. The operator moves the finger of the left hand along with the main body for the left hand, and moves the finger of the right hand along with the main body for the right hand. Since the left-hand main body and the right-hand main body have the same configuration, the apparatus main body 32 will be described below by taking the right-hand main body as an example.
  • FIG. 3 is a schematic diagram showing an example of a state in which the operator's right hand H is attached to the apparatus main body 32.
  • FIG. 4 is a schematic diagram illustrating an example of a state in which the operator bends the finger of the right hand H. As shown in FIGS. 3 and 4, the operator attaches the palm side of the hand to the apparatus main body 32.
  • the apparatus main body 32 is provided with a contact portion 40 with which each of the five fingers (thumb F1, index finger F2, middle finger F3, ring finger F4, little finger F5) of the right hand H of the operator contacts. Yes.
  • the contact portion 40 is located at substantially the same position as the outer peripheral surface 32a of the apparatus main body 32 and is exposed to the outside. The detailed configuration of the contact portion 40 will be described later.
  • the detection unit 50 detects the movement of the operator's finger.
  • the detection unit 50 detects the movement of the finger based on the pressing state of the operator's finger against the contact unit 40. For example, when the operator presses the contact unit 40 by bending the finger, the detection unit 50 detects the bent posture of the finger based on the pressing state of the finger with respect to the contact unit 40.
  • the finger pressing state is a concept including both the position where the finger presses the contact portion 40 and the pressing strength.
  • the strength of pressing with a finger can be detected based on, for example, the amount by which the contact portion 40 is pressed down by the finger, but the pressing strength can be determined by other methods (for example, change in capacitance at the pressing position of the finger). It may be detected.
  • the detection unit 50 can estimate the movement of the entire hand by detecting the movement (including posture) of each of the five fingers. For example, the detection unit 50 detects that the operator has bent five fingers from the state of FIG. 3 to the state of FIG.
  • the detection unit 50 includes a phalanx detection unit 52, a position detection unit 54, and a left / right movement detection unit 56 in order to detect the movement of the finger with high accuracy. Details of these detection units will be described later.
  • the force sense generator 60 generates a force sense corresponding to the reaction force from the object when the multi-fingered robot 10 touches the object.
  • the force sense generation unit 60 may drive the contact unit 40 so that the operator's finger has a corresponding finger posture.
  • the force sense generating unit 60 operates the contact unit 40 (specifically, the rotating members 45a to 45f shown in FIG. 5) via the drive unit 62 to contact the contact unit 40.
  • Force sense is transmitted to the operator's finger.
  • the sense of force is a sense related to the sense of touch among the five senses (visual, auditory, tactile, gustatory, and olfactory) that humans have, and means a sense of force that humans feel mainly when touching an object.
  • the force sense generating unit 60 generates a force sense when the multi-fingered robot 10 that holds the object by bending the finger mechanism 12 cannot further bend the finger mechanism 12.
  • the operator can recognize that the multi-fingered robot 10 that is remotely operated cannot be bent further, the softness of the grasped object, etc. by receiving the generated force sensation.
  • the control device 70 controls the operation of the multi-fingered robot 10 based on the movement of the operator's hand detected by the motion detection device 30. That is, the control device 70 operates each of the corresponding finger mechanisms 12 in conjunction with the movement of each finger of the operator.
  • the control device 70 may be a single device together with the motion detection device 30.
  • the control device 70 operates the finger mechanism 12 so as to match the detected posture of the finger, for example. For example, when the motion detection device 30 detects that the operator has bent the finger of the right hand as shown in FIG. 3, the control device 70 imitates the multi-finger robot 10 (specifically, following the right hand). Bend the robot hand. In addition, the control device 70 may operate the finger mechanism 12 by adjusting the angular velocity of the joint of the finger mechanism 12 so as to match the magnitude of the pressure that the operator is pressing with the finger. Furthermore, the control device 70 may operate the multi-finger robot 10 at a predetermined magnification of finger movement (for example, bending amount).
  • FIG. 5 is a schematic diagram for explaining an example of the configuration of the apparatus main body 32.
  • FIG. 6 is a schematic view of the apparatus main body 32 shown in FIG. 5 as viewed from the rear side.
  • the positions of the phalanx detector 52 and the left-right motion detector 56 are indicated by circles ( ⁇ ).
  • the apparatus main body 32 has a sphere 35 as shown in FIG.
  • the spherical part 35 is a part where the operator moves his / her finger with his / her hand.
  • the sphere 35 has a spherical shape.
  • the spherical body part 35 may consist of the shape which contains a part of ellipsoid, and may consist of the whole ellipsoid. By making the shape of the spherical portion 35 like this, the operator can easily move it with his / her hand.
  • a support portion that supports the spherical body portion 35 may be connected to the spherical body portion 35.
  • the spherical body part 35 has a groove part 37 formed on the outer peripheral surface as shown in FIG.
  • the groove portion 37 is formed following the shape of the operator's hand, and the operator attaches the palm side of the hand to the groove portion 37 (see FIG. 3).
  • finger contact portions 41a to 41f with which the operator's five fingers come into contact are provided as the contact portion 40 described above.
  • Finger contact portions 41a to 41f are portions where an operator's finger (specifically, the belly of the finger) comes into contact.
  • the thumb of the operator contacts the finger contact portion 41a
  • the index finger contacts the finger contact portion 41b
  • the middle finger contacts the finger contact portion 41c
  • the ring finger contacts the finger contact portion 41d
  • a little finger contacts the finger contact portion 41e.
  • the finger contact portions 41a to 41f are formed following the shape of the operator's five fingers. Specifically, the size of the finger contact portions 41a to 41f is proportional to the size of the corresponding finger. Thus, the operator can easily bring the five fingers into contact with the corresponding finger contact portions 41a to 41f.
  • each of the finger contact portions 41a to 41f is curved in a convex shape toward the finger side (see FIG. 6).
  • each of the finger contact portions 41a to 41f is curved in a convex shape so as to follow the shape of the corresponding finger.
  • the finger contact portions 41a to 41f may be curved in a convex shape by connecting a plurality of surfaces. This makes it easy for the operator to move the five fingers without feeling uncomfortable with the finger contact portions 41a to 41f.
  • the finger contact portions 41a to 41f have rotating members 45a to 45f that can rotate according to the movement of the fingers.
  • the rotating members 45a to 45f rotate around the shaft portions 46a to 46f when pressed by the operator's finger.
  • the rotating members 45a to 45f rotate inward of the apparatus main body 32 around the shaft portions 46a to 46f.
  • the rotating members 45a to 45f return to the state before the rotation (see FIG. 3).
  • the surfaces of the rotating members 45a to 45f are curved surfaces with a predetermined curvature, for example.
  • the contact portion 40 includes the rotating member 45 that rotates according to the movement of the finger, but is not limited thereto.
  • the contact unit 40 may include an elastic member (for example, a rubber member) that is elastically deformed according to a pressed state by a finger. In this case, a mechanism for rotating the rotation member 45 becomes unnecessary.
  • Each of the finger contact portions 41a to 41f is provided with the detection unit 50 described above.
  • the detection unit 50 detects the movement of each finger based on the pressed state of each finger attached to the finger contact units 41a to 41f. That is, when the operator presses the rotating members 45a to 45f of the finger contact portions 41a to 41f, the detecting unit 50 detects the movement of the finger based on the pressing state of the fingers with respect to the rotating members 45a to 45f. For example, the detection unit 50 detects the movement of the finger when the operator bends or extends the finger attached to the rotating members 45a to 45f.
  • the detecting unit 50 detects the amount of rotation of the rotating members 45a to 45f. Moreover, the detection part 50 contains the phalanx detection part 52, the position detection part 54, and the left-right movement detection part 56, as shown in FIG. By providing a plurality of detection units in this way, even if the operator moves the finger variously to remotely operate the multi-finger robot 10, the movement of the finger can be detected with high accuracy.
  • the phalanx detector 52 is arranged at a position corresponding to a finger node (at least one of a base node, a middle node, and a terminal node), and detects the state of the node.
  • the phalanx detector 52 is, for example, a contact type sensor that detects when a node contacts, or a non-contact type sensor that detects from a distant position.
  • the phalanx detector 52 is disposed on each of the rotating members 45a to 45f.
  • the phalanx detector 52 is arranged at a position corresponding to the base of each finger. (See FIG. 5)
  • the phalanx detector 52 provided on the rotating member 45b is arranged at a position corresponding to the base of the operator's index finger.
  • the position detection unit 54 detects the position of the fingertip of the finger. For example, when the operator bends a finger, the position detection unit 54 detects the position of the fingertip of the bent finger.
  • the position detector 54 is also provided on the rotating members 45a to 45f.
  • the position detector 54 includes, for example, a touch sensor (for example, a capacitance type) provided on the surfaces of the rotating members 45a to 45f, and detects the position of the fingertip that has touched the touch sensor.
  • FIG. 7 is a schematic diagram for explaining detection of the position of the fingertip.
  • the operator bends the index finger and touches the fingertip side of the index finger to the rotating member 45b.
  • the position detection unit 54 detects the position of the fingertip of the index finger in a bent state or the sliding distance (movement distance) of the index finger on the rotating member 45b.
  • the detection unit 50 detects the movement of the finger based on the position of the fingertip detected by the position detection unit 54 and the rotation amount of the rotation members 45a to 45f. For example, when the index finger is bent as shown in FIG. 7, the detection unit 50 detects the amount of rotation of the rotation member 45 b and detects the position of the fingertip of the index finger by the position detection unit 54. The bending state (posture) can be estimated. In the case of detecting in this way, the movement of the index finger can be appropriately detected without providing the phalange detection unit 52 for each of the three nodes of the index finger.
  • the left-right movement detection unit 56 detects at least one movement of the finger in the left-right direction.
  • the left-right motion detection unit 56 is disposed, for example, in a region where the side surface of the finger contacts in the groove portion 37. Specifically, the left-right motion detection unit 56 is disposed on each side wall of each of the rotation members 45a to 45f in the groove portion 37.
  • the left-right motion detection unit 56 is a contact-type sensor that detects when the side surface of the finger contacts, or a non-contact type sensor (for example, a distance measuring sensor) that detects even when the side surface of the finger does not contact.
  • touch sensors are provided on the surfaces of the rotating members 45a to 45f, the movement of the finger in the left-right direction may be detected by the touch sensors.
  • FIG. 8 is a schematic diagram for explaining the horizontal movement of the finger.
  • FIG. 8 shows a state in which the index finger and the middle finger are spread in a direction away from each other (left and right direction).
  • the left-right motion detection unit 56 disposed in the finger contact unit 41 b detects the position of the index finger in the left-right direction
  • the finger contact unit 41 c The arranged left and right motion detector 56 detects the position of the middle finger in the left and right direction. Accordingly, it is possible to appropriately detect the movement of the index finger and the middle finger in the left-right direction.
  • the phalanx detection unit 52 is arranged at a position corresponding to the base of the operator's finger, but is not limited thereto.
  • the phalanx detector 52 may be arranged as shown in FIG.
  • FIG. 9 is a schematic diagram for explaining an example of an arrangement state of the phalanx detection unit 52.
  • the phalanx detector 52 may be arranged at a position corresponding to each of the base, middle and end nodes of the finger. Thereby, since the state of each phalanx of a finger can be detected by the three phalanx detectors 52, the movement of the finger can be detected with high accuracy. Further, when the three phalanx detectors 52 are provided, the position detector 54 described above may not be provided.
  • the phalanx detection unit 52 may be arranged at a position corresponding to two of the finger's base, middle and end clauses.
  • the phalanx detection unit 52 may be arranged at positions corresponding to the base and end nodes of the finger.
  • the finger contact portions 41a to 41f are provided with a drive portion 62 (FIG. 1) in order to generate a force sense transmitted to the above-described finger.
  • the drive unit 62 rotates the rotating members 45a to 45f to transmit a force sense to the fingers.
  • FIG. 10 is a schematic diagram for explaining an example of the configuration of the drive unit 62.
  • the drive unit 62 that rotates the rotation member 45a is shown, but the drive unit 62 that rotates the rotation members 45b to 45f has the same configuration.
  • the drive part 62 is a motor connected with the shaft part 46b of the rotation member 45b here.
  • the drive unit 62 rotates the rotation member 45b in a direction (second direction) opposite to the pressing direction (first direction) in which the index finger F2 presses the rotation member 45b.
  • the drive unit 62 transmits a force sense from the rotation member 45 b to the index finger F ⁇ b> 2 by rotating the rotation member 45 b clockwise about the shaft portion 46 b. .
  • the driving unit 62 rotates the rotating member 45b in the direction opposite to the pressing direction.
  • the present invention is not limited to this.
  • the driving unit 62 may further rotate the rotating member 45b in the same direction as the pressing direction after rotating the rotating member 45b in the direction opposite to the pressing direction and temporarily stopping the rotating member 45b.
  • the drive unit 62 when the multi-finger robot 10 bends the finger mechanism 12 and grips the egg, when the finger mechanism 12 touches the egg, the drive unit 62 generates a force sense, and the operator stops the finger. Thereafter, when the operator further presses the finger in the pressing direction, the multi-finger robot 10 drives the finger mechanism 12 to break the egg. Then, the finger mechanism 12 further moves in the bending direction due to the egg breaking, but the drive unit 62 rotates the rotating member 45b in the pressing direction in order to feed back the position after this movement to the operator.
  • FIG. 11 is a schematic diagram for explaining a modified example of the configuration of the driving unit 62.
  • the drive part 62 is not connected to the shaft part 46b of the rotating member 45b, and moves the rod 64 arranged below the rotating member 45b.
  • the rod 64 moves, for example, in the direction (upward direction) indicated by the arrow in FIG. 11, so that the rotating member 45 b rotates clockwise about the shaft portion 46 b.
  • the drive unit 62 transmits the force sense from the rotating member 45b to the index finger F2 by moving the rod 64 upward to rotate the rotating member 45b.
  • force sense is transmitted to the finger of the operator as finger feedback to the finger contact portions 41a to 41f of the contact portion 40.
  • the contact part 40 may give a rough feeling and a slimy feeling to a finger
  • the contact unit 40 may include a device that transmits a sense to a finger according to temperature.
  • the rotating members 45a to 45f are arranged on the outer peripheral surface of the apparatus main body 32 so that the operator moves his / her finger with the palm side of the hand attached to the apparatus main body 32.
  • rotating members 45a to 45f may be arranged inside the apparatus main body 32.
  • FIG. 12 is a schematic diagram for explaining the configuration of the apparatus main body 32 according to the modification.
  • the apparatus main body 32 according to the modification has an insertion hole portion 38 through which an operator can insert a finger.
  • the insertion hole 38 may have any shape that allows easy insertion of a hand, and is, for example, rectangular.
  • the rotating members 45a to 45f are rotatably disposed in the insertion holes 38, respectively. For this reason, in the modification, the operator inserts his / her hand through the insertion hole 38 and moves his / her finger with respect to the rotating members 45a to 45f within the apparatus main body 32.
  • the detection unit 50 (FIG. 1) detects the movement of the finger in the apparatus main body 32 (the movement of the finger pressing the rotating members 45a to 45f).
  • the detection unit 50 includes the phalanx detection unit 52, the position detection unit 54, and the left-right movement detection unit 56 described above. Thereby, the movement of the finger in the apparatus main body 32 can be detected with high accuracy.
  • the rotating members 45a to 45f pressed by the finger are used.
  • the present invention is not limited to this.
  • a pointing stick that can be operated by a finger may be used.
  • the pressing force of the finger on the pointing stick is assigned to the acceleration, velocity, and displacement of the joint of the corresponding multi-finger robot 10 (multi-joint robot).
  • the multi-fingered robot 10 is a robot hand formed following a human hand, but is not limited thereto.
  • the multi-fingered robot 10 may be a robot formed following both human legs.
  • the control device 70 operates one leg (here, the left leg) of the multi-finger robot 10 and the detection unit 50 moves the middle finger. May be operated, the other leg (right leg) of the multi-finger robot 10 may be operated.
  • the motion detection device 30 of the present embodiment described above includes a device main body 32 to which an operator's finger is attached, a contact portion 40 that is formed on the device main body 32 according to the shape of the finger, and contacts the finger, and a contact portion 40. And a detecting unit 50 that detects the movement of the finger based on the pressed state of the finger.
  • the operator can remotely operate the multi-finger robot 10 by moving a finger attached to the apparatus main body 32. For this reason, compared with the method of mounting a hand on a conventional glove, the mounting is simple, and the durability of the apparatus main body 32 is excellent. Further, by detecting the movement of the finger based on the pressing state of the finger against the contact part 40 formed following the shape of the finger, the detection unit 50 can detect a fine movement of the finger with high accuracy. As a result, a fine operation of the multi-finger robot 10 can be realized.

Abstract

多指ロボット10を遠隔操作させるための操作者の指の動きを検出する動き検出装置30は、指が添えられるように設置された装置本体32と、装置本体32において指の形状に倣って形成されており、指が接触する接触部40と、接触部40に対する指の押圧状態に基づいて指の動きを検出する検出部50とを備える。

Description

動き検出装置
 本発明は、多関節ロボットを遠隔操作させるための操作者の指の動きを検出する動き検出装置に関する。
 従来、多関節ロボットの一例であるロボットハンドが操作者によって遠隔操作される遠隔操作システムが利用されている。例えば、下記の特許文献1では、操作者が、内部に手指の動作を検出するためのセンサや光ファイバが設けられたグローブを装着しており、検出した手指の動作に倣ってロボットハンドを動作させる技術が開示されている。
特開平4-210390号公報
 しかし、上記のグローブでは、例えば指の動きを検出するために曲がるタイプのセンサが用いられるが、このようなセンサは破損しやすく、また検出精度が低いという問題点がある。また、操作者は、内部のセンサ等が破損しないようにグローブを装着する必要があるため、グローブを装着し難いという問題点がある。
 そこで、本発明はこれらの点に鑑みてなされたものであり、多関節ロボットを動作させるための操作者の手の動きを高精度に検出できると共に、耐久性及び装着の簡便性に優れた動き検出装置を提供することを目的とする。
 本発明の一の態様においては、多関節ロボットを遠隔操作させるための操作者の指の動きを検出する動き検出装置であって、前記指が添えられるように設置された装置本体と、前記装置本体において前記指の形状に倣って形成されており、前記指が接触する接触部と、前記接触部に対する前記指の押圧状態に基づいて前記指の動きを検出する検出部と、を備える、動き検出装置を提供する。
 また、前記接触部のうち、前記指の腹が接触する領域は、前記指側に向かって凸状に湾曲していることとしてもよい。
 また、前記接触部は、前記指の押圧に応じて軸部周りに回動する回動部を有し、前記検出部は、前記回動部に対する前記指の押圧状態に基づいて前記指の動きを検出することとしてもよい。
 また、前記接触部は、前記指による押圧状態に応じて弾性変形することとしてもよい。
 また、前記接触部は、前記指の形状に倣って形成された溝部であることとしてもよい。
 また、前記溝部は、前記装置本体の外周面に形成されていることとしてもよい。
 また、前記装置本体は、前記指が挿入可能な挿入穴部を有し、前記接触部は、前記挿入穴部に設けられていることとしてもよい。
 また、前記装置本体は、球形状または楕円体の一部または全部からなる球体部を有し、前記接触部は、前記球体部に設けられていることとしてもよい。
 また、前記検出部は、前記接触部に接触している前記指の基節、中節及び末節の少なくとも1つの指節に対応する位置に配置され、当該指節の押圧状態を検出する指節検出部を有することとしてもよい。
 また、前記接触部は、前記指の押圧に応じて軸部周りに回動する回動部を有し、前記検出部は、前記指の指先の位置を検出する位置検出部を更に有し、前記回動部の回動量と前記位置検出部が検出した前記指先の位置とに基づいて、前記指の動きを検出することとしてもよい。
 また、前記接触部は、前記指の押圧に応じて軸部周りに回動する回動部を有し、前記指節検出部及び前記位置検出部は、前記回動部に設けられていることとしてもよい。
 また、前記検出部は、前記溝部における前記指の側面が接触する領域に配置され、前記指の左右方向の少なくとも一方の動きを検出することとしてもよい。
 また、前記検出部は、前記挿入穴部における前記指の側面が接触する領域に配置され、前記指の左右方向の少なくとも一方の動きを検出することとしてもよい。
 また、前記動き検出装置は、前記多関節ロボットが物体に触れた際の前記物体からの反力に対応する力覚を発生させる力覚発生部を更に備えることとしてもよい。
 また、前記接触部は、前記指の押圧に応じて軸部周りに第1方向に回動する回動部を有し、前記力覚発生部は、前記第1方向の逆方向である第2方向に前記回動部を回動させる駆動部を有し、当該駆動部によって前記回動部を前記第2方向へ回転させることで前記力覚を発生させることとしてもよい。
 本発明によれば、多関節ロボットを動作させるための操作者の手の動きを高精度に検出できると共に、耐久性及び装着の簡便性に優れた動き検出装置を提供できるという効果を奏する。
本発明の一の実施形態に係るロボットの遠隔操作システムSの構成を説明するためのブロック図である。 多指ロボット10の構成の一例を説明するための模式図である。 装置本体32に操作者の右手が添えられた状態の一例を示す模式図である。 操作者が右手の指を曲げた状態の一例を示す模式図である。 装置本体32の構成の一例を説明するための模式図である。 図5に示す装置本体32を後ろ側から見た模式図である。 指先の位置の検出を説明するための模式図である。 指の左右方向の動きを説明するための模式図である。 指節検出部52の配置状態の一例を説明するための模式図である。 駆動部62の構成の一例を説明するための模式図である。 駆動部62の構成の変形例を説明するための模式図である。 変形例に係る装置本体32の構成を説明するための模式図である。
 <ロボットの遠隔操作システムの構成>
 本発明の一の実施形態に係るロボットの遠隔操作システムの構成について、図1を参照しながら説明する。
 図1は、一の実施形態に係るロボットの遠隔操作システムSの構成を説明するためのブロック図である。遠隔操作システムSは、図1に示すように、多指ロボット10と、動き検出装置30と、制御装置70とを有する。遠隔操作システムSは、遠隔操作する操作者の手(具体的には指)の動きを動き検出装置30によって検出し、検出した手の動きに連動して多指ロボット10を動作させる。
 図2は、多指ロボット10の構成の一例を説明するための模式図である。多指ロボット10は、操作者によって遠隔操作される多関節ロボットである。多指ロボット10は、ここでは図2に示すように、人間の手に倣って形成された人型のロボットハンドである。多指ロボット10は、物体に触れたり、物体を掴んだりする。図2には、多指ロボット10として、人間の右手に倣ったロボットハンドのみが示されているが、人間の左手に倣ったロボットハンドも同様な構成である。多指ロボット10は、図1に示すように、指機構12と、駆動源14を有する。
 指機構12は、図2に示すように、人間の手の5本指(親指、人差し指、中指、薬指、小指)に対応して5つ設けられている。5つの指機構12の各々は、駆動源14によって駆動される関節機構である。
 駆動源14は、モータ等のアクチュエータである。駆動源14は、例えばワイヤ駆動によって指機構12を動作させる。多指ロボット10は、制御装置70から動作の指令を受けて、遠隔操作の操作者の手の5本指の動きに連動して対応する指機構12をそれぞれ動作させる。
 動き検出装置30は、多指ロボット10を遠隔操作させるための操作者の手(具体的には指)の動きを検出する検出装置である。動き検出装置30は、ここでは、操作者の左手の指の動きを検出する左手用検出装置と、操作者の右手の指の動きを検出する右手用検出装置とを含む。左手用検出装置と右手用検出装置の構成は、同様である。
 動き検出装置30は、図1に示すように、装置本体32と、検出部50と、力覚発生部60とを有する。
 装置本体32は、ここでは操作者が手を添えやすいように設置されている。例えば、装置本体32は、座った姿勢又は立った姿勢の操作者が手を添えやすい位置に設置されている。操作者は、装置本体32に手を添えた状態で、指を動かす。例えば、操作者は、装置本体32に添えた指を曲げたり、伸ばしたりする。また、操作者は、2本の指の間隔を広げたり、縮めたりする。
 装置本体32は、操作者の左手が添えられる左手用本体と、右手が添えられる右手用本体とを含む。操作者は、左手用本体に添えて左手の指を動かし、右手用本体に添えて右手の指を動かす。なお、左手用本体と右手用本体は、同一の構成であるので、以下では、右手用本体を例に挙げて装置本体32について説明する。
 図3は、装置本体32に操作者の右手Hが添えられた状態の一例を示す模式図である。図4は、操作者が右手Hの指を曲げた状態の一例を示す模式図である。図3及び図4に示すように、操作者は、手の掌側を装置本体32に添えている。装置本体32には、図3に示すように、操作者の右手Hの5本指(親指F1、人差し指F2、中指F3、薬指F4、小指F5)の各々が接触する接触部40が設けられている。接触部40は、ここでは装置本体32の外周面32aとほぼ同じ位置に位置しており、外部に露出している。なお、接触部40の詳細構成については、後述する。
 検出部50は、操作者の指の動きを検出する。検出部50は、接触部40に対する操作者の指の押圧状態に基づいて、指の動きを検出する。例えば、検出部50は、操作者が指を曲げることで接触部40を押圧する際に、接触部40に対する指の押圧状態に基づいて指の曲がっている姿勢を検出する。指の押圧状態とは、指が接触部40を押圧する位置と、押圧する強さの両方を含む概念である。指による押圧の強さは、例えば、指による接触部40の押し下げ量に基づき検出することができるが、他の方法(例えば、指の押圧位置における静電容量の変化)により押圧の強さを検出してもよい。
 また、検出部50は、5本指の各々の動き(姿勢も含む)を検出することで、手全体の動きを推定しうる。例えば、検出部50は、操作者が5本指を図3の状態から図4に状態へ曲げたことを、検出する。検出部50は、指の動きを高精度に検出するために、指節検出部52、位置検出部54及び左右動き検出部56を有するが、これらの検出部の詳細については、後述する。
 力覚発生部60は、多指ロボット10が物体に触れた際の物体からの反力に対応する力覚を発生さる。また、力覚発生部60は、多指ロボット10が他動的に動かされた場合、操作者の指が対応する指姿勢になるよう接触部40を駆動させてもよい。力覚発生部60は、詳細は後述するが、駆動部62を介して接触部40(具体的には、図5に示す回動部材45a~45f)を動作させて、接触部40に接触している操作者の指に力覚を伝達させる。力覚とは、人間が有する五感(視覚、聴覚、触覚、味覚、嗅覚)のうち、触覚に関連する感覚であり、主に物体と接触した際に人間が感じる力感覚を意味する。
 例えば、力覚発生部60は、指機構12を曲げて物体を掴んでいる多指ロボット10が指機構12を更に曲げられない場合に、力覚を発生させる。これにより、操作者は、発生した力覚を指が受けることで、遠隔操作している多指ロボット10を更に曲げられないことや掴んでいる物体のやわらかさなどを認識できる。
 制御装置70は、動き検出装置30が検出した操作者の手の動きに基づいて、多指ロボット10の動作を制御する。すなわち、制御装置70は、操作者の各指の動きに連動して、対応する指機構12の各々を動作させる。なお、制御装置70は、動き検出装置30と共に1つの装置であってもよい。
 制御装置70は、例えば検出した指の姿勢に合わせるように、指機構12を動作させる。例えば、制御装置70は、操作者が図3に示すように右手の指を曲げたことが動き検出装置30によって検出された場合には、多指ロボット10(具体的には、右手に倣ったロボットハンド)を曲げさせる。また、制御装置70は、操作者が指で押圧している押圧の大きさに合わせるように指機構12の関節の角速度を調整して、指機構12を動作させてもよい。さらに、制御装置70は、指の動き(例えば曲げ量)の所定の倍率で、多指ロボット10を動作させてもよい。
 <装置本体32の詳細構成>
 動き検出装置30の装置本体32の詳細構成について、図5及び図6を参照しながら説明する。
 図5は、装置本体32の構成の一例を説明するための模式図である。図6は、図5に示す装置本体32を後ろ側から見た模式図である。なお、図5では、説明の便宜上、指節検出部52及び左右動き検出部56の位置が、丸(○)で示されている。
 装置本体32は、図5に示すように球体部35を有する。球体部35は、操作者が手を添えて指を動かす部分である。球体部35は、ここでは球形状である。ただし、これに限定されず、球体部35は、楕円体の一部含む形状から成っていてもよく、また楕円体の全部から成っていてもよい。このような球体部35の形状にすることで、操作者は手を添えて動かしやすい。なお、図5及び図6には示されていないが、球体部35を設置するために支持する支持部が球体部35に連結されていてもよい。
 球体部35は、図5に示すように、外周面に形成された溝部37を有する。溝部37は、操作者の手の形状に倣って形成されており、操作者は、溝部37上に手の掌側を添える(図3参照)。溝部37には、前述した接触部40として、操作者の5本指の各々が接触する指接触部41a~41fが設けられている。
 指接触部41a~41fは、操作者の指(具体的には、指の腹)が接触する部分である。ここでは、指接触部41aには操作者の親指が接触し、指接触部41bには人差し指が接触し、指接触部41cには中指が接触し、指接触部41dには薬指が接触し、指接触部41eには小指が接触する。また、指接触部41a~41fは、操作者の5本指の形状に倣って形成されている。具体的には、指接触部41a~41fの大きさは、対応する指の大きさに比例している。これにより、操作者は、5本指を対応する指接触部41a~41fにそれぞれ接触させやすい。
 指接触部41a~41fのうち指の腹が接触する領域は、指側に向かって凸状に湾曲(図6参照)している。別言すれば、指接触部41a~41fは、それぞれ対応する指の形状に沿うように凸状に湾曲している。なお、指接触部41a~41fは、複数の面が繋がって凸状に湾曲してもよい。これにより、操作者は、5本指を違和感なく指接触部41a~41fに添えた状態で、動かしやすくなる。
 指接触部41a~41fは、図5に示すように、指の動きに応じて回動可能な回動部材45a~45fを有する。回動部材45a~45fは、操作者の指に押圧されることで、軸部46a~46f周りに回動する。例えば、操作者が指を曲げて回動部材45a~45fを押圧すると(図4参照)、回動部材45a~45fが軸部46a~46fを中心に装置本体32の内側へ向かって回動する。一方へ、操作者が曲げた指を伸ばすと、回動部材45a~45fは、回動前の状態へ戻る(図3参照)。回動部材45a~45fの表面は、例えば所定曲率の曲面となっている。
 上記では、接触部40は、指の動きに応じて回動する回動部材45を有することとしたが、これに限定されない。例えば、接触部40は、指による押圧状態に応じて弾性変形する弾性部材(例えばゴム部材)を有してもよい。この場合には、回動部材45を回動させる機構が不要となる。
 指接触部41a~41fには、それぞれ前述した検出部50が設けられている。検出部50は、指接触部41a~41fに添えられた各指の押圧状態に基づいて、各指の動きを検出する。すなわち、検出部50は、操作者が指接触部41a~41fの回動部材45a~45fを押圧する際に、回動部材45a~45fに対する指の押圧状態に基づいて指の動きを検出する。例えば、検出部50は、操作者が回動部材45a~45fに添えられた指を曲げたり伸ばしたりする際に、指の動きを検出する。
 検出部50は、回動部材45a~45fの回動量を検出する。また、検出部50は、図1に示すように、指節検出部52と、位置検出部54と、左右動き検出部56とを含む。このように複数の検出部を設けることで、操作者が多指ロボット10を遠隔操作するために指を様々に動かしても、指の動きを高精度に検出できる。
 指節検出部52は、指の節(基節、中節及び末節の少なくとも1つの節)に対応する位置に配置されており、当該節の状態を検出する。指節検出部52は、例えば、節が接した際に検出する接触式のセンサや、離れた位置から検出する非接触式のセンサである。
 指節検出部52は、回動部材45a~45fにそれぞれ配置されている。ここでは、指節検出部52は、各指の基節に対応する位置に配置されている。(図5参照)例えば、回動部材45bに設けられた指節検出部52は、操作者の人差し指の基節に対応する位置に配置されている。
 位置検出部54は、指の指先の位置を検出する。例えば、操作者が指を曲げた際に、位置検出部54は、曲げた指の指先の位置を検出する。位置検出部54も、回動部材45a~45fに設けられている。位置検出部54は、例えば回動部材45a~45fの表面に設けられたタッチセンサ(例えば静電容量式)を含み、タッチセンサに接触した指先の位置を検出する。
 図7は、指先の位置の検出を説明するための模式図である。図7では、操作者が、人差し指を曲げて、人差し指の指先側を回動部材45bに接している。この際、位置検出部54は、曲げている状態の人差し指の指先の位置または人差し指の回転部材45b上での滑り距離(移動距離)を検出する。
 検出部50は、位置検出部54が検出した指先の位置と、回動部材45a~45fの回動量とに基づいて、指の動きを検出する。例えば、図7に示すように人差し指を曲げた場合には、検出部50は、回動部材45bの回動量を検出すると共に、位置検出部54によって人差し指の指先の位置を検出することで、人差し指の曲げ状態(姿勢)を推定しうる。このように検出する場合には、人差し指の3つの節に対してそれぞれ指節検出部52を設けなくても、人差し指の動きを適切に検出できる。
 左右動き検出部56は、指の左右方向の少なくとも一方の動きを検出する。左右動き検出部56は、例えば、溝部37における指の側面が接触する領域に配置されている。具体的には、左右動き検出部56は、溝部37において回動部材45a~45fの各々の両側の側壁にそれぞれ配置されている。左右動き検出部56は、指の側面が接触することで検出する接触式のセンサや、指の側面が接触しなくても検出する非接触式のセンサ(例えば測距センサ)である。なお、回動部材45a~45fの表面にタッチセンサが設けられている場合には、当該タッチセンサによって指の左右方向の動きを検出してもよい。
 図8は、指の左右方向の動きを説明するための模式図である。図8では、人差し指及び中指が互いに離れる方向(左右方向)に広げた状態が示されている。図8に示すように人差し指及び中指が左右方向に移動している際に、指接触部41bに配置された左右動き検出部56は、人差し指の左右方向における位置を検出し、指接触部41cに配置された左右動き検出部56は、中指の左右方向における位置を検出する。これにより、人差し指及び中指の左右方向における動きを適切に検出できる。
 上記では、指節検出部52は、操作者の指の基節に対応する位置に配置されていることとしたが、これに限定されない。例えば、指節検出部52は、図9に示すように配置されてもよい。
 図9は、指節検出部52の配置状態の一例を説明するための模式図である。指の基節、中節及び末節のそれぞれの節に対応する位置に、指節検出部52が配置されていてもよい。これにより、3つの指節検出部52によって、指の各指節の状態を検出できるので、指の動きを精度良く検出できる。また、3つの指節検出部52を設ける場合には、上述した位置検出部54を設けなくてもよい。
 また、指の基節、中節及び末節のうちの2つの節に対応する位置に、指節検出部52が配置されてもよい。例えば、指の基節及び末節に対応する位置に指節検出部52が配置されてもよい。
 指接触部41a~41fには、前述した指に伝達する力覚を発生するために、駆動部62(図1)が設けられている。駆動部62は、多指ロボット10が物体に触れた際に、回動部材45a~45fを回転させて指に対して力覚を伝達させる。
 図10は、駆動部62の構成の一例を説明するための模式図である。図10では、回動部材45aを回動させる駆動部62が示されているが、回動部材45b~45fを回動させる駆動部62も同様な構成である。駆動部62は、ここでは回動部材45bの軸部46bに連結しているモータである。駆動部62は、人差し指F2が回動部材45bを押圧する押圧方向(第1方向)とは逆方向(第2方向)に、回動部材45bを回動させる。具体的には、駆動部62は、図10に示すように、軸部46bを中心に回動部材45bを時計方向に回動させることで、回動部材45bから人差し指F2に力覚を伝達させる。
 なお、上記では、駆動部62が押圧方向とは逆方向に回動部材45bを回動させることとしたが、これに限定されない。例えば、駆動部62は、押圧方向とは逆方向に回動部材45bを回動させて一旦停止した後に、押圧方向と同じ方向に回動部材45bを更に回動させてもよい。一例として、多指ロボット10が指機構12を曲げて卵を握る際には、指機構12が卵に触れると駆動部62が力覚を発生させることで、操作者は指を停止させる。その後、操作者が指をさらに押圧方向に押圧すると、多指ロボット10が指機構12を駆動して卵が割ることになる。そして、卵が割れることに起因して指機構12が曲げる方向に更に移動するが、この移動後の位置を操作者にフィードバックするために、駆動部62は回動部材45bを押圧方向に回動させる。
 図11は、駆動部62の構成の変形例を説明するための模式図である。図11に示す変形例では、駆動部62は、回動部材45bの軸部46bに連結しておらず、回動部材45bの下方に配置されたロッド64を移動させる。ロッド64は、例えば図11の矢印に示す方向(上方向)に移動することで、軸部46bを中心に回動部材45bが時計方向に回動する。このように、駆動部62は、ロッド64を上方向へ移動させて回動部材45bを回動させることで、回動部材45bから人差し指F2に力覚を伝達させる。
 上記では、接触部40の指接触部41a~41fに、感覚フィードバックとして、力覚を操作者の指に伝達することとしたが、これに限定されない。例えば、接触部40は、指先に振動や電気刺激を与えて、ざらざら感やぬるぬる感を指に与えてもよい。また、接触部40は、温度によって指に感覚を伝達するデバイスを含んでもよい。
 なお、上記では、図3に示すように操作者が手の掌側を装置本体32に添えて指を動かすように、装置本体32の外周面に回動部材45a~45fが配置されることとしたが、これに限定されない。例えば、図12に示すように、回動部材45a~45fが装置本体32の内部に配置されてもよい。
 図12は、変形例に係る装置本体32の構成を説明するための模式図である。変形例に係る装置本体32は、操作者が指を挿入可能な挿入穴部38を有する。挿入穴部38は、ここでは手を挿入しやすい形状であればよく、例えば矩形状である。そして、回動部材45a~45fは、それぞれ挿入穴部38に回動可能に配置されている。このため、変形例においては、操作者は、挿入穴部38から手を挿入して装置本体32内で回動部材45a~45fに対して指を動かすことになる。
 図12に示す変形例においても、検出部50(図1)が、装置本体32内の指の動き(指が回動部材45a~45fを押圧する動き)を検出する。検出部50は、前述した指節検出部52、位置検出部54及び左右動き検出部56を含む。これにより、装置本体32内での指の動きを高精度に検出できる。
 上記では、指によって押圧される回動部材45a~45fを用いることとしたが、これに限定されない。例えば、指が操作可能なポインティングスティックを用いてもよい。この場合、指のポインティングスティックへの押圧力を、対応する多指ロボット10(多関節ロボット)の関節の加速度、速度及び変位に割り当てる。
 また、上記では、多指ロボット10が、人間の手に倣って形成されたロボットハンドであることとしたが、これに限定されない。例えば、多指ロボット10は、人間の両脚に倣って形成されたロボットであってもよい。この際、制御装置70は、検出部50が手の人差し指の動きを検出した場合には、多指ロボット10の片方の脚(ここでは、左脚)を動作させ、検出部50が中指の動きを検出した場合には、多指ロボット10の他方の脚(右脚)を動作させてもよい。
 <本実施形態における効果>
 上述した本実施形態の動き検出装置30は、操作者の指が添えられる装置本体32と、装置本体32に指の形状に倣って形成されており指が接触する接触部40と、接触部40に対する指の押圧状態に基づいて指の動きを検出する検出部50とを有する。
 上記の構成により、操作者は、装置本体32に添えた指を動かすことで、多指ロボット10を遠隔操作できる。このため、従来のグローブに手を装着する方式に比べて装着が簡便であり、かつ装置本体32の耐久性も優れたものとなる。また、検出部50が、指の形状に倣って形成された接触部40に対する指の押圧状態に基づいて指の動きを検出することで、指の細かな動き等を高精度に検出できる。この結果、多指ロボット10の細かな動作を実現できる。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。
 10  多指ロボット
 12  指機構
 30  動き検出装置
 32  装置本体
 35  球体部
 37  溝部
 38  挿入穴部
 40  接触部
 41a~41f  指接触部
 45a~45f  回動部材
 46a~46f  軸部
 50  検出部
 52  指節検出部
 54  位置検出部
 56  左右動き検出部
 60  力覚発生部
 62  駆動部

Claims (15)

  1.  多関節ロボットを遠隔操作させるための操作者の指の動きを検出する動き検出装置であって、
     前記指が添えられるように設置された装置本体と、
     前記装置本体において前記指の形状に倣って形成されており、前記指が接触する接触部と、
     前記接触部に対する前記指の押圧状態に基づいて前記指の動きを検出する検出部と、
     を備える、動き検出装置。
  2.  前記接触部のうち、前記指の腹が接触する領域は、前記指側に向かって凸状に湾曲している、
     請求項1に記載の動き検出装置。
  3.  前記接触部は、前記指の押圧に応じて軸部周りに回動する回動部を有し、
     前記検出部は、前記回動部に対する前記指の押圧状態に基づいて前記指の動きを検出する、
     請求項1又は2に記載の動き検出装置。
  4.  前記接触部は、前記指による押圧状態に応じて弾性変形する、
     請求項1又は2に記載の動き検出装置。
  5.  前記接触部は、前記指の形状に倣って形成された溝部である、
     請求項1から4のいずれか1項に記載の動き検出装置。
  6.  前記溝部は、前記装置本体の外周面に形成されている、
     請求項5に記載の動き検出装置。
  7.  前記装置本体は、前記指が挿入可能な挿入穴部を有し、
     前記接触部は、前記挿入穴部に設けられている、
     請求項1から4のいずれか1項に記載の動き検出装置。
  8.  前記装置本体は、球形状または楕円体の一部または全部からなる球体部を有し、
     前記接触部は、前記球体部に設けられている、
     請求項1から7のいずれか1項に記載の動き検出装置。
  9.  前記検出部は、前記接触部に接触している前記指の基節、中節及び末節の少なくとも1つの指節に対応する位置に配置され、当該指節の押圧状態を検出する指節検出部を有する、
     請求項1から8のいずれか1項に記載の動き検出装置。
  10.  前記接触部は、前記指の押圧に応じて軸部周りに回動する回動部を有し、
     前記検出部は、
     前記指の指先の位置を検出する位置検出部を更に有し、
     前記回動部の回動量と前記位置検出部が検出した前記指先の位置とに基づいて、前記指の動きを検出する、
     請求項1から8のいずれか1項に記載の動き検出装置。
  11.  前記接触部は、前記指の押圧に応じて軸部周りに回動する回動部を有し、
     前記指節検出部及び前記位置検出部は、前記回動部に設けられている、
     請求項10に記載の動き検出装置。
  12.  前記検出部は、前記溝部における前記指の側面が接触する領域に配置され、前記指の左右方向の少なくとも一方の動きを検出する、
     請求項6に記載の動き検出装置。
  13.  前記検出部は、前記挿入穴部における前記指の側面が接触する領域に配置され、前記指の左右方向の少なくとも一方の動きを検出する、
     請求項7に記載の動き検出装置。
  14.  前記多関節ロボットが物体に触れた際の前記物体からの反力に対応する力覚を発生させる力覚発生部を更に備える、
     請求項1から13のいずれか1項に記載の動き検出装置。
  15.  前記接触部は、前記指の押圧に応じて軸部周りに第1方向に回動する回動部を有し、
     前記力覚発生部は、
     前記第1方向の逆方向である第2方向に前記回動部を回動させる駆動部を有し、
     当該駆動部によって前記回動部を前記第2方向へ回転させることで前記力覚を発生させる、
     請求項14に記載の動き検出装置。
     
     
PCT/JP2018/020103 2018-05-25 2018-05-25 動き検出装置 WO2019224994A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020520975A JP6891344B2 (ja) 2018-05-25 2018-05-25 動き検出装置
CN201880093807.0A CN112166012A (zh) 2018-05-25 2018-05-25 运动检测装置
EP18919950.8A EP3782775A4 (en) 2018-05-25 2018-05-25 MOTION DETECTION DEVICE
PCT/JP2018/020103 WO2019224994A1 (ja) 2018-05-25 2018-05-25 動き検出装置
US17/099,577 US20210072762A1 (en) 2018-05-25 2020-11-16 Motion detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/020103 WO2019224994A1 (ja) 2018-05-25 2018-05-25 動き検出装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/099,577 Continuation US20210072762A1 (en) 2018-05-25 2020-11-16 Motion detecting device

Publications (1)

Publication Number Publication Date
WO2019224994A1 true WO2019224994A1 (ja) 2019-11-28

Family

ID=68616091

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/020103 WO2019224994A1 (ja) 2018-05-25 2018-05-25 動き検出装置

Country Status (5)

Country Link
US (1) US20210072762A1 (ja)
EP (1) EP3782775A4 (ja)
JP (1) JP6891344B2 (ja)
CN (1) CN112166012A (ja)
WO (1) WO2019224994A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021124902A1 (ja) * 2019-12-17 2021-06-24 ソニーグループ株式会社 情報処理装置および方法
WO2023281648A1 (ja) 2021-07-07 2023-01-12 三菱電機株式会社 遠隔操作システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04210390A (ja) 1990-11-30 1992-07-31 Fujita Corp ロボットハンドの遠隔操作システム
JPH07146751A (ja) * 1993-05-11 1995-06-06 Matsushita Electric Ind Co Ltd 力覚呈示デバイス、データ入力デバイス、及びデータ入力装置
JP2002196882A (ja) * 2000-12-27 2002-07-12 Hitachi Ltd 光学式リモコン
JP2004110259A (ja) * 2002-09-17 2004-04-08 Satoshi Torigoe 3次元箱型入力媒体及び箱型入力方法
JP2005014166A (ja) * 2003-06-26 2005-01-20 Japan Science & Technology Agency 多指ロボットハンドの制御方法及び装置
WO2005057395A1 (ja) * 2003-12-12 2005-06-23 Itsuo Kumazawa データ入力装置、情報機器、および、ユーザインターフェイス方法
US20140165770A1 (en) * 2012-12-13 2014-06-19 Omid Abri Gripping Element And Gripper Input Module For A Haptic Input System

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19957155C1 (de) * 1999-11-27 2001-06-21 Stefan Stocker Haptische Ein- und Ausgabevorrichtung und Verfahren für ein Manipulieren von virtuellen Objekten
US20060195622A1 (en) * 2003-07-22 2006-08-31 Itsuo Kumazawa Data input device, information equipment, information equipment control method, and computer program
JP2005267174A (ja) * 2004-03-18 2005-09-29 National Institute Of Advanced Industrial & Technology ボール型触覚デバイス
US9110506B2 (en) * 2007-04-05 2015-08-18 Synaptics Incorporated Tactile feedback for capacitive sensors
WO2011070554A2 (en) * 2009-12-13 2011-06-16 Ringbow Ltd. Finger-worn input devices and methods of use
DE102010009065B4 (de) * 2010-02-23 2018-05-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. Eingabevorrichtung für medizinische minimal-invasive Roboter oder medizinische Simulatoren sowie medizinisches Gerät mit Eingabevorrichtung
WO2016114090A1 (ja) * 2015-01-16 2016-07-21 オリンパス株式会社 操作入力装置および医療用マニピュレータシステム
WO2018061683A1 (ja) * 2016-09-30 2018-04-05 ソニー株式会社 力覚提示装置
WO2019123530A1 (ja) * 2017-12-19 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04210390A (ja) 1990-11-30 1992-07-31 Fujita Corp ロボットハンドの遠隔操作システム
JPH07146751A (ja) * 1993-05-11 1995-06-06 Matsushita Electric Ind Co Ltd 力覚呈示デバイス、データ入力デバイス、及びデータ入力装置
JP2002196882A (ja) * 2000-12-27 2002-07-12 Hitachi Ltd 光学式リモコン
JP2004110259A (ja) * 2002-09-17 2004-04-08 Satoshi Torigoe 3次元箱型入力媒体及び箱型入力方法
JP2005014166A (ja) * 2003-06-26 2005-01-20 Japan Science & Technology Agency 多指ロボットハンドの制御方法及び装置
WO2005057395A1 (ja) * 2003-12-12 2005-06-23 Itsuo Kumazawa データ入力装置、情報機器、および、ユーザインターフェイス方法
US20140165770A1 (en) * 2012-12-13 2014-06-19 Omid Abri Gripping Element And Gripper Input Module For A Haptic Input System

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3782775A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021124902A1 (ja) * 2019-12-17 2021-06-24 ソニーグループ株式会社 情報処理装置および方法
WO2023281648A1 (ja) 2021-07-07 2023-01-12 三菱電機株式会社 遠隔操作システム

Also Published As

Publication number Publication date
EP3782775A4 (en) 2021-06-23
EP3782775A1 (en) 2021-02-24
US20210072762A1 (en) 2021-03-11
JP6891344B2 (ja) 2021-06-18
CN112166012A (zh) 2021-01-01
JPWO2019224994A1 (ja) 2020-12-10

Similar Documents

Publication Publication Date Title
Wang et al. Toward whole-hand kinesthetic feedback: A survey of force feedback gloves
US10191549B2 (en) Multidirectional controller with shear feedback
KR100252706B1 (ko) 힘피이드백및텍스쳐시뮬레이팅인터페이스장치
Biggs et al. Haptic interfaces
Lee et al. Wearable finger tracking and cutaneous haptic interface with soft sensors for multi-fingered virtual manipulation
US9001032B2 (en) Tactile transmission system using glove type actuator device and method thereof
JP3624374B2 (ja) 力覚呈示装置
JP2001310280A (ja) 把握データ入力装置
KR102225783B1 (ko) 햅틱 컨트롤러 및 이를 이용한 햅틱 피드백 제공 시스템 및 방법
US10928908B2 (en) Haptic device, for interaction with virtual reality or augmented reality systems
WO2019224994A1 (ja) 動き検出装置
KR20200000633A (ko) 가상 객체 조작을 위한 촉각 자극 생성 장치 및 이를 구비한 시스템
US20230142242A1 (en) Device for Intuitive Dexterous Touch and Feel Interaction in Virtual Worlds
US20150009145A1 (en) Interaction peripheral device capable of controlling an element for touching and grasping multidimensional virtual objects
Park et al. WeHAPTIC: a wearable haptic interface for accurate position tracking and interactive force control
KR20190092777A (ko) 글러브형 모션인식 장치 및 방법
Najdovski et al. Extending haptic device capability for 3D virtual grasping
Pacchierotti et al. Cutaneous/tactile haptic feedback in robotic teleoperation: Motivation, survey, and perspectives
Evreinova et al. From kinesthetic sense to new interaction concepts: Feasibility and constraints
Fernando et al. Experiencing ones own hand in telexistence manipulation with a 15 DOF anthropomorphic robot hand and a flexible master glove
KR102225769B1 (ko) 손가락 단위 단방향 움직임을 갖는 햅틱 컨트롤러의 가상 물체 파지 제어 시스템 및 방법
KR102188851B1 (ko) 가상 객체와의 상호작용에 따른 손등 촉감 피드백 전달 장치
JPH04291289A (ja) 3次元物体接触体感方式
JP6499900B2 (ja) 力覚制御装置及び力覚提示装置
KR101522775B1 (ko) 촉감센싱 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18919950

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020520975

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018919950

Country of ref document: EP

Effective date: 20201118