WO2018235214A1 - マニピュレーターおよびロボット - Google Patents

マニピュレーターおよびロボット Download PDF

Info

Publication number
WO2018235214A1
WO2018235214A1 PCT/JP2017/022932 JP2017022932W WO2018235214A1 WO 2018235214 A1 WO2018235214 A1 WO 2018235214A1 JP 2017022932 W JP2017022932 W JP 2017022932W WO 2018235214 A1 WO2018235214 A1 WO 2018235214A1
Authority
WO
WIPO (PCT)
Prior art keywords
marker
elastic layer
manipulator
detection unit
light
Prior art date
Application number
PCT/JP2017/022932
Other languages
English (en)
French (fr)
Inventor
憲彦 齋藤
Original Assignee
株式会社齋藤創造研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社齋藤創造研究所 filed Critical 株式会社齋藤創造研究所
Priority to CN201780092439.3A priority Critical patent/CN110799313A/zh
Priority to US16/625,657 priority patent/US20200139543A1/en
Priority to JP2018511295A priority patent/JP6560443B2/ja
Priority to EP17914209.6A priority patent/EP3643459A4/en
Priority to PCT/JP2017/022932 priority patent/WO2018235214A1/ja
Publication of WO2018235214A1 publication Critical patent/WO2018235214A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0009Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • B25J15/10Gripping heads and other end effectors having finger members with three or more finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L1/00Measuring force or stress, in general
    • G01L1/04Measuring force or stress, in general by measuring elastic deformation of gauges, e.g. of springs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors

Definitions

  • the present invention relates to a manipulator and a robot.
  • a robot described in Patent Document 1 is known as a robot for assisting the care of a care recipient (elderly person, person with a disability).
  • the robot of Patent Document 1 includes two arms, and in a state where the care recipient sleeps in the bed, the care recipient is required to move from the bed by intruding the arm between the bed and the care recipient. It can be lifted. Thus, for example, the care recipient can be moved from the bed to the wheelchair or from the wheelchair to the bed.
  • the configuration of the arm is unclear, and it is not considered that the arm can be smoothly made to enter between the bed and the care recipient. Therefore, for example, the arm may be caught on sheets or clothes of the care recipient, or the arm may push the care recipient with an excessive force, which may cause a problem that smooth operation can not be performed.
  • An object of the present invention is to provide a manipulator and a robot that can perform smooth motion.
  • An elastic layer in which a first surface which is a pressure receiving surface and a second surface opposite to the first surface are defined, and a marker disposed on the elastic layer and displaced along with the deformation of the elastic layer, A pressure receiving portion including A manipulator positioned on the second surface side of the elastic layer and detecting an external force applied to the elastic layer based on the displacement of the marker.
  • the marker includes a first marker and a second marker which are disposed offset in the thickness direction of the elastic layer.
  • the elastic layer includes the first elastic layer having the first marker, and the second elastic layer disposed on the first elastic layer and having the second marker. Manipulator.
  • the detection unit includes an imaging unit configured to image the marker, and detects any displacement of the marker based on image data of the marker imaged by the imaging unit.
  • the marker includes a linear portion having a linear shape, and a mass portion disposed on the linear portion and wider than the linear portion,
  • a robot comprising the manipulator according to any one of (1) to (12) above.
  • An elastic layer in which a first surface which is a pressure receiving surface and a second surface opposite to the first surface are defined, and a marker disposed on the elastic layer and displaced along with the deformation of the elastic layer;
  • a pressure receiving portion comprising And a detection unit positioned on the second surface side of the elastic layer and detecting an external force applied to the elastic layer based on the displacement of the marker.
  • the elastic layer is deformed and the marker is displaced according to the external force received by the pressure receiving portion. Therefore, the external force received by the pressure receiving unit can be accurately detected by the detection unit detecting the displacement of the marker. Therefore, for example, by controlling the drive based on the external force detected by the detection unit, a manipulator and a robot that can operate smoothly can be obtained.
  • FIG. 1 is a plan view showing a manipulator according to a first embodiment of the present invention.
  • FIG. 2 is a plan view showing the manipulator according to the first embodiment of the present invention.
  • FIG. 3 is a cross-sectional view of the manipulator shown in FIG.
  • FIG. 4 is a cross-sectional view of the pressure receiving portion shown in FIG.
  • FIG. 5 is a cross-sectional view showing a state in which the pressure receiving portion is deformed.
  • FIG. 6 is a cross-sectional view showing a modification of the pressure receiving portion.
  • FIG. 7 is a cross-sectional view of a manipulator according to a second embodiment of the present invention.
  • FIG. 8 is a cross-sectional view of a manipulator according to a third embodiment of the present invention.
  • FIG. 9 is a cross-sectional view of a manipulator according to a fourth embodiment of the present invention.
  • FIG. 10 is a cross-sectional view showing a manipulator according to a fifth embodiment of the present invention.
  • FIG. 11 is a cross-sectional view showing a modification of the manipulator shown in FIG.
  • FIG. 12 is a cross-sectional view of a manipulator according to a sixth embodiment of the present invention.
  • FIG. 13 is a plan view of the manipulator shown in FIG.
  • FIG. 14 is a plan view showing a manipulator according to a seventh embodiment of the present invention.
  • FIG. 15 is a cross-sectional view of the manipulator shown in FIG.
  • FIG. 16 is a cross-sectional view showing a manipulator according to an eighth embodiment of the present invention.
  • FIG. 17 is a plan view of the manipulator shown in FIG.
  • FIG. 18 is a cross-sectional view showing a manipulator of a ninth embodiment of the present invention.
  • FIG. 19 is a cross-sectional view showing a manipulator of a tenth embodiment of the present invention.
  • FIG. 20 is a cross-sectional view showing a manipulator of an eleventh embodiment of the present invention.
  • FIG. 21 is a cross-sectional view showing a manipulator of a twelfth embodiment of the present invention.
  • FIG. 22 is a cross-sectional view showing a manipulator of a thirteenth embodiment of the present invention.
  • FIG. 23 is a cross-sectional view showing a manipulator of a fourteenth embodiment of the present invention.
  • FIG. 24 is a cross-sectional view showing a manipulator of a fifteenth embodiment of the present invention.
  • FIG. 25 is a cross-sectional view showing a manipulator of a sixteenth embodiment of the present invention.
  • FIG. 26 is a cross-sectional view showing a manipulator of a seventeenth embodiment of the present invention.
  • FIG. 27 is a cross-sectional view showing a manipulator of a seventeenth embodiment of the present invention.
  • FIG. 28 is a cross-sectional view showing a manipulator of a seventeenth embodiment of the present invention.
  • FIG. 29 is a cross-sectional view showing a manipulator of an eighteenth embodiment of the present invention.
  • FIG. 30 is a perspective view showing a robot according to a nineteenth embodiment of the present invention.
  • FIG. 30 is a perspective view showing a robot according to a nineteenth embodiment of the present invention.
  • FIG. 31 is a cross-sectional view showing a robot according to a twentieth embodiment of the present invention.
  • FIG. 32 is a cross-sectional view showing a robot according to a twenty-first embodiment of the present invention.
  • FIG. 33 is a cross-sectional view showing a modification of the robot shown in FIG.
  • FIG. 1 and 2 are each a plan view showing a manipulator according to a first embodiment of the present invention.
  • FIG. 3 is a cross-sectional view of the manipulator shown in FIG.
  • FIG. 4 is a cross-sectional view of the pressure receiving portion shown in FIG.
  • FIG. 5 is a cross-sectional view showing a state in which the pressure receiving portion is deformed.
  • FIG. 6 is a cross-sectional view showing a modification of the pressure receiving portion.
  • the upper side of the finger in FIG. 3 is also referred to as “belly”, and the lower side is also referred to as "back".
  • the manipulator 1 shown in FIG. 1 is used as a robot hand (end effector), for example, attached to a nursing robot 100 and used.
  • the nursing care robot is, for example, a robot capable of lifting from the bed a care recipient who is difficult to move on his own, raising his upper body on the bed, changing its direction, or putting it on the bed.
  • the application of the manipulator 1 is not limited to that attached to the robot 100 for nursing care, and for example, a guidance robot for guiding the user at a station, an airport, a commercial facility, etc. It can also be mounted on a transport robot for carrying objects, an industrial robot that manufactures products in a factory or the like, and the like.
  • the manipulator 1 includes a base 21 connected to the robot 100 for nursing care, five fingers 22 connected to the base 21, and a control unit 23 that controls driving of the manipulator 1. ,have.
  • each of the five fingers 22 is connected to the base section 221 (base end section) connected to the base 21 via the joint mechanism and to the base section 221 via the joint mechanism. It has a joint 222 (central part) and a distal joint 223 (tip part) connected to the middle joint 222 via a joint mechanism.
  • each joint mechanism has a motor as a drive source, and the base node portion 221 rotates with respect to the base portion 21 by the drive of the motor, and the middle node portion 222 with respect to the base node portion 221 The distal end portion 223 pivots with respect to the middle segment 222.
  • a manipulator 1 can be closed and opened like a human hand, grasped an object, and deformed into various shapes by the control unit 23 controlling the drive of each motor.
  • the base portion 21 and the finger portions 22 each have a housing 3 serving as a skeleton and an elastic layer 5 serving as a skin covering the housing 3.
  • the housing 3 is made of a hard member, specifically, a member having a hardness that does not substantially deform at a pressure level received during normal use.
  • the elastic layer 5 is made of a material soft enough to be elastically deformed by an external force received during use, that is, contact with a surrounding object.
  • the end segment 223 of each finger 22 will be described.
  • the end node portion 223 is disposed on the surface side of the housing 3 as a support portion, the pressure receiving portion 4 receiving pressure from the outside, and the inside of the housing 3.
  • a detection unit 6 that detects deformation of the pressure receiving unit 4 and a light source 7 that illuminates the pressure receiving unit 4 are provided.
  • the pressure receiving unit 4 includes an elastic layer 5 supported by the housing 3 and a marker M disposed on the elastic layer 5. In such a manipulator 1, when an external force is received, the elastic layer 5 is elastically deformed, and the marker M is displaced accordingly.
  • the detection part 6 detects the displacement of the marker M, and detects the external force which the elastic layer 5 received based on it.
  • the detection result of the detection unit 6 is fed back to the control unit 23, and the control unit 23 controls the drive of each motor based on the detection result of the detection unit 6.
  • the manipulator 1 can perform contact with surrounding objects and smooth and safe driving.
  • the end segment 223 is formed separately from the housing 3 and the housing 3 and has a movable portion 24 which can be displaced with respect to the housing 3.
  • the housing 3 is a portion corresponding to the "belly" of the last part of the human finger, and has a shape similar to that.
  • the movable portion 24 is a portion corresponding to a "nail" of a human finger, and has a similar shape and position.
  • the last part 223 can be made to resemble the last part of a human finger, and the care recipient can be given a feeling similar to that when being cared with human hands. Therefore, the discomfort to the care recipient can be reduced.
  • the configuration of the end segment 223 is not particularly limited, and for example, the movable portion 24 may be omitted.
  • the movable portion 24 is biased toward the base end side (the middle node portion 222 side) by the first biasing member 33 disposed between the movable portion 24 and the housing 3. It is biased to the housing 3 side (ventral side) by the second biasing member 34 disposed between the movable portion 24 and the housing 3.
  • the first and second biasing members 33 and 34 are not particularly limited, and, for example, a spring member or a rubber member can be used.
  • the first pressure-sensitive element 35 is disposed between the base end of the movable portion 24 and the housing 3, and the external force in the arrow A direction received by the movable portion 24 is It is transmitted to the one pressure sensitive element 35. Therefore, the first pressure-sensitive element 35 can detect an external force in the arrow A direction applied to the movable portion 24.
  • the second pressure-sensitive element 36 is disposed between the rear side of the movable portion 24 and the housing 3 so that the external force in the arrow B direction received by the movable portion 24 propagates to the second pressure-sensitive element 36. It has become. Therefore, the second pressure-sensitive element 36 can detect an external force in the arrow B direction applied to the movable portion 24.
  • the first and second pressure-sensitive elements 35 and 36 are not particularly limited as long as they can detect the external force that the movable portion 24 receives.
  • the first and second pressure-sensitive elements 35 and 36 are, for example, a pressure-sensitive conductive resin whose resistance value changes according to the pressure received, and a pair of wires provided with the pressure-sensitive conductive resin interposed therebetween. , And can be configured. According to such a configuration, the resistance value of the pressure-sensitive conductive resin can be detected via the pair of wires, and the external force received by the movable portion 24 can be detected based on the change in the resistance value.
  • the first and second pressure-sensitive elements 35 and 36 have a relatively simple configuration and are small.
  • the first and second pressure-sensitive elements 35 and 36 are sandwiched between the movable portion 24 and the housing 3 by the first and second biasing members 33 and 34 so as to be compressed. It is preloaded. Therefore, the direction of the external force applied to the movable portion 24 can be detected based on the increase and decrease of the resistance value of the pressure sensitive conductive resin. That is, according to the first and second pressure-sensitive elements 35 and 36 having such a configuration, the magnitude of the applied external force can be detected based on the absolute value of the resistance value change, and based on the increase or decrease of the resistance value. The direction of the applied external force can be detected. Therefore, the first and second pressure-sensitive elements 35 and 36 have excellent detection characteristics.
  • first and second pressure-sensitive elements 35 and 36 are not particularly limited, and for example, piezoelectric elements that output electric charges according to the magnitude of the received force may be used. Further, the first and second pressure sensitive elements 35 and 36 may be omitted.
  • the housing 3 and the movable portion 24 are each formed of a hard member. In addition, the housing 3 further has light transparency. In the present embodiment, the housing 3 and the movable portion 24 are each made of a resin material, and in particular, the housing 3 is substantially colorless and transparent. Further, an inner space S is provided inside the housing 3. In the internal space S, the detection unit 6 and the light source 7 are accommodated and disposed.
  • the elastic layer 5 is disposed so as to cover the end node 223 except for the movable portion 24. That is, the movable portion 24 is exposed to the outside of the end segment 223 without being covered by the elastic layer 5. Therefore, the displacement of the movable portion 24 is not inhibited by the elastic layer 5, and the external force applied to the movable portion 24 can be accurately detected by the first and second pressure-sensitive elements 35, 36.
  • elastic layer 5 When receiving an external force such as pressure, the elastic layer 5 elastically deforms in response to the received external force.
  • elastic layer 5 is a layer in which an outer surface 5a (first surface) which is a pressure receiving surface receiving an external force and an inner surface 5b (second surface) opposite to outer surface 5a are defined. It is.
  • a marker M which is displaced with the deformation of the elastic layer 5 is disposed.
  • the marker M is a detection target that can be detected by the detection unit 6.
  • the marker M is disposed on the elastic layer 5 located in the antinode portion of the end segment 223.
  • the marker M includes a first marker M1, a second marker M2, and a third marker M3 which are disposed offset in the thickness direction of the elastic layer 5.
  • the first marker M1, the second marker M2, and the third marker M3 have different distances from the inner surface 5b.
  • the detection unit 6 detects the deformation of the elastic layer 5 based on the displacement of the first marker M1, the second marker M2, and the third marker M3, and further detects the external force applied to the elastic layer 5.
  • the elastic layer 5 is disposed on the outer periphery of the housing 3, and is disposed on the first elastic layer 51 on which the first marker M 1 is disposed, and on the first elastic layer 51. And a third elastic layer 53 disposed on the second elastic layer 52, and a third elastic layer 53 disposed on the third elastic layer 53, and a protective layer 54 disposed on the third elastic layer 53. ,have.
  • the first elastic layer 51, the second elastic layer 52, and the third elastic layer 53 have light transmittance and elasticity (restoring force), respectively. Then, a plurality of first markers M1 are disposed apart from each other on the surface of the first elastic layer 51, and a plurality of second markers M2 are disposed apart from each other on the surface of the second elastic layer 52, and a third elastic layer A plurality of third markers M3 are spaced apart from one another on the surface of 53.
  • the first, second, and third elastic layers 51, 52, 53 are substantially colorless and transparent.
  • at least one of the first, second, and third elastic layers 51, 52, 53 may be, for example, colored and transparent, as long as it has optical transparency.
  • a constituent material of the 1st, 2nd, 3rd elastic layer 51, 52, 53 For example, a polyurethane-type elastomer, a styrene-type thermoplastic elastomer, an olefin-type thermoplastic elastomer, a polyvinyl-chloride-type thermoplastic elastomer, Various rubber materials such as various thermoplastic elastomers such as ester thermoplastic elastomers, amide thermoplastic elastomers, silicone thermoplastic elastomers, fluorine thermoplastic elastomers, acrylic rubbers, silicone rubbers, butadiene rubbers, butadiene rubbers and styrene rubbers And the like, and one or more of these may be used in combination (for example, as a laminate of two or more layers).
  • the elastic modulus (Young's modulus) of each of the first, second, and third elastic layers 51, 52, 53 is not particularly limited, and may be equal to each other or may be different from each other.
  • the elastic moduli of the first, second, and third elastic layers 51, 52, 53 are made different, for example, the Young's modulus of the first elastic layer 51 is E1, and the Young's modulus of the second elastic layer 52 is E2.
  • the Young's modulus of the third elastic layer 53 is E3, it may be designed to satisfy the relationship of E1 ⁇ E2 ⁇ E3, and conversely, it may be designed to satisfy the relationship of E1> E2> E3. May be
  • the first, second, and third elastic layers 51 are substantially deformed. , 52, 53 can all be deformed. Therefore, the received pressure can be roughly detected by detecting which of the first, second, and third elastic layers 51, 52, 53 the marker M of the elastic layer has displaced.
  • the first, second and third markers M1, M2 and M3 respectively have a dot shape or point shape.
  • the first, second, and third markers M1, M2, and M3 are respectively made point-shaped, so that the displacement of the first, second, and third markers M1, M2, and M3 is detected by the detection unit 6. This facilitates detection, and the external force received by the elastic layer 5 can be detected with high accuracy.
  • the shapes of the first, second and third markers M1, M2 and M3 are not particularly limited.
  • the arrangement of the plurality of first markers M1 is not particularly limited, and may be regularly arranged or irregularly arranged, but it is preferable to be arranged regularly. .
  • the entire area of the first elastic layer 51 can be uniformly disposed without excess or deficiency. Therefore, the deformation of each portion of the first elastic layer 51 can be accurately detected by the detection unit 6.
  • the processing unit Although different depending on the processing speed of 62 and the like, for example, it is preferable that it is as high as distinguishable by the resolution of the camera 61. Thereby, the number of first, second and third markers M1, M2 and M3 can be increased, and the detection unit 6 detects deformation of the elastic layer 5 more accurately and more precisely. Can.
  • At least one of the shape and the color of the first, second and third markers M1, M2 and M3 are different from each other, and can be identified by the detection unit 6.
  • the first, second and third markers M1, M2 and M3 are different in color from each other.
  • the first marker M1 is red
  • the second marker M2 is green
  • the third marker M3 is blue It has become.
  • the first marker M1 is circular
  • the second marker M2 is triangular
  • the third marker M3 is It can be square.
  • both the color and the shape may be made different, or the first, second and third markers M1, M2 and M3 may be distinguishable by the detection unit 6 by a method other than making the color and the shape different.
  • the first, second, and third markers M1, M2, and M3 are disposed so as not to overlap with each other as viewed from the camera 61 of the detection unit 6 in the natural state. That is, on the image captured by the camera 61, the third marker M3 is hidden behind the first and second markers M1 and M2 behind it without the second marker M2 hiding behind the first marker M1 behind it It is preferable that the arrangement is made so as not to occur. Thus, the displacement of the first, second, and third markers M1, M2, and M3 can be more accurately captured by the camera 61. Therefore, the detection unit 6 can detect the external force received by the elastic layer 5 more accurately.
  • the “natural state” means, for example, a state in which the elastic layer 5 is not applied with any substantial external force.
  • the marker M has been described above.
  • the configuration of the marker M is not particularly limited, and for example, the third marker M3 may be omitted, and the second and third markers M2 and M3 may be omitted.
  • the first, second, and third markers M1, M2, and M3 are not limited to the dot shape, and may have a linear shape, a surface shape, a three-dimensional shape, or the like.
  • the first, second and third markers M1, M2 and M3 may be attached to the surfaces of the first, second and third elastic layers 51, 52 and 53, respectively.
  • the ink may be printed on the surfaces of the first, second, and third elastic layers 51, 52, 53.
  • the first, second and third markers M1, M2 and M3 may be embedded in the first, second and third elastic layers 51, 52 and 53, respectively.
  • the marker M may not be disposed on the elastic layer 5, and may be disposed, for example, on a covering member covered so as to cover the elastic layer 5. As described above, by disposing the marker M on the covering member, the marker M suitable for the purpose of use can be easily obtained by replacing the covering member.
  • the protective layer 54 mainly has a function of protecting the third elastic layer 53.
  • the protective layer 54 has light transmittance and elasticity, as with the first, second, and third elastic layers 51, 52, 53.
  • the protective layer 54 is colorless and transparent.
  • the protective layer 54 may be colored and transparent.
  • the constituent material of such a protective layer 54 is not particularly limited, but examples thereof include the same materials as the constituent materials of the first, second, and third elastic layers 51, 52, 53 described above.
  • each of the layers 51, 52, 53, 54 is not particularly limited, but is preferably, for example, about 0.1 mm or more and 2.0 mm or less, and about 0.5 mm or more and 1.5 mm or less Is more preferred.
  • the thickness of the elastic layer 5 can be suppressed, and the elastic layer 5 can be sufficiently deformed when pressure is applied.
  • the detection unit 6 three-dimensionally detects the deformation of the elastic layer 5 by stereo photography.
  • the deformation of the elastic layer 5 can be detected relatively easily and accurately by using the stereo photography method.
  • the detection unit 6 includes a plurality of cameras 61 as imaging units disposed in the internal space S.
  • Each part of the elastic layer 5 can be imaged by at least two cameras 61, whereby three-dimensional image recognition, that is, stereo image recognition of each part of the elastic layer 5 can be performed.
  • the camera 61 is not particularly limited, and for example, a CCD camera, a CMOS camera or the like can be used. Further, in the present embodiment, the two cameras 61 are used to perform three-dimensional image recognition of each part of the elastic layer 5, but for example, one camera 61 has a different optical axis using a lens having a plurality of optical axes. A plurality of images may be acquired by time division, and each portion of the elastic layer 5 may be three-dimensionally recognized using these images. According to such a configuration, downsizing and cost reduction of the imaging unit can be achieved.
  • the “portion of the elastic layer 5” may mean the entire region of the elastic layer 5 or may mean a selected partial region of the elastic layer 5.
  • the detection unit 6 has a processing unit 62 that performs three-dimensional image recognition of the elastic layer 5 based on the image information from each of the cameras 61.
  • the processing unit 62 includes, for example, a CPU 62a that controls each unit such as each camera 61, a memory 62b, a storage unit 62c such as a flash memory, and the like, and is configured to execute a predetermined program (code). There is.
  • the program may be stored in, for example, a storage medium, or may be downloaded from an external server.
  • the portion to which the external force is applied is deformed, and the first, second, and third markers M1, M2, and M3 are respectively displaced with the deformation.
  • the first and second portions located directly under and around it are displaced according to the pressure they receive respectively.
  • the processing unit 62 detects the displacement of the first, second and third markers M1, M2 and M3 by three-dimensional image recognition, and based on the result, the position to which the external force is applied, the size of the external force applied, and the external force Direction, speed etc.
  • the detection unit 6 detects the first, second, and third markers M1, M2, and M3.
  • the external force applied to the elastic layer 5 can be accurately detected based on the displacement.
  • the first, second, and third markers M1, M2, and M3 are disposed offset in the thickness direction of the elastic layer 5. Therefore, the detection unit 6 can detect the deformation at different positions in the thickness direction of the elastic layer 5 and can detect the external force applied to the elastic layer 5 in more detail.
  • a pressure detection method by the processing unit 62 will be briefly described.
  • Three-dimensional coordinates of each camera 61 are stored in advance in the storage unit 62 c of the processing unit 62.
  • the processing unit 62 acquires images at the same time by two cameras 61 used to detect the displacement of a predetermined marker M (hereinafter, referred to as “predetermined marker M”), and in both images The two-dimensional coordinates of the predetermined marker M are acquired.
  • the processing unit 62 acquires the three-dimensional coordinates of the predetermined marker M based on the deviation of the two-dimensional coordinates of the predetermined marker M in both images and the three-dimensional coordinates of each camera 61 and stores it in the storage unit 62c. .
  • the processing unit 62 performs this operation continuously for each frame. Then, the processing unit 62 compares the three-dimensional coordinates of the predetermined marker M acquired last time with the three-dimensional coordinates of the predetermined marker M newly acquired this time, so that the displacement of the predetermined marker M occurring in the time is calculated. It can be detected. By performing such an operation on all the markers M, the processing unit 62 detects the deformation of the elastic layer 5 and further detects the external force received by the elastic layer 5.
  • the frame rate of each camera 61 is not particularly limited, and may be 15 frames / second, 30 frames / second, 60 frames / second, etc., although it varies depending on the required pressure detection accuracy.
  • the elastic layer 5 covers the entire finger portion 22. Therefore, even in the natural state where no external force is received, the base node 221 rotates with respect to the base 21, or the middle node 222 rotates with respect to the base 221, or the middle node 222 In contrast, when the end segment 223 rotates, the elastic layer 5 located at the end segment 223 may be deformed, and the marker M may be displaced accordingly. That is, the arrangement of the marker M in the natural state may differ depending on the state of the finger portion 22.
  • the detection unit 6 stores reference information in which the arrangement of the marker M in the natural state is stored in a plurality of cases where the postures of the finger portions 22 are different, and at the time of detection matches the posture of the finger portions 22 at the time of detection. It is preferable to perform calibration in which the reference information of the target posture or the reference information of the posture closest to the posture of the finger unit 22 is selected, and the selected reference information is set as the natural state. Thereby, the detection part 6 can detect the external force which the elastic layer 5 receives more accurately.
  • the detection method by the processing unit 62 is not particularly limited.
  • the processing amount becomes enormous, and it may be considered that the process can not catch up with the performance of the processing unit 62.
  • the processing unit 62 stores, for example, an image of each part of the elastic layer 5 in a natural state as a reference image, compares the reference image with the image acquired as described above in real time, and detects each marker
  • the pressure received by the elastic layer 5 may be detected by specifying the displacement of M.
  • the processing unit 62 may include artificial intelligence (AI), and may be configured to make the artificial intelligence learn by function learning.
  • AI artificial intelligence
  • the processing unit 62 loads a large amount of images acquired from the camera 61, for example, and causes the artificial intelligence to learn about the displacement of the marker M, thereby making the displacement of each marker M more accurate in a short time. It can be detected.
  • function learning a support vector machine, a Bayesian network, collaborative filtering, a neural network including deep learning, etc. may be mentioned.
  • the layers 51, 52, 53, 54 are colorless and transparent. Therefore, each camera 61 can image the outside of the elastic layer 5 via the elastic layer 5. Therefore, the processing unit 62 can also detect the position or the like of the end segment 223 from the appearance of the outside world captured by each camera 61. Note that recognition of the external world by the detection unit 6 is not essential, and may not be possible.
  • the protective layer 54 need not have light transparency, and may not have light transparency. If the protective layer 54 does not have light transmissivity, the light of the light source 7 does not leak to the outside of the end segment 223, and the surrounding people do not feel dazzling.
  • the light source 7 has a function of illuminating the elastic layer 5 from the inner surface 5 b side. As shown in FIGS. 3 and 4, the light source 7 has a plurality of light emitting units 71 disposed in the internal space S. The entire area of the elastic layer 5 is illuminated approximately equally by the light from the plurality of light emitting portions 71. By disposing such a light source 7, imaging of the elastic layer 5 by the camera 61 can be performed with higher accuracy and higher resolution.
  • each light emission part 71 does not specifically limit as each light emission part 71,
  • LED can be used.
  • each light emitting unit 71 may emit visible light, may emit NIR light (near infrared light), or may emit ultraviolet light.
  • each camera 61 is configured to correspond to visible light, and when using a light emitting unit 71 that emits NIR light, each camera 61 includes NIR light.
  • the cameras 61 may be configured to correspond to ultraviolet light.
  • the marker M may be a phosphor. Thereby, the marker M can be imaged more clearly by the camera 61.
  • the light source 7 may be omitted, for example, when the elastic layer 5 can be kept bright enough to allow image recognition by light from the outside world.
  • a luminance sensor may be disposed in the internal space S, and the drive of each light emitting unit 71 may be controlled based on the brightness of the internal space S detected by the luminance sensor. Thereby, for example, the inside of the internal space S can be maintained at a substantially constant brightness, and the image recognition of the elastic layer 5 by the detection unit 6 can be stably performed.
  • the detection result of the detection unit 6, that is, information on the detected external force is transmitted to the control unit 23.
  • the control unit 23 controls the drive of the manipulator 1 based on the received information.
  • the manipulator 1 has the control unit 23 in the present embodiment, the control unit 23 may be omitted.
  • a robot control unit (not shown) of the robot 100 preferably has the same function as the control unit 23.
  • a manipulator 1 includes the elastic layer 5 on which the outer surface 5a (first surface) which is a pressure receiving surface and the inner surface 5b (second surface) opposite to the outer surface 5a are defined.
  • the pressure receiving portion 4 includes a marker M which is disposed and displaced with the deformation of the elastic layer 5, and is positioned on the inner surface 5b side of the elastic layer 5 and detects an external force applied to the elastic layer 5 based on the displacement of the marker M And a detection unit 6.
  • the marker M is displaced according to the external force received by the elastic layer 5. Therefore, when the detection unit 6 detects the displacement of the marker M, the external force received by the elastic layer 5 can be accurately detected.
  • the manipulator 1 can operate smoothly.
  • the detection unit 6 can detect the magnitude of the external force received by the elastic layer 5, the input direction of the external force, the input speed, etc., and detect the received external force in more detail. be able to.
  • the marker M has the first marker M1 and the second marker M2 which are different in distance from the inner surface 5b. Therefore, the detection unit 6 can obtain deformation at each portion (for example, near the outer surface, near the center, near the inner surface) of the elastic layer 5 in the thickness direction. Therefore, the detection unit 6 can detect the external force received by the elastic layer 5 more accurately.
  • the third marker M3 since the third marker M3 is further provided, the above-described effect is more remarkable.
  • the elastic layer 5 is disposed on the first elastic layer 51 having the first marker M 1 and the first elastic layer 51, and the second elastic layer 52 having the second marker M 2. And. This makes it easy to arrange the first marker M1 and the second marker M2 in the elastic layer 5.
  • the detection unit 6 can easily identify the first marker M1 and the second marker M2. Therefore, the displacement of each of the first marker M1 and the second marker M2 can be detected more accurately by the detection unit 6.
  • the detection unit 6 includes the camera 61 as an imaging unit for imaging the marker M, and detects the displacement of the marker M based on the image data of the marker M imaged by the camera 61 Do.
  • the detection unit 6 detects the displacement of the marker M by stereo photography. Therefore, the displacement of the marker M can be detected relatively easily and with high accuracy, whereby the external force received by the elastic layer 5 can be detected with high accuracy.
  • the manipulator 1 is provided with the housing 3 as a support portion for supporting the elastic layer 5 from the inner surface 5b side.
  • the shape of the elastic layer 5 is stabilized, and the unintended deformation of the elastic layer 5, for example, the deformation due to its own weight is suppressed. Therefore, the external force received by the elastic layer 5 can be detected more accurately.
  • the manipulator 1 has the movable portion 24 which can be displaced with respect to the housing 3 and the first and second pressure-sensitive elements 35 and 36 for detecting the external force applied to the movable portion 24. ing.
  • the first and second pressure-sensitive elements 35 and 36 which are pressure detecting means different from the pressure receiving unit 4, the external force received by the manipulator 1 is accurately detected based on the detection results from both of them. be able to.
  • the manipulator 1 has the base 21 and the finger 22 connected to the base 21.
  • the pressure receiving unit 4 is disposed at least on the end segment 223 which is the tip of the finger 22.
  • the end segment 223 is often located on the tip side in the movement direction of the manipulator 1 and is also highly likely to touch surrounding objects. Therefore, by providing the pressure receiving unit 4 in such a place, it is possible to drive the manipulator 1 more delicately.
  • the arrangement of the pressure receiving unit 4 is not particularly limited, and the pressure receiving unit 4 may not be arranged at the end segment 223.
  • the pressure receiving part 4 may be arrange
  • each finger 22 has a base segment 221, a middle segment 222, and an end segment 223, which are connected via a joint mechanism.
  • the configuration of is not limited to this.
  • each finger 22 may have no joint mechanism and may have a fixed shape.
  • the housing 3 is formed of a hard member, but may be formed of a soft member, for example, so that the housing 3 deforms with the elastic layer 5 when pressure is received.
  • the displacement amounts of the first, second, and third markers M1, M2, and M3 can be made larger than those in the present embodiment, for example. Therefore, the detection unit 6 can detect the external force received by the elastic layer 5 more accurately.
  • the elastic force of the elastic layer 5 may be variable. As a result, the elastic force of the elastic layer 5 can be changed in accordance with the application of the manipulator 1 and the manipulator 1 with higher operability can be obtained.
  • the configuration of the pressure receiving portion 4 in this case is not particularly limited, and, for example, a first covering portion having a first airtight space between the housing 3 and the first marker disposed on the surface of the first covering portion A second covering portion covering the first covering portion with a second airtight space between the first covering portion, a second marker M2 disposed on the surface of the second covering portion, and a second covering portion And a third covering portion having a third airtight space between the second covering portion, a third marker M3 disposed on the surface of the third covering portion, and a third covering portion, and a third covering portion, and a third covering portion Between the first airtight space, the second airtight space, the third airtight space, and the fourth airtight space by means of a pump or the like.
  • the structure in which the pressure of each of these airtight spaces can be adjusted is mentioned by supplying the above-mentioned gas.
  • the housing 3 and the first covering portion are connected in several places, for example, with a substantially non-stretchable cord disposed in the first airtight space, It is preferable to suppress unintended displacement of the first covering portion.
  • the first marker M1 is disposed in the first elastic layer 51
  • the second marker M2 is disposed in the second elastic layer 52
  • the third marker M3 is disposed in the third elastic layer 53.
  • a plurality of markers M may be regularly or irregularly arranged in the elastic layer 5 of one layer so that the distance from the housing 3 is different.
  • the manipulator 1 may also have a heating unit that heats the elastic layer 5.
  • the elastic layer 5 can be warmed to about 35 ° C. to 38 ° C. close to human skin, and a sense closer to human hands can be given to the care recipient.
  • the heating unit may be capable of heating the elastic layer 5 substantially uniformly throughout, or may be capable of heating only a portion of the elastic layer 5.
  • it does not specifically limit as a heating part, For example, it can be set as the structure which heats the elastic layer 5 by infrared rays.
  • the manipulator 1 may have a cooling unit that cools the elastic layer 5.
  • the manipulator 1 may have both a heating part and a cooling part.
  • an image light may be projected toward the inner peripheral surface of the housing 3 from the inside of the housing 3 and an image projection unit may be provided to display an image (video) visible from the outside of the elastic layer 5 .
  • an image to display For example, the image which assists and guides use of the manipulator 1 is mentioned. More specifically, for example, when the care recipient needs to hold the manipulator 1, a message such as "Please hold the manipulator" may be displayed. Thereby, the operability of the manipulator 1 is improved.
  • the image projection unit is not particularly limited, and, for example, a liquid crystal projector, an optical scanning projector, or the like can be used.
  • FIG. 7 is a cross-sectional view showing a manipulator according to a second embodiment of the present invention.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the first embodiment described above except that the configuration of the pressure receiving unit 4 is different.
  • the pressure receiving unit 4 does not substantially displace due to the deformation of the elastic layer 5, and has the reference marker M4 that can be detected by the detection unit 6.
  • the reference marker M4 is disposed on the outer peripheral surface of the housing 3 between the first elastic layer 51 and the housing 3.
  • the arrangement of the reference marker M4 is not particularly limited, and may be arranged on the inner peripheral surface of the housing 3, for example.
  • the reference marker M4 has a fixed relative positional relationship with each camera 61, and functions as a reference when the detection unit 6 detects the displacement of the first, second, and third markers M1, M2, and M3. According to such a configuration, for example, the detection unit 6 detects the displacement of the first, second, and third markers M1, M2, and M3 with respect to the reference marker M4 to receive the elastic layer 5 more accurately. External force can be detected.
  • the reference marker M4 may be, for example, the first, second, and third markers M1, M2 so that the detection unit 6 can be distinguished (identified) from each of the first, second, and third markers M1, M2, and M3. , M 3 and / or at least one of the shape and the color is preferably different.
  • FIG. 8 is a cross-sectional view showing a manipulator according to a third embodiment of the present invention.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the first embodiment described above except that the configuration of the pressure receiving unit 4 is different.
  • the manipulator 1 according to the third embodiment will be described focusing on the differences from the first embodiment described above, and the description of the same matters will be omitted. Further, in FIG. 8, the same components as those of the embodiment described above are denoted by the same reference numerals.
  • the marker M has an exposure marker M5 exposed on the outer surface 5a.
  • the pressure receiving unit 4 omits the protective layer 54 from the first embodiment described above. Therefore, the third marker M3 is exposed on the outer surface 5a of the elastic layer 5, and the third marker M3 constitutes an exposure marker M5.
  • the outer surface 5a of the elastic layer 5 is a pressure receiving surface that receives pressure. Therefore, by arranging the exposure marker M5 exposed on the outer surface 5a of the elastic layer 5, the followability of the marker M to the received pressure is enhanced. Therefore, the detection unit 6 can detect the received pressure with high accuracy.
  • the exposure marker M5 preferably has a portion projecting from the outer surface 5a of the elastic layer 5. As a result, the object touching the elastic layer 5 is easily caught on the exposure marker M5. Therefore, in particular, the deformation response of the elastic layer 5 to the force in the direction along the outer surface 5 a of the elastic layer 5 is improved. Moreover, in this case, it is preferable that the Young's modulus of the exposure marker M5 is larger than the Young's modulus of the layer constituting the outer surface 5a of the elastic layer 5, which is the third elastic layer 53 in the present embodiment. That is, the exposure marker M5 is preferably harder than the third elastic layer 53. As a result, the object is more likely to be caught on the exposure marker M5, and the above-described effect becomes more remarkable.
  • the exposure marker M5 is comprised by the 3rd marker M3, it does not specifically limit as a structure of the exposure marker M5, You may be comprised by markers other than the 3rd marker M3.
  • FIG. 9 is a cross-sectional view showing a manipulator according to a fourth embodiment of the present invention.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the first embodiment described above except that the configuration of the end segment 223 is different.
  • the movable section 24 is omitted from the end segment 223 with respect to the configuration of the first embodiment described above.
  • the entire end segment 223 is covered with the elastic layer 5.
  • the marker M is arrange
  • FIG. 10 is a cross-sectional view showing a manipulator according to a fifth embodiment of the present invention.
  • FIG. 11 is a cross-sectional view showing a modification of the manipulator shown in FIG.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the first embodiment described above except that the configuration of the detection unit 6 is different.
  • the detection unit 6 and the light source 7 are disposed also in the middle segment 222 and the base segment 221.
  • the marker M is also disposed on the elastic layer 5 located in the abdomen of the mid-segment portion 222 and the root segment 221. Therefore, the detection unit 6 can also detect displacement of the first, second, and third markers M1, M2, and M3 in the middle segment 222 and the base segment 221. According to such a configuration, since the pressure received by the elastic layer 5 can be detected over substantially the entire length of the finger portion 22, the drive of the manipulator 1 can be controlled with higher accuracy.
  • the arrangement density of the markers M in the end segment 223, the middle segment 222, and the base segment 221 is not particularly limited, and may be equal to or different from each other.
  • the disposition density of the markers M at the end segment 223 is higher than the disposition density of the markers M at the middle segment 222 and the root segment 221.
  • the arrangement density of the markers M in the middle segment 222 be higher than the arrangement density of the markers M in the base segment 221. That is, it is preferable that the disposition density of the markers M at the tip end portion of the finger portion 22 be higher than the disposition density of the markers M at the proximal end portion.
  • external force detection at the end segment 223 is the most effective, so by increasing the arrangement density of the markers M at the end segment 223, more accurate external force detection Is possible. Then, with regard to the middle segment 222 and the base segment 221 which are not as important as the end segment 223, the arrangement density of the markers M is made lower than that of the end segment 223, so that the processing unit 62 related to external force detection in that portion is The load can be reduced. Therefore, the detection unit 6 can accurately detect the external force received by the finger portion 22 and can suppress a decrease in detection speed (processing speed).
  • the elastic layer 5 is formed across the base section 221, the middle section 222, and the end section 223.
  • the present invention is not limited to this.
  • the elastic layer 5 may be arranged independently in section 223, middle segment 222 and base segment 221, respectively. That is, the elastic layer 5 may be disposed so as not to straddle the boundary between the end segment 223 and the middle segment 222 and the boundary between the middle segment 222 and the base 221.
  • the elastic layer 5 is deformed when the middle segment 222 is displaced with respect to the root segment 221 or when the end segment 223 is displaced with respect to the middle segment 222, and the marker M is displaced. It can be suppressed. That is, the displacement of the marker M caused by the force other than the external force exerted by the contact with the outside can be suppressed, and the external force received by the elastic layer 5 can be detected more accurately.
  • the marker M is not disposed on the elastic layer 5 positioned on the back side of the finger portion 22, but the present invention is not limited to this. It may be possible to detect at 6. Moreover, in this embodiment, although the marker M is not arrange
  • FIG. 12 is a cross-sectional view of a manipulator according to a sixth embodiment of the present invention.
  • FIG. 13 is a plan view of the manipulator shown in FIG.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the first embodiment described above except that the configuration of the pressure receiving unit 4 is different.
  • the elastic layer 5 is formed of one layer.
  • the marker M is disposed on the surface of the elastic layer 5. Further, as shown in FIG. 13, a plurality of markers M are provided, and each has a linear shape. Each marker M is elastic (stretchable). Each marker M has a ring shape, and is arranged concentrically from the center of the end segment 223 in a plan view seen from the ventral side of the end segment 223.
  • the displacement of the marker M can be easily recognized by the camera 61, and the external force applied to the elastic layer 5 can be accurately detected.
  • the marker M annular as in the present embodiment, the effect becomes more remarkable.
  • Such a marker M can be made of, for example, the same material as the elastic layer 5.
  • the same effect as that of the first embodiment described above can be exhibited.
  • the number and the arrangement of the markers M are not particularly limited, and can be appropriately set depending on the shape and the size of the end segment 223.
  • a plurality of annular markers M arranged concentrically may be arranged in a plurality at different positions, or a plurality of annular markers M arranged concentrically and the centers of these annular markers M And a plurality of linear markers M radially extending from the portion.
  • FIG. 14 is a plan view showing a manipulator according to a seventh embodiment of the present invention.
  • FIG. 15 is a cross-sectional view of the manipulator shown in FIG.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the sixth embodiment described above except that the configuration of the pressure receiving unit 4 is different.
  • each marker M of the present embodiment has a linear portion Ma having a linear shape, and a plurality of mass portions Mb (wide portions) arranged in the linear portion Ma. .
  • the plurality of mass portions Mb are arranged at substantially equal intervals along the extending direction of the linear portion Ma.
  • the mass Mb is wider than the linear portion Ma (the length in the direction orthogonal to the extending direction of the linear portion Ma).
  • the mass portion Mb is thicker than the linear portion Ma, and protrudes outward from the linear portion Ma.
  • the linear portion Ma is relatively soft and elastic (stretchable), whereas the mass portion Mb is harder than the linear portion Ma and is less likely to be elastically deformed.
  • the massive portion Mb has a Young's modulus higher than that of the linear portion Ma.
  • Such a marker M can be made of, for example, the materials mentioned as the constituent material of the elastic layer 5. Further, by forming the linear portion Ma and the mass portion Mb using different materials, the linear portion Ma can be softened and the mass portion Mb can be hardened.
  • the plurality of markers M are arranged in a substantially U shape along the outer edge of the last segment 223.
  • the number and the arrangement of the markers M are not particularly limited, and can be appropriately set depending on the shape and the size of the end segment 223.
  • FIG. 16 is a cross-sectional view showing a manipulator according to an eighth embodiment of the present invention.
  • FIG. 17 is a plan view of the manipulator shown in FIG.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the fifth embodiment described above except that the configuration of the pressure receiving unit 4 is different.
  • the elastic layer 5 is configured of one layer.
  • the marker M is disposed on the surface of the elastic layer 5. Further, as shown in FIG. 17, a plurality of markers M are provided, and each has a linear shape. Each marker M is elastic (stretchable).
  • the plurality of markers M are located at the end segment 223, and are disposed so as to surround the annular marker M6 and the annular marker M6 forming an annular shape, and extend over the end segment 223, the middle segment 222 and the base segment 221 A substantially U-shaped linear marker M7 and a linear marker M8 extending in the width direction of the finger portion 22 are included. Therefore, the plurality of markers M are arranged like human fingerprints.
  • the external force applied to the elastic layer 5 can be detected with high accuracy. Specifically, for example, even if it is an external force which hardly displaces any of the markers M6, M7, M8, other markers are sufficiently displaced. That is, at least one of the markers M6, M7 and M8 can be displaced more reliably by any external force. Therefore, the external force applied to the elastic layer 5 can be accurately detected.
  • the same effect as that of the first embodiment described above can be exhibited.
  • the number and arrangement of the markers M are not particularly limited.
  • markers may be arranged in addition to the markers M6, M7, and M8.
  • FIG. 18 is a cross-sectional view showing a manipulator of a ninth embodiment of the present invention.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the first embodiment described above except that the configurations of the pressure receiving unit 4 and the detection unit 6 are different.
  • the elastic layer 5 includes a light transmission layer 5A disposed on the outer peripheral surface of the housing 3 and a light reflection layer 5B stacked on the surface of the light transmission layer 5A.
  • the light transmitting layer 5A has a light transmitting property, and in particular, is substantially colorless and transparent in the present embodiment.
  • the light reflecting layer 5B has light reflectivity for reflecting the light L described later.
  • the light transmission layer 5A has a function of being deformed together with the light reflection layer 5B when receiving an external force, and allowing the shape change of the inner surface 5B 'of the light reflection layer 5B.
  • the detection unit 6 three-dimensionally detects the deformation of the elastic layer 5 by an optical probe method. By using the optical probe method, the deformation of the elastic layer 5 can be detected relatively easily and accurately.
  • the detection unit 6 will be described below.
  • the detection unit 6 detects a one-dimensional position of the spot light on the light receiving surface of the light source 631 that emits the light L toward the inner surface 5B ′ of the light reflection layer 5B.
  • an optical system 633 having a semiconductor position detection element 632 (PSD) composed of a photodiode.
  • PSD semiconductor position detection element 632
  • the light source 631 is not particularly limited, and an LD (laser diode) can be used, for example.
  • the light L emitted from the light source 631 is narrowed into a thin light flux by the lens system 634, and forms a light spot LS on the inner surface 5B 'of the light reflection layer 5B.
  • the light spot LS is imaged on the surface of the semiconductor position detection element 632 by the lens system 635.
  • the relative displacement amount Z between the optical system 633 and the light spot LS is observed as the movement amount C of the image on the surface of the semiconductor position detection element 632. That is, the relative displacement amount Z can be obtained from the movement amount C, and the coordinate value of the portion of the inner surface 5B 'where the light spot LS is formed can be obtained.
  • the detection unit 6 having such a configuration, for example, the coordinate values of each part of the inner surface 5B 'in the natural state are stored as reference coordinate values, and this reference coordinate value and the coordinate values of each part of the inner surface 5B' Can be detected in real time to detect deformation of the inner surface 5B '. Furthermore, based on the deformation of the inner surface 5B ', the detection unit 6 can detect the deformation of the elastic layer 5, that is, the external force received by the elastic layer 5.
  • the detection unit 6 detects the deformation of the elastic layer 5 based on the deformation of the inner surface 5B '
  • the light reflection layer 5B is preferably thin.
  • the light reflection layer 5B is preferably thinner than the thickness of the light transmission layer 5A.
  • the inner surface 5B ' can be disposed near the outer surface 5a of the elastic layer 5, so that the inner surface 5B' can be deformed more accurately and largely against external force. Therefore, the detection accuracy of the detection unit 6 is improved. From such a thing, it can be said that the light reflection layer 5B functions as the marker M in the present embodiment.
  • the elastic layer 5 includes the light reflection layer 5B having light reflectivity, and the light transmission layer 5A positioned inside the light reflection layer 5B and having light transparency. ing. According to such a configuration, the light transmitting layer 5A allows the deformation of the inner surface 5B 'of the light reflecting layer 5B and transmits the light L. The deformation of the elastic layer 5 can be detected.
  • the detection unit 6 may obtain coordinate values of each part of the inner surface 5B ′ using one optical system 633, or may obtain coordinate values of each part of the inner surface 5B ′ using a plurality of optical systems 633. Good.
  • FIG. 19 is a cross-sectional view showing a manipulator of a tenth embodiment of the present invention.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the ninth embodiment described above except that the configurations of the pressure receiving unit 4 and the detection unit 6 are different.
  • the detection unit 6 of this embodiment three-dimensionally detects the deformation of the elastic layer 5 by an optical probe method.
  • the detection unit 6 will be described below.
  • the detection unit 6 includes a light source 641 (for example, LD) that emits light L toward the inner surface 5B ′ of the light reflecting layer 5B, a lens system 642 that condenses the light L, and the light source 641.
  • the optical system 646 includes a beam splitter 643 disposed between the lens system 642, a detector 644 (photodiode), and a motor 645 for moving the lens system 642.
  • the light L emitted from the light source 641 is collected by the lens system 642 to form a light spot LS on the inner surface 5B 'of the light reflection layer 5B.
  • the detector 644 is arrange
  • the detection unit 6 having such a configuration, for example, the coordinate values of each part of the inner surface 5B 'in the natural state are stored as reference coordinate values, and this reference coordinate value and the coordinate values of each part of the inner surface 5B' Can be detected in real time to detect deformation of the inner surface 5B '. Furthermore, based on the deformation of the inner surface 5B ', the detection unit 6 can detect the deformation of the elastic layer 5, that is, the external force received by the elastic layer 5.
  • the detection unit 6 may obtain coordinate values of each part of the inner surface 5B ′ using one optical system 646, or may also find coordinate values of each part of the inner surface 5B ′ using a plurality of optical systems 646. Good.
  • FIG. 20 is a cross-sectional view showing a manipulator of an eleventh embodiment of the present invention.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the ninth embodiment described above except that the configurations of the pressure receiving unit 4 and the detection unit 6 are different.
  • the detection unit 6 of this embodiment three-dimensionally detects the deformation of the elastic layer 5 by an optical probe method.
  • the detection unit 6 will be described below.
  • the detection unit 6 includes a light source 651 (for example, LD) that emits light L toward the inner surface 5B ′ of the light reflection layer 5B, a lens system 652 that converts the light L into enlarged parallel light, and a lens A lens system 653 for condensing the light L that has passed through the system 652, a polarization beam splitter 654 located between the lens systems 652 and 653, a ⁇ / 4 plate located between the polarization beam splitter 654 and the lens system 653 655, a wavefront splitting mirror 656 for splitting the light L reflected by the inner surface 5B ′, a first detector 657 (photodiode) for receiving one of the beams L split by the wavefront splitting mirror 656, and the other light L And an optical system 659 having a second detector 658 (photodiode).
  • a light source 651 for example, LD
  • a lens system 652 that converts the light L into enlarged parallel light
  • a lens A lens system 653 for conden
  • the detection unit 6 having such a configuration, for example, the coordinate values of each part of the inner surface 5B 'in the natural state are stored as reference coordinate values, and this reference coordinate value and the coordinate values of each part of the inner surface 5B' Can be detected in real time to detect deformation of the inner surface 5B '. Furthermore, based on the deformation of the inner surface 5B ', the detection unit 6 can detect the deformation of the elastic layer 5, that is, the external force received by the elastic layer 5.
  • the detection unit 6 may obtain coordinate values of each part of the inner surface 5B ′ using one optical system 659, and may also obtain coordinate values of each part of the inner surface 5B ′ using a plurality of optical systems 659. Good.
  • FIG. 21 is a cross-sectional view showing a manipulator of a twelfth embodiment of the present invention.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the ninth embodiment described above except that the configurations of the pressure receiving unit 4 and the detection unit 6 are different.
  • the detection unit 6 of the present embodiment three-dimensionally detects the deformation of the elastic layer 5 by the cross-sectional measurement method, in particular, the light cutting method. Specifically, slit-like light L is applied to the inner surface 5B ', and deformation of the elastic layer 5 is detected based on the shape of the light L reflected on the inner surface 5B'.
  • the cross-sectional measurement method light cutting method
  • the detection unit 6 emits a light L toward the inner surface 5B ′ of the light reflection layer 5B, a slit light forming unit 662 that forms the light L into a slit shape, and a light of the light L
  • An optical system having an imaging element 664 provided at a position offset from the axis and imaging the slit light L captured on the inner surface 5B ′, and a lens system 665 positioned between the inner surface 5B ′ and the imaging element 664 It has 666.
  • the cross-sectional shape of the portion where the light L of the inner surface 5B' is reflected can be acquired. Therefore, for example, the shape of the inner surface 5B 'can be detected by scanning the slit-like light L all over the inner surface 5B' and acquiring the cross-sectional shape of each part of the inner surface 5B '.
  • the detection unit 6 having such a configuration, for example, the shape of the inner surface 5B 'in the natural state is stored as a reference shape, and the inner surface is compared in real time with the reference shape and the shape of the inner surface 5B'.
  • the deformation of 5B ' can be detected.
  • the detection unit 6 can detect the deformation of the elastic layer 5, that is, the external force received by the elastic layer 5.
  • the detection unit 6 may detect the shape of the entire area of the inner surface 5B ′ using one optical system 666, or may detect the shape of the whole area of the inner surface 5B ′ using a plurality of optical systems 666. Good.
  • FIG. 22 is a cross-sectional view showing a manipulator of a thirteenth embodiment of the present invention.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the ninth embodiment described above except that the configurations of the pressure receiving unit 4 and the detection unit 6 are different.
  • the detection unit 6 of the present embodiment three-dimensionally detects the deformation of the elastic layer 5 by a contour measurement method, in particular, a moiré topography method using moiré fringes. Specifically, a moire fringe image of the inner surface 5B 'is acquired, and the deformation of the elastic layer 5 is detected based on the moire fringe image. By using such a contour line measurement method, deformation of the elastic layer 5 can be detected relatively easily and accurately.
  • the detection unit 6 will be briefly described below.
  • the light source 7 is omitted.
  • the detection unit 6 is an optical device having a light source 671 for emitting light L, an imaging element 672, and a grating 673 provided between the light source 671 and the imaging element 672 and the inner surface 5B ′.
  • a system 674 is provided.
  • the portion where the light L from the light source 671 passed through the grating 673 and the portion seen by the imaging device 672 through the grating 673 is the portion imaged by the imaging device 672, and this intersection is connected.
  • a substantially contoured surface is formed on the other surface, and moire fringes corresponding to the contoured surface appear on the image acquired by the imaging device 672. If this image is a moire fringe image, the shape of the inner surface 5B 'can be acquired based on the moire fringe image.
  • the detection unit 6 having such a configuration, for example, the shape of the inner surface 5B 'in the natural state is stored as a reference shape, and this reference shape is compared with the shape of the inner surface 5B' obtained in real time. By doing this, deformation of the inner surface 5B 'can be detected. Furthermore, based on the deformation of the inner surface 5B ', the detection unit 6 can detect the deformation of the elastic layer 5, that is, the external force received by the elastic layer 5.
  • the detection unit 6 may detect the shape of the entire area of the inner surface 5B ′ using one optical system 674, or may detect the shape of the entire area of the inner surface 5B ′ using a plurality of optical systems 674. Good.
  • FIG. 23 is a cross-sectional view showing a manipulator of a fourteenth embodiment of the present invention.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the ninth embodiment described above except that the configurations of the pressure receiving unit 4 and the detection unit 6 are different.
  • the detection unit 6 of the present embodiment detects deformation of the elastic layer 5 by a pattern projection method. By using such a pattern projection method, the deformation of the elastic layer 5 can be detected relatively easily and accurately.
  • the detection unit 6 will be briefly described below.
  • the detection unit 6 projects an image projection unit 681 that projects a reference pattern made of light L onto the inner surface 5B ′, and the image projection unit 681 is projected onto the inner surface 5B ′ from a position deviated from the optical axis.
  • an optical system 683 having an imaging element 682 for imaging a reference pattern.
  • the shape of the inner surface 5B 'of the portion on which the reference pattern is projected can be detected based on the shape of the reference pattern captured in the image acquired by the imaging element 682. Therefore, for example, the shape of the inner surface 5B 'can be detected by projecting the reference pattern on the entire area of the inner surface 5B'.
  • the reference pattern to be projected onto the inner surface 5B ' is not particularly limited, and for example, a grid-like pattern in which parallel straight lines are spaced apart can be used.
  • the detection unit 6 having such a configuration, for example, the shape of the inner surface 5B 'in the natural state is stored as a reference shape, and this reference shape is compared with the shape of the inner surface 5B' obtained in real time. By doing this, deformation of the inner surface 5B 'can be detected. Furthermore, based on the deformation of the inner surface 5B ', the detection unit 6 can detect the deformation of the elastic layer 5, that is, the external force received by the elastic layer 5.
  • the detection unit 6 may detect the shape of the entire area of the inner surface 5B ′ using one optical system 683 or may detect the shape of the entire area of the inner surface 5B ′ using a plurality of optical systems 683. Good.
  • FIG. 24 is a cross-sectional view showing a manipulator of a fifteenth embodiment of the present invention.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the ninth embodiment described above except that the configurations of the pressure receiving unit 4 and the detection unit 6 are different.
  • the manipulator 1 according to the fifteenth embodiment will be described focusing on differences from the above-described ninth embodiment, and the description of the same matters will be omitted. Further, in FIG. 24, the same components as those in the above-described embodiment are denoted by the same reference numerals.
  • the detection unit 6 of the present embodiment detects deformation of the elastic layer 5 by a phase shift method. By using such a phase shift method, deformation of the elastic layer 5 can be detected relatively easily and accurately.
  • the detection unit 6 will be briefly described below.
  • the detection unit 6 picks up an image projection unit 691 that projects a reference pattern on the inner surface 5B ′ and a reference pattern that is projected on the inner surface 5B ′ from a position shifted from the optical axis of the image projection unit 691. And an optical system 693 having an imaging element 692.
  • a stripe pattern representing a sine wave with light and dark of luminance values is projected on the inner surface 5B ', and the reference pattern projected on the inner surface 5B' is imaged by the imaging element 692.
  • the reference pattern is projected four times while being shifted by ⁇ / 2, and is imaged by the imaging element 692 each time. From the four images thus obtained, the shape of the inner surface 5B 'of the portion where the reference pattern is projected can be detected.
  • the reference pattern and the method of shifting the reference pattern are not particularly limited.
  • the detection unit 6 having such a configuration, for example, the shape of the inner surface 5B 'in the natural state is stored as a reference shape, and this reference shape is compared with the shape of the inner surface 5B' obtained in real time. By doing this, deformation of the inner surface 5B 'can be detected. Furthermore, based on the deformation of the inner surface 5B ', the detection unit 6 can detect the deformation of the elastic layer 5, that is, the external force received by the elastic layer 5.
  • the detection unit 6 may detect the shape of the entire area of the inner surface 5B ′ using one optical system 693, or may detect the shape of the entire area of the inner surface 5B ′ using a plurality of optical systems 693. Good.
  • the inner surface 5B is described
  • the method of detecting the shape change of ' is not limited to the ninth embodiment to the present embodiment. That is, any method may be used as long as the shape of the inner surface 5B 'can be detected.
  • a so-called "point measurement method” in addition to the optical probe method described in the ninth, tenth, and eleventh embodiments described above, an ultrasonic method using an ultrasonic probe and magnetism are used. It is possible to use a magnetic system etc.
  • the cross section measurement method including the silhouette method, the light envelope method, the light cutting method described in the above-mentioned twelfth embodiment, the interference fringe method, the holography method It is possible to use a contour line measurement method including the moire topography method and the like of the thirteenth embodiment.
  • FIG. 25 is a cross-sectional view showing a manipulator of a sixteenth embodiment of the present invention.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the first embodiment described above except that the configurations of the pressure receiving unit 4 and the detection unit 6 are different.
  • the manipulator 1 according to the sixteenth embodiment will be described focusing on differences from the first embodiment described above, and the description of the same matters will be omitted. Further, in FIG. 25, the same components as those of the embodiment described above are denoted by the same reference numerals.
  • the elastic layer 5 includes a light transmission layer 5A disposed on the outer peripheral surface of the housing 3 and an image display layer 5C laminated on the surface of the light transmission layer 5A.
  • the light transmitting layer 5A has a light transmitting property, and in particular, is substantially colorless and transparent in the present embodiment.
  • the image display layer 5C has light reflectivity, and is a layer on which an image is displayed by light from an image projection unit 8 described later. When the image display layer 5C receives an external force, the light transmission layer 5A deforms together with the image display layer 5C, and has a function of allowing the shape change of the inner surface 5C 'of the image display layer 5C.
  • the manipulator 1 of the present embodiment has the image projection unit 8 disposed in the housing 3.
  • the image projection unit 8 is not particularly limited, but may be, for example, a liquid crystal projector, an optical scanning projector, or the like.
  • a predetermined image is displayed on the inner surface 5C 'of the image display layer 5C by the light from the image projection unit 8.
  • the marker M is displayed on the inner surface 5C 'of the image display layer 5C by the image projection unit 8. That is, in the manipulator 1 of the present embodiment, the marker M is arranged on the elastic layer 5 by displaying the marker M on the inner surface 5C '. Thereby, the pattern of the marker M can be changed according to the purpose, and the manipulator 1 can exhibit excellent convenience.
  • the detection unit 6 can detect the deformation of the inner surface 5C' by detecting the displacement of the marker M. Furthermore, the detection unit 6 can detect the deformation of the elastic layer 5, that is, the external force received by the elastic layer 5, based on the deformation of the inner surface 5C '.
  • 26 to 28 are cross-sectional views showing a manipulator according to a seventeenth embodiment of the present invention, respectively.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the first embodiment described above except that the configurations of the pressure receiving unit 4 and the detection unit 6 are different.
  • the first marker M1 is in the form of a film disposed between the first elastic layer 51 and the second elastic layer 52.
  • the second marker M2 is in the form of a membrane disposed between the second elastic layer 52 and the third elastic layer 53.
  • the third marker M3 has a film shape disposed between the third elastic layer 53 and the protective layer 54. The first, second and third markers M1, M2 and M3 are deformed as the elastic layer 5 is deformed.
  • the first marker M1, the second marker M2, and the third marker M3 each reflect light of a specific wavelength and transmit light of other wavelengths.
  • the first marker M1, the second marker M2, and the third marker M3 each have different wavelengths of light to be reflected.
  • an optical filter such as a dichroic filter can be used.
  • the manipulator 1 of the present embodiment has the detection unit 6 used in the ninth embodiment described above. Also, as shown in FIG. 26 to FIG. 28, the detection unit 6 includes a first detection unit 6A that detects deformation of the first marker M1, a second detection unit 6B that detects deformation of the second marker M2, and And a third detection unit 6C that detects deformation of the three markers M3.
  • the first detection unit 6A In the first detection unit 6A, light L1 of a wavelength reflected by the first marker M1 is emitted from the light source 631.
  • the semiconductor position detection element 632 is provided with a band pass filter (not shown) which transmits the light L1 and blocks transmission of light L2 and L3 described later. Therefore, the first detection unit 6A can detect the deformation of the first marker M1 using the light L1.
  • Such a first detection unit 6A stores, for example, coordinate values of each part of the first marker M1 in a natural state as reference coordinate values, and this reference coordinate value and coordinate values of each part of the first marker M1 Can be detected in real time to detect the deformation of the first marker M1.
  • the second detection unit 6B in the second detection unit 6B, light L2 of a wavelength reflected by the second marker M2 is emitted from the light source 631.
  • the light L2 passes through the first marker M1.
  • the semiconductor position detection element 632 is provided with a band pass filter (not shown) which transmits the light L2 and blocks transmission of the lights L1 and L3. Therefore, the second detection unit 6B can detect the deformation of the second marker M2 using the light L2.
  • Such a second detection unit 6B stores, for example, the coordinate values of each part of the second marker M2 in the natural state as reference coordinate values, and this reference coordinate value and the coordinate values of each part of the second marker M2 Can be detected in real time to detect deformation of the second marker M2.
  • the light source 631 emits light L3 of a wavelength reflected by the third marker M3.
  • the light L3 passes through the first marker M1 and the second marker M2.
  • the semiconductor position detection element 632 is provided with a band pass filter (not shown) that transmits the light L3 and blocks transmission of the lights L1 and L2. Therefore, the third detection unit 6C can detect the deformation of the third marker M3 using the light L3.
  • Such a third detection unit 6C stores, for example, coordinate values of each part of the third marker M3 in a natural state as reference coordinate values, and this reference coordinate value and coordinate values of each part of the third marker M3 Can be detected in real time to detect the deformation of the third marker M3.
  • the deformation of the first marker M1 detected by the first detection unit 6A, the deformation of the second marker M2 detected by the second detection unit 6B, and the third detection unit 6C The deformation of the elastic layer 5, that is, the external force received by the elastic layer 5 can be detected based on the detected deformation of the third marker M3.
  • the same effect as that of the first embodiment described above can be exhibited.
  • the three detection parts 6A, 6B, and 6C are included, it is not limited to this, The structure which has one detection part 6 may be sufficient.
  • the light source 631 is configured to periodically switch and emit the light L1, L2, and L3 and time-divisionally detects the deformation of the first, second, and third markers M1, M2, and M3. You should do it.
  • the detection unit 6 may be configured as described in, for example, the tenth to fifteenth embodiments described above.
  • FIG. 29 is a cross-sectional view showing a manipulator of an eighteenth embodiment of the present invention.
  • the manipulator 1 according to the present embodiment is the same as the manipulator 1 according to the first embodiment described above except that the configuration of the detection unit 6 is different.
  • the manipulator 1 of the eighteenth embodiment will be described focusing on the differences from the first embodiment described above, and the description of the same matters will be omitted. Further, in FIG. 29, the same components as those of the embodiment described above are denoted by the same reference numerals.
  • the detection unit 6 of this embodiment is configured to detect the displacement of the marker M by one camera 61.
  • the camera 61 for example, it is preferable to use one having a shallow depth of field (DOF) and a focusing function.
  • DOF shallow depth of field
  • the depth of field is not particularly limited, and varies depending on the required detection accuracy, but it is preferable that the depth of field be shallow enough that the camera 61 can not maintain focus when the marker M is displaced. According to the detection unit 6 having such a configuration, it is possible to detect the displacement of the marker M using the shift in focus caused by the displacement of the marker M.
  • the detection unit 6 stores, for each marker M in the natural state, the state of the lens of the camera 61 (the position of the focusing lens) in a focused state as a reference state. In addition, the detection unit 6 detects the state of the lens of the camera 61 in a focused state for each marker in real time. The detection unit 6 can detect how much each marker M is displaced in the optical axis direction of the camera 61 with respect to the natural state by comparing the state of the lens detected in real time and the reference state. . Further, the detection unit 6 can detect a shift in a direction orthogonal to the optical axis of each marker M from the image acquired by the camera 61, and detects a three-dimensional displacement of each marker M based on the information. be able to. Thereby, the detection unit 6 can detect the deformation of the elastic layer 5, that is, the external force received by the elastic layer 5.
  • the detection part 6 uses the camera 61 which has a focus function, it is not limited to this, It is not necessary to have a focus function. In this case, the camera 61 itself is moved in the optical axis direction to focus on the marker M, and based on the movement distance of the camera 61 at that time, the marker M in the optical axis direction. Displacement can be detected.
  • FIG. 30 is a perspective view showing a robot according to a nineteenth embodiment of the present invention.
  • the robot 100 is a humanoid robot and includes a body 110, a head 120, two legs 130 having joints, two arms 140 having joints, and an arm It has a manipulator 1 connected to the tip of the unit 140, and a robot control unit 150 for controlling the drive of each unit.
  • a robot 100 can walk on two legs by driving the legs 130.
  • the robot 100 is used as a robot for nursing care.
  • the robot 100 slides the manipulator 1 between the bed and the care recipient with the ventral side of the finger 22 facing upward in the vertical direction. Go on.
  • the external force received by the movable portion 24 is detected by the first and second pressure-sensitive elements 35 and 36 while the external force received by the pressure receiving portion 4 is detected by the detecting portion 6, for example, It can be determined whether or not the care recipient's clothes are stuck, the end segment 223 is not hitting the care recipient's body, and the like.
  • the control unit 23 moves the corresponding finger 22 to eliminate the above phenomenon. By performing such control, the manipulator 1 can be smoothly slipped between the bed and the care recipient.
  • an external force is applied to the abdomen of each finger 22 by being sandwiched between the bed and the care recipient, but this external force is detected on the basis of the displacement of the marker M as described above. It is possible to detect in which direction a certain degree of external force is applied. Therefore, if there is a finger unit 22 to which a large external force is applied or a finger unit 22 to which only a small external force is applied, the control unit 23 performs predetermined finger units such that uniform and appropriate external force is applied to each finger unit 22 22 can be moved to balance the external forces applied to each finger 22. That is, the control unit 23 changes the posture of the finger unit 22 so that the difference between the external forces applied to the finger units 22 is reduced. According to such control, the burden on the care recipient can be effectively reduced.
  • the robot 100 lifts the care recipient from the bed by moving the arm part 140, for example, to sit on a wheelchair or the like prepared in advance next to the bed.
  • the control unit 23 moves the predetermined finger portions 22 as needed so that the difference in external pressure applied to the respective finger portions 22 is reduced. It balances the external force applied to the finger 22 of the book. This can effectively reduce the burden on the care recipient.
  • Such a robot 100 is provided with a manipulator 1. Therefore, the effect of the manipulator 1 described above can be exhibited, and a highly reliable robot 100 can be obtained.
  • the robot 100 has been described above.
  • the configuration of the robot 100 is not particularly limited.
  • the number of the arms 140 may be one, or three or more.
  • the number of the legs 130 is not particularly limited, and may be three or more, but in particular, it is preferable to have four legs 130 and walk four legs. As a result, the robot 100 can move stably while suppressing the number of legs 130.
  • a wheel a rotating member
  • the structure may be movable by rotating the wheel.
  • the robot 100 is not limited to a nursing robot, for example, a guiding robot for guiding a user at a station, an airport, a commercial facility, etc., a transporting robot for transporting food to customers at a restaurant etc.
  • the robot may be a transfer robot such as an automated guided vehicle (AGV) that transfers packages in a factory or the like, or an industrial robot that manufactures a product in a factory or the like.
  • AGV automated guided vehicle
  • FIG. 31 is a cross-sectional view showing a robot according to a twentieth embodiment of the present invention.
  • the robot 100 according to the present embodiment is the same as the robot 100 according to the nineteenth embodiment described above except that the pressure receiving unit 4 and the detection unit 6 are disposed in the leg 130.
  • the robot 100 according to the twentieth embodiment will be described focusing on differences from the nineteenth embodiment described above, and the description of the same matters will be omitted. Further, in FIG. 31, the same components as those in the above-described embodiment are denoted by the same reference numerals.
  • the leg 130 has a foot 131 that contacts the ground.
  • the pressure receiving portion 4 and the detecting portion 6 are provided on the foot portion 131.
  • the foot portion 131 has a housing 132, and the elastic layer 5 having the marker M is provided on the bottom surface of the housing 132.
  • the configuration of the elastic layer 5 is the same as that of the first embodiment described above.
  • a plurality of cameras 61 are provided inside the housing 132, and the detection unit 6 detects the displacement of the markers M from the images of the cameras 61 and detects an external force applied to the elastic layer 5.
  • the pressure receiving unit 4 and the detection unit 6 are disposed in the foot 131, but the invention is not limited thereto.
  • the pressure reception unit 4 and the detection unit 6 are disposed in at least a part of the robot 100 It should just be.
  • the pressure receiving unit 4 and the detection unit 6 may be further provided on at least one of the body 110, the head 120, and the arm 140. Further, the pressure receiving unit 4 and the detection unit 6 may not be provided in the foot portion 131.
  • FIG. 32 is a cross-sectional view showing a robot according to a twenty-first embodiment of the present invention.
  • FIG. 33 is a cross-sectional view showing a modification of the robot shown in FIG.
  • the robot 100 according to the present embodiment is the same as the robot 100 according to the twentieth embodiment described above, except that the configuration of the leg 130 is different.
  • the foot portion 131 has a cover portion 139 provided on the lower surface of the elastic layer 5.
  • the cover portion 139 can prevent the elastic layer 5 from coming into contact with the ground, and can protect the elastic layer 5.
  • the cover portion 139 has hardness (Young's modulus) different from that of the elastic layer 5, and in the present embodiment, the cover portion 139 is hard enough not to be substantially deformed depending on the walking of the robot 100. It does not specifically limit as a constituent material of the cover part 139, For example, various resin materials, various metal materials etc. can be used. However, the hardness of the cover portion 139 is not particularly limited, and may be soft enough to be deformed by the walking of the robot 100.
  • the cover portion 139 may be divided into a plurality of portions on the lower surface of the foot portion 131. Moreover, when dividing
  • the present invention is not limited to this, and the configuration of each part is replaced by an arbitrary configuration having the same function. can do.
  • any other component may be added to the present invention.
  • the embodiments may be combined as appropriate.
  • the manipulator is connected to the robot, but the object to which the manipulator is connected is not limited to the robot.
  • it may be a simple frame that does not drive like a robot.
  • the manipulator according to the present invention is disposed on the elastic layer in which the first surface which is the pressure receiving surface and the second surface opposite to the first surface is defined, and is displaced along with the deformation of the elastic layer
  • a pressure receiving unit including a marker and a detection unit positioned on the second surface side of the elastic layer and detecting an external force applied to the elastic layer based on a displacement of the marker.
  • the marker is displaced according to the external force received by the elastic layer. Therefore, the external force received by the elastic layer can be accurately detected by the detection unit detecting the displacement of the marker. Therefore, for example, by controlling the drive based on the external force detected by the detection unit, the manipulator can operate smoothly. Therefore, the manipulator of the present invention has industrial applicability. The same applies to the robot of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Force Measurement Appropriate To Specific Purposes (AREA)
  • Health & Medical Sciences (AREA)
  • Nursing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)

Abstract

スムーズな動作を行うことのできるマニピュレーターおよびロボットを提供する。 マニピュレーター(1)は、受圧面である外面(5a)および外面(5a)の反対側の内面(5b)が規定される弾性層(5)と、弾性層(5)に配置され、弾性層(5)の変形に伴って変位するマーカー(M)と、を備える受圧部と、弾性層(5)の内面(5b)側に位置づけられ、マーカー(M)の変位に基づいて弾性層(5)に加わる外力を検出する検出部(6)と、を備えている。また、マーカー(M)は、弾性層(5)の厚さ方向にずれて配置されている第1マーカー(M1)および第2マーカー(M2)を有している。

Description

マニピュレーターおよびロボット
 本発明は、マニピュレーターおよびロボットに関するものである。
 従来から、要介護者(高齢者、障がい者)の介護を補助するロボットとして特許文献1に記載のロボットが知られている。特許文献1のロボットは、2本のアームを備えており、要介護者がベッドに寝ている状態で、ベッドと要介護者との間にアームを侵入させることで、要介護者をベッドから持ち上げることができるようになっている。これにより、例えば、要介護者をベッドから車椅子へ移動させたり、車椅子からベッドへ移動させたりすることができる。
特開2008-086542号公報
 しかしながら、特許文献1のロボットではアームの構成が不明確であり、ベッドと要介護者との間にアームをスムーズに侵入させることができるとは考えらない。そのため、例えば、シーツや要介護者の衣服にアームが引っかかったり、アームが過度な力で要介護者を押してしまったりし、スムーズな動作を行うことができないという問題が生じてしまうおそれがある。
 本発明の目的は、スムーズな動作を行うことのできるマニピュレーターおよびロボットを提供することにある。
 このような目的は、下記の本発明により達成される。
 (1) 受圧面である第1面および前記第1面の反対側の第2面が規定される弾性層と、前記弾性層に配置され、前記弾性層の変形に伴って変位するマーカーと、を含む受圧部と、
 前記弾性層の前記第2面側に位置づけられ、前記マーカーの変位に基づいて前記弾性層に加わる外力を検出する検出部と、を備えることを特徴とするマニピュレーター。
 (2) 前記マーカーは、前記弾性層の厚さ方向にずれて配置されている第1マーカーおよび第2マーカーを有する上記(1)に記載のマニピュレーター。
 (3) 前記弾性層は、前記第1マーカーを有する第1弾性層と、前記第1弾性層上に配置され、前記第2マーカーを有する第2弾性層と、を有する上記(2)に記載のマニピュレーター。
 (4)前記第1マーカーおよび前記第2マーカーは、形状および色彩の少なくとも一方が互いに異なっている上記(2)または(3)に記載のマニピュレーター。
 (5) 前記マーカーは、前記第1面に露出する露出マーカーを有する上記(1)ないし(4)のいずれかに記載のマニピュレーター。
 (6) 前記受圧部は、前記弾性層の変形によって変位せず、前記検出部によって検出可能な基準マーカーを有する上記(1)ないし(5)のいずれかに記載のマニピュレーター。
 (7) 前記検出部は、前記マーカーを撮像する撮像部を有し、前記撮像部が撮像した前記マーカーの画像データに基づいて前記マーカーの変位を検出する上記(1)ないし(6)のいずれかに記載のマニピュレーター。
 (8)前記検出部は、ステレオ写真法によって前記マーカーの変位を検出する上記(7)に記載のマニピュレーター。
 (9) 前記弾性層を前記第2面側から支持する支持部を備える上記(1)ないし(8)のいずれかに記載のマニピュレーター。
 (10) 前記支持部に対して変位可能な可動部と、
 前記可動部に加わる外力を検知する感圧素子と、を有している上記(9)に記載のマニピュレーター。
 (11) 基部と、
 前記基部に接続され、前記基部に対して変位可能な指部と、を有し、
 前記受圧部は、少なくとも前記指部の先端部に配置されている上記(1)ないし(10)のいずれかに記載のマニピュレーター。
 (12) 前記マーカーは、線状をなす線状部と、前記線状部に配置され、前記線状部よりも幅が広い塊部と、を有し、
 前記塊部は、前記線状部よりもヤング率が高い上記(1)ないし(11)のいずれかに記載のマニピュレーター。
 (13) 上記(1)ないし(12)のいずれかに記載のマニピュレーターを有することを特徴とするロボット。
 (14) 受圧面である第1面および前記第1面の反対側の第2面が規定される弾性層と、前記弾性層に配置され、前記弾性層の変形に伴って変位するマーカーと、を備える受圧部と、
 前記弾性層の前記第2面側に位置づけられ、前記マーカーの変位に基づいて前記弾性層に加わる外力を検出する検出部と、を備えることを特徴とするロボット。
 本発明によれば、受圧部が受けた外力に応じて弾性層が変形すると共にマーカーが変位する。そのため、マーカーの変位を検出部が検出することで、受圧部が受けた外力を精度よく検知することができる。したがって、例えば、検出部が検出した外力に基づいて駆動を制御することで、スムーズな動作が可能なマニピュレーターおよびロボットとなる。
図1は、本発明の第1実施形態に係るマニピュレーターを示す平面図である。 図2は、本発明の第1実施形態に係るマニピュレーターを示す平面図である。 図3は、図1に示すマニピュレーターの断面図である。 図4は、図3に示す受圧部の断面図である。 図5は、受圧部が変形した状態を示す断面図である。 図6は、受圧部の変形例を示す断面図である。 図7は、本発明の第2実施形態に係るマニピュレーターの断面図である。 図8は、本発明の第3実施形態に係るマニピュレーターの断面図である。 図9は、本発明の第4実施形態に係るマニピュレーターの断面図である。 図10は、本発明の第5実施形態に係るマニピュレーターを示す断面図である。 図11は、図10に示すマニピュレーターの変形例を示す断面図である。 図12は、本発明の第6実施形態に係るマニピュレーターの断面図である。 図13は、図12に示すマニピュレーターの平面図である。 図14は、本発明の第7実施形態に係るマニピュレーターを示す平面図である。 図15は、図14に示すマニピュレーターの断面図である。 図16は、本発明の第8実施形態に係るマニピュレーターを示す断面図である。 図17は、図16に示すマニピュレーターの平面図である。 図18は、本発明の第9実施形態のマニピュレーターを示す断面図である。 図19は、本発明の第10実施形態のマニピュレーターを示す断面図である。 図20は、本発明の第11実施形態のマニピュレーターを示す断面図である。 図21は、本発明の第12実施形態のマニピュレーターを示す断面図である。 図22は、本発明の第13実施形態のマニピュレーターを示す断面図である。 図23は、本発明の第14実施形態のマニピュレーターを示す断面図である。 図24は、本発明の第15実施形態のマニピュレーターを示す断面図である。 図25は、本発明の第16実施形態のマニピュレーターを示す断面図である。 図26は、本発明の第17実施形態のマニピュレーターを示す断面図である。 図27は、本発明の第17実施形態のマニピュレーターを示す断面図である。 図28は、本発明の第17実施形態のマニピュレーターを示す断面図である。 図29は、本発明の第18実施形態のマニピュレーターを示す断面図である。 図30は、本発明の第19実施形態のロボットを示す斜視図である。 図31は、本発明の第20実施形態のロボットを示す断面図である。 図32は、本発明の第21実施形態のロボットを示す断面図である。 図33は、図32に示すロボットの変形例を示す断面図である。
 以下、本発明のマニピュレーターおよびロボットを添付図面に示す好適な実施形態に基づいて詳細に説明する。
 <第1実施形態>
 まず、本発明の第1実施形態に係るマニピュレーターについて説明する。
 図1および図2は、それぞれ、本発明の第1実施形態に係るマニピュレーターを示す平面図である。図3は、図1に示すマニピュレーターの断面図である。図4は、図3に示す受圧部の断面図である。図5は、受圧部が変形した状態を示す断面図である。図6は、受圧部の変形例を示す断面図である。なお、以下では、指部の図3中上側を「腹」とも言い、下側を「裏」とも言う。
 図1に示すマニピュレーター1は、ロボットハンド(エンドエフェクター)として利用され、例えば、介護用のロボット100に装着して使用される。なお、介護用ロボットとは、例えば、自力で動くことが困難な要介護者をベッドから持ち上げたり、ベッド上で上半身を起こしたり、向きを変えたり、ベッドへ寝かせたりすることのできるロボットである。ただし、マニピュレーター1の用途としては、介護用のロボット100に装着されるものに限定されず、例えば、駅、空港、商業施設等で利用者を案内する案内用ロボット、飲食店等で客まで飲食物を運ぶ運搬用ロボット、工場等で製造物を製造する産業用ロボット等に装着して用いることもできる。
 図2に示すように、マニピュレーター1は、介護用のロボット100に接続される基部21と、基部21に接続されている5本の指部22と、マニピュレーター1の駆動を制御する制御部23と、を有している。また、5本の指部22は、それぞれ、関節機構を介して基部21に接続されている基節部221(基端部)と、関節機構を介して基節部221に接続されている中節部222(中央部)と、関節機構を介して中節部222に接続されている末節部223(先端部)と、を有している。また、例えば、各関節機構は、駆動源としてのモーターを有しており、モーターの駆動により基部21に対して基節部221が回動し、基節部221に対して中節部222が回動し、中節部222に対して末節部223が回動する。このようなマニピュレーター1は、制御部23が各モーターの駆動を制御することで、人間の手のように閉じたり、開いたり、物を掴んだり、種々の形状に変形することができる。
 また、基部21および各指部22は、骨格となる筐体3と、筐体3を覆う皮膚となる弾性層5と、を有している。また、筐体3は、硬質な部材、具体的には通常の使用中に受ける圧力程度では実質的に変形しない程度の硬さを有する部材で構成されている。一方、弾性層5は、使用中に受ける外力、すなわち周囲の物体との接触によって弾性変形する程度に軟質な材料で構成されている。
 次に、各指部22の末節部223について説明する。図3に示すように、末節部223は、支持部としての筐体3と、筐体3の表面側に配置され、外部からの圧力を受ける受圧部4と、筐体3の内側に配置され、受圧部4の変形を検出する検出部6と、受圧部4を照らす光源7と、を有している。また、図4に示すように、受圧部4は、筐体3に支持された弾性層5と、弾性層5に配置されたマーカーMと、を有している。このようなマニピュレーター1では、外力を受けると弾性層5が弾性変形し、それに伴ってマーカーMが変位する。そして、検出部6がマーカーMの変位を検出し、それに基づいて弾性層5が受けた外力を検出する。検出部6での検出結果は、制御部23にフィードバックされ、制御部23は、検出部6での検出結果に基づいて、各モーターの駆動を制御する。これにより、マニピュレーター1は、周囲の物体との接触や、スムーズでかつ安全な駆動を実行することができる。
 また、図3に示すように、末節部223は、筐体3と、筐体3とは別体で構成され、筐体3に対して変位可能な可動部24と、を有している。筐体3は、人間の指の末節部の「腹」に相当する部分であり、それに似た形状となっている。一方、可動部24は、人間の指の「爪」に相当する部分であり、それに似た形状および位置となっている。このような構成とすることで、末節部223を人間の指の末節部に似せることができ、要介護者に、人間の手で介護されているときと似た感覚を与えることができる。そのため、要介護者への違和感を低減することができる。ただし、末節部223の構成としては、特に限定されず、例えば、可動部24を省略してもよい。
 また、図3に示すように、可動部24は、可動部24と筐体3との間に配置された第1付勢部材33によって基端側(中節部222側)へ付勢されていると共に、可動部24と筐体3との間に配置された第2付勢部材34によって筐体3側(腹側)へ付勢されている。なお、第1、第2付勢部材33、34としては、それぞれ、特に限定されず、例えば、バネ部材やゴム部材を用いることができる。
 また、図3に示すように、可動部24の基端部と筐体3との間には第1感圧素子35が配置されており、可動部24が受けた矢印A方向の外力が第1感圧素子35に伝搬するようになっている。そのため、第1感圧素子35は、可動部24に加わる矢印A方向の外力を検出することができる。また、可動部24の裏側と筐体3との間には第2感圧素子36が配置されており、可動部24が受けた矢印B方向の外力が第2感圧素子36に伝搬するようになっている。そのため、第2感圧素子36は、可動部24に加わる矢印B方向の外力を検知することができる。
 第1、第2感圧素子35、36としては、可動部24が受ける外力を検出することができれば、特に限定されない。第1、第2感圧素子35、36は、例えば、受けた圧力に応じて抵抗値が変化する感圧導電性樹脂と、感圧導電性樹脂を間に挟んで設けられた一対の配線と、を有する構成とすることができる。このような構成によれば、一対の配線を介して感圧導電性樹脂の抵抗値を検出し、この抵抗値の変化に基づいて可動部24が受けた外力を検出することができる。また、比較的簡単な構成で、かつ、小型の第1、第2感圧素子35、36となる。なお、自然状態では、第1、第2感圧素子35、36は、第1、第2付勢部材33、34によって可動部24と筐体3との間に挟まれて、圧縮するように予圧されている。そのため、感圧導電性樹脂の抵抗値の増減に基づいて、可動部24に加わった外力の向きを検知することができる。すなわち、このような構成の第1、第2感圧素子35、36によれば、抵抗値変化の絶対値に基づいて加わった外力の大きさを検出することができ、抵抗値の増減に基づいて加わった外力の向きを検出することができる。そのため、優れた検出特性を有する第1、第2感圧素子35、36となる。
 ただし、第1、第2感圧素子35、36としては、特に限定されず、例えば、受けた力の大きさに応じた電荷を出力する圧電素子を用いることもできる。また、第1、第2感圧素子35、36は、省略してもよい。
 なお、筐体3および可動部24は、それぞれ、硬質な部材で構成されている。また、筐体3は、さらに光透過性を有している。本実施形態では、筐体3および可動部24は、それぞれ、樹脂材料で構成され、特に筐体3は、実質的に無色透明となっている。また、筐体3の内側には、内部空間Sが設けられている。そして、この内部空間Sに、検出部6および光源7が収納、配置されている。
 弾性層5は、末節部223の可動部24以外の部分を覆うように配置されている。すなわち、可動部24は、弾性層5に覆われることなく、末節部223の外部に露出している。そのため、可動部24の変位が弾性層5に阻害されず、第1、第2感圧素子35、36によって、可動部24に加わる外力を精度よく検出することができる。
 弾性層5は、圧力等の外力を受けると、受けた外力に応じて弾性変形する。また、弾性層5は、図4に示すように、外力を受ける受圧面である外面5a(第1面)と、外面5aと反対側の内面5b(第2面)と、が規定される層である。また、弾性層5内には、弾性層5の変形に伴って変位するマーカーMが配置されている。マーカーMは、検出部6で検出可能な検出対象である。
 図4に示すように、マーカーMは、末節部223の腹の部分に位置する弾性層5に配置されている。また、マーカーMは、弾性層5の厚さ方向にずれて配置された第1マーカーM1、第2マーカーM2および第3マーカーM3を有している。また、これら第1マーカーM1、第2マーカーM2および第3マーカーM3は、内面5bからの距離が互いに異なっている。検出部6は、これら第1マーカーM1、第2マーカーM2および第3マーカーM3の変位に基づいて弾性層5の変形を検出し、さらには、弾性層5に加わった外力を検出する。
 図4に示すように、弾性層5は、筐体3の外周に配置され、第1マーカーM1が配置された第1弾性層51と、第1弾性層51上に配置され、第2マーカーM2が配置された第2弾性層52と、第2弾性層52上に配置され、第3マーカーM3が配置された第3弾性層53と、第3弾性層53上に配置された保護層54と、を有している。
 第1弾性層51、第2弾性層52および第3弾性層53は、それぞれ、光透過性および弾性(復元力)を有している。そして、第1弾性層51の表面に複数の第1マーカーM1が互いに離間して配置され、第2弾性層52の表面に複数の第2マーカーM2が互いに離間して配置され、第3弾性層53の表面に複数の第3マーカーM3が互いに離間して配置されている。
 本実施形態では、これら第1、第2、第3弾性層51、52、53は、それぞれ、実質的に無色透明である。ただし、第1、第2、第3弾性層51、52、53は、光透過性を有していれば、その少なくとも1つが、例えば、有色透明であってもよい。
 第1、第2、第3弾性層51、52、53の構成材料としては、特に限定されず、例えば、ポリウレタン系エラストマー、スチレン系熱可塑性エラストマー、オレフィン系熱可塑性エラストマー、塩ビ系熱可塑性エラストマー、エステル系熱可塑性エラストマー、アミド系熱可塑性エラストマー、シリコーン系熱可塑性エラストマー、フッ素系熱可塑性エラストマー等の各種熱可塑性エラストマー、アクリル系ゴム、シリコーン系ゴム、ブタジエン系ゴム、スチレン系ゴム等の各種ゴム材料等が挙げられ、これらのうちの1種または2種以上を組み合わせて(例えば2層以上の積層体として)用いることができる。
 第1、第2、第3弾性層51、52、53の弾性率(ヤング率)は、それぞれ、特に限定されず、互いに等しくてもよいし、互いに異なっていてもよい。第1、第2、第3弾性層51、52、53の弾性率を異ならせる場合は、例えば、第1弾性層51のヤング率をE1とし、第2弾性層52のヤング率をE2とし、第3弾性層53のヤング率をE3としたとき、E1<E2<E3の関係を満足するように設計してもよいし、反対に、E1>E2>E3の関係を満足するように設計してもよい。
 例えば、E1>E2>E3の関係を満足するように設計した場合、弱い外力F1が加わった場合には、最も柔らかい第3弾性層53だけを実質的に変形させ、外力F1よりも大きい外力F2が加わった場合には、第2、第3弾性層52、53だけを実質的に変形させ、外力F2よりも大きい外力F3が加わった場合には、第1、第2、第3弾性層51、52、53の全てを変形させることができる。そのため、第1、第2、第3弾性層51、52、53のうちのどの弾性層のマーカーMが変位したかを検出することで、受けた圧力を大まかに検出することができる。
 第1、第2、第3マーカーM1、M2、M3は、それぞれ、ドット状すなわち点形状をなしている。このように、第1、第2、第3マーカーM1、M2、M3を、それぞれ、点状とすることで、検出部6で第1、第2、第3マーカーM1、M2、M3の変位を検出し易くなり、弾性層5が受けた外力を精度よく検出することができる。ただし、第1、第2、第3マーカーM1、M2、M3の形状としては、特に限定されない。
 また、複数の第1マーカーM1の配置としては、特に限定されず、規則的に配置されていてもよいし、不規則に配置されていてもよいが、規則的に配置されているのが好ましい。これにより、第1弾性層51の全域にわたって均一に過不足なく配置することができる。そのため、第1弾性層51の各部について、その変形を検出部6で精度よく検出することができる。第2マーカーM2の配置および第3マーカーM3の配置についても同様である。
 また、第1、第2、第3マーカーM1、M2、M3の配設密度としては、それぞれ、求められる検出精度、検出部6の検出精度、具体的には後述するカメラ61の解像度、処理部62の処理速度等によっても異なるが、例えば、カメラ61の解像度で識別可能な限り高いことが好ましい。これにより、第1、第2、第3マーカーM1、M2、M3の数をより多くすることができ、検出部6は、より精度よく、かつ、より詳細に弾性層5の変形を検出することができる。
 第1、第2、第3マーカーM1、M2、M3は、形状および色彩の少なくとも一方が互いに異なっており、検出部6によって識別可能となっている。本実施形態では、第1、第2、第3マーカーM1、M2、M3は、互いに色彩が異なっており、例えば、第1マーカーM1が赤色、第2マーカーM2が緑色、第3マーカーM3が青色となっている。
 なお、第1、第2、第3マーカーM1、M2、M3の色彩ではなく形状を互いに異ならせる場合には、例えば、第1マーカーM1が円形、第2マーカーM2が三角形、第3マーカーM3が四角形とすることができる。もちろん、色彩および形状を共に異ならせてもよいし、色彩や形状を異ならせる以外の方法によって、第1、第2、第3マーカーM1、M2、M3を検出部6で識別可能としてもよい。
 また、第1、第2、第3マーカーM1、M2、M3は、自然状態において、検出部6のカメラ61から見て、互いに重ならないように配置されていることが好ましい。すなわち、カメラ61によって撮像される画像上で、第2マーカーM2がその手前にある第1マーカーM1に隠れることなく、第3マーカーM3がその手前にある第1、第2マーカーM1、M2に隠れることがないように配置されていることが好ましい。これにより、カメラ61によって、第1、第2、第3マーカーM1、M2、M3の変位をそれぞれより正確に捉えることができる。そのため、検出部6は、より精度よく、弾性層5が受けた外力を検出することができる。なお、前記「自然状態」とは、例えば、静止し、弾性層5に実質的に外力が加わっていない状態を言う。
 以上、マーカーMについて説明した。マーカーMの構成としては、特に限定されず、例えば、第3マーカーM3を省略してもよいし、第2、第3マーカーM2、M3を省略してもよい。また、第1、第2、第3マーカーM1、M2、M3は、それぞれ、ドット状に限定されず、線形状、面形状、立体形状等であってもよい。また、第1、第2、第3マーカーM1、M2、M3は、それぞれ、第1、第2、第3弾性層51、52、53の表面に貼着されたものであってもよいし、第1、第2、第3弾性層51、52、53の表面にインク等を用いて印刷されたものであってもよい。また、例えば、第1、第2、第3マーカーM1、M2、M3は、それぞれ、第1、第2、第3弾性層51、52、53内に埋設されていてもよい。また、マーカーMは、弾性層5に配置されていなくてもよく、例えば、弾性層5を覆うように被せられた被覆部材に配置されていてもよい。このように、被覆部材にマーカーMを配置することで、被覆部材を交換することで、簡単に、使用目的に適したマーカーMとすることができる。
 保護層54は、主に、第3弾性層53を保護する機能を有している。また、保護層54は、第1、第2、第3弾性層51、52、53と同様に、光透過性および弾性を有している。本実施形態では、保護層54は、無色透明である。ただし、保護層54は、有色透明であってもよい。このような保護層54の構成材料としては、特に限定されないが、例えば、前述した第1、第2、第3弾性層51、52、53の構成材料と同様の材料が挙げられる。
 なお、各層51、52、53、54の厚さとしては、特に限定されないが、例えば、0.1mm以上2.0mm以下程度であることが好ましく、0.5mm以上1.5mm以下程度であることがより好ましい。この程度の厚さとすることで、弾性層5の厚みを抑えつつ、圧力を受けた時に弾性層5を十分に変形させることができる。そのため、末節部223の過度な大型化を防止することができると共に、第1、第2、第3マーカーM1、M2、M3が十分に変位し、受けた圧力を精度よく検出することができる。
 検出部6は、ステレオ写真法によって、弾性層5の変形を三次元的に検出する。このように、ステレオ写真法を用いることで、弾性層5の変形を比較的簡単に、かつ、精度よく検出することができる。
 図3および図4に示すように、検出部6は、内部空間S内に配置された撮像部としての複数のカメラ61を有している。弾性層5の各部は、少なくとも2つのカメラ61で撮像できるようになっており、これにより、弾性層5の各部を三次元画像認識、すなわちステレオ画像認識することができるようになっている。
 カメラ61としては、特に限定されず、例えば、CCDカメラ、CMOSカメラ等を用いることができる。また、本実施形態では、2つのカメラ61を用いて弾性層5の各部を三次元画像認識しているが、例えば、複数の光軸を有するレンズを用いて1つのカメラ61で光軸の異なる複数の画像を時分割で取得し、これらの画像を用いて弾性層5の各部を三次元画像認識してもよい。このような構成によれば、撮像部の小型化および低コスト化を図ることができる。なお、前記「弾性層5の各部」とは、弾性層5の全域を意味する場合もあれば、弾性層5の選択された一部の領域を意味する場合もある。
 また、図4に示すように、検出部6は、各カメラ61からの画像情報に基づいて弾性層5の三次元画像認識を行う処理部62を有している。また、処理部62は、例えば、各カメラ61等の各部を制御するCPU62a、メモリー62b、フラッシュメモリー等の記憶部62c等を含んでおり、所定のプログラム(コード)を実行できるように構成されている。なお、前記プログラムは、例えば、記憶媒体に記憶されていてもよいし、外部のサーバーからダウンロードしてもよい。
 弾性層5に外力が加わると、外力が加わった部分が変形し、当該変形に伴って第1、第2、第3マーカーM1、M2、M3がそれぞれ変位する。具体的な例を挙げれば、例えば、図5に示すように、弾性層5のある部分が要介護者Xと接触して変形した場合には、その直下および周囲に位置する第1、第2、第3マーカーM1、M2、M3がそれぞれ受けた圧力に応じて変位する。処理部62は、第1、第2、第3マーカーM1、M2、M3の変位を三次元画像認識によって検出し、その結果に基づいて、外力が加わった位置、加わった外力の大きさ、外力の方向、速度等を検出する。
 このように、弾性層5に第1、第2、第3マーカーM1、M2、M3が配置されていることで、検出部6は、第1、第2、第3マーカーM1、M2、M3の変位に基づいて弾性層5に加わる外力を精度よく検出することができる。特に、本実施形態では、第1、第2、第3マーカーM1、M2、M3が弾性層5の厚さ方向にずれて配置されている。そのため、検出部6は、弾性層5の厚さ方向に異なる位置での変形を検出することができ、弾性層5に加わる外力をより詳細に検出することができる。
 ここで、処理部62による圧力の検出方法の一例について簡単に説明する。処理部62の記憶部62cには予め各カメラ61の3次元座標が記憶されている。そして、処理部62は、ある所定のマーカーM(以下、「所定マーカーM」と言う。)の変位を検出するのに用いられる2台のカメラ61によって同時刻における画像を取得し、両画像中の所定マーカーMの2次元座標を取得する。次に、処理部62は、両画像中の所定マーカーMの2次元座標のずれと各カメラ61の3次元座標とに基づいて所定マーカーMの3次元座標を取得し、記憶部62cに記憶する。処理部62は、この作業をフレーム毎に連続的に行う。そして、処理部62は、前回取得した所定マーカーMの3次元座標と、今回新たに取得した所定マーカーMの3次元座標とを比較することで、その間の時間に生じた所定マーカーMの変位を検出することができる。処理部62は、このような作業を全マーカーMについて行うことで、弾性層5の変形を検出し、さらには、弾性層5が受けた外力を検出する。なお、各カメラ61のフレームレートとしては、特に限定されず、求められる圧力検出精度によっても異なるが、例えば、15フレーム/秒、30フレーム/秒、60フレーム/秒等とすることができる。
 ここで、本実施形態では、弾性層5が指部22全体を覆っている。そのため、外力を受けていない自然状態であっても、基部21に対して基節部221が回動したり、基節部221に対して中節部222が回動したり、中節部222に対して末節部223が回動したりすることで、末節部223に位置する弾性層5が変形し、それに伴ってマーカーMが変位するおそれがある。すなわち、指部22の状態によって、自然状態でのマーカーMの配置が異なるおそれがある。
 そこで、検出部6は、指部22の姿勢が異なる複数の場合について、自然状態でのマーカーMの配置が記憶された基準情報を記憶し、検出時には、検出時の指部22の姿勢と一致する姿勢の基準情報または指部22の姿勢に最も近い姿勢の基準情報を選択し、選択した基準情報を自然状態とするキャリブレーションを行うことが好ましい。これにより、検出部6は、弾性層5が受ける外力をより精度よく検出することができる。
 以上、処理部62による外力の検出方法について説明した。ただし、処理部62による検出方法は、特に、限定されない。例えば、全マーカーMについて上述の作業を行うと処理量が膨大となってしまい、処理部62の性能等によっては処理が追いつかない場合が考えられる。また、用途によっては、受けた圧力について大まかに検出すればそれで足りる場合も考えられる。そのため、このような場合には、例えば、処理部62は、予め選択した一部のマーカーMについてのみ上述の作業を行うようにしてもよい。
 また、処理部62は、例えば、自然状態における弾性層5の各部の画像を基準画像として記憶しておき、この基準画像と、上述のように取得された画像とをリアルタイムに比較して各マーカーMの変位を特定することで、弾性層5が受けた圧力を検出してもよい。
 なお、処理部62は、人工知能(AI)を備えており、機能学習によって、人工知能に学習させるように構成されていてもよい。この場合、処理部62は、例えば、カメラ61から取得した画像を大量に取り込んで、人工知能にマーカーMの変位についての学習をさせることで、各マーカーMの変位をより短時間でより精度よく検出することができるようになる。なお、機能学習の一例として、サポートベクターマシン、ベイジアンネットワーク、協調フィルタリング、ディープラーニングを含むニューラルネットワーク等が挙げられる。
 なお、前述したように、本実施形態では、各層51、52、53、54が無色透明である。そのため、各カメラ61は、弾性層5を介して弾性層5の外界を撮像することができる。そのため、処理部62は、各カメラ61が捉えた外界の様子から末節部223の位置等を検出することもできる。なお、検出部6による外界の認識は必須ではなく、できなくてもよい。この場合、保護層54は、光透過性を有する必要がなく、光透過性を有していなくてもよい。保護層54が光透過性を有しなければ、光源7の光が末節部223の外部に漏れることがないため、周囲の人間が眩しく感じることがなくなる。
 光源7は、内面5b側から弾性層5を照らす機能を有している。図3および図4に示すように、光源7は、内部空間S内に配置された複数の発光部71を有している。そして、これら複数の発光部71からの光で、弾性層5のほぼ全域がほぼ等しく照明されるようになっている。このような光源7を配置することで、カメラ61による弾性層5の撮像をより高精度、高解像度に行うことができる。
 なお、各発光部71としては、特に限定されず、例えば、LEDを用いることができる。また、各発光部71は、可視光を出射してもよいし、NIR光(近赤外光)を出射してもよいし、紫外光を出射してもよい。発光部71として可視光を出射するものを用いる場合には、各カメラ61を可視光に対応した構成とし、発光部71としてNIR光を出射するものを用いる場合には、各カメラ61をNIR光に対応した構成とし、発光部71として紫外光を出射するものを用いる場合には、各カメラ61を紫外光に対応した構成とすればよい。特に、NIR光や紫外光は、人間の目には見えないため、弾性層5を介して外部に漏れたとしても周囲の人間が眩しく思うことがない。また、特に、各発光部71が紫外光を出射する場合には、マーカーMは、蛍光体であってもよい。これにより、マーカーMをカメラ61によってより鮮明に撮像することができる。
 なお、例えば、外界からの光によって弾性層5を画像認識可能な程に十分に明るく保てる場合等には光源7を省略してもよい。また、内部空間Sに輝度センサーを配置し、この輝度センサーにより検出された内部空間Sの明るさに基づいて、各発光部71の駆動を制御してもよい。これにより、例えば、内部空間S内をほぼ一定の明るさに保つことができ、検出部6による弾性層5の画像認識を安定して行うことができる。
 検出部6での検出結果、すなわち検出された外力に関する情報は、制御部23に送信される。制御部23は、受信した情報に基づいてマニピュレーター1の駆動を制御する。このように、弾性層5が受けた外力を検出し、その検出結果を制御部23にフィードバックすることで、マニピュレーター1の駆動をよりスムーズにかつより安全に行うことができる。
 ここで、制御部23によるマニピュレーター1の駆動制御の一例を挙げる。例えば、マニピュレーター1によって要介護者Xを下側から支えて持ち上げる動作を行う際に、ある指部22に加わる外力(重量)が他の指部22に加わる外力(重量)よりも大きい場合には、制御部23は、各指部22に加わる外力(重量)がほぼ等しくなるように各指部22の向きや姿勢を変更する。これにより、ある指部22だけに過度な外力が加わってしまうことを抑制でき、各指部22の故障を抑制することができる。また、要介護者Xをより広い領域で支えることができるため、要介護者Xの姿勢が安定すると共に、要介護者Xの負担を低減することができる。
 なお、本実施形態では、マニピュレーター1が制御部23を有しているが、制御部23を省略してもよい。この場合、例えば、ロボット100が有する図示しないロボット制御部が制御部23と同様の機能を有していることが好ましい。
 以上、本実施形態のマニピュレーター1について説明した。このようなマニピュレーター1は、前述したように、受圧面である外面5a(第1面)および外面5aの反対側の内面5b(第2面)が規定される弾性層5と、弾性層5に配置され、弾性層5の変形に伴って変位するマーカーMと、を備える受圧部4と、弾性層5の内面5b側に位置づけられ、マーカーMの変位に基づいて弾性層5に加わる外力を検出する検出部6と、を備えている。このような構成によれば、弾性層5が受けた外力に応じてマーカーMが変位する。そのため、マーカーMの変位を検出部6が検出することで、弾性層5が受けた外力を精度よく検知することができる。したがって、例えば、検出部6が検出した外力に基づいて駆動を制御することで、スムーズな動作が可能なマニピュレーター1となる。特に、マーカーMの変位に基づけば、検出部6は、弾性層5が受けた外力の大きさ、外力の入力方向、入力速度等を検出することができ、受けた外力をより詳細に検出することができる。
 また、前述したように、マニピュレーター1では、マーカーMは、内面5bからの距離が異なる第1マーカーM1および第2マーカーM2を有している。そのため、検出部6は、弾性層5の厚さ方向の各部(例えば、外面付近、中央付近、内面付近)における変形をそれぞれ取得することができる。そのため、検出部6によって、弾性層5が受けた外力をより精度よく検出することができる。特に、本実施形態では、さらに、第3マーカーM3を有しているため、上述の効果がより顕著となる。
 また、前述したように、マニピュレーター1では、弾性層5は、第1マーカーM1を有する第1弾性層51と、第1弾性層51上に配置され、第2マーカーM2を有する第2弾性層52と、を有している。これにより、第1マーカーM1および第2マーカーM2を弾性層5に配置するのが容易となる。
 また、前述したように、マニピュレーター1では、第1マーカーM1および第2マーカーM2は、形状および色彩の少なくとも一方が互いに異なっている。これにより、検出部6が第1マーカーM1および第2マーカーM2を識別し易くなる。そのため、検出部6によって、第1マーカーM1および第2マーカーM2のそれぞれの変位をより精度よく検出することができる。
 また、前述したように、マニピュレーター1では、検出部6は、マーカーMを撮像する撮像部としてのカメラ61を有し、カメラ61が撮像したマーカーMの画像データに基づいてマーカーMの変位を検出する。これにより、比較的簡単な構成で、マーカーMの変位を検出することができる。特に、本実施形態では、検出部6は、ステレオ写真法によってマーカーMの変位を検出する。そのため、比較的簡単に、かつ、高精度にマーカーMの変位を検出することができ、これにより、弾性層5が受けた外力を高精度に検出することができる。
 また、前述したように、マニピュレーター1では、弾性層5を内面5b側から支持する支持部としての筐体3を備えている。これにより、弾性層5の形状が安定し、弾性層5の意図しない変形、例えば、自重による変形が抑制される。そのため、弾性層5が受けた外力をより高精度に検出することができる。
 また、前述したように、マニピュレーター1は、筐体3に対して変位可能な可動部24と、可動部24に加わる外力を検知する第1、第2感圧素子35、36と、を有している。これにより、弾性層5に加わる外力のみならず、可動部24に加わる外力を検出することができる。このように、受圧部4とは異なる圧力検出手段である第1、第2感圧素子35、36を備えることで、両者からの検出結果に基づいて、マニピュレーター1が受ける外力を精度よく検出することができる。
 また、前述したように、マニピュレーター1は、基部21と、基部21に接続されている指部22と、を有している。そして、受圧部4は、少なくとも指部22の先端部である末節部223に配置されている。マニピュレーター1の使用方法によっても異なるが、末節部223は、マニピュレーター1の移動方向の先端側に位置する場合が多く、かつ、周囲の物体に触れる可能性も高い。そのため、このような場所に受圧部4を設けることで、より繊細なマニピュレーター1の駆動が可能となる。ただし、受圧部4の配置としては、特に限定されず、末節部223に配置されていなくてもよい。また、受圧部4は、後述する実施形態のように末節部223以外の場所にも配置されていてもよい。
 以上、第1実施形態のマニピュレーター1について説明したが、マニピュレーター1の構成としては本実施形態に上述の構成に限定されない。例えば、本実施形態のマニピュレーター1は、5本の指部22を有しているが、指部22の本数としては、5本に限定されず、4本以下であってもよいし、6本以上であってもよい。また、本実施形態のマニピュレーター1では、各指部22が、基節部221、中節部222および末節部223を有し、これらが関節機構を介して接続されているが、各指部22の構成としては、これに限定されない。例えば、各指部22は、関節機構がなく、形状が固定されたものであってもよい。
 また、本実施形態では、筐体3が硬質な部材で形成されているが、例えば、筐体3が圧力を受けると弾性層5と共に変形するように、軟質な部材で形成されていてもよい。これにより、例えば、本実施形態と比べて、第1、第2、第3マーカーM1、M2、M3の変位量をそれぞれより大きくすることができる。そのため、検出部6は、より精度よく、弾性層5が受けた外力を検出することができる。
 また、例えば、弾性層5は、その弾性力が可変となっていてもよい。これにより、マニピュレーター1の用途に応じて弾性層5の弾性力を変化させることができ、より操作性の高いマニピュレーター1となる。この場合の受圧部4の構成としては、特に限定されず、例えば、筐体3との間に第1気密空間を有する第1被覆部と、第1被覆部の表面に配置された第1マーカーM1と、第1被覆部を覆い、第1被覆部との間に第2気密空間を有する第2被覆部と、第2被覆部の表面に配置された第2マーカーM2と、第2被覆部を覆い、第2被覆部との間に第3気密空間を有する第3被覆部と、第3被覆部の表面に配置された第3マーカーM3と、第3被覆部を覆い、第3被覆部との間に第4気密空間を有する保護被覆部と、を有し、ポンプ等によって、第1気密空間、第2気密空間、第3気密空間、第4気密空間のそれぞれに空気、希ガス等の気体を供給することで、これら各気密空間の圧力が調整可能となっている構成が挙げられる。また、この場合には、例えば、第1気密空間内に配置された実質的に伸縮しない紐のようなもので、筐体3と第1被覆部とを数か所接続し、筐体3に対する第1被覆部の不本意な変位を抑制しておくことが好ましい。第2被覆部、第3被覆部および保護被覆部についても同様である。
 また、本実施形態では、第1弾性層51に第1マーカーM1を配置し、第2弾性層52に第2マーカーM2を配置し、第3弾性層53に第3マーカーM3を配置しているが、例えば、図6に示すように、筐体3からの距離が異なるように、1層の弾性層5内に複数のマーカーMが規則的または不規則に配置されていてもよい。
 また、マニピュレーター1は、弾性層5を加熱する加熱部を有していてもよい。これにより、例えば、弾性層5を人肌に近い35℃~38℃程度に温めることができ、より人間の手に近い感覚を要介護者に与えることができる。加熱部は、弾性層5を全体的にほぼ均一に加熱できるようになっていてもよいし、弾性層5の一部だけを加熱できるようになっていてもよい。また、加熱部としては、特に限定されず、例えば、赤外線によって弾性層5を加熱する構成とすることができる。これとは、逆に、マニピュレーター1は、弾性層5を冷却する冷却部を有していてもよい。また、マニピュレーター1は、加熱部と冷却部の両方を有していてもよい。
 また、筐体3の内側から筐体3の内周面に向けて映像光を投影し、弾性層5の外側から視認可能な画像(映像)を表示する画像投影部を有していてもよい。表示する画像としては、特に限定されないが、例えば、マニピュレーター1の使用を補助、案内する画像が挙げられる。より具体的には、例えば、要介護者にマニピュレーター1を握ってもらいたい場合には、「マニピュレーターを握ってください。」等のメッセージを表示してもよい。これにより、マニピュレーター1の操作性が向上する。画像投影部としては、特に限定されず、例えば、液晶型のプロジェクタ、光走査型のプロジェクタ等を用いることができる。
 <第2実施形態>
 次に、本発明の第2実施形態に係るマニピュレーターについて説明する。
 図7は、本発明の第2実施形態に係るマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、受圧部4の構成が異なること以外は、前述した第1実施形態のマニピュレーター1と同様である。
 以下、第2実施形態のマニピュレーター1について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。また、図7では前述した実施形態と同様の構成について、同一符号を付している。
 図7に示すように、本実施形態のマニピュレーター1では、受圧部4は、弾性層5の変形によっても実質的に変位せず、検出部6によって検出可能な基準マーカーM4を有している。本実施形態では、基準マーカーM4は、第1弾性層51と筐体3との間であって筐体3の外周面に配置されている。ただし、基準マーカーM4の配置としては、特に限定されず、例えば、筐体3の内周面に配置されていてもよい。
 基準マーカーM4は、各カメラ61との相対的位置関係が一定であり、検出部6が第1、第2、第3マーカーM1、M2、M3の変位を検出する際の基準として機能する。このような構成によれば、例えば、検出部6は、基準マーカーM4に対する第1、第2、第3マーカーM1、M2、M3の変位を検出することで、より精度よく、弾性層5が受けた外力を検出することができる。なお、基準マーカーM4は、検出部6が第1、第2、第3マーカーM1、M2、M3のそれぞれと区別(識別)できるように、例えば、第1、第2、第3マーカーM1、M2、M3と形状および色彩の少なくとも一方が異なっていることが好ましい。
 このような第2実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。
 <第3実施形態>
 次に、本発明の第3実施形態に係るマニピュレーターについて説明する。
 図8は、本発明の第3実施形態に係るマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、受圧部4の構成が異なること以外は、前述した第1実施形態のマニピュレーター1と同様である。
 以下、第3実施形態のマニピュレーター1について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。また、図8では前述した実施形態と同様の構成について、同一符号を付している。
 図8に示すように、本実施形態のマニピュレーター1では、マーカーMは、外面5aに露出する露出マーカーM5を有している。具体的には、受圧部4は、前述した第1実施形態に対して保護層54を省略している。そのため、弾性層5の外面5aに第3マーカーM3が露出しており、この第3マーカーM3が露出マーカーM5を構成している。弾性層5の外面5aは、圧力を受ける受圧面である。そのため、弾性層5の外面5aに露出する露出マーカーM5を配置することで、受けた圧力に対するマーカーMの追従性が高まる。そのため、検出部6は、受けた圧力を精度よく検出することができる。
 露出マーカーM5は、弾性層5の外面5aから突出する部分を有しているのが好ましい。これにより、弾性層5に触れた物体が露出マーカーM5に引っかかり易くなる。そのため、特に、弾性層5の外面5aに沿う方向の力に対する弾性層5の変形応答性が向上する。また、この場合、露出マーカーM5のヤング率は、弾性層5の外面5aを構成する層、本実施形態では第3弾性層53のヤング率よりも大きいことが好ましい。すなわち、露出マーカーM5は、第3弾性層53よりも硬いことが好ましい。これにより、露出マーカーM5にさらに物体が引っかかり易くなり、上述した効果がより顕著なものとなる。
 なお、本実施形態では、露出マーカーM5が第3マーカーM3で構成されているが、露出マーカーM5の構成としては、特に限定されず、第3マーカーM3以外のマーカーで構成されていてもよい。
 このような第3実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。
 <第4実施形態>
 次に、本発明の第4実施形態に係るマニピュレーターについて説明する。
 図9は、本発明の第4実施形態に係るマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、末節部223の構成が異なること以外は、前述した第1実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第4実施形態のマニピュレーター1に関し、前述した第1実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図9では前述した実施形態と同様の構成について、同一符号を付している。
 図9に示すように、本実施形態のマニピュレーター1は、前述した第1実施形態の構成に対して、末節部223から可動部24が省略されている。そして、末節部223の全体が弾性層5で覆われている。また、弾性層5の末節部223を覆う部分の全域にわたってマーカーMが配置されている。すなわち、末節部223の腹側の部分およびその裏側の部分の両方にマーカーMが配置されている。
 このような第4実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。
 <第5実施形態>
 次に、本発明の第5実施形態に係るロボットについて説明する。
 図10は、本発明の第5実施形態に係るマニピュレーターを示す断面図である。図11は、図10に示すマニピュレーターの変形例を示す断面図である。
 本実施形態に係るマニピュレーター1は、検出部6の構成が異なること以外は、前述した第1実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第5実施形態のマニピュレーター1に関し、前述した第1実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図10および図11では前述した実施形態と同様の構成について、同一符号を付している。
 図10に示すように、本実施形態のマニピュレーター1は、末節部223に加えて、中節部222および基節部221にも検出部6および光源7が配置されている。また、中節部222および基節部221の腹部に位置する弾性層5にもマーカーMが配置されている。そのため、中節部222および基節部221での第1、第2、第3マーカーM1、M2、M3の変位についても検出部6で検出できる。このような構成によれば、指部22の長さ方向のほぼ全域で弾性層5が受けた圧力を検出することができるため、マニピュレーター1の駆動をより高精度に制御することができる。
 ここで、例えば、末節部223、中節部222および基節部221でのマーカーMの配設密度としては、特に限定されず、互いに等しくてもよいし、異なっていてもよい。ただし、末節部223でのマーカーMの配設密度が、中節部222および基節部221でのマーカーMの配設密度よりも高いことが好ましい。さらに、中節部222でのマーカーMの配設密度が基節部221でのマーカーMの配設密度よりも高いことが好ましい。すなわち、指部22の先端部におけるマーカーMの配設密度が、基端部におけるマーカーMの配設密度よりも高いことが好ましい。前述した第1実施形態で述べたように、末節部223での外力検出が最も効果的であるため、末節部223でのマーカーMの配設密度を高くすることで、より精度のよい外力検出が可能となる。そして、末節部223ほど重要ではない中節部222および基節部221については、マーカーMの配設密度を末節部223よりも低くすることで、当該部分における外力検出にかかる処理部62への負荷を低減することができる。そのため、検出部6は、指部22が受けた外力を精度よく検出することができると共に、検出速度(処理速度)の低下を抑制することができる。
 このような第5実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。
 ここで、本実施形態では、弾性層5が基節部221、中節部222および末節部223を跨いで形成されているが、これに限定されず、例えば、図11に示すように、末節部223、中節部222および基節部221にそれぞれ独立して配置されていてもよい。すなわち、弾性層5が、末節部223と中節部222との境界部および中節部222と基節部221との境界部を跨がないように配置されていてもよい。これにより、基節部221に対して中節部222が変位した際や中節部222に対して末節部223が変位した際に弾性層5が変形し、マーカーMが変位してしまうのを抑制することができる。すなわち、外部との接触によりうける外力以外の力に起因したマーカーMの変位を抑制することができ、弾性層5が受けた外力をより精度よく検出することができる。
 また、本実施形態では、指部22の裏側に位置する弾性層5にはマーカーMが配置されていないが、これに限定されず、当該部分にもマーカーMを配置し、その変位を検出部6で検出できるようになっていてもよい。また、本実施形態では、基部21に位置する弾性層5にはマーカーMが配置されていないが、これに限定されず、当該部分にもマーカーMを配置し、その変位を検出部6が検出できるようになっていてもよい。
 <第6実施形態>
 次に、本発明の第6実施形態に係るマニピュレーターについて説明する。
 図12は、本発明の第6実施形態に係るマニピュレーターの断面図である。図13は、図12に示すマニピュレーターの平面図である。
 本実施形態に係るマニピュレーター1は、受圧部4の構成が異なること以外は、前述した第1実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第6実施形態のマニピュレーター1に関し、前述した第1実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図12および図13では前述した実施形態と同様の構成について、同一符号を付している。
 図12に示すように、本実施形態のマニピュレーター1では、弾性層5が1層で構成されている。そして、弾性層5の表面にマーカーMが配置されている。また、図13に示すように、マーカーMは、複数設けられており、それぞれ線状をなしている。また、各マーカーMは、弾性(伸縮性)を有している。また、各マーカーMは、環状をなし、末節部223の腹側から見た平面視で、末節部223の中央部から同心的に配置されている。このように、各マーカーMを線状とすることで、マーカーMの変位をカメラ61で認識し易くなり、弾性層5に加わった外力を精度よく検知することができる。特に、本実施形態のようにマーカーMを環状とすることで、その効果がより顕著となる。このようなマーカーMは、例えば、弾性層5と同じ材料で構成することができる。
 このような第6実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。ただし、マーカーMの本数や配置は、特に限定されず、末節部223の形状や大きさによって適宜設定することができる。例えば、同心的に配置された複数の環状のマーカーMが、異なる位置に複数組配置されていてもよいし、同心的に配置された複数の環状のマーカーMと、これら環状のマーカーMの中心部から放射状に延びた複数の線状のマーカーMと、を有していてもよい。
 <第7実施形態>
 次に、本発明の第7実施形態に係るマニピュレーターについて説明する。
 図14は、本発明の第7実施形態に係るマニピュレーターを示す平面図である。図15は、図14に示すマニピュレーターの断面図である。
 本実施形態に係るマニピュレーター1は、受圧部4の構成が異なること以外は、前述した第6実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第7実施形態のロボットに関し、前述した第6実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図14および図15では、前述した実施形態と同様の構成について、同一符号を付している。
 図14に示すように、本実施形態の各マーカーMは、線状をなす線状部Maと、線状部Maに配置された複数の塊部Mb(広幅部)と、を有している。複数の塊部Mbは、線状部Maの延在方向に沿ってほぼ等間隔に離間して配置されている。また、塊部Mbは、線状部Maよりも幅(線状部Maの延在方向に直交する方向の長さ)が広くなっている。また、図15に示すように、塊部Mbは、線状部Maよりも厚く、線状部Maから外側へ突出している。また、線状部Maは、比較的やわらかく弾性(伸縮性)を有しているのに対して、塊部Mbは、線状部Maよりも硬く、弾性変形し難くなっている。すなわち、塊部Mbは、線状部Maよりも高いヤング率を有している。マーカーMをこのような構成とすることで、線状部Maが伸縮することで塊部Mbの変位が許容され、線状部Maと塊部Mbの変位に基づいて受けた圧力をより精度よく検知することができる。
 このようなマーカーMは、例えば、弾性層5の構成材料として挙げた材料で構成することができる。また、線状部Maと塊部Mbとを異なる材料で構成することで、線状部Maを柔らかく、塊部Mbを硬くすることができる。
 また、末節部223の腹側から見た平面視で、複数のマーカーMは、末節部223の外縁に沿って略U字状に配置されている。ただし、マーカーMの本数や配置は、特に限定されず、末節部223の形状や大きさによって適宜設定することができる。
 このような第7実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。
 <第8実施形態>
 次に、本発明の第8実施形態に係るマニピュレーターについて説明する。
 図16は、本発明の第8実施形態に係るマニピュレーターを示す断面図である。図17は、図16に示すマニピュレーターの平面図である。
 本実施形態に係るマニピュレーター1は、受圧部4の構成が異なること以外は、前述した第5実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第8実施形態のロボットに関し、前述した第5実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図16および図17では、前述した実施形態と同様の構成について、同一符号を付している。
 図16に示すように、本実施形態のマニピュレーター1では、弾性層5が1層で構成されている。そして、弾性層5の表面にマーカーMが配置されている。また、図17に示すように、マーカーMは、複数設けられており、それぞれ線状をなしている。また、各マーカーMは、弾性(伸縮性)を有している。
 また、複数のマーカーMには、末節部223に位置し、環状をなす環状マーカーM6や、環状マーカーM6を囲み、かつ、末節部223、中節部222および基節部221に亘って配置された略U字状の線状マーカーM7や、指部22の幅方向に延在する線状マーカーM8が、含まれている。そのため、複数のマーカーMは、人間の指紋のように配置されている。このように、延在方向や形状の異なる複数のマーカーM6、M7、M8を有することで、弾性層5に加わった外力を精度よく検知することができる。具体的には、例えば、マーカーM6、M7、M8のいずれかがほとんど変位しないような外力であっても、他のマーカーが十分に変位する。すなわち、どのような外力によっても、マーカーM6、M7、M8の少なくとも1つをより確実に変位させることができる。そのため、弾性層5に加わった外力を精度よく検知することができる。
 このような第8実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。ただし、マーカーMの本数や配置は、特に限定されず、例えば、マーカーM6、M7、M8の他にもマーカーが配置されていてもよい。
 <第9実施形態>
 次に、本発明の第9実施形態に係るマニピュレーターについて説明する。
 図18は、本発明の第9実施形態のマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、受圧部4および検出部6の構成が異なること以外は、前述した第1実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第9実施形態のマニピュレーターに関し、前述した第1実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図18では前述した実施形態と同様の構成について、同一符号を付している。
 図18に示すように、本実施形態のマニピュレーター1は、弾性層5は、筐体3の外周面に配置された光透過層5Aと、光透過層5Aの表面に積層された光反射層5Bと、を有している。光透過層5Aは、光透過性を有しており、特に、本実施形態では実質的に無色透明である。一方、光反射層5Bは、後述する光Lを反射する光反射性を有している。また、光透過層5Aは、外力を受けた際に光反射層5Bと共に変形し、光反射層5Bの内面5B’の形状変化を許容する機能を有している。
 検出部6は、光プローブ法によって弾性層5の変形を三次元的に検出する。光プローブ法を用いることで、弾性層5の変形を比較的簡単に、かつ、精度よく検出することができる。以下、検出部6について説明する。
 図18に示すように、検出部6は、光反射層5Bの内面5B’に向けて光Lを出射する光源631と、スポット状の光の一次元の位置を受光面上で検出することのできるフォトダイオードから構成される半導体位置検出素子632(PSD)と、を有する光学システム633を備えている。なお、光源631としては、特に限定されず、例えば、LD(レーザーダイオード)を用いることができる。
 光源631から出射された光Lは、レンズ系634によって細い光束に絞られ、光反射層5Bの内面5B’上に光スポットLSを形成する。この光スポットLSは、レンズ系635によって半導体位置検出素子632の表面に結像される。このような構成では、光学システム633と光スポットLSとの間の相対的変位量Zは、半導体位置検出素子632の表面上の像の移動量Cとして観察される。すなわち、移動量Cから相対的変位量Zを求めることができ、内面5B’の光スポットLSが形成されている部分の座標値を求めることができる。
 このような構成の検出部6によれば、例えば、自然状態における内面5B’の各部の座標値を基準座標値として記憶しておき、この基準座標値と、内面5B’の各部の座標値と、をリアルタイムに比較することで、内面5B’の変形を検出することができる。さらに、検出部6は、内面5B’の変形に基づいて、弾性層5の変形、すなわち弾性層5が受けた外力を検出することができる。
 なお、前述したように、検出部6では内面5B’の変形に基づいて弾性層5の変形を検出しているため、光反射層5Bは、薄い方が好ましい。例えば、光反射層5Bは、光透過層5Aの厚さよりも薄いことが好ましい。これにより、内面5B’を弾性層5の外面5aの近くに配置することができるため、内面5B’を外力に対してより正確にかつより大きく変形させることができる。そのため、検出部6の検出精度が向上する。このようなことから、本実施形態では、光反射層5BがマーカーMとして機能しているとも言える。
 以上のように、本実施形態では、弾性層5は、光反射性を有する光反射層5Bと、光反射層5Bの内側に位置し、光透過性を有する光透過層5Aと、を有している。このような構成によれば、光透過層5Aが、光反射層5Bの内面5B’の変形を許容し、かつ、光Lを透過することから、筐体3内からでも、光プローブ法によって、弾性層5の変形を検出することができる。
 このような第9実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。なお、検出部6は、1つの光学システム633を用いて内面5B’の各部の座標値を求めてもよいし、複数の光学システム633を用いて内面5B’の各部の座標値を求めてもよい。
 <第10実施形態>
 次に、本発明の第10実施形態に係るマニピュレーターについて説明する。
 図19は、本発明の第10実施形態のマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、受圧部4および検出部6の構成が異なること以外は、前述した第9実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第10実施形態のマニピュレーターに関し、前述した第9実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図19では前述した実施形態と同様の構成について、同一符号を付している。
 本実施形態の検出部6は、光プローブ法によって、弾性層5の変形を三次元的に検出する。以下、検出部6について説明する。
 図19に示すように、検出部6は、光反射層5Bの内面5B’に向けて光Lを出射する光源641(例えばLD)と、光Lを集光するレンズ系642と、光源641とレンズ系642との間に配置されたビームスプリッタ643と、ディテクタ644(フォトダイオード)と、レンズ系642を移動させるモーター645と、を有する光学システム646を備えている。
 光源641から出射された光Lは、レンズ系642によって集光され、光反射層5Bの内面5B’上に光スポットLSを形成する。そして、内面5B’で反射した光Lは、レンズ系642を通ってビームスプリッタ643で反射した後結像する。そして、当該結像点にはディテクタ644が配置されている。また、ディテクタ644に結像点が常に位置するように、モーター645によってレンズ系642を光軸方向に移動させる。この時のレンズ系642の移動量に基づいて、内面5B’の光スポットLSが形成されている部分の座標値を求めることができる。
 このような構成の検出部6によれば、例えば、自然状態における内面5B’の各部の座標値を基準座標値として記憶しておき、この基準座標値と、内面5B’の各部の座標値と、をリアルタイムに比較することで、内面5B’の変形を検出することができる。さらに、検出部6は、内面5B’の変形に基づいて、弾性層5の変形、すなわち弾性層5が受けた外力を検出することができる。
 このような第10実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。なお、検出部6は、1つの光学システム646を用いて内面5B’の各部の座標値を求めてもよいし、複数の光学システム646を用いて内面5B’の各部の座標値を求めてもよい。
 <第11実施形態>
 次に、本発明の第11実施形態に係るマニピュレーターについて説明する。
 図20は、本発明の第11実施形態のマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、受圧部4および検出部6の構成が異なること以外は、前述した第9実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第11実施形態のマニピュレーターに関し、前述した第9実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図20では前述した実施形態と同様の構成について、同一符号を付している。
 本実施形態の検出部6は、光プローブ法によって、弾性層5の変形を三次元的に検出する。以下、検出部6について説明する。
 図20に示すように、検出部6は、光反射層5Bの内面5B’に向けて光Lを出射する光源651(例えばLD)と、光Lを拡大平行光とするレンズ系652と、レンズ系652を通過した光Lを集光するレンズ系653と、レンズ系652、653の間に位置する偏光ビームスプリッタ654と、偏光ビームスプリッタ654とレンズ系653との間に位置するλ/4板655と、内面5B’で反射した光Lを分割する波面分割ミラー656と、波面分割ミラー656で分割された一方の光Lを受光する第1ディテクタ657(フォトダイオード)および他方の光Lを受光する第2ディテクタ658(フォトダイオード)と、を有する光学システム659を備えている。
 このような構成では、内面5B’がレンズ系653の焦点位置から変位すると、反射光束が変化し、第1、第2ディテクタ657、658の光量に差が生じる。そのため、この差に基づいて、内面5B’の光Lが照射されている部分の座標値を求めることができる。
 このような構成の検出部6によれば、例えば、自然状態における内面5B’の各部の座標値を基準座標値として記憶しておき、この基準座標値と、内面5B’の各部の座標値と、をリアルタイムに比較することで、内面5B’の変形を検出することができる。さらに、検出部6は、内面5B’の変形に基づいて、弾性層5の変形、すなわち弾性層5が受けた外力を検出することができる。
 このような第11実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。なお、検出部6は、1つの光学システム659を用いて内面5B’の各部の座標値を求めてもよいし、複数の光学システム659を用いて内面5B’の各部の座標値を求めてもよい。
 <第12実施形態>
 次に、本発明の第12実施形態に係るマニピュレーターについて説明する。
 図21は、本発明の第12実施形態のマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、受圧部4および検出部6の構成が異なること以外は、前述した第9実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第12実施形態のマニピュレーター1に関し、前述した第9実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図21では前述した実施形態と同様の構成について、同一符号を付している。
 本実施形態の検出部6は、断面計測法、特に光切断法によって、弾性層5の変形を三次元的に検出する。具体的には、スリット状の光Lを内面5B’に照射し、内面5B’に写った光Lの形状に基づいて、弾性層5の変形を検出する。このような断面計測法(光切断法)を用いることで、弾性層5の変形を比較的簡単に、かつ、精度よく検出することができる。
 図21に示すように、検出部6は、光反射層5Bの内面5B’に向けて光Lを出射する光源661と、光Lをスリット状にするスリット光形成部662と、光Lの光軸からずれた位置に設けられ、内面5B’に写ったスリット状の光Lを撮像する撮像素子664と、内面5B’と撮像素子664との間に位置するレンズ系665と、を有する光学システム666を備えている。
 このような構成では、撮像素子664によって取得された画像、すなわち内面5B’に写る光Lの形状に基づいて、内面5B’の光Lが写っている部分の断面形状を取得することができる。そのため、例えば、スリット状の光Lを内面5B’の全域に走査し、内面5B’の各部の断面形状を取得することで、内面5B’の形状を検出することができる。
 このような構成の検出部6によれば、例えば、自然状態における内面5B’の形状を基準形状として記憶しておき、この基準形状と内面5B’の形状とをリアルタイムに比較することで、内面5B’の変形を検出することができる。さらに、検出部6は、内面5B’の変形に基づいて、弾性層5の変形、すなわち弾性層5が受けた外力を検出することができる。
 このような第11実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。なお、検出部6は、1つの光学システム666を用いて内面5B’の全域の形状を検出してもよいし、複数の光学システム666を用いて内面5B’の全域の形状を検出してもよい。
 <第13実施形態>
 次に、本発明の第13実施形態に係るマニピュレーターについて説明する。
 図22は、本発明の第13実施形態のマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、受圧部4および検出部6の構成が異なること以外は、前述した第9実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第13実施形態のマニピュレーター1に関し、前述した第9実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図22では前述した実施形態と同様の構成について、同一符号を付している。
 本実施形態の検出部6は、等高線計測法、特に、モアレ縞を用いたモアレポトグラフィー法によって、弾性層5の変形を三次元的に検出する。具体的には、内面5B’のモアレ縞画像を取得し、このモアレ縞画像に基づいて、弾性層5の変形を検出する。このような等高線計測法を用いることで、弾性層5の変形を比較的簡単に、かつ、精度よく検出することができる。以下、検出部6について簡単に説明する。なお、本実施形態では、光源7が省略されている。
 図22に示すように、検出部6は、光Lを出射する光源671と、撮像素子672と、光源671および撮像素子672と内面5B’との間に設けられた格子673と、を有する光学システム674を備えている。
 このような構成では、格子673を通った光源671からの光Lと、格子673を通して撮像素子672で見える部分と、が交差する部分が撮像素子672により撮像される部分であり、この交点を連ねた面に実質的な等高面が作られ、撮像素子672で取得した画像には、前記等高面に応じたモアレ縞が映し出される。この画像をモアレ縞画像とすれば、当該モアレ縞画像に基づいて、内面5B’の形状を取得することができる。
 このような構成の検出部6によれば、例えば、自然状態における内面5B’の形状を基準形状として記憶しておき、この基準形状と、リアルタイムに求められた内面5B’の形状と、を比較することで、内面5B’の変形を検出することができる。さらに、検出部6は、内面5B’の変形に基づいて、弾性層5の変形、すなわち弾性層5が受けた外力を検出することができる。
 このような第13実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。なお、検出部6は、1つの光学システム674を用いて内面5B’の全域の形状を検出してもよいし、複数の光学システム674を用いて内面5B’の全域の形状を検出してもよい。
 <第14実施形態>
 次に、本発明の第14実施形態に係るマニピュレーターについて説明する。
 図23は、本発明の第14実施形態のマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、受圧部4および検出部6の構成が異なること以外は、前述した第9実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第14実施形態のマニピュレーター1に関し、前述した第9実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図23では前述した実施形態と同様の構成について、同一符号を付している。
 本実施形態の検出部6は、パターン投影法によって、弾性層5の変形を検出する。このようなパターン投影法を用いることで、弾性層5の変形を比較的簡単に、かつ、精度よく検出することができる。以下、検出部6について簡単に説明する。
 図23に示すように、検出部6は、光Lからなる基準パターンを内面5B’に投影する画像投影部681と、画像投影部681の光軸からずれた位置から内面5B’に投影された基準パターンを撮像する撮像素子682と、を有する光学システム683を備えている。このような構成では、撮像素子682で取得した画像に写る基準パターンの形状に基づいて、基準パターンが投影されている部分の内面5B’の形状を検出することができる。そのため、例えば、内面5B’の全域に基準パターンを投影することで、内面5B’の形状を検出することができる。なお、内面5B’に投影する基準パターンとしては、特に限定されず、例えば、平行な直線が離間して並ぶ格子状のパターンを用いることができる。
 このような構成の検出部6によれば、例えば、自然状態における内面5B’の形状を基準形状として記憶しておき、この基準形状と、リアルタイムに求められた内面5B’の形状と、を比較することで、内面5B’の変形を検出することができる。さらに、検出部6は、内面5B’の変形に基づいて、弾性層5の変形、すなわち弾性層5が受けた外力を検出することができる。
 このような第14実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。なお、検出部6は、1つの光学システム683を用いて内面5B’の全域の形状を検出してもよいし、複数の光学システム683を用いて内面5B’の全域の形状を検出してもよい。
 <第15実施形態>
 次に、本発明の第15実施形態に係るマニピュレーターについて説明する。
 図24は、本発明の第15実施形態のマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、受圧部4および検出部6の構成が異なること以外は、前述した第9実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第15実施形態のマニピュレーター1に関し、前述した第9実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図24では前述した実施形態と同様の構成について、同一符号を付している。
 本実施形態の検出部6は、位相シフト法によって、弾性層5の変形を検出する。このような位相シフト法を用いることで、弾性層5の変形を比較的簡単に、かつ、精度よく検出することができる。以下、検出部6について簡単に説明する。
 図24に示すように、検出部6は、基準パターンを内面5B’に投影する画像投影部691と、画像投影部691の光軸からずれた位置から内面5B’に投影された基準パターンを撮像する撮像素子692と、を有する光学システム693を備えている。
 このような構成では、例えば、基準パターンとして、輝度値の明暗で正弦波を表した縞パターンを内面5B’に投影し、内面5B’に投影された基準パターンを撮像素子692で撮像する。基準パターンは、π/2ずつずらして4回投影され、その都度、撮像素子692で撮像する。こうして得られた4つの画像から、基準パターンが投影されている部分の内面5B’の形状を検出することができる。なお、基準パターンや基準パターンのずらし方等は、特に限定されない。
 このような構成の検出部6によれば、例えば、自然状態における内面5B’の形状を基準形状として記憶しておき、この基準形状と、リアルタイムに求められた内面5B’の形状と、を比較することで、内面5B’の変形を検出することができる。さらに、検出部6は、内面5B’の変形に基づいて、弾性層5の変形、すなわち弾性層5が受けた外力を検出することができる。
 このような第15実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。なお、検出部6は、1つの光学システム693を用いて内面5B’の全域の形状を検出してもよいし、複数の光学システム693を用いて内面5B’の全域の形状を検出してもよい。
 なお、前述した第9実施形態から本実施形態まで、光学的な方法によって内面5B’の形状変化を検出し、これにより、弾性層5が受けた外力を検出する方法について説明したが、内面5B’の形状変化を検出する方法としては、第9実施形態から本実施形態に限定されない。すなわち、内面5B’の形状を検出することができれば、如何なる方法を用いてもよい。例えば、いわゆる「点計測式」の方法であれば、前述した第9、第10、第11実施形態で説明した光プローブ方式の他にも、超音波プローブを用いた超音波方式、磁気を利用した磁気方式等を用いることができる。また、いわゆる「面計測式」の方法であれば、シルエット法、光包絡線法、前述した第12実施形態で説明した光切断法等を含む断面計測方式、干渉縞法、ホログラフィ法、前述した第13実施形態のモアレポトグラフィー法等を含む等高線計測方式を用いることができる。
 <第16実施形態>
 次に、本発明の第16実施形態に係るマニピュレーターについて説明する。
 図25は、本発明の第16実施形態のマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、受圧部4および検出部6の構成が異なること以外は、前述した第1実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第16実施形態のマニピュレーター1に関し、前述した第1実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図25では前述した実施形態と同様の構成について、同一符号を付している。
 図25に示すように、本実施形態のマニピュレーター1では、弾性層5は、筐体3の外周面に配置された光透過層5Aと、光透過層5Aの表面に積層された画像表示層5Cと、を有している。光透過層5Aは、光透過性を有しており、特に、本実施形態では実質的に無色透明である。一方、画像表示層5Cは、光反射性を有しており、後述する画像投影部8からの光によって画像が表示される層である。光透過層5Aは、画像表示層5Cが外力を受けた際に画像表示層5Cと共に変形し、画像表示層5Cの内面5C’の形状変化を許容する機能を有している。
 また、本実施形態のマニピュレーター1は、筐体3内に配置された画像投影部8を有している。なお、画像投影部8としては、特に限定されないが、例えば、液晶型のプロジェクタ、光走査型のプロジェクタ等を有する構成とすることができる。
 そして、画像投影部8からの光によって画像表示層5Cの内面5C’に所定の画像が表示されるようになっている。特に、本実施形態では、画像投影部8によって画像表示層5Cの内面5C’に、マーカーMが表示される。すなわち、本実施形態のマニピュレーター1では、内面5C’にマーカーMを表示することで、弾性層5にマーカーMを配置している。これにより、マーカーMのパターンを目的に応じて変更することができ、マニピュレーター1は、優れた利便性を発揮することができる。
 このようなマーカーMは、内面5C’の変形に伴って変位するため、検出部6は、マーカーMの変位を検出することで、内面5C’の変形を検出することができる。さらに、検出部6は、内面5C’の変形に基づいて、弾性層5の変形、すなわち弾性層5が受けた外力を検出することができる。
 このような第16実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。
 <第17実施形態>
 次に、本発明の第17実施形態に係るマニピュレーターについて説明する。
 図26ないし図28は、それぞれ、本発明の第17実施形態のマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、受圧部4および検出部6の構成が異なること以外は、前述した第1実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第17実施形態のマニピュレーター1に関し、前述した第1実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図26ないし図28では前述した実施形態と同様の構成について、同一符号を付している。
 図26に示すように、本実施形態のマニピュレーター1では、第1マーカーM1は、第1弾性層51と第2弾性層52との間に配置された膜状をなしている。また、第2マーカーM2は、第2弾性層52と第3弾性層53との間に配置された膜状をなしている。また、第3マーカーM3は、第3弾性層53と保護層54との間に配置された膜状をなしている。これら第1、第2、第3マーカーM1、M2、M3は、それぞれ、弾性層5の変形に伴って変形する。
 また、第1マーカーM1、第2マーカーM2および第3マーカーM3は、それぞれ、特定の波長の光を反射し、それ以外の波長の光を透過する。また、第1マーカーM1、第2マーカーM2および第3マーカーM3は、それぞれ、反射する光の波長が異なっている。このような第1マーカーM1、第2マーカーM2および第3マーカーM3としては、例えば、ダイクロイックフィルター等の光学フィルターを用いることができる。
 また、本実施形態のマニピュレーター1は、前述した第9実施形態で用いられている検出部6を有している。また、図26ないし図28に示すように、検出部6は、第1マーカーM1の変形を検出する第1検出部6Aと、第2マーカーM2の変形を検出する第2検出部6Bと、第3マーカーM3の変形を検出する第3検出部6Cと、を有している。
 図26に示すように、第1検出部6Aでは、光源631から第1マーカーM1で反射される波長の光L1が出射される。一方、半導体位置検出素子632は、光L1を透過し、後述する光L2、L3の透過を阻止する図示しないバンドパスフィルターが配置されている。そのため、第1検出部6Aは、光L1を用いて、第1マーカーM1の変形を検出することができる。このような第1検出部6Aは、例えば、自然状態における第1マーカーM1の各部の座標値を基準座標値として記憶しておき、この基準座標値と、第1マーカーM1の各部の座標値と、をリアルタイムに比較することで、第1マーカーM1の変形を検出することができる。
 また、図27に示すように、第2検出部6Bでは、光源631から第2マーカーM2で反射される波長の光L2が出射される。なお、この光L2は、第1マーカーM1を透過する。一方、半導体位置検出素子632は、光L2を透過し、光L1、L3の透過を阻止する図示しないバンドパスフィルターが配置されている。そのため、第2検出部6Bは、光L2を用いて、第2マーカーM2の変形を検出することができる。このような第2検出部6Bは、例えば、自然状態における第2マーカーM2の各部の座標値を基準座標値として記憶しておき、この基準座標値と、第2マーカーM2の各部の座標値と、をリアルタイムに比較することで、第2マーカーM2の変形を検出することができる。
 また、図28に示すように、第3検出部6Cでは、光源631から第3マーカーM3で反射される波長の光L3が出射される。なお、この光L3は、第1マーカーM1および第2マーカーM2を透過する。一方、半導体位置検出素子632は、光L3を透過し、光L1、L2の透過を阻止する図示しないバンドパスフィルターが配置されている。そのため、第3検出部6Cは、光L3を用いて、第3マーカーM3の変形を検出することができる。このような第3検出部6Cは、例えば、自然状態における第3マーカーM3の各部の座標値を基準座標値として記憶しておき、この基準座標値と、第3マーカーM3の各部の座標値と、をリアルタイムに比較することで、第3マーカーM3の変形を検出することができる。
 このような構成の検出部6によれば、第1検出部6Aで検出された第1マーカーM1の変形、第2検出部6Bで検出された第2マーカーM2の変形および第3検出部6Cで検出された第3マーカーM3の変形に基づいて弾性層5の変形、すなわち弾性層5が受けた外力を検出することができる。
 このような第17実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。なお、本実施形態では、3つの検出部6A、6B、6Cを有しているが、これに限定されず、1つの検出部6を有する構成であってもよい。この場合には、例えば、光源631が光L1、L2、L3を周期的に切り替えて出射するように構成し、第1、第2、第3マーカーM1、M2、M3の変形を時分割で検出するようにすればよい。
 また、検出部6を、例えば、前述した第10実施形態から第15実施形態で説明したような構成としてもよい。
 <第18実施形態>
 次に、本発明の第18実施形態に係るマニピュレーターについて説明する。
 図29は、本発明の第18実施形態のマニピュレーターを示す断面図である。
 本実施形態に係るマニピュレーター1は、検出部6の構成が異なること以外は、前述した第1実施形態のマニピュレーター1と同様である。
 なお、以下の説明では、第18実施形態のマニピュレーター1に関し、前述した第1実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図29では前述した実施形態と同様の構成について、同一符号を付している。
 図29に示すように、本実施形態の検出部6は、1つのカメラ61によってマーカーMの変位を検出するようになっている。また、カメラ61としては、例えば、被写界深度(DOF)が浅く、かつ、フォーカス機能を有するもの用いるのが好ましい。被写界深度としては、特に限定されず、求められる検出精度によっても異なるが、マーカーMが変位した際にカメラ61のピントが維持できない程度に浅いことが好ましい。このような構成の検出部6によれば、マーカーMが変位することにより生じるピントのずれを利用してマーカーMの変位を検出することができる。
 例えば、検出部6は、自然状態の各マーカーMについて、ピントが合った状態でのカメラ61のレンズの状態(フォーカス用レンズの位置)を基準状態として記憶しておく。また、検出部6は、リアルタイムで、各マーカーについて、ピントが合った状態でのカメラ61のレンズの状態を検出する。検出部6は、リアルタイムで検出されたレンズの状態と基準状態とを比較することで、各マーカーMが自然状態に対してカメラ61の光軸方向にどれたけ変位したかを検出することができる。また、検出部6は、カメラ61が取得した画像から各マーカーMの光軸に直交する方向のずれを検出することができ、これら情報に基づいて各マーカーMの3次元的な変位を検出することができる。これにより、検出部6は、弾性層5の変形、すなわち弾性層5が受けた外力を検出することができる。
 このような第17実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。なお、本実施形態では、検出部6は、フォーカス機能を有するカメラ61を用いているが、これに限定されず、フォーカス機能を有していなくてもよい。この場合は、カメラ61自体をその光軸方向に移動させることで、マーカーMとのピントを合わせるように構成し、その際のカメラ61の移動距離に基づいて、マーカーMの光軸方向への変位を検出することができる。
 <第19実施形態>
 次に、本発明の第19実施形態に係るロボットについて説明する。
 図30は、本発明の第19実施形態のロボットを示す斜視図である。
 図30に示すように、ロボット100は、ヒューマノイド型のロボットであり、胴体110と、頭部120と、関節を有する2本の脚部130と、関節を有する2本の腕部140と、腕部140の先端部に接続されたマニピュレーター1と、各部の駆動を制御するロボット制御部150と、を有している。このようなロボット100は、脚部130を駆動させることで二足歩行が可能である。なお、本実施形態では、ロボット100は、介護用のロボットとして使用される。
 このようなロボット100の具体的な使用方法の一例を説明する。例えば、要介護者がベッドに横になっている状態で、ロボット100は、指部22の腹側を鉛直方向上側に向けた状態でマニピュレーター1をベッドと要介護者との間にすべり込ませてゆく。この際、受圧部4が受ける外力を検出部6で検出しつつ、可動部24が受ける外力を第1、第2感圧素子35、36によって検出することで、例えば、末節部223がシーツや要介護者の衣服に引っかかっていないか、末節部223が要介護者の体にぶつかっていないか等を判断することができる。また、特定の指部22に上記の現象が生じている場合、制御部23は、該当する指部22を動かして上記の現象を解消させる。このような制御を行うことで、ベッドと要介護者との間にマニピュレーター1をスムーズにすべり込ませることができる。
 また、ベッドと要介護者とに挟まれることで各指部22の腹部に外力が加わるが、この外力を前述したようにマーカーMの変位に基づいて検知することで、どの指部22にどの程度の外力がどの方向に加わっているかを検出することができる。そのため、制御部23は、例えば、大きな外力が加わっている指部22や小さな外力しか加わっていない指部22があれば、各指部22に均一で適度な外力が加わるように所定の指部22を動かし、各指部22に加わる外力のバランスをとることができる。すなわち、制御部23は、各指部22に加わる外力の差が小さくなるように指部22の姿勢を変化させる。このような制御によれば、要介護者への負担を効果的に低減することができる。
 次に、ロボット100は、腕部140を動かすことで要介護者をベッドから持ち上げて、例えば、ベッドの隣にあらかじめ用意しておいた車椅子等に座らせる。このように要介護者をベッドから持ち上げて車椅子に座らせる際も、制御部23は、各指部22に加わる外圧の差が小さくなるように必要に応じて所定の指部22を動かし、5本の指部22に加わる外力のバランスをとる。これにより、要介護者への負担を効果的に低減することができる。
 このようなロボット100は、マニピュレーター1を備えている。そのため、前述したマニピュレーター1の効果を発揮することができ、信頼性の高いロボット100となる。
 以上、ロボット100について説明した。ただし、ロボット100の構成としては、特に限定されず、例えば、腕部140の数は、1本であってもよいし、3本以上であってもよい。また、脚部130の数も特に限定されず、3本以上であってもよいが、特に、4本の脚部130を有して四足歩行する構成とするのが好ましい。これにより、脚部130の数を抑えつつ、ロボット100の安定した移動が可能となる。また、例えば、脚部130に代えて車輪(回転部材)を備え、車輪を回転させることで移動可能な構成となっていてもよい。また、ロボット100は、介護用のロボットに限定されず、例えば、駅、空港、商業施設等で利用者を案内する案内用のロボット、飲食店等で客まで飲食物を運ぶ運搬用のロボット、工場等で荷物を搬送する無人搬送車(AGV)等の搬送用のロボット、工場等で製造物を製造する産業用のロボット等であってもよい。
 <第20実施形態>
 次に、本発明の第20実施形態に係るロボットについて説明する。
 図31は、本発明の第20実施形態のロボットを示す断面図である。
 本実施形態に係るロボット100は、脚部130に受圧部4および検出部6が配置されていること以外は、前述した第19実施形態のロボット100と同様である。
 なお、以下の説明では、第20実施形態のロボット100に関し、前述した第19実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図31では前述した実施形態と同様の構成について、同一符号を付している。
 図31に示すように、脚部130は、地面に接地する足部131を有している。そして、この足部131に受圧部4および検出部6が設けられている。具体的には、足部131は、筐体132を有しており、筐体132の底面に、マーカーMを有する弾性層5が設けられている。なお、弾性層5の構成は、前述した第1実施形態と同様である。また、筐体132の内側には複数のカメラ61が設けられており、検出部6は、これらカメラ61の画像からマーカーMの変位を検出し、弾性層5に加わった外力を検出する。このように、足部131に弾性層5を設けることで、ロボット100が歩行した際に、地面から受ける力を検出することができる。そのため、地面の凹凸を検出できたり、ロボット100の体重移動を検出できたりする。よって、弾性層5が受けた力をロボット制御部150にフィードバックすることで、より精度の良い歩行を行うことができる。
 なお、本実施形態では、足部131に受圧部4および検出部6が配置されているが、これに限定されず、例えば、ロボット100の少なくとも一部に受圧部4および検出部6が配置されていればよい。例えば、受圧部4および検出部6は、さらに、胴体110、頭部120、腕部140の少なくとも1つに設けられていてもよい。また、受圧部4および検出部6は、足部131に設けられていなくてもよい。
 <第21実施形態>
 次に、本発明の第21実施形態に係るロボットについて説明する。
 図32は、本発明の第21実施形態のロボットを示す断面図である。図33は、図32に示すロボットの変形例を示す断面図である。
 本実施形態に係るロボット100は、脚部130の構成が異なること以外は、前述した第20実施形態のロボット100と同様である。
 なお、以下の説明では、第21実施形態のロボット100に関し、前述した第20実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図32および図33では前述した実施形態と同様の構成について、同一符号を付している。
 本実施形態では、図32に示すように、足部131は、弾性層5の下面に設けられたカバー部139を有している。カバー部139によって、弾性層5が地面と接触するのを防止することができ、弾性層5を保護することができる。
 また、カバー部139は、弾性層5と異なる硬さ(ヤング率)を有しており、本実施形態では、ロボット100の歩行によっては、実質的に変形しない程度に硬質となっている。カバー部139の構成材料としては、特に限定されず、例えば、各種樹脂材料、各種金属材料等を用いることができる。ただし、カバー部139の硬さとしては、特に限定されず、ロボット100の歩行によって変形する程度に軟質となっていてもよい。
 このような第21実施形態によっても、前述した第20実施形態と同様の効果を発揮することができる。なお、図33に示すように、カバー部139は、足部131の下面において複数に分割されていてもよい。また、カバー部139を複数に分割する場合、その分割数や形状についても特に限定されない。
 以上、本発明のマニピュレーターおよびロボットについて、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物が付加されていてもよい。また、各実施形態を適宜組み合わせてもよい。
 また、前述した実施形態では、マニピュレーターをロボットに接続しているが、マニピュレーターを接続する対象物してはロボットに限定されない。例えば、ロボットのように駆動しない単なるフレームのようなものであってもよい。
 本発明のマニピュレーターは、受圧面である第1面および前記第1面の反対側の第2面が規定される弾性層と、前記弾性層に配置され、前記弾性層の変形に伴って変位するマーカーと、を含む受圧部と、前記弾性層の前記第2面側に位置づけられ、前記マーカーの変位に基づいて前記弾性層に加わる外力を検出する検出部と、を備えることを特徴とする。このような構成によれば、弾性層が受けた外力に応じてマーカーが変位する。そのため、マーカーの変位を検出部が検出することで、弾性層が受けた外力を精度よく検知することができる。したがって、例えば、検出部が検出した外力に基づいて駆動を制御することで、スムーズな動作が可能なマニピュレーターとなる。したがって、本発明のマニピュレーターは、産業上の利用可能性を有している。なお、本発明のロボットについても同様である。
1      マニピュレーター
100    ロボット
110    胴体
120    頭部
130    脚部
131    足部
132    筐体
139    カバー部
140    腕部
150    ロボット制御部
21     基部
22     指部
221    基節部
222    中節部
223    末節部
23     制御部
24     可動部
3      筐体
33     第1付勢部材
34     第2付勢部材
35     第1感圧素子
36     第2感圧素子
4      受圧部
5      弾性層
5A     光透過層
5B     光反射層
5B’    内面
5C     画像表示層
5C’    内面
5a     外面
5b     内面
51     第1弾性層
52     第2弾性層
53     第3弾性層
54     保護層
6      検出部
6A     第1検出部
6B     第2検出部
6C     第3検出部
61     カメラ
62     処理部
62a    CPU
62b    メモリー
62c    記憶部
631    光源
632    半導体位置検出素子
633    光学システム
634    レンズ系
635    レンズ系
641    光源
642    レンズ系
643    ビームスプリッタ
644    ディテクタ
645    モーター
646    光学システム
651    光源
652    レンズ系
653    レンズ系
654    偏光ビームスプリッタ
655    λ/4板
656    波面分割ミラー
657    第1ディテクタ
658    第2ディテクタ
659    光学システム
661    光源
662    スリット光形成部
664    撮像素子
665    レンズ系
666    光学システム
671    光源
672    撮像素子
673    格子
674    光学システム
681    画像投影部
682    撮像素子
683    光学システム
691    画像投影部
692    撮像素子
693    光学システム
7      光源
71     発光部
8      画像投影部
A      矢印
B      矢印
C      移動量
L      光
L1     光
L2     光
L3     光
LS     光スポット
M      マーカー
M1     第1マーカー
M2     第2マーカー
M3     第3マーカー
M4     基準マーカー
M5     露出マーカー
M6     環状マーカー
M7     線状マーカー
M8     線状マーカー
Ma     線状部
Mb     塊部
S      内部空間
X      要介護者
Z      相対的変位量

Claims (14)

  1.  受圧面である第1面および前記第1面の反対側の第2面が規定される弾性層と、前記弾性層に配置され、前記弾性層の変形に伴って変位するマーカーと、を含む受圧部と、
     前記弾性層の前記第2面側に位置づけられ、前記マーカーの変位に基づいて前記弾性層に加わる外力を検出する検出部と、を備えることを特徴とするマニピュレーター。
  2.  前記マーカーは、前記弾性層の厚さ方向にずれて配置されている第1マーカーおよび第2マーカーを有する請求項1に記載のマニピュレーター。
  3.  前記弾性層は、前記第1マーカーを有する第1弾性層と、前記第1弾性層上に配置され、前記第2マーカーを有する第2弾性層と、を有する請求項2に記載のマニピュレーター。
  4.  前記第1マーカーおよび前記第2マーカーは、形状および色彩の少なくとも一方が互いに異なっている請求項2または3に記載のマニピュレーター。
  5.  前記マーカーは、前記第1面に露出する露出マーカーを有する請求項1ないし4のいずれか1項に記載のマニピュレーター。
  6.  前記受圧部は、前記弾性層の変形によって変位せず、前記検出部によって検出可能な基準マーカーを有する請求項1ないし5のいずれか1項に記載のマニピュレーター。
  7.  前記検出部は、前記マーカーを撮像する撮像部を有し、前記撮像部が撮像した前記マーカーの画像データに基づいて前記マーカーの変位を検出する請求項1ないし6のいずれか1項に記載のマニピュレーター。
  8.  前記検出部は、ステレオ写真法によって前記マーカーの変位を検出する請求項7に記載のマニピュレーター。
  9.  前記弾性層を前記第2面側から支持する支持部を備える請求項1ないし8のいずれか1項に記載のマニピュレーター。
  10.  前記支持部に対して変位可能な可動部と、
     前記可動部に加わる外力を検知する感圧素子と、を有している請求項9に記載のマニピュレーター。
  11.  基部と、
     前記基部に接続され、前記基部に対して変位可能な指部と、を有し、
     前記受圧部は、少なくとも前記指部の先端部に配置されている請求項1ないし10のいずれか1項に記載のマニピュレーター。
  12.  前記マーカーは、線状をなす線状部と、前記線状部に配置され、前記線状部よりも幅が広い塊部と、を有し、
     前記塊部は、前記線状部よりもヤング率が高い請求項1ないし11のいずれか1項に記載のマニピュレーター。
  13.  請求項1ないし12のいずれか1項に記載のマニピュレーターを有することを特徴とするロボット。
  14.  受圧面である第1面および前記第1面の反対側の第2面が規定される弾性層と、前記弾性層に配置され、前記弾性層の変形に伴って変位するマーカーと、を備える受圧部と、
     前記弾性層の前記第2面側に位置づけられ、前記マーカーの変位に基づいて前記弾性層に加わる外力を検出する検出部と、を備えることを特徴とするロボット。
PCT/JP2017/022932 2017-06-21 2017-06-21 マニピュレーターおよびロボット WO2018235214A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201780092439.3A CN110799313A (zh) 2017-06-21 2017-06-21 机械手和机器人
US16/625,657 US20200139543A1 (en) 2017-06-21 2017-06-21 Manipulator and robot
JP2018511295A JP6560443B2 (ja) 2017-06-21 2017-06-21 マニピュレーターおよびロボット
EP17914209.6A EP3643459A4 (en) 2017-06-21 2017-06-21 MANIPULATOR AND ROBOT
PCT/JP2017/022932 WO2018235214A1 (ja) 2017-06-21 2017-06-21 マニピュレーターおよびロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/022932 WO2018235214A1 (ja) 2017-06-21 2017-06-21 マニピュレーターおよびロボット

Publications (1)

Publication Number Publication Date
WO2018235214A1 true WO2018235214A1 (ja) 2018-12-27

Family

ID=64736936

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/022932 WO2018235214A1 (ja) 2017-06-21 2017-06-21 マニピュレーターおよびロボット

Country Status (5)

Country Link
US (1) US20200139543A1 (ja)
EP (1) EP3643459A4 (ja)
JP (1) JP6560443B2 (ja)
CN (1) CN110799313A (ja)
WO (1) WO2018235214A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3693139A1 (en) * 2019-02-11 2020-08-12 Université d'Aix-Marseille Optical tactile sensor
WO2021001992A1 (ja) * 2019-07-04 2021-01-07 国立大学法人東北大学 触覚センサ、触覚センサシステム及びプログラム
WO2021014225A1 (en) * 2019-07-24 2021-01-28 Abb Schweiz Ag Illuminated surface as light source for in-hand object location system
WO2021070968A1 (en) * 2019-10-10 2021-04-15 Mitsubishi Electric Corporation Elastomeric tactile sensor
WO2021070967A1 (en) * 2019-10-10 2021-04-15 Mitsubishi Electric Corporation Tactile sensor
CN113874178A (zh) * 2019-06-06 2021-12-31 欧姆龙株式会社 触觉传感器、机械手以及机器人
CN114845845A (zh) * 2019-12-16 2022-08-02 国立大学法人东北大学 把持装置、控制方法和程序
JP2022552630A (ja) * 2019-10-25 2022-12-19 デクステリティ・インコーポレーテッド 非常に薄い物体または特徴部のロボット把持の検出
EP3981561A4 (en) * 2019-06-06 2023-01-11 OMRON Corporation TOUCH SENSOR, ROBOT HAND AND ROBOT
WO2023100515A1 (ja) * 2021-12-02 2023-06-08 ソニーグループ株式会社 触覚センサ装置、接触センサモジュールおよびロボットアーム装置
US11772262B2 (en) 2019-10-25 2023-10-03 Dexterity, Inc. Detecting slippage from robotic grasp
WO2024117139A1 (ja) * 2022-11-28 2024-06-06 Tacle株式会社 光学式触覚センサ、ロボットハンド、ロボットアーム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210216808A1 (en) * 2018-06-05 2021-07-15 Sony Corporation Information processing apparatus, information processing system, program, and information processing method
US11148295B2 (en) * 2018-06-17 2021-10-19 Robotics Materials, Inc. Systems, devices, components, and methods for a compact robotic gripper with palm-mounted sensing, grasping, and computing devices and components
CN111152247B (zh) * 2020-01-22 2021-09-07 北京海益同展信息科技有限公司 机械手
CN113391696B (zh) * 2020-03-11 2024-03-22 氪见(南京)科技有限公司 体感触觉装置
GB2616507B (en) * 2020-10-27 2024-06-26 Wootzano Ltd System and Method for Sorting and/or Packing Items
GB2616510B (en) * 2020-10-27 2024-06-26 Wootzano Ltd System and method for sorting and/or packing items
GB2600420B (en) * 2020-10-27 2023-03-01 Wootzano Ltd System and method for sorting and/or packing items
GB2616508B (en) * 2020-10-27 2024-06-26 Wootzano Ltd System and method for sorting and/or packing items
GB2616509B (en) * 2020-10-27 2024-06-26 Wootzano Ltd System and method for sorting and/or packing items
GB2605423B (en) * 2021-03-31 2023-09-27 Ocado Innovation Ltd Tactile Sensor

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4886563U (ja) * 1972-01-24 1973-10-19
JP2000288973A (ja) * 1999-04-05 2000-10-17 Agency Of Ind Science & Technol 触覚センサ
WO2002018893A1 (fr) * 2000-08-31 2002-03-07 Center For Advanced Science And Technology Incubation, Ltd. Détecteur tactile optique
JP2005088096A (ja) * 2003-09-12 2005-04-07 Honda Motor Co Ltd ロボットハンド
JP2005114715A (ja) * 2003-09-16 2005-04-28 Toudai Tlo Ltd 光学式触覚センサを用いた力ベクトル再構成法
JP2005257343A (ja) * 2004-03-09 2005-09-22 Nagoya Industrial Science Research Inst 光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド
JP2006003137A (ja) * 2004-06-16 2006-01-05 Toudai Tlo Ltd 光学式触覚センサ及び該センサにおける情報取得方法
JP2007147443A (ja) * 2005-11-28 2007-06-14 Nitta Ind Corp 光学式触覚センサ
JP2007518966A (ja) * 2003-09-16 2007-07-12 株式会社東京大学Tlo 光学式触覚センサ及び該センサを用いた力ベクトル分布再構成法
JP2008086542A (ja) 2006-10-02 2008-04-17 Matsushita Electric Ind Co Ltd 介護用ロボット装置
JP2009288033A (ja) * 2008-05-28 2009-12-10 Univ Of Tokyo 光学式触覚センサ
JP2010221358A (ja) * 2009-03-24 2010-10-07 Toyota Industries Corp ロボットハンド用撮像装置内蔵フィンガ
JP2013061223A (ja) * 2011-09-13 2013-04-04 Nagoya Univ 6軸力計測装置、及び6軸力計測方法
JP2017096782A (ja) * 2015-11-25 2017-06-01 地方独立行政法人京都市産業技術研究所 触感検知システム及び触感検知体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005265434A (ja) * 2004-03-16 2005-09-29 Tama Tlo Kk 立体構造物および形状測定装置
KR20100027123A (ko) * 2007-05-30 2010-03-10 마틴 포인팅 디바이스 안내선들을 지닌 터치감응식 포인팅 디바이스
EP4321975A3 (en) * 2008-06-19 2024-06-05 Massachusetts Institute of Technology Tactile sensor using elastomeric imaging
JP2013103306A (ja) * 2011-11-15 2013-05-30 Seiko Epson Corp 把持方法
CN104816310A (zh) * 2014-02-04 2015-08-05 精工爱普生株式会社 机器人手、机器人、以及机器人手的制造方法
KR20160084031A (ko) * 2015-01-05 2016-07-13 한국기계연구원 유체형 촉각센서를 이용한 6축력 측정방법
CN106052914A (zh) * 2016-07-21 2016-10-26 清华大学 一种基于视觉的触觉测量传感器

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4886563U (ja) * 1972-01-24 1973-10-19
JP2000288973A (ja) * 1999-04-05 2000-10-17 Agency Of Ind Science & Technol 触覚センサ
WO2002018893A1 (fr) * 2000-08-31 2002-03-07 Center For Advanced Science And Technology Incubation, Ltd. Détecteur tactile optique
JP2005088096A (ja) * 2003-09-12 2005-04-07 Honda Motor Co Ltd ロボットハンド
JP2007518966A (ja) * 2003-09-16 2007-07-12 株式会社東京大学Tlo 光学式触覚センサ及び該センサを用いた力ベクトル分布再構成法
JP2005114715A (ja) * 2003-09-16 2005-04-28 Toudai Tlo Ltd 光学式触覚センサを用いた力ベクトル再構成法
JP2005257343A (ja) * 2004-03-09 2005-09-22 Nagoya Industrial Science Research Inst 光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド
JP2006003137A (ja) * 2004-06-16 2006-01-05 Toudai Tlo Ltd 光学式触覚センサ及び該センサにおける情報取得方法
JP2007147443A (ja) * 2005-11-28 2007-06-14 Nitta Ind Corp 光学式触覚センサ
JP2008086542A (ja) 2006-10-02 2008-04-17 Matsushita Electric Ind Co Ltd 介護用ロボット装置
JP2009288033A (ja) * 2008-05-28 2009-12-10 Univ Of Tokyo 光学式触覚センサ
JP2010221358A (ja) * 2009-03-24 2010-10-07 Toyota Industries Corp ロボットハンド用撮像装置内蔵フィンガ
JP2013061223A (ja) * 2011-09-13 2013-04-04 Nagoya Univ 6軸力計測装置、及び6軸力計測方法
JP2017096782A (ja) * 2015-11-25 2017-06-01 地方独立行政法人京都市産業技術研究所 触感検知システム及び触感検知体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3643459A4

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020165171A1 (en) * 2019-02-11 2020-08-20 Universite D'aix-Marseille Optical tactile sensor
EP3693139A1 (en) * 2019-02-11 2020-08-12 Université d'Aix-Marseille Optical tactile sensor
EP3981559A4 (en) * 2019-06-06 2023-01-11 OMRON Corporation TOUCH SENSOR, ROBOT HAND AND ROBOT
EP3981561A4 (en) * 2019-06-06 2023-01-11 OMRON Corporation TOUCH SENSOR, ROBOT HAND AND ROBOT
CN113874178A (zh) * 2019-06-06 2021-12-31 欧姆龙株式会社 触觉传感器、机械手以及机器人
US11836823B2 (en) 2019-07-04 2023-12-05 Fingervision Co., Ltd. Tactile sensor, tactile sensor system, and program
WO2021001992A1 (ja) * 2019-07-04 2021-01-07 国立大学法人東北大学 触覚センサ、触覚センサシステム及びプログラム
WO2021014225A1 (en) * 2019-07-24 2021-01-28 Abb Schweiz Ag Illuminated surface as light source for in-hand object location system
JP2022543711A (ja) * 2019-10-10 2022-10-13 三菱電機株式会社 エラストマー触覚センサ
JP2022546642A (ja) * 2019-10-10 2022-11-04 三菱電機株式会社 触覚センサ
WO2021070967A1 (en) * 2019-10-10 2021-04-15 Mitsubishi Electric Corporation Tactile sensor
WO2021070968A1 (en) * 2019-10-10 2021-04-15 Mitsubishi Electric Corporation Elastomeric tactile sensor
JP7278493B2 (ja) 2019-10-10 2023-05-19 三菱電機株式会社 触覚センサ
JP7278491B2 (ja) 2019-10-10 2023-05-19 三菱電機株式会社 エラストマー触覚センサ
JP2022552630A (ja) * 2019-10-25 2022-12-19 デクステリティ・インコーポレーテッド 非常に薄い物体または特徴部のロボット把持の検出
US11772262B2 (en) 2019-10-25 2023-10-03 Dexterity, Inc. Detecting slippage from robotic grasp
US11969880B2 (en) 2019-10-25 2024-04-30 Dexterity, Inc. Detecting robot grasp of very thin object or feature
JP7476305B2 (ja) 2019-10-25 2024-04-30 デクステリティ・インコーポレーテッド 非常に薄い物体または特徴部のロボット把持の検出
EP4079469A4 (en) * 2019-12-16 2023-09-13 FingerVision Co., Ltd. GRIPPER DEVICE, CONTROL METHOD AND PROGRAM
CN114845845A (zh) * 2019-12-16 2022-08-02 国立大学法人东北大学 把持装置、控制方法和程序
WO2023100515A1 (ja) * 2021-12-02 2023-06-08 ソニーグループ株式会社 触覚センサ装置、接触センサモジュールおよびロボットアーム装置
WO2024117139A1 (ja) * 2022-11-28 2024-06-06 Tacle株式会社 光学式触覚センサ、ロボットハンド、ロボットアーム

Also Published As

Publication number Publication date
CN110799313A (zh) 2020-02-14
JP6560443B2 (ja) 2019-08-14
EP3643459A4 (en) 2020-12-16
JPWO2018235214A1 (ja) 2019-07-04
US20200139543A1 (en) 2020-05-07
EP3643459A1 (en) 2020-04-29

Similar Documents

Publication Publication Date Title
JP6560443B2 (ja) マニピュレーターおよびロボット
US11747901B1 (en) Fiducial rings in virtual reality
EP3438790B1 (en) Input device and image display system
US10324530B2 (en) Haptic devices that simulate rigidity of virtual objects
US10395111B2 (en) Gaze-tracking system and method
US11112868B1 (en) Haptic device for variable bending resistance
US9760123B2 (en) Speech generation device with a projected display and optical inputs
US9823764B2 (en) Pointer projection for natural user input
TW201521622A (zh) 用於鞋類之條件下可視的咬合線
JP7138294B2 (ja) マニピュレーターおよびロボット
US20190235236A1 (en) Gaze-tracking system and aperture device
CN112805660A (zh) 用于人与虚拟对象交互的系统和方法
WO2022025894A1 (en) Diffractive visual-tactile sensing in robotic grippers
KR101987610B1 (ko) 다-기능 감지 시스템
JP2009288033A (ja) 光学式触覚センサ
JP7209310B2 (ja) 入力装置および画像表示システム
JP2020027537A (ja) 入力装置および移動体
CA3023884C (en) A practical sensing system
WO2024117139A1 (ja) 光学式触覚センサ、ロボットハンド、ロボットアーム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018511295

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17914209

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017914209

Country of ref document: EP

Effective date: 20200121