WO2005085785A1 - 光学式触覚センサ、センシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置、ロボットハンド - Google Patents

光学式触覚センサ、センシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置、ロボットハンド Download PDF

Info

Publication number
WO2005085785A1
WO2005085785A1 PCT/JP2005/004259 JP2005004259W WO2005085785A1 WO 2005085785 A1 WO2005085785 A1 WO 2005085785A1 JP 2005004259 W JP2005004259 W JP 2005004259W WO 2005085785 A1 WO2005085785 A1 WO 2005085785A1
Authority
WO
WIPO (PCT)
Prior art keywords
self
size
optical
force
sensor
Prior art date
Application number
PCT/JP2005/004259
Other languages
English (en)
French (fr)
Inventor
Goro Obinata
Kiyoshi Oka
Hiroki Miura
Nobuhiko Moriyama
Original Assignee
Nagoya Industrial Science Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya Industrial Science Research Institute filed Critical Nagoya Industrial Science Research Institute
Priority to US10/592,243 priority Critical patent/US7707001B2/en
Publication of WO2005085785A1 publication Critical patent/WO2005085785A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L5/00Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
    • G01L5/22Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for measuring the force applied to control members, e.g. control members of vehicles, triggers
    • G01L5/226Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for measuring the force applied to control members, e.g. control members of vehicles, triggers to manipulators, e.g. the force due to gripping
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N19/00Investigating materials by mechanical methods
    • G01N19/02Measuring coefficient of friction between materials

Definitions

  • Optical ⁇ insect sensor sensing method, sensing system, object operation force control method, object operation control P device, object material force control device, robot hand
  • the present invention relates to an optical sensor, a sensing method using an optical tactile sensor,
  • a conventional sensor using this principle a plurality of strain gauges are arranged inside a curved elastic attachment, and the pressure distribution or strain distribution inside the elastic body is measured from the output of each strain gauge,
  • a Nada insect sensor that measures the state of sticking and sticking in the invertebrate area
  • an optical insect sensor of a type in which deformation of a transparent elastic body is captured by an imaging means such as a CCD camera.
  • an imaging means such as a CCD camera.
  • three-dimensional force vectors generated near the deworming area are obtained by burying spherical marker parts inside a transparent elastic body separated from each other and measuring the displacement of each marker part with a CCD camera.
  • Patent document 1 Japanese Patent Laid-Open No. 2000-254884
  • Patent Document 2 Japanese Patent Publication No. 2002-523568
  • Non-Patent Document 1 Hiromitsu, Maeno, "Stickness of the Human Finger Moon 15 at the Time of Object-f Material Torsion, Slip Distribution and Response to Tactile Receptor Vessels," Journal of Japan, March 2002, Vol. 68, No. 667, ed. 914 -919)
  • Non-Patent Document 2 Kamiyama, Kajimoto, Inami, Kawakami, Tachi, "Tactile Camera-Making an Optical 3D Tactile Sensor with Elasticity 1", Electricity ⁇ Transactions E, January 2003, 123 vol. , Issue 1 (p. 16-22) '
  • the bug sensor has a problem in durability because it performs sensing by deforming a strain gauge. Furthermore, it is necessary to arrange multiple strain gauges inside the elastic body. Therefore, there are problems such as the production procedure becoming difficult and wiring becoming difficult.
  • the optical insect sensor described above can detect the series number generated between the document and the tactile part because the surface of the transparent elastic body that is removed from the object (object) is flat. Have difficulty. Also, even if you try to change the face of your home, you can expect the production to be very difficult.
  • the tactile sensor force of the bandits has been proposed. However, a finger-type tactile sensor can measure only the withdrawn state, and cannot simultaneously measure multidimensional mechanical quantities including up to the number of spectacles.
  • Non-Patent Document 1 As a means for measuring multidimensional mechanical quantities, it has been proposed to use a combination of an observer's sensor and an optical 5 ⁇ insect sensor of different types (see Non-Patent Document 1). However, such a means requires two types of sensor force S, and it is difficult to achieve / h3 ⁇ 4.
  • the present invention has been made in view of the above, and an object of the present invention is to provide an optical sensor that can be easily manufactured and that can be easily downsized. Further, a further object of the present invention is to provide a sensing system, an object operation force control method, and an optical sensation sensor using an optical sensor capable of simultaneously measuring a plurality of mechanical quantities with a single type of sensor. It is to share the object force control device, the object f village Tomoe force control device and the robot hand. Disclosure of the invention
  • a first aspect of the present invention for solving the above-mentioned problem is that the flit is formed of an elastic body having a convex curved surface, a marker force is applied to the flit self-convex curved surface, a tactile portion placed by itself, and a ffJlS convex curved surface.
  • an optical quintuple sensor with an adhesive layer is provided with an image pickup means for moving the marker itself when the object is disliked.
  • the behavior of the viscoelastic body is imaged by the imaging means. Since it is captured as information, a large amount of information can be processed with a relatively small and simple structure. Therefore, multiple physical quantities (for example, 3 ⁇ 4 # spring force, simulated spring force, Mae system and torque, etc.) can be measured at the same time. / You don't have to. For this reason, it is easy to realize an optical sensor. In addition, it is not necessary to provide a marker part inside the light-transmitting elastic body or to arrange a plurality of strain gauges inside the elastic body, which facilitates the production of the optical insect sensor. .
  • the part that deforms most when throwing an object is a convex curved surface.
  • the amount of deformation decreases as the convex surface force moves toward the inside of the haptic part.
  • the marker section is more likely to be deformed than the marker section is arranged inside the tactile section. Therefore, the force acting on the tactile part can be accurately obtained by fidelity of the deformation of the marker part by the imaging means. That is, the detection accuracy is higher than in the case where the strain generated inside the optical elastic body is detected.
  • the “optical elastic body” is preferably formed of a silicone resin such as silicone rubber, but is preferably formed of another rubber or an elastomeric material such as an elastomer. You may.
  • the “3 ⁇ 4Si elastic body” may be transparent or translucent.
  • the “marker section” in the sensor is disposed only on the convex curved surface, not inside the optical elastic body. In other words, it is preferable that only one layer of the marker portion is arranged on the convex curved surface. This is because arranging the marker section inside, particularly arranging the marker section inside, makes it difficult to manufacture the optical insect sensor.
  • the marker section may be formed by attaching another material to the elastic body (for example, coating, shellfish occupation, printing, etc.), and attaching another material. May be formed on the elastic body itself, but the latter is particularly preferred.
  • the marker part is constructed by attaching another material to the elastic body, the marker part is formed when the object is removed on the convex curved surface. This is because the force S may fall off.
  • it is necessary to attach another adhesive to the photoelastic body, which may increase the manufacturing cost of the optical sensor.
  • the marker portion formed on the photoimageable elastic body itself includes a force s such as a groove, a ridge, a protrusion, or a dent. Further, the marker portion may be colorless or may be blank.
  • the “viewing means” it is preferable to use a camera that outputs image information as electric signals, and it is particularly preferable to use a digital camera.
  • the “digital camera” include a CCD camera and a digital camera using a C—M3 ⁇ 4S3 ⁇ 4? F image sensor.
  • the humility marker section preferably comprises a plurality of grooves or a plurality of ridges arranged in a grid. As described above, it is possible to easily reduce the deformation of the marker part due to the force acting on the tactile part in which the marker part includes a plurality of grooves or a plurality of ridges arranged in a lattice. Therefore, the force acting on the tactile part can be easily obtained by controlling the deformation of the marker part by the imaging means.
  • the disgusting tactile part is formed by removing the uncured elastic material from the molding surface and curing it, using a playfulness having a plurality of molding grooves or a plurality of molding ridges on the molding surface. Power to be done. This: ⁇ At the same time as the formation of the entire tactile part, a ridge is formed by the growth ridge 3 A groove is formed by the formed ridge. For this reason, the production of the tactile portion becomes easy despite the fact that it has a convex curved surface. In addition, the manufacturing cost can be reduced because the step of attaching another material to the optical elastic body can be omitted. ',
  • the second aspect of the present invention utilizes an optical insect sensor including a tactile portion made of a photo-elastic body and an imaging means for capturing the behavior of a place where an object glows in the disgusting tactile portion.
  • a method for sensing and synthesizing the physical quantity of the complex type wherein the image information from the imaging means is image-processed to obtain a size of a worm region generated between the object and the tiilE tactile part.
  • Shape and shape 3 ⁇ 4t ⁇ ⁇ ⁇ ⁇ to extract the information about the size of the fibrous area between the body and the ffit self-tactile part, which is generated in the ⁇ translation area, and extract the 3 ⁇ 4 fountain force from the size of the ⁇ ⁇ area.
  • the center of gravity of the self-worm region, and the ratio of the size of the selfish region to the size of the self-worm region A sensing method using an optical insect sensor is included, which includes a step for obtaining a Mae coefficient.
  • the image 'ft! * is information force s extraction on the size of the ® range. Then, based on the information, 3 ⁇ 4 # fountain power, fountain power, and number of hearings are calculated. That is, a plurality of types of mechanical quantities can be simultaneously measured by one or more sensors.
  • a third aspect of the present invention is to provide a tactile part made of a photo-elastic body and a tactile part! /
  • the optical insect sensor equipped with an imaging means that shows the behavior of the object where the object is fiberized, and the image ⁇ t # from the self-imaging means is processed to obtain the tfrfB object and the tfrt self It extracts the information on the size of the worm region between the tactile part and the center of gravity of the shape of the worm, and the information on the size of the tfif self object and the terrible tactile region in the humiliating worm region ⁇ Information extraction means for extracting information, tut Determines normal force from the size of the self-touching area, obtains fountain force from the shape of the Fujitani insect removal area and the center of gravity of the self-worm area, From the ratio of the size of the tiJlB solid region, which is the size of the invertebrate region, a sensing system using a glue bed that includes a mechanical quantity measuring means capable of obtaining
  • the third aspect of the present invention when the image information from the imaging means is input, the information on the size, shape, and center of gravity of the invertebrate area is extracted by the information extracting means, and Information about the size of the oil is released. And, by the physical quantity measurement means, On the basis of these information, ⁇ Izumi power, Onsen power, and Mae number are calculated. That is, the dynamics of multiple explosives can be measured simultaneously by the sensor of one view.
  • a marker part is arranged on the surface of the part where the worms are larvae in the larval part, and the tilt self-imaging means is arranged on the haptic part.
  • the behavior of the self-marker part when the book is wormed is reflected, and the disgusting 'tf' extraction means extracts the information on the deformation of the disgusting marker part by narrowing the image information from the reading fiber means.
  • the anxiety mechanics amount measuring means can obtain the torque from the information on the deformation of the taiB marker section.
  • the marker part is likely to be deformed, and the object touches the tactile part, which is the easiest to stand, and because it is located on the surface of the point, torque acts on the tactile part It deforms almost simultaneously.
  • the degree of deformation of the marker part is substantially the same as the degree of deformation of the tactile part. Therefore, not only can the sensors measure multiple mechanical quantities (3 ⁇ 41 spring force, tangential force, rnmo) on the same temple, but also the deformation of a part of the marker can be measured by imaging means. The torque can also be determined accurately.
  • a machine using an optical worm sensor having a tactile portion made of a viscoelastic body and imaging means for performing a behavior of a portion where an object is removed in the haptic portion.
  • This is an operation control method, in which the image t ⁇ from the lit self-imaging means is subjected to image processing, and the image t3 ⁇ 4 is dissatisfied. Extracting the information on the size of the solid region between the tin object and the tin tactile part generated in the disgusting insect region, and calculating the ⁇ 1 spring force from the size of the tins weave region.
  • the shape of the self-repellent region and the window The pseudo-focal force is calculated from the center of gravity of the self-repellent region, and the mah coefficient is calculated from the ratio of the size of the frt self-restricted region to the size of the tins repellent region.
  • the fourth aspect of the present invention when the image information from the fiber means is covered, information on the size, shape, and center of gravity of the insect region is released, and the size of the solid region is increased. Is extracted. Then, based on the information, 3 ⁇ 41 spring force, tangential force, and number of appearances are calculated. That is, a plurality of mechanical quantities can be simultaneously measured by the sensor. Then, an appropriate operating force to be given to the object can be given based on the measured mechanical quantity. Thus, a desired operation can be performed by applying an appropriate force to the object.
  • the “operating force” refers to a force that pushes, rotates, or grips an object in a state where the tactile part is in contact with the object.
  • the fifth aspect of the present invention relates to a sensor support book, an actuator for ⁇ of a knitting sensor support book, a tactile part made of a sexually elastic body, and a behavior of a part of the tiitstt sensation where an object is removed from an object. It is equipped with an optical observation sensor supported by the tilt self-sensor appreciation book, and an image of the image information from the disgusting self-imaging means. Extraction of information on the size, shape, and center of gravity of the resulting removal area, as well as extraction of 'lt' on the size of the fixed area between the wisteria object and the disgusting tactile part in the ttif self-infestation area Means and size of the terrible ginseng area?
  • the information extracting means extracts information on the size, shape, and center of gravity of the fiber region, and Information on the size of the solid area is extracted. Then, the ⁇ H force, pseudo-fountain force, and friction coefficient are obtained based on the information by the physical quantity measuring means. In other words, the dynamics of double explosion can be measured at the same time by the sensor of 1 tribute. Then, the operating force calculating means can calculate an appropriate operating force to be applied to the object based on the measured mechanical quantity. Thus, a desired operation can be performed by applying an appropriate force to the object.
  • the appropriate operation force to be applied to the object has changed in the middle: ⁇
  • the feedback operation performed by the actuator horse a3 ⁇ 4 control means can maintain the appropriate operation on the object.
  • the sixth eleventh aspect of the present invention includes a sensor support, an actuator for supporting the self-sensor support book, a tactile part made of a 1 elastic body, and a behavior of a part which is woven into an object in the insect leakage part.
  • An optical sensor supported by a fuzzy sensor support tree, and an image 'W' from the self-imaging means are processed to provide a tBt) body and a self-tactile sensor. Extract the size, shape, and center of gravity of the fiber region between the worms and the center of gravity.
  • Information extraction means for extracting information on the lift, the lift force is calculated from the size of the lift self-propelled region, and the spring force is calculated from the shape of the venomous region and the center of gravity of the triE control region.
  • ttrt Mechanics that can determine the Mae coefficient from the ratio of the size of the self-adhesive region to the size of the self-gleaming region Measuring means; gripping force calculating means for calculating an appropriate gripping force to be applied to the body based on the physical quantity of the complex obtained by the anaerobic mechanical quantity measuring means;
  • the humiliation sensor has a proper gripping force calculated according to the above.
  • the actuator has a so-called wholesaler that performs feedback control of the courage actuator so as to sleep the supporting tree, so-called wholesale means. Share control device.
  • the sixth j ⁇ of this effort when the image information from the imaging means is defined, information on the size, shape, and center of gravity of the insect removal area is extracted by the information extraction means. At the same time, information on the size of the fixed area is extracted. Then, based on the information, the mechanical quantity measuring means obtains the #spring force, the glowing spring force, and the bulk modulus. That is, a plurality of mechanical quantities can be simultaneously measured by one type of sensor. Then, the operating force calculating means can calculate an appropriate gripping force to be applied to the object based on the measured mechanical quantity. In this way, the object can be grasped so as not to be crushed, not to be slid, and not to slide down. Also, even if the appropriate gripping force to be applied to the object changes in the middle, the feedback control performed by the actuator and sleep control means grips the object so that the object is not crushed or slipped down. You can continue to do.
  • a seventh woven fabric of the present invention is a plurality of fingers, an actuator that tans the plurality of fingers, a tactile portion made of a light-transmitting elastic body, and a portion of the disgusting tactile portion that mimics an object.
  • TfilB is provided with an imaging means that behaves, and tfilB is an optical 53 ⁇ 4 insect sensor supported at the tip of at least one of a plurality of fingers; Information on the size and shape of the deworming area generated between the haptic part and the haptic part, and the fixed area between the tin object and the tiiff self haptic part in the tirf self-infesting area Information extraction means for extracting information about the size, ⁇
  • Gripping force calculating means for calculating an appropriate gripping force to be applied to the knitted object based on the dynamic quantity of the retrospective obtained by the determining means, and an appropriate gripping force calculated by the disgusting gripping force calculating means
  • a robot hand with a glue bed that includes an actuating device that controls the ftilB actuator in a feed-pack manner so as to touch a plurality of fingers $ f is shared. Therefore, the seventh! According to ⁇ , when the image information from the imaging means is imaged i M, the information extraction means extracts information about the size, shape and center of gravity of the insect area, and the size of the solid ⁇ R area Is extracted. The force, the tangential force, and the coefficient of friction are obtained by the physical quantity measuring means based on the information.
  • a plurality of mechanical quantities can be measured simultaneously by one sensor. Then, the operating force calculating means can calculate an appropriate gripping force to be applied to the object based on the measured physical quantity.
  • the object can be gripped by a plurality of fingers so that the object is not crushed or slipped down. Therefore, a humanoid dropper with a robot hand closer to the human hand can be played.
  • FIG. 1 is an overall S diagram showing an optical sensor according to the present invention.
  • FIG. 2 is an overall R view of the touchpad.
  • FIG. 3 is a block diagram showing a configuration of the sensing system.
  • Fig. 4 shows a grid with a touch pad that is not invading an object. It is a figure which shows the shape II of a turn.
  • FIG. 5 is a diagram showing a state of a grid pattern when the touch pad invades an object.
  • FIG. 6 is a diagram showing a state of a grid pattern of 3 ⁇ 4 ⁇ where no torque is acting on the touch pad.
  • FIG. 7 is a view showing a state of a dalid pattern when a torque acts on the touch pad.
  • FIG. 8 is a flowchart showing an outline of processing by the sensing system.
  • FIG. 9 is a block diagram showing the configuration of the mouth bot hand.
  • FIG. 10 is a flowchart showing an outline of processing by the robot hand. Best mode to make invention
  • the tip f of the cylindrical casing 10 constituting the optical insect sensor 11 has a hemispherical touch pad 12 2 ing.
  • a CCD camera 13 as an imaging means is placed.
  • the CCD camera 13 is arranged on the touch pad 12 on the side opposite to the side where the object W 1 (see FIG. 3) is connected.
  • the CCD camera 13 shows the behavior (displacement and distortion) of the grid pattern 19 when the object W 1 rubs on the touch pad 12 from the back side from the back side. Therefore,. # 0
  • the focus of the camera 13 is on the convex curved surface 15 of the touch pad 12 having the dalid pattern 19.
  • a ring-shaped illumination 14 for illuminating the grid pattern 19 is arranged in the casing 10.
  • the illumination 14 is constituted by a plurality of light emitting diodes, but may be constituted by an optical fiber or the like.
  • the touch pad 12, CCD camera 13 and illumination 14 are coaxially arranged.
  • the touch pad 12 has a convex curved surface 15 according to the tip rule, and a transparent elastic body 17 (optical elastic body) having a flat surface 16 on the base end side. ing.
  • the ⁇ rule of the transparent elastic body 17 is that the holding plate 18 (with holding down) which is relatively harder than the transparent elastic body 17 Aged with a clear adhesive.
  • the holding plate 18 is aged at one end of the casing 10.
  • a transparent acrylic plate is used as the holding plate 18.
  • a touch pad 12 is provided on the holding plate 18.
  • a Fujimi CCD camera 13 is arranged on the holding plate 18.
  • the transparent elastic body 17 is formed of transparent silicone rubber (YE5822 made of G silicone).
  • the height HI of the transparent living body 17 is set to 13 mm, and the curvature ⁇ of the convex curved surface 15 of the transparent elastic living body 17 is 2 O mm to 3 O mm (30 in this embodiment). mm).
  • the grid pattern 19 includes a plurality of grooves 20 arranged in a grid.
  • the grid pattern 19 is composed of a plurality of grooves 20 having a depth of 100 ⁇ arranged in a lattice with a pitch of 300 ⁇ . That is, the dalid pattern 19 is made of the same material as the transparent elastic body 17.
  • the depth of the groove 20 may be set to, for example, 50 ⁇ .
  • a material other than the transparent elastic body 17 is not particularly used, but another material may be used.
  • the touch pad 12 is formed by pouring uncured transparent silicone rubber (elastic material) into a recording material (not shown) having a substantially hemispherical molding surface, and a part of the transparent silicone rubber. Formed on the molding surface by allowing them to worm and cure. On the molding surface, a plurality of molding ridges having a height of 100 ⁇ m are arranged. Thus, as the touch pad 12 is formed, a plurality of grooves 20 are formed on the convex curved surface 15 of the transparent elastic body 17 in an eave-like shape. As shown in FIG. 3, the sensing system 21 including the optical insect sensor 11 includes a control unit 22 for controlling the entire sensing system 21.
  • the control unit 22 includes a CPU 23, and a ROM 23, a RAM 25, and an input / output port ( ⁇ ⁇ ⁇ port) 26 are connected to the CPU 23.
  • the CPU 23 irradiates each process for controlling the entire sensing system 21 and outputs the processing result as a predetermined control signal.
  • the ROM 24 stores a control program for controlling the sensing system 21 and the like. Various information necessary for the operation of the sensing system 21 is temporarily stored in the RAM 25.
  • the input / output port 26 has a ttif CCD camera 13 and a self-illumination 14 power. The image input from the CCD camera 13 is sent to the CPU 23 by performing Sf on the behavior of the Sukki grid pattern 19! "Shigarato is input via the input / output port 26.
  • the CPU 23 outputs a signal for turning on the light 14 to the light 14 via the input / output port 26.
  • the CPU 23 shown in FIG. 3 filters the image information from the CCD camera 13 input at regular intervals (every 33 ms in this embodiment) via the input / output port 26.
  • the grid pattern is recognized as a 19-force S grid-like ⁇ (see Fig. 4).
  • the image information acquired at regular intervals is recorded in the recording area of RAM 25, and is sequentially deleted from the oldest one.
  • commercially available screen management software TeVTech based: HALCON
  • the CPU 23 sets the size (attraction), shape, and the size of the insect removal area A 1 (see FIG. 5) generated between the object W 1 and the touch pad 12.
  • the CPU 23 includes the object W1 and the touching object generated in the love area A1. It extracts information (ie, Heng dingological information) on the size (storehouse) of the fixed area A 2 (see Fig. 5) with the pad 12. That is, the CPU 23 has a function as information extracting means.
  • the area A 2 is an area in which the touch pad 12 is set to the force S object #W 1 and the dalid pattern 19 does not move.
  • the area in which the grid pattern 19 moves S while the touch pad 12 is in contact with the object W1 is referred to as a sliding area A3 (see FIG. 5).
  • the grid pattern 19 is recognized as a difficult shape, and the infested area A1 is recognized. Looks brighter than the rest. Therefore, it is possible to measure the color of the insect region A1 based on the difference in the luminance of the image.
  • ⁇ illumination 14 that illuminates the grid pattern 19 one that emits white light in which the luminance difference between the nematode area A 1 and the ⁇ insect area is large is used. . This makes the A1 area clearer! Can be removed.
  • the image taken one step from the image »this time:? M (33 ms ago) is extracted, and the image is HE-enhanced to increase the contrast.
  • the grid pattern is displayed as a gliding pattern.
  • a grid-like bell is not displayed, and the image power is displayed like white noise.
  • the boundary between the two becomes clear, and the boundary between the solid ⁇ ! R region A2 and the slip region A3 can be obtained from the image.
  • the guest area ⁇ ⁇ 2 and the slip area A3 can be measured separately.
  • the CPU 23 shown in FIG. 3 calculates the distance between the object W1 and the transparent elastic body 17 from the ratio of the size of the solid region B 2 to the size of the solid region B 1 Measure the pseudocoefficient (slipperiness) of.
  • the CPU 23 reads out from the lirlHR OM 24 data indicating the relationship between the number of the maize and the ratio of the size of the adhesive region A2 to the size of the fiber region A1.
  • the CPU 23 calculates the ratio of the size of the fixed area A 2 to the measured size of the worm area A 1.
  • [Corresponding] 3 ⁇ 4 ⁇ Measure the modulus data by 1 meter. By this selection, the assigned coefficient near the weaving area A1 can be measured. Note that the higher the ratio of the size of the fixed area A 2 to the size of the insect removing area A 1 is, the smaller the sliding area A 3 becomes, so that the number of the mae becomes larger. It may be determined by other means.
  • the CPU 23 calculates the spring force from the size of the contact area A1.
  • spring force is a force that acts on the object W 1 in the lead direction when the object W 1 is pressed by the tiltSS bright elastic body 17 of the touching touch pad 12.
  • the CPU 23 reads, from the ROM 24, data indicating the relationship between the power of the lover area A 1 and the power of the spring 1. Then, the CPU 23 selects the data of the 3 ⁇ 4H force corresponding to the measured value of the fiber region A 1, so that the magnitude of the ⁇
  • 3 ⁇ 4The spring power may be determined by other methods. That is, the CPU 23 has a function as a physical quantity measuring means.
  • CPU 23 shown in FIG. 3 obtains a pseudoquan power from the shape of the 3 ⁇ 4 ⁇ region A1;
  • the tangential force is a force that acts on the object W1 in the horizontal direction when the object W1 is pressed by the transparent elastic body 17.
  • the CPU 23 reads out the ROM 24 data indicating the relationship between the tangential force and the shape and the center of gravity of the grubworm region A1.
  • the CPU 23 selects the data of the citrus force corresponding to the shape and the center of gravity of the measured worm region A 1, thereby obtaining the magnitude of the simulated spring force acting in the vicinity of the worm region A 1. And direction can be measured.
  • Miizumi Ka may be sought by other:
  • the CPU 23 extracts information on the deformation of the grid pattern 19 by processing the image information from the self CCD camera 13. Then, the CPU 23 obtains the torque from ⁇ f # relating to the deformation of the grid pattern 19. Specifically, for example, the CPU 23 changes the image (see FIG. 6) before the grid pattern 19 is deformed (before touching the object W1). Compare the image after shaping (after removing the object # W1) (see Fig. 7) and measure the lattice twist (angle ⁇ ). Next, the CPU 23 also reads out data indicating the relationship between the angle ⁇ and the torque in the ROM 24. Then, the CPU 23 can measure the magnitude and direction of the torque acting on the vicinity of the vermin area A1 by selecting the torque data corresponding to the measured angle ⁇ . The torque may be determined by other methods.
  • step S110 when the touch pad 12 comes into contact with the object # W1 in step S110, the CPU 23 moves the grid pattern 19 to cause the CCD camera 13 to input an image 'I The gorge is captured (step S120), and image processing is performed (step S130). Then, the CPU 23 measures the contact area A1 based on the brightness difference between the insect area A1 and the insect area displayed on the image, and determines the size, shape, and center of the fiber area A1. Information to be extracted (step S140). Next, the CPU 23 executes the image one step before (33 ms before) the image displayed this time. Further, the CPU 23 measures the fixed area A2 from the white noise-like image displayed by adding the image S1E so as to increase the contrast. Further, the CPU 23 extracts information on the size of the solid region A2 from the measurement result (step S150).
  • the CPU 23 calculates an aesthetic coefficient between the object W1 and the transparent elastic body 17 from the ratio force of the size of the solid ⁇ S area A2 to the size of the removal area A1 (""). Step S 160). Further, the CPU 23 obtains 3 ⁇ 4
  • the behavior of the transparent bow 10 is captured as an image by the CCD camera 13, so that a large amount of information 3 ⁇ 4r can be processed with a relatively small and simple it can. Therefore, several mechanical quantities (3 ⁇ 4
  • the convexity of the transparent elastic body 17 It can be arranged on the curved surface 15.
  • the pot-like components constituting the optical elastic sensor 17 are the transparent elastic body 17, the illumination 14 and the CCD camera 13 and are relatively few. Therefore, it is easy to manufacture the optical insect sensor 11.
  • the portion that is most likely to be deformed during the inversion of the object W 1 is the convex curved surface 15. Then, as the convex surface 15 moves toward the inside of the touch pad 12, the amount of deformation becomes smaller. For this reason, according to the present difficulty mode in which the dalid pattern 19 is placed on the convex curved surface 15 by the rooster 3, the dalid pattern 19 is disposed inside the touch pad 12 rather than the dalid pattern 1. 9, large deformation is likely to occur. Therefore, the force applied to the touch pad 12 can be accurately obtained by performing iif of the deformation of the grid pattern 19 using the CCD camera 13. That is, the distortion generated inside the transparent elastic body 17 is detected: the detection accuracy is higher than that in the case where the transparent elastic body 17 is removed.
  • the CPU 23 determines the shape, the shape, and the center of gravity of the worm region A 1. At the same time, information on the size of the fixed area A2 is extracted. Then, the CPU 23 calculates ⁇
  • the grid pattern 1 9 is easily caught on the surface of the force S object W 1 when the transparent elastic body 1 7 force S object W 1 is infested, so that the dalid pattern 1 9 on the convex curved surface 15
  • the coefficient of friction in the vicinity is large. Therefore, the grip of the touchpad 12 on the object W1 is improved.
  • the »rule of the transparent elastic body 17 is a flat surface (flat surface 16), and a pressing plate 18 is provided on that side. Therefore, the deformation of the transparent elastic body 17 is prevented, so that the measurement of the mechanical quantity by the optical insect sensor 11 can be performed more accurately. Further, the touch pad 12 can be stably provided by the pressing plate 18. In addition, since the touch pad 12 is stably formed, the photographing of the grid pattern 19 by the CCD camera 13 becomes easy.
  • the first form of the optical insect sensor 11 is a sensing system.
  • the optical sensor 11 of the present embodiment is used for a robot hand 31 (a material force controller P device, a material force holding device g).
  • the hand main body 32 constituting the robot hand 31 has a pair of fingers. 34, 35 (sensor support).
  • the hand main body 32 is provided with two fingers 34 and 35; At least two of 34 and 35 are provided! / May be, Italy [J is 5 like a human hand! /.
  • the hand main body 32 is provided with a first servomotor 36 (actuator), a second servomotor 37 (actuator), and a third servomotor 38 (actuator).
  • the fingers 34 and 35 move in the direction in which the first servo motor 36 opens and closes by the I-separation, ie, in the horizontal direction in FIG. S).
  • the fingers 34 and 35 are moved by the horsepower of the second servomotor 37 in a direction perpendicular to the direction in which the fingers 34 and 35 are opened and closed, and in a horizontal direction (that is, the front-back direction in FIG. 9). Further, the fingers 34 and 35 are moved in the lead it direction (that is, the vertical direction in FIG. 9) by the third servomotor 38.
  • one finger 35 supports a ttit self-optical insect sensor 11.
  • the other finger 34 is B-bound with the optical 53 ⁇ 4 insect sensor 1 IL and the outer shape, and is supported by the finger finger 39 force S.
  • Appendix 39 and the optical sensor: 11 are arranged so as to face each other.
  • An optical sensor 11 may be provided instead of the finger 39. That is, an optical sensor 1 may be provided on one of the fingers 34, 35 or one of the fingers 34, 35, or an optical sensor 11 may be provided on each of the fingers 34, 35. Good.
  • control unit 22 for controlling the entire robot hand 31 has a configuration of the first haze type, and sleeps each of the servomotors 36 to 38, and positions, speeds and forces of the respective 34, 35. It has a motor driver 41 for controlling the operation.
  • the motor driver 41 is controlled by the CPU 23.
  • the motor driver 41 supplies a current having a predetermined waveform to each of the servomotors 36 to 38 based on the horse sleep signal output from the CPU 23.
  • the CPU 23 shown in FIG. 9 determines the magnitude of the appropriate gripping force (operating force) to be given to the object W1 based on the spring force, the citric force, and the friction-related torque determined by the CPU 23. Calculate the direction. For example, if the 3
  • the CPU 23 instructs the first to third servo motors 36 to 38 to the motor controller 41 based on the calculated appropriate gripping force.
  • each finger 34, 35 holds object # W1 with an appropriate gripping force. That is, the CPU 23 performs feedback control of the gripping force. That is, the CPU 23 has a function as an actuator motor operation control means.
  • step S110 when the processing from step S110 to step S190 is completed and the normal force, the pseudo spring force, and the j3 ⁇ 4f system 3 ⁇ 43 ⁇ 4 ⁇ torque are measured, the CPU 23 proceeds to step S110.
  • the CPU 23 calculates an appropriate gripping force to be applied to the object W1 based on the obtained spring force, pseudo spring force, and friction-related torque. Then, the CPU 23 instructs the motor driver 41 to separate the horses of the first to third servomotors 36 to 38 with the calculated appropriate gripping force. 4, 35 Grasp the object W1 with a sharp gripping force.
  • CPU 23 which has completed the processing of step S 210, performs the processing of steps S 120 to S 210 again. This process is performed at regular intervals while the fingers 34 and 35 are gripping the object W1. That is, the CPU 23 feedback controls the gripping force.
  • the CPU 23 extracts information on the size, shape, and straightness of the fiber region A1 and information on the size of the fixed region A2. Then, based on the information, the CPU 23 calculates the ⁇ H power, the pseudo spring power, and the Maki 3 ⁇ 43 ⁇ 4 ⁇ torque. That is, a plurality of mechanical quantities can be measured simultaneously by one sensor. Then, an appropriate gripping force to be applied to the object ⁇ * ⁇ 1 can be calculated based on the measured mechanical quantity. Thus, the object W1 can be moved by the fingers 34, 35 so as not to be crushed, so that the object W1 can move smoothly.
  • the touch pad 12 of the optical sensor 11 has a semicircular shape, the object W1 can be gripped without being affected by the shape of the object W1. Therefore, a humanoid robot equipped with a near-robot hand 31 in human hands can be used.
  • the feedback control performed by the CPU 23 prevents the object W1 from crushing and slipping. You can continue to grasp. Since the camera and optical sensor 11 capture the behavior of the transparent elastic body 17 as image information by the CCD camera 13, a large amount of information can be processed relatively quickly. Therefore, even if the appropriate operation force S to be applied to the object # W1 changes abruptly, the object # W1 can be held so as not to be crushed or slipped without force.
  • the haze form of the present invention may be changed as follows.
  • the grid pattern 19 does not have a grid shape, but may have another shape such as a triangular mesh or a hexagonal mesh (honeycomb).
  • the grid pattern 19 may be covered with a cover layer made of a conductive material.
  • a plurality of grooves 20 are formed on the convex curved surface 15 of the elastic body 17.
  • a plurality of grooves 20 may be formed (for example, by cutting) after the formation of the touch pad 12 force S.
  • the illumination 14 emits white light, but may be other light such as blue light or red light.
  • the first to third servo motors 36 to 38 are used as actuators for the fingers 34 and 35, but the hydraulic cylinder, the empty Mffi cylinder, the ultrasonic motor You can use them as actuators.
  • the optical insect sensor of the present invention and the sensing system using the same, there is a possibility that two-way information of tactile information between a human and a robot can be easily obtained.
  • it can be applied to a robotic chinda machine that can make a robot learn a strange movement and feeling of a fingertip such as throwing a ball.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Force Measurement Appropriate To Specific Purposes (AREA)
  • Manipulator (AREA)
  • Geophysics And Detection Of Objects (AREA)

Description

光学 ^虫覚センサ、 センシング方法、 センシングシステム、 物体操作力制御方法、 物体 操作カ制 P装置、 物 ί材巴持力制御装置、 ロボットハンド
技術分野 本発明は、 光学 ¾¾覚センサ、 光学式触覚センサを利用したセンシング方法、 センシン 明
グシステム、 物 作力制御方法、 物 作力制御装置、 物{材巴持力制御装 ¾¾ぴロボッ 書
トハンドに関するものである。
背景技術 ヒユーマノィドロボットが人と するネ土会が現実味を帯びてきているものの、 それを 実現するための はまだ多く残されている。 ロボット自体の; »性能 ^^口能を向上させ ることち、 もちろん重要である。 し力し、 人とロボットとの間でのコミュニケーション技 術のレベルを向上させること力 人とロボットとが するための近道ではないかと考え られる。 そのコミュ-ケーション技術としては、 人の指示でタスクをこなすロボットの遠隔操縦 技術が中核的な位置を占めている。 ロボットの遠隔操縦において、 タスクをスムースに遂 ί 1 "るためのキー としては、 触覚センサを用レヽて触覚情報を検出することが挙げられ る。 例えば、 触覚センサによって文豫物 (物体) の重 »^摩窗系数を検出し、 検出した重 系数に基づいてロボットハンドの把持力を調整することが考えられている。 この 把持力調整により、 物体を、 潰さないように、 力 滑り落とさないように把持できるもの と期待されている。 触覚センサ力摩籣系数 (滑り) を検出するために、.人間の指先が滑りを検出する願と 同様の原理を用いることが考えられている(例えば、非特許文献 1参照) 当該文献には、 ロボットハンドの触覚部と物体との間に生じる擲虫領域から 「固纏域」 と 「滑り領域」 とをそれぞ;^由出することにより、 滑り ^さの状態 摩衞系数) を検出するという原理 力 \ 開示されている。
この原理を用いた従来型のセンサとしては、 曲面状弾附本の内部に複数個の歪ゲージを 配列して、 各歪ゲージの出力から弾性体内部の圧力分布または歪の分布を測定し、 翻虫領 域の滑り -固着状態を計測する灘 虫覚センサがある (例えば、 特許文献 1参照) 。 また、従来型のセンサとしては、 透明弾性体の変形を C C Dカメラなどの撮像手段で捉 えるタイプの光学 虫覚センサがある。 例えば、 ¾ ^離の透明弾性体の内部に球形状の マーカー部を複麵埋設し、各マーカー部の変位を C CDカメラで計測することによって、 撤虫領域付近に生じる 3次元の力べクトノ トルクを計測できるものがある (例えば、 特 許文献 2、 非特許文献 2参照) 。
特許文献 1 : 日本国特開 2000-254884号公報
特許文献 2: 曰本国麵 2002-523568号公報
非特許文献 1 :広光、 前野 「物 f材巴持時におけるヒト指月鼓 15の固着'滑り分布と触覚受 容器応答」 , 日 論文集, 2002年 3月, 68巻, 667号〇編 . 914 -919)
非特許文献 2:神山、 梶本、 稲見、 川上、 舘、 「触覚カメラ一弾性を持った光学式 3次 元触覚センサの作成一」 , 電気 ^^論文集 E編, 2003年 1月, 123卷, 1号 (p. 16-22) '
ところが、 虫覚センサは、 歪ゲージを変形させてセンシングを行うものであるた め、 耐久性に問題がある。 さらに、 複数の歪ゲージを弾性体内部に配列する必要があるた め、 製作手順が娜になったり、 配線が困難になったりするなどの問題がある。
一方、 上記光学 ϊ¾虫覚センサは、 透明弾性体の文橡物 (物体) への撤虫面が平面となる ため、 文豫物と触覚部との間に生じる纏系数の検出を行うことが困難である。 また、 仮 に歸己翻虫面を曲画こ変更しょうとしても、 製作が非常に困難になること力予想される。 このほかにも、 ί匪の触覚センサ力 S従射是案されている。しかし、指型の触覚センサでは、 撤状態^ しか測定できず、 摩観系数までを含めた多次元の力学量を同時に測定す ることができない。
また、 多次元の力学量を測定する手段として、 互いに形式の異なる観 虫覚センサと 光学 5¾虫覚センサとを組み合わせて用いることが、 従 是案されている (非特許文献 1参 照) 。 しかし、 このような手段では、 2種類のセンサ力 S必要となるため、 /h¾化を図るこ とは困難である。
本発明は上記の に鑑みてなされたものであり、 その目的は、 製作が容易であり、 小 型化も容易な光学 覚センサを することにある。 また、 本発明のさらなる目的は、 1種諷のセンサによつて複^ ¾の力学量を同時に測定することが可能な光学式 覚セン サを利用したセンシンダカ去、 センシングシステム、 物体操作力制御方法、 物体 作力制 御装置、 物 f村巴持力制御装 ¾¾びロボットハンドを ϋί共することにある。 発明の開示
上記 を解決するための本発明の第 1の態様は、 凸状曲面を有する 性弾性体か らなり、 flit己凸状曲面上にマーカー部力 ¾己置された触覚部と、 ffJlS凸状曲面に物体が嫌虫 した際の it己マーカー部の举動を # ^する撮像手段とを備えたことを糊敷とする光学 5¾虫 覚センサを 共する。
従って、 本発明の第 1の J様によると、 性弾性体の挙動を撮像手段によって画像 情報として捉えるため、大きな情報量を比較的小さく簡単な構造で処理することができる。 よって、 複 の力学量 (例えば、 ¾#泉力、 擬泉力、 摩衞系 びトルクなど) を同時 に測定する ¾ ^であっても、 形式の異なるネ复数 βのセンサを組み合わせて用!/ヽたりしな くて済む。 このため、 光学^ ¾覚センサの 化が容易になる。 また、 マーカー部を光透 過性弾性体の内部に設けたり、 複数個の歪ゲージを 性弾性体の内部に配列したりす る必要がなレ、ため、 光学 虫覚センサの製作が容易になる。
また、 物体との擲時に一番変形し付い部分は、 凸状曲面である。 そして、 凸状曲面 力ら触覚部の内側に行くに従って、 変形量は小さくなる。 このため、 マーカー部を凸状曲 面上に配置した本発明によれば、 マーカー部を触覚部の内部に配置した よりも、 マー カー部に大きな変形が生じやすい。 よって、 マーカー部の変形の鮮を撮像手段によって fi¾することで、 触覚部に作用する力を正確に求めることができる。 即ち、 光»性弾性 体の内部に生じる歪みを検出する 去に比べて、 検出精度が高くなる。
なお、 「光 性弾性体」 は、 シリコーンゴムなどのシリコーン樹脂から形成されるこ と力 S好ましレ、が、 他のゴム類やエラストマ一などの他の光懇性弾性体から形成されてレヽ てもよい。また、 「¾Si 性弾性体」は、透明であってもよいし、半透明であってもよい。 また、 前記センサにおける 「マーカー部」 は、 光¾1性弾性体の内部ではなく凸状曲面 上にのみ配置されることがよい。 換 m~ると、 マーカー部は、 凸状曲面上において 1層の み配置されることがよい。 マーカー部を内部に配置する 、 特にマーカー部を内部に複 配置する 、 光学 虫覚センサの製作が困難になるからである。 また、 マーカー部 は、 性弾性体に別の材料を付着 (例えば、 塗布、 貝占付、 印刷など) させることで構 成されるものであってもよレヽし、 別の材料を付着させることになる 性弾性体自身に 形成されるものであってもよいが、 特に後者の方が好ましい。 性弾性体に別の材料 を付着させることでマーカー部を構成すると、 凸状曲面に物体が撤虫した際にマーカー部 力 S脱落するおそれがあるためである。 また、 光 性弾性体に別の咅附を付着させる必要 があるため、 光学式^ センサの製造コストが上昇するおそれがあるためである。 なお、 光画性弾性体自身に形成されるマーカー部としては、 溝、 突条、 突起、 窪みなど力 s挙げ られる。 また、 マーカー部は、 無色であってもよいし、 賴されていてもよい。
「観象手段」 としては、 画像情報を電気信号として出力するカメラを用いること力 S好ま しく、 特にデジタルカメラを用いること力 S好ましい。 ここで、 「デジタノ カメラ」 とし ては、 C CDカメラや、 C— M〇S¾?fメージセンサを用いたデジタノレカメラなどが挙げ られる。
謙己マーカー部は、 格子状に配置された複数の溝または複数の突条からなること力 S好ま しい。 このように、 マーカー部が格子状に配置された複数の溝または複数の突条からなる 触覚部に力が作用してマーカー部が変形する »を容易に リすることができる。 よって、 マーカー部の変形の を撮像手段によって娜することで、 触覚部に作用する 力を容易に求めることができる。
嫌己触覚部は、 成形面に複数の成形溝または複数の成形突条を有する戯趣を用い、 そ の成形面に未硬化の弾性 ί材才料を撤¾させて硬化させることにより、 形成されること力 S好 ましレ、。 この:^、 触覚部全体の形成と同時に、 成开冓によって突条が开成さ 3 成形突 条によって溝が形成される。 このため、 凸状曲面であるにもカゝかわらず、 触覚部の製造が 容易になる。また、光 ¾ii性弾性体に別の材料を付着させる付着工程が省略できる分だけ、 製造コストも ί できる。 '、、
本発明の第 2の^^は、 光 ¾ίι!性弾性体からなる触覚部と、 嫌己触覚部において物体が 擲虫する箇所の挙動を攝する撮像手段とを備えた光学 虫覚センサを利用して、 複難 類の力学量をセンシンク、する方法であって、 前記撮像手段からの画像情報を画像処理する ことにより、 廳己物体と tiilE触覚部との間に生じる繊虫領域の大きさ、 形状及ひ: £心に関 する†t¾を抽出するとともに、 Ι 翻 領域内に生じる編 E¾)体と ffit己触覚部との固纖 域の大きさに関する情報を抽出するステップと、 ΙίΙΙΞ^ 領域の大きさから ¾泉力を求め るステップと、 tiff己翻虫領域の形状及び ¾[|己 虫領域の重心から接線力を求めるステップ と、 謙己翻虫領域の大きさに る謝己固 ^域の大きさの割合から摩衞系数を求めるス テップとを含むことを樹敫とする、光^ ¾虫覚センサを利用したセンシング方法を ί共す る。
従って、 本発明の第 2の態様によると、 撮像手段からの画像' ft!艮が画ィ 理されると、 撤虫領域の大きさ、形状及び重心に関する†静艮が抽出されるとともに、 固 *®域の大きさ に関する情報力 s抽出される。 そして、 それらの情報に基づいて ¾#泉力、 機泉力、 摩聽数 が求められる。 即ち、 1«のセンサによって複¾¾類の力学量を同時に測定することが できる。
本発明の第 3の は、 光 ¾1性弾性体からなる触覚部と、 ΙΐίΙΕ 覚部にお!/、て物体が 纖虫する箇所の挙動を»する撮像手段とを備えた光学 虫覚センサと、 編己撮像手段か らの画像†t#を画 »理することにより、 tfrfB物体と tfrt己触覚部との間に生じる繊虫領域 の大きさ、 形微ひ重心に関する情報を抽出するとともに、 謙己翻虫領域內に生じる tfif己 物体と嫌己触覚部との固纏域の大きさに関する情報を抽出する情報抽出手段と、 tut己接 触領域の大きさから法線力を求め、 藤己撤虫領域の形状及ひ 己繳虫領域の重心から擻泉 力を求め、 力 、 編己翻虫領域の大きさに る tiJlB固^域の大きさの割合から] «系 数を求めることが可能な力学量測定手段とを備えることを糊敷とするセンシングシステム を i f共する。
従って、 本発明の第 3の態様によると、 撮像手段からの画像情報力 されると、 情報抽出手段によって翻虫領域の大きさ、 形状及び重心に関する情報が抽出されるととも に、 固纖域の大きさに関する情報が油出される。 そして、 力学量測定手段によって、 そ れらの情報に基づいて ¾泉力、 嶽泉力、摩衞系数が求められる。 即ち、 1觀のセンサに よって複 ¥爆類の力学量を同時に測定することができる。
本発明の第 3の纖では、 翻虫覚部にお!/、て嫌 S¾体が擲虫する箇所の表面上にマー カー部を配置し、 tilt己撮像手段は、 ΙίίΙ己触覚部に編 本が纖虫した際の l己マーカー部 の挙動を ¾影し、 嫌己' tf¾抽出手段は、読纖手段からの画像情報を画ィ狭理すること により、嫌己マーカー部の変形に関する情報を抽出し、 嫌己力学量測定手段は、 taiBマー カー部の変形に関する情報からトルクを求めることが可能であること力 好ましい。 この ような構成であると、 マーカー部は、 一番変形しやすレ 立置である触覚部において物体が 翻虫する.箇所の表面上に配置されているため、 触覚部にトルクが作用するのと略同時に変 形する。 このため、 マーカー部の変形の度合いが触覚部の変形の度合いに略一 ¾- る。 よ つて、 のセンサによって複娄 の力学量 (¾1泉力、 接線力、 rnm o を同日寺に 測定することができるだけでなく、 マーカ一部の変形の »を撮像手段によつて する ことで、 トルクも正確に求めることができる。
本発明の第 4の! は、 性弾性体からなる触覚部と、 膽5触覚部において物体が 撤虫する箇所の挙動を する撮像手段とを備えた光学 5¾虫覚センサを利用した物 ί機作 力制御方法であって、 lit己撮像手段からの画像t¾を画像処理することにより、 嫌 5¾)体 と tfrts触覚部との間に生じる翻虫領域の大きさ、 形状及び重心に関する' (t¾を抽出すると ともに、 嫌己 虫領域内に生じる tin己物体と tin己触覚部との固 域の大きさに関する情 報を抽出するステップと、 tins織領域の大きさから ¾1泉力を求め、 觸己撤虫領域の形状 及ひ窗己撤虫領域の重心から擬泉カを求め、 かつ、 tins翻虫領域の大きさに る frt己固 域の大きさの割合から摩衞系数を求めるステップと、 ΙϋΙΕ力学量測定手段により求め られた複 ¾Μの力学量に基づレヽて、 歸己物体に与えるべき適切な操作力を算出するステ ップと、 tilt己複 ¾¾sの力学量を、算出された適切な操作力に近づけるような制御を行う ステップとを含むことを頓敫とする、 光学 虫覚ゼンサを利用した物 f«作力制御方法を する。
従って、 本発明の第 4の態様によると、 纖手段からの画像情報が画 ί繞理されると、 虫領域の大きさ、形 び重心に関する情報が油出されるとともに、 固^^域の大きさ に関する情報が抽出される。 そして、 それらの情報に基づいて ¾1泉力、 接線力、 摩観系数 が求められる。 即ち、 のセンサによって複¾«の力学量を同時に測定することが できる。 そして、 測定した力学量に基づいて物体に与えるべき適切な操作力を譲するこ とができる。 これにより、 物体に適切な力を加えて所望の操作を行うことができる。 「操 作力」 とは、 触覚部を物体に繳 させた状態で、 物体を押したり、 回転させたり、 把持し たりする力をいう。
本発明の第 5の ¾は、 センサ支榭本と、 編己センサ支術本を βするァクチユエータ と、 性弾性体からなる触覚部と、 tiitstt覚部において物体に撤虫する箇所の挙動を iffする観象手段とを備え、 tilt己センサ支謝本に支持された光学 虫覚センサと、 嫌己撮 像手段からの画像情報を画像 することにより、 ΙΐίΙΒ¾体と lift己触覚部との間に生じる 撤領域の大きさ、形状及び重心に関する情報を抽出するとともに、 ttif己翻虫領域内に生 じる藤己物体と嫌己触覚部との固 域の大きさに関する' lt¾を抽出する情報抽出手段と、 嫌己擲虫領域の大きさ力 ?封泉力を求め、 ffilB撤虫領域の形状及ひ ΙΤίίΙ己擲虫領域の重心か ら接線力を求め、 力り、 ttilE 虫領域の大きさに る備己固綱域の大きさの割合から 摩衞系数を求めることが可能な力学量測定手段と、 嫌己力学量測定手段により求められた 複#«の力学量に基づいて、 嫌 B )体に与えるべき適切な操作力を算出する操作力算出 手段と、 fflt己操作力算出手段により算出された適切な操作力で爾己センサ支持体を睡す るように編己ァクチユエータをフィードバック制御するァクチユエ一タ馬離制御手段とを 備えたことを樹敫とする物 作力制御装置を樹共する。 従って、 本発明の第 5の によると、 撮像爭段からの画像 '瞎が画 理されると、 情報抽出手段によって纖虫領域の大きさ、 形状及び重心に関する情報が抽出されるととも に、 固 域の大きさに関する情報が抽出される。 そして、 力学量測定手段によって、 そ れらの情報に基づいて ¾H力、擬泉力、 摩擻系数が求められる。 即ち、 1穩貢のセンサに よって複爆買の力学量を同時に測定することができる。 そして、 操作力算出手段は、 測 定した力学量に基づいて物体に与えるべき適切な操作力を算出することができる。 これに より、 物体に適切な力を加えて所望の操作を行うことができる。
また、 物体に与えるべき適切な操作力が途中で変化した: ^でも、 ァクチユエータ馬 a¾ 制御手段によつて行われるフィードバック制御により、 物体に ¾~ る適切な操作を維持す ることができる。
本発明の第 6の 11 は、 センサ支持体と、 應己センサ支衛本を恵瞻するァクチユエータ と、 ¾¾1性弾性体からなる触覚部と、 漏虫覚部において物体に織虫する箇所の挙動を ί驟する撮像手段とを備え、 膽己センサ支樹本に支持された光学 覚センサと、 編己撮 像手段からの画像' W¾を画像処理することにより、 tBt)体と編己触覚部との間に生じる 纖虫領域の大きさ、 形状及び重心に関する†静艮を抽出するとともに、 tljf己翻虫領域内に生 じる嫌 B J体と嫌己触覚部との固纏域の大きさに関する情報を抽出する情報抽出手段と、 lift己擲虫領域の大きさから ¾f泉力を求め、 膽己翻虫領域の形状及ひ triE翻虫領域の重心か ら擞泉力を求め、 力 、 ttrt己擲虫領域の大きさに财る編己固糊域の大きさの割合から 摩衞系数を求めることが可能な力学量測定手段と、 嫌己力学量測定手段により求められた 複^ ¾Sの力学量に基づいて、 前言 S¾)体に与えるべき適切な把持力を算出する把持力算出 手段と、 Ιίίϊ己把持力算出手段により算出された適切な把持力で謙己センサ支樹本を馬睡す るように膽己ァクチユエータをフィードバック制御するァクチュエータ驊謂卸手段とを 備えたことを糊敷とする物銜巴持力制御装置を 共する。 従って、本努明の第 6のj^こよると、 撮像手段からの画像情報が画ィ繞理されると、 情報抽出手段によって撤虫領域の大きさ、 形状及び重心に関する情報が抽出されるととも に、 固飾域の大きさに関する情報が抽出される。 そして、 力学量測定手段によって、 そ れらの情報に基づいて ¾#泉力、 擲泉力、纏系数が求められる。 即ち、 1種類のセンサに よって複 ιβιの力学量を同時に測定することができる。 そして、 操作力算出手段は、 測 定した力学量に基づレ、て物体に与えるべき適切な把持力を算出することができる。 これに より、 物体を、潰さないように、 力、つ滑り落とさないように把 ることができる。 また、 物体に与えるべき適切な把持力が途中で変化し fこ:^でも、 ァクチユエータ,睡 制御手段によって行われるフィードバック制御により、物体を、 潰さないように、 力つ滑 り落とさないように把持し続けることができる。
本発明の第 7の織は、 複数の指と、 tin己複数の指を馬纖するァクチユエータと、 光透 過性弾性体からなる触覚部と、 嫌己触覚部において物体に擬虫する箇所の挙動を する 撮像手段とを備え、 tfilB複数の指のうちの少なくとも 1つの指の先 に支持された光学 5¾虫覚センサと、 ffff己撮像手段からの画像情報を画像処理することにより、 膽 体と前 記触覚部との間に生じる撤虫領域の大きさ、 形 ひ重 、に関する情報を抽出するととも に、 tirf己翻虫領域内に生じる tin己物体と tiiff己触覚部との固 域の大きさに関する情報を 抽出する情報抽出手段と、 ΙΐΠΒ繊虫領域の大きさから ¾|泉力を求め、 編己織虫領域の形状 及ひ蕭己擲虫領域の重心から樹泉カを求め、 カゝつ、 tins翻虫領域の大きさに文什る tins固 糊域の大きさの割合から摩慰系数を求めることが可能な力学量測定手段と、 廳己力学量 ?則定手段により求められた複类 顧の力学量に基づいて、 編己物体に与えるべき適切な把 持力を算出する把持力算出手段と、 嫌己把持力算出手段により算出された適切な把持力で 編己複数の指を«するように ftilBァクチユエータをフィ一ドパック制御するァクチユエ 一タ馬睡制御手段とを備えたことを糊敷とするロボットハンドを $ f共する。 従って、本発明の第 7の!^によると、撮像手段からの画像情報が画 i Mされると、 情報抽出手段によって撫虫領域の大きさ、形状及ひ重心に関する情報が抽出されるととも に、 固^ R域の大きさに関する情報が抽出される。 そして、 力学量測定手段によって、 そ れらの情報に基づいて 力、接線力、摩衞系数が求められる。 即ち、 1糧のセンサに よって複 ^の力学量を同時に測定することができる。 そして、 操作力算出手段は、 測 定した力学量に基づ!/、て物体に与えるべき適切な把持力を算出することができる。 これに より、 複数の指によって、 物体を、 潰さないように、 力 滑り落とさないように把持する ことができる。 ゆえに、 より人間の手に近いロボットハンドを備えたヒユーマノィドロポ ットを^!することができる。
また、 物体に与えるべき適切な把持力力途中で変化した でも、 ァクチユエ一タ屋離 制御手段によって行われるフィードバック制御により、 物体を、 潰さないように、 力つ滑 り落とさないように把持し続けることができる。 図面の簡単な説明
第 1図は、本発明における光学 ¾¾覚センサを示す全体余 ¾S図である。
第 2図は、 タッチパッドの全体 R見図である。
第 3図は、 センシングシステムの構成を示すブロック図である。
第 4図は、 タツチパッドが物体に翻虫していない のグリッドハ。ターンの状 IIを示す 図である。
第 5図は、タッチパッドが物体に翻虫した際のグリッドパターンの状態を示す図である。 第 6図は、 タツチパッドにトルクが作用していなレ、 ¾ ^のグリッドパターンの状態を示 す図である。
第 7図は、 タツチパッドにトルクが作用した際のダリッドパターンの状態を示す図であ る。
第 8図は、 センシングシステムによる処理の概略を示すフローチヤ一トである。
第 9図は、 口ボットハンドの構成を示すプロック図である。
第 1 0図は、 ロボットハンドによる処理の概略を示すフローチヤ一トである。 発明を »するための最良の形態
(第 1の実施形態)
以下、本発明を多次元力学量センシングシステムに具体化しだ第 1の実施形態を、 第 1 図〜第 8図に基づき詳細に説明する。
第 1図, 第 2図に示されるように、 光学 虫覚センサ 1 1を構成する円筒状のケーシン グ 1 0の先 ¾f則には、 半球状をなすタツチパッド 1 2 覚部) 力 S設けられている。 ケー シング 1 0内には、 撮像手段としての C CDカメラ 1 3が酉己置さ bている。 C CDカメラ 1 3は、 タツチパッド 1 2において、 物体 W 1 (第 3図参照) と繊する側とは反対側に 配置されている。 C CDカメラ 1 3は、 タツチパッド 1 2に物体 W 1が纖虫した際のグリ ッドパターン 1 9の挙動 (変位や歪み) を背面側から »する。 従って、 。〇0カメラ1 3の焦点は、ダリッドパターン 1 9のあるタツチパッド 1 2の凸状曲面 1 5に合っている。 さらに、 ケーシング 1 0内には、 グリッドパターン 1 9を照らすリング状の照明 1 4が 配置されている。 本雄形態において、 照明 1 4は、 複数の発光ダイオードによって構成 されているが、 光ファイバなどによって構成されていてもよい。 タツチパッド 1 2、 C C Dカメラ 1 3及び照明 1 4は同軸上に配置されてレ、る。
第 1図に示されるように、 タツチパッド 1 2は、 先端則に凸^曲面 1 5を有し、 基端側 に平坦面 1 6を有する透明弾性体 1 7 (光 ¾性弾性体) 力 なっている。 透明弾性体 1 7の^^則には、 透明弾性体 1 7よりも相対的に硬質の押さえ板 1 8 (押さえき附) 力 S透 明な接着剤により齢されている。 押さえ板 1 8はケーシング 1 0の一端に齢されてい る。 本実施形態においては、 押さえ板 1 8として透明のアクリル板が用いられている。 押 さえ板 1 8におレ、て、 タツチパッド 1 2力 S齢される側の^ f側には、 藤己 C C Dカメラ 1 3が配置されている。本建形態において、透明弾性体 1 7は、透明シリコーンゴム (G シリコーン製: Y E 5 8 2 2 ) によって形成されている。 また、 透明単十生体 1 7の 高さ H Iは 1 3 mmに設定され、 透明弾†生体 1 7の凸状曲面 1 5の曲率 圣は 2 O mm〜 3 O mm (本^形態では 3 0 mm) に設定されている。
第 2図に示されるように、 タッチパッド 1 2にお!/、て物体 W 1 (第 3図参照) 力 S擲虫す る箇所の表面上、 即ち、 凸状曲面 1 5上には、 マーカー部としてのダリッドパターン 1 9 が配置されている。 ダリッドパターン 1 9は、 透明弾性体 1 7力 S物体V 1に撫虫したとき に、 変位^みを起こす。 具体的には、 グリッドパターン 1 9は、 格子状に配置された複 数の溝 2 0からなつている。 本実施形態において、 グリッドパターン 1 9は、 3 0 0 μ πι ピッチの格子状に配置された深さ 1 0 0 μ πιの複数の溝 2 0からなつている。 即ち、 ダリ ッドパターン 1 9は、 透明弾性体 1 7と同一の材料によって構成されている。 溝 2 0の深 さは、 例えば 5 0 μ πιに設定されていてもよい。 また、 本 形態においては、 グリッド パターン 1 9の形成にあたり、透明弾性体 1 7とは別の材料は特に用いていなレ、が、 別の 材料を用いてもよい。
このタツチパッド 1 2は、 略半球面状の成形面を有する録,製の成开趣 (図示略) に、 未硬化の透明シリコーンゴム (弾性材才料) を流し込み、 その透明シリ コーンゴムの一部 を成形面に 虫させて硬化させることにより、 形成されたものである。 成形面には、 高さ 1 0 0 ^ mの複数の成形突条カ^ ^状に配置されている。 これにより、 タツチパッド 1 2 が形成されるのに伴い、 透明弾性体 1 7の凸状曲面 1 5に、 軒状に配置された複数の溝 2 0力开成される。 第 3図に示されるように、 光学 虫覚センサ 11を備えるセンシングシステム 21は、 センシングシステム 21全体を制御する制御部 22を備えている。 制御部 2 2は CPU 2 3を備えており、 CPU 23には、 ROM24、 RAM 25及び入出力ポート (ΐΖθポ 一卜) 26が接続されている。 CPU23は、 センシングシステム 21全体を制御するた めの各 «理を紫亍し、その処 ¾結果を所定の制御信号として出力する。 ROM24には、 センシングシステム 21を制御するための制御プログラムなどが記憶されている。 RAM 25には、 センシングシステム 21の動作に必要な各種の情報が一時的に記憶される。 さ らに、入出力ポート 26には、 ttif己 CCDカメラ 13及ひ ίίί己照明 14力 S接総されている。 CPU23には、 肅己グリッドパターン 19の挙動を Sfすることで CCDカメラ 13か ら入力される画像!"静艮が、 入出力ポート 26を介して入力される。 それとともに、 CPU 23は、 照明 14を点灯させるための信号を、 入出力ポート 26を介して照明 14に対し て出力する。
第 3図に示される C PU 23は、入出力ポート 26を介して一定時間ごと (本^ ½形態 では 33msごと) に入力された CCDカメラ 13からの画像情報を画拠理する。 これ により、 グリッドパターン 19力 S格子状の赚として認識される (第 4図参照) 。 なお、 一定時間ごとに取得した画像情報は、 R AM25の記^^域にー錢間記像されるととも に、古いものから順次消去される。また、画 ί繞理ソフトウェアとしては、市販のもの(Μ VTe c據: HALCON) が用いられている。 そして、 タツチパッド 1 2が物 i^Wl に翻虫すると、 C P U 23は、 物体 W 1とタツチパッド 12との間に生じる撤虫領域 A 1 (第 5図参照) の大きさ (趣) 、形状及び重心に関する情報 (即ち、 謝叮学的情報) を 抽出する。 また、 C PU 23は、 戀領域 A 1内に生じる物体 W1とタツチハ。ッド 12と の固纏域 A 2 (第 5図参照) の大きさ (蔵) に関する情報 (即ち、 衡叮学的情報) を 抽出する。 即ち、 CPU23は、 情報抽出手段としての機能を有している。 ここで、 固着 領域 A 2とは、 タツチパッド 1 2力 S物 #W 1に した状態で、 ダリッドパターン 1 9が 動かない領域をいう。 また、 タツチパッド 1 2が物体 W1に接触した状態でグリ ッドパタ ーン 1 9力 S動く領域を、 滑り領域 A 3 (第 5図参照) という。
なお、 擲虫領域 A 1、 固 ¾H域 A 2及ぴ滑り領域 A 3を判定する 去は以下の漣りであ る。
タツチパッド 1 2が物体 W 1に翻虫した状態を C CDカメラ 1 3にて した面像 (第 5図参照) では、 グリッドパターン 1 9が 状の難として認識されるとともに、 翻虫 領域 A 1が他の部分よりも明るく見える。 よって、 画像の輝度の違レヽに基づレヽて擁虫領域 A 1の ®¾を計測することができる。 なお、 本実施形態において、 グリッドパターン 1 9 を照ら 1~|ίΐΕ照明 1 4としては、 徵虫領域 A 1と ^虫領域との輝度の差が大きくなる白 色光を発するものが用いられている。 これにより、 翻領域 A 1をより鮮明に! ¾¾リするこ とができる。
次に、今回 »された画像から 1ステツ: ?m ( 3 3 m s前)に驟された画像を?藤し、 コントラストを上げるように画像をネ HEする。 すると、 グリツドパターン 1 9力響力く滑り 領域 A 3力 S¾ ^状のネ難として表示される。 一方、 固細域 A 2では、 格子状の鐘が表 示されず、 ホワイトノイズ的な画像力表示される。 その結果、 両者の境界が明確になるの で、 画像より固 ^!R域 A 2と滑り領域 A 3との境界を求めることができる。 以上の βに より、 固 賓域 Α 2と滑り領域 A 3とを分離して計測することができる。
そして、 第 3図に示される C P U 2 3は、 擲虫領域 A 1の大きさに ¾~Τる固^ B域 A 2 の大きさの割合から、 物体 W1と透明弾性体 1 7との間の摩擬系数 (滑りやすさ) を測定 する。 具体的には、 例えば C P U 2 3は、 摩衞系数と、 纖虫領域 A 1の大きさに财る固 糊域 A 2の大きさの割合との関係を示すデータを lirlHR OM2 4から読み出す。そして、 C P U 2 3は、 計測された翻虫領域 A 1の大きさに る固 域 A 2の大きさの割合に 対応する] ¾ ^系数のデータを1ί尺する。 この選択によって、織領域 A 1付近の麾 ^系数 を測定することができる。 なお、撤虫領域 A 1の大きさに ¾ "る固 ¾ 域 A 2の大きさの 割合が高レ、程、 滑り領域 A 3が小さくなるため、 摩衞系数が大きくなる。 摩観系数は他の 方法によつて求められてもよレ、。
また、 C P U 2 3は、 接触領域 A 1の大きさから 泉力を求める。 ¾|泉力は、 觸己タッ チパッド 1 2の tiltSS明弾性体 1 7によつて物体 W 1を押圧したときに、 物体 W 1にタォし て鉛 ¾^向に作用する力である。 具体的には、 例えば C PU 2 3は、戀虫領域 A 1の ®¾ と ¾1泉力との関係を示すデータを ROM2 4から読み出す。 そして、 C P U 2 3は、 言十測 された纖虫領域 A 1の ®¾に対応する ¾H力のデータを選択することによって、翻 έ領域 A 1付近に作用する ¾|泉力の大きさ及び方向を測定することができる。 ¾泉力は他の方法 によって求められてもよい。 即ち、 C PU 2 3は、 力学量測定手段としての機能を有して いる。
さらに、 第 3図に示される C P U 2 3は、 ¾ ^領域 A 1の形; K¾ひ 心から擬泉カを求 める。 接線力は、 透明弾性体 1 7によつて物体 W 1を押圧したときに、 物体 W 1に対して 水平方向に作用する力である。 具体的には、 例えば C P U 2 3は、 接線力と、 擲虫領域 A 1の形状及び重心との関係を示すデータを ROM 2 4力 読み出す。 そして、 C P U 2 3 は、 計測された擲虫領域 A 1の形概び重心に対応する櫞泉力のデータを選択することに よって、 擺虫領域 A 1付近に作用する擬泉力の大きさ及び方向を測定することができる。 擬泉カは他の: によつて求められてもよレ、。
また、 C P U 2 3は、辦己 C CDカメラ 1 3からの画像情報を画ィ姚理することにより、 グリッドパターン 1 9の変形に関する情報を抽出する。 そして、 C P U 2 3は、 グリッド パターン 1 9の変形に関する†f#からトルクを求める。具体的には、例えば C P U 2 3は、 グリッドパターン 1 9が変形する前 (物体 W 1に接触する前) の画像 (第 6図参照) と変 形した後 (物 #W1に撤虫した後) の画像 (第 7図参照) とを比較し、 格子のねじれ (角 度 Θ) を計測する。 次に、 CPU 23は、 角度 Θとトルクとの関係を示すデータを ROM 24力も読み出す。 そして、 CPU 23は、 計測された角度 Θに対応するトルクのデータ を選択することによって、 翻虫領域 A 1付近に作用するトルクの大きさ及び方向を測定す ることができる。 トルクは他の方法によって求められてもよい。
次に、 センシングシステム 21による力学量 (¾#泉力、撤泉力、 系数及びトルク) の測定方法を説明する。
第 8図に示されるように、 ステップ S 110においてタツチパッド 12が物 #W1に接 触すると、 C P U 23は、 グリツドパターン 19の挙動を することで CCDカメラ 1 3力 入力される画像' I靜艮を取り込み (ステップ S 120) 、 画像処理を行う (ステップ S 130) 。 そして、 CPU 23は、 画像に表示された 虫領域 A 1と 虫領域との輝 度の違いに基づいて接触領域 A 1を測定し、纖虫領域 A1の大きさ、 形状及ひ¾心に関す る情報を抽出する (ステップ S 140) 。 次に、 CPU 23は、 今回 ί驟された画像から 1ステップ前 (33ms前) に された画像を する。 さらに CPU23は、 コント ラストを上げるように画像のネ S1Eを加えることで表示されるホワイトノイズ的な画像から 固^域 A 2を測定する。 さらに C P U 23は、 その測 ¾ ^果から固^域 A 2の大きさ に関する情報を抽出する (ステップ S 150) 。
そして、 C P U 23は、 撤領域 A 1の大きさに¾" "る固^ S域 A 2の大きさの割合力 ら、物体 W1と透明弾性体 17との間の摩観系数を算出する(ステップ S 160)。また、 C P U 23は、 纖虫領域 A 1の大きさから ¾|泉力を求め (ステップ S 170) 、 撤虫領敏 A 1の形概ひ重心から擬泉カを求める (ステップ S 180) 。 さらに、 CPU 23は、 ダリッドパターン 19の のねじれ (角度 トルクを求め (ステップ S 190) 、 こ こでの処理を終了する。 ステップ S 160〜ステップ S 190の処理の順番は変更されて よい。
従って、 本 形態によれば以下の効果を得ることができる。
'本¾&形態の光学式触覚センサ 1 1では、 透明弓 十生体 1 7の挙動を C C Dカメラ 1 3 によつて画像 として捉えるため、 大きな情報量 ¾r比較的小さく簡単なネ難で処理する ことができる。 よって、 複 の力学量 (¾|泉力、 接線力、 纖系 びトルク) を同 時に測定する:!^であっても、形式の異なる複娄 «gのセンサを組み合わせて用いたりし なくて済む。 このため、 光学 ¾»覚センサ 1 1
Figure imgf000020_0001
低コスト化が容易になる。 さら に、 光学 5¾虫覚センサ 1 1は、 従来のように歪ゲー を変形させたりして力学量を測定す る訳ではないため、 耐久†生の面でも問題はない。 まこ、 ダリッドパターン 1 9を、 透明弾 性体 1 7の内部に設けたり、 複数個の歪みゲージを遠明弾性体 1 7の内部に配列したりせ ずに、 透明弾性体 1 7の凸状曲面 1 5上に配置すれ 済む。 し力も、 光学 虫覚センサ 1 1を構成する鉢的な部品は、透明弾性体 1 7、照明 1 4及び C C Dカメラ 1 3であって、 比較的少ない。 よって、 光学 ϊ¾虫覚センサ 1 1の製 が容易になる。
また、 物体 W 1との翻虫時に一番変形しやすい部分は、 凸状曲面 1 5である。 そして、 凸状曲面 1 5力らタツチパッド 1 2の内側に行くに って、 その変形量は小さくなる。 こ のため、 ダリッドパターン 1 9を凸状曲面 1 5上に酉 3置した本難形態によれば、 ダリッ ドパターン 1 9をタツチパッド 1 2の内部に配置しこ よりも、 ダリッドパターン 1 9 に大きな変形が生じやすレ、。 よって、 グリッドパターン 1 9の変形の を C C Dカメラ 1 3によって iifすることで、 タツチパッド 1 2にィ1≡用する力を正確に求めることができ る。 即ち、 透明弾性体 1 7の内部に生じる歪みを検 する:^去に比べて、 検出精度が高く なる。
•本実施形態のセンシングシステム 2 1では、 C C Dカメラ 1 3からの画像情報が画像 処理されると、 C P U 2 3によって擲虫領域 A 1の欠きさ、 形状及ひ重心に関する が 抽出されるとともに、 固 域 A 2の大きさに関する情報が抽出される。 そして、 C PU 2 3によって、 それらの情報に基づいて ¾|泉力、 擬泉力、 摩衞系 びトルクが求められ る。 即ち、 1糧 Iのセンサによつて複数纏匿の力学量を同時に測定することができる。 •本実施形態では、 凸状曲面 1 5上に配置されるダリッドパターン 1 9力 状に配 置された複数の溝 2 0力 なっている。 つまり、 凸状曲面 1 5上には凹凸力 S形成される。 これにより、透明弾性体 1 7力 S物体 W 1に翻虫したときに、 グリツドパターン 1 9力 S物体 W 1の表面に引っ掛かりやすくなるため、 凸状曲面 1 5上のダリッドパターン 1 9付近の 摩擦係数が大き <なる。 従つて、 タッチパッド 1 2の物体 W 1に刘するグリップが向上す る。
'本 形態では、 透明弾性体 1 7の »ί則が平面 (平坦面 1 6 ) となっており、 その 側に押さえ板 1 8力 S齢されている。 よって、 透明弾性体 1 7の趣齬^?変形が防止 されるため、 光学 虫覚センサ 1 1による力学量の測定をより正確に行うことができる。 また、押さえ板 1 8により、タツチパッド 1 2を安定的に储することができる。しかも、 タツチパッド 1 2力 S安定的に體されることから、 C CDカメラ 1 3によるグリッドパタ ーン 1 9の撮影が容易になる。
(第 2の謹形態)
次に、 第 9図, 第 1 0図に基づき第 2の建形態を説明する。 なお、 第 1の霊形態と 共通している箇所については、 同一の番号を 1 "代わりに、 その詳細な説明を省略する。 嫌己第 1の 形態の光学 虫覚センサ 1 1は、 センシングシステム 2 1に用いられて いた。 しかし、 本実施形態の光学^ 覚センサ 1 1は、 ロボットハンド 3 1 (物 作力 制徒 P装置、 物材巴持力制御装 g) に用いられている。
第 9図に示されるように、 ロボットハンド 3 1を構成するハンド本体 3 2は、 一対の指 34, 35 (センサ支渐本) を備えている。本 形態では、 ハンド本体 32に 2本の指 34, 35が設けら; Cいる。 旨 34 , 35は、 2本以上設けら て!/、てもよく、 伊 [Jえば 人の手のように 5 けられて!/、てもよレ、。 また、 ハンド本体 32には、 第 1のサーボモ ータ 36 (ァクチユエータ) 、 第 2のサーボモータ 37 (ァクチユエ一タ) 及び第 3のサ ーボモータ 38 (ァクチユエータ) が設けられている。 指 34, 35は、 第 1のサーボモ ータ 36の, I離によって開閉する方向 ち第 S図の左右方向) に移動する。 また、 指 3 4, 35は、 第 2のサーポモータ 37の馬鐵によって、 指 34, 35を開閉する方向とは 直交する方向、 力つ水平方向 (即ち第 9図の前後方向) に移動する。 さらに、 指 34, 3 5は、 第 3のサーボモータ 38の馬躑によって、 鉛 it^向 (即ち第 9図の上下方向) に移 動する。
第 9図に示されるように、 一方の指 35には、 ttit己光学 虫覚センサ 11が支持されて いる。 他方の指 34には、 光学 5¾虫覚センサ 1 ILと外形が B縛しレヽ指 附 39力 S支持さ れている。 指 附 39及び光学 ¾¾覚センサ: 1 1は、 互いに向力い合うように配置され ている。 指 附 39の代わりに光学^ »覚センサ 1 1を設けてもよい。 つまり、 各指 3 4, 35のレヽずれか 1つに光学^!覚センサ 1ュを設けてもよいし、 各指 34 , 35にそ れぞれ光学^虫覚センサ 1 1を設けてもよい。
また、 ロボットハンド 31全体を制御する制 ί甸部 22は、 嫌己第 1の霞形態の構成に 加え、 各サーボモータ 36〜 38を馬睡し、各 旨 34, 35の位置、 速度及び力などを制 御するモータドライバ 41を備えている。 モータドライバ 41は CPU 23によって制御 される。 モータドライバ 41は、 CPU 23から出力された馬睡信号に基づいて、 各サー ボモータ 36〜38に対して所定の波形を有する電流を流す。
第 9図に示される CPU23は、 同 CPU23により求められた ¾泉力、櫞泉力、 摩擦 係娄级びトルクに基づいて、 物体 W1に与えるべき適切な把持力 (操作力) の大きさ及び 方向を算出する。 例えば、 必要以上の ¾|泉力が物体 W 1にカ卩えられ、 物 {核1を潰してし まう可能性がある齢、 C P U 2 3は、 ¾H力 (第 1のサーボモータ 3 6の麵により指 3 4 , 3 5が閉じようとする力) を小さくする。 一方、 泉力が小さく、 物体 W 1が滑り 落ちてしまう可能生がある^^、 C PU 2 3は、 ¾泉力を大きくするようになつている。 即ち、 C P U 2 3は、 操作力算出手 巴持力算出手段としての機能を有してレヽる。 そ して、 C P U 2 3は、 算出された適切な把持力に基づレ、て、 第 1〜第 3のサーポモータ 3 6〜 3 8の をモータドライノく 4 1に対して指令する。 この旨令により、 各指 3 4, 3 5 、 適切な把持力で物 #W1を把持する。 つまり、 C PU 2 3は、 把持力をフィードバ ック制御する。 即ち、 C P U 2 3は、 ァクチユエ一タ馬働制御手段としての機能を有して いる。
次に、 ロボットハンド 3 1によって物体 W 1を把持する方法を説明する。
第 1 0図において、ステップ S 1 1 0〜ステップ S 1 9 0までの処理が終了し、法線力、 擬泉力、 j¾f系 ¾¾ぴトルクが測定されると、 C P U 2 3は、 ステップ S 2 1 0の処理へ 樹?1 "る。 ステップ S 2 1 0において、 C PU 2 3は、 求められた ¾泉力、 擬泉力、 摩擦 係娄级びトルクに基づいて、 物体 W 1に与えるべき適切な把持力を算出する。 そして、 C P U 2 3は、 算出された適切な把持力で、 第 1〜第 3のサーボモータ 3 6〜 3 8の馬離を モータドライバ 4 1に指令する。 この指令により、 各指 3 4, 3 5カ 切な把持力で物体 W 1を把持する。
そして、 ステップ S 2 1 0の処理を終了した C P U 2 3は、 ステップ S 1 2 0〜S 2 1 0の処理を再び行う。 この処理は、 各指 3 4 , 3 5が物体 W 1を把持している間、 一定時 間ごとに行われる。 つまり、 C P U 2 3は、 把持力をフィードバック制御する。
従つて、 本実施形態によれば以下の効果を得ることができる。
•本実施形態のロボットハンド 3 1では、 C CDカメラ 1 3からの画像情報力画ィ繞理 されると、 C PU 2 3によって纖虫領域 A 1の大きさ、 形状及ひ直心に関する情報が抽出 されるとともに、 固 域 A 2の大きさに関する情報が抽出される。 そして、 C P U 2 3 によって、 それらの情報に基づいて ¾H力、 擬泉力、 摩樹系 ¾¾ぴトルクが求められる。 即ち、 1觀のセンサによって複 «の力学量を同時に測定することができる。そして、 測定した力学量に基づレ、て物{*\ 1に与えるべき適切な把持力を算出することができる。 これにより、 各指 3 4, 3 5によって、 物体 W 1を、 潰さないように、 力つ滑らなレヽよう に巴¾#1~ることができる。 しかも、 光学^!虫覚センサ 1 1のタツチパッド 1 2は半ぉ状を なしているため、 物体 W 1の形状に影響されることなく、 物体 W 1を把持することができ る。 ゆえに、 より人間の手に近レヽロボットハンド 3 1を備えたヒユーマノィドロポソトを 努することができる。
'本 形態では、 物体 W 1に与えるべき適切な操作力が途中で変化した ¾ ^でも、 C P U 2 3によって行われるフィードバック制御により、 物体 W 1を、 潰さないように、 か つ滑らないように把持し続けることができる。 しカゝも、 光学 ϊ¾も覚センサ 1 1は、 透明弾 性体 1 7の挙動を C C Dカメラ 1 3によって画像情報として捉えるため、 大きな情報量を 比較的速く処理することができる。 よって、 物 #W 1に与えるべき適切な操作力力 S急激に 変化した でも、 物 #W 1を、 潰さないように、 力 滑らないように把持し続けること ができる。
なお、 本発明の霞形態は以下のように変更してもよい。
•上記各実施形態では、 グリッドパターン 1 9は格子状の嫌であつたが、 三角形の網 目状、 六角形の網目状 (ハニカム状) などの他の嫌であってもよい。
•上記各実娜態において、 グリッドパターン 1 9を、 ¾¾ 性材料からなるカバー層 によって覆うようにしてもよレヽ。
'上記各実施形態では、 タツチパッド 1 2が成开翅によって形成されるのに伴い、 透明 弾性体 1 7の凸状曲面 1 5に複数の溝 2 0力 S形成されるようになってレヽた。 しかし、 タッ チパッド 1 2力 S形成された後で、 複数の溝 2 0を形成 (例えば切削形成) するようにして あよい。
'上記各実施形態では、 照明 1 4は白色光を発するようになっていたが、 青色光、 赤色 光などの他のものであってもよい。
•上記第 2の実施形態では、 指 3 4, 3 5を,麵するァクチユエータとして、 第 1〜第 3のサーボモータ 3 6〜3 8を用いたが、 油圧シリンダ、 空 Mffiシリンダ、 超音波モータ などをァクチユエータとして用いてもよレ、。 産業上の利用可能性
例えば本発明の光学 ϊ¾虫覚センサ及びそれを利用したセンシングシステムによれば、 人 とロボットとの間での触覚情報の双方向情報 が容易になる可能性がある。 例えば、 ボ ールを投げるなどの指先の な動きや感覚をロボットに学習させることができるロボッ トティ一チンダマシンに応用できる可能性がある。

Claims

請 求 の 範 囲
1 . 凸状曲面を有する ¾M性弾性体からなり、 編己凸状曲面上にマーカー部力 s配置され た触覚部と、
tilt己凸状曲面に物体が劍虫した際の ttlt己マーカー部の挙動を する撮像手段と を備えたことを糊敷とする光学 5¾覚センサ。
2. 嫌 Sマーカー部は、 格子状に配置された複数の溝または複数の突条からなることを特 徴とする請求項 1に記載の光学 ^¾虫覚センサ。
3 . ΙΐίΙ己触覚部は、 成形面に複数の成形溝または複数の成形突条を有する成开翅を用レ、、 その成形面に未硬化の弾 ί材才料を撤虫させて硬化させることにより、 形成されることを 1敫とする請求項 1または 2に記載の光学 虫覚センサ。
4. 謙己マーカー部を照らす照明をさらに備えたことを糊敷とする請求項 1乃至 3の!/、ず れか 1項に記載の光学 5¾虫覚センサ。
5. ΙίίΙΕ照明は、 リング状であることを樹敫とする請求項 4に記載の光学 虫覚センサ。
6 . 嫌己照明は、 白色光を発することを糊敷とする請求項 4に記載の光学 虫覚センサ。
7. tilt己照明は、 複数の発光ダイ^ドを用いて構成されてレヽることを糊敷とする請求項 4に記載の光学 覚センサ。
8. ffrt己マーカー部は、 されていることを ί敷とする請求項 1乃至 7のいずれか 1項 に記載の光学 覚センサ。
9. ffff己マーカー部は、 光 β性材料からなるカノ一層によって覆われていることを糊敷 とする請求項 1乃至 8の!/、ずれか 1項に記載の光学 覚センサ。
10. ItifSマーカー部は、 300 μ m〜 1000 mピッチの格子状に酉己置された深さ 1 ΟΟμη!〜 Ι ΟΟΟμ mの複数の溝であることを糊敷とする請求項 1乃至 9のレヽずれ力 1 項に記載の光学 5¾虫覚センサ。
11. 嫌己撮像手段は、 CCDカメラであることを糊敷とする請农項 1乃至 10のいずれ か 1項に記載の光学 5¾¾覚センサ。
12. ΙΐΠΒ撮像手段は、 編己触覚部の背面側に配置され、 辦己凸拔曲面上、 または、 纏己 触覚部にぉレヽて物体が翻虫する箇所の表面上に配置されたマーカー部を背面側から撮像す ることを糊敷とする請求項 1乃至 11のレ、ずれか 1項に記載の光学 ¾|虫覚センサ。
13. ΙίίΙ己光 性弾性体は、透明であることを頓敷とする請求項 1乃至 12のレ、ずれか 1項に記載の光学 覚センサ。
14. 嫌己光翻性弾性体は、 シリコーン樹脂からなることを糊 :とする請求項 1乃至 1
3のレ、ずれか 1項に記載の光学 虫覚センサ。
1 5. tirf¾fc¾i性弾性体は、 曲率雜が 5 mm〜 5 0 mmの凸状曲面を有することを特 徴とする請求項 1乃至 1 4の!/、ずれか 1項に記載の光学^^虫覚センサ。
1 6 . 歸己光翻性弾性体は、 その先 ¾ί則に凸状曲面を有し、 側に平坦面を有するこ とを糊数とする請求項 1乃至 1 5の ヽずれか 1項に記載の光学 5¾虫覚センサ。
1 7. ΙίίΙ己光扁性弾性体は、 その先蟖則に凸状曲面を有し、 ®¾ί則に平坦面を有すると ともに、 ΐϋΐΒ»側には、 さらに、 tfriB光 ¾1性弾性体よりも相対的に硬質の押さえ咅附 が され、 tins撮像手段はさらにその基 則に配置されていることを樹敫とする請求項
1乃至 1 6のレ、ずれか 1項に記載の光学 ϊ¾虫覚センサ。
1 8 . 光 ¾1性弾性体からなる触覚部と、 肅己触覚部において物体が撤虫する箇所の挙動 を ¾する撮像手段とを備えた光学 虫覚センサを利用して、 ネ复 の力学量をセンシ ングする方'法であって、
tin己撮像手段からの画像情報を画像処理することにより、 tit己物体と tin己触覚部との間 に生じる繊虫領域の大きさ、 形状及び重心に関する情報を抽出するとともに、 編己撤虫領 域内に生じる編己物体と tiff己触覚部との固 域の大きさに関する情報を抽出するステツ プと、
ΙίίΙ己翻虫領域の大きさから ¾1泉力を求めるステップと、
嫌己翻虫領域の形状及ひ窗己 虫領域の重心から接線力を求めるステップと、 嫌己撤虫領域の大きさに る tfit己固 域の大きさの割合から »f系数を求めるステ ップと を含むことを糊敷とする、 光学 虫覚センサを利用したセンシンク Ί。
1 9. 光 ¾ii性弾性体からなる触覚部と、 frt己触覚部において物体が翻虫する箇所の挙動 を ί驟する撮像手段とを備えた光学^!虫覚センサと、
SHI己撮像手段からの画像情報を画像処理することにより、 廳 体と廳己触覚部との間 に生じる翻虫領域の大きさ、 形状及び重心に闋する情報を抽出するとともに、 lift己翻虫領 域内に生じる tut己物体と鍵己触覚部との固 域の大きさに関する情報を抽出する情報抽 出手段と、
嫌己翻虫領域の大きさから ¾1泉力を求め、 編己翻虫領域の形状及ひ lift己翻虫領域の重心 から撤泉カを求め、 カゝつ、 tfrt己翻虫領域の大きさに る ttrt己固 * 域の大きさの割合か ら摩衞系数を求めることが可能な力学量測定爭段と
を備えることを糊敫とするセンシングシステム。
20. 前記触覚部において前言 体が接触する箇所の表面上にマーカー部を配置し、
tfjf己撮像手段は、嫌己触覚部に嫌己物体が翻虫した際の ΙίίϊΒマーカー部の挙動を膨し、 膽己情報抽出手段は、 編己撮像手段からの画像情報を画像処理することにより、 編己マ 一力一部の変形に関する情報を抽出し、
嫌己力学量測定手段は、 tut己マーカー部の変形に関する情報からトルクを求めることが 可能である
ことを糊 とする請求項 1 9に言己載のセンシングシステム。
21. 光 ¾ii性弾性体からなる触覚部と、 歸己触覚部におレヽて物体が撫虫する箇所の挙動 を する撮像手段とを備えた光学 虫覚センサを利用した物 ί機作力制御方法であって、 t&f己撮像手段からの画像情報を画像処理 ~ることにより、 ttitEt)体と lilt己触覚部との間 に生じる織虫領域の大きさ、 形状及び重心に関する情報を抽出するとともに、 tin己纖虫領 域内に生じる嫌己物体と廳己触覚部との固 *^域の大きさに関する情報を抽出するステツ プと、
編己翻虫領域の大きさから ¾H力を求め、 肅己撤虫領域の形概ひ窗己撤虫領域の重心 力ら擬泉力を求め、 カゝつ、 編己撤虫領域の大きさに文 る嫌己固糊域の大きさの割合か ら摩衞系数を求めるステップと、
編己力学量測定手段により求められた複¾«1の力学量に基づレヽて、 ΙίίΙΕ%体に与える べき適切な操作力を算出するステップと、
tin己複娄^ Iの力学量を、 算出された適切な操作力に近づけるような制御を行うステツ プと
を含むことを擀敫とする、 光学 虫覚センナを利用した物 ί機作力制御方法。
2 2 . センサ支持体と、
tiff己センサ支持体を馬離するァクチュエータと、
¾M性弾性体からなる触覚部と、 tilt己 覚部におレ、て物体に撤虫する箇所の挙動を撮 影する撮像手段とを備え、嫌己センサ支謝 に支持された光学 虫覚センサと、
tfit己撮像手段からの画像情報を画像処理することにより、 膽 体と觸己触覚部との間 に生じる翻虫領域の大きさ、 形状及び重心に関する情報を抽出するとともに、 mm 域内に生じる ΙϋϊΒ物体と廳己触覚部との固^域の大きさに関する情報を抽出する情報抽 出手段と、
肅己纖虫領域の大きさから ¾泉力を求め、 tiriE翻虫領域の形状及ひ mt己翻虫領域の重心 力 擬泉カを求め、 かつ、 廳己翻虫領域の大きさに る藤己固纖域の大きさの割合か ら摩衞系数を求めることが可能な力学量測定手段と、
ΙΐίΙΒ力学量測定手段により求められた複 の力学量に基づいて、 filf己物体に与える べき適切な操作力を算出する操作力算出手段と、
tfriB操作力算出手段により算出された適切な操作力で lift己センサ支 本を馬睡するよう に ΙίΐΙ己ァクチユエータをフィードバック制御するァクチユエ一タ馬繊制御手段と を備えたことを糊敫とする物 作力制御装 Mo
2 3 . センサ支 (本と、
鍵己センサ支 本を馬働するァクチユエータと、
光 Sii性弾性体からなる触覚部と、 嫌己触覚部において物体に接触する箇所の挙動を撮 影する撮像手段とを備え、 tilt己センサ支持体に支持された光学 虫覚センサと、
it己撮像手段からの画像情報を爾 »理することにより、 t&IB l体と tfit己触覚部との間 に生じる撤虫領域の大きさ、 形状及び重心に関する情報を抽出するとともに、 l己翻虫領 域内に生じる tUt己物体と tilt己触覚部との固 ^域の大きさに関する†f¾を抽出する情報抽 出手段と、
嫌己翻虫領域の大きさ力 ら¾1泉力を求め、 tut己激虫領域の形概ひ舊己翻虫領域の重心 力 擞泉カを求め、 つ、 鎌己翻虫領域の大きさに文 る tfrt己固糊域の大きさの割合か ら摩衞系数を求めることが可能な力学量測定手段と、
謙己力学量測定手段により求められた複娄爐類の力学量に基づいて、 tins物体に与える べき適切な把持力を算出する把持力算出手段と、
ttit己把持力算出手段により算出された適切な把持力で tfriBセンサ支持体を馬睡するよう に編己ァクチユエータをフィードバック制御する了クチュエータ馬隱制御手段と を備えたことを糊敷とする物 ί材巴持力制御装 go
24. ネ复数の ί旨と、
tiff己複数の指を屠纖するァクチユエータと、
光 性弾性体からなる触覚部と、 ttriB触覚部において物体に擲する箇所の挙動を撮 影する撮像手段とを備え、 漏己複数の指のうちの少なくとも 1つの指の先 に支持され た光学 覚センサと、
tut己撮像手段からの画像情報を画 i «することにより、 tfrt 体と lift己触覚部との間 に生じる撤虫領域の大きさ、 形状及び重心に関する情報を抽出するとともに、 謙己翻虫領 域内に生じる嫌¾)体と ¾tm己触覚部との固 域の大きさに関する' lt#を抽出する情報抽 出手段と、
tut己擲虫領域の大きさから ¾#泉力を求め、 tiff己翻虫領域の形状及ひ儘己擲虫領域の重心 カ ら接線力を求め、 力 、 廳己繊虫領域の大きさに ¾ "る SHI己固飾域の大きさの害恰か ら摩衞系数を求めることが可能な力学量測定手段と、
嫌己力学量測定手段により求められた複娄^ Iの力学量に基づいて、 嫌己物体に与える べき適切な把持力を算出する把持力算出手段と、
辦己把持力算出手段により算出された適切な把持力で廳己複数の指を ,»するように前 記ァクチユエータをフィードバック制御するァクチユエータ駆動制御手段と
を備えたことを稱敫とするロボットハンド。
PCT/JP2005/004259 2004-03-09 2005-03-04 光学式触覚センサ、センシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置、ロボットハンド WO2005085785A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US10/592,243 US7707001B2 (en) 2004-03-09 2005-03-04 Control of object operating force, object gripping force and robot hands

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-066401 2004-03-09
JP2004066401A JP4621827B2 (ja) 2004-03-09 2004-03-09 光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド

Publications (1)

Publication Number Publication Date
WO2005085785A1 true WO2005085785A1 (ja) 2005-09-15

Family

ID=34918329

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/004259 WO2005085785A1 (ja) 2004-03-09 2005-03-04 光学式触覚センサ、センシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置、ロボットハンド

Country Status (3)

Country Link
US (1) US7707001B2 (ja)
JP (1) JP4621827B2 (ja)
WO (1) WO2005085785A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108519325A (zh) * 2018-05-07 2018-09-11 河北工业大学 一种研究手与物体接触间摩擦系数和接触面积之间关系的方法与装置

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
CA2683566C (en) * 2007-05-30 2017-08-22 Martin Pointing Devices Touch-sensitive pointing device with guiding lines
JP5003970B2 (ja) * 2008-03-17 2012-08-22 国立大学法人東京農工大学 接触面積測定装置および接触面積測定方法
JP5003974B2 (ja) * 2008-08-01 2012-08-22 国立大学法人東京農工大学 接触面積測定装置および接触面積測定方法
GB2470537B (en) * 2008-03-17 2012-12-12 Univ Tokyo Agriculture Contact area measuring apparatus and contact area measuring method
WO2009155501A2 (en) * 2008-06-19 2009-12-23 Massachusetts Institute Of Technology Tactile sensor using elastomeric imaging
US9052710B1 (en) * 2009-03-20 2015-06-09 Exelis Inc. Manipulation control based upon mimic of human gestures
JP5239987B2 (ja) * 2009-03-24 2013-07-17 株式会社豊田自動織機 ロボットハンド用撮像装置内蔵フィンガ
JP5239986B2 (ja) * 2009-03-24 2013-07-17 株式会社豊田自動織機 ロボットハンド用フィンガ
DE102009031385A1 (de) * 2009-07-01 2011-01-05 Giesecke & Devrient Gmbh Verfahren, tragbarer Datenträger und System zum Freigeben einer Transaktion
JP5660531B2 (ja) * 2010-08-12 2015-01-28 国立大学法人名古屋大学 形状計測装置、及び形状計測方法
US20130220032A1 (en) 2010-10-26 2013-08-29 Muthukumaran Packirisamy System For Sensing a Mechanical Property of a Sample
JP5834478B2 (ja) 2011-05-10 2015-12-24 セイコーエプソン株式会社 ロボット
KR20140041890A (ko) 2011-07-28 2014-04-04 메사추세츠 인스티튜트 오브 테크놀로지 고해상도 표면 측정 시스템 및 방법
HUP1100633A2 (en) * 2011-11-17 2013-06-28 Pazmany Peter Katolikus Egyetem Device with optical feedback for measuring force and pressure
EP2793688A4 (en) * 2011-12-19 2015-05-06 Univ California SYSTEM AND METHOD FOR QUANTIFYING BODILY PALPATION FOR THE IMPROVEMENT OF MEDICAL DIAGNOSIS
JP5516610B2 (ja) * 2012-01-19 2014-06-11 株式会社安川電機 ロボット、ロボットハンドおよびロボットハンドの保持位置調整方法
TR201208054A2 (tr) * 2012-07-11 2012-12-21 B�Y�K�Ah�N Utku Cihaz ve robotlara çok noktalı, yuksek hassasiyetli dokunma hissi sağlayan modül.
TWI482956B (zh) * 2012-07-24 2015-05-01 Univ Nat Cheng Kung 物體特性感測系統及其控制方法
KR101979680B1 (ko) 2012-12-05 2019-05-20 삼성전자주식회사 촉각센서
US10574944B2 (en) 2013-03-08 2020-02-25 Gelsight, Inc. Continuous contact-based three-dimensional measurement
US9452538B2 (en) 2013-03-13 2016-09-27 Disney Enterprises, Inc. Selectively modifiable layer for alteration of appearance or texture
JP6161157B2 (ja) * 2013-07-16 2017-07-12 国立大学法人広島大学 印加力推定方法、印加力推定プログラム、およびコンピュータ入力デバイス
DE102013017007B4 (de) * 2013-10-14 2015-09-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Roboter mit einem Endmanipulatorarm mit Endeffektor sowie Verfahren zur Bestimmung eines Kraft- und Drehmomenteintrages auf einen Endeffektor eines Roboters
US9381659B2 (en) * 2014-04-16 2016-07-05 The Boeing Company Automated apparatus for use in selectively cutting side walls of a honeycomb core
CN105313127A (zh) * 2014-06-02 2016-02-10 精工爱普生株式会社 机器人、机器人的控制方法以及机器人的控制装置
US9757862B2 (en) 2014-10-16 2017-09-12 Technische Universität München Tactile sensor
KR101684237B1 (ko) * 2014-10-28 2016-12-20 한국기계연구원 생체내 이물질 측정 장치
CN104589358A (zh) * 2014-12-03 2015-05-06 安徽省库仑动力自动化科技有限公司 一种基于力传感与数据库对比的工业机器人拆解倾倒方法
JP6468871B2 (ja) * 2015-02-03 2019-02-13 キヤノン株式会社 ロボットハンド制御方法及びロボット装置
CN104932382A (zh) * 2015-06-24 2015-09-23 哈尔滨工业大学 微创环境下用于触摸诊断的三维微型力传感器
US9889564B2 (en) * 2015-07-08 2018-02-13 Empire Technology Development Llc Stable grasp point selection for robotic grippers with machine vision and ultrasound beam forming
FR3038721B1 (fr) * 2015-07-09 2018-12-07 Centre National De La Recherche Scientifique Tribometre pour la mesure de champs de deplacements a l'interface de deux elements
RU2704897C2 (ru) * 2015-09-16 2019-10-31 Филип Моррис Продактс С.А. Картридж с частью для хранения жидкости с гибкой стенкой
EP3355778B1 (en) * 2015-09-30 2020-12-09 3M Innovative Properties Company System and method for optimizing body and object interactions
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
CN109074153A (zh) * 2016-03-29 2018-12-21 斋藤创造研究所株式会社 一种输入装置及图像显示系统
DE102016108966B4 (de) * 2016-05-13 2017-11-30 Technische Universität München Visuell-haptischer Sensor für 6D-Kraft/Drehmoment
TR201606363A2 (tr) * 2016-05-13 2017-11-21 Sensobright Ind Llc Çok işlevli bir algılama sistemi.
DK3455599T3 (da) * 2016-05-13 2022-03-21 Sensobright Ind Llc Praktisk sensorsystem
JP6729930B2 (ja) * 2016-07-08 2020-07-29 国立大学法人広島大学 触覚評価方法および触覚評価システム
US20200139543A1 (en) * 2017-06-21 2020-05-07 Saito Inventive Corp. Manipulator and robot
KR102013992B1 (ko) * 2017-08-04 2019-08-23 한국해양대학교 산학협력단 영상기반 비접촉식 촉각 센싱 시스템
US11945098B2 (en) 2017-08-14 2024-04-02 Contactile Pty Ltd Friction-based tactile sensor for measuring grip security
US10372155B2 (en) * 2017-08-20 2019-08-06 Pixart Imaging Inc. Joystick and related control method
US10814494B2 (en) * 2017-09-26 2020-10-27 Toyota Research Institute, Inc. Robotic gripper fingers
US10668627B2 (en) * 2017-09-26 2020-06-02 Toyota Research Institute, Inc. Deformable sensors and methods for detecting pose and force against an object
DE102018123546A1 (de) * 2017-09-26 2019-03-28 Toyota Research Institute, Inc. Verformbare sensoren und verfahren zur erfassung der pose und kraft an einem objekt
US11110603B2 (en) 2018-10-02 2021-09-07 Toyota Research Institute, Inc. Systems and methods for naïve physics for contact and contact-awareness in robotic teleoperation
TWI699511B (zh) * 2018-11-12 2020-07-21 國立中央大學 觸覺感測器
JP7280032B2 (ja) * 2018-11-27 2023-05-23 ローム株式会社 入力デバイス、自動車
GB2579846A (en) * 2018-12-18 2020-07-08 Univ Bristol Improvements in or relating to tactile sensing
EP3693139A1 (en) 2019-02-11 2020-08-12 Université d'Aix-Marseille Optical tactile sensor
JP7396357B2 (ja) * 2019-06-05 2023-12-12 ソニーグループ株式会社 制御装置および方法、並びに、プログラム
PL430286A1 (pl) * 2019-06-19 2020-12-28 Innovative Radar Technologies Laboratory Spółka Z Ograniczoną Odpowiedzialnością Układ do pomiaru odkształceń oraz sposób pomiaru odkształceń
US11836823B2 (en) 2019-07-04 2023-12-05 Fingervision Co., Ltd. Tactile sensor, tactile sensor system, and program
JP6873439B2 (ja) * 2019-07-18 2021-05-19 株式会社齋藤創造研究所 マニピュレーターおよびロボット
WO2021081084A1 (en) * 2019-10-21 2021-04-29 The Regents Of The University Of California Multi-directional high-resolution optical tactile sensors
WO2021085098A1 (ja) * 2019-10-30 2021-05-06 ソニー株式会社 光学式センサおよび光学式センサモジュール
WO2021124388A1 (ja) * 2019-12-16 2021-06-24 国立大学法人東北大学 把持装置、制御方法及びプログラム
US11584026B2 (en) * 2020-02-17 2023-02-21 Toyota Research Institute, Inc. Robot arm assemblies including fingers having deformable sensors
TWI767264B (zh) * 2020-06-24 2022-06-11 財團法人工業技術研究院 受壓狀態量測方法及受壓狀態量測系統
GB202012448D0 (en) * 2020-08-11 2020-09-23 Ocado Innovation Ltd Object presence sensing
CN112077882A (zh) * 2020-09-18 2020-12-15 马鞍山迈若斯机器人科技有限公司 一种基于触觉的避障机器人
US20220143821A1 (en) * 2020-11-11 2022-05-12 Sony Interactive Entertainment Inc. Method for robotic training based on randomization of surface stiffness
CN112744604B (zh) * 2020-12-11 2022-01-28 珠海格力电器股份有限公司 一种码垛机器人及其控制方法、装置、存储介质及处理器
CN112857630B (zh) * 2021-01-15 2022-10-14 之江实验室 一种软体机器人手的三维凸面柔性触觉传感器及制造方法
US11472039B1 (en) * 2021-04-23 2022-10-18 Toyota Research Institute, Inc. Deformable sensor with rotatable sensing components for detecting deformation levels
CN113223377A (zh) * 2021-04-25 2021-08-06 浙江理工大学 一种盲文阅读笔及盲文读取方法
CN113681585B (zh) * 2021-09-13 2022-09-13 清华大学深圳国际研究生院 一种具备人工痛觉的变刚度柔性夹爪
CN114113008B (zh) * 2021-10-22 2023-12-22 清华大学深圳国际研究生院 一种基于结构光的人工触觉设备和方法
WO2023127302A1 (ja) * 2021-12-28 2023-07-06 ソニーグループ株式会社 センサ装置、およびロボット
US20230251149A1 (en) * 2022-02-04 2023-08-10 Massachusetts Institute Of Technology Flexible optical tactile sensor

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0726805B2 (ja) * 1992-10-30 1995-03-29 工業技術院長 触覚センサ
JPH11304602A (ja) * 1998-04-15 1999-11-05 Matsushita Electric Works Ltd 半導体チップの応力分布検出方法
JP3047021B1 (ja) * 1999-04-05 2000-05-29 工業技術院長 触覚センサ
JP2000254884A (ja) * 1999-03-10 2000-09-19 Keiogijuku ハンド又はマニピュレータによる物体把持制御方法
WO2002018893A1 (fr) * 2000-08-31 2002-03-07 Center For Advanced Science And Technology Incubation, Ltd. Détecteur tactile optique
JP2005114715A (ja) * 2003-09-16 2005-04-28 Toudai Tlo Ltd 光学式触覚センサを用いた力ベクトル再構成法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61205831A (ja) * 1985-03-08 1986-09-12 Nippon Telegr & Teleph Corp <Ntt> マトリツクス触覚センサ
US4599908A (en) * 1985-03-18 1986-07-15 Sheridan Thomas B Opto-mechanical touch sensor
JPS6225519A (ja) * 1985-07-26 1987-02-03 Nippon Telegr & Teleph Corp <Ntt> 同一周波干渉量検出方式
JPH0650966B2 (ja) 1989-07-14 1994-07-06 日本製紙株式会社 組識培養によるメロン苗の増殖方法
JPH0726805A (ja) 1993-07-13 1995-01-27 Nissan Motor Co Ltd キイシリンダ構造
JPH07128163A (ja) * 1993-11-08 1995-05-19 Fuji Electric Co Ltd 触覚センサ
JP2000227371A (ja) * 1999-02-05 2000-08-15 Masahiko Matsubara 面圧力分布検出装置
CN1853093A (zh) * 2003-09-16 2006-10-25 株式会社东京大学Tlo 光学式触觉传感器和使用该传感器的力矢量分布再构成法
JP2006003137A (ja) * 2004-06-16 2006-01-05 Toudai Tlo Ltd 光学式触覚センサ及び該センサにおける情報取得方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0726805B2 (ja) * 1992-10-30 1995-03-29 工業技術院長 触覚センサ
JPH11304602A (ja) * 1998-04-15 1999-11-05 Matsushita Electric Works Ltd 半導体チップの応力分布検出方法
JP2000254884A (ja) * 1999-03-10 2000-09-19 Keiogijuku ハンド又はマニピュレータによる物体把持制御方法
JP3047021B1 (ja) * 1999-04-05 2000-05-29 工業技術院長 触覚センサ
WO2002018893A1 (fr) * 2000-08-31 2002-03-07 Center For Advanced Science And Technology Incubation, Ltd. Détecteur tactile optique
JP2005114715A (ja) * 2003-09-16 2005-04-28 Toudai Tlo Ltd 光学式触覚センサを用いた力ベクトル再構成法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108519325A (zh) * 2018-05-07 2018-09-11 河北工业大学 一种研究手与物体接触间摩擦系数和接触面积之间关系的方法与装置
CN108519325B (zh) * 2018-05-07 2023-08-04 河北工业大学 一种研究手与物体接触间摩擦系数和接触面积之间关系的方法与装置

Also Published As

Publication number Publication date
US7707001B2 (en) 2010-04-27
JP2005257343A (ja) 2005-09-22
JP4621827B2 (ja) 2011-01-26
US20080027582A1 (en) 2008-01-31

Similar Documents

Publication Publication Date Title
WO2005085785A1 (ja) 光学式触覚センサ、センシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置、ロボットハンド
Lepora Soft biomimetic optical tactile sensing with the TacTip: A review
Chen et al. Tactile sensors for friction estimation and incipient slip detection—Toward dexterous robotic manipulation: A review
Low et al. Hybrid tele-manipulation system using a sensorized 3-D-printed soft robotic gripper and a soft fabric-based haptic glove
Chorley et al. Development of a tactile sensor based on biologically inspired edge encoding
Dahiya et al. Tactile sensing—from humans to humanoids
Qu et al. Recent progress in advanced tactile sensing technologies for soft grippers
Lin et al. Sensing the frictional state of a robotic skin via subtractive color mixing
CN109176590B (zh) 一种具有压滑觉感知的柔性指尖、装置及方法
Stepp et al. Relative to direct haptic feedback, remote vibrotactile feedback improves but slows object manipulation
JP6587195B2 (ja) 触覚情報推定装置、触覚情報推定方法、プログラム及び非一時的コンピュータ可読媒体
KR20190080802A (ko) 가상 물체의 터칭 및 파지와 관련된 햅틱 효과를 제공하는 시스템 및 방법
Kappassov et al. Color-coded fiber-optic tactile sensor for an elastomeric robot skin
US20180011538A1 (en) Multimodal haptic effects
JP2010221358A (ja) ロボットハンド用撮像装置内蔵フィンガ
JP2005165670A (ja) ヒューマンインタフェース装置及びヒューマンインタフェースシステム
Zhang et al. Vision-based sensing for electrically-driven soft actuators
Battaglia et al. ThimbleSense: an individual-digit wearable tactile sensor for experimental grasp studies
KR101879811B1 (ko) 수직 전단력 촉각센서, 이의 제조 방법 및 촉각 센서 시스템
JP2001265522A (ja) 爪に装着するセンサ
Jin et al. Progress on flexible tactile sensors in robotic applications on objects properties recognition, manipulation and human-machine interactions
JP2009198475A (ja) 弾性体特性を利用した3次元触覚センサ及び3次元触覚センシング方法
Sakuma et al. A wearable fingernail deformation sensing system and three-dimensional finite element model of fingertip
JP2020023050A (ja) 触覚情報推定装置、触覚情報推定方法及びプログラム
TWI396835B (zh) Piezoelectric tactile sensor and its manufacturing method

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase
WWE Wipo information: entry into national phase

Ref document number: 10592243

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10592243

Country of ref document: US