JPS60123285A - Method of detecting force of robot - Google Patents

Method of detecting force of robot

Info

Publication number
JPS60123285A
JPS60123285A JP22682183A JP22682183A JPS60123285A JP S60123285 A JPS60123285 A JP S60123285A JP 22682183 A JP22682183 A JP 22682183A JP 22682183 A JP22682183 A JP 22682183A JP S60123285 A JPS60123285 A JP S60123285A
Authority
JP
Japan
Prior art keywords
robot
force
information
hand
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP22682183A
Other languages
Japanese (ja)
Inventor
関口 浩一郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP22682183A priority Critical patent/JPS60123285A/en
Publication of JPS60123285A publication Critical patent/JPS60123285A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、ロボットの力検出方法に係り、特にロボット
のハンドが柔軟性のある対象物(以下、軟質の対象物と
いつ)ヲつかんだ時、または硬い材質の対象物(以下、
硬質の対象物といつ)ヲつかんだ時のいずれの場合にも
把持力の大きさを検出するに好適なロボットの力検出方
法に関する。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention relates to a force detection method for a robot, particularly when a robot hand grasps a flexible object (hereinafter referred to as a soft object). , or an object made of hard material (hereinafter referred to as
The present invention relates to a force detection method for a robot suitable for detecting the magnitude of gripping force in any case when grasping a hard object.

〔#、明の背景〕[#, Ming background]

従来のロボットにおける仇、触覚利用技術は。 The enemy of conventional robots is tactile technology.

物体の位置および形状認識に視覚技術を利用し。Using visual technology to recognize the location and shape of objects.

ロボットのハンドに装着された力センサによってハンド
に作用する外力の検出に触覚技術を利用するというよう
に、各々別々に研究、開発が進められている。このうち
、力の検出に関しては、力センサの小形、軽蓋化が不十
分であることや1人間の力感覚のように広範囲な力の検
出。
Research and development is progressing separately for each type of technology, such as using haptic technology to detect external forces acting on a robot's hand using a force sensor attached to the hand. Among these, regarding force detection, force sensors are insufficiently small and lightweight, and a wide range of force detection is required, as is the case with a single person's sense of force.

特に弱い力の検出には力センサの安定性の問題もあり、
今後の課題として残されている。
In particular, there are problems with the stability of force sensors when detecting weak forces.
This remains a challenge for the future.

また、ロボットのハンドにより把持された対象物の把持
力を力センサにより検出する場合。
Also, when the gripping force of an object gripped by a robot hand is detected by a force sensor.

軟質の対象物の把持力は硬質の対象物に比べて小さく、
力センサによる検出が姦しい。そこで、軟質の対象物か
ら硬質の対象物に至るIで、有効な力センサ’に用いる
よ5[すると、広す幅の感度を持った高級な力センサを
必要とし、著しく高価忙なるという問題がある。
The gripping force for soft objects is smaller than for hard objects.
Detection by force sensor is poor. Therefore, if it is used as an effective force sensor for objects ranging from soft objects to hard objects, the problem is that a high-grade force sensor with a wide range of sensitivity is required, which is extremely expensive. There is.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、前記問題点を解決すべく。 An object of the present invention is to solve the above problems.

ロボットのハンドが軟質と硬質の対象物が混在し℃いる
中から、いずれの対象物をつかんだ場合にも、高級な力
センサを用いることなく1把持力の大きさを正確に検出
でき、しかも力検出の制御を簡易化し得るロボットの力
検出方法を提供するにある。
Regardless of whether the robot's hand grasps a mixture of soft and hard objects, it is possible to accurately detect the magnitude of the gripping force without using a high-grade force sensor. An object of the present invention is to provide a force detection method for a robot that can simplify force detection control.

〔発明の概要〕[Summary of the invention]

本発明は、r−1ポツトのハンドで対象物tつか牟、ロ
ボットの触覚により検出した把持力の大きさの情=Wメ
モリのバッファに格納する一方。
In the present invention, information on the magnitude of the gripping force detected by the robot's tactile sense for an object (t or more) with r-1 hands (=W) is stored in a buffer in the memory.

視覚により検出した対象物の変形量の情報を、把持力の
大きさの情報に変換して前記バッファに格納するととも
に、力検出の制#部では触覚により検出したtiVs#
と、視見により検出した情報のいずれによって制御する
か迷わないで制御可能となるように1両tuin統合し
た制御テークを含酸したところに%徴を有するもので、
この構成により前記目的をすべて達成することかできた
ものである。
Information on the amount of deformation of the object detected visually is converted into information on the magnitude of the gripping force and stored in the buffer, and the force detection control section converts the information on the amount of deformation of the object detected by the sense of touch into information on the magnitude of the gripping force.
And, it has a percentage mark when the control take that integrates one twin is included so that it can be controlled without hesitation as to which information is detected visually.
With this configuration, all of the above objectives could be achieved.

〔兄明の実施例〕[Another example]

以下1本発明の一実施例を第1図ないし第5図により説
明する。
An embodiment of the present invention will be described below with reference to FIGS. 1 to 5.

第1図はロボットとその周辺設m’ii示すもので、ロ
ボット1と、視覚とし1のカメラ3と。
Figure 1 shows a robot and its peripheral equipment, including a robot 1 and a camera 3 for vision.

対象物の搬送手段14とを備え又いる。前記ロボット1
のハンド2には、触覚としての力センサ8か設けられて
いるが、第1図中では省略され℃いる。前記対象物の搬
送手段14では、軟質の対象物4と硬質の対象物5とを
混在させて搬送するようになっている。前記カメラ3は
、搬送手段14で搬送されて来た対象物4.5を撮像し
、対象物4.5の位置情報をロボット10制御装置(図
示せず)に提供する外、ハンド2により把持された対象
物4.5を撮像し、その画像は後述の画謙処理ボードに
より取り込まれるようになっている。ロボット1のハン
ド2は、カメラ3を通じて提供された位置情報に基づき
、軟質の対象物4と硬質の対象物5のいずれかt把持す
るようになっている。なお、この第1図では軟質の対象
物4と硬質の対象物5の外形が異なっている。
The object conveying means 14 is also provided. Said robot 1
The hand 2 is provided with a force sensor 8 as a tactile sense, but it is omitted in FIG. The object conveying means 14 is configured to convey a mixture of soft objects 4 and hard objects 5. The camera 3 images the object 4.5 conveyed by the conveyance means 14, provides positional information of the object 4.5 to the robot 10 control device (not shown), and also grips the object 4.5 with the hand 2. An image of the object 4.5 is taken, and the image is taken in by an image processing board, which will be described later. The hand 2 of the robot 1 is configured to grip either a soft object 4 or a hard object 5 based on position information provided through the camera 3. In FIG. 1, the outer shapes of the soft object 4 and the hard object 5 are different.

第2図はロボットのハンド2が、外形が同じで材質が異
なる対象物をつかむ場合を示すもので、対象物4.5f
tつかむ前のノ・ンド2の位置を鎖線で示し、硬質の対
象物5をつかんだ時の対象物5の外形とノ1ンド2の位
Ill Y 果MAで示し、軟質の対象物4をつかんだ
時の対象物4の外形とハンド20位置を破線で示しでい
る。
Figure 2 shows a case where the robot's hand 2 grasps objects with the same external shape but different materials.
The position of No. 2 before grasping is shown by a chain line, the outer shape of the object 5 when the hard object 5 is grabbed, and the position of No. 1 and No. 2 of No. The outline of the object 4 and the position of the hand 20 when grasped are shown by broken lines.

第3図は本発明方法乞実施するノ1−ド構成の一例を示
すもので、制御1141部としてのCpU 6と。
FIG. 3 shows an example of a node configuration for implementing the method of the present invention, including a CPU 6 as a control section 1141.

メモリ7と、力センサ8の恢出テータを読み込ムインタ
ーフエイスポード9と、カメラ6から画1ポを取り込む
画1ボ処理ボード10とを備えている。
It is equipped with a memory 7, an interface board 9 for reading the output data from the force sensor 8, and an image processing board 10 for taking in the image from the camera 6.

次に、前sGaポットとその周辺設備と1本発明方法″
4r:笑施するハードの作用に関連して本発明方法を説
明する。
Next, we will discuss the previous sGa pot, its peripheral equipment, and the method of the present invention.
4r: The method of the present invention will be explained in relation to the effect of the hardware used.

まず、搬送手段14により第1図に示すように。First, as shown in FIG. 1 by the conveying means 14.

軟質の対象物4と硬質の対象物5とを混在させた状態で
搬送する。
A soft object 4 and a hard object 5 are conveyed in a mixed state.

ついで、カメラ3により前記対象物4,5を撮像し、対
象物4.5の位置を検出し、その位置情報に基づいてロ
ボット1のハンド2により軟質の対象物4と硬質の対象
物5のいずれかをつかむ。
Next, the camera 3 images the objects 4 and 5, detects the position of the objects 4 and 5, and based on the position information, the hand 2 of the robot 1 moves the soft object 4 and the hard object 5. Grab one.

ロボット1のハンド2が対象物をつかんだ時。When robot 1's hand 2 grabs an object.

ハンド2に設けられ工いる触覚としての力センサ8は把
持力の大きさを検出し、インターフェイスポード9はC
pU6からの指令によりカセyす8の検出データを読み
込み、メモリ7の力センザ用バッファに格納する。
A force sensor 8 provided on the hand 2 as a tactile sense detects the magnitude of the gripping force, and an interface port 9
The detection data of the case 8 is read according to a command from the pU 6 and stored in the force sensor buffer of the memory 7.

一方、視覚としてのカメラ3はハンド2により把持され
ている対象物を撮像し、画像処理ボード10はCPU6
からの指令によりカメラ3で撮像した画像を取り込む。
On the other hand, the camera 3 serving as a visual device takes an image of the object held by the hand 2, and the image processing board 10 is connected to the CPU 6.
The image captured by the camera 3 is captured by the command from the camera 3.

この画像処理ボード10には、予めハンド2によりつか
む前の対象物の画像をカメラ3から取り込み、この画1
駅の外郭部分を線分化した画像データを記憶させておく
。そして1画像処理ボード10ではカメラ3から現在取
り込んだ画像の外郭部分ヲ線分化した画像テータ乞作成
し、予め記憶している画像データと、現在線分化した画
像データとを比較し、ハンド2に把持されている対象物
の変形量をめ、ついで対象物の変形量をハンド2の把持
力の大きさに変換し、メモリ7の力センサ用バッファに
格納する。
This image processing board 10 captures an image of the object before it is grabbed by the hand 2 from the camera 3, and this image 1
Image data in which the outer part of the station is divided into lines is stored. Then, the first image processing board 10 creates an image data in which the outer part of the image currently captured from the camera 3 is segmented into lines, compares the previously stored image data with the currently segmented image data, and sends it to the hand 2. The amount of deformation of the object being gripped is determined, and then the amount of deformation of the object is converted into the magnitude of the gripping force of the hand 2 and stored in the force sensor buffer of the memory 7.

ところで、第2図に示すように対象物が同じ形状で材質
が異なる場合には、対象物をノ・ンド2でつかんでみる
まではロボット1の力検出。
By the way, as shown in FIG. 2, when the objects have the same shape but different materials, the force of the robot 1 is not detected until the object is grasped by the robot 2.

つまりハンド2の把持力の大きさの検出乞触覚としての
力センサ8により得られた情報によるか、視覚としての
カメラ6と画像処理ボード10とにより得られた情報に
よるか1判別できない。
In other words, it cannot be determined whether the magnitude of the gripping force of the hand 2 is detected by information obtained by the force sensor 8 as a tactile sense or by information obtained by the camera 6 and image processing board 10 as a visual sense.

そこで1例えば力の加わり方を第4図、第5図に示すよ
うに、4つの領域に分けて横細し。
Therefore, 1. For example, as shown in Figures 4 and 5, the way in which force is applied is divided into four areas and horizontally narrowed.

左上の領域に力が加わった場合(その値を十とする)を
仮定する。
Assume that a force is applied to the upper left area (assuming its value is 0).

まず、硬質の対象物5の場合には、第4図に示すように
、触覚側の分布は11のようになるが二祝覚111!I
の力の分布12は変化しない。その結果。
First, in the case of a hard object 5, as shown in FIG. 4, the distribution on the tactile side is 11, but the second haptic sense is 111! I
The force distribution 12 remains unchanged. the result.

両省を合わせた力センサ用バッファ16は前記分布11
と同じKなる。
The force sensor buffer 16 that combines both departments is the distribution 11.
The same K becomes.

また、軟質の対象物4の場合には、第5図に示すように
、力センサ側の分布11は変化しないか、視覚側の力の
分布は12のようになる。その結果1両者を合わせたカ
センサ用ノ(ツファ13は前記分布12と同じになり、
しかも硬質の対象物5の場合と同じになる。
Further, in the case of a soft object 4, as shown in FIG. 5, the force distribution 11 on the force sensor side does not change, or the force distribution 12 on the visual side becomes like that. As a result, the sum of both of them (the distribution 13 becomes the same as the distribution 12,
Moreover, it is the same as in the case of the hard object 5.

したがって−CpU6は対象物の材質にかかわらず、力
センサ用バッファ16ヲ監視することにより力検出のた
めの制御か可能となる。
Therefore, the CpU 6 can control force detection by monitoring the force sensor buffer 16 regardless of the material of the object.

前述のように、この実施例ではロボット1のハンド2に
より対象物をつかんだ時、その把持力の大きさを、硬質
の対象物5については触覚としての力センサ8により検
出し、軟質の対象物4については視覚としてのカメラ3
 Kより撮像し1画像処理ボード10で処理して対象物
4の変形量をめ、この変形量を/%ンド2の把持力の大
きさに変換して検出するようにしているので、視覚を利
用し、力の検出の難しい軟質の対象物4に対する把持力
の大きさを検出でき、したかって対象物が材質が異なる
場合であっても、ハンド2の把持力の大きさを正確に検
出することができる。
As mentioned above, in this embodiment, when an object is grasped by the hand 2 of the robot 1, the magnitude of the grasping force is detected by the force sensor 8 as a tactile sensor for the hard object 5, and for the soft object. Regarding object 4, camera 3 as visual sense
The image is taken from K and processed by the image processing board 10 to determine the amount of deformation of the object 4, and this amount of deformation is converted to the magnitude of the gripping force of /% hand 2 for detection. The gripping force of the hand 2 can be detected accurately even if the object is made of a different material. be able to.

さらに、この実施例によれdcpU6は対象物により制
御方法を変更する必要がないので。
Furthermore, according to this embodiment, there is no need to change the control method of the dcpU6 depending on the object.

力検出のための制@jの簡易化乞図ることかできる。It is possible to simplify the system for force detection.

〔発明の効果〕〔Effect of the invention〕

以上説明した本発明によflば、ロボットのハンドで対
象物をつかみ、ロボットの触覚により検出した把持力の
大きさの情報と、視覚により検出した対象物の変形量の
情報を、把持力の大きさの情報に変換し1検出するよう
にし、特に硬質の対象物に比べて把持力が弱く、触覚で
は検出しにぐい軟質の対象物の把持力の大きさt、視覚
′?第1」用して検出するよりにしているので。
According to the present invention described above, an object is grasped with the robot's hand, and information about the magnitude of the grasping force detected by the robot's tactile sense and information about the amount of deformation of the object detected visually are used to calculate the grasping force. This is converted into size information and detected as 1. In particular, the magnitude of the gripping force t of a soft object, which has a weaker gripping force than a hard object and is difficult to detect with the sense of touch, and the visual sense '? Because it is better to detect using ``first''.

ロボットのハンドが軟質と1]!i!負のいずれの対象
物?つかんだ場合にも、尚級な力センサを用いること7
L〈1把持力の大きさを正確に検出し得る効果がある。
The robot's hand is soft! i! Which object is negative? Even when grasping, use a sophisticated force sensor 7
This has the effect of accurately detecting the magnitude of the L<1 gripping force.

筐た1本発明によれは力検出の制仙」部では触覚により
検出した情報と、視覚により検出したイ^−蛾のいずれ
かによって劃#する迷わないで制御=’J能となるよう
に、画情報を統合した制御データ鳴:栴成しているので
、制御部では対象物の4=A黄により制御方法を変更す
る必要がなり、シたがって制御の簡易化を図り得る効果
もある。
According to the present invention, the force detection control section uses information detected by the sense of touch and information detected by the sense of sight to perform control without hesitation = 'J ability. Since the control data that integrates the image information is structured, it is necessary for the control unit to change the control method depending on the object 4=A yellow, which has the effect of simplifying the control. .

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明を迩用丁べきロボットとその周辺設備ン
示す磨・硯図、第2図はロボットのハンドが外形が同じ
で材質の異なる対象物をつかんだ状態を示す正面図、第
3図は本弁明方法を実施するハード構成の一例乞ボすグ
ミツク因、第4図および第5図は触覚により咲出した力
の情報と視覚により検出した力の情報と馨統合した制御
卸テータの構成をボす説明図である。 1・・・ロボット 2・・・ロボットのハンド6・・・
尻覚とし王のカメラ 4・・・軟質のヌ1象物 5・・・硬質の対象物6・・
・制(i11部であるCpU 7・・・メモリ 8・・・触覚としてのカセンザ 9・・・インター7エイスホート 第 1図 /4 晒2図
Fig. 1 is a polished and inkstone drawing showing the robot and its peripheral equipment to which the present invention is applied; Figure 3 shows an example of a hardware configuration that implements the present defense method, and Figures 4 and 5 show a control system integrated with force information detected by the sense of touch and force information detected visually. FIG. 2 is an explanatory diagram illustrating the configuration. 1...Robot 2...Robot's hand 6...
Camera of the Asshole King 4... Soft Nu1 Object 5... Hard Object 6...
・System (CpU which is i11 part 7...Memory 8...Kasenza as a tactile sense 9...Inter 7 Eighth Horde Figure 1/4 Exposure 2

Claims (1)

【特許請求の範囲】[Claims] ロボットのハンドで対象物をつかみ、ロボットの触覚に
より検出した把持力の大きさの情報をメモリのバッファ
に格納する一方、視覚により検出した対象物の変形量の
情報を1把持力の大きさの情報に変換して前記バッファ
に格納するとともに、力検出の制御部では触覚により検
出した情報と、視覚により検出した情報のいずれによっ
又制御するか迷わないで制倫可能となるように1画情4
4iを統合した制卸テータを構成したこと1¥特徴とす
るロボットの力検出方法。
The robot's hand grasps the object, and the information on the amount of grip force detected by the robot's tactile sense is stored in a memory buffer, while the information on the amount of deformation of the object detected visually is stored in the memory buffer. In addition to converting the information into information and storing it in the buffer, the force detection control unit uses the information detected by the sense of touch or the information detected visually so that the control can be performed without hesitation. Love 4
A robot force detection method characterized by configuring a control unit that integrates 4i.
JP22682183A 1983-12-02 1983-12-02 Method of detecting force of robot Pending JPS60123285A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22682183A JPS60123285A (en) 1983-12-02 1983-12-02 Method of detecting force of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22682183A JPS60123285A (en) 1983-12-02 1983-12-02 Method of detecting force of robot

Publications (1)

Publication Number Publication Date
JPS60123285A true JPS60123285A (en) 1985-07-01

Family

ID=16851116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22682183A Pending JPS60123285A (en) 1983-12-02 1983-12-02 Method of detecting force of robot

Country Status (1)

Country Link
JP (1) JPS60123285A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62199387A (en) * 1986-02-26 1987-09-03 オークマ株式会社 Method and device for automatically adjusting gripping forceof robot hand
JP2014144522A (en) * 2013-01-30 2014-08-14 Seiko Epson Corp Control apparatus, control method, robot, and robot system
US9415516B2 (en) 2013-06-24 2016-08-16 Panasonic Intellectual Property Management Co., Ltd. Control apparatus and control method for master slave robot, robot, control program for master slave robot, and integrated electronic circuit for control of master slave robot
WO2018092254A1 (en) * 2016-11-17 2018-05-24 株式会社安川電機 Gripping force-setting system, gripping force-setting method and gripping force-estimating system
US11584016B2 (en) 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62199387A (en) * 1986-02-26 1987-09-03 オークマ株式会社 Method and device for automatically adjusting gripping forceof robot hand
JP2014144522A (en) * 2013-01-30 2014-08-14 Seiko Epson Corp Control apparatus, control method, robot, and robot system
US9415516B2 (en) 2013-06-24 2016-08-16 Panasonic Intellectual Property Management Co., Ltd. Control apparatus and control method for master slave robot, robot, control program for master slave robot, and integrated electronic circuit for control of master slave robot
WO2018092254A1 (en) * 2016-11-17 2018-05-24 株式会社安川電機 Gripping force-setting system, gripping force-setting method and gripping force-estimating system
JP6338026B1 (en) * 2016-11-17 2018-06-06 株式会社安川電機 Gripping force setting system, gripping force setting method, and gripping force estimation system
US11584016B2 (en) 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system

Similar Documents

Publication Publication Date Title
US20060279246A1 (en) Robot controller
JPS60123285A (en) Method of detecting force of robot
Dario et al. An integrated miniature fingertip sensor
JP2007260837A (en) Carrier robot and carrier program
Conkie et al. An uncalibrated stereo visual servo system
JPS61226289A (en) Diagnostic device for robot-manipulator
JP2004284001A (en) Robot hand
JPH0411352B2 (en)
JPS60221281A (en) Gripper for body
JPH02276725A (en) Instruction for robot
CN108858280A (en) A kind of more mechanical arm work in combination systems for recording human behavior
US20230234231A1 (en) Teleoperation assist device, teleoperation assist method, and storage medium
WO2023223403A1 (en) Fixed state evaluation system, glove, information processing device, fixed state evaluation method, and fixed state evaluation program
TW202349179A (en) Handheld controller
WO2020262169A1 (en) Teaching device and teaching method
JPS63245387A (en) Visual recognizer for robot
JPS62224820A (en) Switching device for coordinate input mode
JP2023105586A (en) Robot hand and robot hand control method
Kameda et al. Development of Ladleman Robot for Continuous Casting--Development of Position Sensing Technology
JPS5877473A (en) Visual recognizing handling system
Musunur et al. Grasping polyhedral objects using grasp recognition strategies
Yamada et al. Identification of contact conditions between fingers and a grasped object by active force sensing
JPS5959374A (en) Control circuit for robot
JPH01180401A (en) Correcting method for body recognition position of robot with visual sensor
JPS61133480A (en) Picture processing unit