JPH11165287A - Position detection device, position control device and robot control device - Google Patents

Position detection device, position control device and robot control device

Info

Publication number
JPH11165287A
JPH11165287A JP33676497A JP33676497A JPH11165287A JP H11165287 A JPH11165287 A JP H11165287A JP 33676497 A JP33676497 A JP 33676497A JP 33676497 A JP33676497 A JP 33676497A JP H11165287 A JPH11165287 A JP H11165287A
Authority
JP
Japan
Prior art keywords
hand
detecting
image
attitude
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33676497A
Other languages
Japanese (ja)
Inventor
Yukio Saito
之男 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nabtesco Corp
Original Assignee
Teijin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Teijin Seiki Co Ltd filed Critical Teijin Seiki Co Ltd
Priority to JP33676497A priority Critical patent/JPH11165287A/en
Publication of JPH11165287A publication Critical patent/JPH11165287A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize a position detection device capable of speedily carry out positional detection in high precision by a simple system and to provide a position control device and a robot control device in simple constitution using this. SOLUTION: A robot hand 18 has inclination sensors 31, 32 to detect respective angles of rotation around orthogonal horizontal axes X, Y, three pieces of image recognizing points L1 , L2 , L3 provided on the hand 18, a CCD camera 45 to recognize these image recognizing points in pictures and images and a rotational angle computing means to compute an angle of rotation Δn of a flat surface including the three image recognizing points L1 -L3 around a vertical Z axis orthogonal with the horizontal axes X, Y in accordance with the recognized images by this camera 45, and a position of the hand 18 is detected from a computing result of the computing means and detected angles of rotation of the inclination sensors 31, 32.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理系を含む
姿勢検出装置とこれを用いた姿勢制御装置およびロボッ
ト制御装置に係り、より詳しくはロボットのハンド部の
姿勢および先端位置制御に好適な装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a posture detecting device including an image processing system, and a posture control device and a robot control device using the same. More particularly, the present invention is suitable for controlling the posture and tip position of a hand portion of a robot. Related to the device.

【0002】[0002]

【従来の技術】従来、3次元空間内で任意の方向に姿勢
変化する制御対象、例えばロボットのハンド部のような
対象物の位置制御を行う場合、対象物を支持するアーム
の撓みやこれを駆動する減速ギヤ等のバックラッシュに
よって精密位置決めが難しく、そのために、ロボットの
関節部に設けたポテンショメータやエンコーダ等の内界
センサのみならず、ロボットの外部から手先部をモニタ
する外界センサが併用されている。さらに、そのような
外界センサとして、例えばロボットの手先部をカメラを
通して画像認識するものが知られており、そのような画
像処理系を有するロボットとしては、マスタースレーブ
方式のロボット等のように人手による作業負荷を軽減し
たり、遠隔操作によって作業者の安全を確保したりする
作業支援ロボットがある。この種のロボットは、特に医
療福祉分野において今後の開発が期待されている。さら
に、CCDカメラを2台使用し、その三角測量の原理に
従って対象物の3点を画像認識し、ハンド先端部の位置
を検出する等の提案がなされている。
2. Description of the Related Art Conventionally, when controlling the position of a control object whose posture changes in an arbitrary direction in a three-dimensional space, for example, the position of an object such as a hand portion of a robot, the bending of an arm supporting the object and the deflection of the arm are described. Precise positioning is difficult due to the backlash of the driving reduction gear, etc.Therefore, not only internal sensors such as potentiometers and encoders provided at the joints of the robot, but also external sensors that monitor the hand part from outside the robot are used together. ing. Further, as such an external sensor, for example, a sensor for recognizing an image of a hand portion of a robot through a camera is known, and a robot having such an image processing system is manually operated, such as a master-slave type robot. There are work support robots that reduce the work load and ensure worker safety by remote control. This type of robot is expected to be developed in the medical and welfare fields in the future. Further, proposals have been made such as using two CCD cameras, image-recognizing three points of an object in accordance with the principle of triangulation, and detecting the position of the hand tip.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
姿勢検出装置およびロボット制御装置にあっては、上述
したような画像処理系を有する場合、例えば画像認識点
付近の背景の明るさが変化し易い等の理由で対象物を常
時明確に画像認識することができず、また、画像処理も
複雑であった。そのため、わずかな姿勢変化や変位を迅
速かつ正確に検出することができず、例えば遠隔操作に
よって作業者の安全を確保するような場合、簡素なシス
テムで制御対象の姿勢を高精度に検出し、精度に優れた
作業を行うというようなことは困難であった。また、従
来作業者の微妙な手作業に頼っているような作業を代行
し得るロボットが期待されてはいるものの、実際には上
記の困難性が顕著なために実用化できていない。しかし
ながら、高精度な姿勢検出を可能にし、高精度の作業支
援ロボットを開発すれば、人手作業によっては到底不可
能な高精度と作業速度(作業時間の短縮)が十分期待で
きることから、上記のような問題の解消が希求されてい
る。
However, in the conventional attitude detecting device and the conventional robot control device, when the above-described image processing system is provided, for example, the brightness of the background near the image recognition point tends to change. For this reason, the object cannot always be clearly recognized as an image, and the image processing is complicated. For this reason, it is not possible to quickly and accurately detect slight posture changes and displacements.For example, when securing the safety of workers by remote control, the posture of the control target is detected with high accuracy using a simple system, It was difficult to perform work with high precision. In addition, although a robot capable of performing a task that relies on a delicate manual operation of a worker has been expected, it has not been practically used because of the remarkable difficulty described above. However, if high-accuracy posture detection is enabled and a high-accuracy work support robot is developed, high accuracy and work speed (shortening of work time), which cannot be achieved by manual work, can be sufficiently expected. There is a need to solve such problems.

【0004】また、対象物のわずかな姿勢変化を迅速か
つ正確に検出できれば、作業支援ロボットに限らず、各
種の生産機械、例えば繊維加工機のように部分的に複雑
で細かい動きをするものにおいても、人手作業によって
は到底不可能な高精度で迅速な作業が期待できる。そこ
で本発明は、簡素なシステムで高精度な姿勢検出を迅速
に行うことのできる姿勢検出装置を実現し、これを用い
た構成の簡素な姿勢制御装置およびロボット制御装置を
提供することを目的とする。
In addition, if a slight change in posture of an object can be detected quickly and accurately, it is not limited to work support robots, but may be applied to various production machines, for example, those which are partially complicated and finely moved, such as a fiber processing machine. However, high-precision and quick work which cannot be achieved by manual work can be expected. Therefore, an object of the present invention is to provide a posture detection device capable of quickly performing high-precision posture detection with a simple system, and to provide a simple posture control device and a robot control device having a configuration using the same. I do.

【0005】[0005]

【課題を解決するための手段】上記目的達成のため、本
発明の発明者は、対象物の僅かな姿勢変化をも明確に画
像認識可能にすべく鋭意研究を重ね、次のような発明に
到達した。すなわち、請求項1に記載の発明は、姿勢変
化可能な対象物について、互いに直交する第1および第
2の水平軸の回りにおけるそれぞれの回転角を検出する
第1および第2の傾斜センサと、前記対象物に設けられ
た3個の画像認識点(L1、L2、L3)と、該3個の画
像認識点を画像認識する画像認識手段と、該画像認識手
段による認識情報に基づいて、前記第1および第2の水
平軸と直交する鉛直軸の回りにおける、前記3個の画像
認識点を含む平面の回転角を算出する回転角算出手段
と、を備え、該回転角算出手段の算出結果と前記第1お
よび第2の傾斜センサにより検出された回転角とに基づ
いて、前記鉛直軸並びに前記第1および第2の水平軸を
直交3軸とする座標系における前記制御対象物の姿勢を
検出するものである。
Means for Solving the Problems In order to achieve the above object, the inventor of the present invention has conducted intensive studies to make it possible to clearly recognize even a slight change in the posture of an object, and to provide the following invention. Reached. That is, the first aspect of the present invention provides a first and a second inclination sensor for detecting respective rotation angles of a target whose posture can be changed around first and second horizontal axes orthogonal to each other; Based on three image recognition points (L1, L2, L3) provided on the object, image recognition means for image-recognizing the three image recognition points, and recognition information by the image recognition means, Rotation angle calculation means for calculating a rotation angle of a plane including the three image recognition points around a vertical axis orthogonal to the first and second horizontal axes, and a calculation result of the rotation angle calculation means And the rotation angle detected by the first and second tilt sensors, and the posture of the control target object in a coordinate system having the vertical axis and the first and second horizontal axes as three orthogonal axes. It is to detect.

【0006】この請求項1に係る発明では、3個の画像
認識点を含む平面について第1および第2の水平軸と直
交する鉛直軸の回りの回転角を算出し、その算出結果と
第1および第2の傾斜センサにより検出された回転角と
に基づいて、対象物の姿勢が検出される。したがって、
画像データの処理は3個の画像認識点を含む平面の前記
鉛直軸回りの回転角を算出するだけでよく、迅速な姿勢
検出が可能になる。
According to the first aspect of the present invention, a rotation angle about a vertical axis orthogonal to the first and second horizontal axes is calculated for a plane including three image recognition points, and the calculation result and the first rotation angle are calculated. The posture of the target object is detected based on the rotation angle detected by the second tilt sensor. Therefore,
The processing of the image data only needs to calculate the rotation angle of the plane including the three image recognition points around the vertical axis, and quick attitude detection is possible.

【0007】また、請求項2に記載のように、前記画像
認識点が前記対象物に取り付けられ発光する発光素子で
構成されていれば、焦点を絞って3個の画像認識点を明
確に画像認識することができ、請求項3に記載のよう
に、前記第1および第2の傾斜検出手段が、前記対象物
にそれぞれ取り付けられ前記第1および第2の水平軸の
回りにおける前記対象物のそれぞれの回転角を検出する
2個の傾斜センサを有すると、水平面に対する傾斜方向
の回転を簡素な構成で直接高精度に検出することがで
き、検出精度をも高めることができる。
Further, if the image recognition points are constituted by light emitting elements attached to the object and emit light, the three image recognition points can be clearly focused and focused. And wherein said first and second tilt detecting means are attached to said object, respectively, and wherein said first and second tilt detecting means are attached to said object, respectively, around said first and second horizontal axes. If two inclination sensors for detecting the respective rotation angles are provided, the rotation in the inclination direction with respect to the horizontal plane can be directly detected with a simple configuration with high accuracy, and the detection accuracy can be improved.

【0008】請求項4に記載の発明は、姿勢制御可能な
制御対象物と、該制御対象物の姿勢を制御して該制御対
象物の先端位置を制御する制御手段と、前記制御対象物
の姿勢を検出し制御手段にフィードバックする姿勢検出
手段と、を備えた姿勢制御装置において、前記姿勢検出
手段が、互いに直交する第1および第2の水平軸の回り
における前記制御対象物のそれぞれの回転角を検出する
第1および第2の傾斜センサと、前記制御対象物に設け
られた3個の画像認識点(L1、L2、L3)と、該3個
の画像認識点を画像認識する画像認識手段と、該画像認
識手段による認識情報に基づいて、前記第1および第2
の水平軸と直交する鉛直軸回りにおける該3個の画像認
識点を含む平面の回転角を算出する回転角算出手段と、
を有し、該回転角算出手段の算出結果と前記第1および
第2の傾斜センサにより検出された回転角とに基づい
て、前記鉛直軸並びに前記第1および第2の水平軸を直
交3軸とする座標系における前記制御対象物の姿勢を検
出するものである。
According to a fourth aspect of the present invention, there is provided a control object capable of controlling a posture, a control means for controlling a posture of the control object to control a tip position of the control object, and And a posture detecting means for detecting the posture and feeding it back to the control means, wherein the posture detecting means rotates each of the controlled objects around first and second horizontal axes orthogonal to each other. First and second tilt sensors for detecting angles, three image recognition points (L1, L2, L3) provided on the control object, and image recognition for recognizing the three image recognition points Means and the first and second means based on the recognition information by the image recognition means.
Rotation angle calculation means for calculating a rotation angle of a plane including the three image recognition points around a vertical axis orthogonal to the horizontal axis of
Based on the calculation result of the rotation angle calculation means and the rotation angles detected by the first and second inclination sensors, the vertical axis and the first and second horizontal axes are set to three orthogonal axes. The attitude of the control object in the coordinate system is detected.

【0009】この請求項4に係る発明では、第1および
第2の傾斜センサにより直接的に検出された傾斜方向の
回転角と、回転角算出手段の算出結果とを、制御手段へ
のフィードバック情報とすることで、画像データの処理
は3個の画像認識点を含む平面の前記鉛直軸回りの回転
角を算出するだけでよくなり、水平面に対する傾斜方向
の回転も第1および第2の傾斜センサからなる簡素な構
成で直接高精度に検出することができる。したがって、
迅速で高精度の姿勢制御ができる。
According to the present invention, the rotation angle in the inclination direction directly detected by the first and second inclination sensors and the calculation result of the rotation angle calculation means are provided as feedback information to the control means. By doing so, the processing of the image data only needs to calculate the rotation angle of the plane including the three image recognition points about the vertical axis, and the rotation of the plane in the inclination direction with respect to the horizontal plane can be performed by the first and second inclination sensors. And can be directly detected with high accuracy by a simple configuration. Therefore,
Quick and accurate attitude control is possible.

【0010】さらに、請求項5に記載の発明は、アーム
および該アームに支持されたハンドの姿勢を制御し、該
ハンドの先端部を目標位置に移動させるとともに該ハン
ドを目標姿勢に制御する姿勢制御手段と、前記ハンドの
先端部の姿勢を検出し制御手段にフィードバックする姿
勢検出手段と、を備えたロボット制御装置において、前
記姿勢検出手段が、互いに直交する第1および第2の水
平軸の回りにおける前記ハンドのそれぞれの回転角を検
出する第1および第2の傾斜センサと、前記ハンドに取
り付けられ発光する3個の発光素子と、該3個の発光素
子の発光点(L1、L2、L3)を画像認識する画像認識
手段と、該画像認識手段による認識情報に基づいて、前
記第1および第2の水平軸と直交する鉛直軸回りにおけ
る該3個の発光点を含む平面の回転角を算出する回転角
算出手段と、を有し、該回転角算出手段の算出結果と前
記第1および第2の傾斜センサにより検出された回転角
とに基づいて、前記鉛直軸並びに前記第1および第2の
水平軸を直交3軸とする座標系における前記制御対象物
の姿勢を検出するものである。
Further, according to the present invention, the posture of the arm and the hand supported by the arm is controlled to move the tip of the hand to a target position and to control the hand to the target posture. In a robot control device comprising: a control unit; and a posture detection unit that detects a posture of a tip portion of the hand and feeds back the control unit to the control unit, the posture detection unit may include a first and a second horizontal axis orthogonal to each other. First and second inclination sensors for detecting the respective rotation angles of the hand around, three light emitting elements attached to the hand and emitting light, and light emitting points (L1, L2, L3), and the three light emitting points around a vertical axis orthogonal to the first and second horizontal axes are determined based on information recognized by the image recognition means. Rotation angle calculation means for calculating the rotation angle of the plane, and the vertical axis is calculated based on the calculation result of the rotation angle calculation means and the rotation angles detected by the first and second tilt sensors. And detecting the attitude of the controlled object in a coordinate system having the first and second horizontal axes as three orthogonal axes.

【0011】この請求項5に係る発明では、3個の発光
素子の発光点を正確に画像認識することで、これら発光
点を含む平面の鉛直軸回りにおける回転角が正確に算出
され、その算出結果と、第1および第2の傾斜センサに
より直接的に検出された傾斜方向の回転角とが、制御手
段にフィードバックされる。したがって、画像データの
処理は3個の画像認識点を含む平面の前記鉛直軸回りの
回転角を算出するだけでよくなり、水平面に対する傾斜
方向の回転も第1および第2の傾斜センサからなる簡素
な構成で直接高精度に検出することができるから、迅速
で高精度の姿勢制御ができる。さらに、水平面に対する
傾斜方向の回転を傾斜センサによって直接検出すること
で、アームの撓みや駆動系のバックラッシュ等に対する
補償をも可能にし、より精度に優れた姿勢制御を行うこ
とができる。また、請求項6に記載のように、前記第1
および第2の傾斜センサが前記ハンドにそれぞれ取り付
けられると、複雑な外界センサが必要ない簡素なロボッ
ト制御装置となる。
According to the fifth aspect of the present invention, by accurately recognizing the image of the light emitting points of the three light emitting elements, the rotation angle of the plane including these light emitting points around the vertical axis is accurately calculated. The result and the rotation angle in the tilt direction directly detected by the first and second tilt sensors are fed back to the control means. Therefore, the processing of the image data only needs to calculate the rotation angle of the plane including the three image recognition points about the vertical axis, and the rotation of the plane in the inclination direction with respect to the horizontal plane includes the first and second inclination sensors. Since the detection can be directly performed with high accuracy using a simple configuration, the attitude control can be performed quickly and with high accuracy. Further, by directly detecting the rotation in the inclination direction with respect to the horizontal plane by the inclination sensor, it is possible to compensate for the bending of the arm and the backlash of the drive system, etc., and it is possible to perform more accurate posture control. In addition, as set forth in claim 6, the first
When the second tilt sensor and the second tilt sensor are attached to the hand, a simple robot control device that does not require a complicated external sensor is obtained.

【0012】請求項7に記載の発明は、アームおよび該
アームに支持されたハンドの姿勢を制御し、該ハンドの
先端部を目標位置に移動させるとともに該ハンドを目標
姿勢に制御する姿勢制御手段と、前記ハンドの先端部の
位置および姿勢を検出し前記姿勢制御手段にフィードバ
ックする検出手段と、を備えたロボット制御装置におい
て、前記検出手段が、前記ハンドに取り付けられ発光す
る3個の発光素子と、該3個の発光素子の発光点(L
1、L2、L3)を所定方向から画像認識する画像認識手
段と、該画像認識手段の認識画像に基づいて、前記3個
の発光点によって形成される三角形の認識画像と、前記
所定方向における中間基準位置で前記3個の発光点に対
応して形成される三角形の認識画像とを比較して、前記
所定方向における前記ハンドの先端部の位置を検出する
ものである。
According to a seventh aspect of the present invention, there is provided an attitude control means for controlling the attitude of an arm and a hand supported by the arm, moving the tip of the hand to a target position, and controlling the hand to a target attitude. And a detecting means for detecting the position and attitude of the tip of the hand and feeding it back to the attitude control means, wherein the detecting means is attached to the hand and emits light. And the light emitting points (L
1, L2, L3) from a predetermined direction, and an image of a triangle formed by the three light emitting points based on the image recognized by the image recognition means. The position of the distal end of the hand in the predetermined direction is detected by comparing the reference position with a triangular recognition image formed corresponding to the three light emitting points.

【0013】この請求項7に係る発明では、3個の発光
素子の発光点を所定方向から正確に画像認識でき、現在
の位置で3個の発光点によって形成される三角形の認識
画像と、ハンドの中間基準位置で形成される三角形の認
識画像とがほぼ相似関係にあることから、これらの大き
さの比と、画像認識手段から中間基準位置までの既知の
距離とから、前記中間基準位置に対する前記ハンドの位
置を容易に検出することができる。
According to the present invention, the light emitting points of the three light emitting elements can be accurately image-recognized from a predetermined direction, and a triangular recognition image formed by the three light emitting points at the current position and a hand Since the recognition image of the triangle formed at the intermediate reference position is substantially similar to the triangle, the ratio of these sizes and the known distance from the image recognition means to the intermediate reference position, The position of the hand can be easily detected.

【0014】[0014]

【発明の実施の形態】以下、本発明の実施の形態につい
て添付図面を参照しつつ説明する。図1〜図11は本発
明に係る姿勢検出装置およびロボット制御装置の一実施
形態を示す図であり、本発明を双腕多関節型ロボットに
適用した例を示している。まず、その構成について説明
すると、図1および図2において、10は作業支援ロボ
ットとして使用される双腕多関節型ロボットの片腕側で
あり、この片腕側の多関節型ロボット10は、基台部1
1と、基台11から腕状に延びるよう互いに連結して設
けられた複数の可動アーム12、13、14、15、1
6および17と、先端側の可動アーム17に支持された
ハンド18と、を具備している。多関節型ロボット10
は、アーム揺動方向の旋回について4自由度、アーム捩
り方向の回転について3自由度、ハンド18の把持動作
方向について1自由度の計8自由度を有しており、図2
に示すように、可動アーム12、13、15および17
がそれぞれアーム長さ方向の中心軸(以下、アーム中心
軸という)と直交する旋回中心軸を中心にしてアーム揺
動方向に旋回し、可動アーム14、16およびハンド1
8がアーム長さ方向のそれぞれの回転中心軸回りに回転
するようになっている。また、ハンド18は相互に接近
および離隔するよう平行移動可能な左右一対の把持指部
21、22を有しており、これら把持指部21、22は
所定の把持対象物(例えば縫合針)を把持および解放す
るように往復動可能になっている。
Embodiments of the present invention will be described below with reference to the accompanying drawings. 1 to 11 are views showing an embodiment of a posture detection device and a robot control device according to the present invention, and show an example in which the present invention is applied to a dual-arm articulated robot. First, the configuration will be described. In FIGS. 1 and 2, reference numeral 10 denotes one arm of a double-arm articulated robot used as a work support robot. 1
1 and a plurality of movable arms 12, 13, 14, 15, 1 provided to be connected to each other so as to extend in an arm shape from the base 11.
6 and 17 and a hand 18 supported by a movable arm 17 on the distal end side. Articulated robot 10
Has a total of eight degrees of freedom, four degrees of freedom for turning in the arm swing direction, three degrees of freedom for rotation in the arm torsion direction, and one degree of freedom for the gripping direction of the hand 18.
As shown in the figure, the movable arms 12, 13, 15, and 17
Swing in the arm swing direction about a swing center axis orthogonal to a center axis in the arm length direction (hereinafter, referred to as an arm center axis), and the movable arms 14 and 16 and the hand 1
8 rotate around respective rotation center axes in the arm length direction. The hand 18 has a pair of left and right gripping fingers 21 and 22 that can move in parallel so as to approach and separate from each other. It is reciprocable to grip and release.

【0015】基台部11から可動アーム13までの第
1、第2関節は、それらの旋回中心軸15、16を互い
に直交しつつ離間させることによって、食い違いジンバ
ル機構を構成している。また、詳細は図示しないが、可
動アーム15、17の基端側の旋回中心軸15a、17
aを関節軸とする第4および第6関節は、それぞれ平歯
車で減速した後にウォームホイールを用いて旋回駆動す
るものであり、可動アーム14、16およびハンド18
の基端側の第3、第5および第7関節は、それぞれイン
ターナルギヤ(大径内歯車とそれに内接するピニオン)
によって可動アーム14、16およびハンド18を回転
駆動するものである。
The first and second joints from the base section 11 to the movable arm 13 form a staggered gimbal mechanism by separating their turning center axes 15, 16 while being orthogonal to each other. Although not shown in detail, the pivot shafts 15a, 17 on the base end side of the movable arms 15, 17 are not shown.
The fourth and sixth joints each having a joint axis a are driven by a worm wheel after being decelerated by a spur gear, and are driven by the movable arms 14 and 16 and the hand 18.
The 3rd, 5th and 7th joints on the proximal end side are internal gears (large-diameter internal gear and pinion inscribed in it)
This drives the movable arms 14, 16 and the hand 18 to rotate.

【0016】なお、旋回部をウォームホイールで構成し
た理由は、簡素な機構で大きな減速比を得られること、
回転部をインターナルギヤで構成した理由はロボットの
回転中心を駆動歯車と同軸にとることができ、負荷負担
の面で有利だからである。また、通常のジンバル機構は
2軸が同一面上で直交するが、本実施形態における第
1、第2関節部に用いた食い違いジンバル機構は、直交
する2軸間の距離を目的とする可動領域が得られるまで
広げたものである。このジンバル機構の部分はリンクで
構成することもできるが、リンク機構では可動領域を3
0度以上とることが困難であり、剛性および可動領域に
おいて優れたジンバル機構の方が好ましい。前記直交す
る2軸間の距離を0とすると、2方向について互いに円
運動を行うので、この距離は短い方がよく、本実施形態
においては例えば50mmとする。アーム12〜17の胴
部にはCFRP(Carbon Fiber Reinforced Plastic
s)、すなわち、カーボンファイバーをアクリル樹脂で
硬化させた、アクリル−炭素繊維複合材を用いて軽量化
を図るとともに、曲げ圧縮強度を確保している。
The reason why the turning portion is constituted by a worm wheel is that a large reduction ratio can be obtained with a simple mechanism.
The reason why the rotating portion is constituted by the internal gear is that the rotation center of the robot can be coaxial with the drive gear, which is advantageous in terms of load load. In addition, a normal gimbal mechanism has two axes orthogonal to each other on the same plane. However, the staggered gimbal mechanism used for the first and second joints in the present embodiment has a movable area that aims at a distance between two orthogonal axes. Until it is obtained. The gimbal mechanism can be configured by a link, but the link mechanism requires three movable areas.
It is difficult to set the angle to 0 degrees or more, and a gimbal mechanism excellent in rigidity and movable area is preferable. Assuming that the distance between the two orthogonal axes is 0, circular movements are performed in two directions. Therefore, it is better that the distance is short, and in this embodiment, the distance is, for example, 50 mm. The body of arms 12-17 has CFRP (Carbon Fiber Reinforced Plastic)
s) That is, the weight is reduced by using an acrylic-carbon fiber composite material obtained by curing carbon fiber with an acrylic resin, and the bending compressive strength is secured.

【0017】図2において、P1、P2、R3、P4、
R5、P6およびR7は、第1〜第7関節を駆動する駆
動用DCサーボモータであり、これらは図3に示す左腕
側モータドライバ25および右腕側モータドライバ26
のうち一方を介し、コンピュータ27(制御手段、回転
角算出手段)によって駆動制御される。コンピュータ2
7は、内部のメモリデバイスに格納された所定のプログ
ラムに従ってハンド18の目標の位置および姿勢を決定
し、これらサーボモータP1、P2、R3、P4、R
5、P6およびR7からのそれぞれのフィードバック情
報と前記目標の位置および姿勢の情報に基づいて各モー
タの駆動量を演算し、各モータの駆動量を特定する命令
(指令信号)を出力する。そして、この命令に従って例
えばモータドライバ25がDCサーボモータP1、P
2、R3、P4、R5、P6およびR7をPWM( Pul
se Width Modulation;パルス幅変調)駆動し、これら
のモータP1、P2、R3、P4、R5、P6およびR
7が正転および逆転駆動されることで、図示しない減速
機を介して可動アーム12〜17およびハンド18がそ
れぞれ旋回又は回転するようになっている。
In FIG. 2, P1, P2, R3, P4,
R5, P6 and R7 are driving DC servo motors for driving the first to seventh joints, and these are the left arm motor driver 25 and the right arm motor driver 26 shown in FIG.
The driving is controlled by the computer 27 (control means, rotation angle calculation means) via one of the above. Computer 2
7 determines the target position and attitude of the hand 18 according to a predetermined program stored in an internal memory device, and determines the servo motors P1, P2, R3, P4, R
5, a drive amount of each motor is calculated based on the feedback information from P6 and R7 and the information on the target position and attitude, and a command (command signal) for specifying the drive amount of each motor is output. Then, according to this command, for example, the motor driver 25 causes the DC servo motors P1, P
2, R3, P4, R5, P6 and R7 were converted to PWM (Pull
The motors P1, P2, R3, P4, R5, P6 and R
7 is driven forward and reverse, whereby the movable arms 12 to 17 and the hand 18 are each turned or rotated via a speed reducer (not shown).

【0018】コンピュータ27による各モータ駆動量の
演算に際しては、多関節型ロボットのアームの駆動や位
置決めに関する公知の制御と同様にモータP1、P2、
R3、P4、R5、P6およびR7についての基本的な
駆動量を求め、更に、以下に説明するような特定の姿勢
検出およびその検出結果をフィードバック情報とする姿
勢制御によって、所定のモータ、例えばモータP1、P
2およびR3のそれぞれの微小回転量に相当する角度補
正値(目標値からのずれに対する補正値)をれぞれ求め
て、ハンド18の細かな姿勢制御を伴う先端位置制御を
行い、把持対象物の先端を高精度に位置決めするように
なっている。したがって、アームの駆動や位置決めに関
する基本的な制御については、これ以上の詳細説明を省
略し、以下にハンド18の姿勢制御とそのための角度補
正の仕方、ハンド18の把持制御等について説明する。
When calculating the motor drive amounts by the computer 27, the motors P1, P2, and P2 are controlled in the same manner as the known control for driving and positioning the arm of the articulated robot.
A basic drive amount for R3, P4, R5, P6 and R7 is determined, and a specific motor, for example, a motor is controlled by a specific attitude detection as described below and an attitude control using the detection result as feedback information. P1, P
An angle correction value (a correction value for a deviation from a target value) corresponding to each minute rotation amount of each of R2 and R3 is obtained, and tip position control with fine attitude control of the hand 18 is performed to obtain a gripping target object. Is positioned with high precision. Therefore, the basic control regarding the driving and positioning of the arm will not be described in further detail, and the attitude control of the hand 18 and the method of correcting the angle therefor, the grip control of the hand 18 and the like will be described below.

【0019】まず、ハンド18の姿勢制御のための構成
について説明すると、図4に示すように、ハンド18に
は2個のトルク平衡型の傾斜センサ31、32が取り付
けられており、これら傾斜センサ31、32は絶対座標
3軸のうち鉛直軸を除く2軸について(図4においてハ
ンド18の中心点Oを通って直交する水平な軸X、Yの
うち各軸回りで)、ハンド18の回転角を検出できるよ
うになっている。また、ハンド部の姿勢を知るための残
りの1軸、すなわち鉛直軸について(図4においてハン
ド18の中心点Oを通って水平軸X、Yと直交する鉛直
軸Zの軸回りで)の回転角は、傾斜センサでは検出でき
ないので、次に説明する画像処理系33によって検出す
る。
First, a configuration for controlling the attitude of the hand 18 will be described. As shown in FIG. 4, two torque balanced type tilt sensors 31 and 32 are attached to the hand 18 and these tilt sensors are provided. Reference numerals 31 and 32 denote rotations of the hand 18 about two axes of the three absolute coordinate axes except the vertical axis (around each of the horizontal axes X and Y passing through the center point O of the hand 18 in FIG. 4). The corner can be detected. Further, rotation of the remaining one axis for knowing the posture of the hand unit, that is, rotation about the vertical axis (around the axis of the vertical axis Z orthogonal to the horizontal axes X and Y through the center point O of the hand 18 in FIG. 4). Since the angle cannot be detected by the inclination sensor, it is detected by the image processing system 33 described below.

【0020】画像処理系33は、ハンド18に取り付け
られた位置および姿勢検出用の3個のLED(Light-em
itting Diode;発光ダイオード)41、42、43と、
ハンド18に対するLED41〜43の取付面側でハン
ド18から所定距離を隔てた所定位置に固定設置された
CCD(Charge Coupled Device)カメラ45と、を含
んで構成されている。このCCDカメラ45は、画像処
理ボード(Image Processing Board)46を介してコン
ピュータ47に接続されており、CCDカメラ45の出
力データを画像処理ボード46により画像処理してコン
ピュータ47に取り込む画像認識手段が構成されてい
る。また、コンピュータ47は、内部のメモリデバイス
に格納された所定のプログラムに従い、コンピュータ2
7と協働して、予め準備された3次元CADデータに基
づいてハンド18の目標姿勢を決定し、そのイメージを
図5に仮想線で示すようにモニタ48に表示させるとと
もに、これにCCDカメラ45の認識画像(同図に実線
で示すハンド18のイメージ)を重ねて表示させる。こ
こで、絶対座標におけるハンド18のX軸回りの回転角
をローリング角、Y軸回りの回転角をピッチング角、ハ
ンド18の鉛直軸回りの回転角をヨーイング角とする
と、ローリング角およびピッチング角は、それぞれ傾斜
センサ31、32によって検出され、A/D(Analog-t
o-Digital;アナログ・デジタル)コンバータ49を介し
てコンピュータ47に常時フィードバックされる。ま
た、ハンド18の目標姿勢からのずれ、すなわちX軸、
Y軸、Z軸回りで補正すべきハンド18の回転角を、そ
れぞれ補正値Δl、Δm、Δnとすると、補正値Δl、
Δmはそれぞれ傾斜センサ31、32の検出値と目標回
転角の差としてコンピュータ27又は47(回転角算出
手段)によって即座に算出することができる。
The image processing system 33 includes three LEDs (Light-em) for detecting the position and posture attached to the hand 18.
itting Diode; light emitting diode) 41, 42, 43,
And a CCD (Charge Coupled Device) camera 45 fixedly installed at a predetermined position at a predetermined distance from the hand 18 on the mounting surface side of the LEDs 41 to 43 with respect to the hand 18. The CCD camera 45 is connected to a computer 47 via an image processing board (Image Processing Board) 46. Image recognition means for processing the output data of the CCD camera 45 by the image processing board 46 and taking it into the computer 47 is provided. It is configured. Further, the computer 47 operates in accordance with a predetermined program stored in an internal memory device.
7, the target posture of the hand 18 is determined based on the three-dimensional CAD data prepared in advance, and the image is displayed on the monitor 48 as shown by a virtual line in FIG. Forty-five recognition images (images of the hand 18 shown by solid lines in the figure) are displayed in an overlapping manner. Here, assuming that the rotation angle of the hand 18 around the X axis in absolute coordinates is a rolling angle, the rotation angle around the Y axis is a pitching angle, and the rotation angle of the hand 18 around a vertical axis is a yawing angle, the rolling angle and the pitching angle are A / D (Analog-t) is detected by the inclination sensors 31 and 32, respectively.
It is always fed back to the computer 47 via an o-Digital (analog / digital) converter 49. Also, the deviation of the hand 18 from the target posture, that is, the X axis,
Assuming that the rotation angles of the hand 18 to be corrected around the Y axis and the Z axis are correction values Δl, Δm, and Δn, respectively, the correction values Δl,
Δm can be immediately calculated by the computer 27 or 47 (rotation angle calculation means) as the difference between the detection values of the inclination sensors 31 and 32 and the target rotation angle.

【0021】ハンド18のヨーイング角については、L
ED41〜43の各発光点L1、L2、L3を含む平面SL
の絶対座標における傾斜姿勢から、例えば平面SLと絶
対座標における既知の基準平面STとがなす角ΔA(図
6参照)を用いて、計算により求めることができるが、
実際には目標姿勢に対応する平面を設定し、姿勢制御に
必要な補正値Δnの計算処理を行えば足りる。
The yawing angle of the hand 18 is given by L
A plane SL including the light emitting points L1, L2, and L3 of the EDs 41 to 43.
Can be obtained by calculation using the angle ΔA (see FIG. 6) formed by the plane SL and the known reference plane ST in absolute coordinates, for example,
Actually, it suffices to set a plane corresponding to the target posture and perform the calculation processing of the correction value Δn required for the posture control.

【0022】本実施形態においては、ハンド18の先端
位置決め制御において、ハンド18の位置を検出すると
ともに、各発光点L1、L2、L3を含む平面SLの絶対座
標における傾斜姿勢を目標姿勢に近付けるように補正す
る制御を実行する。まず、図7に示すように、LED4
1〜43の発光点L1、L2、L3によって形成される三
角形L1L2L3の認識画像に対し、CCDカメラ45の
向き方向(所定方向)における既知の中間基準位置に前
記CADデータを基にハンド18が目標姿勢のときにC
CDカメラ45によって認識される発光点L1、L2、L
3の認識画像として三角形P1P2P3を設定し、この仮想
の三角形P1P2P3と三角形L1L2L3とを比較する。ま
た、このとき、ハンド18の傾斜方向の姿勢の誤差は傾
斜センサ31、32の検出値に基づいて常時目標値に追
従させるフィードバック制御を行うことにより、三角形
L1L2L3と三角形P1P2P3は鉛直軸回りの回転(ヨー
イング)角の誤差をCCDカメラ45の認識画像情報に
基づいて補正すればよい状態にする。
In the present embodiment, in the tip position control of the hand 18, the position of the hand 18 is detected, and the inclination posture in the absolute coordinates of the plane SL including the light emitting points L1, L2, L3 is brought closer to the target posture. Is executed to perform correction. First, as shown in FIG.
Based on the CAD data, the hand 18 sets a target at a known intermediate reference position in the direction (predetermined direction) of the CCD camera 45 with respect to the recognized image of the triangle L1 L2 L3 formed by the light emitting points L1, L2, L3 of 1 to 43. C when in posture
Light emitting points L1, L2, L recognized by the CD camera 45
A triangle P1P2P3 is set as the recognition image of No. 3, and the virtual triangle P1P2P3 is compared with the triangle L1L2L3. At this time, the triangle L1L2L3 and the triangle P1P2P3 are rotated about a vertical axis by performing feedback control to constantly follow the target value based on the detection values of the inclination sensors 31 and 32 for errors in the posture of the hand 18 in the inclination direction. (Yawing) A state where the error of the angle should be corrected based on the image information recognized by the CCD camera 45 is established.

【0023】この補正について説明すると、まず、ロボ
ット10の先端座標をR(xi、yi、zi)とすると、
第1〜第3関節の関節角度(モータP1、P2、R3が
回転する関節の角度)より、幾何学的に次のように表す
ことができる。 R(xi)=(C2・C3・C4+S2・C4)L+S2・l3 ・・・(1) R(yi)={−(C1・S2・S3+S1・C3)S4+C1・C2・C4}L +C1・C2・l3 ・・・(2) R(zi)={−(C1・S2・S3+S2・C3)S4 +C1・C2・C4}L +C1・C2・l3 ・・・(3) ここで、Cはcosθ、Sはsinθ、Lは可動アーム14か
らハンド18の先端までの全長(図2中にl4 〜l8
であり、CおよびSの添字はモータP1、P2、R3、
P4、R5、P6、R7に対応する関節番号を表すため
のもの、lの添字は図2に示す可動アーム14〜17の
各リンク長さl4 〜l7 又はハンド18の手首から指先
まで長さl8 を表すためのものである。
The correction will be described. First, assuming that the tip coordinate of the robot 10 is R (xi, yi, zi),
From the joint angles of the first to third joints (the angles of the joints at which the motors P1, P2, R3 rotate), they can be expressed geometrically as follows. R (xi) = (C 2 · C 3 · C 4 + S 2 · C 4) L + S 2 · l 3 ··· (1) R (yi) = {- (C 1 · S 2 · S 3 + S 1 · C 3 ) S 4 + C 1 · C 2 · C 4 } L + C 1 · C 2 · l 3 (2) R (zi) = {-(C 1 · S 2 · S 3 + S 2 · C 3 ) S 4 + C 1 · C 2 · C 4 } L + C 1 · C 2 · l 3 (3) where C is cos θ, S is sin θ, and L is the distance from the movable arm 14 to the tip of the hand 18. total length (l 4 to l 8 in FIG. 2)
And the subscripts of C and S are the motors P1, P2, R3,
P4, R5, P6, R7 intended to represent the joint number corresponding to the subscript of l is the length from the wrist of each link length l 4 to l 7 or hand 18 of the movable arm 14-17 shown in FIG. 2 fingertips it is intended to be representative of l 8.

【0024】そして、これを用いて、目標姿勢に対する
ハンド18のローリング角Δl、ピッチング角Δm、ヨ
ーイング角Δnを、補正値として次の式から得ることが
できる。 Δl=cos-1(z/l8 )− cos-1(R(zi)/l8 ) ・・・(4) Δm=cos-1(y/l8 )− cos-1(R(yi)/l8 ) ・・・(5) Δn=cos-1(x/l8 )− cos-1(R(xi)/l8 ) ・・・(6) ここで、x、y、zは、それぞれCCDカメラ45の認
識画像と前記CADデータから特定されるハンド18の
先端座標の各座標成分であり、l8 はハンド18の手首
から手先までの長さである。
Using this, the rolling angle Δl, pitching angle Δm, and yawing angle Δn of the hand 18 with respect to the target attitude can be obtained as correction values from the following equations. Δl = cos −1 (z / l 8 ) −cos −1 (R (zi) / l 8 ) (4) Δm = cos −1 (y / l 8 ) −cos −1 (R (yi) / L 8 ) (5) Δn = cos -1 (x / l 8 )-cos -1 (R (xi) / l 8 ) (6) where x, y, and z are each is a coordinate component of the coordinates of the tip of the hand 18 to be identified from the CAD data and the recognition image of the CCD camera 45, l 8 is the length from the wrist of the hand 18 to the hand.

【0025】上述のようにハンド18の傾斜方向の回転
角Δl、Δmについては傾斜センサ31、32からのフ
ィードバック情報に基づいて常時目標値に補正するか
ら、上記補正値のうち(4)、(5)式を用いた計算は
不要となる。また、負荷重量(これによるアームの撓
み)や駆動系のバックラッシュ等によってもハンド18
の先端部位置は変化するが、傾斜センサ31、32の検
出情報に基づくフィードバック制御を実行することで、
これらアームの撓みや駆動系のバックラッシュ等による
影響をなくすことができる。
As described above, since the rotation angles Δl and Δm of the hand 18 in the tilt direction are constantly corrected to the target values based on the feedback information from the tilt sensors 31 and 32, (4) and ( The calculation using the expression 5) becomes unnecessary. In addition, the hand 18 may also be affected by load weight (bending of the arm due to this), drive system backlash, and the like.
Although the position of the tip changes, feedback control based on the detection information of the inclination sensors 31 and 32 is performed,
It is possible to eliminate the effects of the bending of the arm and the backlash of the drive system.

【0026】ハンド18の目標姿勢に対するヨーイング
角のずれについては、コンピュータ27又は47によっ
て(6)式から求めた補正値Δnを使って、上記画像処
理による補正を繰り返し実行することで、モニタ座標系
とロボット10の先端座標とを迅速にかつ正確に一致さ
せる。これにより、ハンド18が目標姿勢をとることに
なる。因みに、傾斜センサ31、32の検出精度がそれ
ぞれ例えば±0.088度、前記三角形L1L2L3の回
転角についてのそれは±0.4度であるとすると、姿勢
制御の精度としては±0.8度が実現できる。
The deviation of the yaw angle from the target attitude of the hand 18 is repeatedly performed by the computer 27 or 47 using the correction value Δn obtained from the equation (6) by the above-described image processing. And the tip coordinates of the robot 10 are quickly and accurately matched. As a result, the hand 18 takes the target posture. Incidentally, assuming that the detection accuracy of the inclination sensors 31 and 32 is, for example, ± 0.088 degrees and that of the rotation angle of the triangle L1L2L3 is ± 0.4 degrees, the accuracy of the attitude control is ± 0.8 degrees. realizable.

【0027】また、ハンド18のヨーイング角の補正に
より、現在の位置で3個の発光点によって形成される三
角形L1L2L3の認識画像と、ハンド18の目標姿勢に
対応する三角形P1P2P3の認識画像とがほぼ相似形に
なることから、これらの大きさの比、例えば各辺の長さ
の比と、CCDカメラ45から前記中間基準位置までの
既知の距離S1とによって、前記中間基準位置に対する
ハンド18の位置、例えばCCDカメラ45から発光点
L1までの離間距離を正確に検出することができる。し
たがって、上述した姿勢制御を継続しながらハンド18
の位置を目標位置に近づけることで、所要の先端位置の
位置決めが達成できる。
Further, by correcting the yawing angle of the hand 18, the recognized image of the triangle L1L2L3 formed by the three light emitting points at the current position and the recognized image of the triangle P1P2P3 corresponding to the target attitude of the hand 18 are almost equal. Since the shape becomes similar, the position of the hand 18 with respect to the intermediate reference position is determined by the ratio of these sizes, for example, the ratio of the length of each side, and the known distance S1 from the CCD camera 45 to the intermediate reference position. For example, the distance from the CCD camera 45 to the light emitting point L1 can be accurately detected. Therefore, the hand 18 is maintained while continuing the above-described posture control.
The required tip position can be achieved by bringing the position of the target closer to the target position.

【0028】次に、図8および図9を参照して把持制御
系について説明する。把持指部21、22の把持制御系
60は、メインコンピュータ27から独立して把持制御
を行うようになっており、図9(a)に示すように把持
指部21、22の左右両側面に貼り付けられた二対のス
トレーンゲージ81、82、83、84を有している。
これらストレーンゲージ81〜84は、図9(b)に示
すように、電源電池62と共に4ゲージ法ブリッジ回路
61を形成するよう相互に接続されており、このブリッ
ジ回路61の出力電圧はストレーンゲージアンプ63に
より約2000倍の増幅率で増幅されて歪み信号とな
り、この歪み信号が高速8ビットA/D(Analog-to-Di
gital;アナログ・デジタル)コンバータ64によりデジ
タル信号変換され、インターフェース回路66を介して
マイクロプロセッサからなるCPU(Central Processi
ng Unit)67に取り込まれる。このCPU67は、歪
み信号に基づいて把持指部21、22の把持力を演算す
るとともに、予めプログラミングされた設定把持力と演
算結果を比較し、把持力を加減するようモータドライバ
68に命令(指令信号)を出す。このモータドライバ6
8は、CPU67からの命令に従ってマイクロモータで
あるDCサーボモータ69をPWM駆動して正転および
逆転させ、減速機構71を介して把持指部21、22を
開閉させる。そして、このような制御プログラムを高速
でループさせることにより、把持指部21、22に例え
ば図10に示すような一定の把持力で把持対象物(縫合
針)を把持させる。なお、図10は、縦軸を把持力
(N)、横軸を時間(秒)として、直径3.0(mm)の
針を把持力設定値6.0(N)および3.0(N)で把
持制御した場合の特性を示している。また、図11に、
直径0.5(mm)の針を同様に把持制御した場合の特性
を示す。
Next, the grip control system will be described with reference to FIGS. The grip control system 60 of the grip fingers 21 and 22 performs grip control independently of the main computer 27. As shown in FIG. It has two pairs of strain gauges 81, 82, 83, 84 attached.
These strain gauges 81 to 84 are connected to each other so as to form a 4-gauge bridge circuit 61 together with a power supply battery 62, as shown in FIG. 9B. The output voltage of this bridge circuit 61 is a strain gauge amplifier. The signal is amplified at an amplification rate of about 2000 times by the H.63 and becomes a distortion signal. This distortion signal is converted into a high-speed 8-bit A / D (Analog-to-Di-
The digital signal is converted by a gital (analog / digital) converter 64, and a microprocessor (Central Processi
ng Unit) 67. The CPU 67 calculates the gripping force of the gripping finger portions 21 and 22 based on the distortion signal, compares the calculation result with a preset gripping force programmed in advance, and instructs the motor driver 68 to increase or decrease the gripping force (command). Signal). This motor driver 6
In step 8, the DC servomotor 69, which is a micromotor, is driven by PWM according to a command from the CPU 67 to perform normal rotation and reverse rotation, and the gripping finger portions 21 and 22 are opened and closed via the speed reduction mechanism 71. Then, such a control program is looped at a high speed, so that the gripping fingers 21 and 22 grip the gripping target object (suture needle) with a constant gripping force as shown in FIG. 10, for example. In FIG. 10, the vertical axis represents the gripping force (N), and the horizontal axis represents the time (seconds). 3) shows characteristics when gripping control is performed. Also, in FIG.
This shows characteristics when a needle having a diameter of 0.5 (mm) is similarly gripped and controlled.

【0029】上述の装置においては、3個の画像認識点
L1、L2、L3を含む平面SLについてZ軸(鉛直軸)
の回りの回転角(ヨーイング角)が算出され、その算出
結果と傾斜センサ31、32により検出された回転角
(ローリング角、ピッチング角)とに基づいて、ハンド
18の姿勢が検出される。したがって、 CCDカメラ
45の認識画像データの処理は、主に3個の画像認識点
L1、L2、L3を含む平面SLの、Z軸回りにおける目
標姿勢からのずれ角(補正すべき値)を算出するために
行えばよく、迅速な算出によって姿勢検出速度を高める
ことができる。また、画像認識点が3個のLED41、
42、43によって構成されるので、背景色や使用環境
の明るさ等が変化しても、CCDカメラ45の焦点を絞
る等調整して3個の画像認識点L1、L2、L3を常時明
確に画像認識することができる。さらに、ハンド18に
傾斜センサ31、32がそれぞれ取り付けられているの
で、水平面に対するハンド18の傾斜方向の回転角を簡
素な構成で直接高精度に検出することができ、複雑な外
界センサが必要ない簡素で高精度なロボット制御装置が
実現できる。
In the above-described apparatus, the plane SL including the three image recognition points L1, L2, and L3 has a Z axis (vertical axis).
Is calculated, and the attitude of the hand 18 is detected based on the calculation result and the rotation angles (rolling angle, pitching angle) detected by the inclination sensors 31 and 32. Therefore, the processing of the image data recognized by the CCD camera 45 mainly calculates the deviation angle (value to be corrected) of the plane SL including the three image recognition points L1, L2, and L3 from the target posture around the Z axis. The speed of the posture detection can be increased by quick calculation. Also, the image recognition point has three LEDs 41,
Since these are constituted by 42 and 43, the three image recognition points L1, L2, and L3 are always clearly defined by adjusting the focus of the CCD camera 45, etc., even if the background color or the brightness of the use environment changes. Images can be recognized. Furthermore, since the inclination sensors 31 and 32 are attached to the hand 18, the rotation angle of the inclination direction of the hand 18 with respect to the horizontal plane can be directly detected with a simple configuration with high accuracy, and a complicated external sensor is not required. A simple and highly accurate robot controller can be realized.

【0030】さらに、本実施形態においては、第1およ
び第2の傾斜センサ31、32により直接的に検出され
た傾斜方向の回転角と、コンピュータ47(回転角算出
手段)によるΔnの算出結果とを、コンピュータ47
(制御手段)へのフィードバック情報とすることで、第
1および第2の傾斜センサ31、32の検出値と目標姿
勢に対応する回転角とから補正値Δl、Δmを求めるだ
けで、上述のように迅速な画像処理と高精度の姿勢検出
が可能になるから迅速で高精度の姿勢制御ができる。し
かも、水平面に対する傾斜方向の回転角を傾斜センサに
よって直接検出することで、アームの撓みや駆動系のバ
ックラッシュ等に対する補償をも可能にすることができ
る。また、上記姿勢制御に際する画像情報を利用して3
個の発光点で形成される三角形の認識画像と、ハンド1
8の目標姿勢に対応する三角形の認識画像とを比較し
て、ハンド18の位置をも容易に検出することができ、
迅速で高精度な先端位置制御を実行することのできるロ
ボット制御装置を提供することができる。
Further, in the present embodiment, the rotation angle in the tilt direction directly detected by the first and second tilt sensors 31 and 32 and the calculation result of Δn by the computer 47 (rotation angle calculation means) To computer 47
By providing the feedback information to the (control means), the correction values Δl and Δm are simply obtained from the detection values of the first and second tilt sensors 31 and 32 and the rotation angles corresponding to the target attitude, as described above. As a result, quick image processing and high-accuracy posture detection can be performed, thereby enabling quick and high-accuracy posture control. Moreover, by directly detecting the rotation angle in the inclination direction with respect to the horizontal plane by the inclination sensor, it is possible to compensate for bending of the arm, backlash of the drive system, and the like. In addition, using the image information at the time of the attitude control, 3
Recognition image of a triangle formed by three light-emitting points and hand 1
The position of the hand 18 can also be easily detected by comparing with a recognized image of a triangle corresponding to the target posture of No. 8;
It is possible to provide a robot control device that can execute quick and accurate tip position control.

【0031】[0031]

【発明の効果】請求項1に係る発明によれば、画像デー
タの処理は前記画像認識点を含む平面の鉛直軸回りの回
転角を算出するための処理で済み、迅速な姿勢検出を行
うことができる。請求項2に係る発明によれば、発光素
子で構成された3個の画像認識点を明確に画像認識する
ことができる。
According to the first aspect of the present invention, the processing of the image data is sufficient to calculate the rotation angle of the plane including the image recognition point around the vertical axis, and the quick attitude detection is performed. Can be. According to the second aspect of the invention, three image recognition points constituted by light emitting elements can be clearly recognized.

【0032】請求項3に係る発明によれば、水平面に対
する傾斜方向の回転を簡素な構成で直接高精度に検出す
ることができ、検出精度をも高めることができる。請求
項4に係る発明によれば、第1および第2の傾斜センサ
により直接的に検出された傾斜方向の回転角と、回転角
算出手段の算出結果とを、制御手段へのフィードバック
情報とするので、画像データの処理は3個の画像認識点
を含む平面の前記鉛直軸回りの回転角を算出するだけで
よく、水平面に対する傾斜方向の回転も第1および第2
の傾斜センサからなる簡素な構成で直接高精度に検出す
ることができる。その結果、迅速で高精度の姿勢制御が
できる。
According to the third aspect of the present invention, the rotation in the inclined direction with respect to the horizontal plane can be directly detected with a simple configuration with high accuracy, and the detection accuracy can be increased. According to the invention according to claim 4, the rotation angle in the tilt direction directly detected by the first and second tilt sensors and the calculation result of the rotation angle calculation means are used as feedback information to the control means. Therefore, the processing of the image data only needs to calculate the rotation angle of the plane including the three image recognition points about the vertical axis, and the rotation of the plane in the inclination direction with respect to the horizontal plane is the first and second.
With a simple configuration composed of the inclination sensor described above, detection can be directly performed with high accuracy. As a result, quick and accurate attitude control can be performed.

【0033】請求項5に係る発明によれば、3個の発光
素子の発光点を正確に画像認識することで、これら発光
点を含む平面の鉛直軸回りにおける回転角が正確に算出
され、その算出結果と、第1および第2の傾斜センサに
より直接的に検出された傾斜方向の回転角とが制御手段
にフィードバックされるので、迅速で高精度の姿勢制御
ができ、さらに、アームの撓みや駆動系のバックラッシ
ュ等に対する補償もできる。
According to the fifth aspect of the invention, by accurately recognizing the image of the light emitting points of the three light emitting elements, the rotation angle of the plane including these light emitting points about the vertical axis is accurately calculated. Since the calculation result and the rotation angle in the tilt direction directly detected by the first and second tilt sensors are fed back to the control means, quick and highly accurate attitude control can be performed. Compensation for backlash and the like of the drive system can also be made.

【0034】請求項6に係る発明によれば、複雑な外界
センサが必要ない簡素なロボット制御装置となる。請求
項7に係る発明によれば、現在の位置で3個の発光点に
よって形成される三角形の認識画像と、ハンドの中間基
準位置で3個の発光点に対応して形成される三角形の認
識画像とを比較して、前記中間基準位置に対するハンド
の位置を容易に検出することができる。
According to the sixth aspect of the present invention, there is provided a simple robot control device which does not require a complicated external sensor. According to the invention according to claim 7, the recognition image of the triangle formed by the three light emitting points at the current position and the recognition of the triangle formed corresponding to the three light emitting points at the intermediate reference position of the hand. By comparing with the image, the position of the hand with respect to the intermediate reference position can be easily detected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る姿勢検出装置、姿勢制御装置およ
びロボット制御装置の実施形態を示すその多関節ロボッ
ト全体の概略斜視図である。
FIG. 1 is a schematic perspective view of an entire articulated robot showing an embodiment of a posture detection device, a posture control device, and a robot control device according to the present invention.

【図2】図1の多関節ロボットのリンク結合および関節
動作方向を示す説明図である。
FIG. 2 is an explanatory diagram showing a link connection and a joint operation direction of the articulated robot in FIG. 1;

【図3】図1のロボットを制御するロボット制御装置の
全体構成図である。
FIG. 3 is an overall configuration diagram of a robot control device that controls the robot of FIG. 1;

【図4】図1のロボットのハンド部の姿勢検出を行う姿
勢検出装置の斜視図である。
FIG. 4 is a perspective view of a posture detection device that detects the posture of the hand unit of the robot in FIG. 1;

【図5】図4に示す姿勢検出装置の作用説明図である。FIG. 5 is an operation explanatory view of the attitude detection device shown in FIG. 4;

【図6】図4に示す姿勢検出装置の他の作用説明図であ
る。
FIG. 6 is an explanatory diagram of another operation of the attitude detection device shown in FIG.

【図7】図1のロボットのハンド部の姿勢と先端位置を
検出する装置の斜視図である。
FIG. 7 is a perspective view of a device for detecting a posture and a tip position of a hand unit of the robot in FIG. 1;

【図8】図1の多関節ロボットの把持制御系にのブロッ
ク構成図である。
FIG. 8 is a block diagram of a grip control system of the articulated robot of FIG. 1;

【図9】図1の多関節ロボットの手先部の把持指部の斜
視図である。
FIG. 9 is a perspective view of a gripping finger portion of a hand portion of the articulated robot of FIG. 1;

【図10】図9の把持指部に装着された把持力検出回路
の回路図である。
FIG. 10 is a circuit diagram of a gripping force detection circuit mounted on the gripping finger unit of FIG. 9;

【図11】図9の手先部の把持制御時の特性を示す特性
図である。
FIG. 11 is a characteristic diagram showing characteristics at the time of grip control of the hand portion in FIG. 9;

【符号の説明】[Explanation of symbols]

10 双腕多関節型ロボット(作業支援ロボット) 12、13、14、15、16、17 可動アーム 18 ハンド 21、22 把持指 27 コンピュータ(制御手段、回転角算出手段) 31、32 傾斜センサ 41、42、43 LED(発光素子) 45 CCDカメラ(画像認識手段) 46 画像処理ボード(画像認識手段) 47 コンピュータ(画像認識手段、回転角算出手
段) L1、L2、L3 発光点(画像認識点) P1、P2、R3、P4、R5、P6、R7 駆動用
DCサーボモータ
Reference Signs List 10 double-armed articulated robot (work support robot) 12, 13, 14, 15, 16, 17 movable arm 18 hand 21, 22 gripping finger 27 computer (control means, rotation angle calculation means) 31, 32 tilt sensor 41, 42, 43 LED (light emitting element) 45 CCD camera (image recognition means) 46 image processing board (image recognition means) 47 computer (image recognition means, rotation angle calculation means) L1, L2, L3 Light emission point (image recognition point) P1 , P2, R3, P4, R5, P6, R7 DC servo motor for driving

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】姿勢変化可能な対象物について、互いに直
交する第1および第2の水平軸の回りにおけるそれぞれ
の回転角を検出する第1および第2の傾斜センサと、 前記対象物に設けられた3個の画像認識点(L1、L2、
L3)と、 該3個の画像認識点を画像認識する画像認識手段と、 該画像認識手段による認識情報に基づいて、前記第1お
よび第2の水平軸と直交する鉛直軸の回りにおける、前
記3個の画像認識点を含む平面の回転角を算出する回転
角算出手段と、を有し、 該回転角算出手段の算出結果と前記第1および第2の傾
斜センサにより検出された回転角とに基づいて、前記鉛
直軸並びに前記第1および第2の水平軸を直交3軸とす
る座標系における前記対象物の姿勢を検出することを特
徴とする姿勢検出装置。
1. A first and a second inclination sensor for detecting respective rotation angles of a target whose posture can be changed around first and second horizontal axes orthogonal to each other, and provided on the target. Three image recognition points (L1, L2,
L3), image recognition means for image-recognizing the three image recognition points, and based on information recognized by the image recognition means, the image recognition means comprising: a vertical axis orthogonal to the first and second horizontal axes; Rotation angle calculation means for calculating a rotation angle of a plane including three image recognition points, and a calculation result of the rotation angle calculation means and a rotation angle detected by the first and second tilt sensors. A posture detection device for detecting the posture of the object in a coordinate system in which the vertical axis and the first and second horizontal axes are three orthogonal axes, based on
【請求項2】前記画像認識点が前記対象物に取り付けら
れ発光する発光素子で構成されたことを特徴とする請求
項1に記載の姿勢検出装置。
2. The attitude detecting apparatus according to claim 1, wherein said image recognition point is constituted by a light emitting element attached to said object and emitting light.
【請求項3】前記第1および第2の傾斜検出手段が、前
記対象物にそれぞれ取り付けられ前記第1および第2の
水平軸の回りにおける前記対象物のそれぞれの回転角を
検出する2個の傾斜センサを有することを特徴とする請
求項1に記載の姿勢検出装置。
3. The apparatus according to claim 2, wherein said first and second inclination detecting means are attached to said object, respectively, for detecting respective rotation angles of said object about said first and second horizontal axes. The attitude detecting device according to claim 1, further comprising an inclination sensor.
【請求項4】姿勢制御可能な対象物と、該対象物の姿勢
を制御して該対象物の先端位置を制御する制御手段と、
前記対象物の姿勢を検出し制御手段にフィードバックす
る姿勢検出手段と、を備えた姿勢制御装置において、 前記姿勢検出手段が、 互いに直交する第1および第2の水平軸の回りにおける
前記対象物のそれぞれの回転角を検出する第1および第
2の傾斜センサと、 前記対象物に設けられた3個の画像認識点(L1、L2、
L3)と、 該3個の画像認識点を画像認識する画像認識手段と、 該画像認識手段による認識情報に基づいて、前記第1お
よび第2の水平軸と直交する鉛直軸回りにおける該3個
の画像認識点を含む平面の回転角を算出する回転角算出
手段と、を有し、 該回転角算出手段の算出結果と前記第1および第2の傾
斜センサにより検出された回転角とに基づいて、前記鉛
直軸並びに前記第1および第2の水平軸を直交3軸とす
る座標系における前記対象物の姿勢を検出することを特
徴とする姿勢制御装置。
4. An object whose attitude can be controlled, and control means for controlling the attitude of the object to control the tip position of the object;
And a posture detecting means for detecting the posture of the object and feeding it back to a control means. The posture detecting means, wherein the posture detecting means detects the position of the object around first and second horizontal axes orthogonal to each other. First and second tilt sensors for detecting the respective rotation angles; and three image recognition points (L1, L2,
L3); an image recognizing means for recognizing the three image recognizing points; based on the recognition information by the image recognizing means, the three image recognizing points about a vertical axis orthogonal to the first and second horizontal axes. Rotation angle calculation means for calculating a rotation angle of a plane including the image recognition point, based on the calculation result of the rotation angle calculation means and the rotation angles detected by the first and second tilt sensors. An attitude control device for detecting an attitude of the object in a coordinate system in which the vertical axis and the first and second horizontal axes are three orthogonal axes.
【請求項5】アームおよび該アームに支持されたハンド
の姿勢を制御し、該ハンドの先端部を目標位置に移動さ
せるとともに該ハンドを目標姿勢に制御する姿勢制御手
段と、前記ハンドの先端部の姿勢を検出し制御手段にフ
ィードバックする姿勢検出手段と、を備えたロボット制
御装置において、 前記姿勢検出手段が、 互いに直交する第1および第2の水平軸の回りにおける
前記ハンドのそれぞれの回転角を検出する第1および第
2の傾斜センサと、 前記ハンドに取り付けられ発光する3個の発光素子と、 該3個の発光素子の発光点(L1、L2、L3)を画像認
識する画像認識手段と、 該画像認識手段による認識情報に基づいて、前記第1お
よび第2の水平軸と直交する鉛直軸回りにおける該3個
の発光点を含む平面の回転角を算出する回転角算出手段
と、を有し、 該回転角算出手段の算出結果と前記第1および第2の傾
斜センサにより検出された回転角とに基づいて、前記鉛
直軸並びに前記第1および第2の水平軸を直交3軸とす
る座標系における前記ハンドの姿勢を検出することを特
徴とするロボット制御装置。
5. An attitude control means for controlling the attitude of an arm and a hand supported by the arm to move a tip of the hand to a target position and to control the hand to a target attitude, and a tip of the hand. A posture detecting means for detecting a posture of the hand and feeding it back to the control means, wherein the posture detecting means comprises: a rotation angle of each of the hands around first and second horizontal axes orthogonal to each other; First and second tilt sensors for detecting the position, three light-emitting elements attached to the hand and emitting light, and image recognition means for image-recognizing light-emitting points (L1, L2, L3) of the three light-emitting elements. And calculating a rotation angle of a plane including the three light-emitting points around a vertical axis orthogonal to the first and second horizontal axes based on the recognition information by the image recognition means. Angle calculation means, based on the calculation result of the rotation angle calculation means and the rotation angles detected by the first and second tilt sensors, the vertical axis and the first and second horizontal axes. A robot control device for detecting the posture of the hand in a coordinate system having three orthogonal axes.
【請求項6】前記第1および第2の傾斜センサが、前記
ハンドにそれぞれ取り付けられたことを特徴とする請求
項5に記載のロボット制御装置。
6. The robot controller according to claim 5, wherein said first and second inclination sensors are respectively attached to said hand.
【請求項7】アームおよび該アームに支持されたハンド
の姿勢を制御し、該ハンドの先端部を目標位置に移動さ
せるとともに該ハンドを目標姿勢に制御する姿勢制御手
段と、前記ハンドの先端部の位置および姿勢を検出し前
記姿勢制御手段にフィードバックする検出手段と、を備
えたロボット制御装置において、 前記検出手段が、 前記ハンドに取り付けられ発光する3個の発光素子と、 該3個の発光素子の発光点(L1、L2、L3)を所定方
向から画像認識する画像認識手段と、 該画像認識手段の認識画像に基づいて、前記3個の発光
点によって形成される三角形の認識画像と、前記所定方
向における中間基準位置で前記3個の発光点に対応して
形成される三角形の認識画像とを比較して、前記所定方
向における前記ハンドの先端部の位置を検出することを
特徴とするロボット制御装置。
7. An attitude control means for controlling the attitude of the arm and the hand supported by the arm, moving the tip of the hand to a target position, and controlling the hand to a target attitude, and the tip of the hand. And a detecting means for detecting the position and attitude of the hand and feeding it back to the attitude control means, wherein the detecting means is attached to the hand and emits three light-emitting elements; and the three light-emitting elements Image recognition means for recognizing light-emitting points (L1, L2, L3) of the element from a predetermined direction; and a recognition image of a triangle formed by the three light-emitting points based on the recognition image of the image recognition means. The position of the tip of the hand in the predetermined direction is compared with a triangular recognition image formed corresponding to the three light emitting points at the intermediate reference position in the predetermined direction. A robot control device characterized by detecting.
JP33676497A 1997-12-08 1997-12-08 Position detection device, position control device and robot control device Pending JPH11165287A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33676497A JPH11165287A (en) 1997-12-08 1997-12-08 Position detection device, position control device and robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33676497A JPH11165287A (en) 1997-12-08 1997-12-08 Position detection device, position control device and robot control device

Publications (1)

Publication Number Publication Date
JPH11165287A true JPH11165287A (en) 1999-06-22

Family

ID=18302493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33676497A Pending JPH11165287A (en) 1997-12-08 1997-12-08 Position detection device, position control device and robot control device

Country Status (1)

Country Link
JP (1) JPH11165287A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005286211A (en) * 2004-03-30 2005-10-13 Tokyo Electron Ltd Vacuum processing device and method
JP2009285778A (en) * 2008-05-29 2009-12-10 Toyota Industries Corp Posture detecting system of robot hand
WO2012000400A1 (en) * 2010-07-01 2012-01-05 湖南三一智能控制设备有限公司 Method and device for controlling mechanical articulated arm
JP2013094951A (en) * 2011-11-07 2013-05-20 Fujitsu Ltd Gripping device and robot
JP2017047479A (en) * 2015-08-31 2017-03-09 セイコーエプソン株式会社 Robot, control device and robot system
JP2021109618A (en) * 2020-01-15 2021-08-02 住友重機械工業株式会社 Flying body, three-dimensional position and attitude measurement device, and three-dimensional position and attitude measurement method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005286211A (en) * 2004-03-30 2005-10-13 Tokyo Electron Ltd Vacuum processing device and method
JP4524132B2 (en) * 2004-03-30 2010-08-11 東京エレクトロン株式会社 Vacuum processing equipment
JP2009285778A (en) * 2008-05-29 2009-12-10 Toyota Industries Corp Posture detecting system of robot hand
WO2012000400A1 (en) * 2010-07-01 2012-01-05 湖南三一智能控制设备有限公司 Method and device for controlling mechanical articulated arm
US9302392B2 (en) 2010-07-01 2016-04-05 Hunan Sany Intelligent Control Equipment Co., Ltd. Method and device for controlling mechanical articulated arm
JP2013094951A (en) * 2011-11-07 2013-05-20 Fujitsu Ltd Gripping device and robot
JP2017047479A (en) * 2015-08-31 2017-03-09 セイコーエプソン株式会社 Robot, control device and robot system
JP2021109618A (en) * 2020-01-15 2021-08-02 住友重機械工業株式会社 Flying body, three-dimensional position and attitude measurement device, and three-dimensional position and attitude measurement method

Similar Documents

Publication Publication Date Title
US10300597B2 (en) Robot and method of operating robot
US9517560B2 (en) Robot system and calibration method of the robot system
JP6504864B2 (en) Robot control method, robot apparatus, program, recording medium, and article manufacturing method
US6216056B1 (en) Method of controlling force assisting device and control apparatus using the same
US20150114149A1 (en) Robot, robot control device, and robot system
CN108214454B (en) Robot system, robot control device, and robot control method
US9481088B2 (en) Robot control device, robot, and robot system
JP4737160B2 (en) Power assist device and control method thereof
US20180111266A1 (en) Control device, robot, and robot system
JP6153316B2 (en) Robot system and control method of robot system
KR20180069031A (en) Direct teaching method of robot
EP2743040A2 (en) A method of determination of a position of a center of a machining tool gripped in a cooperative gripping head and the cooperative gripping head
JP2013049102A (en) Robot control device and method of determining robot attitude
CN114288025B (en) Orthopedics robot
WO2018143056A1 (en) Arc-point adjustment rod attachment structure, articulated welding robot, and welding device
JP6039382B2 (en) Robot system and control method of robot system
JPH11165287A (en) Position detection device, position control device and robot control device
US20220032448A1 (en) Teaching method and robot system
JP2020069549A (en) Calibration method and gripping system
KR20130000496A (en) Teaching apparatus of robot having acceleration sensor and gyro-sensor and teaching method for robot using the same
CN116852359A (en) TCP (Transmission control protocol) quick calibration device and method based on robot hand teaching device
JPS61118810A (en) Controller of flexible manipulator
JPS60118478A (en) Controller for position of joint type robot
JP2713702B2 (en) Robot control method and device
WO2022210186A1 (en) Control device for calculating parameters for controlling position and posture of robot