JPH08174457A - Method and device for controlling assembling robot - Google Patents

Method and device for controlling assembling robot

Info

Publication number
JPH08174457A
JPH08174457A JP32627294A JP32627294A JPH08174457A JP H08174457 A JPH08174457 A JP H08174457A JP 32627294 A JP32627294 A JP 32627294A JP 32627294 A JP32627294 A JP 32627294A JP H08174457 A JPH08174457 A JP H08174457A
Authority
JP
Japan
Prior art keywords
assembling
robot
work
force
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32627294A
Other languages
Japanese (ja)
Inventor
Tatsuo Echizenya
達夫 越前谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP32627294A priority Critical patent/JPH08174457A/en
Publication of JPH08174457A publication Critical patent/JPH08174457A/en
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Assembly (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE: To provide a method and a device for controlling an assembling robot effective in performing work requiring the complicated action correction, such as assembling work for a bent and flexible work. CONSTITUTION: Before the assembling action is started, the deviation amount of a work to be assembled is found by a detecting data (visual information) of a visual sensor 3, the movement correcting amount of a robot 1 is calculated from the found deviation amount, and the assembling starting position is corrected. After the assembling action is started, the detected data (inner force information) of an inner force sensor 5 is monitored, and the inserting action is performed while correcting the action of the robot 1 in the direction in which force is not applied.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、たとえば柔軟物の組付
作業など、複雑な動作補正を必要とする作業を行う場合
に有効な組立用ロボットの制御方法およびその装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for controlling an assembling robot which is effective when a work requiring complicated motion correction, such as a work for assembling a flexible object, is performed.

【0002】[0002]

【従来の技術】従来、組立用ロボットによりねじ締めな
どの作業をする場合には、視覚センサによりワークの画
像データを取り込み、ロボットの動作位置の補正を行う
ようにしている。
2. Description of the Related Art Conventionally, when an assembly robot carries out work such as screw tightening, image data of a work is taken in by a visual sensor to correct the operating position of the robot.

【0003】[0003]

【発明が解決しようとする課題】ところが、組付用ワー
クには樹脂成形品が多く、樹脂成形品などの柔軟物は製
造後の固体差が大きく部品精度にばらつきがあるため、
これらを組付用ワークとする場合には、人間と同じよう
な感覚で、つまり手(ハンド)に加わる力の具合を感じ
ながら作業を行う必要があり、特に、たとえば曲がった
形状のワークを挿入するなどの難しい作業をするとき
は、きわめて複雑な位置補正をしなければならないの
で、ねじ締めなどの場合のように視覚センサの視覚情報
だけでは対応できない。すなわち、たとえば曲がったチ
ューブの一方を他方に挿入する作業を行う場合には(図
4と図5参照)、力覚による力制御を行って挿入動作の
力を微妙に制御しながら作業を行うことが不可欠であ
る。
However, there are many resin-molded products in the assembly work, and flexible products such as resin-molded products have a large difference in solids after manufacturing, and the precision of parts varies.
When using these as work for assembly, it is necessary to work with the same feeling as a human being, that is, feeling the force applied to the hand, especially when inserting a work with a curved shape, for example. When performing a difficult work such as doing, it is necessary to perform extremely complicated position correction, so it is not possible to deal with it only with the visual information of the visual sensor as in the case of screw tightening. That is, for example, when performing work to insert one of the bent tubes into the other (see FIG. 4 and FIG. 5), the work should be performed while performing force control by force sense to delicately control the force of the insertion operation. Is essential.

【0004】本発明は、このような従来技術の問題点に
鑑みてなされたものであり、たとえば柔軟物の組付作業
など、複雑な動作補正を必要とする作業を行う場合に有
効な組立用ロボットの制御方法およびその装置を提供す
ることを目的とする。
The present invention has been made in view of the above problems of the prior art, and is effective for assembling when performing a work requiring complicated motion correction such as an assembling work of a flexible object. An object of the present invention is to provide a robot control method and its device.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、本発明に係る請求項1記載の組立用ロボットの制御
方法は、ワークの組付作業を自動的に行う組立用ロボッ
トの制御方法であって、組付動作を開始する前に視覚情
報に基づいて組立用ロボットの動作を補正する段階と、
組付動作を開始した後に力覚情報に基づいて組立用ロボ
ットの動作を補正する段階とを有することを特徴とす
る。
In order to achieve the above object, a control method for an assembling robot according to a first aspect of the present invention is a method for controlling an assembling robot for automatically performing work for assembling a work. And a step of correcting the operation of the assembling robot based on the visual information before starting the assembling operation,
After starting the assembling operation, the operation of the assembling robot is corrected based on the force information.

【0006】また、請求項2記載の組立用ロボットの制
御方法は、上記請求項1記載の組立用ロボットの制御方
法において、視覚情報に基づいて組立用ロボットの動作
を補正する段階において、視覚情報により被組付ワーク
の基準位置からのずれ量を求め、求めたずれ量から組立
用ロボットの移動補正量を算出することを特徴とする。
According to a second aspect of the present invention, there is provided an assembly robot control method according to the first aspect, wherein in the step of correcting the operation of the assembly robot based on the visual information, the visual information is corrected. The feature is that the shift amount of the work to be assembled from the reference position is obtained by the above, and the movement correction amount of the assembly robot is calculated from the obtained shift amount.

【0007】また、請求項3記載の組立用ロボットの制
御方法は、上記請求項1記載の組立用ロボットの制御方
法において、力覚情報に基づいて組立用ロボットの動作
を補正する段階において、力覚情報を監視しながら力が
かからない方向に組立用ロボットの動作を補正すること
を特徴とする。
According to a third aspect of the present invention, there is provided an assembly robot control method according to the first aspect, wherein in the step of correcting the operation of the assembly robot based on force information, the force is applied. It is characterized in that the motion of the assembling robot is corrected in a direction in which a force is not applied while monitoring the sense information.

【0008】また、請求項4記載の組立用ロボットの制
御装置は、ワークの組付作業を自動的に行う組立用ロボ
ットの制御装置であって、ワークと組立用ロボット間の
相対位置に関する光学的情報を検出する視覚情報検出手
段と、前記組立用ロボットに装着され、前記組立用ロボ
ットの動作に関する力の情報を検出する力覚情報検出手
段と、組付動作を開始する前に前記視覚情報検出手段の
検出結果に基づいて前記組立用ロボットの動作を補正
し、組付動作を開始した後は前記力覚情報検出手段の検
出結果に基づいて前記組立用ロボットの動作を補正する
補正手段とを有することを特徴とする。
According to a fourth aspect of the present invention, there is provided a control device for an assembling robot, which is an assembling robot control device for automatically performing a work of assembling a work, and which is an optical system regarding a relative position between the work and the assembling robot. Visual information detecting means for detecting information, force information detecting means mounted on the assembling robot for detecting force information relating to the operation of the assembling robot, and visual information detecting before starting the assembling operation. Correction means for correcting the operation of the assembling robot based on the detection result of the means, and for correcting the operation of the assembling robot based on the detection result of the force information detecting means after starting the assembling operation. It is characterized by having.

【0009】[0009]

【作用】上記のように構成された請求項1記載の組立用
ロボットの制御方法にあっては、組付動作を開始する前
に視覚情報に基づいて組立用ロボットの動作を補正した
後、組付動作を開始した後に力覚情報に基づいて組立用
ロボットの動作を補正する。すなわち、視覚情報により
組付開始位置を補正した後、力覚情報により力を微妙に
制御しながら組付作業を行うので、たとえば曲がった形
状の樹脂部品をワークとする場合でも、それらを確実に
組み付けることができる。
According to the control method of the assembling robot according to claim 1 configured as described above, the operation of the assembling robot is corrected based on the visual information before the assembling operation is started, and then the assembling robot is corrected. After the attaching operation is started, the operation of the assembling robot is corrected based on the force information. That is, since the assembling work is performed while the assembly start position is corrected by the visual information and the force is delicately controlled by the force information, even if a bent resin part is used as the work, the assembly work is surely performed. Can be assembled.

【0010】また、請求項2記載の組立用ロボットの制
御方法にあっては、視覚情報に基づいて組立用ロボット
の動作を補正する段階において、視覚情報により被組付
ワークの基準位置からのずれ量を求め、求めたずれ量か
ら組立用ロボットの移動補正量を算出するので、組立用
ロボットを組付開始点に正確に位置決めすることができ
る。
According to a second aspect of the present invention, there is provided a method of controlling an assembling robot, wherein, in the step of correcting the operation of the assembling robot based on the visual information, the visual information deviates from the reference position of the work to be assembled. Since the amount of movement is calculated and the movement correction amount of the assembly robot is calculated from the calculated amount of deviation, the assembly robot can be accurately positioned at the assembly start point.

【0011】また、請求項3記載の組立用ロボットの制
御方法にあっては、力覚情報に基づいて組立用ロボット
の動作を補正する段階において、力覚情報を監視しなが
ら力がかからない方向に組立用ロボットの動作を補正す
るので、組付ワークを被組付ワークにたやすく挿入する
ことができる。
Further, in the assembly robot control method according to the third aspect of the present invention, in the step of correcting the operation of the assembly robot based on the force information, the force is monitored while the force information is monitored. Since the operation of the assembling robot is corrected, the assembled work can be easily inserted into the assembled work.

【0012】また、請求項4記載の組立用ロボットの制
御装置にあっては、視覚情報検出手段はワークと組立用
ロボット間の相対位置に関する光学的情報を検出し、力
覚情報検出手段は組立用ロボットの動作に関する力の情
報を検出する。補正手段は、組付動作を開始する前は視
覚情報検出手段の検出結果(視覚情報)に基づいて組立
用ロボットの動作を補正し、組付動作を開始した後は力
覚情報検出手段の検出結果(力覚情報)に基づいて組立
用ロボットの動作を補正する。すなわち、視覚情報によ
り組付開始位置を補正した後、力覚情報により力を微妙
に制御しながら組付作業を行うので、たとえば曲がった
形状の樹脂部品をワークとする場合でも、それらを確実
に組み付けることができる。
According to another aspect of the control apparatus for the assembling robot, the visual information detecting means detects optical information relating to the relative position between the work and the assembling robot, and the force information detecting means is the assembling means. Detects force information related to the operation of the robot. The correcting means corrects the operation of the assembling robot based on the detection result (visual information) of the visual information detecting means before starting the assembling operation, and detects the haptic information detecting means after starting the assembling operation. The operation of the assembling robot is corrected based on the result (force information). That is, since the assembling work is performed while the assembly start position is corrected by the visual information and the force is delicately controlled by the force information, even if a bent resin part is used as the work, the assembly work is surely performed. Can be assembled.

【0013】[0013]

【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は本発明の一実施例による組立用ロボットの
制御装置の構成を示すブロック図である。このロボット
システムは、ワークを把持して組付作業を行うロボット
本体1(以下、単にロボットという)と、ロボット1の
動作を制御する補正手段としてのロボットコントローラ
2と、ワークなどの視覚情報(たとえば、画像データな
ど)を検出する視覚情報検出手段としての視覚センサ3
と、視覚センサ3を制御するとともにそれからの入力デ
ータを処理する視覚コントローラ4と、ロボット1の動
作に関する力の情報(力覚情報)を検出する力覚情報検
出手段としての力覚センサ5と、力覚センサ5を制御す
るとともにそれからの入力データを処理する力覚コント
ローラ6とを有している。視覚センサ3の検出結果(視
覚情報)は、視覚コントローラ4を介してロボットコン
トローラ2に出力され、力覚センサ5の検出結果(力覚
情報)は、力覚コントローラ6を介してロボットコント
ローラ2に出力される。ロボット1は通常のプレイバッ
クロボットであって、ロボット1に所要の作業をあらか
じめ記憶させるため(教示)、ロボットコントローラ2
には教示の際に使用するリモートコントロール装置であ
る教示盤7が接続されている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a controller for an assembling robot according to an embodiment of the present invention. This robot system includes a robot main body 1 (hereinafter, simply referred to as a robot) that grips a work and performs an assembly work, a robot controller 2 as a correction unit that controls an operation of the robot 1, and visual information (for example, a work). , Image data, etc.) as a visual information detecting means for detecting visual information 3
A visual controller 4 for controlling the visual sensor 3 and processing input data from the visual sensor 4, and a force sensor 5 as force information detecting means for detecting force information (force information) regarding the motion of the robot 1. It has a force sensor 6 that controls the force sensor 5 and processes input data from the force sensor 5. The detection result (visual information) of the visual sensor 3 is output to the robot controller 2 through the visual controller 4, and the detection result (force information) of the force sensor 5 is output to the robot controller 2 through the force controller 6. Is output. The robot 1 is a normal playback robot, and the robot controller 2 is used to store the required work in advance in the robot 1 (teaching).
A teaching board 7, which is a remote control device used for teaching, is connected to.

【0014】図2はロボット1のアーム部分を示す概略
図である。同図に示すように、視覚センサ3と力覚セン
サ5はロボット1の手首(ロボットアーム8とハンド9
の結合部分)に装着されている。視覚センサ3は、たと
えばCCDカメラからなり、被組付ワークの画像データ
を検出する。視覚センサ3の検出信号は視覚コントロー
ラ4に入力され、ここで適当に画像処理されて、ロボッ
トコントローラ2に送られる。また、力覚センサ5は、
たとえば6次元の情報を扱う6軸の力覚センサであっ
て、手(ハンド)9に作用する反力やモーメント(力覚
情報)を直接検出するものである。6次元の力覚情報
は、たとえば、XYZの各軸方向の荷重とモーメントか
らなっている。力覚センサ5の検出データ(力覚情報)
は力覚コントローラ6で入力処理されて、ロボットコン
トローラ2に送られる。本実施例では、後述するよう
に、ロボット1によりワークの組付作業を行うときに、
まず視覚センサ3の検出データ(画像データ)を利用し
てロボット1の組付開始位置を補正し、次に力覚センサ
5の検出データ(力覚情報)を利用して実際の組付動作
を補正するようにしている。なお、本実施例では、視覚
センサ3をロボット1の手首に装着しているが、これに
限定されない。視覚センサ3の取付場所は、ワーク(特
に被組付ワーク)とロボット1との位置関係を光学的に
検出しうるような場所であればどこでもよい。また、図
2中の「10」はハンド9に把持されたワーク(組付ワ
ーク)である。
FIG. 2 is a schematic view showing an arm portion of the robot 1. As shown in the figure, the visual sensor 3 and the force sensor 5 are connected to the wrist of the robot 1 (the robot arm 8 and the hand 9).
It is attached to the joint part). The visual sensor 3 is composed of a CCD camera, for example, and detects image data of the work to be assembled. The detection signal of the visual sensor 3 is input to the visual controller 4, where it is appropriately image-processed and sent to the robot controller 2. Further, the force sensor 5 is
For example, it is a 6-axis force sensor that handles 6-dimensional information, and directly detects a reaction force or moment (force information) acting on the hand 9. The 6-dimensional force sense information includes, for example, loads and moments in the respective XYZ axis directions. Detection data of the force sensor 5 (force information)
Is processed by the force sensor controller 6 and sent to the robot controller 2. In the present embodiment, as will be described later, when the robot 1 carries out work assembly work,
First, the detection data (image data) of the visual sensor 3 is used to correct the assembly start position of the robot 1, and then the detection data (force information) of the force sensor 5 is used to perform an actual assembly operation. I am trying to correct it. Although the visual sensor 3 is attached to the wrist of the robot 1 in this embodiment, the present invention is not limited to this. The visual sensor 3 may be attached anywhere as long as it can optically detect the positional relationship between the work (especially the work to be assembled) and the robot 1. Further, “10” in FIG. 2 is a work (assembly work) held by the hand 9.

【0015】次に、図3のフローチャートを参照して、
ワークを組み付ける場合の動作を説明する。ここでは、
組付作業として、樹脂製の曲がったチューブの一方11
(組付ワーク)を他方12(被組付ワーク)に挿入する
作業(図4と図5参照)を例にとる。
Next, referring to the flowchart of FIG.
The operation when assembling the work will be described. here,
Assembling work, one of the bent tubes 11 made of resin
The operation of inserting the (assembly work) into the other 12 (work to be assembled) (see FIGS. 4 and 5) is taken as an example.

【0016】ロボット1に実際に作業を行わせるには、
あらかじめ、所要の作業をロボット1に教示しておかな
ければならない。すなわち、あらかじめ教示盤7を操作
してロボット1を動かして実際の組付作業を教示するこ
とにより、その作業の順序、条件、位置、およびその他
の情報をロボットコントローラ2内の所定のメモリ(図
示せず)に記憶させる。実際の組付作業は、教示された
順序、条件、位置などの情報を必要に応じて読み出し、
軸モータ制御およびブレーキ制御などを行うことによ
り、その読み出した情報に従って動作の各段階を逐次進
めていく。その際、本実施例では、後述するように、視
覚センサ3の検出データと力覚センサ5の検出データに
より適切に動作を補正するようになっている。
To make the robot 1 actually perform the work,
The required work must be taught to the robot 1 in advance. That is, by operating the teaching board 7 in advance and teaching the actual assembling work by teaching the actual assembling work, the order of the work, conditions, positions, and other information are stored in a predetermined memory (see FIG. (Not shown). In the actual assembly work, information such as the taught order, conditions, position, etc. is read as necessary,
By performing axis motor control and brake control, etc., each step of the operation is sequentially advanced according to the read information. At that time, in this embodiment, as will be described later, the operation is appropriately corrected by the detection data of the visual sensor 3 and the detection data of the force sensor 5.

【0017】図示しない運転スイッチが投入されると、
ロボットコントローラ2は、プレイバック動作によりロ
ボット1をあらかじめ教示された組付開始位置へ移動さ
せる(ステップS1)。
When an operation switch (not shown) is turned on,
The robot controller 2 moves the robot 1 to a pre-instructed assembly start position by a playback operation (step S1).

【0018】ここから実際に組付ワーク11を被組付ワ
ーク12に挿入する際には、まず、視覚センサ3により
視覚コントローラ4の処理を経て被組付ワーク12の画
像データを取り込み(ステップS2)、次のステップS
3とステップS4で挿入位置(組付開始位置)の補正を
行う。
When the assembled work 11 is actually inserted into the assembled work 12 from here, the image data of the assembled work 12 is first fetched through the processing of the visual controller 4 by the visual sensor 3 (step S2). ), The next step S
In step 3 and step S4, the insertion position (assembly start position) is corrected.

【0019】具体的には、図6はステップS2で取り込
んだ画像の一例を示すものであり、本実施例のように挿
入部分が円形をしている場合には、その円の中心点Aを
検出し、その中心点Aが基準位置からどれだけずれてい
るかを算出し、そのずれ量を補償するためのロボット1
の移動補正量を算出し(ステップS3)、ロボット1へ
出力する(ステップS4)。これにより、ロボット1は
ステップS3で求めた補正量だけ移動して、所定の挿入
位置に正確に位置決めされることになる。
Specifically, FIG. 6 shows an example of the image captured in step S2. When the insertion portion is circular as in the present embodiment, the center point A of the circle is A robot 1 for detecting and calculating how much the center point A deviates from the reference position and compensating for the amount of deviation.
Is calculated (step S3) and output to the robot 1 (step S4). As a result, the robot 1 moves by the correction amount obtained in step S3 and is accurately positioned at the predetermined insertion position.

【0020】ロボット1が所定の挿入位置に位置決めさ
れると、ロボット1は挿入動作を開始する(ステップS
5)。
When the robot 1 is positioned at the predetermined insertion position, the robot 1 starts the insertion operation (step S
5).

【0021】本実施例のようにワーク11、12が曲が
った形状をしている場合には、図4に示すようにワーク
11、12を挿入するのが難しく、複雑な位置補正をし
ながら挿入する必要があるので、ステップS6〜ステッ
プS8で力覚センサ5の検出データをフィードバックし
てロボット1の動作を補正する。
When the works 11 and 12 have a curved shape as in this embodiment, it is difficult to insert the works 11 and 12 as shown in FIG. Therefore, in step S6 to step S8, the motion data of the robot 1 is corrected by feeding back the detection data of the force sensor 5.

【0022】具体的には、力覚センサ5の検出データを
力覚コントローラ6を介してロボットコントローラ2に
取り込む(ステップS6)。図7はステップS6で取り
込んだ力覚データの一例であり、この力覚データが零
(0)に近くなる方向、つまり手首に力がかからない方
向にロボット1を動かす指令信号を作出し(ステップS
7)、ロボット1へ出力する(ステップS8)。このよ
うに、手首に力がかからない方向にロボット1の動作を
補正すれば、ワーク11、12の接触抵抗は少なくなる
ので、組付ワーク11は被組付ワーク12に挿入されや
すくなる。そして、この力覚データによる補正(ステッ
プS6〜ステップS8)を挿入が終了するまで(ステッ
プS9)繰り返す。これにより、組付ワーク11は被組
付ワーク12に正確に挿入されることになる。
Specifically, the detection data of the force sensor 5 is taken into the robot controller 2 via the force controller 6 (step S6). FIG. 7 is an example of the force sense data captured in step S6. A command signal for moving the robot 1 in a direction in which the force sense data approaches zero (0), that is, a direction in which no force is applied to the wrist, is generated (step S6).
7), output to the robot 1 (step S8). In this way, if the operation of the robot 1 is corrected in a direction in which no force is applied to the wrist, the contact resistance between the works 11 and 12 is reduced, so that the assembly work 11 is easily inserted into the assembly target work 12. Then, the correction (step S6 to step S8) based on the force data is repeated until the insertion is completed (step S9). As a result, the assembly work 11 is accurately inserted into the assembly work 12.

【0023】したがって、本実施例によれば、視覚セン
サ3の検出データにより挿入位置を補正した後、力覚セ
ンサ5の検出データにより力を微妙に制御しながら挿入
動作を行うので、曲がった形状の樹脂部品をワーク1
1、12とする場合でも、それらを確実に組み付けるこ
とができる。
Therefore, according to this embodiment, since the insertion position is corrected by the detection data of the visual sensor 3 and the insertion operation is performed while the force is delicately controlled by the detection data of the force sensor 5, the bent shape is obtained. Of plastic parts for work 1
Even when the number is set to 1 or 12, they can be surely assembled.

【0024】なお、本実施例では、曲がった形状のワー
クを挿入して組み付ける作業を例にとっているが、本発
明の適用はそのような作業の場合に限定されないことは
もちろんである。たとえば、すべりやすい部位で組み付
ける作業など、力覚による力制御により力を微妙に制御
しながら作業をする場合にも広く適用可能である。
In the present embodiment, the work of inserting and assembling a bent work is taken as an example, but it goes without saying that the application of the present invention is not limited to such work. For example, the present invention can be widely applied to a case where work is performed while delicately controlling the force by force control by force sense, such as a work for assembling at a slippery site.

【0025】[0025]

【発明の効果】以上述べたように、本発明に係る請求項
1記載の組立用ロボットの制御方法によれば、視覚情報
により組付開始位置を補正した後、力覚情報により力を
微妙に制御しながら組付作業を行うので、たとえば曲が
った形状の樹脂部品をワークとする場合など、複雑な位
置補正を必要とする作業の場合でも、ワークを確実に組
み付けることができる。
As described above, according to the control method of the assembling robot according to the first aspect of the present invention, after the assembly start position is corrected by the visual information, the force is delicately changed by the force information. Since the assembling work is performed while controlling the work, the work can be surely assembled even in the case of a work requiring complicated position correction, for example, when a bent resin part is used as the work.

【0026】また、請求項2記載の組立用ロボットの制
御方法によれば、組立用ロボットを組付開始点に正確に
位置決めすることができるので、上記請求項1記載の発
明の効果の実現に資する。
Further, according to the assembling robot control method of the second aspect, the assembling robot can be accurately positioned at the assembling start point, so that the effects of the first aspect of the invention can be realized. To contribute.

【0027】また、請求項3記載の組立用ロボットの制
御方法によれば、組付ワークを被組付ワークにたやすく
挿入することができるので、上記請求項1記載の発明の
効果の実現に資する。
According to the assembling robot control method of the third aspect, since the assembling work can be easily inserted into the assembling work, the effect of the invention according to the first aspect can be realized. To contribute.

【0028】また、請求項4記載の組立用ロボットの制
御装置によれば、視覚情報により組付開始位置を補正し
た後、力覚情報により力を微妙に制御しながら組付作業
を行うので、上記請求項1記載の方法を実現することが
でき、たとえば曲がった形状の樹脂部品をワークとする
場合など、複雑な位置補正を必要とする作業の場合で
も、ワークを確実に組み付けることができる。
Further, according to the assembling robot controller of the present invention, the assembling work is performed while the assembling start position is corrected by the visual information and then the force is delicately controlled by the force information. The method according to claim 1 can be realized, and the work can be surely assembled even in the case of a work that requires complicated position correction, for example, when a bent resin part is used as the work.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施例による組立用ロボットの制
御装置の構成を示すブロック図
FIG. 1 is a block diagram showing the configuration of a controller for an assembly robot according to an embodiment of the present invention.

【図2】 ロボットのアーム部分を示す概略図FIG. 2 is a schematic view showing an arm portion of a robot.

【図3】 本発明の一実施例によるワーク挿入動作のフ
ローチャート
FIG. 3 is a flowchart of a work insertion operation according to an embodiment of the present invention.

【図4】 挿入前のワークの状態を示す図FIG. 4 is a diagram showing a state of the work before insertion.

【図5】 挿入中のワークの状態を示す図FIG. 5 is a diagram showing a state of the work being inserted.

【図6】 取り込まれた画像データの一例を示す図FIG. 6 is a diagram showing an example of captured image data.

【図7】 取り込まれた力覚データの一例を示す図FIG. 7 is a diagram showing an example of captured force data.

【符号の説明】[Explanation of symbols]

1…ロボット本体(組立用ロボット) 2…ロボットコントローラ(補正手段) 3…視覚センサ(視覚情報検出手段) 4…視覚コントローラ 5…力覚センサ(力覚情報検出手段) 6…力覚コントローラ 7…教示盤 10、11、12…ワーク DESCRIPTION OF SYMBOLS 1 ... Robot main body (assembly robot) 2 ... Robot controller (correction means) 3 ... Visual sensor (visual information detection means) 4 ... Visual controller 5 ... Force sensor (force information detection means) 6 ... Force controller 7 ... Teaching board 10, 11, 12 ... Work

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成7年3月16日[Submission date] March 16, 1995

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図4[Name of item to be corrected] Fig. 4

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図4】 [Figure 4]

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図5[Name of item to be corrected] Figure 5

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図5】 [Figure 5]

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ワークの組付作業を自動的に行う組立用
ロボットの制御方法であって、 組付動作を開始する前に視覚情報に基づいて組立用ロボ
ットの動作を補正する段階と、 組付動作を開始した後に力覚情報に基づいて組立用ロボ
ットの動作を補正する段階と、 を有することを特徴とする組立用ロボットの制御方法。
1. A method of controlling an assembling robot for automatically performing an assembling operation of a work, comprising a step of correcting an operation of the assembling robot based on visual information before starting an assembling operation, And a step of correcting the operation of the assembling robot based on the force information after starting the attaching operation.
【請求項2】 視覚情報に基づいて組立用ロボットの動
作を補正する段階において、視覚情報により被組付ワー
クの基準位置からのずれ量を求め、求めたずれ量から組
立用ロボットの移動補正量を算出することを特徴とする
請求項1記載の組立用ロボットの制御方法。
2. In the step of correcting the operation of the assembling robot based on the visual information, the deviation amount of the workpiece to be assembled from the reference position is obtained from the visual information, and the movement correction amount of the assembling robot is calculated from the obtained deviation amount. The control method of the assembling robot according to claim 1, wherein:
【請求項3】 力覚情報に基づいて組立用ロボットの動
作を補正する段階において、力覚情報を監視しながら力
がかからない方向に組立用ロボットの動作を補正するこ
とを特徴とする請求項1記載の組立用ロボットの制御方
法。
3. The operation of the assembling robot is corrected in a direction in which a force is not applied while monitoring the force information in the step of correcting the operation of the assembling robot based on the force information. A method for controlling the described assembly robot.
【請求項4】 ワークの組付作業を自動的に行う組立用
ロボットの制御装置であって、 ワークと組立用ロボット間の相対位置に関する光学的情
報を検出する視覚情報検出手段と、 前記組立用ロボットに装着され、前記組立用ロボットの
動作に関する力の情報を検出する力覚情報検出手段と、 組付動作を開始する前に前記視覚情報検出手段の検出結
果に基づいて前記組立用ロボットの動作を補正し、組付
動作を開始した後は前記力覚情報検出手段の検出結果に
基づいて前記組立用ロボットの動作を補正する補正手段
と、 を有することを特徴とする組立用ロボットの制御装置。
4. A controller for an assembling robot which automatically carries out an assembling work of a work, comprising visual information detecting means for detecting optical information regarding a relative position between the work and the assembling robot, Force information detection means mounted on the robot to detect force information relating to the operation of the assembling robot, and operation of the assembling robot based on the detection result of the visual information detecting means before starting the assembling operation. And a correction means for correcting the operation of the assembling robot based on the detection result of the force information detecting means after starting the assembling operation, and a controller for the assembling robot. .
JP32627294A 1994-12-27 1994-12-27 Method and device for controlling assembling robot Pending JPH08174457A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32627294A JPH08174457A (en) 1994-12-27 1994-12-27 Method and device for controlling assembling robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32627294A JPH08174457A (en) 1994-12-27 1994-12-27 Method and device for controlling assembling robot

Publications (1)

Publication Number Publication Date
JPH08174457A true JPH08174457A (en) 1996-07-09

Family

ID=18185919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32627294A Pending JPH08174457A (en) 1994-12-27 1994-12-27 Method and device for controlling assembling robot

Country Status (1)

Country Link
JP (1) JPH08174457A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10167053A (en) * 1996-12-06 1998-06-23 Toshiba Corp Working device
JP2010142910A (en) * 2008-12-19 2010-07-01 Yaskawa Electric Corp Robot system
JP2011093055A (en) * 2009-10-30 2011-05-12 Honda Motor Co Ltd Information processing method, apparatus, and program
JP2011093056A (en) * 2009-10-30 2011-05-12 Honda Motor Co Ltd Method, device, and program for processing information
JP2011115877A (en) * 2009-12-02 2011-06-16 Canon Inc Double arm robot
WO2012127845A1 (en) 2011-03-24 2012-09-27 Canon Kabushiki Kaisha Robot control apparatus, robot control method, program, and recording medium
EP2570241A2 (en) 2011-09-15 2013-03-20 Kabushiki Kaisha Yaskawa Denki Robot system and imaging method
WO2013080500A1 (en) * 2011-11-30 2013-06-06 パナソニック株式会社 Robot teaching device, robot device, control method for robot teaching device, and control program for robot teaching device
US8600552B2 (en) 2009-10-30 2013-12-03 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
JP2015085501A (en) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 Robot, robot system and robot control device
JP2015164755A (en) * 2014-03-03 2015-09-17 キヤノン株式会社 Robot system, robot system controlling method, program and recording medium
JP2017127908A (en) * 2016-01-18 2017-07-27 ファナック株式会社 Screw fastening device using rotary force outputted by robot
CN111015657A (en) * 2019-12-19 2020-04-17 佛山科学技术学院 Adaptive control method, device and system of industrial robot

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10167053A (en) * 1996-12-06 1998-06-23 Toshiba Corp Working device
JP2010142910A (en) * 2008-12-19 2010-07-01 Yaskawa Electric Corp Robot system
US8600552B2 (en) 2009-10-30 2013-12-03 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
JP2011093055A (en) * 2009-10-30 2011-05-12 Honda Motor Co Ltd Information processing method, apparatus, and program
JP2011093056A (en) * 2009-10-30 2011-05-12 Honda Motor Co Ltd Method, device, and program for processing information
US9073210B2 (en) 2009-10-30 2015-07-07 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
JP2011115877A (en) * 2009-12-02 2011-06-16 Canon Inc Double arm robot
US8977395B2 (en) 2011-03-24 2015-03-10 Canon Kabushiki Kaisha Robot control apparatus, robot control method, program, and recording medium
WO2012127845A1 (en) 2011-03-24 2012-09-27 Canon Kabushiki Kaisha Robot control apparatus, robot control method, program, and recording medium
EP2570241A2 (en) 2011-09-15 2013-03-20 Kabushiki Kaisha Yaskawa Denki Robot system and imaging method
US9272420B2 (en) 2011-09-15 2016-03-01 Kabushiki Kaisha Yaskawa Denki Robot system and imaging method
WO2013080500A1 (en) * 2011-11-30 2013-06-06 パナソニック株式会社 Robot teaching device, robot device, control method for robot teaching device, and control program for robot teaching device
US9211640B2 (en) 2011-11-30 2015-12-15 Panasonic Intellectual Property Management Co., Ltd. Teaching device for robot, robot apparatus, method of controlling teaching device for robot, and control program of teaching device for robot
JP2015085501A (en) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 Robot, robot system and robot control device
JP2015164755A (en) * 2014-03-03 2015-09-17 キヤノン株式会社 Robot system, robot system controlling method, program and recording medium
JP2017127908A (en) * 2016-01-18 2017-07-27 ファナック株式会社 Screw fastening device using rotary force outputted by robot
CN111015657A (en) * 2019-12-19 2020-04-17 佛山科学技术学院 Adaptive control method, device and system of industrial robot

Similar Documents

Publication Publication Date Title
JPH08174457A (en) Method and device for controlling assembling robot
JP3002097B2 (en) Visual tracking method
US7177722B2 (en) Assembling method and apparatus
CN111565895B (en) Robot system and robot control method
US10737384B2 (en) Robot system
JP3644991B2 (en) Coordinate system coupling method in robot-sensor system
EP0511396A1 (en) Method for setting coordinate system of robot
JPH1133960A (en) Method for controlling robot
JP2008134903A (en) Reproduction device for robot teaching
JP2008183690A (en) Robot control device and system
EP0400154A1 (en) Robot operation method that can be manually corrected
WO1990000109A1 (en) Nominal data automatic setting method of visual sensor system
JPH08174460A (en) Method and device for automatically installing work by assembling robot
JPH06126684A (en) Object holder and controll method thereof
JPH08174458A (en) Force controller for assembling robot
JPH08286701A (en) Multi-robot control method and system
JP3287152B2 (en) Automatic assembly of workpieces by assembly robot
JP2707548B2 (en) Coordinate correction method for visual recognition device
JP5324397B2 (en) Information processing method, apparatus and program
JPH0724765A (en) Correction data communication system among robots
CN115674184A (en) Target positioning method and device based on robot vision
KR100224862B1 (en) Apparatus and method for callibration of robot arm
JP3404681B2 (en) Sensor pointing direction sequential control method
JPS60229109A (en) Position correcting system using visual camera
KR20190102414A (en) Apparatus of assembling for structure and method thereof