JP5318727B2 - Information processing method, apparatus and program - Google Patents

Information processing method, apparatus and program Download PDF

Info

Publication number
JP5318727B2
JP5318727B2 JP2009250612A JP2009250612A JP5318727B2 JP 5318727 B2 JP5318727 B2 JP 5318727B2 JP 2009250612 A JP2009250612 A JP 2009250612A JP 2009250612 A JP2009250612 A JP 2009250612A JP 5318727 B2 JP5318727 B2 JP 5318727B2
Authority
JP
Japan
Prior art keywords
control
robot arm
target position
manipulator
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009250612A
Other languages
Japanese (ja)
Other versions
JP2011093055A (en
Inventor
陵 中島
英有 蒲池
玄徳 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2009250612A priority Critical patent/JP5318727B2/en
Priority to US12/913,078 priority patent/US8600552B2/en
Priority to CN2010105283668A priority patent/CN102049779B/en
Publication of JP2011093055A publication Critical patent/JP2011093055A/en
Application granted granted Critical
Publication of JP5318727B2 publication Critical patent/JP5318727B2/en
Priority to US14/067,068 priority patent/US9073210B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To move a manipulator to an object at a high speed, with a high accuracy, and stably as a control system. <P>SOLUTION: The apparatus makes a move control to move a robot arm with a camera mounted thereon, to an object. That is, when the object is not detected, the apparatus executes a teaching playback control to move a manipulator along a route to a target position predetermined based on the position of the object (Step S1). When the object is detected, the apparatus sets a new route to a new target position with a position nearer to the object than the target position as a new target position, and executes the teaching playback control to move the manipulator along the new route until a switching condition to switch the move control is satisfied (Steps S3 and S4). When the switching condition is satisfied, the apparatus executes a visual servo control (Step S5). <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、マニュピュレータの動作を制御する情報処理方法及び装置並びにプログラムに関する。詳しくは、高速、高精度、かつ制御系として安定に、マニュピュレータを対象物まで移動させることが可能な情報処理方法及び装置並びにプログラムに関する。   The present invention relates to an information processing method, apparatus, and program for controlling the operation of a manipulator. More specifically, the present invention relates to an information processing method, apparatus, and program capable of moving a manipulator to an object at high speed, high accuracy, and stably as a control system.

従来より、マニュピュレータを備えるロボットアームは、自動車等の生産ラインに配設され、自動車のドア等をワークとして、ワークの組立時におけるボルト締めの作業を行っている。すなわち、ロボットアームは、ワークの表面に形成されている複数のボルト穴のうち、次にボルト締めを行うボルト穴を対象物として、対象物まで移動して、ボルトを挿入して捻じ込む作業を行う。   2. Description of the Related Art Conventionally, a robot arm including a manipulator is disposed on a production line of an automobile or the like, and performs a bolting operation at the time of assembling the workpiece using an automobile door or the like as a workpiece. That is, the robot arm performs the work of moving to the target object, inserting the bolt, and screwing the bolt hole to be bolted next among the plurality of bolt holes formed on the surface of the workpiece. Do.

ロボットアームを対象物まで移動させる制御として、対象物の位置に基づいて予め設定された位置(以下、「教示位置」と称する)を目標位置として、目標位置までの予め定められた経路に沿って、ロボットアームを移動させるティーチングプレイバック制御が広く用いられている。ティーチングプレイバック制御とは、予め定められた経路に沿ってロボットアームを移動させる動作を事前に教示しておき、この動作を再現させるオープンループ制御をいう。   As control for moving the robot arm to the target, a position set in advance based on the position of the target (hereinafter referred to as “teaching position”) is set as a target position along a predetermined route to the target position. Teaching playback control for moving the robot arm is widely used. Teaching playback control refers to open loop control in which an operation for moving a robot arm along a predetermined path is taught in advance and the operation is reproduced.

しかしながら、実際の作業においては、生産ライン上でのワーク搬送の停止精度や、ワークを生産ライン上で搬送するためのワークパレットの個体差等に起因して、ワークの位置や姿勢にズレが生ずる。このズレのために、教示位置と、ボルト穴の実際の位置との間に誤差が生ずる。
そこで、この誤差を解消すべく、特許文献1及び2には、ロボットアームの先端に取り付けられたカメラにより、ロボットアームの先端の位置とボルト穴の実際の位置との偏差を求め、この偏差に基づいて、ロボットアームの位置補正を行う手法が開示されている。この位置補正には、偏差に基づく値をフィードバック値として用いる所定のフィードバック制御、例えばPID制御が用いられる。
However, in actual work, the position and posture of the workpiece are displaced due to the stopping accuracy of the workpiece conveyance on the production line and the individual difference of the workpiece pallet for conveying the workpiece on the production line. . Due to this deviation, an error occurs between the teaching position and the actual position of the bolt hole.
In order to eliminate this error, Patent Documents 1 and 2 obtain a deviation between the position of the tip of the robot arm and the actual position of the bolt hole by using a camera attached to the tip of the robot arm. Based on this, a method for correcting the position of the robot arm is disclosed. For this position correction, predetermined feedback control using a value based on the deviation as a feedback value, for example, PID control is used.

特開平8−174457号公報JP-A-8-174457 特開2001−246582号公報JP 2001-246582 A

しかしながら、特許文献1及び2を含む従来の手法を適用した場合、ロボットアームは、最初にティーチングプレイバック制御により教示位置まで移動すると、位置補正を行うためのフィードバック制御を実行する前に一旦静止する。このように、ロボットアームが一旦静止する分だけ、ロボットアームの移動開始から位置補正終了までに長時間を要するという課題が生ずる。   However, when the conventional methods including Patent Documents 1 and 2 are applied, when the robot arm first moves to the teaching position by teaching playback control, it temporarily stops before executing feedback control for position correction. . As described above, there arises a problem that it takes a long time from the start of movement of the robot arm to the end of position correction as the robot arm once stops.

そこで、本出願人は、このような課題を解決すべく、ティーチングプレイバック制御によりロボットアームが移動している最中に、カメラ等の視覚装置により対象物が視認されると、位置補正用のフィードバック制御に切り替える、という手法を開発した。   Therefore, in order to solve such a problem, the present applicant, when the object is visually recognized by a visual device such as a camera while the robot arm is moving by teaching playback control, A method of switching to feedback control was developed.

さらに、本出願人は、かかる手法の位置補正用のフィードバック制御としてPID制御を適用すると、PID制御に切り替えたときにロボットアームに不要な振動が生ずる場合があるという知見を得た。このため、本出願人は、かかる手法にとって好適な位置補正用のフィードバック制御として、ビジュアルインピーダンス制御を用いることを見出した。
ビジュアルインピーダンス制御とは、従来のインピーダンス制御に基づく制御であって、従来のインピーダンス制御では実測により与えられていた外力の代わりに、カメラ等の視覚装置の出力情報により与えられる仮想的な外力を用いる制御である。
すなわち、本出願人は、ティーチングプレイバック制御によるロボットアームが移動している最中に、カメラ等の視覚装置により対象物が視認されると、ビジュアルインピーダンス制御に切り替える、という制御手法を開発した。以下、かかる制御手法を「基礎制御手法」と称する。
基礎制御手法については、本出願人により特願2008−310412号として既に出願されている。なお、ビジュアルインピーダンス制御は、特願2008−310412号の願書に添付した明細書においては「非接触型インピーダンス制御」と称されている。
Further, the present applicant has obtained the knowledge that when the PID control is applied as the position correction feedback control of this method, unnecessary vibration may occur in the robot arm when switching to the PID control. For this reason, the present applicant has found that visual impedance control is used as feedback control for position correction suitable for such a method.
Visual impedance control is control based on conventional impedance control, and uses virtual external force given by output information of a visual device such as a camera instead of external force given by actual measurement in conventional impedance control. Control.
That is, the present applicant has developed a control technique in which, when a robot arm is moved by teaching playback control and a target is visually recognized by a visual device such as a camera, the control is switched to visual impedance control. Hereinafter, such a control method is referred to as a “basic control method”.
The basic control method has already been filed as Japanese Patent Application No. 2008-310412 by the present applicant. The visual impedance control is referred to as “non-contact type impedance control” in the specification attached to the application of Japanese Patent Application No. 2008-310412.

基礎制御手法を適用することで、ティーチングプレイバック制御の途中にフィードバック制御に切り替えたときのロボットアームの振動を抑制し、かつ、位置補正に要する時間を短縮することが可能になる。
基礎制御手法は、自動車のドアのボルト締め作業のみならず、マニュピュレータが移動すべき対象物が多数存在するワークの作業に対して広く一般的に適用することが可能である。
By applying the basic control method, it is possible to suppress the vibration of the robot arm when switching to the feedback control in the middle of teaching playback control, and to shorten the time required for position correction.
The basic control method can be widely applied not only to bolting a door of an automobile but also to a work of a workpiece in which a large number of objects to be moved by a manipulator exist.

現状、このような基礎制御手法よりも更に、高速、高精度、かつ制御系として安定に、ロボットアームを対象物まで移動させる手法の実現が望まれている。   At present, it is desired to realize a technique for moving a robot arm to an object more stably than a basic control technique as described above at high speed, high accuracy, and stably as a control system.

本発明は、マニュピュレータの動作を制御する情報処理方法及び装置並びにプログラムであって、基礎制御手法と比較してより一段と高速、高精度、かつ制御系として安定に、マニュピュレータを対象物まで移動させることが可能な情報処理方法及び装置並びにプログラムを提供することを目的とする。   The present invention relates to an information processing method, apparatus, and program for controlling the operation of a manipulator, and is capable of moving a manipulator to an object more quickly, with higher accuracy, and more stably as a control system than a basic control method. It is an object to provide an information processing method, apparatus, and program that can be executed.

本発明の情報処理方法は、対象物(例えば実施形態におけるボルト穴21)を視認可能な視覚装置(例えば実施形態におけるカメラ13)が取り付けられたマニュピュレータ(例えば実施形態におけるロボットアーム11を構成する多関節マニュピュレータ23)を、前記対象物まで移動させる移動制御を行う情報処理装置(例えば実施形態における制御装置15)が実行する情報処理方法において、
前記視覚装置により前記対象物が視認されていない場合に実行される第1のステップであって、前記対象物の位置に基づいて予め設定された目標位置までの経路に沿って、前記マニュピュレータを移動させるティーチングプレイバック制御を実行する第1のステップ(例えば実施形態におけるボルト締め処理のステップS1)と、
第1のステップの実行中に前記視覚装置により前記対象物が視認された場合に実行を開始される第2のステップであって、前記目標位置よりも前記対象物に近い位置を新たな目標位置として、前記新たな目標位置までの新たな経路を設定して、移動制御を切り替えるための切替条件が満たされるまでの間、前記新たな経路に沿って、前記マニュピュレータを移動させる前記ティーチングプレイバック制御を実行する第2のステップ(例えば実施形態におけるボルト締め処理のステップS3及びS4)と、
第2のステップの実行中に前記切替条件が満たされた場合に実行が開始される第3のステップであって、前記視覚装置により視認された前記対象物の位置情報を取得し、前記位置情報をフィードバック情報として用いて前記マニュピュレータを前記対象物まで移動させる視覚サーボ制御を実行する第3のステップ(例えば実施形態におけるボルト締め処理のステップS5)と、
を含むことを特徴とする。
The information processing method of the present invention configures a manipulator (for example, the robot arm 11 in the embodiment) to which a visual device (for example, the camera 13 in the embodiment) that can visually recognize an object (for example, the bolt hole 21 in the embodiment) is attached. In an information processing method executed by an information processing apparatus (for example, the control apparatus 15 in the embodiment) that performs movement control for moving the articulated manipulator 23) to the object,
A first step executed when the object is not visually recognized by the visual device , the manipulator being moved along a path to a target position set in advance based on the position of the object; A first step of executing the teaching playback control to be moved (for example, step S1 of the bolt tightening process in the embodiment);
A second step which is started when the object is visually recognized by the visual device during the execution of the first step, and a position closer to the object than the target position is a new target position; The teaching playback for moving the manipulator along the new route until a switching condition for switching the movement control is satisfied by setting a new route to the new target position A second step of executing control (for example, steps S3 and S4 of the bolting process in the embodiment);
A third step that is executed when the switching condition is satisfied during execution of the second step, and acquires position information of the object visually recognized by the visual device; A third step (for example, step S5 of the bolting process in the embodiment) for executing visual servo control for moving the manipulator to the object using the feedback information as a feedback information;
It is characterized by including.

この発明によれば、ティーチングプレイバック制御を実行する第1のステップの処理中に対象物が視認された場合、視覚サーボ制御を実行する第3のステップに直ちに切り替わるのではなく、次のようなティーチングプレイバック制御を引き続き実行する第2のステップに切り替わる。すなわち、第2のステップとは、目標位置よりも対象物に近い位置を新たな目標位置として、新たな目標位置までの新たな経路を設定して、移動制御を切り替えるための切替条件が満たされるまでの間、新たな経路に沿って、マニュピュレータを移動させるティーチングプレイバック制御を実行するというステップである。そして、第2のステップによるティーチングプレイ制御が実行されている最中に切替条件が満たされると、第3のステップに切り替わる。
これにより、マニュピュレータの速度等の状態を一定の範囲内に収めて、視覚サーボ制御を開始することが可能になる。この「一定の範囲」は、切替条件を適切に設定することで、視覚サーボ制御にとって適切な範囲とすることが容易にできる。この場合、視覚サーボ制御が安定して適切に実行される。その結果、ティーチングプレイバック制御の実行中に対象物が視認された段階で直ちに視覚サーボ制御に切り替える場合と比較して、より一段と高速、高精度、かつ制御系として安定に、マニュピュレータを移動させることが可能になる。
According to the present invention, when an object is visually recognized during the process of the first step for executing the teaching playback control, the process does not immediately switch to the third step for executing the visual servo control. It switches to the 2nd step which continues performing teaching playback control. That is, in the second step, a switching condition for switching movement control is set by setting a new route to a new target position with a position closer to the object than the target position as a new target position. This is a step of executing teaching playback control for moving the manipulator along a new path. Then, when the switching condition is satisfied while the teaching play control in the second step is being executed, the process switches to the third step.
This makes it possible to start visual servo control while keeping the state of the manipulator such as speed within a certain range. This “certain range” can be easily set to an appropriate range for visual servo control by appropriately setting the switching condition. In this case, visual servo control is executed stably and appropriately. As a result, the manipulator can be moved more quickly, with higher accuracy, and more stably as a control system than when switching to visual servo control immediately when an object is visually recognized during teaching playback control. It becomes possible.

この場合、前記第2のステップは、
前記新たな目標位置の1以上の候補及び前記新たな経路の1以上の候補を設定する候補設定ステップ(例えば実施形態におけるティーチングプレイバック制御の修正移動処理のステップS11乃至S17)と、
前記新たな目標位置の1以上の候補及び前記新たな経路の1以上の候補の少なくとも一部に基づいて、前記新たな経路を設定する経路設定ステップ(例えば実施形態におけるティーチングプレイバック制御の修正移動処理のステップS18)と、
前記切替条件が満たされたか否かを判定する判定ステップ(例えば実施形態におけるティーチングプレイバック制御の修正移動処理のステップS20)と、
前記切替条件が満たされていない場合、前記ティーチングプレイバック制御より、前記マニュピュレータを前記新たな経路に沿って移動させる移動ステップ(例えば実施形態におけるティーチングプレイバック制御の修正移動処理のステップS19)と、
判定ステップにおいて前記切替条件が満たされていると判定された場合に実行される切替ステップであって、第2のステップを終了して、第3のステップの実行を開始する切替ステップ(例えば実施形態におけるボルト締め処理のステップS4)と、
を含むようにすることができる。
In this case, the second step is:
A candidate setting step for setting one or more candidates for the new target position and one or more candidates for the new route (for example, steps S11 to S17 of the correction movement process of teaching playback control in the embodiment);
A route setting step for setting the new route based on at least a part of the one or more candidates for the new target position and the one or more candidates for the new route (for example, correction movement of teaching playback control in the embodiment) Processing step S18);
A determination step for determining whether or not the switching condition is satisfied (for example, step S20 of the correction movement process of teaching playback control in the embodiment);
When the switching condition is not satisfied, the moving step of moving the manipulator along the new path from the teaching playback control (for example, step S19 of the correction moving process of the teaching playback control in the embodiment); ,
A switching step that is executed when it is determined in the determination step that the switching condition is satisfied, and is a switching step that ends the second step and starts the execution of the third step (for example, the embodiment) Step S4) of the bolt tightening process in FIG.
Can be included.

この場合、前記候補設定ステップは、
前記視覚装置により視認された前記対象物の位置を検出する対象物検出ステップ(例えば実施形態におけるティーチングプレイバック制御の修正移動処理のステップS13)と、
前記マニュピュレータの位置を検出するマニュピュレータ検出ステップ(例えば実施形態におけるティーチングプレイバック制御の修正移動処理のステップS12)と、
前記対象物の位置及び前記マニュピュレータの位置に基づいて、前記新たな目標位置の候補の1つを設定する目標位置候補設定ステップ(例えば実施形態におけるティーチングプレイバック制御の修正移動処理のステップS14)と、
前記目標位置候補設定ステップの処理により設定された前記新たな目標位置の候補までの経路を、前記新たな経路の候補の1つとして設定する経路候補設定ステップ(例えば実施形態におけるティーチングプレイバック制御の修正移動処理のステップS15)と、
を含み、
前記対象物検出ステップ乃至前記経路候補設定ステップの一連の処理が1以上実行されることで、前記新たな目標位置の1以上の候補及び前記新たな経路の1以上の候補が設定されるようにすることができる。
In this case, the candidate setting step includes:
An object detection step of detecting the position of the object visually recognized by the visual device (for example, step S13 of the correction movement process of teaching playback control in the embodiment);
A manipulator detection step for detecting the position of the manipulator (for example, step S12 of the correction movement process of teaching playback control in the embodiment);
A target position candidate setting step for setting one of the new target position candidates based on the position of the object and the position of the manipulator (for example, step S14 of the correction movement process of teaching playback control in the embodiment). When,
A route candidate setting step for setting a route to the new target position candidate set by the target position candidate setting step as one of the new route candidates (for example, teaching playback control in the embodiment) Step S15) of the correction movement process;
Including
One or more candidates of the new target position and one or more candidates of the new route are set by executing one or more series of processes from the object detection step to the route candidate setting step. can do.

この場合、前記切替条件は、前記マニュピュレータの速度が一定以下になるという第1の条件を含むようにすることもできるし、前記マニュピュレータと前記対象物との位置の偏差が一定以下になるという第2の条件を含むようにすることもできる。ここで、これらの第1の条件と第2の条件とは、相互に独立した条件であるため、各々単体で用いることもできるし、組合せて用いることもできる。   In this case, the switching condition may include a first condition that the speed of the manipulator is less than a certain value, and a deviation in position between the manipulator and the object is less than a certain value. The second condition can also be included. Here, since the first condition and the second condition are mutually independent conditions, they can be used alone or in combination.

本発明の情報処理装置(例えば実施形態における制御装置15)及びプログラム(例えば実施形態におけるCPU101により実行されるプログラム)は、上述の本発明の情報処理方法に対応する装置及びプログラムである。従って、本発明の情報処理装置及びプログラムも、上述の本発明の情報処理方法と同様の効果を奏することが可能になる。   An information processing apparatus (for example, the control device 15 in the embodiment) and a program (for example, a program executed by the CPU 101 in the embodiment) of the present invention are an apparatus and a program corresponding to the information processing method of the present invention described above. Therefore, the information processing apparatus and program of the present invention can also achieve the same effects as the information processing method of the present invention described above.

本発明によれば、視覚装置が取り付けられたマニュピュレータを対象物まで移動させるために、ティーチングプレイバック制御の後に視覚サーボ制御を実行する場合において、マニュピュレータの速度等の状態を一定の範囲内に収めて、視覚サーボ制御を開始することが可能になる。この「一定の範囲」は、視覚サーボ制御に切り替える切替条件を適切に設定することで、視覚サーボ制御にとって適切な範囲とすることが容易にできる。この場合、視覚サーボ制御が安定して適切に実行されるので、高速、高精度、かつ制御系として安定に、マニュピュレータを移動させることが可能になる。   According to the present invention, when visual servo control is executed after teaching playback control in order to move a manipulator to which a visual device is attached to an object, the state of the manipulator such as speed is within a certain range. It becomes possible to start visual servo control. This “certain range” can be easily set to an appropriate range for visual servo control by appropriately setting a switching condition for switching to visual servo control. In this case, visual servo control is executed stably and appropriately, so that the manipulator can be moved at high speed, high accuracy, and stably as a control system.

本発明の一実施形態に係るロボットシステムの概略外観構成を示す斜視図である。1 is a perspective view showing a schematic external configuration of a robot system according to an embodiment of the present invention. 図1のロボットシステムの制御装置の機能的構成例を示す機能ブロック図である。It is a functional block diagram which shows the functional structural example of the control apparatus of the robot system of FIG. 基礎制御手法が有する課題を説明するための図であって、基礎制御手法が適用されたロボットアームの概略構成を示す側面図である。It is a figure for demonstrating the subject which a basic control method has, Comprising: It is a side view which shows schematic structure of the robot arm to which the basic control method was applied. 基礎制御手法が有する課題を説明するための図であって、基礎制御手法が適用されたロボットアームに取り付けられたカメラの撮影画像の例を示す図である。It is a figure for demonstrating the subject which a basic control method has, Comprising: It is a figure which shows the example of the picked-up image of the camera attached to the robot arm to which the basic control method was applied. 基礎制御手法が有する課題を説明するための図であって、基礎制御手法が適用されたロボットアームの速度の時間推移の一例を示すタイミングチャートである。It is a figure for demonstrating the subject which a basic control method has, Comprising: It is a timing chart which shows an example of the time transition of the speed of the robot arm to which the basic control method was applied. 本発明が適用される3ステップ移動制御手法を説明するための図であって、図1のロボットシステムのロボットアームの概略構成を示す側面図である。It is a figure for demonstrating the 3 step movement control method to which this invention is applied, Comprising: It is a side view which shows schematic structure of the robot arm of the robot system of FIG. 本発明が適用される3ステップ移動制御手法を説明するための図であって、図1のロボットシステムのロボットアームの速度の時間推移の一例を示すタイミングチャートである。It is a figure for demonstrating the 3 step movement control method to which this invention is applied, Comprising: It is a timing chart which shows an example of the time transition of the speed of the robot arm of the robot system of FIG. 本発明が適用される3ステップ移動制御手法を説明するための図であって、図1のロボットシステムのロボットアームの位置の目標位置との偏差の時間推移の一例を示すタイミングチャートである。FIG. 3 is a timing chart illustrating an example of a time transition of a deviation from a target position of a robot arm position of the robot system of FIG. 1, for explaining a three-step movement control method to which the present invention is applied. 本発明が適用されるビジュアルインピーダンス制御のパラメータ可変設定手法を説明するための図であって、図1のロボットシステムのロボットアームの速度と、初期ブレーキ量との関係を示す図である。It is a figure for demonstrating the parameter variable setting method of the visual impedance control to which this invention is applied, Comprising: It is a figure which shows the relationship between the speed of the robot arm of the robot system of FIG. 本発明が適用されるビジュアルインピーダンス制御のパラメータ可変設定手法を説明するための図であって、更新前のアクセル量と、更新後のアクセル量との関係を示す図である。It is a figure for demonstrating the parameter variable setting method of the visual impedance control to which this invention is applied, Comprising: It is a figure which shows the relationship between the accelerator amount before an update, and the accelerator amount after an update. 本発明が適用されるビジュアルインピーダンス制御のパラメータ可変設定手法を説明するための図であって、図1のロボットシステムのロボットアームの速度の時間推移の一例を示すタイミングチャートである。It is a figure for demonstrating the parameter variable setting method of the visual impedance control to which this invention is applied, Comprising: It is a timing chart which shows an example of the time transition of the speed of the robot arm of the robot system of FIG. 本発明が適用されるビジュアルインピーダンス制御のパラメータ可変設定手法を説明するための図であって、図1のロボットシステムのロボットアームの位置の目標位置との偏差の時間推移の一例を示すタイミングチャートである。FIG. 3 is a diagram for explaining a variable parameter setting method for visual impedance control to which the present invention is applied, and is a timing chart showing an example of a time transition of a deviation from a target position of a robot arm position of the robot system of FIG. 1. is there. 本発明が適用されるビジュアルインピーダンス制御のパラメータ可変設定手法を説明するための図であって、図1のロボットシステムのロボットアームの速度と、更新後のブレーキ量との関係を示す図である。It is a figure for demonstrating the parameter variable setting method of the visual impedance control to which this invention is applied, Comprising: It is a figure which shows the relationship between the speed of the robot arm of the robot system of FIG. 1, and the brake amount after an update. 図2の制御装置のハードウェアの構成例を示すブロック図である。It is a block diagram which shows the structural example of the hardware of the control apparatus of FIG. 図14の制御装置によるボルト締め処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the bolt fastening process by the control apparatus of FIG. 図15のボルト締め処理のティーチングプレイバック制御の修正移動処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the correction movement process of teaching playback control of the bolt fastening process of FIG. 図15のボルト締め処理のビジュアルフィードバック処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the visual feedback process of the bolt fastening process of FIG.

以下、本発明の一実施形態を図面に基づいて説明する。
図1は、本発明の一実施形態に係るロボットシステム1の概略外観構成を示す斜視図である。
例えば、ロボットシステム1は、自動車の生産ラインに配設され、自動車のドア等をワーク2として、ワーク2の組立時におけるボルト締めを行う。すなわち、ワーク2の表面においては、N個の予め規定されている位置(以下、「規定位置」と称する)の各々にボルト穴21−1乃至21―N(図1にはボルト穴21−1乃至21−4のみ図示)が形成されている。なお、Nは、1以上の整数値であり、図1の例では4以上の整数値である。ロボットシステム1は、ボルト穴21−1乃至21―Nの各々に対して、ボルトを挿入して捻じ込む作業を行う。
なお、以下、ボルト穴21−1乃至21―Nを個々に区別する必要が無い場合、これらをまとめて「ボルト穴21」と称する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a perspective view showing a schematic external configuration of a robot system 1 according to an embodiment of the present invention.
For example, the robot system 1 is disposed on a production line of an automobile, and uses a car door or the like as a work 2 to perform bolting when the work 2 is assembled. That is, on the surface of the workpiece 2, bolt holes 21-1 to 21 -N (in FIG. 1, bolt holes 21-1) are provided at each of N predetermined positions (hereinafter referred to as “specified positions”). To 21-4 are shown). N is an integer value of 1 or more, and is an integer value of 4 or more in the example of FIG. The robot system 1 performs an operation of inserting a bolt and screwing it into each of the bolt holes 21-1 to 21-N.
Hereinafter, when there is no need to individually distinguish the bolt holes 21-1 to 21-N, they are collectively referred to as “bolt holes 21”.

ロボットシステム1は、ロボットアーム11と、エンドエフェクタ12と、カメラ13と、ロボットアーム駆動装置14と、制御装置15と、を備える。   The robot system 1 includes a robot arm 11, an end effector 12, a camera 13, a robot arm driving device 14, and a control device 15.

ロボットアーム11は、ロボットベース22と、そのロボットベース22に旋回可能に取り付けられる多関節マニュピュレータ23と、を備える。
多関節マニュピュレータ23は、関節31a乃至31dと、連結部材32a乃至32eと、各関節31a乃至31dを回転させるサーボモータ(図示せず)と、サーボモータの位置、速度、電流等の各種状態を検出する検出器(図示せず)と、を備える。
各サーボモータによる各関節31a乃至31dの回転動作と、それらの回転動作に連動する各連結部材32a乃至32eの移動動作との組合せにより、多関節マニュピュレータ23の全体の動作、すなわちロボットアーム11の全体の動作が実現される。
The robot arm 11 includes a robot base 22 and an articulated manipulator 23 attached to the robot base 22 so as to be turnable.
The multi-joint manipulator 23 has various states such as joints 31a to 31d, connecting members 32a to 32e, a servo motor (not shown) for rotating the joints 31a to 31d, and the position, speed, and current of the servo motor. And a detector (not shown) for detection.
The entire operation of the multi-joint manipulator 23, that is, the robot arm 11 is combined by a combination of the rotation operation of each joint 31a to 31d by each servo motor and the movement operation of each connecting member 32a to 32e interlocked with the rotation operation. Overall operation is realized.

エンドエフェクタ12は、多関節マニュピュレータ23の連結部材32eの先端に取り付けられ、ボルト穴21に対してボルトを挿入して捻じ込む動作をする。   The end effector 12 is attached to the tip of the connecting member 32e of the articulated manipulator 23, and operates to insert a bolt into the bolt hole 21 and screw it.

カメラ13は、エンドエフェクタ12の先端を画角の中心として撮影できるように、多関節マニュピュレータ23の連結部材32eの外周部に固定して取り付けられている。
カメラ13は、エンドエフェクタ12の先端の方向に対して、画角の範囲内にある画像を撮影する。以下、カメラ13により撮影された画像を、「撮影画像」と称する。ここで、本実施形態では、画角の中心であるエンドエフェクタ12の先端の位置が、ロボットアーム11の位置として採用されている。これにより、撮影画像の中心位置がロボットアーム11の位置となるため、後述する制御装置15は、撮影画像の画像データに対して画像処理を施すことで、撮影画像に含まれる各被写体についての、ロボットアーム11の位置に対する相対位置を容易に求めることができる。
The camera 13 is fixedly attached to the outer peripheral portion of the connection member 32e of the articulated manipulator 23 so that the end effector 12 can be photographed with the angle of view as the center.
The camera 13 captures an image within the range of the angle of view with respect to the direction of the tip of the end effector 12. Hereinafter, an image captured by the camera 13 is referred to as a “captured image”. Here, in this embodiment, the position of the tip of the end effector 12 that is the center of the angle of view is adopted as the position of the robot arm 11. As a result, since the center position of the captured image becomes the position of the robot arm 11, the control device 15 to be described later performs image processing on the image data of the captured image, so that each subject included in the captured image is processed. The relative position with respect to the position of the robot arm 11 can be easily obtained.

ロボットアーム駆動装置14には、ロボットアーム11を目標位置まで移動させる指令(以下、「移動指令」と称する)が、後述する制御装置15から供給される。そこで、ロボットアーム駆動装置14は、移動指令に従って、多関節マニュピュレータ23に内蔵された各検出器の検出値をフィードバック値として用いて、多関節マニュピュレータ23に内蔵された各サーボモータに対するトルク(電流)制御を行う。これにより、多関節マニュピュレータ23の全体の動作、すなわちロボットアーム11の全体の動作が制御される。
ロボットアーム駆動装置14は、このような制御中に、フィードバック値に基づいてロボットアーム11の位置や速度等の各種状態を逐次検出し、その検出結果を状態情報として制御装置15に供給する。
A command for moving the robot arm 11 to a target position (hereinafter referred to as “movement command”) is supplied to the robot arm drive device 14 from a control device 15 described later. Therefore, the robot arm driving device 14 uses the detection value of each detector built in the multi-joint manipulator 23 as a feedback value in accordance with the movement command, and uses the torque (for each servo motor built in the multi-joint manipulator 23 ( (Current) control. Thereby, the entire operation of the articulated manipulator 23, that is, the entire operation of the robot arm 11 is controlled.
During such control, the robot arm drive device 14 sequentially detects various states such as the position and speed of the robot arm 11 based on the feedback value, and supplies the detection results to the control device 15 as state information.

制御装置15は、ロボットシステム1の全体の動作を制御する。
図2は、制御装置15の機能的構成例を示す機能ブロック図である。
The control device 15 controls the overall operation of the robot system 1.
FIG. 2 is a functional block diagram illustrating a functional configuration example of the control device 15.

制御装置15は、ロボットアーム制御部41と、エンドエフェクタ制御部42と、を備える。
ロボットアーム制御部41は、ロボットアーム駆動装置14を介して、ロボットアーム11の移動を制御する。ロボットアーム11は、この制御により、ボルト穴21まで移動する。
エンドエフェクタ制御部42は、ロボットアーム11がボルト穴21まで移動すると、エンドエフェクタ12を制御する。エンドエフェクタ12は、この制御により、ボルトをボルト穴21に挿入して捻じ込む。
The control device 15 includes a robot arm control unit 41 and an end effector control unit 42.
The robot arm control unit 41 controls the movement of the robot arm 11 via the robot arm driving device 14. The robot arm 11 moves to the bolt hole 21 by this control.
The end effector control unit 42 controls the end effector 12 when the robot arm 11 moves to the bolt hole 21. Under this control, the end effector 12 is inserted and screwed into the bolt hole 21.

以下、ロボットアーム制御部41の詳細について説明する。
ロボットアーム制御部41は、ティーチングプレイバック制御部51と、視覚サーボ制御部52と、制御切替部53と、画像処理部54と、ロボットアーム状態取得部55と、を備える。
Details of the robot arm control unit 41 will be described below.
The robot arm control unit 41 includes a teaching playback control unit 51, a visual servo control unit 52, a control switching unit 53, an image processing unit 54, and a robot arm state acquisition unit 55.

ティーチングプレイバック制御部51は、予め設定された所定の経路に沿ってロボットアーム11を移動させるティーチングプレイバック制御を実行する。
ティーチングプレイバック制御部51は、教示位置保持部61と、目標位置決定部62と、移動指令生成部63と、を備える。
教示位置保持部61は、ティーチングプレイバック制御で用いられる経路の情報を保持する。すなわち、予め教示により設定された1以上の教示位置を、予め設定された所定の順番で結ぶことで形成される経路が、ティーチングプレイバック制御において用いられている。従って、1以上の教示位置に関する情報、例えばその座標や経路内の順番を示す情報が、教示位置保持部61に保持される。
目標位置決定部62は、教示位置保持部61の保持内容から、次回の教示位置を認識する。そして、目標位置決定部62は、次回の教示位置に基づいて、ロボットアーム11の次回の目標位置を決定し、移動指令生成部63に通知する。なお、目標位置決定部62による目標位置の決定手法の詳細については、図3乃至図8等の図面を参照して後述する。
移動指令生成部63は、目標位置決定部62から通知された目標位置に基づいて移動指令を生成し、制御切替部53を介してロボットアーム駆動装置14に供給する。すると、上述したように、ロボットアーム駆動装置14は、この移動指令に従って、ロボットアーム11を目標位置まで移動させる。
The teaching playback control unit 51 performs teaching playback control for moving the robot arm 11 along a predetermined path set in advance.
The teaching playback control unit 51 includes a teaching position holding unit 61, a target position determining unit 62, and a movement command generating unit 63.
The teaching position holding unit 61 holds information on a route used in teaching playback control. That is, a path formed by connecting one or more teaching positions set by teaching in a predetermined order set in advance is used in teaching playback control. Therefore, information on one or more teaching positions, for example, information indicating the coordinates and the order in the route is held in the teaching position holding unit 61.
The target position determination unit 62 recognizes the next teaching position from the content held by the teaching position holding unit 61. Then, the target position determination unit 62 determines the next target position of the robot arm 11 based on the next teaching position, and notifies the movement command generation unit 63 of it. The details of the target position determination method by the target position determination unit 62 will be described later with reference to FIGS. 3 to 8 and other drawings.
The movement command generation unit 63 generates a movement command based on the target position notified from the target position determination unit 62 and supplies the movement command to the robot arm driving device 14 via the control switching unit 53. Then, as described above, the robot arm driving device 14 moves the robot arm 11 to the target position in accordance with this movement command.

このようなティーチングプレイバック制御によりロボットアーム11が目標位置に向けて移動している最中に所定の条件が満たされると、制御切替部53は、ロボットアーム11の動作の制御を、ティーチングプレイバック制御部51によるティーチングプレイバック制御から、視覚サーボ制御部52による視覚サーボ制御に切り替える。
なお、制御を切り替えるための所定の条件(以下、「制御切替条件」と称する)の具体例については、図7や図8を参照して後述する。
When a predetermined condition is satisfied while the robot arm 11 is moving toward the target position by such teaching playback control, the control switching unit 53 controls the operation of the robot arm 11 to perform teaching playback. The teaching playback control by the control unit 51 is switched to the visual servo control by the visual servo control unit 52.
A specific example of a predetermined condition for switching control (hereinafter referred to as “control switching condition”) will be described later with reference to FIGS. 7 and 8.

視覚サーボ制御部52は、カメラ13の撮影画像に基づく情報をフィードバック情報として用いる所定の視覚サーボ制御により、移動指令を生成して、制御切替部53を介してロボットアーム駆動装置14に供給する。   The visual servo control unit 52 generates a movement command by predetermined visual servo control using information based on the captured image of the camera 13 as feedback information, and supplies the movement command to the robot arm driving device 14 via the control switching unit 53.

本実施形態では、視覚サーボ制御として、ビジュアルインピーダンス制御が用いられている。ビジュアルインピーダンス制御とは、従来のインピーダンス制御に基づいて、本出願人が開発し、特願2008−310412号として既に特許出願をしている非接触型インピーダンス制御をいう。   In this embodiment, visual impedance control is used as visual servo control. Visual impedance control refers to non-contact impedance control developed by the present applicant based on conventional impedance control and already filed as Japanese Patent Application No. 2008-310412.

従来のインピーダンス制御とは、例えばロボットのエンドエフェクタについての機械的インピーダンス、すなわち、質量(マス)、粘性(ダンパ)、及び弾性(バネ)を所望の値に設定して行う位置や力の制御をいう。具体的には、インピーダンス制御は、次の式(1)を用いて行われる。

Figure 0005318727
・・・(1)
式(1)において、Md,Dd,Kdのそれぞれが、質量(マス)、粘性(ダンパ)、及び弾性(バネ)の各々のインピーダンスのパラメータを示している。Xは、ロボットのエンドエフェクタの位置を示し、Xdは、ロボットのエンドエフェクタの目標位置を示している。Fは、ロボットのエンドエフェクタにかかる外力を示している。従来においては、質量Md,粘性Dd,弾性Kdのそれぞれは、所望の動特性が得られるようにソフトウェア上で設定されていた。
従来のインピーダンス制御では、ロボットのエンドエフェクタが物体に接触していることが前提とされる。このため、ロボットのエンドエフェクタに搭載されたセンサにより外力Fが実測され、その実測値がフィードバック値として用いられていた。このような物体の接触が前提となる従来のインピーダンス制御を、以下、「接触型インピーダンス制御」と称する。 Conventional impedance control is, for example, mechanical impedance of a robot end effector, that is, position and force control performed by setting mass (mass), viscosity (damper), and elasticity (spring) to desired values. Say. Specifically, impedance control is performed using the following equation (1).
Figure 0005318727
... (1)
In the equation (1), each of Md, Dd, and Kd represents an impedance parameter of each of mass (mass), viscosity (damper), and elasticity (spring). X represents the position of the end effector of the robot, and Xd represents the target position of the end effector of the robot. F indicates an external force applied to the end effector of the robot. Conventionally, each of the mass Md, the viscosity Dd, and the elasticity Kd is set on software so that desired dynamic characteristics can be obtained.
In conventional impedance control, it is assumed that the end effector of the robot is in contact with an object. For this reason, the external force F is measured by a sensor mounted on the end effector of the robot, and the measured value is used as a feedback value. Such conventional impedance control based on the contact of an object is hereinafter referred to as “contact impedance control”.

これに対して、視覚サーボ制御部52が実行するビジュアルインピーダンス制御は、ボルト穴21に対するボルト締め作業の前に、ロボットアーム11をボルト穴21まで移動させるために用いられる。この場合、ロボットアーム11は、ボルト穴21が形成されたワーク2に接触しない状態で移動する。このように、ビジュアルインピーダンス制御とは、ロボットアーム11等の物体が接触されないことが前提となるインピーダンス制御である。このため、ビジュアルインピーダンス制御は、特願2008−310412号の願書に添付した明細書においては「非接触型インピーダンス制御」と称されている。
ビジュアルインピーダンス制御では、外力Fの実測はできないので、ロボットアーム11の位置Xの目標位置Xdに対する偏差(X−Xd)が、ロボットアーム11のワーク2に対する仮想接触量として用いられる。そして、式(2)に示すように、この仮想接触量である偏差(X−Xd)を用いて、エンドエフェクタ12にかかる仮想的な外力Fが算出される。

Figure 0005318727
・・・(2)
式(2)において、右辺のfは、偏差(X−Xd)を入力パラメータとする所定の関数を示している。具体的には例えば本実施形態では、式(2)として、次の式(3)が採用されている。なお、式(3)におけるλは所定の定数を示している。
Figure 0005318727
・・・(3)
式(3)を式(1)に代入して変形すると、次の式(4)が得られる。
Figure 0005318727
・・・(4)
式(4)におけるFαは、次の式(5)に示す通り、偏差(X−Xd)により可変するパラメータ、すなわち、仮想的な外力Fに基づくパラメータである。
Figure 0005318727
・・・(5)
パラメータFαは、式(4)より、値が増加すると左辺の加速度を増加させる機能、すなわち、自動車の運転に例えるならばいわゆるアクセルの機能を有している。そこで、以下、パラメータFαを、「アクセル量Fα」と称する。
一方、パラメータDdは、上述のごとく仮想の粘性(ダンパ)を示しているが、式(4)より、値が増加すると左辺の加速度を減少させる機能、すなわち、自動車の運転に例えるならばいわゆるブレーキの機能を有している。そこで、以下、パラメータDdを、「ブレーキ量Dd」と称する。
Vは、ロボットアーム11の速度を示している。ロボットアーム11の速度Vは、本実施形態ではロボットアーム駆動装置14から制御装置15に供給される状態情報に含まれている。 On the other hand, the visual impedance control executed by the visual servo control unit 52 is used to move the robot arm 11 to the bolt hole 21 before the bolting operation for the bolt hole 21. In this case, the robot arm 11 moves without contacting the workpiece 2 in which the bolt hole 21 is formed. Thus, visual impedance control is impedance control on the premise that an object such as the robot arm 11 is not touched. For this reason, the visual impedance control is referred to as “non-contact type impedance control” in the specification attached to the application of Japanese Patent Application No. 2008-310412.
In the visual impedance control, since the external force F cannot be actually measured, the deviation (X−Xd) of the position X of the robot arm 11 from the target position Xd is used as a virtual contact amount of the robot arm 11 with respect to the workpiece 2. Then, as shown in Expression (2), a virtual external force F applied to the end effector 12 is calculated using the deviation (X−Xd) that is the virtual contact amount.
Figure 0005318727
... (2)
In Expression (2), f on the right side represents a predetermined function using the deviation (X−Xd) as an input parameter. Specifically, for example, in this embodiment, the following formula (3) is adopted as the formula (2). In Equation (3), λ represents a predetermined constant.
Figure 0005318727
... (3)
When the equation (3) is substituted into the equation (1) and transformed, the following equation (4) is obtained.
Figure 0005318727
... (4)
Fα in the equation (4) is a parameter that varies according to the deviation (X−Xd), that is, a parameter based on the virtual external force F, as shown in the following equation (5).
Figure 0005318727
... (5)
The parameter Fα has a function of increasing the acceleration on the left side as the value increases from Equation (4), that is, a so-called accelerator function if compared to driving a car. Therefore, hereinafter, the parameter Fα is referred to as “accelerator amount Fα”.
On the other hand, the parameter Dd indicates the virtual viscosity (damper) as described above. From the equation (4), the function of decreasing the acceleration on the left side as the value increases, that is, the so-called brake if compared to the driving of the automobile. It has the function of Therefore, the parameter Dd is hereinafter referred to as “brake amount Dd”.
V indicates the speed of the robot arm 11. In this embodiment, the velocity V of the robot arm 11 is included in the state information supplied from the robot arm driving device 14 to the control device 15.

このように、ビジュアルインピーダンス制御の出力は、式(4)に示すように、ロボットアーム11の加速度となる。すなわち、ロボットアーム11に振動を与えないように目標加速度が設定され、式(4)の左辺の加速度が目標加速度と一致するように、式(4)の右辺の各種パラメータが設定される制御が、ビジュアルインピーダンス制御である。
式(4)の右辺の各種パラメータは、事前のテストに基づいて予め設定された値を採用してもよいし、ビジュアルインピーダンス制御により移動中のロボットアーム11の運動状態に従って可変する値を採用してもよい。本実施形態では、仮想質量Mdが予め設定されているのに対して、アクセル量Fα及びブレーキ量Ddが、ビジュアルインピーダンス制御により移動中のロボットアーム11の運動状態に従って可変する。アクセル量Fα及びブレーキ量Ddの可変設定の手法については、図9乃至図13を参照して後述する。
As described above, the output of the visual impedance control is the acceleration of the robot arm 11 as shown in the equation (4). That is, a control is performed in which the target acceleration is set so as not to apply vibration to the robot arm 11, and various parameters on the right side of Expression (4) are set so that the acceleration on the left side of Expression (4) matches the target acceleration. , Visual impedance control.
As the various parameters on the right side of Expression (4), values set in advance based on a prior test may be adopted, or values that vary according to the motion state of the moving robot arm 11 by visual impedance control are adopted. May be. In the present embodiment, while the virtual mass Md is set in advance, the accelerator amount Fα and the brake amount Dd vary according to the motion state of the moving robot arm 11 by visual impedance control. A method for variably setting the accelerator amount Fα and the brake amount Dd will be described later with reference to FIGS. 9 to 13.

視覚サーボ制御部52は、ビジュアルインピーダンス制御を実行すべく、パラメータ保持部64と、パラメータ設定部65と、視覚サーボ演算部66と、移動指令生成部67と、を備える。   The visual servo control unit 52 includes a parameter holding unit 64, a parameter setting unit 65, a visual servo calculation unit 66, and a movement command generation unit 67 in order to execute visual impedance control.

パラメータ保持部64は、式(4)の右辺の各種パラメータ又はそれらを導き出すためのパラメータを保持する。すなわち、式(4)の右辺の仮想の質量Mdが、パラメータ保持部64に保持される。また、本実施形態では、式(4)の右辺のアクセル量Fα又はブレーキ量Ddを導き出すためのパラメータとして、後述する式(5)のパラメータλ,Kd、後述する式(6)のパラメータS1,I1、後述する式(7)のパラメータC1、及び後述する式(8)のパラメータC2が、パラメータ保持部64に保持されている。
パラメータ設定部65は、式(4)の右辺の各種パラメータを設定する。この設定のために、パラメータ保持部64の保持内容、後述する画像処理部54から供給される偏差(X−Xd)、及び、後述するロボットアーム状態取得部55から供給される速度Vが用いられる。なお、アクセル量Fα及びブレーキ量Ddの設定手法については、図9乃至図13を参照して後述する。
視覚サーボ演算部66は、パラメータ設定部65により設定された各種パラメータを式(4)に代入して演算し、その演算結果を移動指令生成部67に供給する。
移動指令生成部67は、視覚サーボ演算部66の演算結果に基づいて、移動指令を生成し、制御切替部53を介してロボットアーム駆動装置14に供給する。すなわち、視覚サーボ演算部66の演算結果とは、式(4)の左辺に示すように加速度であるため、移動指令生成部67は、この加速度を積分することで、位置指令としての移動指令を生成し、制御切替部53を介してロボットアーム駆動装置14に供給する。
移動指令が供給されたロボットアーム駆動装置14は、上述したように、この移動指令に従って、ロボットアーム11をボルト穴21に向けて移動させる。ロボットアーム11の位置とボルト穴21の位置とが略一致すると、視覚サーボ制御部52によるビジュアルインピーダンス制御は停止し、ロボットアーム11の移動動作が停止する。すると、エンドエフェクタ制御部42は、エンドエフェクタ12を制御して、ボルトをボルト穴21に挿入して捻じ込む。
The parameter holding unit 64 holds various parameters on the right side of Expression (4) or parameters for deriving them. That is, the virtual mass Md on the right side of Expression (4) is held in the parameter holding unit 64. In this embodiment, as parameters for deriving the accelerator amount Fα or the brake amount Dd on the right side of Equation (4), parameters λ and Kd in Equation (5) to be described later, and parameters S1 and S1 in Equation (6) to be described later are used. The parameter holding unit 64 holds I1, a parameter C1 of Expression (7) described later, and a parameter C2 of Expression (8) described later.
The parameter setting unit 65 sets various parameters on the right side of Expression (4). For this setting, the content held in the parameter holding unit 64, the deviation (X-Xd) supplied from the image processing unit 54 described later, and the speed V supplied from the robot arm state acquisition unit 55 described later are used. . A method for setting the accelerator amount Fα and the brake amount Dd will be described later with reference to FIGS. 9 to 13.
The visual servo calculation unit 66 performs calculation by substituting various parameters set by the parameter setting unit 65 into the equation (4), and supplies the calculation result to the movement command generation unit 67.
The movement command generation unit 67 generates a movement command based on the calculation result of the visual servo calculation unit 66 and supplies the movement command to the robot arm drive device 14 via the control switching unit 53. That is, since the calculation result of the visual servo calculation unit 66 is acceleration as shown on the left side of the equation (4), the movement command generation unit 67 integrates this acceleration to give a movement command as a position command. Generated and supplied to the robot arm driving device 14 via the control switching unit 53.
The robot arm drive device 14 to which the movement command is supplied moves the robot arm 11 toward the bolt hole 21 in accordance with the movement command as described above. When the position of the robot arm 11 and the position of the bolt hole 21 substantially coincide with each other, the visual impedance control by the visual servo control unit 52 is stopped, and the movement operation of the robot arm 11 is stopped. Then, the end effector control unit 42 controls the end effector 12 to insert the bolt into the bolt hole 21 and screw it.

画像処理部54は、ビジュアルインピーダンス制御に用いる偏差(X−Xd)を検出すべく、対象物認識部68と、誤差検出部69と、を備えている。
対象物認識部68は、カメラ13から出力された画像データに基づいて、撮影画像の中から対象物を認識する。本実施形態では、対象物認識部68は、ボルト穴21を対象物として認識すると、その認識結果及び撮影画像の画像データを誤差検出部69に供給する。
誤差検出部69は、撮影画像の画像データに対して画像処理を施すことで、撮影画像に対象物として含まれるボルト穴21の、ロボットアーム11の位置X(画像の中心位置)に対する相対位置を求める。ここで、ボルト穴21の実際の位置が、ロボットアーム11の目標位置Xdであることから、このような相対位置が、ビジュアルインピーダンス制御に用いられる偏差(X−Xd)に相当する。偏差(X−Xd)は、ビジュアルインピーダンス制御のフィードバック情報として視覚サーボ制御部52に供給され、必要に応じて、制御切替条件の1つとして制御切替部53に供給される。
The image processing unit 54 includes an object recognition unit 68 and an error detection unit 69 in order to detect a deviation (X−Xd) used for visual impedance control.
The object recognition unit 68 recognizes the object from the captured image based on the image data output from the camera 13. In the present embodiment, when the object recognition unit 68 recognizes the bolt hole 21 as an object, the object recognition unit 68 supplies the recognition result and the image data of the captured image to the error detection unit 69.
The error detection unit 69 performs image processing on the image data of the captured image, thereby determining the relative position of the bolt hole 21 included as an object in the captured image with respect to the position X (center position of the image) of the robot arm 11. Ask. Here, since the actual position of the bolt hole 21 is the target position Xd of the robot arm 11, such a relative position corresponds to a deviation (X−Xd) used for visual impedance control. The deviation (X-Xd) is supplied to the visual servo control unit 52 as feedback information of visual impedance control, and is supplied to the control switching unit 53 as one of the control switching conditions as necessary.

ロボットアーム状態取得部55は、ロボットアーム駆動装置14から供給される状態情報を取得する。例えば、状態情報に含まれる速度Vは、ビジュアルインピーダンス制御に用いるべく視覚サーボ制御部52に供給され、必要に応じて、制御切替条件の1つとして制御切替部53に供給される。   The robot arm state acquisition unit 55 acquires state information supplied from the robot arm drive device 14. For example, the velocity V included in the state information is supplied to the visual servo control unit 52 to be used for visual impedance control, and is supplied to the control switching unit 53 as one of the control switching conditions as necessary.

以上、図2の制御装置15の機能的構成例について説明した。
次に、図3乃至図8を参照して、本出願人により開発され、特願2008−310412号として既に出願された基礎制御手法が有する課題を説明し、引き続き、その課題を解決可能な手法について説明する。
はじめに、図1に示すロボットシステム1に対して、図2の制御装置15の代わりに基礎制御手法が適用された制御装置(以下、「基礎制御装置」と称する)が設けられたロボットシステムを仮定して、図3乃至図5を参照して基礎制御手法が有する課題について説明する。
図3に示すように、基礎制御手法におけるティーチングプレイバック制御では、予め設定された教示位置P1を目標位置として、ロボットアーム11は移動していく。
この間、カメラ13は、撮影画像の画像データを基礎制御装置に逐次出力している。ロボットアーム11が図3中下方の位置に存在する場合には、カメラ13の画角内にボルト穴21が存在しない。従って、このような場合、図示はしないが、撮影画像にはボルト穴21は含まれていないため、基礎制御装置はボルト穴21を検出しない。
その後、ロボットアーム11が教示位置P1の近傍に移動してきて、例えば図3中上方の位置に到達すると、カメラ13の画角内にボルト穴21が現れるようになり、図4に示すように、撮影画像の被写体として、ボルト穴21が含まれるようになる。このような場合、基礎制御装置は、撮影画像からボルト穴21を認識し、そのボルト穴21の中心位置に対する相対位置P3を求める。なお、相対位置P3の座標は、カメラ13の画角内の座標系(以下、「カメラ座標系」と称する)により表現される。
ここで、図4に示す撮影画像の中心位置は、上述の如く、ロボットアーム11の位置Xである。また、ロボットアーム11の真の目標位置とは、ティーチングプレイバック制御の教示位置P1ではなく、ボルト穴21の位置P3である。従って、撮影画像における位置P3の座標が、ビジュアルインピーダンス制御に用いられる偏差(X−Xd)に相当する。従って、撮影画像にボルト穴21が含まれるようになった時点、すなわち、基礎制御装置がボルト穴21を検出できた時点で、理論上、ビジュアルインピーダンス制御の実行が可能になる。
In the above, the functional structural example of the control apparatus 15 of FIG. 2 was demonstrated.
Next, with reference to FIG. 3 to FIG. 8, the problem of the basic control method developed by the present applicant and already filed as Japanese Patent Application No. 2008-310412 will be described, and the method that can solve the problem continuously Will be described.
First, it is assumed that the robot system 1 shown in FIG. 1 is provided with a control device (hereinafter referred to as “basic control device”) to which a basic control method is applied instead of the control device 15 of FIG. The problems of the basic control method will be described with reference to FIGS.
As shown in FIG. 3, in teaching playback control in the basic control method, the robot arm 11 moves with the preset teaching position P1 as a target position.
During this time, the camera 13 sequentially outputs image data of the captured image to the basic control device. When the robot arm 11 exists at the lower position in FIG. 3, the bolt hole 21 does not exist within the angle of view of the camera 13. Accordingly, in such a case, although not shown, the bolt hole 21 is not included in the photographed image, so the basic control device does not detect the bolt hole 21.
Thereafter, when the robot arm 11 moves to the vicinity of the teaching position P1 and reaches the upper position in FIG. 3, for example, the bolt hole 21 appears in the angle of view of the camera 13, and as shown in FIG. The bolt hole 21 is included as a subject of the photographed image. In such a case, the basic control device recognizes the bolt hole 21 from the captured image, and obtains a relative position P3 with respect to the center position of the bolt hole 21. The coordinates of the relative position P3 are expressed by a coordinate system within the angle of view of the camera 13 (hereinafter referred to as “camera coordinate system”).
Here, the center position of the captured image shown in FIG. 4 is the position X of the robot arm 11 as described above. The true target position of the robot arm 11 is not the teaching position P1 of teaching playback control but the position P3 of the bolt hole 21. Accordingly, the coordinates of the position P3 in the photographed image correspond to the deviation (X−Xd) used for visual impedance control. Therefore, when the bolt hole 21 is included in the captured image, that is, when the basic control device can detect the bolt hole 21, the visual impedance control can theoretically be performed.

このため、基礎制御手法では、ティーチングプレイバック制御からビジュアルインピーダンス制御に切り替える制御切替条件として、「ボルト穴21を検出した」という条件が採用されていた。
すなわち、特許文献1や2等の従来の制御手法では、ティーチングプレイバック制御が終了してロボットアームが一旦停止した後、位置の誤差を補正するためのフィードバック制御(例えばPID制御)が実行されていた。これに対して、基礎制御手法では、ティーチングプレイバック制御によるロボットアーム11の移動動作中に、従来のように無駄な停止動作を伴うことなく、ビジュアルインピーダンス制御に切り替えることができる。
For this reason, in the basic control method, the condition “the bolt hole 21 has been detected” has been adopted as a control switching condition for switching from teaching playback control to visual impedance control.
That is, in the conventional control methods such as Patent Documents 1 and 2, feedback teaching (for example, PID control) for correcting a position error is performed after the teaching playback control is finished and the robot arm is temporarily stopped. It was. On the other hand, in the basic control method, during the movement operation of the robot arm 11 by the teaching playback control, it is possible to switch to the visual impedance control without a useless stop operation as in the prior art.

図5は、基礎制御手法が適用された場合におけるロボットアーム11の速度Vの時間推移の一例を示すタイミングチャートである。
図5において、横軸は時間を示し、縦軸は、ロボットアーム11の速度Vを示す。
図5に示すように、基礎制御手法のティーチングプレイバック制御においては、ロボットアーム11の速度Vは、初期段階では一定の速度であるが、一定段階を過ぎると、一定の割合で減速していく。
FIG. 5 is a timing chart showing an example of the time transition of the velocity V of the robot arm 11 when the basic control method is applied.
In FIG. 5, the horizontal axis indicates time, and the vertical axis indicates the velocity V of the robot arm 11.
As shown in FIG. 5, in the teaching playback control of the basic control method, the speed V of the robot arm 11 is a constant speed in the initial stage, but after a certain stage, it decelerates at a constant rate. .

この場合、ワーク2の位置及び姿勢のズレ等の各種要因によって、ティーチングプレイバック制御における教示位置P1と、ボルト穴21の実際の位置との間のズレ量は、ボルト締め毎に異なる。このズレ量の違いによって、基礎制御装置がボルト穴21を検出するタイミングがその都度異なるため、基礎制御手法では、ビジュアルインピーダンス制御に切り替わるタイミングがその都度異なる。その結果、ビジュアルインピーダンス制御に切り替わった時点のロボットアーム11の速度Vがその都度異なってくる。   In this case, the amount of deviation between the teaching position P1 in the teaching playback control and the actual position of the bolt hole 21 differs for each bolt tightening due to various factors such as deviation of the position and posture of the work 2. Since the timing at which the basic control device detects the bolt hole 21 is different each time due to the difference in the deviation amount, the timing at which the basic control method is switched to the visual impedance control is different each time. As a result, the speed V of the robot arm 11 at the time of switching to the visual impedance control changes every time.

ここで、基礎制御手法のビジュアルインピーダンス制御では、式(4)に示す各種パラメータは、ロボットアーム11の速度V等について特定の状況を仮定して、この仮定が成立する場合に最適となるような値が設定されている。また、ビジュアルインピーダンス制御は、オープンループ制御であるティーチングプレイバック制御と比べると応答速度が遅い。このため、基礎制御手法では、ビジュアルインピーダンス制御に切り替わった時点のロボットアーム11の速度Vが、仮定した速度と大幅に異なると、ビジュアルインピーダンス制御が適切に行われないという課題が生ずる。   Here, in the visual impedance control of the basic control method, the various parameters shown in the equation (4) are optimal when this assumption is satisfied assuming a specific situation with respect to the speed V of the robot arm 11 and the like. Value is set. Further, the visual impedance control has a slower response speed than the teaching playback control which is an open loop control. For this reason, in the basic control method, if the speed V of the robot arm 11 at the time of switching to the visual impedance control is significantly different from the assumed speed, there arises a problem that the visual impedance control is not appropriately performed.

具体的には例えば図5aの例では、想定される時刻よりも早い時刻taに、ボルト穴21が検出されて、ティーチングプレイバック制御からビジュアルインピーダンス制御(視覚サーボ制御)に切り替えられている。このため、図5aの例では、ビジュアルインピーダンス制御に切り替わった時点のロボットアーム11の速度Vは、仮定した速度よりも高速の速度Vaとなる。速度Vaのように高速度でビジュアルインピーダンス制御が開始することは、式(4)に示す各種パラメータの設定が不適切な状態のまま、応答速度の遅い制御が開始することを意味する。従って、このような場合、位置制御のオーバーシュートが生じるという課題が生ずる。すなわち、ロボットアーム11が、高速度のまま移動して、真の目標位置であるボルト穴21の実際の位置を超えてしまうという課題が生ずる。   Specifically, in the example of FIG. 5a, for example, the bolt hole 21 is detected at a time ta earlier than the assumed time, and the teaching playback control is switched to the visual impedance control (visual servo control). For this reason, in the example of FIG. 5a, the speed V of the robot arm 11 at the time of switching to the visual impedance control is a speed Va higher than the assumed speed. The start of visual impedance control at a high speed like the speed Va means that control with a slow response speed is started while various parameters shown in Expression (4) are not properly set. Therefore, in such a case, there arises a problem that an overshoot of position control occurs. That is, there arises a problem that the robot arm 11 moves at a high speed and exceeds the actual position of the bolt hole 21 that is the true target position.

一方、例えば図5bの例では、想定される時刻よりも遅い時刻tbに、ボルト穴21が検出されて、ティーチングプレイバック制御からビジュアルインピーダンス制御(視覚サーボ制御)に切り替えられている。このため、図5bの例では、ビジュアルインピーダンス制御に切り替わった時点のロボットアーム11の速度Vは、仮定した速度よりも低速の速度Vbとなる。速度Vbのように低速度でビジュアルインピーダンス制御が開始することは、式(4)に示す各種パラメータの設定が不適切な状態のまま、応答速度の遅い制御が開始することを意味する。従って、このような場合、ロボットアーム11が、低速度のまま移動して、真の目標位置であるボルト穴21の実際の位置までなかなか到達しないという課題が生ずる。   On the other hand, for example, in the example of FIG. 5b, the bolt hole 21 is detected at a time tb later than the assumed time, and the teaching playback control is switched to the visual impedance control (visual servo control). For this reason, in the example of FIG. 5b, the speed V of the robot arm 11 at the time of switching to the visual impedance control is a speed Vb that is lower than the assumed speed. Starting visual impedance control at a low speed such as the speed Vb means that control with a slow response speed is started while various parameters shown in Expression (4) are not properly set. Accordingly, in such a case, there arises a problem that the robot arm 11 moves at a low speed and does not readily reach the actual position of the bolt hole 21 that is the true target position.

このような基礎制御手法が有する課題の解決手法として、カメラ13の画角を狭くするという手法が考えられる。カメラ13の画角を狭くすることで、ボルト穴21が画角内に現れるタイミングのバラつきが少なくなり、ビジュアルインピーダンス制御に切り替わった時点のロボットアーム11の速度Vのバラつきも少なくなる。しかしながら、カメラ13の画角を狭めた分だけ、ロボットアーム11に追従して移動するカメラ13が、ボルト穴21を撮影することは困難になり、ボルト穴21の検出が不能になるという弊害が発生するおそれもある。すなわち、カメラ13の画角を狭くしても、基礎制御手法が有する課題を解決できたとは言い難い。   As a technique for solving such problems of the basic control technique, a technique of narrowing the angle of view of the camera 13 can be considered. By narrowing the angle of view of the camera 13, variations in the timing at which the bolt holes 21 appear within the angle of view are reduced, and variations in the speed V of the robot arm 11 at the time of switching to visual impedance control are also reduced. However, it is difficult for the camera 13 that moves following the robot arm 11 to the extent that the angle of view of the camera 13 is narrowed to photograph the bolt hole 21, and the bolt hole 21 cannot be detected. May also occur. That is, even if the angle of view of the camera 13 is narrowed, it cannot be said that the problem of the basic control method has been solved.

そこで、本発明人は、このような基礎制御手法が有する課題を解決可能な、次のような2つの制御手法を発明した。なお、この2つの制御手法は、本実施形態では図2の制御装置15に適用されているため、以下の説明では、図2の制御装置15が動作主体であるものとする。   Accordingly, the present inventors have invented the following two control methods that can solve the problems of such basic control methods. Since these two control methods are applied to the control device 15 in FIG. 2 in the present embodiment, in the following description, it is assumed that the control device 15 in FIG.

図6乃至図8は、本発明が適用される1つ目の制御手法を説明する図である。
1つ目の制御手法においては、初期段階には、教示位置P1を目標位置として、ティーチングプレイバック制御によりロボットアーム11が目標位置に向けて移動する。この間、カメラ13は、撮影画像の画像データを制御装置15に逐次出力し続ける。
すると、ロボットアーム11が図6の下方に示す位置から上方に示す位置まで移動してきた段階で、画像処理部54は、カメラ13の撮影画像からボルト穴21を検出する。
ここまでの処理は、基礎制御手法が適用された場合の処理と同様である。
ただし、本発明が適用される1つ目の制御手法においては、カメラ13の撮影画像からボルト穴21が検出された段階では、基礎制御手法のようにビジュアルインピーダンス制御に切り替わらずに、ティーチングプレイバック制御のままで、次のような一連の処理が実行される。
すなわち、ティーチングプレイバック制御部51の目標位置決定部62は、ティーチングプレイバック制御の目標位置を、教示位置P1から、ボルト穴21により近い位置P4に変更する。なお、以下、位置P4を、「仮想目標の位置P4」と称する。
次に、ティーチングプレイバック制御部51の移動指令生成部63は、教示位置P1から仮想目標の位置P4までの新経路PLを設定し、この新経路PLに従って移動指令を生成し、制御切替部53を介してロボットアーム駆動装置14に供給する。すると、ロボットアーム駆動装置14は、この移動指令に従って、ロボットアーム11を新経路PLに沿って移動させる。
このようなティーチングプレイバック制御によりロボットアーム11が新経路PLに沿って移動している最中に、制御切替条件が満たされると、制御切替部53は、ロボットアーム11の動作の制御を、ティーチングプレイバック制御からビジュアルインピーダンス制御に切り替える。
6 to 8 are diagrams for explaining a first control method to which the present invention is applied.
In the first control method, in the initial stage, the robot arm 11 moves toward the target position by teaching playback control with the teaching position P1 as the target position. During this time, the camera 13 continues to sequentially output the image data of the captured image to the control device 15.
Then, when the robot arm 11 has moved from the position shown in the lower part of FIG. 6 to the position shown in the upper part, the image processing unit 54 detects the bolt hole 21 from the photographed image of the camera 13.
The processing so far is the same as the processing when the basic control method is applied.
However, in the first control method to which the present invention is applied, at the stage where the bolt hole 21 is detected from the photographed image of the camera 13, the teaching playback is not switched to the visual impedance control as in the basic control method. The following series of processing is executed with control.
That is, the target position determination unit 62 of the teaching playback control unit 51 changes the target position of teaching playback control from the teaching position P1 to a position P4 closer to the bolt hole 21. Hereinafter, the position P4 is referred to as a “virtual target position P4”.
Next, the movement command generation unit 63 of the teaching playback control unit 51 sets a new path PL from the teaching position P1 to the virtual target position P4, generates a movement command according to the new path PL, and the control switching unit 53. Is supplied to the robot arm drive device 14. Then, the robot arm driving device 14 moves the robot arm 11 along the new path PL in accordance with this movement command.
When the control switching condition is satisfied while the robot arm 11 is moving along the new path PL by such teaching playback control, the control switching unit 53 controls the operation of the robot arm 11 by teaching. Switch from playback control to visual impedance control.

ここで、制御切替条件は、真の目標位置であるボルト穴21の近傍までロボットアーム11が接近したことを示す条件であれば、任意の条件を採用することができる。   Here, the control switching condition may be any condition as long as it indicates that the robot arm 11 has approached the vicinity of the bolt hole 21 that is the true target position.

図7は、制御切替条件の一例を説明する図である。
図7において、横軸は時間を示し、縦軸は、ロボットアーム11の速度Vを示す。
例えば、図7に示すように、所定の速度を閾値thv1として予め定義することで、「ロボットアーム11の速度Vが閾値thv1以下となること」という制御切替条件を採用することができる。
この場合、ロボットアーム11の速度Vが常に閾値thv1と略同一の速度で、ビジュアルインピーダンス制御に切り替えられる。ここで、閾値thv1をビジュアルインピーダンス制御にとって適切な範囲内で定義することで、ビジュアルインピーダンス制御が安定して適切に実行される。その結果、基礎制御手法と比較してより一段と高速、高精度、かつ制御系として安定に、ロボットアーム11を真の目標位置であるボルト穴21まで移動させることが容易に可能になる。
FIG. 7 is a diagram illustrating an example of the control switching condition.
In FIG. 7, the horizontal axis indicates time, and the vertical axis indicates the velocity V of the robot arm 11.
For example, as shown in FIG. 7, the control switching condition that “the speed V of the robot arm 11 is equal to or less than the threshold thv1” can be adopted by predefining the predetermined speed as the threshold thv1.
In this case, the speed V of the robot arm 11 is always switched to the visual impedance control at a speed substantially the same as the threshold value thv1. Here, by defining the threshold thv1 within a range appropriate for visual impedance control, visual impedance control is stably and appropriately executed. As a result, compared with the basic control method, the robot arm 11 can be easily moved to the bolt hole 21 that is the true target position, with higher speed, higher accuracy, and more stably as a control system.

図8は、制御切替条件の一例であって、図7の例とは異なる例を説明する図である。
図11において、横軸は時間を示し、縦軸は、偏差(X−Xd)を示す。
例えば、図8に示すように、所定の短距離を閾値thp1として予め定義することで、「偏差(X−Xd)が、閾値thp1以下となること」という制御切替条件を採用することができる。
この場合、ロボットアーム11の偏差(X−Xd)が常に閾値thp1と略同一の偏差で、ビジュアルインピーダンス制御に切り替えられる。ここで、閾値thp1をビジュアルインピーダンス制御にとって適切な範囲内で定義することで、ビジュアルインピーダンス制御が安定して適切に実行される。その結果、基礎制御手法と比較してより一段と高速、高精度、かつ制御系として安定に、ロボットアーム11を真の目標位置であるボルト穴21まで移動させることが容易に可能になる。
FIG. 8 is a diagram illustrating an example of the control switching condition and an example different from the example of FIG.
In FIG. 11, the horizontal axis indicates time, and the vertical axis indicates deviation (X−Xd).
For example, as shown in FIG. 8, by defining a predetermined short distance in advance as the threshold value thp1, it is possible to adopt a control switching condition that “deviation (X−Xd) is equal to or less than the threshold value thp1”.
In this case, the deviation (X−Xd) of the robot arm 11 is always the same deviation as the threshold thp1, and the control is switched to the visual impedance control. Here, by defining the threshold value thp1 within a range appropriate for visual impedance control, visual impedance control is stably and appropriately executed. As a result, compared with the basic control method, the robot arm 11 can be easily moved to the bolt hole 21 that is the true target position, with higher speed, higher accuracy, and more stably as a control system.

なお、カメラ13の撮影画像からボルト穴21が検出された時から、ビジュアルインピーダンス制御に切り替わる時までの上述した一連の処理を、以下、ティーチングプレイバック制御の修正移動処理と称する。
すなわち、基礎制御手法は、ティーチングプレイバック制御によりロボットアーム11の移動が実行される第1のステップと、ビジュアルインピーダンス制御によりロボットアーム移動が実行される第3のステップと、を含む手法であった。
これに対して、本発明が適用される1つ目の制御手法は、第1のステップと第3のステップとの間にさらに、ティーチングプレイバック制御の修正移動処理が実行される第2のステップを含む手法である。そこで、以下、このような制御手法を、「3ステップ移動制御手法」と称する。
このように、3ステップ移動制御手法では、ビジュアルインピーダンス制御への切替前に、ティーチングプレイバック制御の修正移動処理が実行されるので、カメラ13の画角を変えることなく、ロボットアーム11の速度V等の状態を一定の範囲内に収めて、ビジュアルインピーダンス制御を開始することができる。この「一定の範囲」は、切替条件を適切に設定することで、ビジュアルインピーダンス制御にとって適切な範囲とすることが容易にできる。この場合、ビジュアルインピーダンス制御が安定して適切に実行される。その結果、基礎制御手法と比較してより一段と高速、高精度、かつ制御系として安定に、ロボットアーム11を真の目標位置であるボルト穴21まで移動させることが容易に可能になる。
The series of processes described above from when the bolt hole 21 is detected from the captured image of the camera 13 to when switching to the visual impedance control is hereinafter referred to as a correction movement process of teaching playback control.
That is, the basic control method is a method including a first step in which the movement of the robot arm 11 is executed by teaching playback control and a third step in which the movement of the robot arm is executed by visual impedance control. .
On the other hand, the first control method to which the present invention is applied is the second step in which the correction movement process of teaching playback control is further executed between the first step and the third step. It is a method including. Thus, hereinafter, such a control method is referred to as a “three-step movement control method”.
As described above, in the three-step movement control method, the correction movement process of the teaching playback control is executed before switching to the visual impedance control. Therefore, the speed V of the robot arm 11 can be changed without changing the angle of view of the camera 13. The visual impedance control can be started by keeping the above state within a certain range. This “certain range” can be easily set to an appropriate range for visual impedance control by appropriately setting the switching condition. In this case, visual impedance control is executed stably and appropriately. As a result, compared with the basic control method, the robot arm 11 can be easily moved to the bolt hole 21 that is the true target position, with higher speed, higher accuracy, and more stably as a control system.

次に、本発明が適用される2つ目の制御手法について説明する。
2つ目の制御手法は、ロボットアーム11の動作の制御が、ティーチングプレイバック制御からビジュアルインピーダンス制御に切り替えられた後の制御手法である。
基礎制御手法が有する課題が生ずる要因のひとつは、上述したように、ビジュアルインピーダンス制御に切り替わった時点のロボットアーム11の速度V等の状態が、ビジュアルインピーダンス制御の式(4)に示す各種パラメータを設定した際に仮定した状態と大きく異なる場合があるということである。
そこで、2つ目の制御手法では、視覚サーボ制御部52が、ビジュアルインピーダンス制御に切り替わった時点及びその後のロボットアーム11の速度V等の状態に応じて、ビジュアルインピーダンス制御の式(4)に示すアクセル量Fα又はブレーキ量Ddを可変設定する。これにより、ロボットアーム11の速度V等の状態によらず、ビジュアルインピーダンス制御が安定して適切に実行される。その結果、基礎制御手法と比較してより一段と高速、高精度、かつ制御系として安定に、ロボットアーム11をボルト穴21まで移動させることが容易に可能になる。
Next, a second control method to which the present invention is applied will be described.
The second control method is a control method after the control of the operation of the robot arm 11 is switched from teaching playback control to visual impedance control.
As described above, one of the factors causing the problems of the basic control method is that the state of the robot arm 11 at the time of switching to the visual impedance control, such as the speed V, is the various parameters shown in the visual impedance control equation (4). This means that there are cases where the setting is greatly different from the assumed state.
Therefore, in the second control method, the visual servo control unit 52 is shown in the visual impedance control expression (4) according to the state of the speed V of the robot arm 11 and the like after the switching to the visual impedance control. The accelerator amount Fα or the brake amount Dd is variably set. Thereby, the visual impedance control is stably and appropriately executed regardless of the state of the robot arm 11 such as the speed V. As a result, compared with the basic control method, the robot arm 11 can be easily moved to the bolt hole 21 with higher speed, higher accuracy, and more stably as a control system.

なお、このような本発明が適用される2つ目の手法を、以下、「ビジュアルインピーダンス制御のパラメータ可変設定手法」と称する。
図9乃至図13を参照して、ビジュアルインピーダンス制御のパラメータ可変設定手法についてさらに詳細に説明する。
The second method to which the present invention is applied is hereinafter referred to as “visual impedance control parameter variable setting method”.
With reference to FIGS. 9 to 13, the parameter variable setting method for visual impedance control will be described in more detail.

図9は、ビジュアルインピーダンス制御への切替時におけるブレーキ量Ddの設定手法を説明する図である。
図9において、横軸のVは、ロボットアーム11の速度を示し、縦軸のDiは、ビジュアルインピーダンス制御への切替時におけるブレーキ量(以下、特に「初期ブレーキ量」と称する)を示している。
図9に示すように、ビジュアルインピーダンス制御への切替時におけるロボットアーム11の速度Vが高速になる程、初期ブレーキ量Diが大きくなるように設定される。具体的には例えば、式(6)に示すように初期ブレーキ量Diは演算される。

Figure 0005318727
・・・(6)
式(6)において、S1,I1のそれぞれは、実験により得られたパラメータである。すなわち、ロボットアーム11の速度Vに対する最適なブレーキ量Ddが実験により得られており、この実験に基づいてパラメータS1,I1のそれぞれが予め求められている。 FIG. 9 is a diagram illustrating a method for setting the brake amount Dd when switching to visual impedance control.
In FIG. 9, V on the horizontal axis indicates the speed of the robot arm 11, and Di on the vertical axis indicates the brake amount when switching to visual impedance control (hereinafter, particularly referred to as “initial brake amount”). .
As shown in FIG. 9, the initial brake amount Di is set to increase as the speed V of the robot arm 11 at the time of switching to visual impedance control increases. Specifically, for example, the initial brake amount Di is calculated as shown in Expression (6).
Figure 0005318727
... (6)
In equation (6), S1 and I1 are parameters obtained by experiments. That is, the optimum brake amount Dd with respect to the speed V of the robot arm 11 is obtained by experiments, and the parameters S1 and I1 are obtained in advance based on the experiments.

ビジュアルインピーダンス制御に切り替わった時点では、このような式(6)に従って演算された初期ブレーキ量Diをブレーキ量Ddとして設定して、式(4)に代入して演算することで、切替直後のビジュアルインピーダンス制御を適切に実行することが可能になる。すなわち、ビジュアルインピーダンス制御への切替時におけるロボットアーム11の速度Vが高速になる程、ビジュアルインピーダンス制御の加速度が減少するように、ビジュアルインピーダンス制御が実行される。このようにして、基礎制御手法が有する課題のうち、ビジュアルインピーダンス制御に切り替わった時点のロボットアーム11の速度Vのバラつきが大きいためにビジュアルインピーダンス制御を適切に行うことができない、という課題を解決することが可能になる。   At the time of switching to the visual impedance control, the initial brake amount Di calculated according to the equation (6) is set as the brake amount Dd, and is calculated by substituting into the equation (4). Impedance control can be appropriately executed. That is, the visual impedance control is executed so that the acceleration of the visual impedance control decreases as the speed V of the robot arm 11 at the time of switching to the visual impedance control increases. In this way, among the problems of the basic control method, the problem that the visual impedance control cannot be appropriately performed due to the large variation in the speed V of the robot arm 11 at the time of switching to the visual impedance control is solved. It becomes possible.

さらに、ビジュアルインピーダンス制御のパラメータ可変設定手法を適用することで、基礎制御手法が有する課題のうち、このようなビジュアルインピーダンス制御の開始時点に生ずる課題のみならず、ビジュアルインピーダンス制御の終了時点の近辺で生ずる課題も解決することが可能になる。   Furthermore, by applying the variable parameter setting method for visual impedance control, among the issues that the basic control method has, not only the issues that occur at the start time of such visual impedance control, but also the vicinity of the end time of visual impedance control. Problems that arise can be solved.

例えば基礎制御手法では、ビジュアルインピーダンス制御の実行が進んで、偏差(X−Xd)が小さくなっていくと、収束の反応が遅くなっていくという課題が存在する。
式(5)に示す通り、基礎制御手法においては、アクセル量Fαは、偏差(X−Xd)に比例するパラメータであるので、偏差(X−Xd)が小さくなっていくと、その分だけアクセル量Fαも小さくなっていく。その結果、ロボットアーム11の加速度も減少していくため、収束の反応が鈍くなっていくという課題が生ずるのである。
For example, in the basic control method, there is a problem that the convergence response becomes slower as the execution of visual impedance control progresses and the deviation (X−Xd) becomes smaller.
As shown in Expression (5), in the basic control method, the accelerator amount Fα is a parameter proportional to the deviation (X−Xd). Therefore, when the deviation (X−Xd) becomes smaller, the accelerator amount is increased accordingly. The amount Fα also decreases. As a result, since the acceleration of the robot arm 11 also decreases, there arises a problem that the convergence reaction becomes slow.

図10は、このような課題を解決するための、アクセル量Fαの設定手法を説明する図である。
図10において、横軸は、式(5)により演算されるアクセル量Fα、すなわち更新前のアクセル量Fαを示している。なお、以下、図10の記載にあわせて、式(5)により演算されるアクセル量Fαを、特に「アクセル量Fαb」と称する。縦軸は、更新後のアクセル量Fnを示している。
偏差(X−Xd)が一定以下になると、図10に示すように、更新前のアクセル量Fαbよりも、更新後のアクセル量Fnが大きくなるように設定される。具体的には例えば、式(7)に示すように更新後のアクセル量Fnは演算される。

Figure 0005318727
・・・(7)
式(7)において、C1は、実験により得られたパラメータである。すなわち、偏差(X−Xd)に対する最適なアクセル量Fαが実験により得られており、この実験に基づいてパラメータC1が予め求められている。 FIG. 10 is a diagram for explaining a method for setting the accelerator amount Fα to solve such a problem.
In FIG. 10, the horizontal axis indicates the accelerator amount Fα calculated by the equation (5), that is, the accelerator amount Fα before update. Hereinafter, in accordance with the description of FIG. 10, the accelerator amount Fα calculated by the equation (5) is particularly referred to as “accelerator amount Fαb”. The vertical axis represents the updated accelerator amount Fn.
When the deviation (X−Xd) becomes equal to or less than a certain value, as shown in FIG. 10, the updated accelerator amount Fn is set to be larger than the accelerator amount Fαb before update. Specifically, for example, the updated accelerator amount Fn is calculated as shown in Expression (7).
Figure 0005318727
... (7)
In Expression (7), C1 is a parameter obtained by experiment. That is, the optimum accelerator amount Fα with respect to the deviation (X−Xd) is obtained by experiment, and the parameter C1 is obtained in advance based on this experiment.

すなわち、ビジュアルインピーダンス制御が開始されてから、偏差(X−Xd)が一定以下であることを示す所定の条件(以下、「偏差小条件と称する」)を満たすまでの間、アクセル量Fαは、式(5)により演算された更新前のアクセル量Fαbがそのまま設定される。そして、偏差小条件を満たしたとき以降、式(4)のアクセル量Fαとして、式(7)に示す更新後のアクセル量Fnが設定される。   That is, after the visual impedance control is started until the predetermined condition (hereinafter referred to as “deviation small condition”) indicating that the deviation (X−Xd) is less than a certain value is satisfied, the accelerator amount Fα is: The pre-update accelerator amount Fαb calculated by the equation (5) is set as it is. After the small deviation condition is satisfied, the updated accelerator amount Fn shown in equation (7) is set as the accelerator amount Fα in equation (4).

ここで、偏差小条件は、偏差(X−Xd)が一定以下であることを示す条件であれば、任意の条件を採用することができる。
図11は、偏差小条件の一例を説明する図である。
図11において、横軸は時間を示し、縦軸は、ロボットアーム11の速度Vを示す。
例えば、図11に示すように、偏差(X−Xd)が所定の短距離になった時点に想定される速度を、閾値thv2として予め定義することで、「ロボットアーム11の速度が閾値thv2以下となること」という偏差小条件を採用することができる。
図11において、曲線81は、このような偏差小条件が満たされる前には更新前のアクセル量Fαbが設定され、満たされた後には更新後のアクセル量Fnが設定される場合における、速度Vと時間との関係を示している。
一方、曲線82は、最後まで更新前のアクセル量Fαbが設定される場合における、速度Vと時間との関係を示している。
曲線81と曲線82とを比較すると明らかなように、偏差小条件が満たされた後にアクセル量Fαとして更新前のアクセル量Fαbから更新後のアクセル量Fnに変更することで、ビジュアルインピーダンス制御の加速度が更新前よりも高くなるので、偏差(X−Xd)が一定以下になった後のビジュアルインピーダンス制御を適切に実行することが可能になり、収束の反応が早くなる。
Here, as long as the deviation small condition is a condition indicating that the deviation (X−Xd) is not more than a certain value, any condition can be adopted.
FIG. 11 is a diagram for explaining an example of a small deviation condition.
In FIG. 11, the horizontal axis indicates time, and the vertical axis indicates the velocity V of the robot arm 11.
For example, as shown in FIG. 11, the speed assumed when the deviation (X−Xd) becomes a predetermined short distance is defined in advance as a threshold thv2, so that “the speed of the robot arm 11 is equal to or lower than the threshold thv2. It is possible to adopt a small deviation condition of “becoming”.
In FIG. 11, a curve 81 indicates the speed V in the case where the accelerator amount Fαb before update is set before the small deviation condition is satisfied, and the accelerator amount Fn after update is set after being satisfied. And the relationship between time.
On the other hand, the curve 82 shows the relationship between the speed V and time when the accelerator amount Fαb before the update is set to the end.
As is apparent from a comparison between the curve 81 and the curve 82, the acceleration of visual impedance control is obtained by changing the accelerator amount Fαb before update from the accelerator amount Fαb before update to the accelerator amount Fn after update as the accelerator amount Fα after the small deviation condition is satisfied. Is higher than before the update, it becomes possible to appropriately execute the visual impedance control after the deviation (X−Xd) becomes a certain value or less, and the convergence response is accelerated.

図12は、偏差小条件の一例であって、図11とは異なる例を説明する図である。
図12において、横軸は時間を示し、縦軸は、偏差(X−Xd)を示す。
例えば、図12に示すように、所定の短距離を閾値thp2として予め定義することで、「偏差(X−Xd)が閾値thp2以下となること」という偏差小条件を採用することができる。
図12において、曲線83は、このような偏差小条件が満たされる前には更新前のアクセル量Fαbが設定され、満たされた後には更新後のアクセル量Fnが設定される場合における、偏差(X−Xd)と時間との関係を示している。
一方、曲線84は、最後まで更新前のアクセル量Fαbが設定される場合における、偏差(X−Xd)と時間との関係を示している。
曲線83と曲線84とを比較すると明らかなように、偏差小条件が満たされた後にアクセル量Fαとして更新前のアクセル量Fαbから更新後のアクセル量Fnに変更することで、ビジュアルインピーダンス制御の加速度が更新前よりも高くなるので、偏差(X−Xd)が一定以下になった後のビジュアルインピーダンス制御を適切に実行することが可能になり、収束の反応が早くなる。
FIG. 12 is a diagram for explaining an example different from FIG. 11 as an example of the small deviation condition.
In FIG. 12, the horizontal axis represents time, and the vertical axis represents deviation (X-Xd).
For example, as shown in FIG. 12, by defining a predetermined short distance in advance as the threshold value thp2, it is possible to employ a small deviation condition that “the deviation (X−Xd) is equal to or less than the threshold value thp2.”
In FIG. 12, a curve 83 indicates a deviation (when the accelerator amount Fαb before update is set before the small deviation condition is satisfied, and the accelerator amount Fn after update is set after the condition is satisfied. The relationship between X-Xd) and time is shown.
On the other hand, the curve 84 shows the relationship between the deviation (X−Xd) and time when the accelerator amount Fαb before update is set to the end.
As is apparent from a comparison between the curve 83 and the curve 84, the acceleration of the visual impedance control is performed by changing the accelerator amount Fαb before update from the accelerator amount Fαb before update to the accelerator amount Fn after update as the accelerator amount Fα after the small deviation condition is satisfied. Is higher than before the update, it becomes possible to appropriately execute the visual impedance control after the deviation (X−Xd) becomes a certain value or less, and the convergence response is accelerated.

このように、所定の偏差小条件が満たされた場合に、更新前のアクセル量Fαbよりも大きい更新後のアクセル量Fnが、式(4)のアクセル量Fαとして設定される。これにより、ビジュアルインピーダンス制御の加速度が更新前よりも高くなるので、偏差(X−Xd)が一定以下になった後のビジュアルインピーダンス制御を適切に実行することが可能になり、収束の反応が早くなる。   As described above, when the predetermined small deviation condition is satisfied, the updated accelerator amount Fn larger than the unupdated accelerator amount Fαb is set as the accelerator amount Fα in the equation (4). As a result, since the acceleration of the visual impedance control becomes higher than before the update, it becomes possible to appropriately execute the visual impedance control after the deviation (X−Xd) becomes a certain value or less, and the convergence response is quick. Become.

また、基礎制御手法が有する課題のうち、ビジュアルインピーダンス制御の終了時点の近辺で生ずる別の課題として、偏差(X−Xd)が小さくなった場合、特に、0近傍になり位置決め完了間際となった場合に、ロボットアーム11の移動量が必要以上に大きくなり得るという課題が存在する。   Further, among the problems that the basic control method has, another problem that occurs in the vicinity of the end point of visual impedance control is when the deviation (X-Xd) becomes small, especially when it is close to 0 and just before positioning is completed. In this case, there is a problem that the movement amount of the robot arm 11 can be larger than necessary.

図13は、このような課題を解決するための、ブレーキ量Ddの設定手法を説明する図である。
図13において、横軸は、ロボットアーム11の速度Vを示しており、縦軸は、更新後のブレーキ量Dnを示している。
偏差(X−Xd)が一定以下になると、図13に示すように、式(6)に示す初期ブレーキ量Diよりも大きい量が、更新後のブレーキ量Dnとして設定される。具体的には例えば、式(8)に示すように更新後のブレーキ量Dnは演算される。

Figure 0005318727
・・・(8)
式(8)において、C2は、実験により得られたパラメータである。すなわち、ロボットアーム11の速度Vに対する最適なブレーキ量Ddが実験により得られており、この実験に基づいてパラメータC2が予め求められている。 FIG. 13 is a diagram for explaining a brake amount Dd setting method for solving such a problem.
In FIG. 13, the horizontal axis indicates the speed V of the robot arm 11, and the vertical axis indicates the updated brake amount Dn.
When the deviation (X−Xd) becomes a certain value or less, as shown in FIG. 13, an amount larger than the initial brake amount Di shown in the equation (6) is set as the updated brake amount Dn. Specifically, for example, the updated brake amount Dn is calculated as shown in Expression (8).
Figure 0005318727
... (8)
In Expression (8), C2 is a parameter obtained by experiment. That is, the optimum brake amount Dd with respect to the speed V of the robot arm 11 is obtained by experiment, and the parameter C2 is obtained in advance based on this experiment.

すなわち、ビジュアルインピーダンス制御が開始されてから、偏差(X−Xd)が一定以下となるまでの間、式(4)のブレーキ量Ddは、式(6)に従って演算された初期ブレーキ量Diが設定される。そして、偏差(X−Xd)が一定となった以降、式(4)のブレーキ量Ddは、式(8)に示す更新後のブレーキ量Dnが設定される。
なお、式(6)に示す初期ブレーキ量Diから、式(8)に示す更新後のブレーキ量Dnへの切替条件は、本実施形態では偏差小条件がそのまま採用されている。しかしながら、これは例示であり、切替条件は、偏差小条件に一致させなくてもよい。
That is, from the start of visual impedance control until the deviation (X−Xd) becomes a certain value or less, the brake amount Dd of the equation (4) is set to the initial brake amount Di calculated according to the equation (6). Is done. After the deviation (X−Xd) becomes constant, the updated brake amount Dn shown in equation (8) is set as the brake amount Dd in equation (4).
Note that, in this embodiment, the small deviation condition is used as the switching condition from the initial brake amount Di shown in Equation (6) to the updated brake amount Dn shown in Equation (8). However, this is merely an example, and the switching condition may not match the deviation small condition.

このように、偏差(X−Xd)が一定以下になった場合に、初期ブレーキ量Diよりも大きい量の更新後のブレーキ量Dnが、式(4)のブレーキ量Diとして設定される。これにより、ビジュアルインピーダンス制御の加速度が更新前よりも低くなるので、ロボットアーム11の移動量が必要以上に大きくなることを防止することが可能になる。   As described above, when the deviation (X−Xd) becomes equal to or less than a certain value, the updated brake amount Dn that is larger than the initial brake amount Di is set as the brake amount Di in the equation (4). Thereby, since the acceleration of visual impedance control becomes lower than before update, it becomes possible to prevent the movement amount of the robot arm 11 from becoming larger than necessary.

以上説明したように、制御装置15には、3ステップ移動制御手法、及び、ビジュアルインピーダンス制御のパラメータ可変設定手法が適用されているので、基礎制御手法が有する各種課題を解決することが可能になる。すなわち、制御装置15によりビジュアルインピーダンス制御が実行されることで、基礎制御手法が適用された場合と比較して、より一段と高速、高精度、かつ制御系として安定に、ロボットアーム11を真の目標位置であるボルト穴21まで移動させることが容易にできる、という効果を奏することが可能になる。
なお、3ステップ移動制御手法と、ビジュアルインピーダンス制御のパラメータ可変設定手法とは、相互に独立した手法であるため、組合せて適用する必要は特に無く、何れか一方のみを適用してもよい。ただし、本実施形態のように組合せて用いることで、上述した効果はより顕著なものとなる。
As described above, since the three-step movement control method and the visual variable control parameter variable setting method are applied to the control device 15, it is possible to solve various problems of the basic control method. . In other words, the visual impedance control is executed by the control device 15, so that the robot arm 11 can be set to the true target more rapidly, with higher accuracy and more stably as a control system than when the basic control method is applied. The effect that it can be easily moved to the bolt hole 21 which is the position can be obtained.
Note that the three-step movement control method and the visual impedance control parameter variable setting method are methods independent of each other, and need not be applied in combination, and only one of them may be applied. However, the effect mentioned above becomes more remarkable by using it combining like this embodiment.

次に、このような効果を奏することが可能な制御装置15のハードウェア構成例について説明する。
図14は、制御装置15のハードウェアの構成例を示すブロック図である。
Next, a hardware configuration example of the control device 15 capable of producing such an effect will be described.
FIG. 14 is a block diagram illustrating a hardware configuration example of the control device 15.

制御装置15は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、バス104と、入出力インターフェース105と、入力部106と、出力部107と、記憶部108と、通信部109と、ドライブ110と、を備えている。   The control device 15 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a bus 104, an input / output interface 105, an input unit 106, and an output unit 107. A storage unit 108, a communication unit 109, and a drive 110.

CPU101は、ROM102に記録されているプログラムに従って各種の処理を実行する。又は、CPU101は、記憶部108からRAM103にロードされたプログラムに従って各種の処理を実行する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The CPU 101 executes various processes according to programs recorded in the ROM 102. Alternatively, the CPU 101 executes various processes according to a program loaded from the storage unit 108 to the RAM 103. The RAM 103 also appropriately stores data necessary for the CPU 101 to execute various processes.

例えば本実施形態では、上述した図2のロボットアーム制御部41及びエンドエフェクタ制御部42の各機能を実行するプログラムが、ROM102や記憶部108に記憶されている。従って、CPU101が、このプログラムに従った処理を実行することで、ロボットアーム制御部41及びエンドエフェクタ制御部42の各機能を実現することができる。なお、以下、このプログラムに従った処理を、ボルト締め処理と呼ぶ。ボルト締め処理の一例については、図15乃至図17のフローチャートを参照して後述する。   For example, in the present embodiment, programs for executing the functions of the robot arm control unit 41 and the end effector control unit 42 in FIG. 2 described above are stored in the ROM 102 and the storage unit 108. Therefore, each function of the robot arm control unit 41 and the end effector control unit 42 can be realized by the CPU 101 executing processing according to this program. Hereinafter, processing according to this program is referred to as bolt tightening processing. An example of the bolting process will be described later with reference to the flowcharts of FIGS.

CPU101と、ROM102と、RAM103とは、バス104を介して相互に接続されている。このバス104にはまた、入出力インターフェース105も接続されている。   The CPU 101, the ROM 102, and the RAM 103 are connected to each other via the bus 104. An input / output interface 105 is also connected to the bus 104.

入出力インターフェース105には、キーボード等で構成される入力部106と、表示デバイスやスピーカ等で構成される出力部107と、ハードディスク等より構成される記憶部108と、通信部109と、が接続されている。通信部109は、カメラ13との間で行う通信と、ロボットアーム駆動装置14との間で行う通信と、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信と、をそれぞれ制御する。なお、これらの通信は、図1の例では有線通信とされているが、無線通信であってもよい。   Connected to the input / output interface 105 are an input unit 106 configured with a keyboard and the like, an output unit 107 configured with a display device and a speaker, a storage unit 108 configured with a hard disk, and a communication unit 109. Has been. The communication unit 109 performs communication with the camera 13, communication with the robot arm drive device 14, and communication with another device (not shown) via a network including the Internet. , Respectively. These communications are wired communications in the example of FIG. 1, but may be wireless communications.

入出力インターフェース105にはまた、必要に応じてドライブ110が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなるリムーバブルメディア111が適宜装着される。そして、それらから読み出されたプログラムが、必要に応じて記憶部108にインストールされる。   A drive 110 is connected to the input / output interface 105 as necessary, and a removable medium 111 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached. And the program read from them is installed in the memory | storage part 108 as needed.

図15は、図14の制御装置15によるボルト締め処理の流れの一例を示すフローチャートである。
なお、図15は、1つのボルト穴21に対してボルト締めを行うまでの一連の処理を示している。すなわち、本実施形態では、N個のボルト穴21−1乃至21−Nがワーク2に存在するので、N個のボルト穴21−1乃至21−Nのそれぞれに対して、図15のボルト締め処理が繰り返し実行される。
FIG. 15 is a flowchart showing an example of the flow of bolt tightening processing by the control device 15 of FIG.
FIG. 15 shows a series of processes until bolting is performed on one bolt hole 21. That is, in this embodiment, since N bolt holes 21-1 to 21-N exist in the workpiece 2, the bolt tightening of FIG. 15 is performed on each of the N bolt holes 21-1 to 21-N. The process is executed repeatedly.

ステップS1において、CPU101は、ティーチングプレイバック制御により、目標の教示位置P1に向けて、ロボットアーム11を移動させる。
すなわち、CPU101は、ティーチングプレイバック制御により、教示位置P1に基づいて移動指令を生成し、通信部109を介して、ロボットアーム駆動装置14に送信する。すると、上述したように、ロボットアーム駆動装置14は、この移動指令に従って、ロボットアーム11を教示位置P1に向けて移動させる。
In step S1, the CPU 101 moves the robot arm 11 toward the target teaching position P1 by teaching playback control.
That is, the CPU 101 generates a movement command based on the teaching position P <b> 1 by teaching playback control, and transmits the movement command to the robot arm driving device 14 via the communication unit 109. Then, as described above, the robot arm driving device 14 moves the robot arm 11 toward the teaching position P1 in accordance with this movement command.

ステップS2において、CPU101は、対象物を検知したか否かを判定する。
すなわち、ロボットアーム11が教示位置P1に向けて移動している間、カメラ13は、撮影画像の画像データを制御装置15に逐次送信し続ける。
CPU101は、この画像データを通信部109を介して受信し、所定の画像処理を施すことで、撮影画像にボルト穴21が含まれるか否かを判定する。撮影画像にボルト穴21が含まれていない限り、ステップS2において対象物は検知されていないと判定され、処理はステップS1に戻され、それ以降の処理が繰り返される。すなわち、撮影画像にボルト穴21が含まれるようになるまでの間、ステップS1,S2NOのループ処理が繰り返し実行されて、ティーチィングプレイバック制御によりロボットアーム11が教示位置P1に向けて移動し続ける。
ロボットアーム11が教示位置P1に近づき、カメラ13の画角内にボルト穴21が現れると、撮影画像にボルト穴21が含まれるようになる。このような場合、CPU101は、このボルト穴21を対象物として検知する。これにより、ステップS2において、YESであると判定されて、処理はステップS3に進む。
In step S2, the CPU 101 determines whether or not an object has been detected.
That is, while the robot arm 11 is moving toward the teaching position P <b> 1, the camera 13 continues to sequentially transmit the image data of the captured image to the control device 15.
The CPU 101 receives this image data via the communication unit 109 and performs predetermined image processing to determine whether or not the captured image includes the bolt hole 21. Unless the bolt hole 21 is included in the photographed image, it is determined in step S2 that the object is not detected, the process returns to step S1, and the subsequent processes are repeated. That is, until the bolt hole 21 is included in the photographed image, the loop processing of steps S1 and S2NO is repeatedly performed, and the robot arm 11 continues to move toward the teaching position P1 by teaching playback control. .
When the robot arm 11 approaches the teaching position P <b> 1 and the bolt hole 21 appears in the angle of view of the camera 13, the bolt hole 21 is included in the photographed image. In such a case, the CPU 101 detects the bolt hole 21 as an object. Thereby, it determines with it being YES in step S2, and a process progresses to step S3.

ステップS3において、CPU101は、ティーチングプレイバック制御の修正移動処理を実行する。
すなわち、図6を用いて上述したように、CPU101は、ティーチングプレイバック制御の目標位置を、教示位置P1から、仮想目標の位置P4に変更する。
CPU101は、教示位置P1から仮想目標の位置P4までの新経路PLを設定し、この新経路PLに従って移動指令を生成し、通信部109を介してロボットアーム駆動装置14に供給する。すると、ロボットアーム駆動装置14は、この移動指令に従って、ロボットアーム11を新経路PLに沿って移動させる。
その後、CPU101は、制御切替条件を満たすか否かを逐次判定する。
制御切替条件が満たされるまでの間、ティーチィングプレイバック制御によりロボットアーム11が新経路PLに沿って移動し続ける。
そして、制御切替条件が満たされると、ティーチングプレイバック制御の修正移動処理が終了して、処理はステップS4に進む。
なお、ティーチングプレイバック制御の修正移動処理の詳細例については、図16のフローチャートを参照して後述する。
In step S3, the CPU 101 executes a correction movement process for teaching playback control.
That is, as described above with reference to FIG. 6, the CPU 101 changes the target position for teaching playback control from the teaching position P1 to the virtual target position P4.
The CPU 101 sets a new path PL from the teaching position P1 to the virtual target position P4, generates a movement command according to the new path PL, and supplies the movement command to the robot arm driving device 14 via the communication unit 109. Then, the robot arm driving device 14 moves the robot arm 11 along the new path PL in accordance with this movement command.
Thereafter, the CPU 101 sequentially determines whether or not the control switching condition is satisfied.
Until the control switching condition is satisfied, the robot arm 11 continues to move along the new path PL by teaching playback control.
When the control switching condition is satisfied, the correction movement process for teaching playback control is completed, and the process proceeds to step S4.
A detailed example of the correction movement process of teaching playback control will be described later with reference to the flowchart of FIG.

ステップS4において、CPU101は、ロボットアーム11の動作の制御を、ティーチングプレイバック制御からビジュアルインピーダンス制御に切り替える。   In step S4, the CPU 101 switches the operation control of the robot arm 11 from teaching playback control to visual impedance control.

ステップS5において、CPU101は、カメラ13の撮影画像の画像データに基づいて偏差(X−Xd)を演算し、その偏差(X−Xd)をフィードバック量として用いるビジュアルインピーダンス制御により、移動指令を生成して、通信部109を介して、ロボットアーム駆動装置14に送信する。すると、上述したように、ロボットアーム駆動装置14は、この移動指令に従って、ロボットアーム11を移動させる。
なお、以下、このようなステップS5の処理を、「ビジュアルインピーダンス制御の移動処理」と称する。
ビジュアルインピーダンス制御の移動処理の詳細例については、図17のフローチャートを参照して後述する。
ロボットアーム11がボルト穴21まで移動して、偏差(X−Xd)が略0になると、位置決めが完了したと判定されて、ビジュアルインピーダンス制御の移動処理が終了し、処理はステップS6に進む。
In step S <b> 5, the CPU 101 calculates a deviation (X−Xd) based on the image data of the captured image of the camera 13, and generates a movement command by visual impedance control using the deviation (X−Xd) as a feedback amount. Then, the data is transmitted to the robot arm driving device 14 via the communication unit 109. Then, as described above, the robot arm driving device 14 moves the robot arm 11 in accordance with this movement command.
Hereinafter, such processing in step S5 is referred to as “visual impedance control movement processing”.
A detailed example of the moving process of the visual impedance control will be described later with reference to the flowchart of FIG.
When the robot arm 11 moves to the bolt hole 21 and the deviation (X−Xd) becomes substantially zero, it is determined that the positioning is completed, the moving process of visual impedance control is finished, and the process proceeds to step S6.

ステップS6において、CPU101は、ボルト締め作業を制御する。すなわち、CPU101は、通信部109を介してエンドエフェクタ12を制御することによって、ボルトをボルト穴21に挿入して捻じ込む。
これにより、ボルト締め処理は終了する。
In step S6, the CPU 101 controls the bolt tightening operation. That is, the CPU 101 controls the end effector 12 via the communication unit 109 to insert and screw a bolt into the bolt hole 21.
Thereby, the bolt tightening process ends.

次に、ボルト締め処理のうち、ステップS3のティーチングプレイバック制御の修正移動処理の詳細例について説明する。
図16は、ティーチングプレイバック制御の修正移動処理の流れの詳細例を示すフローチャートである。
上述したように、ボルト穴21が対象物として検知されると、ステップS2においてYESであると判定されて、ティーチングプレイバック制御の修正移動処理として、次のようなステップ11乃至S20の処理が実行される。
Next, the detailed example of the correction movement process of teaching playback control of step S3 among bolt fastening processes is demonstrated.
FIG. 16 is a flowchart showing a detailed example of the flow of the correction movement process of teaching playback control.
As described above, when the bolt hole 21 is detected as an object, it is determined as YES in step S2, and the following steps 11 to S20 are executed as the correction movement processing of the teaching playback control. Is done.

ステップS11において、CPU101は、データ作成数i=0に設定する。
データ作成数iとは、新経路PLの候補となるデータ(以下、「新経路候補」と称する)の作成済みの個数をいう。ここで、新経路候補の必要データ数をn(nは1以上の任意の整数値)とすると、データ作成数iは、1乃至nの何れかの値をとる。
In step S11, the CPU 101 sets the number of data creation i = 0.
The number of data creation i refers to the number of data that have been created as candidates for the new route PL (hereinafter referred to as “new route candidates”). Here, if the number of necessary data of the new route candidate is n (n is an arbitrary integer value of 1 or more), the data creation number i takes any value from 1 to n.

ステップS12において、CPU101は、ロボットアーム11の位置P2iを取得する。
ロボットアーム11の位置P2iとは、本実施形態では、ワーク2が存在する空間の座標系(以下、「ワールド座標系」と称する)におけるエンドエフェクタ12の先端の座標をいう。ロボットアーム11の位置P2iは、本実施形態では、ロボットアーム駆動装置14により検出され、状態情報に含まれて制御装置15に送信される。そこで、CPU101は、通信部109を介して状態情報を受信し、この状態情報から、ロボットアーム11の位置P2iを取得する。
In step S <b> 12, the CPU 101 acquires the position P <b> 2 i of the robot arm 11.
In this embodiment, the position P2i of the robot arm 11 refers to the coordinates of the tip of the end effector 12 in the coordinate system of the space in which the workpiece 2 exists (hereinafter referred to as “world coordinate system”). In this embodiment, the position P2i of the robot arm 11 is detected by the robot arm drive device 14, and is included in the state information and transmitted to the control device 15. Therefore, the CPU 101 receives the state information via the communication unit 109, and acquires the position P2i of the robot arm 11 from this state information.

ステップS13において、CPU101は、カメラ内対象物の位置P3iを取得する。
カメラ内対象物の位置P3iとは、本実施形態では、カメラ13の撮影画像に対象物として含まれるボルト穴21についての、カメラ座標系での座標をいう。CPU101は、カメラ13の撮影画像の画像データを通信部109を介して受信し、上述のごとく、この画像データに対して画像処理を施すことで、カメラ内対象物の位置P3iを取得する。
In step S13, the CPU 101 acquires the position P3i of the in-camera object.
In this embodiment, the position P3i of the in-camera object refers to the coordinates in the camera coordinate system of the bolt hole 21 included as an object in the captured image of the camera 13. The CPU 101 receives the image data of the captured image of the camera 13 via the communication unit 109, and acquires the position P3i of the in-camera object by performing image processing on the image data as described above.

ステップS14において、CPU101は、位置P2i及び位置P3iに基づいて、仮目標の位置P4iを設定する。
ステップS15において、CPU101は、教示位置P1から仮想目標の位置P4iまでの新経路候補PLiを作成する。
これにより、作成済みの新経路候補PLiが1つ増えたので、ステップS16において、CPU101は、データ作成数iを1だけインクリメントする(i=i+1)。
In step S14, the CPU 101 sets a temporary target position P4i based on the position P2i and the position P3i.
In step S15, the CPU 101 creates a new route candidate PLi from the teaching position P1 to the virtual target position P4i.
As a result, the number of created new path candidates PLi is increased by 1, so that in step S16, the CPU 101 increments the data creation number i by 1 (i = i + 1).

ステップS17において、CPU101は、データ作成数iが必要データ数nとなったか(i=nであるか)否かを判定する。   In step S <b> 17, the CPU 101 determines whether the data creation number i has reached the required data number n (i = n).

データ作成数iが必要データ数n未満の場合、ステップS17においてNOであると判定されて、処理はステップS12に戻され、それ以降の処理が繰り返される。すなわち、ステップS12乃至S17のループ処理が繰り返されて、n個の新経路候補PL1乃至PLnが順次作成される。
n個目の新経路候補PLnが作成されて、データ作成数i=nになると、次のステップS17においてYESであると判定されて、処理はステップS18に進む。
If the data creation number i is less than the required data number n, it is determined as NO in step S17, the process returns to step S12, and the subsequent processes are repeated. That is, the loop processing of steps S12 to S17 is repeated, and n new route candidates PL1 to PLn are sequentially created.
When the n-th new route candidate PLn is created and the data creation number i = n, it is determined as YES in the next step S17, and the process proceeds to step S18.

ステップS18において、CPU101は、新経路候補PL1乃至PLnに基づいて、新経路PLを決定する。
なお、新経路PLの決定手法自体は、新経路候補PL1乃至PLnの少なくとも一部を用いる手法であれば、特に限定されない。
例えば、CPU101は、新経路候補PL1乃至PLnの各々の仮想目標の位置P41乃至P4nを平均化した位置を、仮目標の位置P4として設定することによって、教示位置P1から仮想目標の位置P4までの新経路PLを作成することができる。この場合、仮想目標の位置P41乃至P4nが平均化されるので、各々が有している誤差量を減らすことができる。
また例えば、CPU101は、新経路候補PL1乃至PLnの各々の仮想目標の位置P41乃至P4nを重み付けして所定の演算を実行し、その演算結果を仮想目標の位置P4として設定することによって、教示位置P1から仮想目標の位置P4までの新経路PLを作成することができる。
この場合の重み付けの手法は、特に限定されないが、例えばロボットアーム11の速度Vを考慮した重み付けをすると、仮想目標の位置P41乃至P4nの各々が有している誤差量を減らすことができるので好適である。すなわち、ロボットアーム11の速度が遅い時点で得られた位置データの方が、誤差が少なく信頼性が高いと判断することができる。本実施形態では、仮想目標の位置P41乃至P4nの各々が設定された時点のロボットアーム11の速度Vは、その順で遅くなっていく(図5や図7参照)。そこで、仮想目標の位置P41乃至P4nの各々の重みをその順で大きくしていくように重み付けをすることによって、仮想目標の位置P41乃至P4nの各々が有している誤差量を減らすことが可能になる。
In step S18, the CPU 101 determines a new route PL based on the new route candidates PL1 to PLn.
The method for determining the new route PL is not particularly limited as long as it is a method that uses at least a part of the new route candidates PL1 to PLn.
For example, the CPU 101 sets a position obtained by averaging the virtual target positions P41 to P4n of each of the new path candidates PL1 to PLn as a temporary target position P4, whereby the teaching position P1 to the virtual target position P4 are set. A new route PL can be created. In this case, since the virtual target positions P41 to P4n are averaged, the amount of error that each has can be reduced.
Further, for example, the CPU 101 weights the virtual target positions P41 to P4n of each of the new path candidates PL1 to PLn, performs a predetermined calculation, and sets the calculation result as the virtual target position P4, thereby teaching position A new path PL from P1 to the virtual target position P4 can be created.
The weighting method in this case is not particularly limited. For example, weighting in consideration of the velocity V of the robot arm 11 is preferable because the error amount of each of the virtual target positions P41 to P4n can be reduced. It is. That is, it can be determined that the position data obtained at the time when the speed of the robot arm 11 is slower has less error and higher reliability. In this embodiment, the speed V of the robot arm 11 at the time when each of the virtual target positions P41 to P4n is set decreases in that order (see FIGS. 5 and 7). Therefore, by weighting the virtual target positions P41 to P4n so as to increase the weights in that order, it is possible to reduce the error amount of each of the virtual target positions P41 to P4n. become.

このようにして新経路PLが決定されると、処理はステップS19に進む。
ステップS19において、CPU101は、新経路PLに従って、ティーチングプレイバック制御によりロボットアーム11を移動させる。
すなわち、CPU101は、ティーチングプレイバック制御により、新経路PLに基づいて移動指令を生成し、通信部109を介して、ロボットアーム駆動装置14に送信する。すると、上述したように、ロボットアーム駆動装置14は、この移動指令に従って、ロボットアーム11を新経路PLに従って移動させる。
When the new route PL is determined in this way, the process proceeds to step S19.
In step S19, the CPU 101 moves the robot arm 11 by teaching playback control according to the new path PL.
That is, the CPU 101 generates a movement command based on the new path PL by teaching playback control, and transmits the movement command to the robot arm driving device 14 via the communication unit 109. Then, as described above, the robot arm driving device 14 moves the robot arm 11 according to the new path PL in accordance with this movement command.

ステップS20において、CPU101は、制御切替条件を満たすか否かを判定する。
制御切替条件としては、例えば、図7に示す第1の条件と図8に示す第2の条件との何れか一方、又は両条件の組合せを採用することができる。両条件の組合せを採用する場合には、AND条件を採用してもよいし、OR条件を採用してもよい。
制御切替条件が満たされていない場合、ステップS20においてNOであると判定されて、処理はステップS19に戻され、それ以降の処理が繰り返される。すなわち、制御切替条件が満たされるまでの間、ステップS19,S20NOのループ処理が繰り返し実行されることによって、ティーチィングプレイバック制御によりロボットアーム11が新経路PLに沿って移動し続ける。
そして、制御切替条件が満たされると、ステップS20においてYESであると判定されて、ティーチングプレイバック制御の修正移動処理が終了して、処理は図15のステップS4に進む。
すなわち、ロボットアーム11の動作の制御が、ティーチングプレイバック制御からビジュアルインピーダンス制御に切り替えられて、ステップS5のビジュアルインピーダンス制御の移動処理が実行される。
In step S20, the CPU 101 determines whether or not a control switching condition is satisfied.
As the control switching condition, for example, one of the first condition shown in FIG. 7 and the second condition shown in FIG. 8 or a combination of both conditions can be adopted. When employing a combination of both conditions, an AND condition or an OR condition may be employed.
When the control switching condition is not satisfied, it is determined as NO in Step S20, the process is returned to Step S19, and the subsequent processes are repeated. That is, until the control switching condition is satisfied, the loop processing of steps S19 and S20NO is repeatedly executed, so that the robot arm 11 continues to move along the new path PL by teaching playback control.
When the control switching condition is satisfied, it is determined as YES in Step S20, the correction movement process of teaching playback control is finished, and the process proceeds to Step S4 in FIG.
That is, the control of the operation of the robot arm 11 is switched from the teaching playback control to the visual impedance control, and the moving process of the visual impedance control in step S5 is executed.

次に、このようなステップS5のビジュアルインピーダンス制御の移動処理の詳細例について説明する。
図17は、ビジュアルインピーダンス制御の移動処理の流れの詳細例を示すフローチャートである。
Next, a detailed example of the moving process of the visual impedance control in step S5 will be described.
FIG. 17 is a flowchart illustrating a detailed example of the flow of movement processing for visual impedance control.

ステップS31において、CPU101は、ロボットアーム11の速度Vを取得する。
ロボットアーム11の速度Vは、本実施形態では、ロボットアーム駆動装置14により検出され、状態情報に含まれて制御装置15に送信される。そこで、CPU101は、通信部109を介して状態情報を受信し、この状態情報から、ロボットアーム11の速度Vを取得する。
In step S <b> 31, the CPU 101 acquires the speed V of the robot arm 11.
In this embodiment, the velocity V of the robot arm 11 is detected by the robot arm drive device 14 and is transmitted to the control device 15 by being included in the state information. Therefore, the CPU 101 receives the state information via the communication unit 109 and acquires the speed V of the robot arm 11 from this state information.

ステップS32において、CPU101は、速度Vに基づいて初期ブレーキ量Diを設定する。すなわち、CPU101は、ステップS31の処理で取得した速度Vを、式(6)に代入して演算することで、初期ブレーキ量Diを設定する。
ステップS33において、CPU101は、式(4)におけるブレーキ量Dd=Diに設定する。
In step S <b> 32, the CPU 101 sets an initial brake amount Di based on the speed V. That is, the CPU 101 sets the initial brake amount Di by substituting and calculating the speed V acquired in the process of step S31 into the equation (6).
In step S33, the CPU 101 sets the brake amount Dd = Di in Expression (4).

ステップS34において、CPU101は、ビジュアルインピーダンス制御によりロボットアーム11を移動させる。
すなわち、CPU101は、ロボットアームの速度V、アクセル量Fα、ブレーキ量Dd、及び、仮想質量Mdの各々を、式(4)に代入して演算する。
上述したように、ロボットアームの速度Vは、ロボットアーム駆動装置14から送信されてくる状態情報に含まれている。アクセル量Fαは、カメラ13の撮影画像から得られる偏差(X−Xd)が式(5)に代入された場合の、式(5)の演算結果であるアクセル量Fαbである。ブレーキ量Ddは、ステップS33の処理で設定された初期ブレーキ量Diである。仮想質量Mdは、予め設定されてROM102等に予め記憶されている。
CPU101は、このような式(4)の演算結果に基づいて移動指令を生成し、通信部109を介して、ロボットアーム駆動装置14に送信する。すると、上述したように、ロボットアーム駆動装置14は、この移動指令に従って、ロボットアーム11を移動させる。
In step S34, the CPU 101 moves the robot arm 11 by visual impedance control.
That is, the CPU 101 calculates each of the robot arm speed V, the accelerator amount Fα, the brake amount Dd, and the virtual mass Md by substituting each into equation (4).
As described above, the velocity V of the robot arm is included in the state information transmitted from the robot arm driving device 14. The accelerator amount Fα is an accelerator amount Fαb that is a calculation result of the equation (5) when the deviation (X−Xd) obtained from the captured image of the camera 13 is substituted into the equation (5). The brake amount Dd is the initial brake amount Di set in the process of step S33. The virtual mass Md is set in advance and stored in advance in the ROM 102 or the like.
The CPU 101 generates a movement command based on the calculation result of the equation (4) and transmits it to the robot arm drive device 14 via the communication unit 109. Then, as described above, the robot arm driving device 14 moves the robot arm 11 in accordance with this movement command.

ステップS35において、CPU101は、偏差小条件を満たすか否かを判定する。
偏差小条件としては、例えば図11に示す条件と図12に示す条件との何れか一方、又は両条件の組合せを採用することができる。両条件の組合せを採用する場合には、AND条件を採用してもよいし、OR条件を採用してもよい。
偏差小条件が満たされていない場合、ステップS35においてNOであると判定されて、処理はステップS34に戻され、それ以降の処理が繰り返される。すなわち、偏差小条件が満たされるまでの間、ステップS34,S35NOのループ処理が繰り返し実行されることによって、ビジュアルインピーダンス制御によりロボットアーム11が移動し続ける。
ここでのビジュアルインピーダンス制御では、アクセル量Fαは、カメラ13の撮影画像から得られる偏差(X−Xd)が式(5)に代入された場合の、式(5)の演算結果であるアクセル量Fαbが設定される。ブレーキ量Ddは、初期ブレーキ量Diが設定される。
その後、偏差小条件が満たされると、ステップS35においてYESであると判定されて、処理はステップS36に進む。
In step S35, the CPU 101 determines whether or not a small deviation condition is satisfied.
As the small deviation condition, for example, one of the condition shown in FIG. 11 and the condition shown in FIG. 12, or a combination of both conditions can be adopted. When employing a combination of both conditions, an AND condition or an OR condition may be employed.
If the small deviation condition is not satisfied, it is determined as NO in Step S35, the process returns to Step S34, and the subsequent processes are repeated. That is, until the small deviation condition is satisfied, the robot arm 11 continues to move by visual impedance control by repeatedly executing the loop processing of steps S34 and S35NO.
In the visual impedance control here, the accelerator amount Fα is the accelerator amount that is the calculation result of Equation (5) when the deviation (X−Xd) obtained from the captured image of the camera 13 is substituted into Equation (5). Fαb is set. As the brake amount Dd, an initial brake amount Di is set.
Thereafter, when the small deviation condition is satisfied, it is determined as YES in Step S35, and the process proceeds to Step S36.

ステップS36において、CPU101は、式(7)に従って更新後のアクセル量Fnを演算し、式(8)に従って更新後のブレーキ量Dnを演算する。
ステップS37において、CPU101は、アクセル量Fα=Fnに設定し、ブレーキ量Dd=Dnに設定する。
In step S36, the CPU 101 calculates the updated accelerator amount Fn according to the equation (7), and calculates the updated brake amount Dn according to the equation (8).
In step S37, the CPU 101 sets the accelerator amount Fα = Fn and the brake amount Dd = Dn.

ステップS38において、CPU101は、ビジュアルインピーダンス制御によりロボットアーム11を移動させる。
ここでのビジュアルインピーダンス制御では、アクセル量Fαは、更新後のアクセル量Fnが設定される。ブレーキ量Ddは、更新後のブレーキ量Dnが設定される。
In step S38, the CPU 101 moves the robot arm 11 by visual impedance control.
In the visual impedance control here, the updated accelerator amount Fn is set as the accelerator amount Fα. The updated brake amount Dn is set as the brake amount Dd.

ステップS39において、CPU101は、位置決めが完了したか否かを判定する。
位置決め完了の判定条件は、特に限定されないが、本実施形態では「偏差(X−Xd)が略0になったとき」という条件が採用されているものとする。
従って、本実施形態では偏差(X−Xd)が略0になっていない場合、ステップS39においてNOであると判定されて、処理はステップS36に戻され、それ以降の処理が繰り返される。すなわち、偏差(X−Xd)が略0になるまでの間、ステップS36乃至S39NOのループ処理が繰り返されることによって、ビジュアルインピーダンス制御によりロボットアーム11が移動し続ける。
ここでのビジュアルインピーダンス制御では、アクセル量Fαは、ステップS36乃至S39NOのループ処理毎に演算される更新後のアクセル量Fnが設定される。ブレーキ量Ddは、ステップS36乃至S39NOのループ処理毎に演算される更新後のブレーキ量Dnが設定される。
その後、偏差(X−Xd)が略0になると、ステップS39においてYESであると判定されて、ビジュアルインピーダンス制御の移動処理が終了して、処理は図15のステップS6に進む。すなわち、エンドエフェクタ12により、ボルトがボルト穴21に挿入されて捻じ込まれる。
In step S39, the CPU 101 determines whether the positioning is completed.
The positioning completion determination condition is not particularly limited, but in this embodiment, it is assumed that the condition “when the deviation (X−Xd) becomes substantially zero” is employed.
Therefore, in this embodiment, when the deviation (X−Xd) is not substantially 0, it is determined as NO in Step S39, the process is returned to Step S36, and the subsequent processes are repeated. That is, until the deviation (X−Xd) becomes substantially zero, the robot arm 11 continues to move by visual impedance control by repeating the loop process of steps S36 to S39NO.
In the visual impedance control here, the updated accelerator amount Fn calculated for each loop process of steps S36 to S39 is set as the accelerator amount Fα. As the brake amount Dd, the updated brake amount Dn calculated for each loop process of steps S36 to S39 is set.
Thereafter, when the deviation (X−Xd) becomes substantially zero, it is determined as YES in Step S39, the moving process of visual impedance control is ended, and the process proceeds to Step S6 in FIG. That is, the bolt is inserted into the bolt hole 21 and screwed by the end effector 12.

本実施形態によれば、以下のような効果がある。
(1)本実施形態に係る制御装置15は、3ステップ移動制御手法に従って、次のような処理を実行することができる。
すなわち、制御装置15は、ティーチングプレイバック制御を実行する第1のステップの処理中に対象物であるボルト穴21が視認された段階で直ちに、ビジュアルインピーダンス制御を実行する第3のステップに切り替えるのではなく、第2のステップに切り替える。第2のステップとは、目標位置よりも対象物に近い位置を新たな目標位置として、新たな目標位置までの新たな経路を設定して、制御切替条件が満たされるまでの間、新たな経路に沿って、ロボットアーム11を移動させるティーチングプレイバック制御を実行するステップである。そして、制御装置15は、制御切替条件が満たされたときに第3のステップに切り替える。
これにより、ロボットアーム11の速度等の状態を一定の範囲内に収めて、ビジュアルインピーダンス制御を開始することが可能になる。この「一定の範囲」は、制御切替条件を適切に設定することで、ビジュアルインピーダンス制御にとって適切な範囲内にすることが容易にできる。この場合、ビジュアルインピーダンス制御が安定して適切に実行される。その結果、基本制御手法の場合と比較して、より一段と高速、高精度、かつ制御系として安定に、ロボットアーム11を移動させることが可能になる。
According to this embodiment, there are the following effects.
(1) The control device 15 according to the present embodiment can execute the following processing according to a three-step movement control method.
That is, the control device 15 switches to the third step for executing visual impedance control immediately after the bolt hole 21 as the object is visually recognized during the processing of the first step for executing teaching playback control. Instead, switch to the second step. The second step is to set a new route to the new target position with a position closer to the object than the target position as a new target position, and to a new route until the control switching condition is satisfied This is a step of executing teaching playback control for moving the robot arm 11 along the line. Then, the control device 15 switches to the third step when the control switching condition is satisfied.
As a result, the state of the robot arm 11 such as the speed can be kept within a certain range, and visual impedance control can be started. This “certain range” can be easily set within a range suitable for visual impedance control by appropriately setting the control switching condition. In this case, visual impedance control is executed stably and appropriately. As a result, compared to the case of the basic control method, the robot arm 11 can be moved more rapidly, with high accuracy, and stably as a control system.

(2)本実施形態に係る制御装置15は、ビジュアルインピーダンス制御のパラメータ可変設定手法に従って、次のような処理を実行することができる。
すなわち、制御装置15は、インピーダンスパラメータという係数を含む式(4)の制御式に対して、偏差(X−Xd)をフィードバック情報とし代入して演算し、その演算結果に基づいて、ロボットアーム11をボルト穴21まで移動させる。この場合、制御装置15は、ロボットアーム11の所定の状態に基づいて、アクセル量Fα又はブレーキ量Ddの少なくとも一部を変更する。
これにより、ロボットアーム11の速度V等の状態によらず、ビジュアルインピーダンス制御が安定して適切に実行される。その結果、基本制御手法の場合と比較して、より一段と高速、高精度、かつ制御系として安定に、マニュピュレータを移動させることが容易に可能になる。
(2) The control device 15 according to the present embodiment can execute the following processing according to the parameter variable setting method for visual impedance control.
That is, the control device 15 performs an operation by substituting the deviation (X−Xd) as feedback information for the control equation (4) including a coefficient called an impedance parameter, and based on the calculation result, the robot arm 11. Is moved to the bolt hole 21. In this case, the control device 15 changes at least a part of the accelerator amount Fα or the brake amount Dd based on a predetermined state of the robot arm 11.
Thereby, the visual impedance control is stably and appropriately executed regardless of the state of the robot arm 11 such as the speed V. As a result, compared to the case of the basic control method, the manipulator can be easily moved more rapidly, with high precision, and stably as a control system.

なお、本発明は本実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、本実施形態では、3ステップ移動制御手法と、ビジュアルインピーダンス制御のパラメータ可変設定手法とは組合せて用いられていたが、上述したごとく、これらの手法は相互に独立しているため、何れか一方のみを用いることができる。
例えば、3ステップ移動制御手法のみが用いられる場合には、第3のステップにおけるビジュアルインピーダンス制御として、基本制御手法に従った制御を採用してもよい。さらにいえば、第3のステップにおける制御は、ビジュアルインピーダンス制御に限定されず、任意の視覚サーボ制御を採用することができる。
また例えば、ビジュアルインピーダンス制御のパラメータ可変設定手法のみが実行される場合には、図15のステップS2の処理でYESであると判定された場合には、ステップS3の処理が実行されずに、ステップS4の処理が実行される。そして、ステップS5の処理として、図17のビジュアルインピーダンス制御の移動処理が実行される。
It should be noted that the present invention is not limited to the present embodiment, and modifications, improvements, etc. within a scope that can achieve the object of the present invention are included in the present invention.
For example, in this embodiment, the three-step movement control method and the visual variable control parameter variable setting method are used in combination, but as described above, these methods are independent of each other. Only one can be used.
For example, when only the three-step movement control method is used, control according to the basic control method may be employed as visual impedance control in the third step. Furthermore, the control in the third step is not limited to visual impedance control, and any visual servo control can be adopted.
Also, for example, when only the visual impedance control parameter variable setting method is executed, when it is determined YES in step S2 of FIG. 15, the process of step S3 is not executed, and step The process of S4 is executed. Then, as the process of step S5, the moving process of visual impedance control of FIG. 17 is executed.

さらに言えば、ビジュアルインピーダンス制御のパラメータ可変設定手法と同様の手法を、ビジュアルインピーダンス制御以外の視覚サーボ制御に対して適用することもできる。例えば、1以上の係数を含む制御式に対して、マニュピュレータに取り付けられた視覚装置により視認された対象物の位置情報を、フィードバック情報とし代入して演算し、その演算結果に基づいて、マニュピュレータを対象物まで移動させる視覚サーボ制御に対して、かかる手法を適用できる。この場合、制御装置は、マニュピュレータの所定の状態に基づいて、1以上の係数の少なくとも一部を変更することが可能になる。
これにより、マニュピュレータの速度等の状態によらず、視覚サーボ制御が安定して適切に実行される。その結果、1以上の係数が固定されていた視覚サーボ制御の場合と比較して、より一段と高速、高精度、かつ制御系として安定に、マニュピュレータを移動させることが容易に可能になる。
Furthermore, a technique similar to the variable parameter setting technique for visual impedance control can be applied to visual servo control other than visual impedance control. For example, with respect to a control expression including one or more coefficients, the position information of an object visually recognized by a visual device attached to the manipulator is substituted and calculated as feedback information, and the manuscript is calculated based on the calculation result. Such a technique can be applied to visual servo control that moves a purulator to an object. In this case, the control device can change at least a part of the one or more coefficients based on a predetermined state of the manipulator.
As a result, the visual servo control is stably and appropriately executed regardless of the state of the manipulator such as speed. As a result, compared to the case of visual servo control in which one or more coefficients are fixed, the manipulator can be easily moved more rapidly, with high accuracy, and stably as a control system.

また例えば、マニュピュレータは、本実施形態ではロボットアーム11に取り付けられていたが、特にこれに限定されず、任意のワーク上の対象物に移動可能なものであればよい。   Further, for example, the manipulator is attached to the robot arm 11 in the present embodiment, but is not particularly limited as long as it can move to an object on an arbitrary workpiece.

また、本実施形態では、図2のロボットアーム制御部41及びエンドエフェクタ制御部42をソフトウェアとハーウェア(CPU101を含む関連部分)の組合せにより構成するものとして説明したが、かかる構成は当然ながら例示であり、本発明はこれに限定されない。例えば、ロボットアーム制御部41及びエンドエフェクタ制御部42の少なくとも一部を、専用のハードウェアで構成してもよし、ソフトウェアで構成してもよい。   In the present embodiment, the robot arm control unit 41 and the end effector control unit 42 in FIG. 2 have been described as being configured by a combination of software and hardware (related parts including the CPU 101). The present invention is not limited to this. For example, at least a part of the robot arm control unit 41 and the end effector control unit 42 may be configured by dedicated hardware or software.

このように、本発明に係る一連の処理は、ソフトウェアにより実行させることも、ハードウェアにより実行させることもできる。   As described above, the series of processes according to the present invention can be executed by software or hardware.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムを、コンピュータ等にネットワークを介して、或いは、記録媒体からインストールすることができる。コンピュータは、専用のハードウェアを組み込んだコンピュータであってもよいし、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータであってもよい。   When a series of processing is executed by software, a program constituting the software can be installed in a computer or the like via a network or from a recording medium. The computer may be a computer incorporating dedicated hardware, or may be a general-purpose personal computer capable of executing various functions by installing various programs.

本発明に係る一連の処理を実行するための各種プログラムを含む記録媒体は、情報処理装置(本実施形態では制御装置15)本体とは別に、ユーザにプログラムを提供するために配布されるリムーバブルメディアでもよく、或いは、情報処理装置本体に予め組み込まれた記録媒体等でもよい。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた記録媒体としては、例えば、プログラムが記録されている、図5のROM102や、図5の記憶部108に含まれるハードディスク等でもよい。   A recording medium including various programs for executing a series of processes according to the present invention is a removable medium distributed to provide a program to a user separately from the main body of the information processing apparatus (control apparatus 15 in this embodiment). Alternatively, a recording medium or the like previously incorporated in the information processing apparatus main body may be used. The removable medium is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. Further, the recording medium incorporated in advance in the apparatus main body may be, for example, the ROM 102 in FIG. 5, the hard disk included in the storage unit 108 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

また、本明細書において、システムとは、複数の装置や処理部により構成される装置全体を表すものである。   Further, in the present specification, the system represents the entire apparatus including a plurality of apparatuses and processing units.

1 ロボットシステム
11 ロボットアーム
12 エンドエフェクタ
13 カメラ
14 ロボットアーム駆動装置
15 制御装置
23 多関節マニュピュレータ
41 ロボットアーム制御部
51 ティーチングプレイバック制御部
52 フィードバック制御部
53 制御切替部
54 画像処理部
55 ロボットアーム状態取得部
61 教示位置保持部
62 目標位置決定部
63 移動指令生成部
64 パラメータ保持部
65 パラメータ設定部
66 視覚サーボ演算部
67 移動指令生成部
68 対象物認識部
69 誤差検出部
DESCRIPTION OF SYMBOLS 1 Robot system 11 Robot arm 12 End effector 13 Camera 14 Robot arm drive device 15 Control apparatus 23 Articulated manipulator 41 Robot arm control part 51 Teaching playback control part 52 Feedback control part 53 Control switching part 54 Image processing part 55 Robot arm State acquisition unit 61 Teaching position holding unit 62 Target position determination unit 63 Movement command generation unit 64 Parameter holding unit 65 Parameter setting unit 66 Visual servo calculation unit 67 Movement command generation unit 68 Object recognition unit 69 Error detection unit

Claims (7)

対象物を視認可能な視覚装置が取り付けられたマニュピュレータを、前記対象物まで移動させる移動制御を行う情報処理装置が実行する情報処理方法において、
前記視覚装置により前記対象物が視認されていない場合に実行される第1のステップであって、前記対象物の位置に基づいて予め設定された目標位置までの経路に沿って、前記マニュピュレータを移動させるティーチングプレイバック制御を実行する第1のステップと、
第1のステップの実行中に前記視覚装置により前記対象物が視認された場合に実行を開始される第2のステップであって、前記目標位置よりも前記対象物に近い位置を新たな目標位置として、前記新たな目標位置までの新たな経路を設定して、移動制御を切り替えるための切替条件が満たされるまでの間、前記新たな経路に沿って、前記マニュピュレータを移動させる前記ティーチングプレイバック制御を実行する第2のステップと、
第2のステップの実行中に前記切替条件が満たされた場合に実行が開始される第3のステップであって、前記視覚装置により視認された前記対象物の位置情報を取得し、前記位置情報をフィードバック情報として用いて前記マニュピュレータを前記対象物まで移動させる視覚サーボ制御を実行する第3のステップと、
を含むことを特徴とする情報処理方法。
In an information processing method executed by an information processing apparatus that performs movement control for moving a manipulator equipped with a visual device capable of visually recognizing an object to the object,
A first step executed when the object is not visually recognized by the visual device , the manipulator being moved along a path to a target position set in advance based on the position of the object; A first step of executing teaching playback control to be moved;
A second step which is started when the object is visually recognized by the visual device during the execution of the first step, and a position closer to the object than the target position is a new target position; The teaching playback for moving the manipulator along the new route until a switching condition for switching the movement control is satisfied by setting a new route to the new target position A second step of performing control;
A third step that is executed when the switching condition is satisfied during execution of the second step, and acquires position information of the object visually recognized by the visual device; A third step of performing visual servo control to move the manipulator to the object using as feedback information;
An information processing method comprising:
前記第2のステップは、
前記新たな目標位置の1以上の候補及び前記新たな経路の1以上の候補を設定する候補設定ステップと、
前記新たな目標位置の1以上の候補及び前記新たな経路の1以上の候補の少なくとも一部に基づいて、前記新たな経路を設定する経路設定ステップと、
前記切替条件が満たされたか否かを判定する判定ステップと、
前記切替条件が満たされていない場合、前記ティーチングプレイバック制御より、前記マニュピュレータを前記新たな経路に沿って移動させる移動ステップと、
判定ステップにおいて前記切替条件が満たされていると判定された場合に実行される切替ステップであって、第2のステップを終了して、第3のステップの実行を開始する切替ステップと、
を含むことを特徴とする請求項1に記載の情報処理方法。
The second step includes
A candidate setting step for setting one or more candidates for the new target position and one or more candidates for the new route;
A route setting step for setting the new route based on at least a part of the one or more candidates for the new target position and the one or more candidates for the new route;
A determination step of determining whether or not the switching condition is satisfied;
If the switching condition is not satisfied, the moving steps of the teaching More playback control, to move the manipulator along said new path,
A switching step that is executed when it is determined in the determination step that the switching condition is satisfied, and the switching step ends the second step and starts the execution of the third step;
The information processing method according to claim 1, further comprising:
前記候補設定ステップは、
前記視覚装置により視認された前記対象物の位置を検出する対象物検出ステップと、
前記マニュピュレータの位置を検出するマニュピュレータ検出ステップと、
前記対象物の位置及び前記マニュピュレータの位置に基づいて、前記新たな目標位置の候補の1つを設定する目標位置候補設定ステップと、
前記目標位置候補設定ステップの処理により設定された前記新たな目標位置の候補までの経路を、前記新たな経路の候補の1つとして設定する経路候補設定ステップと、
を含み、
前記対象物検出ステップ乃至前記経路候補設定ステップの一連の処理が1以上実行されることで、前記新たな目標位置の1以上の候補及び前記新たな経路の1以上の候補が設定される
ことを特徴とする請求項2に記載の情報処理方法。
The candidate setting step includes:
An object detection step for detecting a position of the object visually recognized by the visual device;
A manipulator detection step for detecting the position of the manipulator;
A target position candidate setting step for setting one of the candidates for the new target position based on the position of the object and the position of the manipulator;
A route candidate setting step for setting a route to the new target position candidate set by the target position candidate setting step as one of the new route candidates;
Including
One or more candidates of the new target position and one or more candidates of the new route are set by executing one or more series of processes from the object detection step to the route candidate setting step. The information processing method according to claim 2, wherein:
前記切替条件は、前記マニュピュレータの速度が一定以下になるという条件を含む
ことを特徴とする請求項1乃至3の何れか1項に記載の情報処理方法。
The information processing method according to any one of claims 1 to 3, wherein the switching condition includes a condition that a speed of the manipulator becomes a certain value or less.
前記切替条件は、前記マニュピュレータと前記対象物との位置の偏差が一定以下になるという条件を含む
ことを特徴とする請求項1乃至4の何れか1項に記載の情報処理方法。
5. The information processing method according to claim 1, wherein the switching condition includes a condition that a positional deviation between the manipulator and the object is a certain value or less.
対象物を視認可能な視覚装置が取り付けられたマニュピュレータを、前記対象物まで移動させる移動制御を行う情報処理装置において、
前記視覚装置により前記対象物が視認されていない場合に実行される第1のティーチングプレイバック制御手段であって、前記対象物の位置に基づいて予め設定された目標位置までの経路に沿って、前記マニュピュレータを移動させるティーチングプレイバック制御を実行する前記第1のティーチングプレイバック制御手段と、
前記第1のティーチングプレイバック制御の実行中に前記視覚装置により前記対象物が視認された場合に実行を開始される第2のティーチングプレイバック制御手段であって前記目標位置よりも前記対象物に近い位置を新たな目標位置として、前記新たな目標位置までの新たな経路を設定して、移動制御を切り替えるための所定の切替条件が満たされるまでの間、前記新たな経路に沿って、前記マニュピュレータを移動させるティーチングプレイバック制御を実行する前記第2のティーチングプレイバック制御手段と、
前記視覚装置の出力情報に基づいて、前記対象物を検出する視覚処理手段と、
前記視覚処理手段により検出された前記対象物の位置情報をフィードバック情報として、前記マニュピュレータを前記対象物まで移動させる視覚サーボ制御を実行する視覚サーボ制御手段と、
前記所定の切替条件が満たされた場合、前記移動制御として、前記第2のティーチングプレイバック制御手段によるティーチングプレイバック制御の実行から前記視覚サーボ制御手段による視覚サーボ制御の実行に切替える切替手段と、
を備える
ことを特徴とする情報処理装置。
In an information processing apparatus for performing movement control for moving a manipulator equipped with a visual device capable of visually recognizing an object to the object,
A first teaching playback control unit that is executed when the object is not visually recognized by the visual device , along a path to a target position set in advance based on the position of the object , The first teaching playback control means for executing teaching playback control for moving the manipulator;
The second teaching playback control means is started when the object is visually recognized by the visual device during the execution of the first teaching playback control, and is closer to the object than the target position. While setting a new route to the new target position as a new target position and satisfying a predetermined switching condition for switching movement control, along the new route, The second teaching playback control means for executing teaching playback control for moving the manipulator;
Visual processing means for detecting the object based on output information of the visual device;
Visual servo control means for executing visual servo control for moving the manipulator to the target object using the position information of the target object detected by the visual processing means as feedback information;
When the predetermined switching condition is satisfied, as the movement control, and switching means for switching the execution of the visual servo control by the visual servo control means from the execution of a teaching playback control by the second teaching playback control means,
An information processing apparatus comprising:
対象物を視認可能な視覚装置が取り付けられたマニュピュレータを、前記対象物まで移動させる移動制御処理をコンピュータに実行させるためのプログラムであって
前記視覚装置により前記対象物が視認されていない場合に実行される第1のステップであって、前記対象物の位置に基づいて予め設定された目標位置までの経路に沿って、前記マニュピュレータを移動させるティーチングプレイバック制御を実行する第1のステップと、
第1のステップの実行中に前記視覚装置により前記対象物が視認された場合に実行を開始される第2のステップであって、前記目標位置よりも前記対象物に近い位置を新たな目標位置として、前記新たな目標位置までの新たな経路を設定して、移動制御を切り替えるための切替条件が満たされるまでの間、前記新たな経路に沿って、前記マニュピュレータを移動させる前記ティーチングプレイバック制御を実行する第2のステップと、
第2のステップの実行中に前記切替条件が満たされた場合に実行が開始される第3のステップであって、前記視覚装置により視認された前記対象物の位置情報を取得し、前記位置情報をフィードバック情報として用いて前記マニュピュレータを前記対象物まで移動させる視覚サーボ制御を実行する第3のステップと、
を含む前記移動制御処理をコンピュータに実行させることを特徴とするプログラム。
A program for causing a computer to execute a movement control process for moving a manipulator equipped with a visual device capable of visually recognizing an object to the object,
A first step executed when the object is not visually recognized by the visual device , the manipulator being moved along a path to a target position set in advance based on the position of the object; A first step of executing teaching playback control to be moved;
A second step which is started when the object is visually recognized by the visual device during the execution of the first step, and a position closer to the object than the target position is a new target position; The teaching playback for moving the manipulator along the new route until a switching condition for switching the movement control is satisfied by setting a new route to the new target position A second step of performing control;
A third step that is executed when the switching condition is satisfied during execution of the second step, and acquires position information of the object visually recognized by the visual device; A third step of performing visual servo control to move the manipulator to the object using as feedback information;
A program for causing a computer to execute the movement control process including:
JP2009250612A 2009-10-30 2009-10-30 Information processing method, apparatus and program Expired - Fee Related JP5318727B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009250612A JP5318727B2 (en) 2009-10-30 2009-10-30 Information processing method, apparatus and program
US12/913,078 US8600552B2 (en) 2009-10-30 2010-10-27 Information processing method, apparatus, and computer readable medium
CN2010105283668A CN102049779B (en) 2009-10-30 2010-10-28 Information processing method and apparatus
US14/067,068 US9073210B2 (en) 2009-10-30 2013-10-30 Information processing method, apparatus, and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009250612A JP5318727B2 (en) 2009-10-30 2009-10-30 Information processing method, apparatus and program

Publications (2)

Publication Number Publication Date
JP2011093055A JP2011093055A (en) 2011-05-12
JP5318727B2 true JP5318727B2 (en) 2013-10-16

Family

ID=44110547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009250612A Expired - Fee Related JP5318727B2 (en) 2009-10-30 2009-10-30 Information processing method, apparatus and program

Country Status (1)

Country Link
JP (1) JP5318727B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6307431B2 (en) * 2012-05-25 2018-04-04 学校法人立命館 Robot control device, robot control method, program, recording medium, robot system
JP5976460B2 (en) * 2012-08-27 2016-08-23 Ntn株式会社 Automatic boxing apparatus and method
JP5904445B2 (en) * 2013-01-07 2016-04-13 トヨタ自動車東日本株式会社 Robot controller
CN108621156B (en) 2013-10-10 2021-08-03 精工爱普生株式会社 Robot control device, robot system, robot, and robot control method
JP6322949B2 (en) * 2013-10-10 2018-05-16 セイコーエプソン株式会社 Robot control apparatus, robot system, robot, robot control method, and robot control program
JP6511715B2 (en) 2013-10-31 2019-05-15 セイコーエプソン株式会社 Robot control device, robot system, and robot
JP6400538B2 (en) * 2015-08-25 2018-10-03 ファナック株式会社 Robot control device for controlling a robot driven by a motor
JP7047525B2 (en) * 2018-03-26 2022-04-05 日本電産株式会社 Robot control device, robot control method, program
JP2020044610A (en) * 2018-09-19 2020-03-26 株式会社デンソーウェーブ Robot control method
CN113628524B (en) * 2021-08-11 2022-11-22 菲烁易维(重庆)科技有限公司 Method for acquiring tightening process track by using machine vision technology

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0469706A (en) * 1990-07-11 1992-03-04 Hitachi Ltd Industrial robot controller
JPH08174457A (en) * 1994-12-27 1996-07-09 Nissan Motor Co Ltd Method and device for controlling assembling robot
JP3998741B2 (en) * 1995-07-12 2007-10-31 ファナック株式会社 Robot movement control method
JP3151149B2 (en) * 1996-04-25 2001-04-03 株式会社エイ・ティ・アール人間情報通信研究所 Manipulator control method using image information
JPH10291183A (en) * 1997-04-18 1998-11-04 Yaskawa Electric Corp Robot language processing device
JP2001246582A (en) * 2000-02-29 2001-09-11 Mitsubishi Heavy Ind Ltd Working robot device
JP2003305676A (en) * 2002-04-11 2003-10-28 Denso Wave Inc Control method and control device for mobile robot
EP1652634B1 (en) * 2003-07-29 2011-12-28 Panasonic Corporation Robot arm control method and control device
JP2010131711A (en) * 2008-12-05 2010-06-17 Honda Motor Co Ltd Method of controlling robot arm

Also Published As

Publication number Publication date
JP2011093055A (en) 2011-05-12

Similar Documents

Publication Publication Date Title
JP5318727B2 (en) Information processing method, apparatus and program
US9073210B2 (en) Information processing method, apparatus, and computer readable medium
JP5508895B2 (en) Processing system and processing method
US10618164B2 (en) Robot system having learning control function and learning control method
JP4319232B2 (en) Power assist device and control method thereof
WO2011083659A1 (en) Processing system and processing method
JP6717768B2 (en) Robot for learning control considering operation in production line and control method thereof
JP2010131711A (en) Method of controlling robot arm
WO2019116891A1 (en) Robot system and robot control method
CN108356823A (en) Control system with learning control function and control method
JP5231935B2 (en) Robot controller
CN101402199A (en) Hand-eye type robot movable target extracting method with low servo accuracy based on visual sensation
JP2007237312A (en) Control device
JP6386516B2 (en) Robot device with learning function
US10864628B2 (en) Robot system, robot controller, and method for producing to-be-worked material
JP5290934B2 (en) Information processing method, apparatus and program
JP6217322B2 (en) Robot control apparatus, robot, and robot control method
JP7164368B2 (en) robot equipment
US11597083B2 (en) Robot apparatus, robot system, control method of robot apparatus, product manufacturing method using robot apparatus, and storage medium
JP2017056525A (en) Robot device robot control method, program, recording medium, and method of manufacturing assembling component
JP5324397B2 (en) Information processing method, apparatus and program
JP6322948B2 (en) Robot control apparatus, robot system, robot, robot control method, and program
WO2020255312A1 (en) Operation adjustment device for robot, operation control system, and robot system
JP2017127932A (en) Robot device, method for controlling robot, method for manufacturing component, program and recording medium
JP5299255B2 (en) Robot controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130710

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees