JP2007011978A - Motion controller for robot - Google Patents

Motion controller for robot Download PDF

Info

Publication number
JP2007011978A
JP2007011978A JP2005195258A JP2005195258A JP2007011978A JP 2007011978 A JP2007011978 A JP 2007011978A JP 2005195258 A JP2005195258 A JP 2005195258A JP 2005195258 A JP2005195258 A JP 2005195258A JP 2007011978 A JP2007011978 A JP 2007011978A
Authority
JP
Japan
Prior art keywords
robot
movable part
sensor
control
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005195258A
Other languages
Japanese (ja)
Inventor
Gyoyu Cho
暁友 張
Masahiro Iwasaki
正裕 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005195258A priority Critical patent/JP2007011978A/en
Publication of JP2007011978A publication Critical patent/JP2007011978A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a motion controller for a robot, capable of performing control processing at high speed with high accuracy. <P>SOLUTION: In this motion controller, a forward kinematics arithmetic part 251 finds actual position/attitude information ξ from a joint angle θ, and a double feedback group wherein a feedback group of a second feedback control system performing visual feedback on the basis of a recognition result of an image recognition part 20 is present outside a feedback group of a first feedback control system 25 performing feedback control is configured. A present position/attitude or the like of a hand is estimated from the recognition result of the image recognition part 20 by a first motion estimation part 261, and delay of control of the visual feedback is compensated. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ロボットの位置・姿勢の制御を行う運動制御装置に関する。   The present invention relates to a motion control apparatus that controls the position and posture of a robot.

物体を把持して、これを別の場所へ移動させる等、所定の動作を行わせるロボットハンドが知られている。同種の物体について同一の動作を繰り返し実行させるのではなく、性状(大きさや形状)が様々な物体について多様な動作を行わせようとすると、運動が複雑になり、さらに、位置・姿勢だけでなく、力の制御も必要となるため、制御自体も複雑化する。そうした多用途のロボットハンドにおいて精度よく制御を行うための技術が提案されている(例えば、特許文献1、特許文献2参照)。   A robot hand that performs a predetermined operation such as holding an object and moving the object to another location is known. Rather than repeatedly performing the same action on the same type of object, trying to perform various actions on objects with various properties (sizes and shapes) complicates the movement, and not only the position / posture Since force control is also required, the control itself is complicated. Techniques have been proposed for accurately controlling such multipurpose robot hands (see, for example, Patent Document 1 and Patent Document 2).

特許文献1の技術では、ロボットハンドのハンド位置の実際の変位と所望の変位との差を表す変位誤差信号に選択行列とヤコビ行列との行列積の疑似逆行列を乗じることにより選択されたジョイント変位誤差信号を計算する。それとともに、ハンドに作用する実際の力と所望の力との差から力誤差信号を生成し、同様に選択されたジョイント力誤差信号を計算する。計算したジョイント変位誤差信号とジョイント力誤差信号に基づいて制御信号を生成し、ハンドを所望の位置に移動させ、所望の力を発揮させるものである。   In the technique of Patent Document 1, a joint selected by multiplying a displacement error signal representing a difference between an actual displacement of a hand position of a robot hand and a desired displacement by a pseudo inverse matrix of a matrix product of a selection matrix and a Jacobian matrix. Calculate the displacement error signal. At the same time, a force error signal is generated from the difference between the actual force acting on the hand and the desired force, and similarly selected joint force error signal is calculated. A control signal is generated based on the calculated joint displacement error signal and joint force error signal, the hand is moved to a desired position, and a desired force is exhibited.

特許文献2の技術では、視覚センサにより予め作業対象物を撮影して参照画像として記憶し、作業中に視覚センサにより撮影した作業対象物の画像が参照画像と同じ状態になるよう位置姿勢を制御する視覚フィードバック制御を行うものである。
特開平5−143161号公報 特開2003−305676号公報
In the technique of Patent Document 2, a work object is previously photographed by a visual sensor and stored as a reference image, and the position and orientation are controlled so that the image of the work object photographed by the visual sensor during work is in the same state as the reference image. It performs visual feedback control.
JP-A-5-143161 JP 2003-305676 A

しかしながら、特許文献1の技術は、ロボットの製造精度や可動部の制御誤差等により、制御部で把握しているハンド位置と実際の位置とにずれが生ずる場合があり、その結果、所望の位置へハンドを導けない可能性がある。   However, the technique of Patent Document 1 may cause a deviation between the hand position grasped by the control unit and the actual position due to the manufacturing accuracy of the robot, the control error of the movable unit, and the like. You may not be able to guide your hand.

また、特許文献2の技術を用いれば、視覚センサから位置・姿勢情報を取得できるため、制御部で把握しているハンド位置と実際の位置とのずれを修正することが可能であるが、通常視覚センサに用いられるカメラのフレームレートでは、高速でのフィードバック制御ができない。高速でのフィードバック制御に対応した高フレームレートのカメラは高価で、画像処理系も高速化する必要があり、ロボットハンドへの適用は容易ではない。また、障害物等により、対象物の映像を正常に取得できない場合は、制御を行うことができない。   Moreover, if the technique of patent document 2 is used, since position / posture information can be acquired from a visual sensor, it is possible to correct the deviation between the hand position grasped by the control unit and the actual position. At the frame rate of the camera used for the visual sensor, high-speed feedback control cannot be performed. A camera with a high frame rate that supports high-speed feedback control is expensive, and the image processing system needs to be sped up, so that it is not easy to apply to a robot hand. In addition, control cannot be performed when an image of an object cannot be normally acquired due to an obstacle or the like.

そこで本発明は、高速で精度よく制御処理を行うことを可能としたロボットの運動制御装置を提供することを課題とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a robot motion control apparatus that enables high-speed and accurate control processing.

上記課題を解決するため、本発明に係るロボットの運動制御装置は、駆動機構により機械的に移動可能な部位を有するロボットの運動を制御する制御装置であって、非接触で移動可能部位の位置と移動可能部位の目標位置を検出する外界センサと、駆動機構の駆動に応じた移動可能部位相互の位置関係を取得する内界センサと、移動可能部位の目標位置へ向けた移動を制御する移動制御手段と、外界センサを用いて取得した移動可能部位の位置と内界センサを用いて取得した移動可能部位の位置との偏差を求め、移動制御手段において制御に用いる移動可能部位の目標位置を修正する位置修正手段と、を備えていることを特徴とする。   In order to solve the above-described problems, a robot motion control device according to the present invention is a control device that controls the motion of a robot having a part that can be mechanically moved by a drive mechanism, and the position of the part that can be moved without contact. And an external sensor for detecting the target position of the movable part, an internal sensor for acquiring the positional relationship between the movable parts according to the drive of the drive mechanism, and a movement for controlling the movement of the movable part toward the target position A deviation between the position of the movable part acquired using the control means and the external sensor and the position of the movable part acquired using the internal sensor is obtained, and the target position of the movable part used for control in the movement control means is obtained. And a position correcting means for correcting.

外界センサとしては、視覚センサや超音波センサ、レーダ等の非接触型のセンサが用いられる。また、内界センサとしては、ロボットの関節に配置された関節角度位置センサや駆動モータの角度センサ等が用いられる。外界センサと内界センサそれぞれによって求めた移動可能部位の位置情報を基にして制御に用いる移動可能部位の目標位置を検証し、修正を行う。   As the external sensor, a non-contact type sensor such as a visual sensor, an ultrasonic sensor, or a radar is used. Further, as the internal sensor, a joint angle position sensor arranged at the joint of the robot, an angle sensor of a drive motor, or the like is used. The target position of the movable part used for the control is verified and corrected based on the position information of the movable part obtained by the external sensor and the inner sensor.

外界センサが、位置修正手段の位置修正に比べて長いサンプリングタイムを有している場合には、外界センサを用いて取得した移動可能部位の位置の時間変化を基にして内界センサによる位置情報取得時点に対応した移動可能部位の位置情報を推定して、位置修正手段へと出力する位置推定手段をさらに備えているとよい。   If the external sensor has a longer sampling time than the position correction of the position correction means, the position information by the internal sensor based on the time change of the position of the movable part acquired using the external sensor It is preferable to further include position estimation means for estimating the position information of the movable part corresponding to the acquisition time point and outputting it to the position correction means.

位置修正手段による位置修正タイミングは、移動制御手段の制御サンプリングタイムに合致する。高精度で追従性の高い運動を行わせるためには、制御サンプリング周期は短くすることが好ましい。一方、外界センサに視覚センサ等を用いた場合には、位置情報の取得に長時間を要することになり、それによる位置情報取得は内界センサによるサンプリングと一致せず、数回またはそれ以上おきに取得されることになる。位置推定手段は、この内界センサによる位置情報取得に応じた時点での外界センサによる位置情報を基にして移動可能部位の位置情報を推定する。   The position correction timing by the position correction means matches the control sampling time of the movement control means. It is preferable to shorten the control sampling period in order to perform a highly accurate and highly followable motion. On the other hand, when a visual sensor or the like is used as the external sensor, it takes a long time to acquire the position information, and the acquisition of the position information does not coincide with the sampling by the internal sensor, and every several times or more. Will be acquired. The position estimation means estimates the position information of the movable part based on the position information obtained by the external sensor at the time when the position information is obtained by the internal sensor.

ここで、外界センサによる位置情報取得の成否を判定し、位置情報取得が成功しなかったと判定した場合には、前記位置修正手段による修正を禁止する禁止手段をさらに備えていることが好ましい。外界センサによる位置情報取得が成功しなかった場合に、位置修正手段が誤った位置情報に基づいて位置修正を行うのを抑制するためである。   Here, it is preferable to further include prohibiting means for prohibiting correction by the position correcting means when it is determined whether or not the position information acquisition by the external sensor is successful and it is determined that the position information acquisition is not successful. This is to prevent the position correction unit from correcting the position based on the incorrect position information when the position information acquisition by the external sensor is not successful.

外界センサの位置情報取得のサンプリング周期は、内界センサによる位置情報取得周期の整数倍であると位置情報修正、制御のタイミングを合わせやすくなり、好ましい。   The sampling cycle for acquiring the position information of the external sensor is preferably an integral multiple of the position information acquisition cycle of the internal sensor, which makes it easier to match the timing of the position information correction and control.

本発明によれば、内界センサを用いて駆動機構の位置関係を基に求めた移動可能部位の位置情報と、外界センサを用いて非接触で求めた移動可能部位の位置情報の差分を利用して制御に用いる目標位置を修正するので、制御部で把握している移動可能部位の位置と実際の移動可能部位の位置のずれを修正することができ、精度よく制御を行うことができる。   According to the present invention, the difference between the position information of the movable part obtained based on the positional relationship of the drive mechanism using the inner world sensor and the position information of the movable part obtained without contact using the outer world sensor is used. Since the target position used for the control is corrected, the shift between the position of the movable part grasped by the control unit and the actual position of the movable part can be corrected, and the control can be performed with high accuracy.

さらに、外界センサのサンプリングタイムが長い場合には、より短いサンプリングタイムでの位置情報を推定可能な位置推定手段を設けることで、例えば、映像取得レートの低い視覚センサを用いた場合でも、高速で制御を行うことが可能となり、速い動きに対しても対応することができる。   Further, when the sampling time of the external sensor is long, by providing a position estimation means capable of estimating position information with a shorter sampling time, for example, even when using a visual sensor with a low video acquisition rate, It is possible to perform control, and it is possible to cope with fast movement.

また、外界センサによる位置情報取得が成功しなかったと判定した場合には、位置修正を禁止することで、制御乱れを抑制する。そして、外界センサの位置情報取得のサンプリング周期を内界センサによる位置情報取得サンプリング周期の整数倍であると位置情報修正、制御の同期が容易になる。   Further, when it is determined that the position information acquisition by the external sensor has not been successful, the control disturbance is suppressed by prohibiting the position correction. If the sampling period for acquiring the position information of the external sensor is an integral multiple of the sampling period for acquiring the position information by the internal sensor, the positional information correction and control synchronization are facilitated.

以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の参照番号を附し、重複する説明は省略する。図1は、本発明に係るロボットの運動制御装置を有するロボットの概略構成図であり、図2は、その制御装置のブロック構成図である。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the description, the same reference numerals are given to the same components in the drawings as much as possible, and duplicate descriptions are omitted. FIG. 1 is a schematic configuration diagram of a robot having a robot motion control device according to the present invention, and FIG. 2 is a block configuration diagram of the control device.

図1に示されるように、ロボット100の胴体8には、左右双方のアーム7L、7Rを介して、ロボットハンド1R、1Lが取り付けられている。この胴体8は、移動式または固定式の台座に取り付けられている。胴体8の頭部には、視覚センサであるカメラアイ3を備えている。ハンド1、アーム7の各関節には、関節駆動用のモータと、関節角度を検出するエンコーダポテンションメータが配置されている。   As shown in FIG. 1, robot hands 1R, 1L are attached to the body 8 of the robot 100 via both left and right arms 7L, 7R. The body 8 is attached to a movable or fixed base. The head of the body 8 is provided with a camera eye 3 that is a visual sensor. A motor for driving the joint and an encoder potentiometer for detecting the joint angle are arranged at each joint of the hand 1 and the arm 7.

制御装置は、RAM、ROM、CPU等で構成される制御ECU2を中心に構成されており、対象物およびロボットハンド1の画像を撮影するカメラアイ3の出力画像から画像認識処理により、対象物およびロボットハンド1の位置・姿勢を認識する画像認識部20と、画像認識結果を基にして把持位置・把持姿勢の目標値を求める位置姿勢演算部21と、目標値に応じてロボットハンド1の動きを制御するロボット制御部22とを有している。ロボット制御部22には、各エンコーダポテンションメータ16の出力信号が入力され、モータドライバ4を制御することで、各モータ14の動きを制御して、ロボットハンド1とアーム7の動きを制御する。   The control device is mainly configured by a control ECU 2 including a RAM, a ROM, a CPU, and the like, and the object and the object are detected by an image recognition process from an output image of the camera eye 3 that captures an image of the object and the robot hand 1. An image recognition unit 20 that recognizes the position / posture of the robot hand 1, a position / posture calculation unit 21 that obtains a target value of the gripping position / griping posture based on the image recognition result, and a movement of the robot hand 1 according to the target value And a robot control unit 22 for controlling. The robot controller 22 receives the output signal of each encoder potentiometer 16 and controls the motor driver 4 to control the movement of each motor 14 to control the movement of the robot hand 1 and the arm 7. .

制御装置は、このような構成に限られるものではなく、指示された姿勢となるようロボットハンド1、アーム7の動きを制御する制御部と、画像認識装置や把持姿勢の演算部を、別体としてもよい。また、これらの演算部・制御部は、ハードウェア的に区分されていてもソフトウェア的に区分されていてもよい。   The control device is not limited to such a configuration, and a control unit that controls the movement of the robot hand 1 and the arm 7 so as to have an instructed posture, and an image recognition device and a gripping posture calculation unit are separately provided. It is good. In addition, these calculation units / control units may be divided by hardware or software.

制御ECU2によって行われる制御(複合型ビジュアルフィードバック制御)の制御系を示すブロック図を図3に示す。この制御系には、第1のフィードバック制御系25と、第2のフィードバック制御系26からなり、第1のフィードバック制御系25のフィードバックループの外側に第2のフィードバック制御系のフィードバックループが存在する2重フィードバックループを構成している。   FIG. 3 is a block diagram showing a control system of control (composite visual feedback control) performed by the control ECU 2. This control system includes a first feedback control system 25 and a second feedback control system 26, and the feedback loop of the second feedback control system exists outside the feedback loop of the first feedback control system 25. A double feedback loop is configured.

先に、第1のフィードバック制御系25の構成から説明する。第1のフィードバック制御系25は、ロボット100の関節部に配置された各エンコーダポテンションメータ16で測定した関節角度θが順運動学演算部251に入力され、順運動学演算によりハンド1・アーム7の実位置・姿勢を表す特徴量ξを求める。この実位置・姿勢情報ξと、後述する第2のフィードバック制御系26の出力であるハンド1・アーム7の目標位置・姿勢を表す特徴量(目標位置・姿勢情報)ξ’dとの差分に演算部252は、フィードバック制御係数λとヤコビアン行列の疑似逆行列とを乗じることで関節サーボ系の角速度目標値を求める(図中においては、θrefのθの上に・をつけて表す)。この角速度目標と、ロボット100の実際の関節角速度(図中においては、θの上に・をつけて表す)との差分がサーボ系であるモータドライバ4に入力され、各モータ14の動きを制御する。 First, the configuration of the first feedback control system 25 will be described. In the first feedback control system 25, the joint angle θ measured by each encoder potentiometer 16 arranged at the joint of the robot 100 is input to the forward kinematics computation unit 251, and the hand 1 arm 7 is obtained. A difference between the actual position / posture information ξ and a feature amount (target position / posture information) ξ ′ d representing a target position / posture of the hand 1 / arm 7 which is an output of a second feedback control system 26 described later. The arithmetic unit 252 obtains the target angular velocity value of the joint servo system by multiplying the feedback control coefficient λ and the pseudo inverse matrix of the Jacobian matrix (in the figure, it is represented by adding “.” On the θ of θref). The difference between this angular velocity target and the actual joint angular velocity of the robot 100 (in the figure, a mark is added to θ) is input to the motor driver 4 which is a servo system, and the movement of each motor 14 is controlled. To do.

一方、第2のフィードバック制御系26は、画像認識部20の認識結果である位置・姿勢情報ξcrawを基にして、第1の運動推定部261が現在の位置・姿勢情報ξcを求める。一方、設定されている目標位置・姿勢情報ξdrawから、第2の運動推定部262は、現在の目標位置・姿勢情報ξを求める。ξcと上述した順運動学演算部251の演算結果である実位置・姿勢情報ξとの差分Δξを求めた目標位置・姿勢情報ξから差し引くことで、第1のフィードバック制御系25へと出力する目標位置・姿勢情報ξ’dを求める。 On the other hand, in the second feedback control system 26, the first motion estimation unit 261 obtains the current position / posture information ξ c based on the position / posture information ξ craw that is the recognition result of the image recognition unit 20. On the other hand, from the set target position / posture information ξ draw , the second motion estimation unit 262 obtains the current target position / posture information ξ d . By subtracting the difference Δξ d between ξ c and the actual position / posture information ξ, which is the calculation result of the forward kinematics calculation unit 251 described above, from the obtained target position / posture information ξ d , the first feedback control system 25 is obtained. determine the target position and orientation information ξ 'd to output.

ここで、第1のフィードバック制御系25のサンプリングタイム(周期)Ts1は、第2のフィードバック制御系26のサンプリングタイム(周期)Ts2(ここでいう第2のフィードバック制御系26のサンプリングタイムは、カメラアイ3、画像認識部20のサンプリングタイムであって、各運動推定部261、262の出力時間間隔とは異なる。)より充分に短く設定されている。カメラアイ3として用いられる撮像装置は、通常、ビデオフレームレート(33ms程度)で画像を取得する。これに対して、第1のフィードバック制御系25の各要素は、その数倍〜数十倍の速度で制御を行うことが可能である。そして、各運動推定部261、262の出力時間間隔は、第1のフィードバック制御系25のサンプリングタイムに一致している。 Here, the sampling time (period) T s1 of the first feedback control system 25 is the sampling time (period) T s2 of the second feedback control system 26 (the sampling time of the second feedback control system 26 here is The sampling time of the camera eye 3 and the image recognition unit 20 is different from the output time interval of the motion estimation units 261 and 262.) The imaging device used as the camera eye 3 usually acquires images at a video frame rate (about 33 ms). On the other hand, each element of the first feedback control system 25 can be controlled at a speed several to several tens of times higher than that. The output time interval of each motion estimation unit 261, 262 matches the sampling time of the first feedback control system 25.

内部フィードバックループを構成する第1のフィードバック制御系25のフィードバック量は、ハンド1、アーム7の構造、関節部、つまり、各リンクのパラメータおよび関節角度から計算される。   The feedback amount of the first feedback control system 25 constituting the inner feedback loop is calculated from the structure of the hand 1 and the arm 7, the joint portion, that is, the parameters and joint angles of each link.

一方、外部フィードバックループを構成する第2のフィードバック制御系26においては、カメラアイ3の取得タイミングの遅れを補償し、適切な指令を与えるため、対象物体とハンド1、アーム7の運動を推定する機構が必要となる。第2のフィードバック制御系26における第1および第2の運動推定部261、262は、そのための機構である。   On the other hand, in the second feedback control system 26 constituting the external feedback loop, the motion of the target object, the hand 1 and the arm 7 is estimated in order to compensate for the delay in the acquisition timing of the camera eye 3 and to give an appropriate command. A mechanism is required. The first and second motion estimation units 261 and 262 in the second feedback control system 26 are mechanisms for that purpose.

ここでは、例として線型補間を行う場合を例に説明する。図4は、運動推定を説明する図であり、s(k)は、tk時刻における視覚センサによる検出量、s(k-1)は、tk-1時刻における視覚センサによる検出量である。そして、TはTの整数倍であり、T=tk−tk-1=tk+1−tkである。このとき、任意の、tk時刻とtk+1時刻間の運動推定値(s(i)上に符号^をつけて表す。)は、次式により表される。 Here, a case where linear interpolation is performed will be described as an example. FIG. 4 is a diagram for explaining motion estimation, where s (k) is the detection amount by the visual sensor at time t k , and s (k−1) is the detection amount by the visual sensor at time t k−1. . T 2 is an integer multiple of T 1 , and T 2 = t k −t k−1 = t k + 1 −t k . In this case, any, (expressed with the sign ^ on s (i).) Motion estimation value between t k time and t k + 1 time is expressed by the following equation.

Figure 2007011978
Figure 2007011978

この補間式により第1のフィードバック制御系におけるサンプリングタイムに同期させて運動推定値を出力することができ、カメラアイ3の取得タイミングの遅れを補償することができる。ここでは、運動推定に線型補間を用いたが、2次式、あるいは、その他の多項式を用いて補間を行うようにしてもよい。   With this interpolation formula, a motion estimation value can be output in synchronization with the sampling time in the first feedback control system, and a delay in the acquisition timing of the camera eye 3 can be compensated. Here, linear interpolation is used for motion estimation, but interpolation may be performed using a quadratic equation or other polynomials.

第2のフィードバック制御系26においては、カメラアイ3−画像認識部20により認識されるハンドの位置姿勢から、取得タイミングの遅れを補償したξとアームの順運動学により計算される実位置・姿勢情報ξとの差分Δξをフィードバック制御量としている。これにより、ロボットの関節部分の誤差やセンサ・パラメータの誤差、関節の状態等に起因して生ずる順運動学により計算されるハンド1、アーム7の位置姿勢と、現実の位置姿勢とのずれを除去できる。 In the second feedback control system 26, the actual position calculated by the forward kinematics of ξ C compensated for the delay of the acquisition timing from the position and orientation of the hand recognized by the camera eye 3-image recognition unit 20 A difference Δξ d with respect to the posture information ξ is used as a feedback control amount. As a result, the deviation between the position and orientation of the hand 1 and arm 7 calculated by forward kinematics caused by errors in the joints of the robot, errors in the sensor parameters, the state of the joints, and the like, and the actual position and orientation are eliminated. Can be removed.

さらに、作業対象物とハンド1を同一のカメラアイ3により同時に撮影し、画像認識部20で認識処理することができるため、カメラアイ3、画像認識部20のパラメータの同定誤差やパラメータの変動により生ずる作業対象物とハンド1間の相対的な位置姿勢の認識誤差を回避することができ、高精度での制御が可能となる。   Further, since the work object and the hand 1 can be simultaneously photographed by the same camera eye 3 and can be recognized by the image recognition unit 20, the identification error of the parameters of the camera eye 3 and the image recognition unit 20 and the variation of the parameters A recognition error of the relative position and orientation between the work target and the hand 1 can be avoided, and control with high accuracy is possible.

また、カメラアイ3と対象物またはハンド1との間に障害物が存在する場合や障害物が存在しなくとも画像認識部20で対象物やハンド1の認識に失敗する等して画像認識部20から位置・姿勢情報ξcrawが得られなかった場合(正常でないは判定した場合を含む。)には、フィードバック量であるΔξを0に設定する。これにより、外部フィードバックループが機能せず、内部フィードバックループのみを実行することになる。そのため、位置・姿勢情報ξcrawの異常に起因するハンド1、アーム7の誤動作を抑制することができる。 In addition, when there is an obstacle between the camera eye 3 and the object or the hand 1 or when there is no obstacle, the image recognition unit 20 fails to recognize the object or the hand 1 or the like. When the position / posture information ξ craw is not obtained from 20 (when it is not normal, it includes a case where it is determined), the feedback amount Δξ d is set to 0. As a result, the outer feedback loop does not function and only the inner feedback loop is executed. Therefore, malfunctions of the hand 1 and the arm 7 due to the abnormality of the position / posture information ξ craw can be suppressed.

次に、本発明にかかる運動制御装置における制御方法の処理を図5、図6のフローチャートを参照して説明する。図5は、静止した物体を把持する場合の把持処理のフローチャートであり、図6は、動的な物体を把持する場合の把持処理のフローチャートである。   Next, the process of the control method in the motion control apparatus according to the present invention will be described with reference to the flowcharts of FIGS. FIG. 5 is a flowchart of the gripping process when gripping a stationary object, and FIG. 6 is a flowchart of the gripping process when gripping a dynamic object.

先に、静止対象物の把持処理を図5のフローチャートを参照して説明する。まず、画像認識部20がカメラアイ3で取得した画像を画像処理することで対象物体の位置姿勢を認識する(ステップS1)。次に、位置姿勢演算部21は、対象物を把持するためのアーム7とハンド1の位置姿勢を決定する(ステップS2)。   First, the gripping process of the stationary object will be described with reference to the flowchart of FIG. First, the image recognition unit 20 recognizes the position and orientation of the target object by performing image processing on the image acquired by the camera eye 3 (step S1). Next, the position / orientation calculation unit 21 determines the position / orientation of the arm 7 and the hand 1 for gripping the object (step S2).

設定後、上述した制御系(ビジュアルサーボ系)を利用してハンド1、アーム7を制御し(ステップS3)、目標位置への到達を判定し(ステップS4)、到達していない場合には、ステップS3へと戻ることで、到達するまでハンド1、アーム7の駆動制御を継続する。目標位置へ到達したと判定した場合には、ステップS5へと移行して、対象物体を把持し、処理を終了する。必要ならば、引き続き、物体を把持したまま所定の動作、例えば、物体をある場所から別の場所へと移動させる動作、を行わせればよい。   After setting, the hand 1 and the arm 7 are controlled using the above-described control system (visual servo system) (step S3), the arrival at the target position is determined (step S4), and if not reached, By returning to step S3, the drive control of the hand 1 and the arm 7 is continued until it reaches. If it is determined that the target position has been reached, the process proceeds to step S5, the target object is gripped, and the process ends. If necessary, a predetermined operation, for example, an operation of moving the object from one place to another may be performed while holding the object.

次に、動的な物体を把持する場合の把持処理を図6を参照して説明する。ここでいう動的な物体とは、対象物自体が移動している場合のほかに、ロボット100の本体側が移動している場合を含んでおり、ロボット本体と対象物とが相対的に移動している場合を指す概念である。   Next, gripping processing when gripping a dynamic object will be described with reference to FIG. The dynamic object here includes not only the case where the object itself is moving, but also the case where the main body side of the robot 100 is moving, and the robot main body and the object move relatively. It is a concept that points to the case.

最初に、画像認識部20がカメラアイ3で取得した画像を画像処理することで対象物体の位置姿勢を認識する(ステップS11)。次に、位置姿勢演算部21は、対象物を把持するためのアーム7とハンド1の位置姿勢を決定する(ステップS12)。設定後、上述した制御系(ビジュアルサーボ系)を利用してハンド1、アーム7を制御し(ステップS13)、目標位置への到達を判定する(ステップS14)。   First, the image recognition unit 20 recognizes the position and orientation of the target object by performing image processing on the image acquired by the camera eye 3 (step S11). Next, the position / orientation calculation unit 21 determines the position / orientation of the arm 7 and the hand 1 for gripping the object (step S12). After the setting, the hand 1 and the arm 7 are controlled using the control system (visual servo system) described above (step S13), and the arrival at the target position is determined (step S14).

ここまでの基本的な処理は、図5に示される処理と同一であるが、ロボットに対して相対的に静止している対象物の場合には、対象物の位置姿勢は制御中変動しないため、これを新たに取得する必要がないのに対し、ロボットに対して相対的に移動している対象物の場合には、対象物の位置姿勢は制御中も時々刻々変動する。そこで、目標位置へと到達していないと判定した場合には、ステップS11へと戻ることで、対象物の位置姿勢の認識から再度実行し、ハンド1、アーム7の駆動制御を継続する。目標位置へ到達したと判定した場合には、ステップS15へと移行して、対象物体を把持し、処理を終了する。必要ならば、引き続き、物体を把持したまま所定の動作、例えば、物体をある場所から別の場所へと移動させる動作、を行わせればよい。   The basic processing so far is the same as the processing shown in FIG. 5, but in the case of an object that is stationary relative to the robot, the position and orientation of the object do not change during control. On the other hand, in the case of an object moving relative to the robot, the position and orientation of the object fluctuate from moment to moment even during control. Therefore, when it is determined that the target position has not been reached, the process returns to step S11 to execute again from recognition of the position and orientation of the object, and the drive control of the hand 1 and arm 7 is continued. If it is determined that the target position has been reached, the process proceeds to step S15, the target object is gripped, and the process ends. If necessary, a predetermined operation, for example, an operation of moving the object from one place to another may be performed while holding the object.

発明者らは、本発明の制御方法による目標対象物へのハンドの追従性の向上効果を確認するためのシミュレーションを行ったので、以下にその結果について述べる。ここでは、図7に示されるロボット100を用い、対象物200の把持を行う右手1Rの甲にカメラアイ3−画像認識部20において、ハンド1の位置姿勢の認識を容易にするための特徴点A〜Cを配置したものとする。以下、ロボット100の胴体8に対して、前後方向をX軸、左右方向をY軸、上下方向をZ軸とし、ロボット100の重心を原点とする直交座標系を用いる。   The inventors conducted a simulation for confirming the effect of improving the followability of the hand to the target object by the control method of the present invention, and the results will be described below. Here, using the robot 100 shown in FIG. 7, a feature point for facilitating recognition of the position and orientation of the hand 1 in the camera eye 3-image recognition unit 20 on the back of the right hand 1 </ b> R that holds the object 200. Assume that A to C are arranged. Hereinafter, an orthogonal coordinate system is used with respect to the body 8 of the robot 100, where the front-rear direction is the X-axis, the left-right direction is the Y-axis, the vertical direction is the Z-axis, and the center of gravity of the robot 100 is the origin.

制御系においては、内部フィードバックループを構成する第1のフィードバック制御系25のサンプリングタイムTを1ms、外部フィードバックループを構成する第2のフィードバック制御系26のサンプリングタイム(映像取得フレームレート)Tを40msとする。 In the control system, the sampling time T1 of the first feedback control system 25 constituting the inner feedback loop is 1 ms, and the sampling time (video acquisition frame rate) T2 of the second feedback control system 26 constituting the outer feedback loop. Is 40 ms.

まず、静的物体の把持をシミュレーションした場合について説明する。特徴点A〜Cをそれぞれ(338.8,−306.5,451.6)mm、(303.4,−306.5,416.3)mm、(268.1,−306.5,451.6)mmの初期位置から(376.6,−622.5,1106.0)mm、(398.2,−647.5,1068.5)mm、(367.0,−625.8,1036.0)mmの目標位置へとアームを移動させる場合を考え、本発明の制御方法(運動推定を含むビジュアルフィードバック制御あり)とビジュアルフィードバック制御を含まない従来の制御方法とでアームの軌跡を比較した。ここで、アーム7のリンク長には、0.01mの誤差が含まれているものとする。   First, a case where a gripping of a static object is simulated will be described. The feature points A to C are (338.8, −306.5, 451.6) mm, (303.4, −306.5, 416.3) mm, and (268.1, −306.5, 451), respectively. .6) mm from the initial position (376.6, -622.5, 1106.0) mm, (398.2, -647.5, 1068.5) mm, (367.0, -625.8, Considering the case of moving the arm to a target position of 1036.0) mm, the trajectory of the arm is determined by the control method of the present invention (with visual feedback control including motion estimation) and the conventional control method not including visual feedback control. Compared. Here, it is assumed that the link length of the arm 7 includes an error of 0.01 m.

図8に、シミュレーション結果を示す。ここでは、特徴点Aの軌跡変化のみを示している。ビジュアルフィードバック制御を含まない従来制御の場合には、目標位置からX、Y、Z方向とも数mm程度ずれた位置で移動が終了しており、把持対象物が小さい場合には、把持に失敗する可能性がある。これに対して、本発明によれば、アーム7のパラメータ誤差で生じたロボットハンドの位置姿勢誤差を修正することができ、アーム7、ハンド1を目標対象に高精度に追従させることができることが確認できた。   FIG. 8 shows the simulation result. Here, only the locus change of the feature point A is shown. In the case of conventional control that does not include visual feedback control, movement ends at a position that is shifted by several millimeters in the X, Y, and Z directions from the target position, and gripping fails when the gripping target is small. there is a possibility. On the other hand, according to the present invention, the position and orientation error of the robot hand caused by the parameter error of the arm 7 can be corrected, and the arm 7 and the hand 1 can follow the target object with high accuracy. It could be confirmed.

次に、動的物体の把持をシミュレーションした場合について説明する。特徴点A〜Cの初期位置を上記静的物体の把持の場合と同様に、それぞれ(338.8,−306.5,451.6)mm、(303.4,−306.5,416.3)mm、(268.1,−306.5,451.6)mmとする。特徴点の初期目標位置は、(429.1,−311.5,764.7)mm、(429.1,−311.5,714.7)mm、(379.1,−311.5,714.7)mmであり、10秒後の目標位置は、(376.2,−622.5,1106.0)mm、(398.2,−647.5,1068.5)mm、(367.0,−625.8,1036.0)mmであり、目標位置は等速で移動するものとする。この目標値の軌跡を図9に示す。ここでは、本発明の制御方法と運動推定を行わないビジュアルフィードバック制御とでアームの軌跡を比較した。   Next, a case where a dynamic object gripping simulation is simulated will be described. The initial positions of the feature points A to C are (338.8, −306.5, 451.6) mm and (303.4, −306.5, 416. 3) mm, and (268.1, -306.5, 451.6) mm. The initial target positions of the feature points are (429.1, −311.5, 764.7) mm, (429.1, −311.5, 714.7) mm, (379.1, −311.5, The target position after 10 seconds is (376.2, −622.5, 1106.0) mm, (398.2, −647.5, 1068.5) mm, (367). 0.0, −625.8, 1036.0) mm, and the target position moves at a constant speed. The trajectory of this target value is shown in FIG. Here, the trajectory of the arm was compared between the control method of the present invention and visual feedback control without motion estimation.

図10に、シミュレーション結果を示す。ここでは、特徴点Aの軌跡変化のみを示している。運動推定を行わない場合には、目標位置からX、Y、Z方向とも数mm程度ずれた軌跡を描いており、把持対象物の動きに充分に追従することができない。これは、ビジュアルフィードバック制御の遅れによるものである。これに対して、本発明によれば、ビジュアルフィードバックの制御の遅れを運動推定によって修正することができ、アーム7、ハンド1を目標対象に高精度に追従させることができることが確認できた。   FIG. 10 shows the simulation result. Here, only the locus change of the feature point A is shown. When motion estimation is not performed, a trajectory deviated by several millimeters in the X, Y, and Z directions from the target position is drawn, and the movement of the grasped object cannot be sufficiently followed. This is due to a delay in visual feedback control. In contrast, according to the present invention, it was confirmed that the delay in visual feedback control can be corrected by motion estimation, and the arm 7 and the hand 1 can follow the target object with high accuracy.

図11は、対象物がYZ平面内で円運動している場合の特徴点Aの軌跡を示している。点Aの円運動の目標軌跡の中心座標(y、z)=(−311.5,764.7)mmで円運動の半径は100mmであり、運動周期は5秒とした。特徴点Aの初期位置は、(338.8,−306.5,451.6)mmとした。 FIG. 11 shows the trajectory of the feature point A when the object is circularly moving in the YZ plane. The center coordinates (y a , z a ) = (− 311.5, 764.7) mm of the target locus of the circular motion of the point A, the radius of the circular motion was 100 mm, and the motion cycle was 5 seconds. The initial position of the feature point A was (338.8, −306.5, 451.6) mm.

運動推定を行わない場合には、ビジュアルフィードバック制御の遅れのため、追従性が悪い。これに対して、本発明によれば、この遅れを運動推定によって保証するため、追従精度が向上している。これにより、動的な物体に対する把持制御について好適であることが確認された。   When motion estimation is not performed, followability is poor due to delay in visual feedback control. On the other hand, according to the present invention, since this delay is guaranteed by motion estimation, the tracking accuracy is improved. Thereby, it was confirmed that it was suitable about the grip control with respect to a dynamic object.

以上説明した実施形態では、視覚センサ(カメラアイ)を用いた複合型ビジュアルフィードバック制御系について説明したが、視覚センサに代えて、超音波センサやレーダ等を用いて非接触で対象物や制御対象であるロボットの運動部(移動可能部位)の位置を判定するセンサ(外界センサ)を用いてもよい。また、エンコーダポテンションメータに代えて、各種の位置センサ、駆動機構の制御状態から各駆動機構の位置関係を取得するセンサ(内界センサ)を組み合わせてもよい。   In the embodiment described above, the composite visual feedback control system using the visual sensor (camera eye) has been described. However, instead of the visual sensor, an object or control target is contactlessly used by using an ultrasonic sensor or a radar. A sensor (external sensor) that determines the position of the moving part (movable part) of the robot may be used. Further, instead of the encoder potentiometer, various position sensors and sensors (inner world sensors) for acquiring the positional relationship of each drive mechanism from the control state of the drive mechanism may be combined.

また、以上の説明では、ロボットハンド・アームの動作制御を例に説明したが、その他のロボットの駆動部分である首、指、胴体、足等の制御についても適用可能である。また、人型でないロボットの各種の駆動部分においても同様に適用可能である。   In the above description, the operation control of the robot hand / arm has been described as an example, but the present invention can also be applied to the control of the neck, fingers, torso, feet, etc., which are other robot drive parts. Further, the present invention can be similarly applied to various drive parts of a robot that is not humanoid.

本発明に係るロボットの運動制御装置を有するロボットの概略構成図である。It is a schematic block diagram of the robot which has the motion control apparatus of the robot which concerns on this invention. 図1の制御装置(本発明に係るロボットの運動制御装置)のブロック構成図である。It is a block block diagram of the control apparatus (movement control apparatus of the robot which concerns on this invention) of FIG. 図2の制御装置における制御系を示すブロック図である。It is a block diagram which shows the control system in the control apparatus of FIG. 図3の制御系における運動推定を説明する図である。It is a figure explaining the motion estimation in the control system of FIG. 図3の制御系により静止した物体を把持する場合の把持処理のフローチャートでFIG. 4 is a flowchart of gripping processing when a stationary object is gripped by the control system of FIG. 図3の制御系により動的な物体を把持する場合の把持処理のフローチャートである。FIG. 4 is a flowchart of gripping processing when a dynamic object is gripped by the control system of FIG. 3. シミュレーションの対象としたロボットの構成を示す図である。It is a figure which shows the structure of the robot made into the object of simulation. 静的物体把持のシミュレーション結果を示す図である。It is a figure which shows the simulation result of a static object grip. 動的物体把持のシミュレーションにおける目標値の軌跡を示す図である。It is a figure which shows the locus | trajectory of the target value in the simulation of dynamic object holding | grip. 動的物体把持のシミュレーション結果を示す図である。It is a figure which shows the simulation result of a dynamic object grip. 動的物体把持のシミュレーション結果を示す図である。It is a figure which shows the simulation result of a dynamic object grip.

符号の説明Explanation of symbols

1…ロボットハンド、3…カメラアイ、4…モータドライバ、7…アーム、8…胴体、14…モータ、16…エンコーダポテンションメータ、20…画像認識部、21…位置姿勢演算部、22…ロボット制御部、25…第1のフィードバック制御系、26…第2のフィードバック制御系、100…ロボット、251…順運動学演算部、252…演算部、261…第1の運動推定部、262…第2の運動推定部。   DESCRIPTION OF SYMBOLS 1 ... Robot hand, 3 ... Camera eye, 4 ... Motor driver, 7 ... Arm, 8 ... Body, 14 ... Motor, 16 ... Encoder potentiometer, 20 ... Image recognition part, 21 ... Position and orientation calculation part, 22 ... Robot Control unit, 25 ... first feedback control system, 26 ... second feedback control system, 100 ... robot, 251 ... forward kinematics calculation unit, 252 ... calculation unit, 261 ... first motion estimation unit, 262 ... first 2 motion estimation units.

Claims (4)

駆動機構により機械的に移動可能な部位を有するロボットの運動を制御する制御装置であって、
非接触で前記移動可能部位の位置と前記移動可能部位の目標位置を検出する外界センサと、
前記駆動機構の駆動に応じた前記移動可能部位相互の位置関係を取得する内界センサと、
前記移動可能部位の目標位置へ向けた移動を制御する移動制御手段と、
前記外界センサを用いて取得した移動可能部位の位置と前記内界センサを用いて取得した移動可能部位の位置との偏差を求め、前記移動制御手段において制御に用いる前記移動可能部位の目標位置を修正する位置修正手段と、
を備えていることを特徴とするロボットの運動制御装置。
A control device for controlling the movement of a robot having a part that can be mechanically moved by a drive mechanism,
An external sensor for detecting a position of the movable part and a target position of the movable part in a non-contact manner;
An internal sensor that acquires the positional relationship between the movable parts according to the driving of the driving mechanism;
Movement control means for controlling movement of the movable part toward the target position;
A deviation between the position of the movable part acquired using the external sensor and the position of the movable part acquired using the internal sensor is obtained, and the target position of the movable part used for control in the movement control means is determined. Position correcting means for correcting;
A robot motion control device comprising:
前記外界センサが、前記内界センサに比べて長いサンプリングタイムを有している場合、前記外界センサを用いて取得した移動可能部位の位置の時間変化を基にして前記内界センサによる位置情報取得時点に対応した移動可能部位の位置情報を推定して、前記位置修正手段へと出力する位置推定手段をさらに備えていることを特徴とする請求項1記載のロボットの運動制御装置。   When the external sensor has a longer sampling time than the internal sensor, the positional information is acquired by the internal sensor based on the time change of the position of the movable part acquired using the external sensor. 2. The robot motion control apparatus according to claim 1, further comprising position estimation means for estimating position information of a movable part corresponding to a time point and outputting the position information to the position correction means. 前記外界センサによる位置情報取得の成否を判定し、位置情報取得が成功しなかったと判定した場合には、前記位置修正手段による修正を禁止する禁止手段をさらに備えていることを特徴とする請求項1または2に記載のロボットの運動制御装置。   The apparatus further comprises a prohibiting unit that prohibits correction by the position correcting unit when it is determined whether or not the acquisition of the position information by the external sensor is successful and it is determined that the acquisition of the positional information is not successful. The robot motion control apparatus according to 1 or 2. 前記外界センサの位置情報取得のサンプリング周期は、前記内界センサによる位置情報取得サンプリング周期の整数倍であることを特徴とする請求項2に記載のロボットの運動制御方法。   The robot motion control method according to claim 2, wherein a sampling period for acquiring position information of the external sensor is an integral multiple of a position information acquisition sampling period of the internal sensor.
JP2005195258A 2005-07-04 2005-07-04 Motion controller for robot Pending JP2007011978A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005195258A JP2007011978A (en) 2005-07-04 2005-07-04 Motion controller for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005195258A JP2007011978A (en) 2005-07-04 2005-07-04 Motion controller for robot

Publications (1)

Publication Number Publication Date
JP2007011978A true JP2007011978A (en) 2007-01-18

Family

ID=37750332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005195258A Pending JP2007011978A (en) 2005-07-04 2005-07-04 Motion controller for robot

Country Status (1)

Country Link
JP (1) JP2007011978A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010284781A (en) * 2009-06-15 2010-12-24 Fanuc Ltd Robot system with robot abnormality monitoring function
JP2012130977A (en) * 2010-12-20 2012-07-12 Toshiba Corp Robot control apparatus
WO2012115166A1 (en) * 2011-02-24 2012-08-30 オリンパス株式会社 Master operation input device and master-slave manipulator
US8565390B2 (en) 1999-01-28 2013-10-22 International Business Machines Corporation Dynamically reconfigurable distributed interactive voice response system
WO2013176212A1 (en) * 2012-05-25 2013-11-28 学校法人立命館 Robot control device, robot control method, program, recording medium, and robot system
JP2014035722A (en) * 2012-08-10 2014-02-24 Omron Corp Data display device, method, and program
JP2014140941A (en) * 2013-01-25 2014-08-07 Seiko Epson Corp Robot control system, robot, robot control method, and program
JP2015030086A (en) * 2013-08-07 2015-02-16 キヤノン株式会社 Robot control method, robot system, program and recording medium
JP2015074063A (en) * 2013-10-10 2015-04-20 セイコーエプソン株式会社 Robot control device, robot system, robot, robot control method, and program
JP2015085467A (en) * 2013-10-31 2015-05-07 セイコーエプソン株式会社 Control device, robot, robot system and control method
JP2016052699A (en) * 2014-09-03 2016-04-14 学校法人立命館 Robot control system and robot control method
CN107921626A (en) * 2015-05-01 2018-04-17 通用电气公司 System and method for controlling Robotic Manipulator
JP2018530443A (en) * 2015-09-21 2018-10-18 レインボー ロボティックスRainbow Robotics Real-time control system, real-time control device, and system control method
JP2020023024A (en) * 2018-08-08 2020-02-13 オムロン株式会社 Control system, analyzer, and control method
CN110891741A (en) * 2017-05-31 2020-03-17 库卡德国有限公司 Control of a robot cell
CN111070194A (en) * 2019-12-23 2020-04-28 东莞市旭源智能自动化设备有限公司 Mobile vision and mobile manipulator positioning device
WO2020138587A1 (en) * 2018-12-24 2020-07-02 경북대학교 산학협력단 Method for calculating maximum rectangular prism workspace of multi-axis machine
CN111496776A (en) * 2019-01-30 2020-08-07 株式会社安川电机 Robot system, robot control method, robot controller, and recording medium
CN113352313A (en) * 2020-03-06 2021-09-07 思特威(上海)电子科技股份有限公司 Multi-level sensor decision control system of robot

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS625408A (en) * 1985-07-01 1987-01-12 Fanuc Ltd Method for controlling joint-type robot
JPH05305588A (en) * 1992-04-28 1993-11-19 Toyoda Mach Works Ltd Control device for visual sense robot
JPH0768480A (en) * 1993-09-06 1995-03-14 Mitsubishi Heavy Ind Ltd Method for controlling articular angle of manipulator
JPH1185235A (en) * 1997-09-01 1999-03-30 Yaskawa Electric Corp Visual feedback method for machine device using image pickup unit
JP2002189519A (en) * 2000-12-21 2002-07-05 Mitsubishi Heavy Ind Ltd Tracing system and tracing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS625408A (en) * 1985-07-01 1987-01-12 Fanuc Ltd Method for controlling joint-type robot
JPH05305588A (en) * 1992-04-28 1993-11-19 Toyoda Mach Works Ltd Control device for visual sense robot
JPH0768480A (en) * 1993-09-06 1995-03-14 Mitsubishi Heavy Ind Ltd Method for controlling articular angle of manipulator
JPH1185235A (en) * 1997-09-01 1999-03-30 Yaskawa Electric Corp Visual feedback method for machine device using image pickup unit
JP2002189519A (en) * 2000-12-21 2002-07-05 Mitsubishi Heavy Ind Ltd Tracing system and tracing method

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8565390B2 (en) 1999-01-28 2013-10-22 International Business Machines Corporation Dynamically reconfigurable distributed interactive voice response system
JP4741691B2 (en) * 2009-06-15 2011-08-03 ファナック株式会社 Robot system with robot abnormality monitoring function
JP2010284781A (en) * 2009-06-15 2010-12-24 Fanuc Ltd Robot system with robot abnormality monitoring function
JP2012130977A (en) * 2010-12-20 2012-07-12 Toshiba Corp Robot control apparatus
US9186796B2 (en) 2011-02-24 2015-11-17 Olympus Corporation Master input device and master-slave manipulator
WO2012115166A1 (en) * 2011-02-24 2012-08-30 オリンパス株式会社 Master operation input device and master-slave manipulator
US20120221145A1 (en) * 2011-02-24 2012-08-30 Olympus Corporation Master input device and master-slave manipulator
CN103402714A (en) * 2011-02-24 2013-11-20 奥林巴斯株式会社 Master operation input device and master-slave manipulator
JP2012171088A (en) * 2011-02-24 2012-09-10 Olympus Corp Master operation input device, and master-slave manipulator
WO2013176212A1 (en) * 2012-05-25 2013-11-28 学校法人立命館 Robot control device, robot control method, program, recording medium, and robot system
US9616573B2 (en) 2012-05-25 2017-04-11 The Ritsumeikan Trust Robot control apparatus, robot control method, program, recording medium and robot system
JPWO2013176212A1 (en) * 2012-05-25 2016-01-14 学校法人立命館 Robot control device, robot control method, program, recording medium, robot system
JP2014035722A (en) * 2012-08-10 2014-02-24 Omron Corp Data display device, method, and program
JP2014140941A (en) * 2013-01-25 2014-08-07 Seiko Epson Corp Robot control system, robot, robot control method, and program
JP2015030086A (en) * 2013-08-07 2015-02-16 キヤノン株式会社 Robot control method, robot system, program and recording medium
JP2015074063A (en) * 2013-10-10 2015-04-20 セイコーエプソン株式会社 Robot control device, robot system, robot, robot control method, and program
JP2015085467A (en) * 2013-10-31 2015-05-07 セイコーエプソン株式会社 Control device, robot, robot system and control method
JP2016052699A (en) * 2014-09-03 2016-04-14 学校法人立命館 Robot control system and robot control method
CN107921626A (en) * 2015-05-01 2018-04-17 通用电气公司 System and method for controlling Robotic Manipulator
CN107921626B (en) * 2015-05-01 2023-02-03 通用电气公司 System and method for controlling robotic manipulation
US11135719B2 (en) 2015-09-21 2021-10-05 Rainbow Robotics Real-time control system, real-time control device and system control method
JP2018530443A (en) * 2015-09-21 2018-10-18 レインボー ロボティックスRainbow Robotics Real-time control system, real-time control device, and system control method
CN110891741A (en) * 2017-05-31 2020-03-17 库卡德国有限公司 Control of a robot cell
JP2020023024A (en) * 2018-08-08 2020-02-13 オムロン株式会社 Control system, analyzer, and control method
WO2020138587A1 (en) * 2018-12-24 2020-07-02 경북대학교 산학협력단 Method for calculating maximum rectangular prism workspace of multi-axis machine
KR102199554B1 (en) 2018-12-24 2021-01-07 경북대학교 산학협력단 Calculating method of maximum rectangular prism working volume for multi-axis machine
KR20200078885A (en) * 2018-12-24 2020-07-02 경북대학교 산학협력단 Calculating method of maximum rectangular prism working volume for multi-axis machine
CN111496776A (en) * 2019-01-30 2020-08-07 株式会社安川电机 Robot system, robot control method, robot controller, and recording medium
US11577399B2 (en) 2019-01-30 2023-02-14 Kabushiki Kaisha Yaskawa Denki Robot system, method for controlling robot, robot controller, and non-transitory computer-readable storage medium
CN111070194A (en) * 2019-12-23 2020-04-28 东莞市旭源智能自动化设备有限公司 Mobile vision and mobile manipulator positioning device
CN113352313A (en) * 2020-03-06 2021-09-07 思特威(上海)电子科技股份有限公司 Multi-level sensor decision control system of robot

Similar Documents

Publication Publication Date Title
JP2007011978A (en) Motion controller for robot
CN108214454B (en) Robot system, robot control device, and robot control method
JP4961860B2 (en) Robot apparatus and control method of robot apparatus
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
US9393696B2 (en) Robot system and robot control method
JP6180087B2 (en) Information processing apparatus and information processing method
US8744625B2 (en) Robot controlling device
JP5528095B2 (en) Robot system, control apparatus and method thereof
JP5448326B2 (en) Gripping device and gripping device control method
US20190015989A1 (en) Robot Control Device, Robot, Robot System, And Calibration Method Of Camera
JP6700669B2 (en) Control method, robot device, program, recording medium, and article manufacturing method
JP7035657B2 (en) Robot control device, robot, robot system, and camera calibration method
JP6700726B2 (en) Robot controller, robot control method, robot control system, and computer program
JP2011115877A (en) Double arm robot
WO2018043525A1 (en) Robot system, robot system control device, and robot system control method
JP2007319938A (en) Robot device and method of obtaining three-dimensional shape of object
JP6622765B2 (en) Robot system
JPWO2018092243A1 (en) Work position correction method and work robot
JP2008183690A (en) Robot control device and system
JP2008207262A (en) Manipulator system
JP6217322B2 (en) Robot control apparatus, robot, and robot control method
JP2021045810A (en) Motion information generation device, end effector, robot and robot system
JP4222338B2 (en) Adaptive visual feedback control method
JP2011062763A (en) Robot controller
JP2011093076A (en) Method and apparatus for information processing, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080602

A977 Report on retrieval

Effective date: 20100413

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100621

A131 Notification of reasons for refusal

Effective date: 20101207

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Effective date: 20110405

Free format text: JAPANESE INTERMEDIATE CODE: A02