JP5733516B2 - Moving body gripping apparatus and method - Google Patents

Moving body gripping apparatus and method Download PDF

Info

Publication number
JP5733516B2
JP5733516B2 JP2011106822A JP2011106822A JP5733516B2 JP 5733516 B2 JP5733516 B2 JP 5733516B2 JP 2011106822 A JP2011106822 A JP 2011106822A JP 2011106822 A JP2011106822 A JP 2011106822A JP 5733516 B2 JP5733516 B2 JP 5733516B2
Authority
JP
Japan
Prior art keywords
value
gripping
robot
state
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011106822A
Other languages
Japanese (ja)
Other versions
JP2012236254A (en
Inventor
周平 江本
周平 江本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2011106822A priority Critical patent/JP5733516B2/en
Priority to EP12782445.6A priority patent/EP2708334B1/en
Priority to PCT/JP2012/060918 priority patent/WO2012153629A1/en
Priority to CN201280022935.9A priority patent/CN103517789B/en
Publication of JP2012236254A publication Critical patent/JP2012236254A/en
Priority to US14/078,342 priority patent/US9108321B2/en
Application granted granted Critical
Publication of JP5733516B2 publication Critical patent/JP5733516B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、ロボットなどを使った自動装置のうち、移動する対象物を把持する移動体把持装置と方法に関する。   The present invention relates to a moving body gripping apparatus and a method for gripping a moving object among automatic apparatuses using a robot or the like.

移動する対象物をロボットでハンドリングする自動装置では、ロボット上やロボットの外部に設置したカメラなどの視覚センサで対象物の位置を計測し、その計測結果に基づいてロボットを追従制御する必要がある。   In an automatic device that handles a moving object with a robot, it is necessary to measure the position of the object with a visual sensor such as a camera installed on the robot or outside the robot, and to follow-control the robot based on the measurement result. .

上述したロボットの追従制御では、時々刻々と変化する対象物(例えばワーク)の位置を一定周期(例:30fpsのカメラ)で計測し、計測結果に基づいて、例えば対象物にロボットを近づけるような、移動指令がロボットに出力される。   In the robot follow-up control described above, the position of an object (for example, a workpiece) that changes from moment to moment is measured at a constant period (for example, a 30 fps camera), and the robot is brought close to the object, for example, based on the measurement result. The movement command is output to the robot.

しかし、計測したワークの位置を目標としてロボットを動作させても、センサの計測遅れ、データの取得遅れ、ロボットの動作遅れなどの制御遅れにより、ロボットが移動するワークに追従できないことがある。
また、視覚センサの場合、センサの計測周期はロボットの制御周期(例:4ms)よりも一般に長いため、ロボットは制御周期ごとに最新の計測結果を得られるわけではなく、その分が計測遅れとなる。特に、画像処理に時間がかかったり、ワークがカメラの視野から外れたりすると、計測結果が更新される周期はさらに長くなり、かつ一定ではなくなる。このように、移動するワークを扱う装置では、制御遅れによりロボットの追従性能が低下する問題点があった。
However, even if the robot is operated with the measured workpiece position as a target, the robot may not be able to follow the workpiece that is moving due to control delays such as sensor measurement delay, data acquisition delay, and robot operation delay.
In the case of a visual sensor, since the sensor measurement cycle is generally longer than the robot control cycle (eg, 4 ms), the robot cannot obtain the latest measurement results for each control cycle. Become. In particular, if the image processing takes time or the work is out of the field of view of the camera, the measurement result update period becomes longer and is not constant. As described above, the apparatus that handles the moving workpiece has a problem that the tracking performance of the robot is deteriorated due to the control delay.

上述した問題を解決するために、種々の制御手段が既に提案されている(例えば、特許文献1〜4)。   In order to solve the above-described problems, various control means have already been proposed (for example, Patent Documents 1 to 4).

特許文献1の「ロボット装置及びその制御方法」では、まずアームを対象物に追従させ、追従時のアームの運動状態と、対象物の運動状態が一致していることを利用して、対象物の移動先を予測する方法が提案されている。このように、アームの動作時間を考慮して、対象物の移動先を予測することで、移動体の把持が実現される。
特許文献2の「3次元運動予測装置」は、単振動する被計測体の位置データからその運動パラメータを推定し、その将来の位置を予測し、その位置情報を基にマニュピュレータにより被計測体を把持するものである。
特許文献3の状態推定手段は、観測により時系列に入力される観測信号に基づいて、その観測を行ったシステムの内部状態を推定するものである。内部状態とは、対象物の位置、姿勢、振れ角などの状態変数を意味する。
特許文献4の「運動予測装置」は、バックグラウンド処理とフォアグラウンド処理を併用して自動追尾と運動予測を行うものである。
In the “robot device and its control method” of Patent Document 1, first, the arm is caused to follow the object, and the movement state of the arm at the time of following and the movement state of the object coincide with each other. A method for predicting the destination of the movement has been proposed. As described above, the moving object is grasped by predicting the movement destination of the object in consideration of the operation time of the arm.
The “three-dimensional motion prediction device” of Patent Document 2 estimates the motion parameters from the position data of a measured object that vibrates in a simple manner, predicts its future position, and uses a manipulator to measure the measured object based on the position information. Is to hold.
The state estimation means of Patent Document 3 estimates the internal state of the system that performed the observation based on observation signals input in time series by observation. The internal state means state variables such as the position, posture, and deflection angle of the object.
The “motion prediction device” of Patent Document 4 performs automatic tracking and motion prediction by using both background processing and foreground processing.

特許第4265088号公報、「ロボット装置及びその制御方法」Japanese Patent No. 4265088, “Robot Device and Control Method Therefor” 特開平07−019818号公報、「3次元運動予測装置」Japanese Patent Application Laid-Open No. 07-019818, “3D Motion Prediction Device” 特許第4072017号公報、「状態推定装置、その方法及びそのプログラム、並びに、現在状態推定装置及び未来状態推定装置」Japanese Patent No. 4072017, “State Estimation Device, Method and Program, Current State Estimation Device and Future State Estimation Device” 特許第4153625号公報、「運動予測装置」Japanese Patent No. 4153625, “Motion Estimation Device”

上述した特許文献2によれば、対象物(例えばワーク)を計測した観測履歴から、対象物の運動状態を推定することで、計測値が得られていない間のデータを補完したり、対象物をロボットで把持する際の把持地点を予測したりすることができる。   According to Patent Document 2 described above, by estimating the motion state of the target object from the observation history of the target object (for example, a workpiece), it is possible to supplement the data while the measured value is not obtained, It is possible to predict a gripping point when the robot is gripped by a robot.

運動状態の推定には、カルマンフィルタなどが一般的に用いられる。特許文献2、3の状態推定手段では、対象物の速度、加速度などを「内部状態」とし、内部状態が時間と共にどのように変化するかを表す「状態遷移モデル」を事前に定義する。   A Kalman filter or the like is generally used for estimating the motion state. In the state estimation means of Patent Documents 2 and 3, the speed, acceleration, and the like of an object are defined as “internal states”, and a “state transition model” that represents how the internal state changes with time is defined in advance.

特許文献1、2のように移動先を予測して把持する装置では、予測の精度が低いと、対象物が予測した位置から外れ、把持に失敗することがある。
特許文献1では、把持動作に移行する前に、アームと対象物の偏差が一定になっている状態(完全追従状態、不完全追従状態)であることを判定する。この判定によって、アームと対象物の運動状態が高い精度で一致している時のみ把持動作をするため、把持精度が向上する。しかし、この判定条件は、等速直線運動、等速円運動、等加速度直線運動には適用できるが、それ以外の運動に対して適用できない。
In a device that predicts and holds a movement destination as in Patent Documents 1 and 2, if the accuracy of prediction is low, the object may be out of the predicted position and may fail to be held.
In Patent Literature 1, it is determined that the deviation between the arm and the object is constant (complete tracking state, incomplete tracking state) before shifting to the gripping operation. This determination improves the gripping accuracy because the gripping operation is performed only when the movement state of the arm and the object coincide with each other with high accuracy. However, this determination condition can be applied to constant velocity linear motion, constant velocity circular motion, and constant acceleration linear motion, but cannot be applied to other motions.

対象物の予測位置の精度が低くなるのは、主に以下のような状況の時である。
(1)計測開始直後。
(2)対象物を計測できない時間がしばらく続いた時。
(3)対象物が、事前に定めた状態遷移モデルと違った動きをしている時。
The accuracy of the predicted position of the object is lowered mainly in the following situation.
(1) Immediately after the start of measurement.
(2) When the time when the object cannot be measured continues for a while.
(3) When the object moves differently from the state transition model determined in advance.

本発明は、上述した問題点を解決するために創案されたものである。すなわち、本発明の目的は、等速直線運動、等速円運動、等加速度直線運動以外の運動であっても対象物(例えばワーク)の内部状態(例えば位置、姿勢、速度、角速度)に基づいて対象物の運動予測をすることができ、予測精度の低下の影響を受けることなく、ロボットを対象物に追従させて確実に把持することができる移動体把持装置と方法を提供することにある。   The present invention has been developed to solve the above-described problems. That is, the object of the present invention is based on the internal state (for example, position, posture, velocity, angular velocity) of an object (for example, a workpiece) even for a motion other than constant velocity linear motion, constant velocity circular motion, or constant acceleration linear motion. It is an object of the present invention to provide a moving body gripping apparatus and method capable of predicting a motion of an object and reliably gripping a robot by following the object without being affected by a decrease in prediction accuracy. .

本発明によれば、相対的に移動する対象物をロボットで把持する移動体把持装置であって、
対象物の位置又は姿勢を計測する計測装置と、
対象物を計測した計測結果から、状態遷移モデルと観測モデルに基づいて、状態推定を行って対象物の内部状態の推定値を取得し、取得した前記推定値を用いて対象物の位置と姿勢を予測した予測値とその実測値との誤差と、前記誤差の分散を予想した共分散行列とを用いて計算される精度指標値算出し、かつ前記精度指標値に基づいて対象物の把持の可否を判定する状態推定装置と、
把持可能の場合、内部状態の推定結果に基づいて対象物の移動先を予測して把持動作するようにロボットを制御するロボット制御装置と、を備えることを特徴とする移動体把持装置が提供される。
According to the present invention, a mobile body gripping device that grips a relatively moving object with a robot,
A measuring device for measuring the position or orientation of an object;
Based on the measurement result of the object, based on the state transition model and the observation model, state estimation is performed to obtain an estimated value of the internal state of the object, and the position and orientation of the object are obtained using the obtained estimated value. predicted value predicted and the error between the actually measured value, the grip of the using the covariance matrix the expected variance of the error to calculate the accuracy index value calculated, and the object on the basis of the accuracy index value A state estimation device for determining whether or not
And a robot control device for controlling the robot so as to perform a gripping operation by predicting a movement destination of an object based on an estimation result of an internal state when gripping is possible. The

また本発明によれば、相対的に移動する対象物をロボットで把持する移動体把持方法であって、
(A)計測装置により、対象物の位置又は姿勢を計測し、
(B)計測した計測結果から、状態推定装置により、状態遷移モデルと観測モデルに基づいて、状態推定を行って対象物の内部状態の推定値を取得し、取得した前記推定値を用いて対象物の位置と姿勢を予測した予測値とその実測値との誤差と、前記誤差の分散を予想した共分散行列とを用いて計算される精度指標値算出し、かつ
(C)前記精度指標値に基づいて対象物の把持の可否を判定し、
(D)把持可能の場合、ロボット制御装置により、内部状態の推定結果に基づいて対象物の移動先を予測してロボットを把持動作し、
(E)把持不可の場合、前記(A)〜()を繰り返す、ことを特徴とする移動体把持方法が提供される。
According to the present invention, there is also provided a moving body gripping method for gripping a relatively moving object with a robot,
(A) The position or posture of the object is measured by the measuring device,
(B) From the measured results, the state estimation device performs state estimation based on the state transition model and the observation model, acquires an estimated value of the internal state of the object, and uses the acquired estimated value as a target. calculated predicted value predicted position and orientation of the object and the error between the actually measured value, the accuracy index value is calculated using a covariance matrix expected variance of the error, and (C) the index of precision Determine whether the object can be gripped based on the value,
(D) When gripping is possible, the robot controller performs a gripping operation by predicting the movement destination of the object based on the estimation result of the internal state,
(E) When the gripping is impossible, a moving body gripping method characterized by repeating (A) to ( C ) is provided.

上記本発明の装置と方法によれば、計測装置及び状態推定装置により、対象物の位置又は姿勢を計測し、対象物の内部状態を推定するので、等速直線運動、等速円運動、等加速度直線運動以外の運動であっても対象物(例えばワーク)の内部状態(例えば位置、姿勢、速度、角速度)に基づいて対象物の運動予測をすることができる。   According to the apparatus and method of the present invention, the position or orientation of the object is measured and the internal state of the object is estimated by the measuring device and the state estimating device, so that constant velocity linear motion, constant velocity circular motion, etc. Even if the movement is other than the linear acceleration movement, the movement of the object can be predicted based on the internal state (for example, position, posture, speed, angular velocity) of the object (for example, workpiece).

また、状態推定装置により、状態遷移モデルと観測モデルに基づいて、精度指標値を含む対象物の内部状態を推定し、精度指標値から対象物の把持の可否を判定するので、把持不可の場合、ロボット制御装置により、予測精度が低下する場合でも把持の失敗を未然に回避することができる。   In addition, the state estimation device estimates the internal state of the object including the accuracy index value based on the state transition model and the observation model, and determines whether or not the object can be gripped from the accuracy index value. The robot control device can avoid a gripping failure even when the prediction accuracy decreases.

さらに、把持可能の場合に、ロボット制御装置により、内部状態の推定結果に基づいて対象物の移動先を予測してロボットを把持動作するので、ロボットを対象物に追従させて確実に把持することができる。
Furthermore, when the robot can be gripped, the robot control device predicts the movement destination of the target object based on the estimation result of the internal state, and grips the robot, so that the robot is surely gripped by following the target object. Can do.

本発明による移動体把持装置を有するロボットシステムの実施形態図である。It is an embodiment figure of the robot system which has a moving body holding | gripping apparatus by this invention. 本発明による移動体把持装置の実施形態図である。It is embodiment drawing of the mobile body holding | grip apparatus by this invention. 本発明による移動体把持方法の全体フロー図である。It is a whole flowchart of the moving body holding | gripping method by this invention. 実施例における経過時間と精度指標値Eとの関係を示す図である。It is a figure which shows the relationship between the elapsed time and the precision parameter | index value E in an Example.

以下、本発明の好ましい実施形態を添付図面に基づいて詳細に説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, the same code | symbol is attached | subjected to the common part in each figure, and the overlapping description is abbreviate | omitted.

図1は、本発明による移動体把持装置を有するロボットシステムの実施形態図である。
この図において、1は対象物(ワーク)、2はロボット、3はロボットアーム、4はハンド、5aはハンド4に固定された第1カメラ、5bは外部の定位置に固定された第2カメラ、10は移動体把持装置である。
このロボットシステムは、振り子運動しながら移動するワーク1をカメラ5a,5bで計測し、ロボット2をワーク1に追従させて制御し、ハンド4によりワーク1を把持するようになっている。
FIG. 1 is a diagram showing an embodiment of a robot system having a moving body gripping device according to the present invention.
In this figure, 1 is an object (work), 2 is a robot, 3 is a robot arm, 4 is a hand, 5a is a first camera fixed to the hand 4, and 5b is a second camera fixed to an external fixed position. Reference numeral 10 denotes a moving body gripping device.
In this robot system, a workpiece 1 that moves while moving in a pendulum is measured by cameras 5 a and 5 b, the robot 2 is controlled to follow the workpiece 1, and the workpiece 4 is gripped by the hand 4.

図2は、本発明による移動体把持装置の実施形態図である。
この図において、移動体把持装置10は、計測装置12、状態推定装置14、及びロボット制御装置20を備える。状態推定装置14は、データ記憶装置16を備える。
FIG. 2 is a diagram showing an embodiment of the moving body gripping device according to the present invention.
In this figure, the moving body gripping device 10 includes a measuring device 12, a state estimating device 14, and a robot control device 20. The state estimation device 14 includes a data storage device 16.

計測装置12は、対象物1の位置と姿勢を計測する。
計測装置12は、この例では第1カメラ5aと第2カメラ5bにそれぞれ接続された2台の計測装置(第1計測装置12aと第2計測装置12b)からなる。
すなわち、この例では、カメラと計測装置をそれぞれ2台用い、第1カメラ5aと第2カメラ5bから対象物1の画像を取り込み、画像処理によって、対象物1の位置と姿勢を求める。求められた対象物1の位置と姿勢は、データ記憶装置16に記憶される。
なお、計測装置12は、この構成に限定されず、対象物1の位置を1台で3次元計測することができる計測装置、例えばレーザレーダを用いてもよい。
The measuring device 12 measures the position and orientation of the object 1.
In this example, the measurement device 12 includes two measurement devices (a first measurement device 12a and a second measurement device 12b) connected to the first camera 5a and the second camera 5b, respectively.
That is, in this example, two cameras and two measuring devices are used, the image of the object 1 is captured from the first camera 5a and the second camera 5b, and the position and orientation of the object 1 are obtained by image processing. The obtained position and orientation of the object 1 are stored in the data storage device 16.
Note that the measuring device 12 is not limited to this configuration, and a measuring device that can measure the position of the object 1 three-dimensionally with one unit, for example, a laser radar may be used.

状態推定装置14は、対象物1を計測した計測結果から、状態遷移モデルと観測モデルに基づいて、精度指標値E(後述する)を含む対象物1の内部状態を推定し、かつ精度指標値Eから対象物1の把持の可否を判定する機能を有する。   The state estimation device 14 estimates the internal state of the target 1 including the accuracy index value E (described later) from the measurement result of the target 1 based on the state transition model and the observation model, and the accuracy index value. E has a function of determining whether or not the object 1 can be gripped.

状態推定装置14には、この例ではカルマンフィルタのアルゴリズムを基にした状態推定アルゴリズムが実装されている。
この状態推定アルゴリズムでは、「状態遷移モデル」として、以下の4つを定義する。
時刻t=0の時の内部状態:X
初期条件Xの共分散:Cov
状態遷移方程式:Xt+Δt=f(X,Δt)・・・(1)
単位時間当たりのプロセスノイズ(共分散):Q
In this example, a state estimation algorithm based on the Kalman filter algorithm is implemented in the state estimation device 14.
In this state estimation algorithm, the following four are defined as “state transition models”.
Internal state at time t = 0: X 0
Covariance of initial condition X 0 : C ov X 0
State transition equation: X t + Δt = f (X t , Δt) (1)
Process noise per unit time (covariance): Q

このアルゴリズムでは、対象物1が吊るされている振り子の振れ角θや、角速度Δθ、支点位置x,y,zなどの状態変数をまとめて、内部状態Xとする。モデルを定義する際、初期条件が必ずしも正確にわかるわけではない。したがって、初期条件と実物の差がどの程度大きくなるかを予想した共分散Covを定義する。
状態遷移方程式(1)は、時刻が進むと内部状態Xがどのように変化するかを示す。この例の場合、振り子の運動方程式や、支点位置が等速直線運動することなどから、状態遷移方程式を定義する。
In this algorithm, state variables such as the swing angle θ, the angular velocity Δθ, and the fulcrum positions x, y, and z of the pendulum on which the object 1 is suspended are collectively defined as an internal state X. When defining a model, the initial conditions are not always known accurately. Therefore, a covariance C ov X 0 is defined that predicts how large the difference between the initial condition and the actual one will be.
The state transition equation (1) shows how the internal state X changes with time. In the case of this example, the state transition equation is defined from the equation of motion of the pendulum and the fact that the fulcrum position moves at a constant linear velocity.

定義した状態遷移方程式(1)は、必ずしも実際の対象物1の運動と一致しない。そこで、単位時間(Δt=1)の時間幅だけ状態遷移計算をした時に、実際の運動とどの程度差が生まれるかを示す共分散Qを定義する。
また、カルマンフィルタは、計測装置12で算出される対象物1の位置と姿勢を計測値Yとし、式(2)(3)の「観測モデル」(観測方程式と観測ノイズ)を定義する。
観測方程式:Y=g(X)・・・(2)
観測ノイズ(共分散):Cov・・・(3)
The defined state transition equation (1) does not necessarily match the actual motion of the object 1. Therefore, a covariance Q is defined which indicates how much difference is produced from the actual motion when the state transition calculation is performed for the unit time (Δt = 1).
The Kalman filter defines the “observation model” (observation equation and observation noise) of equations (2) and (3) with the position and orientation of the object 1 calculated by the measuring device 12 as the measurement value Y.
Observation equation: Y t = g (X t ) (2)
Observation noise (covariance): C ov S t ··· ( 3)

観測方程式(2)は、内部状態Xと計測値Yを対応づける式である。また、観測ノイズ(3)は、時刻tの時の計測にどの程度の計測誤差が含まれるかを表す共分散であり、カメラの分解能や視点の向きによって決まる。観測ノイズ(3)は固定値ではなく、画像ごとに計測装置12が算出し、計測値と共に状態推定装置14に渡される。   The observation equation (2) is an equation that associates the internal state X with the measured value Y. The observation noise (3) is a covariance representing how much measurement error is included in the measurement at time t, and is determined by the resolution of the camera and the orientation of the viewpoint. The observation noise (3) is not a fixed value, but is calculated by the measurement device 12 for each image, and is passed to the state estimation device 14 together with the measurement value.

ロボット制御装置20は、把持可能の場合、内部状態の推定結果に基づいて対象物1の移動先を予測して把持動作するようにロボットを制御する機能を有する。   The robot controller 20 has a function of controlling the robot so as to perform a gripping operation by predicting the destination of the target 1 based on the estimation result of the internal state when it can be gripped.

ロボット制御装置20は、ロボット2から手先位置情報などを受信し、手先速度指令値やハンド開閉指令値を送信する。これらの送受信を、一定の制御周期(4ms周期)で行う。   The robot control device 20 receives hand position information from the robot 2 and transmits a hand speed command value and a hand opening / closing command value. These transmission and reception are performed at a constant control cycle (4 ms cycle).

以下、図2に基づき本発明の移動体把持方法を説明する。
本発明の方法では、(A)初めに、計測装置12により、対象物1の位置と姿勢を計測する。
(B)次いで、計測した計測結果から、状態推定装置14により、状態遷移モデルに基づいて、精度指標値Eを含む対象物1の内部状態を推定し、かつ(C)精度指標値Eから対象物1の把持の可否を判定する。
(D)次に、把持可能の場合、ロボット制御装置20により、内部状態の推定結果に基づいて対象物1の移動先を予測してロボット2を把持動作し、(E)把持不可の場合、ロボット制御装置20により、対象物1の位置と姿勢の計測を継続できるようにロボット2を移動させる。
Hereinafter, the moving body gripping method of the present invention will be described with reference to FIG.
In the method of the present invention, (A) First, the position and orientation of the object 1 are measured by the measuring device 12.
(B) Next, based on the measured measurement results, the state estimation device 14 estimates the internal state of the object 1 including the accuracy index value E based on the state transition model, and (C) the target from the accuracy index value E It is determined whether or not the object 1 can be gripped.
(D) Next, in the case where gripping is possible, the robot controller 20 performs a gripping operation on the robot 2 by predicting the movement destination of the object 1 based on the estimation result of the internal state. The robot controller 20 moves the robot 2 so that the measurement of the position and orientation of the object 1 can be continued.

精度指標値Eは、対象物1の位置と姿勢を予測した予測値とその実測値との誤差と、状態遷移モデルと観測モデルに基づいて前記誤差の分散を予想した共分散行列とからなる。   The accuracy index value E includes an error between a predicted value obtained by predicting the position and orientation of the target object 1 and an actual measurement value thereof, and a covariance matrix that predicts the variance of the error based on a state transition model and an observation model.

前記(C)において、前記誤差を前記共分散行列で割ったマハラノビス距離Mの自乗が第1閾値より小さく、かつ、共分散行列の行列式が第2閾値より小さい時に、把持可能と判定する、ことが好ましい。
第1閾値と第2閾値は、予め設定した任意の閾値である。
In (C), when the square of the Mahalanobis distance M t obtained by dividing the error by the covariance matrix is smaller than the first threshold value and the determinant of the covariance matrix is smaller than the second threshold value, it is determined that grasping is possible. Is preferable.
The first threshold value and the second threshold value are arbitrary threshold values set in advance.

また前記(C)において、前記誤差を前記共分散行列で割ったマハラノビス距離Mの自乗が第3閾値より小さく、かつ、共分散行列のトレースが第4閾値より小さい時に、把持可能と判定してもよい。
第3閾値と第4閾値は、予め設定した任意の閾値である。
In the (C), the error less than a square third threshold Mahalanobis distance M t divided by the covariance matrix, and, when the trace of the covariance matrix is less than the fourth threshold value, determines that the graspable May be.
The third threshold value and the fourth threshold value are arbitrary threshold values set in advance.

以下、発明の移動体把持装置の動作を説明する。
(a1)計測装置12(第1計測装置12aと第2計測装置12b)は任意のタイミングで2台のカメラ(第1カメラ5aと第2カメラ5b)にそれぞれシャッター信号を送信し、撮像された画像を取得する。
(a2)計測装置12により、得られた画像から画像処理によって対象物1の位置と姿勢の情報(計測値Y)を取得する。例えば、画像内の白色領域を抽出し、重心を求める。
(a3)計測装置12からシャッター信号を送信した時刻をtyとする。また、カメラ5a,5bの向きや分解能などから、観測ノイズCovSを算出する。
(a4)状態推定装置14は、計測値Yと、状態遷移モデルと観測モデルによって予測したYの予測値Ymを比較して、内部状態Xを修正する。また、対象物1の位置を予測する精度を表す精度指標値Eを算出する。
(a5)ロボット制御装置20は、制御周期ごとに状態推定装置14の結果を参照し、精度指標値Eを評価して、把持動作を開始するかどうかの判定を行う。
(a6)把持動作を開始する場合は、対象物1の未来の位置を予測し、予測した把持位置を目指して手先速度指令値を算出する。把持動作しない場合は、カメラ5a,5bが対象物1を捕捉し続けられるように、手先速度指令値を算出する。
Hereinafter, the operation of the mobile body gripping device of the invention will be described.
(A1) The measuring device 12 (the first measuring device 12a and the second measuring device 12b) transmits a shutter signal to each of the two cameras (the first camera 5a and the second camera 5b) at an arbitrary timing, and is imaged. Get an image.
(A2) The measurement device 12 acquires information (measurement value Y) on the position and orientation of the object 1 from the obtained image by image processing. For example, a white area in the image is extracted and the center of gravity is obtained.
(A3) The time when the shutter signal is transmitted from the measuring device 12 is ty. Further, the observation noise C ov S is calculated from the orientations and resolutions of the cameras 5a and 5b.
(A4) The state estimation device 14 corrects the internal state X by comparing the measured value Y with the predicted value Ym of Y predicted by the state transition model and the observation model. In addition, an accuracy index value E representing the accuracy of predicting the position of the object 1 is calculated.
(A5) The robot control device 20 refers to the result of the state estimation device 14 for each control cycle, evaluates the accuracy index value E, and determines whether to start the gripping operation.
(A6) When starting the gripping operation, the future position of the object 1 is predicted, and the hand speed command value is calculated aiming at the predicted gripping position. When the gripping operation is not performed, the hand speed command value is calculated so that the cameras 5a and 5b can continue to capture the object 1.

上記(a4)における状態推定装置14の処理内容の詳細を以下に説明する。以下の処理内容は、カルマンフィルタを利用した一般的な状態推定手段である。
(b1)計測時刻tyと現在のモデル時刻tから、状態遷移させる時間幅Δtを算出する。モデル時刻tの初期値は、計測を開始した時刻とする。また、計測時刻を、開始時刻を基点とした経過時間として定義し、モデル時刻の初期値を0としても良い。
状態遷移させる時間幅Δtは、Δt=ty−t・・・(4)で表される。
Details of the processing contents of the state estimation device 14 in the above (a4) will be described below. The following processing contents are general state estimation means using a Kalman filter.
(B1) A time width Δt for state transition is calculated from the measurement time ty and the current model time t. The initial value of the model time t is the time when measurement is started. Further, the measurement time may be defined as an elapsed time with the start time as a base point, and the initial value of the model time may be set to zero.
A time width Δt for state transition is expressed by Δt = ty−t (4).

(b2)計測時刻tyにおける内部状態を予測する。
内部状態の予測値Xt+Δtは、上述した状態遷移モデルで定義した、Xt+Δt=f(X,Δt)・・・(1)で表される。
(B2) The internal state at the measurement time ty is predicted.
The predicted value X t + Δt of the internal state is represented by X t + Δt = f (X t , Δt) (1) defined by the state transition model described above.

(b3)計測時刻における、内部状態予測値の共分散を算出する。ここで、行列Aは状態遷移方程式fを偏微分した行列である。
更新(b9)前の内部状態の共分散Covt+Δtは、式(5)で表される。
ovt+Δt=A(Δt)・Cov・A(Δt)+Q・|Δt|
・・・(5)
状態遷移方程式の偏微分行列A(Δt)は、式(6)で表される。
(Δt)=(∂f(X、Δt)/∂X)・・・(6)
(B3) The covariance of the predicted internal state value at the measurement time is calculated. Here, the matrix A is a matrix obtained by partial differentiation of the state transition equation f.
The covariance C ov X t + Δt | t of the internal state before the update (b9) is expressed by Expression (5).
C ov Xt + Δt | t = A t (Δt) · C ov X t · A t (Δt) T + Q · | Δt |
... (5)
The partial differential matrix A t (Δt) of the state transition equation is expressed by Expression (6).
A t (Δt) = (∂f (X t , Δt) / ∂X t ) (6)

(b4)内部状態予測値と観測方程式を用いて、式(7)で計測値Yの予測値Ymt+Δtを予測する。
Ymt+Δt=g(Xt+Δt)・・・(7)
(B4) Using the internal state predicted value and the observation equation, the predicted value Ymt + Δt of the measured value Y is predicted by Expression (7).
Ym t + Δt = g (X t + Δt ) (7)

(b5)内部状態予測値の共分散に基づいて、予測値Ymの共分散Covt+Δtを式(8)で求める。ここで、行列Hは観測方程式gを偏微分した行列である。
ovt+Δt=Ht・Covt+Δt・Ht・・・(8)
観測方程式の偏微分行列Hは、式(9)で表される。
=(∂g(X)/∂X)・・・(9)
(B5) Based on the covariance of the internal state predicted value, the covariance C ov Y t + Δt of the predicted value Ym is obtained by Expression (8). Here, the matrix H is a matrix obtained by partial differentiation of the observation equation g.
C ov Y t + Δt = Ht · C ov X t + Δt | t · Ht T (8)
The partial differential matrix H t of the observation equation is expressed by Expression (9).
H t = (∂g (X t ) / ∂X t ) (9)

(b6)予測値Ymの共分散CovYに加えて、カメラの計測誤差を考慮した共分散Vt+Δtを、式(10)で求める。Covt+Δtは時刻ty(=t+Δt)の時の観測ノイズであり、計測装置12が算出する。
共分散Vt+Δtは、予測値Ymの共分散に、カメラの観測ノイズを加えているため、予測値Ymと観測値Yの差の大きさを示す共分散となる。
t+Δt=Covt+Δt+Covt+Δt・・・(10)
(B6) In addition to the covariance C ov Y of the predicted value Ym, a covariance V t + Δt considering the camera measurement error is obtained by Expression (10). C ov S t + Δt is observation noise at time ty (= t + Δt), and is calculated by the measurement device 12.
The covariance V t + Δt is a covariance indicating the magnitude of the difference between the predicted value Ym and the observed value Y because camera observation noise is added to the covariance of the predicted value Ym.
V t + Δt = C ov Y t + Δt + C ov S t + Δt (10)

(b7)カルマンゲインKt+Δtを式(11)で算出する。
t+Δt=(Covt+Δt・Ht)/(Vt+Δt)・・・(11)
(B7) The Kalman gain K t + Δt is calculated by the equation (11).
K t + Δt = (C ov X t + Δt | t · Ht T ) / (V t + Δt ) (11)

(b8)内部状態Xt+Δtを式(12)(13)で更新する。なお、更新前の内部状態をXt+Δtと表記する。なおYはセンサで計測された観測値である。
eYt+Δt=Ymt+Δt−Yt+Δt・・・(12)
t+Δt=Xt+Δt−Kt+Δt・eYt+Δt・・・(13)
(B8) The internal state Xt + Δt is updated with the equations (12) and (13). Note that the internal state before the update is expressed as X t + Δt | t . Y is an observed value measured by the sensor.
eY t + Δt = Ym t + Δt | t −Y t + Δt (12)
Xt + Δt = Xt + Δt | t −Kt + Δt · eY t + Δt (13)

(b9)更新後の内部状態の共分散Covt+Δtを式(14)で算出する。
ovt+Δt=(I−Kt+Δt)Covt+Δt・・・(14)
(B9) The covariance C ov X t + Δt of the internal state after the update is calculated by Expression (14).
C ov X t + Δt = (I−K t + Δt H t ) C ov X t + Δt | t (14)

上述した(b1)から(b9)までの処理によって、時刻tyの観測値に基づいて、内部状態が修正される。したがって、システム全体が上記(a1)〜(a6)の処理を繰り返すことで、内部状態が徐々に真の値(対象物の実速度など)に近づく。   By the processing from (b1) to (b9) described above, the internal state is corrected based on the observed value at time ty. Therefore, when the entire system repeats the processes (a1) to (a6), the internal state gradually approaches a true value (such as the actual speed of the object).

内部状態がどの程度、真の値に近づいているか、を判断するには、上記(b5)、(b6)で求めた予測値の共分散CovY、Vを評価する。これらの共分散は、現在の推定結果を使って対象物の位置と姿勢を予測した場合の、予測誤差の大きさを表す。 To determine how close the internal state is to the true value, the covariances C ov Y and V of the predicted values obtained in (b5) and (b6) above are evaluated. These covariances represent the size of the prediction error when the position and orientation of the object are predicted using the current estimation result.

事前に定義した状態遷移モデルと観測モデルが正確な場合、観測値と予測値の差eYは、共分散Vにしたがった分布となる。したがって、実際の差eYが、Vに比べて大きな値となった場合は、事前に定めたモデルが正しくないことを意味する。このような評価には、式(15)に示すマハラノビス距離Mを用いる。
=(eY ・V −1・eY0.5・・・(15)
When the state transition model and the observation model defined in advance are accurate, the difference eY between the observed value and the predicted value becomes a distribution according to the covariance V. Therefore, when the actual difference eY is larger than V, it means that the model determined in advance is not correct. For such evaluation, the Mahalanobis distance M t shown in Expression (15) is used.
M t = (eY t T · V t −1 · eY t ) 0.5 (15)

そこで状態推定装置14では、(b1)から(b9)の処理後に、現在の状態推定の精度を表す精度指標値Eを、以下のように算出する。
(b10)以下の(c1)(c2)(c3)のいずれかにより精度指標値Eを算出する。
Therefore, the state estimation device 14 calculates an accuracy index value E representing the accuracy of the current state estimation after the processing from (b1) to (b9) as follows.
(B10) The accuracy index value E is calculated by any of the following (c1), (c2), and (c3).

(c1)E=exp(−Mt+Δt /2)/((2π)|Vt+Δt|)0.5
・・・(16)
ここでmは、eYの次数である。
(c2)E=exp(−Mt+Δt /2)/(trace(Covt+Δt))0.5
・・・(17)
(c3)式(16)(17)のEを、過去の計測結果全てについて総和した式(18)。ここでpは、内部状態の変数の数である。
(C1) E = exp (-M t + Δt 2/2) / ((2π) m | V t + Δt |) 0.5
... (16)
Here, m is the order of eY.
(C2) E = exp (-M t + Δt 2/2) / (trace (C ov Y t + Δt)) 0.5
... (17)
(C3) Expression (18) obtained by summing up E in Expressions (16) and (17) for all past measurement results. Here, p is the number of variables in the internal state.

なお、(c1)の式(16)は、正規分布のモデル適合度の評価式であり、(c3)の式(18)は、情報量基準(AIC)である。
(c2)の式(17)は、分母に共分散CovYのトレースを用いる点に特徴がある。
式(16)において共分散の行列式の平方根は、eYの分布の体積を表す。一方、式(17)においてトレースの平方根は、分布を包み込む最小の球の半径を表す。
Note that equation (16) in (c1) is an evaluation equation for model fitness of a normal distribution, and equation (18) in (c3) is an information criterion (AIC).
Expression (17) of (c2) is characterized in that a covariance C ov Y trace is used as the denominator.
In equation (16), the square root of the covariance determinant represents the volume of the distribution of eY. On the other hand, in equation (17), the square root of the trace represents the radius of the smallest sphere that wraps around the distribution.

次に上記(a5)(a6)におけるロボット制御装置20の処理内容を以下に示す。
図3は、本発明による移動体把持方法の全体フロー図である。この図に示すように、移動体把持方法は、S1〜S12の各ステップ(工程)からなる。
Next, processing contents of the robot control device 20 in the above (a5) and (a6) are shown below.
FIG. 3 is an overall flowchart of the moving object gripping method according to the present invention. As shown in this figure, the moving body gripping method includes steps (steps) S1 to S12.

S1では、ロボット2から手先位置情報などを受信する。ロボット2との通信は、例えば4msの制御周期で行なわれるようにロボット2が管理する。したがって、ロボット制御装置20は、データを受信するまで待機し、データを受信してから例えば4msの制御周期以内でS12の送信処理を完了しなければならない。
S2では、把持動作中を示すフラグFを判定する。フラグFはプログラム開始時にfalseに初期化されている。
In S1, hand position information and the like are received from the robot 2. Communication with the robot 2 is managed by the robot 2 so as to be performed, for example, with a control period of 4 ms. Therefore, the robot controller 20 must wait until data is received, and complete the transmission process of S12 within a control period of, for example, 4 ms after receiving the data.
In S2, a flag F indicating that the gripping operation is being performed is determined. The flag F is initialized to false at the start of the program.

S3では、把持動作中でない場合、上記(a1)から(a4)の処理を行う。この処理は、別の処理系が任意の実行周期で実施し、ロボット制御装置20は最新の推定結果と精度指標値Eを参照する形式でも良い。   In S3, when the gripping operation is not being performed, the processes (a1) to (a4) are performed. This processing may be performed by another processing system at an arbitrary execution cycle, and the robot controller 20 may refer to the latest estimation result and the accuracy index value E.

S4では、現在の状態推定の精度指標値Eから、把持動作を行うか、追従動作を継続するかを判定する。判定手段は以下の(d1)〜(d3)のいずれかを用いる。   In S4, it is determined from the accuracy index value E of the current state estimation whether the gripping operation is performed or the tracking operation is continued. The determination means uses any of the following (d1) to (d3).

(d1)上述した(c1)の精度指標値Eがある閾値(第1閾値)を超えるかどうかを判定する。式(16)では、マハラノビス距離Mが大きい場合、指数関数部が0に近づく。また、共分散Vの体積が大きい場合、分母が大きくなる。したがって、マハラノビス距離Mが小さく、かつ、共分散Vの体積が小さい時のみ、把持動作が開始される。 (D1) It is determined whether or not the accuracy index value E of (c1) described above exceeds a certain threshold value (first threshold value). In Expression (16), when the Mahalanobis distance M t is large, the exponential function part approaches 0. Further, when the volume of the covariance V is large, the denominator becomes large. Therefore, smaller Mahalanobis distance M t, and, when the volume of the covariance V is small only the grasping operation is started.

この例のように2台のカメラ(第1カメラ5aと第2カメラ5b)を用いる場合、対象物1が片方のカメラの視野から外れ、1台のカメラのみで計測を続ける状況が起こりうる。この時、片方の視点でしか計測されないため、共分散CovY、Vはカメラの視線方向に細長い分布を示す共分散行列となる。(d1)の手段の場合、Vが細長い場合でも体積は小さくなるので、把持動作が開始される可能性がある。 When two cameras (the first camera 5a and the second camera 5b) are used as in this example, a situation may occur in which the object 1 is out of the field of view of one camera and measurement is continued with only one camera. At this time, since the measurement is performed only from one viewpoint, the covariances C ov Y and V are covariance matrices indicating a long and narrow distribution in the viewing direction of the camera. In the case of means (d1), since the volume is reduced even when V is elongated, the gripping operation may be started.

(d2)上述した(c2)の精度指標値Eがある閾値(第3閾値)を超えるかどうかを判定する。式(17)の精度指標値Eは、CovYが細長い分布を表す場合、小さな値となる。したがって、2台のカメラが両方とも対象物1を捉えている時のみ、把持動作が開始される。 (D2) It is determined whether or not the accuracy index value E of (c2) described above exceeds a certain threshold value (third threshold value). The accuracy index value E in Expression (17) is a small value when C ov Y represents a long and narrow distribution. Therefore, the gripping operation is started only when both the two cameras are capturing the object 1.

(d3)上述した(d1)(d2)は、共に、最新の計測結果で判定するが、過去数点分の精度指標値を考慮して判定しても良い。例えば、上述した(c3)のように、過去に算出された精度指標値の対数をとって、総和する方法や、過去一定時間分の平均値をとる方法などが挙げられる。   (D3) Both (d1) and (d2) described above are determined by the latest measurement result, but may be determined in consideration of accuracy index values for the past several points. For example, as described above (c3), there are a method of taking the logarithm of accuracy index values calculated in the past and summing them up, a method of taking an average value for a certain past time, and the like.

S5では、把持動作をしない場合、把持動作中フラグFはfalseとする。
S6では、把持動作をしない場合、例えば以下の式(19)(20)(21)ようにアーム速度Vx、Vy、Vzを設定する。
Vx=Kpx・(mx−rx)+Kdx・(mx−rx−pr_x)・・・(19)
Vy=Kpy・(my−ry)+Kdy・(my−ry−pr_y)・・・(20)
Vz=Kpz・(mz−rz)+Kdz・(mz−rz−pr_z)・・・(21)
In S5, when the gripping operation is not performed, the gripping operation flag F is set to false.
In S6, when the gripping operation is not performed, the arm speeds Vx, Vy, and Vz are set as in the following formulas (19), (20), and (21), for example.
Vx = Kpx · (mx−rx) + Kdx · (mx−rx−pr_x) (19)
Vy = Kpy · (my−ry) + Kdy · (my−ry−pr_y) (20)
Vz = Kpz · (mz−rz) + Kdz · (mz−rz−pr_z) (21)

この制御は、PD制御であり、mx、my、mzは、計測された対象物の現在位置[mm]、rx、ry、rzは追従制御点(カメラ1の視線上の点)の現在位置[mm]、pr_x、pr_y、pr_zは、前回のステップで算出された位置偏差(my−ry、mz−rzなど)、Kpは位置制御ゲイン、Kdは微分制御ゲインである。   This control is PD control, where mx, my, and mz are current positions [mm] of the measured object, and rx, ry, and rz are current positions of tracking control points (points on the line of sight of the camera 1) [ mm], pr_x, pr_y, pr_z are position deviations (my-ry, mz-rz, etc.) calculated in the previous step, Kp is a position control gain, and Kd is a differential control gain.

S7では、S4で把持動作を行うと判定された場合は、状態遷移モデルと観測モデルを用いて、未来の対象物1の位置と姿勢を予測し、把持位置Aとする。
S8では、把持動作開始時に、把持動作中フラグFをtrueにする。
S9では、把持動作中は、ロボットアーム3が把持位置Aに移動するように、ロボットアーム3の目標速度を算出する。
S10では、把持動作が終了したかどうかを判定する。例えば、ロボットアーム3が把持位置Aに到達して、ハンド4を閉じる動作が終了している場合に把持動作終了と判定する。
S11では、把持動作を終了する場合、把持動作フラグFをfalseにする。把持動作を終了しない場合は、把持動作フラグFはtrueのままなので、S2の分岐により、次回以降も把持動作が継続される。
S12では、算出された目標速度やハンド開閉指令値をロボット2に送信する。
In S7, if it is determined in S4 that a gripping operation is to be performed, the position and orientation of the future target object 1 are predicted using the state transition model and the observation model, and set as the gripping position A.
In S8, the gripping operation flag F is set to true when the gripping operation is started.
In S9, the target speed of the robot arm 3 is calculated so that the robot arm 3 moves to the gripping position A during the gripping operation.
In S10, it is determined whether the gripping operation is finished. For example, when the robot arm 3 has reached the gripping position A and the operation of closing the hand 4 has ended, it is determined that the gripping operation has ended.
In S11, when the gripping operation is finished, the gripping operation flag F is set to false. When the gripping operation is not terminated, the gripping operation flag F remains true, so that the gripping operation is continued from the next time due to the branch of S2.
In S12, the calculated target speed and hand opening / closing command value are transmitted to the robot 2.

なお上述の例では、対象物1の運動状態を推定する方法として、カルマンフィルタを用いたが、以下のような条件を満たす状態推定手法であれば、他の手法を用いても良い。例えば、パーティクルフィルタ、最小自乗法などを適用できる。
(e1)対象物1の運動状態を推定して、未来の位置を予測できること。
(e2)未来の位置を予測した時の予測誤差の分散を表す共分散行列を算出できること。
In the above-described example, the Kalman filter is used as a method for estimating the motion state of the object 1. However, any other method may be used as long as the state estimation method satisfies the following conditions. For example, a particle filter or a least square method can be applied.
(E1) The future state can be predicted by estimating the motion state of the object 1.
(E2) A covariance matrix representing the variance of the prediction error when a future position is predicted can be calculated.

上述のc1では、Vの行列式を使った判定の例を示しているが、V,CovYのどちらの行列式を使っても構わない。また、上述のc2では、CovYのtraceを使った判定の例を示しているが、V,CovYのどちらのtraceを使っても構わない。
すなわち「誤差の分散を予想した共分散行列」が、V,CovYのどちらもあり得るようになっていればよい。
In the above c1, an example of determination using the determinant of V is shown, but either determinant of V or C ov Y may be used. Further, in the above c2, an example of determination using the trace of C ov Y is shown, but either trace of V or C ov Y may be used.
That is, it is only necessary that the “covariance matrix in which the variance of error is predicted” can be either V or C ov Y.

図4は、実施例における経過時間と精度指標値Eとの関係を示す図である。
この例は、上述した(c2)の式(17)で、精度指標値Eを算出した結果である。
FIG. 4 is a diagram illustrating the relationship between the elapsed time and the accuracy index value E in the embodiment.
This example is a result of calculating the accuracy index value E by the above-described equation (17) of (c2).

この図から計測開始時から精度指標値Eは徐々に大きくなり、計測開始から経過時間が2秒後以降は80以上で安定することがわかる。
したがって、式(17)の精度指標値Eが80以上であることを把持動作開始条件とすれば、把持失敗しにくくなるといえる。
From this figure, it can be seen that the accuracy index value E gradually increases from the start of measurement, and stabilizes at 80 or more after 2 seconds from the start of measurement.
Therefore, it can be said that the gripping failure is unlikely to occur when the gripping operation start condition is that the accuracy index value E of Expression (17) is 80 or more.

また、この図で経過時間が1秒付近に見られるように、一時的に精度指標値が高くなる場合がある。したがって、上述した(c3)のように、過去数点分の精度指標値を考慮して判定することが好ましい。   In addition, the accuracy index value may temporarily increase so that the elapsed time can be seen around 1 second in this figure. Therefore, as in (c3) described above, it is preferable to make a determination in consideration of accuracy index values for the past several points.

例えば、過去数点の平均値が80を超えている、一定時間以上連続して80を超えているなどを考慮する。
例えば、「120ms以上連続して、精度指標値が80を超えている」ことを把持動作開始条件とするのがよい。
For example, it is considered that the average value of past several points exceeds 80, or exceeds 80 continuously for a certain time.
For example, “the accuracy index value exceeds 80 continuously for 120 ms or longer” may be set as the gripping operation start condition.

上述した本発明の装置と方法によれば、計測装置12及び状態推定装置14により、対象物1の位置又は姿勢を計測し、対象物1の内部状態を推定するので、等速直線運動、等速円運動、等加速度直線運動以外の運動であっても対象物1(例えばワーク)の内部状態(例えば位置、姿勢、速度、角速度)に基づいて対象物1の運動予測をすることができる。   According to the above-described apparatus and method of the present invention, the measuring device 12 and the state estimating device 14 measure the position or orientation of the object 1 and estimate the internal state of the object 1, so that constant velocity linear motion, etc. Even if it is a motion other than a fast circular motion or a constant acceleration linear motion, the motion of the target 1 can be predicted based on the internal state (for example, position, posture, speed, angular velocity) of the target 1 (for example, a workpiece).

また、状態推定装置14により、状態遷移モデルと観測モデルに基づいて、精度指標値Eを含む対象物1の内部状態を推定し、精度指標値Eから対象物1の把持の可否を判定するので、把持不可の場合、ロボット制御装置20により、例えば対象物1の位置と姿勢の計測を継続できるようにロボット2を移動させることで、予測精度が低下する場合でも把持の失敗を未然に回避することができる。   Further, the state estimation device 14 estimates the internal state of the object 1 including the accuracy index value E based on the state transition model and the observation model, and determines whether or not the object 1 can be gripped from the accuracy index value E. In the case where gripping is impossible, the robot controller 20 moves the robot 2 so that measurement of the position and orientation of the target object 1 can be continued, for example, so that gripping failure can be avoided even when the prediction accuracy is reduced. be able to.

さらに、把持可能の場合に、ロボット制御装置20により、内部状態の推定結果に基づいて対象物1の移動先を予測してロボット2を把持動作するので、ロボット2を対象物1に追従させて確実に把持することができる。   Further, when the robot 2 can grip, the robot controller 20 predicts the movement destination of the object 1 based on the estimation result of the internal state and grips the robot 2, so that the robot 2 follows the object 1. It can be securely gripped.

上述した例では、対象物1が移動しロボット2が固定されているが、本発明はこの例に限定されず、対象物が動かずにロボットが移動する場合でも、対象物とロボットの両方が移動する場合でもよい。
したがって、本発明における「対象物の移動」は、ロボットから見た対象物の相対的な移動を意味する。
In the above-described example, the object 1 moves and the robot 2 is fixed. However, the present invention is not limited to this example, and even when the object moves without moving the object, both the object and the robot move. It may be moved.
Therefore, “movement of the object” in the present invention means relative movement of the object as viewed from the robot.

なお、本発明は上述した実施形態に限定されず、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味および範囲内でのすべての変更を含むものである。   In addition, this invention is not limited to embodiment mentioned above, is shown by description of a claim, and also includes all the changes within the meaning and range equivalent to description of a claim.

1 ワーク(対象物)、2 ロボット、
3 ロボットアーム、4 ハンド、
5a 第1カメラ、5b 第2カメラ、
10 移動体把持装置、12 計測装置、
12a 第1計測装置、12b 第2計測装置、
14 状態推定装置、16 データ記憶装置、
20 ロボット制御装置
1 work (object), 2 robot,
3 Robot arms, 4 hands,
5a 1st camera, 5b 2nd camera,
10 mobile body gripping device, 12 measuring device,
12a 1st measuring device, 12b 2nd measuring device,
14 state estimation device, 16 data storage device,
20 Robot controller

Claims (5)

相対的に移動する対象物をロボットで把持する移動体把持装置であって、
対象物の位置又は姿勢を計測する計測装置と、
対象物を計測した計測結果から、状態遷移モデルと観測モデルに基づいて、状態推定を行って対象物の内部状態の推定値を取得し、取得した前記推定値を用いて対象物の位置と姿勢を予測した予測値とその実測値との誤差と、前記誤差の分散を予想した共分散行列とを用いて計算される精度指標値算出し、かつ前記精度指標値に基づいて対象物の把持の可否を判定する状態推定装置と、
把持可能の場合、内部状態の推定結果に基づいて対象物の移動先を予測して把持動作するようにロボットを制御するロボット制御装置と、を備えることを特徴とする移動体把持装置。
A moving body gripping device for gripping a relatively moving object with a robot,
A measuring device for measuring the position or orientation of an object;
Based on the measurement result of the object, based on the state transition model and the observation model, state estimation is performed to obtain an estimated value of the internal state of the object, and the position and orientation of the object are obtained using the obtained estimated value. predicted value predicted and the error between the actually measured value, the grip of the using the covariance matrix the expected variance of the error to calculate the accuracy index value calculated, and the object on the basis of the accuracy index value A state estimation device for determining whether or not
And a robot control device for controlling the robot so as to perform a gripping operation by predicting a movement destination of an object based on an estimation result of an internal state when the gripping is possible.
前記状態推定に、カルマンフィルタを用いる、ことを特徴とする請求項1に記載の移動体把持装置。The mobile body gripping apparatus according to claim 1, wherein a Kalman filter is used for the state estimation. 相対的に移動する対象物をロボットで把持する移動体把持方法であって、
(A)計測装置により、対象物の位置又は姿勢を計測し、
(B)計測した計測結果から、状態推定装置により、状態遷移モデルと観測モデルに基づいて、状態推定を行って対象物の内部状態の推定値を取得し、取得した前記推定値を用いて対象物の位置と姿勢を予測した予測値とその実測値との誤差と、前記誤差の分散を予想した共分散行列とを用いて計算される精度指標値算出し、かつ
(C)前記精度指標値に基づいて対象物の把持の可否を判定し、
(D)把持可能の場合、ロボット制御装置により、内部状態の推定結果に基づいて対象物の移動先を予測してロボットを把持動作し、
(E)把持不可の場合、前記(A)〜()を繰り返す、ことを特徴とする移動体把持方法。
A moving body gripping method for gripping a relatively moving object with a robot,
(A) The position or posture of the object is measured by the measuring device,
(B) From the measured results, the state estimation device performs state estimation based on the state transition model and the observation model, acquires an estimated value of the internal state of the object, and uses the acquired estimated value as a target. calculated predicted value predicted position and orientation of the object and the error between the actually measured value, the accuracy index value is calculated using a covariance matrix expected variance of the error, and (C) the index of precision Determine whether the object can be gripped based on the value,
(D) When gripping is possible, the robot controller performs a gripping operation by predicting the movement destination of the object based on the estimation result of the internal state,
(E) A moving body gripping method characterized by repeating (A) to ( C ) when gripping is impossible.
前記(C)において、前記実測値と前記予測値の差と前記予測値の共分散にセンサの観測ノイズを加えた共分散から求まるマハラノビス距離の自乗が第1閾値より小さく、かつ、共分散行列の行列式が第2閾値より小さい時に、把持可能と判定する、ことを特徴とする請求項3に記載の移動体把持方法。 In (C), the square of the Mahalanobis distance obtained from the covariance obtained by adding the sensor observation noise to the difference between the measured value and the predicted value and the covariance of the predicted value is smaller than the first threshold, and the covariance matrix The moving body gripping method according to claim 3, wherein it is determined that gripping is possible when the determinant of is smaller than a second threshold value. 前記(C)において、前記実測値と前記予測値の差と前記予測値の共分散にセンサの観測ノイズを加えた共分散から求まるマハラノビス距離の自乗が第3閾値より小さく、かつ、共分散行列のトレースが第4閾値より小さい時に、把持可能と判定する、ことを特徴とする請求項3に記載の移動体把持方法。
In (C), the square of the Mahalanobis distance obtained from the difference between the measured value and the predicted value and the covariance obtained by adding sensor observation noise to the covariance of the predicted value is smaller than the third threshold, and the covariance matrix 4. The moving object gripping method according to claim 3, wherein the gripping is determined to be possible when the trace is less than a fourth threshold value.
JP2011106822A 2011-05-12 2011-05-12 Moving body gripping apparatus and method Active JP5733516B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011106822A JP5733516B2 (en) 2011-05-12 2011-05-12 Moving body gripping apparatus and method
EP12782445.6A EP2708334B1 (en) 2011-05-12 2012-04-24 Device and method for controlling prediction of motion
PCT/JP2012/060918 WO2012153629A1 (en) 2011-05-12 2012-04-24 Device and method for controlling prediction of motion
CN201280022935.9A CN103517789B (en) 2011-05-12 2012-04-24 motion prediction control device and method
US14/078,342 US9108321B2 (en) 2011-05-12 2013-11-12 Motion prediction control device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011106822A JP5733516B2 (en) 2011-05-12 2011-05-12 Moving body gripping apparatus and method

Publications (2)

Publication Number Publication Date
JP2012236254A JP2012236254A (en) 2012-12-06
JP5733516B2 true JP5733516B2 (en) 2015-06-10

Family

ID=47459637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011106822A Active JP5733516B2 (en) 2011-05-12 2011-05-12 Moving body gripping apparatus and method

Country Status (1)

Country Link
JP (1) JP5733516B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6026897B2 (en) * 2013-01-25 2016-11-16 本田技研工業株式会社 Working method and working device
JP6643020B2 (en) * 2015-09-25 2020-02-12 キヤノン株式会社 Robot control device, robot control method, and computer program
JP6514156B2 (en) 2016-08-17 2019-05-15 ファナック株式会社 Robot controller

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0719818A (en) * 1993-06-30 1995-01-20 Kajima Corp Three-dimensional movement predicting device
JPH1124718A (en) * 1997-07-07 1999-01-29 Toshiba Corp Device and method for controlling robot
JP3988255B2 (en) * 1998-05-20 2007-10-10 株式会社安川電機 Position command method and apparatus in numerical controller
DE102008008499B4 (en) * 2008-02-11 2009-12-31 Siemens Aktiengesellschaft Method for computer-aided calculation of the movement of an object from sensor data
JP2011209203A (en) * 2010-03-30 2011-10-20 Sony Corp Self-position estimating device and self-position estimating method

Also Published As

Publication number Publication date
JP2012236254A (en) 2012-12-06

Similar Documents

Publication Publication Date Title
WO2012153629A1 (en) Device and method for controlling prediction of motion
JP6456555B1 (en) Calibration apparatus, calibration method and control apparatus
US10300600B2 (en) Control system having learning control function and control method
US9221170B2 (en) Method and apparatus for controlling a robotic device via wearable sensors
JP5902425B2 (en) Robot control apparatus, disturbance determination method, and actuator control method
CN110076772B (en) Grabbing method and device for mechanical arm
JP5733518B2 (en) Motion prediction control apparatus and method
EP3351356A1 (en) Robot collision detection method
JP7167141B2 (en) Robot system and additional learning method
WO2000045229A1 (en) Uncalibrated dynamic mechanical system controller
Qin et al. A new approach to the dynamic parameter identification of robotic manipulators
JP2022543926A (en) System and Design of Derivative-Free Model Learning for Robotic Systems
JP6564433B2 (en) Robot system
JP5733516B2 (en) Moving body gripping apparatus and method
JP2019181610A (en) Robot system for learning by use of motor encoder and sensor
KR20110048870A (en) Method for estimating load
JP5679121B2 (en) Robot motion prediction control method and apparatus
CN111222225B (en) Method and device for determining pose of sensor in robot
CN114111772B (en) Underwater robot soft operation hand position tracking method based on data glove
CN115229780B (en) Mechanical arm motion path planning method and device
Du et al. Human-manipulator interface using particle filter
KR101209779B1 (en) Method for estimating load of robot
EP3904017A1 (en) Robot control device, robot system, and robot control method
JP2020160594A (en) Self-position estimating method
CN113370203A (en) Robot control method, robot control device, computer device, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150331

R151 Written notification of patent or utility model registration

Ref document number: 5733516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250