JP2016013610A - Robot, and control method - Google Patents
Robot, and control method Download PDFInfo
- Publication number
- JP2016013610A JP2016013610A JP2014138127A JP2014138127A JP2016013610A JP 2016013610 A JP2016013610 A JP 2016013610A JP 2014138127 A JP2014138127 A JP 2014138127A JP 2014138127 A JP2014138127 A JP 2014138127A JP 2016013610 A JP2016013610 A JP 2016013610A
- Authority
- JP
- Japan
- Prior art keywords
- image
- robot
- unit
- jacobian matrix
- imaging unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
この発明は、ロボット、及び制御方法に関する。 The present invention relates to a robot and a control method.
撮像部により撮像された撮像画像に基づいてロボットに所定の作業を行わせる技術が研究・開発されている。特に、工場における組立作業の自動化において、撮像部により撮像された撮像画像から作業対象の位置及び姿勢を推定することは、必要不可欠である。 A technique for causing a robot to perform a predetermined operation based on a captured image captured by an imaging unit has been researched and developed. In particular, in automating assembly work in a factory, it is indispensable to estimate the position and orientation of a work target from a captured image captured by an imaging unit.
これに関連し、ESM(Efficient Second-order Minimization Method)法を用いて作業対象の位置及び姿勢を推定するロボット装置が知られている(特許文献1参照)。 In relation to this, a robot apparatus that estimates the position and orientation of a work target using an ESM (Efficient Second-order Minimization Method) method is known (see Patent Document 1).
しかしながら、従来のロボット装置が三次元物体の位置及び姿勢を推定するためには、その三次元物体のヤコビ行列を導出する必要がある。ヤコビ行列を導出するためには、一般的には、撮像部もしくは物体を微小に動かす必要がある。そのため、撮像部もしくは物体を微小に動かすことができない状況下では、ヤコビ行列を導出することができず、ESM法を用いた、三次元物体の位置及び姿勢を推定することができなかった。 However, in order for a conventional robot apparatus to estimate the position and orientation of a three-dimensional object, it is necessary to derive a Jacobian matrix of the three-dimensional object. In order to derive the Jacobian matrix, it is generally necessary to move the imaging unit or the object minutely. Therefore, in a situation where the imaging unit or the object cannot be moved minutely, the Jacobian matrix cannot be derived, and the position and orientation of the three-dimensional object cannot be estimated using the ESM method.
そこで本発明は、上記従来技術の問題に鑑みてなされたものであり、撮像部もしくは物体を動かすことなく作業を行うことができるロボット、及び制御方法を提供する。 Accordingly, the present invention has been made in view of the above-described problems of the prior art, and provides a robot that can perform an operation without moving an imaging unit or an object, and a control method.
本発明の一態様は、第1位置に配置された撮像部が撮像した第2位置に配置された物体の第1画像を取得し、前記物体を前記第1位置とは異なる複数の位置から撮像した画像に相当する複数の第2画像を用いて動作する、ロボットである。
この構成により、ロボットは、第1位置に配置された撮像部が撮像した第2位置に配置された物体の第1画像を取得し、物体を第1位置とは異なる複数の位置から撮像した画像に相当する複数の第2画像を用いて動作する。これにより、ロボットは、撮像部もしくは物体を動かすことなく作業を行うことができる。
One embodiment of the present invention acquires a first image of an object placed at a second position taken by an imaging unit placed at a first position, and picks up the object from a plurality of positions different from the first position. This is a robot that operates using a plurality of second images corresponding to the obtained images.
With this configuration, the robot acquires the first image of the object arranged at the second position captured by the imaging unit arranged at the first position, and images the object from a plurality of positions different from the first position. It operates using a plurality of second images corresponding to. Thereby, the robot can perform work without moving the imaging unit or the object.
また、本発明の他の態様は、ロボットにおいて、複数の前記第2画像を用いて算出されたヤコビ行列に基づいて動作する、構成が用いられてもよい。
この構成により、ロボットは、複数の第2画像を用いて算出されたヤコビ行列に基づいて動作する。これにより、ロボットは、撮像部もしくは物体を動かすことなく算出されたヤコビ行列によって作業を行うことができる。
In another aspect of the present invention, the robot may be configured to operate based on a Jacobian matrix calculated using the plurality of second images.
With this configuration, the robot operates based on the Jacobian matrix calculated using the plurality of second images. As a result, the robot can perform work using the calculated Jacobian matrix without moving the imaging unit or the object.
また、本発明の他の態様は、ロボットにおいて、前記ヤコビ行列は、前記物体のリファレンスモデルと、前記第1画像との差分画像に基づいてステップサイズを算出し、算出された前記ステップサイズに基づいて算出される、構成が用いられてもよい。
この構成により、ロボットは、物体のリファレンスモデルと、前記第1画像との差分画像に基づいてステップサイズを算出し、算出された前記ステップサイズに基づいてヤコビ行列を算出する。これにより、ロボットは、最適化の進行度に応じた適切なステップサイズに基づいてヤコビ行列を算出することができる。
According to another aspect of the present invention, in the robot, the Jacobian matrix calculates a step size based on a difference image between the reference model of the object and the first image, and is based on the calculated step size. The configuration calculated in the above may be used.
With this configuration, the robot calculates a step size based on a difference image between the reference model of the object and the first image, and calculates a Jacobian matrix based on the calculated step size. Accordingly, the robot can calculate the Jacobian matrix based on an appropriate step size corresponding to the degree of progress of optimization.
また、本発明の他の態様は、ロボットにおいて、複数の前記第2画像は、前記第1画像に含まれる前記物体に微小回転を行うことで生成される、構成が用いられてもよい。
この構成により。ロボットは、第1画像に含まれる物体に微小回転を行うことで、複数の第2画像を生成する。これにより、ロボットは、撮像部10を動かすことなく、撮像部10を動かした場合に得られる複数の画像を得ることができる。
In another aspect of the present invention, the robot may have a configuration in which the plurality of second images are generated by performing a minute rotation on the object included in the first image.
With this configuration. The robot generates a plurality of second images by performing micro rotation on the object included in the first image. Thereby, the robot can obtain a plurality of images obtained when the
また、本発明の他の態様は、ロボットにおいて、複数の前記第2画像は、前記微小回転を行った後、前記第1画像に含まれる前記物体に微小並進を行うことで生成される、構成が用いられてもよい。
この構成により、ロボットは、第1画像に含まれる物体に微小回転を行った後、第1画像に含まれる物体に微小並進を行うことで、複数の前記第2画像を生成する。これにより、ロボットは、誤差の小さな画像であって撮像部を動かした場合に得られるであろう複数の画像を得ることができる。
According to another aspect of the present invention, in the robot, the plurality of second images are generated by performing minute translation on the object included in the first image after performing the minute rotation. May be used.
With this configuration, the robot performs a minute rotation on the object included in the first image and then performs a minute translation on the object included in the first image, thereby generating a plurality of the second images. Thereby, the robot can obtain a plurality of images that are images with small errors and that would be obtained when the imaging unit is moved.
また、本発明の他の態様は、第1位置に配置された撮像部が撮像した第2位置に配置された物体の第1画像を取得し、前記物体を前記第1位置とは異なる複数の位置から撮像した画像に相当する複数の第2画像を用いて、ロボットを動作させる、制御方法である。
この構成により、制御方法は、第1位置に配置された撮像部が撮像した第2位置に配置された物体の第1画像を取得し、物体を第1位置とは異なる複数の位置から撮像した画像に相当する複数の第2画像を用いて、ロボットを動作させる。これにより、制御方法は、撮像部もしくは物体を動かすことなく作業を行うことができる。
According to another aspect of the present invention, a first image of an object arranged at a second position captured by an imaging unit arranged at a first position is acquired, and the object is a plurality of different images from the first position. In this control method, the robot is operated using a plurality of second images corresponding to images picked up from a position.
With this configuration, the control method acquires the first image of the object arranged at the second position picked up by the image pickup unit arranged at the first position, and picks up the object from a plurality of positions different from the first position. The robot is operated using a plurality of second images corresponding to the images. Thereby, the control method can perform work without moving the imaging unit or the object.
以上により、ロボット、及び制御方法は、第1位置に配置された撮像部が撮像した第2位置に配置された物体の第1画像を取得し、物体を第1位置とは異なる複数の位置から撮像した画像に相当する複数の第2画像を用いて動作する。これにより、ロボット、及び制御方法は、撮像部もしくは物体を動かすことなく作業を行うことができる。 As described above, the robot and the control method acquire the first image of the object arranged at the second position captured by the imaging unit arranged at the first position, and move the object from a plurality of positions different from the first position. It operates using a plurality of second images corresponding to the captured images. Thereby, the robot and the control method can perform work without moving the imaging unit or the object.
<実施形態>
以下、本発明の本実施形態について、図面を参照して説明する。図1は、本実施形態に係るロボットシステム1の一例を示す構成図である。ロボットシステム1は、撮像部10と、ロボット20と、制御装置30を具備する。
<Embodiment>
Hereinafter, this embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram illustrating an example of a
ロボットシステム1は、テーブルTB上に設置された物体Oを撮像部10により撮像し、撮像された撮像画像に基づいて、物体Oの位置及び姿勢を算出する。テーブルTBは、物体Oが配置される台等である。物体Oとは、ロボット20により行われる作業に係る物体であり、例えば、ネジやボルト、歯車、治具等の工業用の部品や、工業部品等を入れる容器等であるが、これらに限られず、ロボット20により行われる作業に係る物体であれば他の物体であってもよい。図1では、この物体Oを、直方体形状の物体として表す。なお、以下では、説明の便宜上、物体Oの位置及び姿勢を物体位置姿勢と称して説明する。また、物体Oが設置されるテーブルTB上の位置は、第2位置の一例である。
The
ロボットシステム1は、物体位置姿勢を算出すると、算出された物体位置姿勢に基づいてロボット20に物体Oを把持させる。そして、ロボットシステム1は、ロボット20に物体Oを図示しない所定の配置位置Xに配置させる。以下では、説明の便宜上、撮像部10による物体Oの撮像から、物体Oを配置位置Xに配置させるまでのロボットシステム1の一連の動作を所定の作業と称して説明する。
When calculating the object position and orientation, the
撮像部10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。また、撮像部10は、1台のカメラによって構成される単眼のカメラであるが、例えば、2台以上のカメラによって構成されてもよい。
The
撮像部10は、ケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、撮像部10と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続される構成であってもよい。
The
撮像部10には、光学中心を原点とする三次元座標系Σが設定される。三次元座標系ΣのZ軸は、撮像部10の光軸方向と一致するように設定される。また、三次元座標系ΣのX軸及びY軸は、互いに直交し、且つZ軸と直交するように設定される。この三次元座標系Σは、撮像部10により撮像された撮像画像(すなわち、撮像素子)上の座標を表す。撮像部10は、例えば、光軸(すなわち、Z軸)が物体Oに予め設定される仮想的な平面と直交するように設置される。
A three-dimensional coordinate system Σ with the optical center as the origin is set in the
この仮想的な平面は、物体Oと対応付けられた点を含む面であり、例えば、物体Oの角等を含む平面である。また、撮像部10は、テーブルTB上に設置された物体Oを含む範囲(以下、撮像範囲と称する)を撮像可能な位置に設置される。撮像範囲を撮像可能な撮像部10が設置される位置は、第1位置の一例である。なお、ロボットシステム1において、撮像部10は、ロボット20の腕(例えば、マニピュレーターMNPと把持部HNDの間等)に設置される構成であってもよい。
This virtual plane is a plane including a point associated with the object O, for example, a plane including a corner of the object O and the like. In addition, the
ロボット20は、例えば、把持部HNDと、マニピュレーターMNPと、図示しない複数のアクチュエーターを備えた単腕のロボットである。単腕のロボットとは、把持部HNDとマニピュレーターMNPにより構成される1本の腕を有するロボットを示す。また、ロボットシステム1は、単腕のロボットを具備する構成に代えて、スカラーロボット(水平多関節ロボット)や双腕のロボット等であってもよい。スカラーロボットとは、マニピュレーターが水平方向にのみ動き、マニピュレーターの先端のスライド軸のみが上下に動くロボットである。また、双腕のロボットとは、把持部HNDとマニピュレーターMNPによりそれぞれ構成される2本の腕を有するロボットを示す。
The
ロボット20の腕は、6軸垂直多関節型となっており、支持台とマニピュレーターMNPと把持部HNDとがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができる。なお、ロボット20の腕は、5自由度(5軸)以下で動作するものであってもよいし、7自由度(7軸)以上で動作するものであってもよい。以下では、把持部HND及びマニピュレーターMNPを備えた腕によって行われるロボット20の動作について説明する。
ロボット20の把持部HNDは、物体を把持可能な爪部を備える。把持部HNDは、ハンドの一例である。
The arm of the
The grip part HND of the
ロボット20は、例えばケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット20と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。また、ロボットシステム1では、ロボット20は、図1に示したようにロボット20の外部に設置された制御装置30と接続されている構成とするが、この構成に代えて、制御装置30がロボット20に内蔵されている構成であってもよい。
ロボット20は、制御装置30から制御信号を取得し、取得した制御信号に基づいて物体Oを把持し、把持した物体Oを配置位置Xに配置する。
The
The
制御装置30は、撮像部10に前述の撮像範囲を静止画像又は動画像として撮像させ、撮像された撮像画像(前述の静止画像又は動画像)に基づいてビジュアルサーボによって物体Oをロボット20に把持させ、把持させた物体Oを配置位置Xに配置させる。より具体的には、制御装置30は、撮像部10により撮像された撮像画像と、図1に示した距離dとに基づいて物体位置姿勢を算出する。
The
ここで、距離dとは、撮像部10に設定された三次元座標系Σの原点と、前述した物体Oに予め設定された仮想的な面との間の距離を示す。なお、制御装置30には、この距離dを示す情報が予め登録されているとする。制御装置30は、撮像部10により撮像された撮像画像と、予め登録されている距離dと、予め登録されている物体Oのリファレンスモデルとに基づいて、物体Oのヤコビ行列を算出する。なお、距離dは、近似的に撮像部10とテーブルTBとの間の距離としてもよく、撮像部10とテーブルTBとの間の距離よりも所定の距離だけ短い又は長い距離としてもよい。
Here, the distance d indicates a distance between the origin of the three-dimensional coordinate system Σ set in the
リファレンスモデルとは、物体O又は物体Oの形状、色彩、模様等を三次元モデル化して得られた三次元モデルデータのことである。リファレンスモデルは、撮像部10により撮像された物体Oとの比較対象となるものであり、例えば、三次元コンピューターグラフィックス(Computer Graphics;CG)で表現される。この三次元CGは、例えば、ポリゴンデータの集合として表される。
The reference model is three-dimensional model data obtained by three-dimensional modeling of the object O or the shape, color, pattern, etc. of the object O. The reference model is a comparison target with the object O imaged by the
制御装置30は、算出された物体Oのヤコビ行列に基づいて物体位置姿勢を算出する。制御装置30は、算出された物体位置姿勢に基づいて把持部HNDにより物体Oを把持するようにロボット20を制御する。そして、制御装置30は、把持部HNDにより把持された物体Oを配置位置Xに配置するようにロボット20を制御する。
The
次に、図2を参照して、制御装置30のハードウェア構成について説明する。図2は、制御装置30のハードウェア構成の一例を示す図である。制御装置30は、例えば、CPU(Central Processing Unit)31と、記憶部32と、入力受付部33と、通信部34を備え、通信部34を介して制御装置30と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。CPU31は、記憶部32に格納された各種プログラムを実行する。
Next, the hardware configuration of the
記憶部32は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)などを含み、制御装置30が処理する各種情報や画像、プログラム、前述した距離dを示す情報、前述したリファレンスモデルを示す情報等を格納する。なお、記憶部32は、制御装置30に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置でもよい。
The
入力受付部33は、例えば、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部33は、表示部として機能することでタッチパネルとして構成されてもよい。
通信部34は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。
The
The
次に、図3を参照して、制御装置30の機能構成について説明する。図3は、制御装置30の機能構成の一例を示す図である。制御装置30は、記憶部32と、画像取得部35と、制御部36を備える。制御部36が備える機能部のうち一部又は全部は、例えば、CPU31が、記憶部32に記憶された各種プログラムを実行することで実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
Next, the functional configuration of the
画像取得部35は、撮像部10から撮像画像を取得する。画像取得部35は、取得された撮像画像を制御部36に出力する。
制御部36は、制御装置30の全体を制御する。制御部36は、撮像制御部37と、画像生成部38と、ヤコビ行列算出部39と、ロボット制御部40を備える。
撮像制御部37は、撮像部10に物体Oを含む範囲を撮像させる。
The
The
The
画像生成部38は、記憶部32から距離dを示す情報を読み込む。また、画像生成部38は、記憶部32からリファレンスモデルを示す情報を読み込む。また、画像生成部38は、画像取得部35から撮像画像を取得する。画像生成部38は、画像取得部35から取得された撮像画像と、記憶部32から読み込まれた距離dと、記憶部32から読み込まれたリファレンスモデルとに基づいて、物体Oが異なる方向から撮像された場合に得られる撮像画像(以下、異方向画像と称する)を画像処理によって生成する。以下では、画像生成部38が行うこれらの処理をまとめて画像生成処理と称して説明する。なお、画像取得部35から取得される撮像画像は、第1画像の一例である。また、画像生成部38により生成される異方向画像は、第2画像の一例である。
The
ヤコビ行列算出部39は、記憶部32からリファレンスモデルを示す情報を読み込み、読み込まれたリファレンスモデルに基づいて、物体位置姿勢をESM法によって算出するためのヤコビ行列を算出する。本発明におけるヤコビ行列とは、画像特徴ベクトルを剛体運動パラメーターで微分したもの (画像特徴ベクトルは,単純に画素値を並べたものでもよい)を示す。以下では、説明の便宜上、このヤコビ行列を基準ヤコビ行列と称して説明する。
The Jacobian
なお、ヤコビ行列は、例えば、物体位置姿勢を推定するために利用される非線形最小化手法に必要なパラメーターを含む行列である。非線形最小化手法とは、例えば、ESM法やレーベンバーグ・マルカート法、ニュートン法、ガウス・ニュートン法等である。これらの非線形最小化手法のうち、ESM法は、他の手法に比べて反復計算の回数が少ないため、物体位置姿勢をより高速に推定したい場合に、好適に用いることができる。そこで、以下では、非線形最小化手法としてESM法を採用し、算出したヤコビ行列は、ESM法に用いるパラメーターであるものとして説明する。 The Jacobian matrix is a matrix including parameters necessary for a nonlinear minimization method used for estimating an object position and orientation, for example. Nonlinear minimization methods include, for example, the ESM method, the Levenberg-Marquardt method, the Newton method, the Gauss-Newton method, and the like. Of these nonlinear minimization methods, the ESM method has a smaller number of iterative calculations than other methods, and can be suitably used when it is desired to estimate the object position and orientation at a higher speed. Therefore, in the following description, it is assumed that the ESM method is adopted as the nonlinear minimization method and the calculated Jacobian matrix is a parameter used for the ESM method.
また、ヤコビ行列算出部39は、読み込まれたリファレンスモデルと、画像取得部35により取得された撮像画像と、画像生成部38により生成された複数の異方向画像とに基づいて、物体Oに係るヤコビ行列を算出する。以下では、説明の便宜上、このヤコビ行列を算出ヤコビ行列と称して説明する。なお、ヤコビ行列算出部39は、算出部の一例である。
Further, the Jacobian
ロボット制御部40は、ヤコビ行列算出部39により算出された基準ヤコビ行列と、ヤコビ行列算出部39により算出された算出ヤコビ行列に基づいてESM法により物体位置姿勢を算出する。また、ロボット制御部40は、算出された物体位置姿勢に基づいて把持部HNDにより物体Oを把持するようにロボット20を制御する。ロボット20が把持部HNDにより物体Oを把持した後、ロボット制御部40は、物体Oを配置位置Xに配置するようにロボット20を制御する。
The
以下、図4を参照して、制御装置30がロボット20に所定の作業を行わせる処理について説明する。図4は、制御装置30がロボット20に所定の作業を行わせる処理の流れの一例を示すフローチャートである。まず、撮像制御部37は、物体Oを含む範囲を撮像するように撮像部10を制御する(ステップS100)。
Hereinafter, with reference to FIG. 4, a process in which the
次に、画像取得部35は、撮像部10により撮像された撮像画像を撮像部10から取得する(ステップS110)。次に、画像生成部38は、画像取得部35により取得された撮像画像に対して画像生成処理を行う(ステップS120)。ここで、画像生成処理について説明する。画像生成部38は、記憶部32から距離dを示す情報を読み込む。画像生成部38は、読み込まれた距離dに基づいて画像取得部35により取得された撮像画像に対してホモグラフィー変換を行う。
Next, the
ホモグラフィー変換とは、第1平面を、射影変換を用いて第1平面とは異なる第2平面に射影する変換のことである。画像生成部38は、このホモグラフィー変換により、ある方向から撮像部10により物体Oを含む範囲が撮像された撮像画像(前述の第1平面)を、他の方向から撮像部10により物体Oを含む範囲が撮像された時に取得される撮像画像(前述の第2平面)に近似的に変換する。
The homography conversion is a conversion in which the first plane is projected onto a second plane different from the first plane by using projective conversion. By this homography conversion, the
換言すると、画像生成部38は、他の方向から撮像部10により物体Oを含む範囲を撮像した場合に画像取得部35から取得されるであろう撮像画像を、画像取得部35から取得された撮像画像に対してホモグラフィー変換を行うことによって近似的に生成する。なお、画像生成部38は、このホモグラフィー変換を、撮像画像に含まれる物体Oに対して行う。これにより、画像生成部38は、ホモグラフィー変換を撮像画像全体に対して行う場合と比較して、このホモグラフィー変換に伴う計算量を抑制することができる。
In other words, the
他の方向とは、図1に示した三次元座標系ΣのX軸、Y軸、Z軸のうちいずれか一つの軸周りで撮像部10を仮想的に微小回転及び微小並進させた時に、撮像部10の光軸が向く方向である。以下では、他の方向から撮像部10により物体Oを含む範囲が撮像された撮像画像を、異方向画像と称して説明する。撮像部10を仮想的に微小回転及び微小並進させた時の複数の仮想的な撮像部10の位置は、第1位置とは異なる複数の位置の一例である。
When the
なお、三次元座標系ΣのX軸、Y軸、Z軸のそれぞれの周りで撮像部10を微小回転させる方向は、正方向と負方向の2つの方向がある。従って、画像生成部38は、撮像画像に含まれる物体Oを、三次元座標系ΣのX軸、Y軸、Z軸のそれぞれの周りで正方向と負方向に微小回転させるため、ホモグラフィー変換によって6枚の異方向画像を生成する。なお、画像生成部38は、予め記憶部32に記憶されたX軸、Y軸、Z軸のそれぞれに係る微小回転量を読み込み、読み込まれた微小回転量に基づいて撮像画像に映る物体Oを微小回転させる。
There are two directions in which the
ここで、図5を参照して、画像生成部38が異方向画像を生成する処理について説明する。図5は、画像生成部38により生成される6枚の異方向画像のうち、ホモグラフィー変換により前述した三次元座標系ΣのX軸、Y軸、Z軸のそれぞれの周りで正方向に撮像部10を微小回転させた時に撮像される画像として近似的に利用可能な3枚の異方向画像と、ホモグラフィー変換による微小回転が行われる前の画像取得部35から取得された撮像画像を例示する図である。なお、X軸、Y軸、Z軸のそれぞれの周りで負方向に撮像部10を微小回転させた時に撮像される画像として近似的に利用可能な3枚の異方向画像の生成に係る処理は、図5に示した3枚の異方向画像の生成に係る処理と同様なため、説明を省略する。
Here, with reference to FIG. 5, the process in which the
図5(A)に示した画像Pは、ホモグラフィー変換が行われる前の画像取得部35から取得された撮像画像の一例である。画像Pには、物体Oが含まれている(映っている)。図5(B)に示した画像PXは、X軸の周りで正方向に撮像部10を微小回転させた時に撮像される画像として近似的に利用可能な異方向画像の一例である。画像PXには、画像Pに含まれる物体Oにホモグラフィー変換による微小回転が行われた後の物体Oが映っている。また、画像PX上の点線POは、ホモグラフィー変換による微小回転が行われる前の物体Oの輪郭(すなわち、画像Pに含まれる物体Oの輪郭)を示す。
An image P shown in FIG. 5A is an example of a captured image acquired from the
図5(B)に示したように、画像PXは、ホモグラフィー変換による微小並進が行われる前の画像であるため、物体Oは、点線POからずれている。このずれは、撮像部10の光軸と前述した仮想的な平面とが交差する位置が、ホモグラフィー変換による微小回転の影響で、その微小回転の前後でずれてしまうことにより生じる。また、このずれの大きさΔdyは、ホモグラフィー変換によって微小角度Δθだけ微小回転を行った場合、撮像部10と前述の仮想的な平面との間の距離dに応じて、以下に示した式(1)によって算出することができる。
As shown in FIG. 5B, since the image PX is an image before the minute translation by the homography conversion is performed, the object O is deviated from the dotted line PO. This shift occurs because the position where the optical axis of the
Δdy=d×tan(Δθ)≒dΔθ ・・・(1) Δdy = d × tan (Δθ) ≈dΔθ (1)
ここで、上記の式(1)の最右辺は、Δθが微小角度であることによる近似を示す。従って、画像生成部38は、ホモグラフィー変換によって三次元座標系ΣのX軸の周りで正方向に撮像部10を微小角度Δθだけ微小回転させた時に撮像される画像として近似的に利用可能な異方向画像を生成する時、画像Pに含まれる物体Oにホモグラフィー変換による微小回転を行って画像PXを生成した後、上記の式(1)に基づいてY軸方向にΔdyだけ画像PXに含まれる物体Oを、撮像部10を微小角度Δθだけ微小回転させた時に撮像部10の光軸が動いた方向と反対方向に微小並進させる。これにより、画像生成部38は、ヤコビ行列を算出するために必要な異方向画像のうち、三次元座標系ΣのX軸の周りで正方向に撮像部10を微小角度Δθだけ微小回転させた時に撮像される画像として利用可能な異方向画像を生成する。
Here, the rightmost side of the above equation (1) indicates an approximation due to Δθ being a minute angle. Therefore, the
また、図5(B)に示した画像PYは、Y軸の周りで正方向に撮像部10を微小回転させた時に撮像される画像として近似的に利用可能な異方向画像の一例である。画像PYには、画像Pに含まれる物体Oにホモグラフィー変換による微小回転が行われた後の物体Oが映っている。また、画像PY上の点線POは、ホモグラフィー変換が行われる前の物体Oの輪郭を示す。
An image PY shown in FIG. 5B is an example of a different direction image that can be used approximately as an image captured when the
画像PXの場合と同様に、画像生成部38は、ホモグラフィー変換によって三次元座標系ΣのY軸の周りで正方向に撮像部10を微小角度Δφだけ微小回転させた時に撮像される画像として近似的に利用可能な異方向画像を生成する時、画像Pに含まれる物体Oにホモグラフィー変換による微小回転を行って画像PYを生成した後、以下の式(2)に基づいてX軸方向にΔdxだけ画像PXに含まれる物体Oを、撮像部10を微小角度Δφだけ微小回転させた時に撮像部10の光軸が動いた方向と反対方向に微小並進させる。
As in the case of the image PX, the
Δdx=d×tan(Δφ)≒dΔφ ・・・(2) Δdx = d × tan (Δφ) ≈dΔφ (2)
ここで、上記の式(1)の最右辺は、Δθが微小角度であることによる近似を示す。これにより、画像生成部38は、ヤコビ行列を算出するために必要な異方向画像のうち、三次元座標系ΣのY軸の周りで正方向に撮像部10を微小角度Δφだけ微小回転させた時に撮像される画像として利用可能な異方向画像を生成する。
Here, the rightmost side of the above equation (1) indicates an approximation due to Δθ being a minute angle. Thereby, the
また、図5(B)に示した画像PZは、Z軸の周りで正方向に撮像部10を微小回転させた時に撮像される画像として近似的に利用可能な異方向画像の一例である。画像PZには、画像Pに含まれる物体Oに対してホモグラフィー変換による微小回転が行われた後の物体Oが映っている。また、画像PZ上の点線POは、ホモグラフィー変換が行われる前の物体Oの輪郭を示す。
An image PZ shown in FIG. 5B is an example of a different direction image that can be used approximately as an image captured when the
Z軸周りに撮像部10を回転させた場合、撮像部10の光軸周りに撮像部10を回転させることになるため、撮像部10の光軸と前述した仮想的な平面とが交差する位置が、ホモグラフィー変換による微小回転の影響でずれてしまうことがない。従って、画像生成部38は、ヤコビ行列を算出するために必要な異方向画像のうち、画像PXや画像PYの場合と異なり、微小並進を行うことなく三次元座標系ΣのZ軸の周りで正方向に撮像部10を微小角度Δφだけ微小回転させた時に撮像される画像として近似的に利用可能な異方向画像を生成する。
When the
次に、ヤコビ行列算出部39は、基準ヤコビ行列と、算出ヤコビ行列を算出する(ステップS130)。より具体的には、ヤコビ行列算出部39は、記憶部32からリファレンスモデルを読み込む。なお、ヤコビ行列算出部39は、画像生成部38によりリファレンスモデルが読み込まれている場合、それを用いて以下で説明する処理を行ってもよい。ヤコビ行列算出部39は、基準ヤコビ行列を算出していない場合、リファレンスモデルに基づいて基準ヤコビ行列を算出する。
Next, the Jacobian
ここで、基準ヤコビ行列の導出について説明する。ヤコビ行列算出部39は、リファレンスモデルを読み込み、読み込まれたリファレンスモデルがある任意の位置に存在するときのヤコビ行列を導出する。なお、ヤコビ行列算出部39は、基準ヤコビ行列を算出するための処理を全てCG上で行うため、算出ヤコビ行列を導出する際に行ったようなホモグラフィー変換を行う必要は無く、CG上で撮像部を微小移動させた時に得られる画像を生成する。この時、CG上においても微小回転変化に伴うずれが発生するため、ヤコビ行列算出部39は、算出ヤコビ行列を求める際に行う微小並進させる処理(段落[0046]〜[0054])を、基準ヤコビ行列を導出するときについてもCG上で行う必要がある。
Here, the derivation of the reference Jacobian matrix will be described. The Jacobian
基準ヤコビ行列を算出した後、ヤコビ行列算出部39は、記憶部32に基準ヤコビ行列を示す情報を出力して記憶させる。ヤコビ行列算出部39は、すでに基準ヤコビ行列を算出している場合、記憶部32から基準ヤコビ行列を読み込む。また、ヤコビ行列算出部39は、画像取得部35から取得された撮像画像と、画像生成部38により生成された6枚の異方向画像とに基づいて、算出ヤコビ行列を算出する。
After calculating the reference Jacobian matrix, the Jacobian
なお、ヤコビ行列算出部39は、予め登録されているステップサイズに基づいてヤコビ行列の計算に用いる数値微分を行い、三次元算出ヤコビ行列を算出する。ただし、リファレンスモデルと、画像取得部35から取得された撮像画像との隔たりが大きい場合、ヤコビ行列算出部39は、ヤコビ行列の計算に用いる数値微分のステップサイズΔを以下の式(3)に基づいて算出する構成であってもよい。
The Jacobian
Δ=u(x)×(1.0+α×(E/E0)×Δ0) ・・・(3) Δ = u (x) × (1.0 + α × (E / E 0 ) × Δ 0 ) (3)
ここで、αは、設計定数を示し、例えば、200である。Eは、リファレンスモデルと、画像取得部35から取得された撮像画像との差分画像における非ゼロ画素数を示す。E0は、画像取得部35から取得された撮像画像中の物体Oの輪郭内に含まれる全画素数を示す。u(x)は、階段関数であり、例えば、引数xの値に応じて1、2、4、8のいずれかの値となる関数である。例えば、u(x)は、x>8の時に8、4<x≦8の時に4、2<x≦4の時に2、xがその他の値の時に1となる。Δ0は、設計段階で設定する基本ステップサイズを示す。なお、α、u(x)、Δ0のそれぞれは、パラメーター情報として予め記憶部32に記憶されているとする。
Here, α indicates a design constant, for example, 200. E indicates the number of non-zero pixels in the difference image between the reference model and the captured image acquired from the
上記の式(3)に基づいてステップサイズΔを算出する場合、ヤコビ行列算出部39は、記憶部32からリファレンスモデルを読み込む。画像生成部38は、記憶部32から読み込まれたリファレンスモデルと、画像取得部35から取得された撮像画像との差分画像を生成する。そして、ヤコビ行列算出部39は、記憶部32からパラメーター情報を読み込み、読み込まれたパラメーター情報と、生成された差分画像と、画像取得部35から取得された撮像画像とに基づいて、上記の式(3)を用いてステップサイズΔを算出する。
When calculating the step size Δ based on the above equation (3), the Jacobian
ヤコビ行列算出部39は、算出されたステップサイズΔを用いて算出ヤコビ行列を算出する。これにより、ヤコビ行列算出部39は、上記の式(3)に基づいてステップサイズΔを算出しない場合と比較して、ステップサイズΔを大きくすることができる。その結果、ヤコビ行列算出部39は、画像取得部35から取得される撮像画像に映る物体Oと、リファレンスモデルとの隔たりを収束させるために掛かる計算量を抑制することができる。
The Jacobian
次に、ロボット制御部40は、ステップS130で算出された基準ヤコビ行列と、算出ヤコビ行列とに基づいて物体位置姿勢を算出する。そして、ロボット制御部40は、算出された物体位置姿勢に基づいて把持部HNDにより物体Oを把持するようにロボット20を制御する(ステップS140)。次に、ロボット制御部40は、把持部HNDにより把持された物体Oを前述の配置位置Xに配置するようにロボット20を制御する(ステップS150)。
Next, the
以上説明したように、本実施形態におけるロボットシステム1は、撮像画像であってテーブルTB上に設置された物体Oを含む撮像画像を取得し、物体Oを撮像部10が設置された位置とは異なる複数の位置から撮像した画像に相当する複数の異方向画像を生成し、生成された複数の異方向画像を用いてロボット20を動作させる。これにより、ロボットシステム1は、撮像部10もしくは物体Oを動かすことなくロボット20に作業を行わせることができる。
As described above, the
また、ロボットシステム1は、複数異方向画像を用いて算出されたヤコビ行列に基づいてロボット20を動作させる。これにより、ロボットシステム1は、撮像部10もしくは物体Oを動かすことなく算出されたヤコビ行列によってロボット20に作業を行わせることができる。
Further, the
また、ロボットシステム1は、物体Oのリファレンスモデルと、画像取得部35から取得された撮像画像との差分画像に基づいてステップサイズを算出し、算出されたステップサイズに基づいて算出ヤコビ行列を算出する。これにより、ロボットシステム1は、算出ヤコビ行列を算出するための計算量を抑制することができる。
The
また、ロボットシステム1は、画像取得部35から取得される撮像画像に含まれる物体Oに微小回転を行うことで、複数の異方向画像を生成する。これにより、ロボットシステム1は、撮像部10を動かすことなく、撮像部10を動かした場合に得られるであろう複数の画像を得ることができる。
Further, the
また、ロボットシステム1は、画像取得部35から取得される撮像画像に含まれる物体Oに微小回転を行った後、その撮像画像に含まれる物体Oに微小並進を行うことで、複数の異方向画像を生成する。これにより、ロボットシステム1は、誤差の小さな画像であって撮像部10を動かした場合に得られるであろう複数の画像を複数の異方向画像として得ることができる。
In addition, the
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.
また、以上に説明した装置(例えば、ロボットシステム1の制御装置30)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。
Further, a program for realizing the function of an arbitrary component in the apparatus described above (for example, the
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
1 ロボットシステム、10 撮像部、20 ロボット、30 制御装置、31 CPU、32 記憶部、33 入力受付部、34 通信部、35 画像取得部、36 制御部、37 撮像制御部、38 画像生成部、39 ヤコビ行列算出部、40 ロボット制御部
DESCRIPTION OF
Claims (6)
前記物体を前記第1位置とは異なる複数の位置から撮像した画像に相当する複数の第2画像を用いて動作する、
ロボット。 Obtaining a first image of an object placed at a second position imaged by an imaging unit placed at a first position;
Operating using a plurality of second images corresponding to images obtained by imaging the object from a plurality of positions different from the first position;
robot.
複数の前記第2画像を用いて算出されたヤコビ行列に基づいて動作する、
ロボット。 The robot according to claim 1,
Operating based on a Jacobian matrix calculated using a plurality of the second images;
robot.
前記ヤコビ行列は、前記物体のリファレンスモデルと、前記第1画像との差分画像に基づいてステップサイズを算出し、算出された前記ステップサイズに基づいて算出される、
ロボット。 The robot according to claim 2,
The Jacobian matrix calculates a step size based on a difference image between the reference model of the object and the first image, and is calculated based on the calculated step size.
robot.
複数の前記第2画像は、前記第1画像に含まれる前記物体に微小回転を行うことで生成される、
ロボット。 The robot according to claim 1 or 2,
The plurality of second images are generated by performing a minute rotation on the object included in the first image.
robot.
複数の前記第2画像は、前記微小回転を行った後、前記第1画像に含まれる前記物体に微小並進を行うことで生成される、
ロボット。 The robot according to claim 4,
The plurality of second images are generated by performing minute translation on the object included in the first image after performing the minute rotation.
robot.
前記物体を前記第1位置とは異なる複数の位置から撮像した画像に相当する複数の第2画像を用いて、ロボットを動作させる、
制御方法。 Obtaining a first image of an object placed at a second position imaged by an imaging unit placed at a first position;
Operating the robot using a plurality of second images corresponding to images obtained by imaging the object from a plurality of positions different from the first position;
Control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014138127A JP2016013610A (en) | 2014-07-03 | 2014-07-03 | Robot, and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014138127A JP2016013610A (en) | 2014-07-03 | 2014-07-03 | Robot, and control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016013610A true JP2016013610A (en) | 2016-01-28 |
Family
ID=55230233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014138127A Pending JP2016013610A (en) | 2014-07-03 | 2014-07-03 | Robot, and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016013610A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113313707A (en) * | 2021-06-25 | 2021-08-27 | 西安紫光展锐科技有限公司 | Original image processing method, device, equipment and readable storage medium |
-
2014
- 2014-07-03 JP JP2014138127A patent/JP2016013610A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113313707A (en) * | 2021-06-25 | 2021-08-27 | 西安紫光展锐科技有限公司 | Original image processing method, device, equipment and readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6380828B2 (en) | Robot, robot system, control device, and control method | |
JP6180086B2 (en) | Information processing apparatus and information processing method | |
JP6427972B2 (en) | Robot, robot system and control device | |
US20160184996A1 (en) | Robot, robot system, control apparatus, and control method | |
JP2017170571A (en) | Robot, robot control apparatus, and robot system | |
JP6364836B2 (en) | Robot, robot system, and control device | |
JP6443837B2 (en) | Robot, robot system, control device, and control method | |
JP2018051704A (en) | Robot control device, robot, and robot system | |
CN111801198A (en) | Hand-eye calibration method, system and computer storage medium | |
JP2013036988A (en) | Information processing apparatus and information processing method | |
JP2017071018A (en) | Robot system, robot, and robot controlling device | |
JP6699097B2 (en) | Robot and control device | |
US20170203434A1 (en) | Robot and robot system | |
JP2018015855A (en) | Robot control device, robot, and robot system | |
US20180215044A1 (en) | Image processing device, robot control device, and robot | |
Kuo et al. | Pose determination of a robot manipulator based on monocular vision | |
JP2015182212A (en) | Robot system, robot, control device, and control method | |
JP6488571B2 (en) | Teaching apparatus and robot system | |
JP2018017653A (en) | Three-dimensional measuring device, robot, robot controlling device, and robot system | |
JP2017047479A (en) | Robot, control device and robot system | |
JP6455869B2 (en) | Robot, robot system, control device, and control method | |
JP2018017610A (en) | Three-dimensional measuring device, robot, robot controlling device, and robot system | |
JP2016013610A (en) | Robot, and control method | |
JP2016120530A (en) | Robot and robot calibration system | |
JP2016120558A (en) | Robot and robot system |