JP2021091070A - ロボット制御装置 - Google Patents
ロボット制御装置 Download PDFInfo
- Publication number
- JP2021091070A JP2021091070A JP2019224777A JP2019224777A JP2021091070A JP 2021091070 A JP2021091070 A JP 2021091070A JP 2019224777 A JP2019224777 A JP 2019224777A JP 2019224777 A JP2019224777 A JP 2019224777A JP 2021091070 A JP2021091070 A JP 2021091070A
- Authority
- JP
- Japan
- Prior art keywords
- image
- robot
- target
- posture
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】特定の把持姿勢でハンドに把持された対象物に関する情報から特定の把持姿勢とは異なる把持姿勢に対応する画像ヤコビアンを推定可能なロボット制御装置を提供する。【解決手段】ロボット制御装置4は、メモリ41と、読出部42と、演算部44と、推定部45と、を備える。読出部42は、目標画像および目標関節角をメモリ41から読み出す。演算部44は、特定の把持姿勢となる際のロボット座標系での対象物の位置姿勢および特定の把持姿勢とは異なる把持姿勢に基づいて、対象物が異なる把持姿勢となる際のロボット座標系でのハンドの位置姿勢を求め、当該ハンドの位置姿勢から関節角を求める。推定部45は、特定の把持姿勢となる際にカメラで撮像された対象物画像と目標画像の差分である画像偏差および演算部で求めた関節角と目標関節角との差分である関節角偏差に基づいて画像ヤコビアンを推定する。【選択図】図1
Description
本開示は、ロボット制御装置に関する。
従来、対象物を操作するロボットの制御技術として、画像ベースのビジュアルサーボ(IBVS:Image-based visual servoの略)が知られている。このビジュアルサーボでは、ロボットによって対象物を目標の位置姿勢に位置決めするため、操作中の対象物がカメラによって撮像される。これにより得られた画像が現在画像である。また、事前に目標の位置姿勢でロボットが対象物を把持しているシーンがカメラで撮像される。これにより得られた画像が目標画像である。ビジュアルサーボでは、目標画像と現在画像からロボットへの制御入力が算出される。制御入力の計算手法としては、画像ベース法が知られている。画像ベース法では、目標画像の特徴量に対する現在画像の特徴量の偏差に基づいて制御入力が決定される(例えば、非特許文献1参照)。
橋本、"ビジュアルサーボ−V−特徴ベースビジュアルサーボ"、システム/制御/情報、Vol.54、No.5、pp206−213、2010
ところで、画像ベースのビジュアルサーボでは、画像ヤコビアンの疑似逆行列と現在画像と目標画像との差である画像偏差に基づいて、ロボットの制御入力を求める。画像ヤコビアンは、ロボットの関節の軸の角速度とカメラで撮像された対象物の画像偏差との関係を表す行列である。画像ヤコビアンは、ロボットに取り付けられたハンドでの対象物の把持姿勢に応じて変化する。このため、目標とする対象物の位置姿勢が単一であっても、対象物が取り得る把持姿勢の候補数だけ画像ヤコビアンを用意する必要がある。
しかしながら、実際の画像から画像ヤコビアンを計算する場合、把持姿勢の候補数分のデータを取得する必要があり、この手法によって画像ヤコビアンを用意するのは時間とコストの観点から現実的ではない。
本開示は、特定の把持姿勢でハンドに把持された対象物に関する情報から特定の把持姿勢とは異なる把持姿勢に対応する画像ヤコビアンを推定可能なロボット制御装置を提供することを目的とする。
請求項1に記載の発明は、
ロボット(1)の先端に取り付けられたハンド(11)に把持されている対象物(5)をカメラ(3)で撮像することによって得られる対象物画像および対象物が目標位置姿勢にある場合にカメラで撮像されると想定される目標画像に基づいて、対象物を目標位置姿勢に操作するロボット制御装置であって、
目標画像を記憶媒体(41)から読み出すとともに、対象物が目標位置姿勢にある場合のロボットの関節角を目標関節角として記憶媒体から読み出す読出部(42)と、
特定の把持姿勢となる際のロボット座標系での対象物の位置姿勢および特定の把持姿勢とは異なる把持姿勢に基づいて、対象物が異なる把持姿勢となる際のロボット座標系でのハンドの位置姿勢を求め、求めたハンドの位置姿勢から逆運動学により関節角を求める演算部(44)と、
特定の把持姿勢となる際にカメラで撮像された対象物画像と目標画像の差分である画像偏差および演算部で求めた関節角と目標関節角との差分である関節角偏差に基づいて画像ヤコビアンを推定する推定部(45)と、
を備える。
ロボット(1)の先端に取り付けられたハンド(11)に把持されている対象物(5)をカメラ(3)で撮像することによって得られる対象物画像および対象物が目標位置姿勢にある場合にカメラで撮像されると想定される目標画像に基づいて、対象物を目標位置姿勢に操作するロボット制御装置であって、
目標画像を記憶媒体(41)から読み出すとともに、対象物が目標位置姿勢にある場合のロボットの関節角を目標関節角として記憶媒体から読み出す読出部(42)と、
特定の把持姿勢となる際のロボット座標系での対象物の位置姿勢および特定の把持姿勢とは異なる把持姿勢に基づいて、対象物が異なる把持姿勢となる際のロボット座標系でのハンドの位置姿勢を求め、求めたハンドの位置姿勢から逆運動学により関節角を求める演算部(44)と、
特定の把持姿勢となる際にカメラで撮像された対象物画像と目標画像の差分である画像偏差および演算部で求めた関節角と目標関節角との差分である関節角偏差に基づいて画像ヤコビアンを推定する推定部(45)と、
を備える。
これによると、特定の把持姿勢である場合のロボット座標系での対象物の位置姿勢を取得すれば、異なる把持姿勢である場合のロボット座標系でのハンドの位置姿勢から逆運動学に基づいて異なる把持姿勢でのロボットの関節角を求めることができる。これにより、把持姿勢毎のロボットの関節角を取得することなく、目標関節角との差分である関節角偏差を得ることができる。
加えて、異なる把持姿勢となる際に撮像された対象物画像を特定の把持姿勢となる際に撮像された対象物画像で代用すれば、把持姿勢毎の対象物画像を取得することなく、目標画像との差分である画像偏差を得ることができる。
したがって、特定の把持姿勢でハンドに把持された対象物の位置姿勢および対象物画像等の各種情報から特定の把持姿勢とは異なる把持姿勢に対応する画像ヤコビアンを推定することができる。
なお、各構成要素等に付された括弧付きの参照符号は、その構成要素等と後述する実施形態に記載の具体的な構成要素等との対応関係の一例を示すものである。
本開示の一実施形態について、図1〜図12に基づいて説明する。本実施形態では、本開示のロボット制御装置4をビジュアルサーボシステムに適用した例について説明する。このビジュアルサーボシステムは、画像ベースのビジュアルサーボによりロボット1を制御するシステムである。ビジュアルサーボシステムは、図1に示すように、ロボット1と、カメラ3と、ロボット制御装置4と、を備える。
ロボット1は、生産工場等に配置される産業用ロボットアームであり、部品等の対象物5を把持し、予め定めた目標の位置および姿勢が実現するように対象物5を操作する。ロボット1は、広範囲の可動域を確保するために天吊り式に設置されている。
ロボット1は、対象物5を把持する汎用のハンド11、複数のリンク12、13、14および複数の関節15、16、17を有する。ハンド11は、ロボット1の先端に取り付けられている。ハンド11は、図示しないが、対象物5を把持および開放することが可能な把持機構を有する。リンク12は、一端が関節15を介してハンド11に接続され、他端が関節16を介してリンク13の一端に接続されている。リンク13の他端は関節17を介してリンク14の他端に接続されている。リンク14の一端は天井部分に対して接続されている。関節15、16、17それぞれは、サーボモータ等で構成されている。関節15は、ハンド11のリンク12に対する位置および姿勢を変化させる。関節16はリンク12のリンク13に対する位置および姿勢を変化させる。関節17はリンク13のリンク14に対する位置および姿勢を変化させる。なお、ロボット1は、上述のものに限らず、ハンドと、複数のリンクと、ハンドおよびリンク間の相対的な位置および姿勢を変化させる1つ以上の関節を有するものであれば、どのようなものでもよい。例えば、ロボット1は5軸制御のロボットアームで構成されていてもよい。
カメラ3は、ロボット1が対象物5を把持して操作している際に、目標の位置の近傍にある対象物5およびその近傍を撮像し、対象物5を撮像した画像をロボット制御装置4に出力する。カメラ3は、ロボット1とは異なる位置に固定されている。カメラ3は光学中心および光軸が固定されている。
ロボット制御装置4は、カメラ3から取得した画像に基づいて、対象物5が目標の位置および姿勢を実現するよう、ロボット1を制御する装置である。ロボット制御装置4は、カメラ3から取得した画像を処理する画像処理装置としての機能も果たしている。
ロボット制御装置4は、プロセッサおよびメモリ41を有する装置(例えば、マイクロコンピュータ)である。ロボット制御装置4は、メモリ41からプログラムを読み出し、当該プログラムに従って処理を実行することで、カメラ3から取得した画像の処理、ロボット1の制御等を行う。メモリ41は、RAM、ROM、フラッシュメモリ等を含む記憶媒体である。
ロボット制御装置4のメモリ41には、目標画像および目標関節角が記憶されている。目標画像は、対象物5が目標の位置および姿勢にある場合にカメラ3で撮像されると想定される画像である。目標画像は、事前に対象物5を目標の位置および姿勢とした際の撮像画像に基づいて得ることができる。また、目標関節角は、事前に対象物5を目標の位置および姿勢とした際のロボット1の関節角である。
ロボット制御装置4は、メモリ41から目標画像および目標関節角を読み出すことが可能になっている。本実施形態では、ロボット制御装置4におけるメモリ41からデータ等を読み出すソフトウェアおよびハードウェアが読出部42に対応している。
ロボット制御装置4は、対象物画像と目標画像の輝度値の差に基づいてロボット1への制御入力を計算してロボット1に入力する。対象物画像は、ハンド11に把持されている対象物5をカメラ3で撮像することによって得られる画像である。本実施形態では、ロボット制御装置4におけるロボット1への制御入力を計算してロボット1に入力するソフトウェアおよびハードウェアが入力部43に対応している。
具体的には、ロボット制御装置4は、図2および図3の数式に示すように、対象物画像I(t)と目標画像I*の輝度値の差に、画像ヤコビアンJの疑似逆行列J+を作用させ、更に、ゲインλを乗算する。画像ヤコビアンについては後述する。
画像ヤコビアンJの疑似逆行列J+の作用およびゲインλの乗算により得られた値が、ロボット1への制御入力となる。この制御入力は、各関節15、16、17それぞれの関節角θの時間微分(すなわち、角速度)である。
ロボット1は、ロボット制御装置4から入力された関節角θの時間微分に従って、関節15、16、17を作動させる。これにより、ロボット1は、対象物5を目標の位置および姿勢に近づけるように変位させる。このようなロボット1の制御が周期的に繰り返されることで、対象物5が目標の位置および姿勢に充分に近づくと、位置決めが完了する。
次に、画像ヤコビアンJについて図4等を参照して説明する。画像ヤコビアンJは、ロボット1の関節角θとカメラ3で撮像された対象物5の画像Iobとの関係を表すものである。画像ヤコビアンJは、図4に示す数式で定義される。図4の数式では、ハンド11の位置姿勢をpAとし、対象物5の位置姿勢をpobとしている。
画像ヤコビアンJを求める代表的な方法は、解析的に画像ヤコビアンを導出する方法であるが、この方法は、画像から安定的に特徴点を抽出できる場合または対象物5の反射モデルを構築できる場合にだけ有効である。
このことを鑑み、本実施形態では、画像中に表れる注目物体のエッジや中心座標ではなく、画像の各画素の輝度値そのものを画像の特徴量として用いる方法を用いて、画像ヤコビアンを実験的に計算する。
[画像ヤコビアンの計算]
画像ヤコビアンJの計算では、例えば、事前に、ハンド11と対象物5との三次元モデルによって把持姿勢の候補群GAを計算し、当該候補群GAから特定の把持姿勢Grepを代表把持姿勢として選択する(すなわち、Grep∈GA)。
画像ヤコビアンJの計算では、例えば、事前に、ハンド11と対象物5との三次元モデルによって把持姿勢の候補群GAを計算し、当該候補群GAから特定の把持姿勢Grepを代表把持姿勢として選択する(すなわち、Grep∈GA)。
続いて、対象物5を特定の把持姿勢Grepで目標の位置姿勢rTob*に位置決めしたときの対象物画像を目標画像I(rTob*)としてメモリ41に記憶するとともに、そのときの関節角を目標関節角θ* repとしてメモリ41に記憶する。但し、目標の位置姿勢rTob*は、ロボット座標系での対象物5の位置姿勢である。なお、ロボット座標系は、ロボット1の根元を基準とする座標系である。
また、対象物5を目標の位置姿勢rTob*からΔrTob,i(i=1、2、…、M)ずらしたときの画像I(rTob,i)と、そのときの関節角θrep,iをメモリ41に記憶する。こうしたデータを取得すれば、特定の把持姿勢Grepに対する画像ヤコビアンの疑似逆行列J+(Grep、rTob*)は、図5(a)に示す数式にしたがって計算することができる。但し、図5(a)に示すΔΘ(Grep、rTob*)は、図5(b)および図5(c)に示すように、目標関節角θ* repと目標と異なる関節角θrep,iとの差分である関節角偏差Δθrep,iの集合である。また、図5(a)に示すΔI(rTob*)は、図5(d)および図5(e)に示すように、目標画像I(rTob*)と対象物画像I(rTob,i)の輝度値の差分である画像偏差ΔIiとの集合である。
ここで、図4に示す「∂pob/∂pA」は、ハンド11による対象物5の把持姿勢に依存する項である。図4に示す数式によれば、画像ヤコビアンJは対象物5の把持姿勢に依存することが判る。すなわち、画像ヤコビアンJは、ロボット1に取り付けられたハンド11での対象物5の把持姿勢に応じて変化する。
図6に示すように、目標とする対象物5の位置姿勢が単一であっても、対象物5が取り得る把持姿勢には複数の候補が存在する。この場合、対象物5が取り得る把持姿勢の候補数だけ画像ヤコビアンJを用意する必要がある。対象物5が取り得る把持姿勢の候補数だけ画像ヤコビアンJを計算するためには、把持姿勢の候補数分のデータを取得する必要があり、時間とコストの観点から現実的でない。
これに対して、ロボット制御装置4は、追加のデータ取得を必要とせず、画像ヤコビアンJを推定する。以下、追加のデータ取得を必要としない画像ヤコビアンJの推定方法について説明する。
[画像ヤコビアンの推定]
画像ヤコビアンJを推定するためには、図5(c)に示す式で与えられる関節角偏差Δθrep,i、および図5(e)に示す式で与えられる画像偏差ΔIiを求めればよい。
画像ヤコビアンJを推定するためには、図5(c)に示す式で与えられる関節角偏差Δθrep,i、および図5(e)に示す式で与えられる画像偏差ΔIiを求めればよい。
ここで、目標の位置姿勢rTob*にある対象物5を特定の把持姿勢Grepとは異なる把持姿勢GX(GX∈GA)で把持した際のカメラ3での撮像画像は、対象物5を特定の把持姿勢Grepで把持した際のカメラ3での撮像画像と対象物5示す部分が同じである。このため、異なる把持姿勢となる際にカメラ3で撮像された対象物画像は、特定の把持姿勢となる際にカメラ3で撮像された対象物画像で代用することが可能である。
次に、目標の位置姿勢rTob*にある対象物5を特定の把持姿勢Grepとは異なる把持姿勢GXで把持した際のロボット1の関節角θ* Xの計算手法について説明する。
目標の位置姿勢rTob*にある対象物5を特定の把持姿勢Grepで把持した際、ロボット座標系でのハンド11の位置姿勢rTA(Grep、rTob*)は、順運動学を使って図7(a)に示す式で計算することができる。但し、図7(a)の「f」はロボット1の関節角θからハンド11の位置姿勢rTA(Grep、rTob*)を計算する関数である。
また、目標の位置姿勢rTob*は、ロボット座標系でのハンド11の位置姿勢rTA(Grep、rTob*)、およびハンド11の根元を基準とする手先座標系での対象物5の位置姿勢ATob*に基づいて図7(b)に示す式により求めることができる。
ここで、手先座標系での対象物5の位置姿勢ATob*は、特定の把持姿勢Grepであっても、特定の把持姿勢Grepとは異なる姿勢GXであっても同様である。
このため、特定の把持姿勢Grepとは異なる姿勢GXで目標の位置姿勢rTob*にある対象物5を把持したときのロボット座標系でのハンド11の位置姿勢rTA(GX、rTob*)は、図7(c)に示す式により求めることができる。すなわち、異なる把持姿勢でのハンド11の位置姿勢rTA(GX、rTob*)は、特定の把持姿勢Grepでの対象物5の位置姿勢rTob*および異なる把持姿勢GXに基づいて求めることができる。
したがって、目標の位置姿勢rTob*にある対象物5を特定の把持姿勢Grepとは異なる把持姿勢GXで把持した際のロボット1の関節角θ* Xは、図7(d)に示す数式により求めることができる。すなわち、関節角θ* Xは、異なる把持姿勢でのハンド11の位置姿勢rTA(GX、rTob*)から逆運動学により求めることができる。なお、これらの関係は、「ob*」を「ob,i」とし、「θ* rep」を「θrep,i」としても成立する。
以上より、図5(c)に示す式で与えられる関節角偏差Δθrep,i、および図5(e)に示す式で与えられる画像偏差ΔIiが求まるので、画像偏差ΔIiおよび関節角偏差Δθrep,iに基づいて画像ヤコビアンJを推定することができる。
ここで、本実施形態では、ロボット制御装置4において、対象物5が異なる把持姿勢となる際のロボット座標系でのハンド11の位置姿勢を求め、当該位置姿勢から逆運動学により関節角θ* Xを求めるソフトウェアおよびハードウェアが演算部44に対応している。また、ロボット制御装置4において、特定の把持姿勢となる際に撮像された画像と目標画像の差分および演算部44で求めた関節角θ* Xと目標関節角との差分に基づいて画像ヤコビアンJを推定するソフトウェアおよびハードウェアが推定部45に対応している。
次に、ロボット1による対象物5の移動作業の流れについて説明する。まず、対象物5の移動作業の事前準備を説明し、その後に実機での作業手順を説明する。
[事前準備]
事前準備では、まず、対象物5を特定の把持姿勢で目標の位置姿勢に位置決めし、そのときの関節角を目標関節角度としてメモリ41に記憶する。
事前準備では、まず、対象物5を特定の把持姿勢で目標の位置姿勢に位置決めし、そのときの関節角を目標関節角度としてメモリ41に記憶する。
続いて、事前準備では、関心領域(すなわち、ROI)の範囲を決定する。関心領域は、カメラ3で撮像された画像中の対象物5の近傍に注目して処理を行うために設定する領域である。なお、ROIは、Region of Interestの略であり、関心領域とも呼ばれる。
ここで、対象物5をカメラ3で撮像した撮像画像には、図8に示すように、ハンド11の一部が映り込むことがある。ハンド11の一部が画像に映り込むと、対象物5を特定の把持姿勢Grepで把持した際にカメラ3で撮像される撮像画像と、異なる把持姿勢GXで把持した際にカメラ3で撮像される撮像画像との差が大きくなってしまう。
そこで、事前準備では、ハンド11に把持されている対象物5をカメラ3で撮像した撮像画像の中からハンド11が映らないと想定される領域を関心領域に設定する。
以下、関心領域の設定手法の一例を説明する。まず、図8に示す撮像画像を入力画像として輪郭抽出を行い、抽出した各輪郭が囲む最大の面積を、画像に映り込んだ対象物5の輪郭として抽出する。なお、輪郭抽出では、例えば、「suzuki85」のアルゴリズムを用いることができる。
そして、撮像画像から抽出した輪郭から、x座標値が大きい座標Xmax=(xmax、y0)、x座標値が小さい座標Xmin=(xmin、y0)、y座標値が大きい座標Ymax=(x0、ymax)、およびy座標値が小さい座標Ymin=(x0、ymin)を求める。
また、撮像画像から抽出した輪郭から対象物5のx座標での大きさDxおよびy座標での大きさDyを求める。具体的には、図9および図10の式で示すように、xmaxとxminとの差分をDxとし、ymaxとyminとの差分をDyとする。そして、ハンド11が関心領域に入ることを避けるために、図11に示す数式により、関心領域のx座標を規定するx´maxおよびx´minをxmax、xmin、およびDxで定義する。さらに、図12に示す数式により、関心領域のy座標を規定するy´maxおよびy´minをymax、ymin、およびDxで定義する。これにより、関心領域は、図9に示すように、撮像画像における対象物5が入り、且つ、ハンド11が入らない範囲に設定される。
続いて、事前準備では、対象物5を特定の把持姿勢Grepで目標の位置姿勢に位置決めしたときの対象物画像をメモリ41に記憶する。この対象物画像は、ハンド11に把持されている対象物5をカメラ3で撮像した撮像画像の中からハンド11が映らないと想定される関心領域を抽出して得られる画像である。
そして、事前準備では、上述の[画像ヤコビアンの計算]で説明した方法により、特定の把持姿勢に対する画像ヤコビアンの疑似逆行列を計算する。また、事前準備では、上述の[画像ヤコビアンの推定]で説明した方法により、特定の把持姿勢とは異なる把持姿勢に対する画像ヤコビアンの疑似逆行列を計算する。
[実機手順]
実機では、ロボット制御装置4は、カメラ3で撮像して得られた対象物画像と目標画像の輝度値の差に基づいて、ロボット1に制御入力を算出する。これにより、ロボット1は、ロボット制御装置4から入力された制御入力に従って、関節15、16、17を作動させ、対象物5を目標の位置および姿勢に近づけるように変位させる。この際の対象物画像は、ハンド11に把持されている対象物5をカメラ3で撮像した撮像画像の中からハンド11が映らないと想定される関心領域を抽出して得られる画像である。
実機では、ロボット制御装置4は、カメラ3で撮像して得られた対象物画像と目標画像の輝度値の差に基づいて、ロボット1に制御入力を算出する。これにより、ロボット1は、ロボット制御装置4から入力された制御入力に従って、関節15、16、17を作動させ、対象物5を目標の位置および姿勢に近づけるように変位させる。この際の対象物画像は、ハンド11に把持されている対象物5をカメラ3で撮像した撮像画像の中からハンド11が映らないと想定される関心領域を抽出して得られる画像である。
このようなロボット1の制御が周期的に繰り返されることで、対象物5が目標の位置および姿勢に充分に近づくと、位置決めが完了する。その後、ハンド11を開き、対象物5の移動作業が完了する。
以上説明したロボット制御装置4は、特定の把持姿勢となる際のロボット座標系での対象物5の位置姿勢および特定の把持姿勢とは異なる把持姿勢に基づいて、対象物5が異なる把持姿勢となる際のロボット座標系でのハンド11の位置姿勢を求める。ロボット制御装置4は、ハンド11の位置姿勢から逆運動学によりロボット1の関節角を求める。そして、ロボット制御装置4は、特定の把持姿勢となる際のカメラ3で撮像された対象物画像と目標画像の差分である画像偏差および特定の把持姿勢とは異なる把持姿勢での関節角と目標関節角との差分である関節角偏差に基づいて画像ヤコビアンを推定する。
これによると、特定の把持姿勢である場合のロボット座標系での対象物5の位置姿勢を取得すれば、異なる把持姿勢である場合のロボット座標系でのハンド11の位置姿勢から逆運動学に基づいて異なる把持姿勢でのロボット1の関節角を求めることができる。これにより、把持姿勢毎のロボット1の関節角を取得することなく、目標関節角との差分である関節角偏差を得ることができる。
加えて、異なる把持姿勢となる際に撮像された対象物画像を特定の把持姿勢となる際に撮像された対象物画像で代用すれば、把持姿勢毎の対象物画像を取得することなく、目標画像との差分である画像偏差を得ることができる。
したがって、特定の把持姿勢でハンド11に把持された対象物5の位置姿勢および対象物画像等の各種情報から特定の把持姿勢とは異なる把持姿勢に対応する画像ヤコビアンを推定することができる。
また、対象物画像は、ハンド11に把持されている対象物5をカメラ3で撮像した撮像画像の中からハンド11が映らないと想定される関心領域を抽出して得られる画像である。これによると、対象物画像にハンド11が映らないようなっているので、対象物5が特定の把持姿勢となる際の対象物画像および異なる把持姿勢となる際の対象物画像とが実質的に同じ画像となる。このため、対象物画像にハンド11の一部が映り込んでいる場合に比べて、画像ヤコビアンの推定精度を向上させることができる。
さらに、ロボット制御装置4は、対象物画像と目標画像の輝度値の差分を画像偏差とし、当該画像偏差および画像ヤコビアンに基づいてロボット1への制御入力を計算してロボット1に入力する。このように、対象物画像と目標画像の輝度値の差分とすれば、画像の輝度値自体を特徴量としてロボット1への制御入力を計算するので、例えば、画像から特徴点を抽出することが困難な場合でも、対象物5を目標位置姿勢に操作することができる。
(他の実施形態)
以上、本開示の代表的な実施形態について説明したが、本開示は、上述の実施形態に限定されることなく、例えば、以下のように種々変形可能である。
以上、本開示の代表的な実施形態について説明したが、本開示は、上述の実施形態に限定されることなく、例えば、以下のように種々変形可能である。
上述の実施形態では、関心領域(すなわち、ROI)を設定して画像ヤコビアンの推定等を行うものを例示したが、これに限らず、関心領域を設定することなく画像ヤコビアンの推定等を行うことも可能である。また、上述の関心領域は、例示したもの以外の手法によって設定されてもよい。
上述の実施形態では、対象物画像と目標画像の輝度値の差分を画像偏差とし、当該画像偏差および画像ヤコビアンに基づいてロボット1への制御入力を計算するものを例示したが、画像偏差は、これに限定されない。ロボット制御装置4は、対象物画像と目標画像の輝度値以外の特徴量の差分を画像偏差としてロボット1への制御入力を計算するようになっていてもよい。
上述の実施形態では、事前準備および実機手順の詳細を説明したが、事前準備および実機手順は、上述のものに限らず、上述のものに対して内容や順序が異なるものであってもよい。
上述の実施形態では、ロボット1として産業用ロボットアームを例示したが、ロボット1はこれに限定されない。ロボット1は、例えば、介護支援用のロボットアームで構成されていてもよい。また、ロボット1は、天吊り式に限らず、例えば、床置き式や側壁置き式に設置されていてもよい。
上述の実施形態では、ビジュアルサーボシステムを対象物5の移動作業をロボット1で行うシステムに適用した例について説明したが、ビジュアルサーボシステムの適用対象は対象物5の移動作業を行うものに限定されない。ビジュアルサーボシステムは、対象物5の移動作業以外の他の作業をロボット1で行うシステムにも広く適用可能である。
上述の実施形態において、実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。
上述の実施形態において、実施形態の構成要素の個数、数値、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されない。
上述の実施形態において、構成要素等の形状、位置関係等に言及するときは、特に明示した場合および原理的に特定の形状、位置関係等に限定される場合等を除き、その形状、位置関係等に限定されない。
本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。本開示に記載の制御部及びその手法は一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせで構成された一つ以上の専用コンピュータで実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
1 ロボット
3 カメラ
4 ロボット制御装置
41 メモリ(記憶媒体)
42 読出部
44 演算部
45 推定部
5 対象物
3 カメラ
4 ロボット制御装置
41 メモリ(記憶媒体)
42 読出部
44 演算部
45 推定部
5 対象物
Claims (3)
- ロボット(1)の先端に取り付けられたハンド(11)に把持されている対象物(5)をカメラ(3)で撮像することによって得られる対象物画像および前記対象物が目標位置姿勢にある場合に前記カメラで撮像されると想定される目標画像に基づいて、前記対象物を前記目標位置姿勢に操作するロボット制御装置であって、
前記目標画像を記憶媒体(41)から読み出すとともに、前記対象物が前記目標位置姿勢にある場合の前記ロボットの関節角を目標関節角として前記記憶媒体から読み出す読出部(42)と、
特定の把持姿勢となる際のロボット座標系での前記対象物の位置姿勢および前記特定の把持姿勢とは異なる把持姿勢に基づいて、前記対象物が前記異なる把持姿勢となる際の前記ロボット座標系での前記ハンドの位置姿勢を求め、求めた前記ハンドの位置姿勢から逆運動学により前記関節角を求める演算部(44)と、
前記特定の把持姿勢となる際に前記カメラで撮像された前記対象物画像と前記目標画像の差分である画像偏差および前記演算部で求めた前記関節角と前記目標関節角との差分である関節角偏差に基づいて画像ヤコビアンを推定する推定部(45)と、
を備える、ロボット制御装置。 - 前記対象物画像は、前記ハンドに把持されている前記対象物を前記カメラで撮像した撮像画像の中から前記ハンドが映らないと想定される関心領域(ROI)を抽出して得られる画像である、請求項1に記載のロボット制御装置。
- 前記画像偏差は、前記対象物画像と前記目標画像の輝度値の差分であり、
前記画像偏差および前記画像ヤコビアンに基づいて前記ロボットへの制御入力を計算して前記ロボットに入力する入力部(43)を備える、請求項1または2に記載のロボット制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019224777A JP2021091070A (ja) | 2019-12-12 | 2019-12-12 | ロボット制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019224777A JP2021091070A (ja) | 2019-12-12 | 2019-12-12 | ロボット制御装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021091070A true JP2021091070A (ja) | 2021-06-17 |
Family
ID=76311385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019224777A Pending JP2021091070A (ja) | 2019-12-12 | 2019-12-12 | ロボット制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021091070A (ja) |
-
2019
- 2019-12-12 JP JP2019224777A patent/JP2021091070A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5949242B2 (ja) | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム | |
JP5850962B2 (ja) | ビジュアルフィードバックを利用したロボットシステム | |
JP6180086B2 (ja) | 情報処理装置及び情報処理方法 | |
JP7035657B2 (ja) | ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法 | |
JP6180087B2 (ja) | 情報処理装置及び情報処理方法 | |
Dong et al. | Autonomous robotic capture of non-cooperative target by adaptive extended Kalman filter based visual servo | |
JP7111114B2 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
JP5365379B2 (ja) | ロボットシステム及びロボットシステムのキャリブレーション方法 | |
JP6324025B2 (ja) | 情報処理装置、情報処理方法 | |
WO2015058297A1 (en) | Image-based trajectory robot programming planning approach | |
JP2019014030A (ja) | ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法 | |
JP2011175477A (ja) | 3次元計測装置、処理方法及びプログラム | |
Melchiorre et al. | Collison avoidance using point cloud data fusion from multiple depth sensors: a practical approach | |
Klingensmith et al. | Closed-loop servoing using real-time markerless arm tracking | |
CN113524183A (zh) | 相对位置获得方法、机械臂控制方法以及机械臂系统 | |
JP6626338B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
Gratal et al. | Virtual visual servoing for real-time robot pose estimation | |
JP5698815B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JP6040264B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
WO2020179416A1 (ja) | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム | |
JP7112528B2 (ja) | 作業座標作成装置 | |
JP2015132523A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びプログラム | |
US20230150142A1 (en) | Device and method for training a machine learning model for generating descriptor images for images of objects | |
Nakhaeinia et al. | Adaptive robotic contour following from low accuracy RGB-D surface profiling and visual servoing | |
JP2021091070A (ja) | ロボット制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20191224 |