JP2019089188A - 作動システムおよびプログラム - Google Patents

作動システムおよびプログラム Download PDF

Info

Publication number
JP2019089188A
JP2019089188A JP2017221300A JP2017221300A JP2019089188A JP 2019089188 A JP2019089188 A JP 2019089188A JP 2017221300 A JP2017221300 A JP 2017221300A JP 2017221300 A JP2017221300 A JP 2017221300A JP 2019089188 A JP2019089188 A JP 2019089188A
Authority
JP
Japan
Prior art keywords
unit
image
target
camera
command value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017221300A
Other languages
English (en)
Other versions
JP6815309B2 (ja
Inventor
義之 石原
Yoshiyuki Ishihara
義之 石原
暢克 杉山
Nobukatsu Sugiyama
暢克 杉山
準治 大明
Junji Oaki
準治 大明
小川 昭人
Akito Ogawa
昭人 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017221300A priority Critical patent/JP6815309B2/ja
Priority to US15/911,220 priority patent/US10695912B2/en
Publication of JP2019089188A publication Critical patent/JP2019089188A/ja
Application granted granted Critical
Publication of JP6815309B2 publication Critical patent/JP6815309B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning

Abstract

【課題】より不都合の少ない新規な構成の作動システムおよびプログラムを得る。【解決手段】実施形態の作動システムは、可動部材と、アクチュエータと、少なくとも一つの撮影部と、座標変換部と、第一作動制御部と、を備える。アクチュエータは、可動部材を動かす。座標変換部は、撮影部により撮影された撮影画像の撮影座標系から比較を実行する演算座標系への座標変換を実行する。第一作動制御部は、演算座標系におけるビジュアルサーボにより偏差が小さくなるようアクチュエータを制御する。【選択図】図5

Description

実施形態は、作動システムおよびプログラムに関する。
従来、ビジュアルサーボによるフィードバック制御を実行する作動システムが知られている。
特開2017−94482号公報
例えば、より不都合の少ない新規な構成の作動システムが得られれば、有益である。
実施形態の作動システムは、可動部材と、アクチュエータと、少なくとも一つの撮影部と、座標変換部と、第一作動制御部と、を備える。アクチュエータは、可動部材を動かす。座標変換部は、撮影部により撮影された撮影画像の撮影座標系から比較を実行する演算座標系への座標変換を実行する。第一作動制御部は、演算座標系におけるビジュアルサーボにより偏差が小さくなるようアクチュエータを制御する。
図1は、実施形態の作動システムの模式的かつ例示的な概略構成図である。 図2は、実施形態の作動システムの模式的かつ例示的なブロック図である。 図3は、実施形態の作動システムにおいて実行される処理の手順を示す模式的かつ例示的なフローチャートである。 図4は、実施形態の第二作動制御部による制御の実行に伴う各カメラによる撮影画像の変化を示す例示的かつ模式的な説明図である。 図5は、実施形態の第一作動制御部の模式的かつ例示的なブロック図である。 図6は、実施形態の作動システムにおける第一カメラ、第二カメラ、および目標物の相対姿勢および相対位置のベクトルの関係を示す模式的かつ例示的な説明図である。 図7は、実施形態の第一作動制御部による制御の実行に伴う各カメラによる撮影画像の変化を示す例示的かつ模式的な説明図である。 図8は、第1変形例の作動システムの作動装置の先端部分の模式的かつ例示的な斜視図である。 図9は、第2実施形態の作動システムの模式的かつ例示的な斜視図である。
以下、作動システムの例示的な実施形態が開示される。以下に示される実施形態の構成や制御(技術的特徴)、ならびに当該構成や制御によってもたらされる作用および結果(効果)は、一例である。
また、以下の複数の実施形態には、同様の構成要素が含まれている。以下では、それら同様の構成要素には共通の符号が付与されるとともに、重複する説明が省略される場合がある。また、本明細書において、序数は、構成要素等を区別するために便宜上付与されており、優先順位や順番を示すものではない。
[第1実施形態]
図1は、作動システム1の概略構成図である。図1に示されるように、作動システム1は、作動装置100を含んでいる。
作動装置100は、多関節ロボットであって、関節112を介して互いに連結された複数のアーム111を有している。複数のアーム111は、直列に連結されている。複数のアーム111の先端には、関節112を介してハンド121が設けられている。アーム111やハンド121は、可動部材の一例である。ハンド121は、マニピュレータや、アクセス部、処理部等と称されうる。アーム111やハンド121の位置および姿勢は、アクチュエータ113(図2参照)の作動によって、変化したり維持されたりしうる。アクチュエータは、例えばモータや、モータ付きポンプ、ソレノイド、ソレノイド付き電磁弁等であるが、これらには限定されない。また、ハンド121は、例えば、バキュームチャックや、グリッパ等であるが、これらには限定されない。
フィールド11(エリア、ステージ)には、作動装置100による処理対象物400が置かれている。本実施形態では、作動装置100による処理は、処理対象物400をハンド121で把持し、所定の位置へ運搬することである。
作動システム1は、作動装置100による処理をより確実にあるいはより円滑に実行できるよう、複数のカメラ211,221,222による撮影画像に基づくビジュアルサーボ制御により、ハンド121が、処理対象物400の処理に適した位置(目標位置)で、処理対象物400の処理に適した姿勢(目標姿勢)となるよう、アクチュエータ113(図2参照)を制御する。そして、作動システム1は、ハンド121が目標位置に到達しかつ目標姿勢となった時点で、所定の処理を実行するよう、アクチュエータ113を制御する。カメラ211,221,222は、撮影部の一例である。カメラ211,221,222には、光学系部品が含まれる。なお、撮影部には、少なくとも画像データを取得可能な画像センサが含まれればよい。作動システム1は、ロボットハンドリングシステムや、対象物追従システム、ビジュアルサーボ作動システムとも称されうる。
スタンド12に支持された俯瞰カメラ211は、フィールド11に対して固定され、他のカメラ221,222よりもより広範囲を撮影することができる。俯瞰カメラ211は、広範囲撮影部の一例である。また、俯瞰カメラ211は、固定カメラとも称されうる。俯瞰カメラ211の処理対象物400からの距離は他のカメラ221,222よりも長く、俯瞰カメラ211の焦点距離は他のカメラ221,222よりも短い。また、俯瞰カメラ211の画角は他のカメラ221,222よりも広い。また、俯瞰カメラ211は、例えば、3次元距離画像センサを含む。なお、俯瞰カメラ211は、必ずしもフィールド11に固定されていなくてもよい。
作動装置100に設けられたカメラ221,222は、作動装置100とともに移動する。カメラ221,222は、可動撮影部の一例である。第一カメラ221の処理対象物400からの距離は第二カメラ222よりも長く、第一カメラ221の焦点距離は第二カメラ222よりも短い。また、第一カメラ221の画角は第二カメラ222よりも広い。カメラ221,222は、例えば、2次元画像センサを含む。第一カメラ221は、第一撮影部の一例であり、第二カメラ222は、第二撮影部の一例である。
図2は、作動システム1のブロック図である。作動システム1は、制御装置300を含む。制御装置300は、制御部310、主記憶部320、補助記憶部330等を有している。制御部310は、例えば、central processing unit(CPU)やコントローラ等であり、主記憶部320は、例えば、read only memory(ROM)や、random access memory(RAM)等である。
制御部310による演算処理や制御は、ソフトウエアによって実行されてもよいし、ハードウエアによって実行されてもよい。また、制御部310による演算処理や制御には、ソフトウエアによる演算処理や制御とハードウエアによる演算処理や制御とが含まれてもよい。ソフトウエアによる処理の場合にあっては、制御部310は、ROMや、HDD、SSD、フラッシュメモリ等に記憶されたプログラム(アプリケーション)を読み出して実行する。制御部310は、プログラムにしたがって動作することにより、制御部310に含まれる各部、すなわち、画像データ取得部311や、第一作動制御部312、第二作動制御部313、処理制御部314、目標物決定部315等として、機能する。この場合、プログラムには、上記各部に対応するモジュールが含まれる。
プログラムは、それぞれインストール可能な形式または実行可能な形式のファイルでCD−ROMや、FD、CD−R、DVD、USBメモリ等の、コンピュータで読み取り可能な記録媒体に記録されて提供されうる。また、プログラムは、通信ネットワークに接続されたコンピュータの記憶部に記憶され、ネットワーク経由でダウンロードされることによって導入されうる。また、プログラムは、ROM等に予め組み込まれてもよい。
また、制御部310の全部あるいは一部がハードウエアによって構成される場合、制御部310には、例えば、field programmable gate array(FPGA)や、application specific integrated circuit(ASIC)等が含まれうる。
画像データ取得部311は、俯瞰カメラ211、第一カメラ221、および第二カメラ222から、RGBの画像データ(撮影画像)を取得する。また、俯瞰カメラ211が3次元距離画像センサを含む場合、画像データ取得部311が取得するデータには、例えば、画素の各位置での俯瞰カメラ211からの距離(位置)を示すデータが含まれる。俯瞰カメラ211による3次元距離画像データは、3次元点群データや、3次元点群画像データとも称されうる。
第一作動制御部312は、第一カメラ221および第二カメラ222の撮影画像に基づいて、ハンド121が目標位置および目標姿勢となるよう、アクチュエータ113を制御する。第一作動制御部312は、ビジュアルサーボによるフィードバック制御を実行する。
第二作動制御部313は、俯瞰カメラ211による撮影画像に基づいて、ハンド121が初期位置P0から中間位置P10へ移動するよう、アクチュエータ113を制御する。中間位置P10は、初期位置P0よりも目標物401に近い近接位置の一例である。
処理制御部314は、ハンド121が目標位置に到達しかつ目標姿勢となった状態において、作動装置100(ハンド121)が所定の処理を実行するよう、アクチュエータ113を制御する。
目標物決定部315は、俯瞰カメラ211による撮影画像から、目標物401(図4参照)を決定する。
図3は、制御装置300による処理の手順を示すフローチャートである。図3に示されるように、まずは目標物決定部315による目標物401の決定が実行され(S10)、次に第二作動制御部313による制御が実行され(S11)、次に第一作動制御部312による制御が実行される(S12)。各タイムステップにおいて、画像情報に基づく位置および姿勢の偏差と当該偏差の閾値との比較が実行される(S13)。このS13において偏差が閾値以下である場合には(S13でYes)、処理制御部314による制御が実行される(S14)、S13において偏差が閾値以上である場合には(S13でNo)、第一作動制御部312による制御が再度実行される(S12)。
図4は、第二作動制御部313による制御の実行に伴う各カメラ211,221,222による撮影画像の変化を示す説明図である。画像Im11は、俯瞰カメラ211によって撮影された画像であり、画像Im21は、第一カメラ221によって撮影された画像であり、画像Im22は、第二カメラ222によって撮影された画像である。また、図4の上段はハンド121の初期位置P0における撮影画像であり、図4の下段はハンド121の中間位置P10における撮影画像である。
目標物決定部315は、俯瞰カメラ211による画像Im11に基づいて、複数の処理対象物400の中から、現時点での処理対象とする目標物401を特定あるいは決定する。具体的には、目標物決定部315は、例えば、ハンド121が初期位置P0に位置されている状態で俯瞰カメラ211によって取得された3次元距離画像データに基づいて、複数の積み重ねられた処理対象物400のうち、最も上に位置する処理対象物400を、目標物401として決定することができる。俯瞰カメラ211が、フィールド11の上方に位置し、下方を撮影するよう設置されている場合、俯瞰カメラ211の最も近くに位置する処理対象物400を、目標物401として決定することができる。このような制御により、積み重なっている複数の処理対象物400の中から最も高い位置に存在して他の処理対象物400が処理の障害となり難い処理対象物400を、目標物401として決定することができる。
また、目標物決定部315は、例えば、複数の処理対象物400のうち、俯瞰カメラ211によって撮影された2次元の画像Im11中に設定したバウンディングボックス内に像が収まる処理対象物400を、目標物401として決定することができる。その他、目標物決定部315は、俯瞰カメラ211による画像Im11に対する公知の画像処理手法によって、目標物401を決定することができる。
図4の上段に示されるように、ハンド121の初期位置P0においては、俯瞰カメラ211による画像Im11には処理対象物400の像が含まれているものの、第一カメラ221による画像Im21および第二カメラ222による画像Im22には処理対象物400の像が含まれていない。この原因としては、例えば、処理対象物400がカメラ221,222の画角内に入ってないことや、処理対象物400がカメラ221,222のピントに合う範囲に位置していないこと、処理対象物400がカメラ221,222に対してアーム111やハンド121等の作動装置100の死角に位置していることといった、種々の原因がある。
これに対し、図4の下段に示されるように、ハンド121の中間位置P10においては、第一カメラ221による画像Im21および第二カメラ222による画像Im22に、目標物401の像が含まれている。言い換えると、中間位置P10は、画像Im21および画像Im22のうち少なくともいずれか一方に、目標物401の像が含まれる位置である。中間位置P10では、画像Im21および画像Im22のうち少なくともいずれか一方に、目標物401の像の全体が含まれてもよい。
すなわち、第二作動制御部313は、ハンド121が、初期位置P0から、カメラ221,222による画像Im21,Im22のうち少なくとも一方に目標物401(処理対象物400)が含まれるようになる中間位置P10に移動するよう、アクチュエータ113を制御する。なお、中間位置P10は、第一作動制御部312によるビジュアルサーボによる制御の初期位置あるいは制御前位置とも称されうる。
図5は、第一作動制御部312のブロック図である。第一作動制御部312は、第一カメラ221によって撮影された画像および第二カメラ222によって撮影された画像(に基づくパラメータ)と目標画像(に基づくパラメータ)との比較に基づくビジュアルサーボによるフィードバック制御により、ハンド121が中間位置P10から目標位置へ移動するとともに、当該目標位置においてハンド121が目標姿勢となるよう、アクチュエータ113を制御する。
図5に示されるように、第一作動制御部312は、マッチング処理部312a1,312a2、相対位置姿勢算出部312b1,312b2、座標変換部312c1、原指令値算出部312d1,312d2、および指令値算出部312eを有している。マッチング処理部312a1、相対位置姿勢算出部312b1、座標変換部312c1、および原指令値算出部312d1は、第一カメラ221による画像に対する演算処理を実行し、マッチング処理部312a2、相対位置姿勢算出部312b2、および原指令値算出部312d2は、第二カメラ222による画像に対する演算処理を実行する。
目標画像記憶部331には、複数の処理対象物400毎に目標画像が記憶されている。目標画像は、ハンド121が目標位置あるいは当該目標位置に対する所定の相対位置に、目標姿勢で位置された状態における、目標物401の画像である。言い換えると、目標画像は、目標物401の、ハンド121による処理が実行されるのに適した位置および姿勢に配置された状態での画像である。目標画像は、基準画像や、リファレンス画像、マスタ画像とも称されうる。本実施形態では、目標画像は、一例として、第二カメラ222による目標物401の撮影画像である。目標画像記憶部331は、例えば、補助記憶部330の一部である。
マッチング処理部312a1は、目標画像記憶部331に記憶されている複数の処理対象物400の目標画像の中から目標物401の目標画像を選択し、第一カメラ221による撮影画像と目標物401の目標画像との特徴点抽出に基づくパターンマッチングを実行する。また、マッチング処理部312a2は、目標画像記憶部331に記憶されている複数の処理対象物400の目標画像の中から目標物401の目標画像を選択し、第二カメラ222による撮影画像と目標物401の目標画像との特徴点抽出に基づくパターンマッチングを実行する。
相対位置姿勢算出部312b1は、マッチング処理部312a1によるパターンマッチングの結果に基づいて、第一カメラ221に対する目標物401の相対姿勢Rおよび相対位置tを算出する。また、相対位置姿勢算出部312b2は、マッチング処理部312a2によるパターンマッチング結果に基づいて、第二カメラ222に対する目標物401の相対姿勢Rおよび相対位置tを算出する。相対姿勢および相対位置の算出には、公知の基礎行列を推定して姿勢と位置とに分解する方法や、ホモグラフィ行列を推定して姿勢と位置とに分解する方法(ただし目標画像が平面である場合)等が用いられうる。
座標変換部312c1は、第一カメラ221の第一座標系(x,y,z)における相対姿勢および相対位置を、第二カメラ222の第二座標系(x,y,z)における相対姿勢および相対位置に変換する処理を実行する。すなわち、座標変換部312cは、第一カメラ221による画像Im21から得られた相対位置や相対姿勢のようなベクトル等のデータを第二カメラ222によって撮影された仮想的な画像から得られたベクトル等のデータに変換する。言い換えると、座標変換部312cは、第一カメラ221による画像Im21に基づいて得られたベクトル等のデータから、当該画像Im21に像として含まれる物体等が第二カメラ222によって当該第二カメラ222の位置および姿勢で撮影されたと仮定した場合に得られる(すなわち演算座標系における)仮想的な画像(第一撮影画像)に基づくベクトル等の仮想的なデータを、算出する。なお、座標変換部312cは、ベクトル等のデータではなく、撮影画像を変換して仮想的な撮影画像を得てもよい。この場合、撮影画像が座標変換部312cによって変換されるデータである。座標変換部312cは、変換部の一例である。座標変換部312c1での演算処理に用いられる相対位置および相対姿勢に関する情報(例えば、後述のRやt等)は、相対位置姿勢記憶部332に記憶されている。相対位置姿勢記憶部332は、例えば、補助記憶部330の一部である。
図6は、第一カメラ221、第二カメラ222、および目標物401(処理対象物400)の相対姿勢および相対位置のベクトルの関係を示す説明図である。ここで、図6を参照しながら、座標変換部312c1における座標変換について説明する。
第一カメラ221に対する第二カメラ222の相対姿勢をR(ベクトル)、相対位置をt(ベクトル)とすると、第一カメラ221から第二カメラ222への相対姿勢Rおよび相対位置tの同次変換行列Tは、次の式(1)で表せる。
なお、本実施形態では、相対姿勢Rおよび相対位置tは不変(一定)であるが、相対姿勢Rおよび相対位置tをリアルタイムに検出可能とし、当該相対姿勢Rおよび相対位置tを可変としてもよい。
位置ベースト法によるビジュアルサーボ制御を実行する場合、ステレオ視の考え方より、第一カメラ221から目標物401への相対姿勢Rおよび相対位置tの同次変換行列T、および第二カメラ222から目標物401への相対姿勢Rおよび相対位置tの同次変換行列Tは、以下の式(2)および(3)で表せる。
図6から、同次変換行列T,T,Tの間には、次の式(4)が成り立つ。
=TT ・・・ (4)
したがって、第一カメラ221の第一座標系(x,y,z)から第二カメラ222の第二座標系(x,y,z)への同次変換行列Tは、
=T−1 ・・・ (5)
と表せる。
式(2)および式(3)の相対位置t,tはステレオ視の考え方に基づいて算出されるため、目標物401の事前情報(寸法や形状)が不明である場合、スケールが不定となる。すなわち、相対位置t,tの各方向の比率のみがわかり、大きさ(絶対量)はわからない。これに対し、2つのカメラ間の相対位置tの大きさは計測可能である。したがって、実際には、式(5)に替えて、適切なスケーリング定数αを含む以下の式(6)を用いる。
式(6)から、相対姿勢Rおよび相対位置tの、第一座標系(x,y,z)から第二座標系(x,y,z)への座標変換は、以下の式(7)で表せる。
原指令値算出部312d1は、座標変換部312c1によって座標変換された相対姿勢R’および相対位置t’に基づいて、公知の手法により、偏差(相対姿勢R’および相対位置t’)を小さくする原指令値uh1を算出する。原指令値算出部312d1において、第一カメラ221の第一座標系(x,y,z)は、第一カメラ221の撮影座標系(第一撮影座標系)の一例であり、第二カメラ222の第二座標系(x,y,z)は、ビジュアルサーボによるフィードバック制御の演算処理を実行する演算座標系の一例である。また、第二カメラ222の第二座標系(x,y,z)は、第二カメラ222の撮影座標系(第二撮影座標系)でもある。また、相対姿勢R’および相対位置t’は、第一データの一例である。
原指令値算出部312d2は、相対位置姿勢算出部312b2で得られた相対姿勢Rおよび相対位置tに基づいて、公知の手法により、偏差(相対姿勢Rおよび相対位置t)を小さくする原指令値uh2を算出する。また、相対姿勢Rおよび相対位置tは、第二データの一例である。
指令値算出部312eは、原指令値算出部312d1によって算出された原指令値uh1と、原指令値算出部312d2によって算出された原指令値uh2と、に基づいて、指令値uを算出する。
指令値算出部312eは、例えば、以下の式(8)により、指令値uを算出することができる。
u=k・uh1+(1−k)uh2 ・・・ (8)
ここに、kは、重み付け係数である。
重み付け係数kは、マッチング処理部312a1,312a2のそれぞれにおいてマッチングされた特徴点の数に応じて決定されうる。例えば、マッチング処理部312a1においてマッチングされた特徴点の数をm、マッチング処理部312a2においてマッチングされた特徴点の数をmとした場合、重み付け係数kを、次の式(9)により決定することができる。
k=m/(m+m) ・・・ (9)
また、別の例として、第二カメラ222による撮影画像中に目標物401の像が含まれていない場合には、重み付け係数kを1とすることができる。この場合、第一カメラ221による撮影画像(画像Im21)のみに基づいて指令値uが決定される。
また、さらに別の例として、偏差が閾値以下となった場合には、重み付け係数kを0とすることができる。この場合、第二カメラ222による撮影画像(画像Im22)のみに基づいて指令値uが決定される。この場合、偏差が閾値以下となる条件に替えて、別途センサ等で検出された第二カメラ222と目標物401との距離が閾値以下となる条件や、第二カメラ222とフィールド11の表面との距離が閾値以下となる条件、第二カメラ222による撮影画像中の目標物401の大きさが閾値以上となる条件等、種々の別の条件に置き換えることができる。
図7は、ビジュアルサーボ制御の実行に伴うハンド121の位置の変化に応じた第一カメラ221による画像Im21および第二カメラ222による画像Im22の変化を示す説明図である。画像Im0は、目標画像記憶部331に記憶されている目標画像であり、画像Im21は、第一カメラ221による撮影画像、画像Im22は、第二カメラ222による撮影画像である。また、図7の上段は、ハンド121が上述した中間位置P10に位置した状態を示し、図7の中段は、ハンド121が中間位置P10よりも目標位置に近付いた位置P11に位置した状態を示し、図7の下段は、ハンド121が位置P11よりもさらに目標位置に近付いた位置P12に位置した状態を示している。なお、位置P12は、ほぼ目標位置に到達した状態での位置である。
ハンド121が中間位置P10に位置している状態では、第二カメラ222による画像Im22には目標物401の像の一部しか含まれていないため、当該画像Im22からは画像Im0とマッチングされた特徴点は抽出されていない。他方、第一カメラ221による画像Im21には目標物401の像が含まれており、当該画像Im21からは画像Im0の特徴点c0とマッチングされた特徴点c1が抽出されている。この場合には、座標変換部312c1において座標変換によって得られた相対姿勢R’および相対位置t’から、原指令値算出部312d1において原指令値uh1が算出される。この場合、指令値算出部312eにおける式(8)による指令値uの算出において、式(9)により重み付け係数kは1(k=1)に設定されるため、指令値uは、原指令値uh1となる。
ハンド121が中間位置P10よりも目標物401に近い位置P11に位置している状態では、画像Im21および画像Im22の双方から、画像Im0の特徴点c0とマッチングされた特徴点c1,c2が抽出されている。この場合、指令値算出部312eにおける重み付け係数kは、式(9)に従って、特徴点c1,c2の数の比率に応じて原指令値uh1,h2が重み付けされ、式(8)により指令値uが算出される。
ハンド121が位置P11よりも目標物401にさらに近い位置P12に位置している状態でも、画像Im21および画像Im22の双方から、画像Im0の特徴点c0とマッチングされた特徴点c1,c2が抽出されている。よって、この場合も、重み付け係数kを、式(9)に従って設定することができる。あるいは、偏差が閾値以下となる条件や、第二カメラ222と目標物401との距離が閾値以下となる条件、第二カメラ222とフィールド11の表面との距離が閾値以下となる条件、第二カメラ222による撮影画像中の目標物401の大きさが閾値以上となる条件等を満たしている場合にあっては、二つのカメラ221,222のうち目標物401により近い第二カメラ222の撮影画像のみを用いて指令値uを算出し、指令値算出部312eにおける式(8)による指令値uの算出において、重み付け係数kを、k=0に設定してもよい。この場合、指令値uは、原指令値算出部312d2によって算出された原指令値uh2となる(u=uh2)。このように、第一作動制御部312は、画像Im21および画像Im22のうち少なくとも一方、言い換えると、画像Im21から得られたベクトル等のデータおよび画像Im22から得られたベクトル等のデータのうち少なくとも一方に基づいて、アクチュエータ113を制御することができる。
以上、説明したように、本実施形態の第一作動制御部312は、第一カメラ221の第一座標系(撮影座標系、第一撮影座標系)から第二カメラ222の第二座標系(演算座標系、第二撮影座標系)に座標変換する座標変換部312c1を備えている。よって、例えば、第二座標系における目標物401の撮影画像が無い場合にあっても、第一座標系における目標物401の撮影画像から座標変換によって得られた第二座標系における仮想的な値に基づいて、第二座標系においてビジュアルサーボによる制御を実行することができる。したがって、本実施形態によれば、例えば、撮影画像が無いことにより制御不能となるような事態が回避されやすい。すなわち、本実施形態によれば、例えば、よりロバスト性の高い作動システム1を得ることができる。また、本実施形態によれば、例えば、作動システム1における厳密なキャリブレーションやティーチングが不要となる。
また、本実施形態の指令値算出部312eは、複数のカメラ221,222(撮影部)の撮影画像に基づいて、ビジュアルサーボ制御における指令値uを算出する。よって、例えば、複数のカメラ221,222のうち一方による撮影画像が無い場合にあっても、他方による撮影画像が有る場合には指令値uを算出することができる。したがって、本実施形態によれば、例えば、よりロバスト性の高い作動システム1や、損傷許容性を有した作動システム1、制御精度が比較的高く所期の位置および姿勢により迅速に到達可能な作動システム1等を、得ることができる。
また、本実施形態の指令値算出部312eは、複数の原指令値の重み付け平均値として指令値を算出する。よって、本実施形態によれば、例えば、それぞれの撮影画像から得られた複数の原指令値を反映した指令値を、比較的簡素な演算処理によって迅速に算出することができる。また、例えば、撮影画像における目標物401の有無等によって重み付け係数を変更することにより、制御精度が比較的高く所期の位置および姿勢により迅速に到達可能な作動システム1を得ることができる。
また、本実施形態の重み付け係数は、原指令値が算出された撮影画像と目標画像との間でマッチングされた特徴点の数が多いほど大きく設定される。よって、本実施形態によれば、例えば、制御精度が比較的高く所期の位置および姿勢により迅速に到達可能な作動システム1を得ることができる。
また、本実施形態の複数のカメラ211,221,222(撮影部)は、画角、焦点距離、および撮影方向のうち少なくとも一つが互いに異なる複数のカメラ211,221,222を含む。よって、本実施形態によれば、例えば、目標物401をより広い範囲で捕捉して所期の位置および姿勢により迅速に到達可能な作動システム1を得ることができる。
また、本実施形態の目標物決定部315は、第一作動制御部312による制御の前に、俯瞰カメラ211(広範囲撮影部)による撮影画像に基づいて目標物401を決定する。よって、本実施形態によれば、例えば、より迅速にあるいはより確実に目標物401を決定し、所期の位置および姿勢により迅速に到達可能な作動システム1を得ることができる。
また、本実施形態の目標物決定部315は、俯瞰カメラ211(広範囲撮影部)によって得られた3次元距離画像データに基づいて目標物401を決定する。よって、本実施形態によれば、例えば、処理対象物400の高さ情報に基づいて、他の処理対象物400と干渉し難い目標物401をより迅速に決定することができる。
また、本実施形態の第二作動制御部313は、第一作動制御部312による制御の前であり、かつ目標物決定部315による目標物401の決定の後に、ハンド121(可動部材)が目標物401により近い中間位置P10(近接位置)に移動するようアクチュエータ113を制御する。よって、本実施形態によれば、例えば、第一作動制御部312によるビジュアルサーボによる制御をより確実にあるいはより円滑に開始することができるため、所期の位置および姿勢により迅速に到達可能な作動システム1を得ることができる。
[第1変形例]
図8は、第1変形例の作動システム1Aの作動装置100Aのハンド121を含む先端部分の斜視図である。本変形例も、上記実施形態と同様の構成を備えており、当該同様の構成に基づく同様の作用および効果が得られる。ただし、本変形例では、複数のカメラ221〜224とは別の位置に配置された仮想カメラ220vの仮想撮影座標系が演算座標系として設定されている。言い換えると、本変形例では、演算座標系は、撮影座標系とは異なる座標系として設定されている。この場合、第一作動制御部312は、各カメラ221〜224の撮影画像に基づく値を当該仮想カメラ220vの仮想撮影座標系に座標変換し、当該仮想撮影座標系においてビジュアルサーボによるフィードバック制御を実行する。なお、カメラ221〜224は、ハンド121が目標位置および目標姿勢にある状態で、カメラ221〜224のうち少なくともいずれか一つによって目標物401が撮影されているように設置される。また、ハンド121は、例えばバキュームチャックであるが、これには限定されない。また、指令値算出部312eは、指令値uを、以下の式(10)により算出することができる。
u=(m・u+m・u+m・u+m・u
/(m+m+m+m) ・・・ (10)
ここに、u〜u:カメラ221〜224の撮影画像のそれぞれから算出された原指令値、m〜m:カメラ221〜224の撮影画像のそれぞれと目標画像との間でマッチングされた特徴点の数である。このような構成によれば、図8に示されるように、例えば、ハンド121が設けられた位置に仮想カメラ220vの演算座標系を設定することができる。言い換えると、ハンド121が設けられた位置に仮想カメラ220vを配置することができる。本変形例によれば、ハンド121による目標物401に対するアクセスを、より容易にあるいはより確実に実行できる場合がある。
[第2実施形態]
図9は、第2実施形態の作動システム1B(作動装置)の斜視図である。本実施形態も、上記実施形態や変形例と同様の構成を備えており、当該同様の構成に基づく同様の作用および効果が得られる。ただし、本実施形態では、作動システム1Bは、飛翔体である。可動部材としてのベース111Bは、プロペラによって浮上して移動するボディやキャビンであり、アクチュエータ113は、プロペラを駆動するモータ等である。第一作動制御部312は、各カメラ221〜224の撮影画像に基づくビジュアルサーボによるフィードバック制御により、ベース111Bあるいはハンド121の位置および姿勢を制御する。
以上、本発明の実施形態を例示したが、上記実施形態は一例であって、発明の範囲を限定することは意図していない。実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。実施形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。また、実施形態の構成や形状は、部分的に入れ替えて実施することも可能である。また、各構成や形状等のスペック(構造や、種類、方向、形状、大きさ、長さ、幅、厚さ、高さ、角度、数、配置、位置、材質等)は、適宜に変更して実施することができる。
例えば、作動装置やマニピュレータによる処理は、処理対象物(目標物)の把持や運搬には限定されず、処理対象物に対するその他の処理であってもよい。また、偏差は、画像中の目標物の像から得られる相対姿勢や相対位置を示すパラメータであればよく、相対姿勢や相対位置そのものには限定されない。また、本実施形態では、第一作動制御部は、特徴量ベースト法によるビジュアルサーボ制御を実行することができ、この場合の偏差は、特徴点の画像座標値の偏差である。また、第一作動制御部は、撮影画像から算出されたベクトル等のデータを座標変換(変換)したデータに対する演算処理に替えて、座標変換(変換)した撮影画像から算出されたデータに対して所定の演算処理を実行してもよい。
1,1A,1B…作動システム、111…アーム(可動部材)、111B…ベース(可動部材)、121…ハンド(可動部材)、113…アクチュエータ、211…俯瞰カメラ(広範囲撮影部)、221…カメラ(第一撮影部、撮影部)、222…カメラ(第二撮影部、撮影部)、312…第一作動制御部、312a1,312a2…マッチング処理部、312c1…座標変換部(変換部)、312d1,312d2…原指令値算出部、312e…指令値算出部、313…第二作動制御部、315…目標物決定部、401…目標物、P10…中間位置(近接位置)。

Claims (11)

  1. 可動部材と、
    前記可動部材を動かすアクチュエータと、
    少なくとも一つの撮影部と、
    前記撮影部により撮影された撮影画像の撮影座標系から比較を実行する演算座標系への座標変換を実行する座標変換部と、
    前記演算座標系におけるビジュアルサーボにより偏差が小さくなるよう前記アクチュエータを制御する第一作動制御部と、
    を備えた、作動システム。
  2. 前記少なくとも一つの撮影部は第一撮影部および第二撮影部を含み、
    前記演算座標系は、前記第二撮影部により撮影された撮影画像の第二撮影座標系に設定され、
    前記座標変換部は、前記第一撮影部により撮影された撮影画像の第一撮影座標系から前記第二撮影座標系への座標変換を実行する、請求項1に記載の作動システム。
  3. 前記少なくとも一つの撮影部は複数の撮影部であり、
    前記第一作動制御部は、前記複数の撮影部による前記撮影画像に基づいて、前記アクチュエータに対する指令値を算出する指令値算出部を備えた、請求項1または2に記載の作動システム。
  4. 前記複数の撮影部による撮影画像のそれぞれに基づいて複数の原指令値を算出する原指令値算出部を備え、
    前記指令値算出部は、前記複数の原指令値の重み付け平均値として前記指令値を算出する、請求項3に記載の作動システム。
  5. 前記第一作動制御部は、前記撮影画像のそれぞれと目標画像との特徴点に基づくマッチング処理を実行するマッチング処理部を有し、
    前記原指令値の重み付け係数が、当該原指令値が算出された前記撮影画像と前記目標画像との間でマッチングされた前記特徴点の数が多いほど大きく設定される、請求項4に記載の作動システム。
  6. 前記複数の撮影部は、画角、焦点距離、および撮影方向のうち少なくとも一つが互いに異なる複数の撮影部を含む、請求項3〜5のうちいずれか一つに記載の作動システム。
  7. 他の前記撮影部よりも広い範囲を撮影可能な広範囲撮影部と、
    前記第一作動制御部による制御の前に、前記広範囲撮影部による撮影画像に基づいて目標物を決定する目標物決定部と、
    を備えた、請求項3〜6のうちいずれか一つに記載の作動システム。
  8. 前記広範囲撮影部は、撮影画像として、三次元距離画像データを取得し、
    前記目標物決定部は、前記三次元距離画像データに基づいて前記目標物を決定する、請求項7に記載の作動システム。
  9. 前記第一作動制御部による制御の前でありかつ前記目標物決定部により前記目標物が決定された後に、前記広範囲撮影部による撮影画像に基づいて、前記可動部材が前記目標物により近い近接位置に移動するよう前記アクチュエータを制御する第二作動制御部を備えた、請求項7または8に記載の作動システム。
  10. 可動部材と、
    前記可動部材を動かすアクチュエータと、
    第一撮影部と、
    前記可動部材に設けられた前記第一撮影部とは別の第二撮影部と、
    前記第一撮影部のデータを、前記第二撮影部で撮影された場合に得られる第一データに変換する変換部と、
    前記第一データおよび前記第二撮影部の第二データのうち少なくとも一方に基づいて、前記可動部材が動作するよう前記アクチュエータを制御する第一作動制御部と、
    を備えた、作動システム。
  11. コンピュータを、請求項1〜9のうちいずれか一つに記載の作動システムの、前記座標変換部、および前記第一作動制御部、として機能させるプログラム。
JP2017221300A 2017-11-16 2017-11-16 作動システムおよびプログラム Active JP6815309B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017221300A JP6815309B2 (ja) 2017-11-16 2017-11-16 作動システムおよびプログラム
US15/911,220 US10695912B2 (en) 2017-11-16 2018-03-05 Actuation system and computer program product utilizing visual servo control based on images from multiple cameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017221300A JP6815309B2 (ja) 2017-11-16 2017-11-16 作動システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2019089188A true JP2019089188A (ja) 2019-06-13
JP6815309B2 JP6815309B2 (ja) 2021-01-20

Family

ID=66431713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017221300A Active JP6815309B2 (ja) 2017-11-16 2017-11-16 作動システムおよびプログラム

Country Status (2)

Country Link
US (1) US10695912B2 (ja)
JP (1) JP6815309B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11312011B2 (en) 2018-02-28 2022-04-26 Kabushiki Kaisha Toshiba Manipulator system, control device, control method, and computer program product
US11396101B2 (en) 2018-11-08 2022-07-26 Kabushiki Kaisha Toshiba Operating system, control device, and computer program product
WO2023276238A1 (ja) * 2021-07-02 2023-01-05 ソニーグループ株式会社 ロボット制御装置、およびロボット制御方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6881188B2 (ja) * 2017-09-27 2021-06-02 オムロン株式会社 位置検出装置およびプログラム
CN110421563A (zh) * 2019-07-28 2019-11-08 南京驭逡通信科技有限公司 一种工业机器人建图定位系统及机器人
CN110969097B (zh) * 2019-11-18 2023-05-12 浙江大华技术股份有限公司 监控目标联动跟踪控制方法、设备及存储装置
CN111258267B (zh) * 2020-01-17 2021-07-16 北京科技大学 一种人机协作搬运系统及其混合视触控制方法
CN111360797A (zh) * 2020-03-16 2020-07-03 杭州腾聚科技有限公司 一种基于视觉的机器人tcp标定方法
CN111360840A (zh) * 2020-04-28 2020-07-03 沈阳优诚自动化工程有限公司 一种基于视觉算法的机械臂分拣方法
CN112584041B (zh) * 2020-12-07 2022-11-18 杭州申昊科技股份有限公司 一种图像识别动态纠偏方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003211381A (ja) * 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP2013186088A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法
JP2014520351A (ja) * 2011-07-08 2014-08-21 レストレーション ロボティクス,インク. カメラシステムの座標系の較正および変換
JP2014203365A (ja) * 2013-04-08 2014-10-27 オムロン株式会社 制御システムおよび制御方法
JP2015182186A (ja) * 2014-03-25 2015-10-22 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置及び制御方法
JP2017030135A (ja) * 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6021533B2 (ja) 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム
JP2015003348A (ja) 2013-06-19 2015-01-08 セイコーエプソン株式会社 ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法
US9630318B2 (en) * 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
JP2017094482A (ja) 2015-11-17 2017-06-01 富士電機株式会社 ロボット制御システム及びロボット制御方法
CA2961921C (en) * 2016-03-29 2020-05-12 Institut National D'optique Camera calibration method using a calibration target

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003211381A (ja) * 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP2014520351A (ja) * 2011-07-08 2014-08-21 レストレーション ロボティクス,インク. カメラシステムの座標系の較正および変換
JP2013186088A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法
JP2014203365A (ja) * 2013-04-08 2014-10-27 オムロン株式会社 制御システムおよび制御方法
JP2015182186A (ja) * 2014-03-25 2015-10-22 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置及び制御方法
JP2017030135A (ja) * 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11312011B2 (en) 2018-02-28 2022-04-26 Kabushiki Kaisha Toshiba Manipulator system, control device, control method, and computer program product
US11396101B2 (en) 2018-11-08 2022-07-26 Kabushiki Kaisha Toshiba Operating system, control device, and computer program product
WO2023276238A1 (ja) * 2021-07-02 2023-01-05 ソニーグループ株式会社 ロボット制御装置、およびロボット制御方法

Also Published As

Publication number Publication date
JP6815309B2 (ja) 2021-01-20
US20190143525A1 (en) 2019-05-16
US10695912B2 (en) 2020-06-30

Similar Documents

Publication Publication Date Title
JP6815309B2 (ja) 作動システムおよびプログラム
JP5949242B2 (ja) ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
CN108297096B (zh) 校准装置、校准方法以及计算机能够读取的介质
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
US9616569B2 (en) Method for calibrating an articulated end effector employing a remote digital camera
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6021533B2 (ja) 情報処理システム、装置、方法及びプログラム
JP5200772B2 (ja) ロボット装置の制御方法及びロボット装置
JP6505729B2 (ja) 視覚センサを用いるロボットシステムのための自動較正方法
CN107471218B (zh) 一种基于多目视觉的双臂机器人手眼协调方法
JP5812599B2 (ja) 情報処理方法及びその装置
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP5928114B2 (ja) ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット
JP5233601B2 (ja) ロボットシステム、ロボット制御装置およびロボット制御方法
JP7111114B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP2012254518A (ja) ロボット制御システム、ロボットシステム及びプログラム
JP2014029664A (ja) 比較画像範囲生成方法、位置姿勢検出方法、比較画像範囲生成装置、位置姿勢検出装置、ロボット、ロボットシステム、比較画像範囲生成プログラム及び位置姿勢検出プログラム
JP2014144516A (ja) ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム
JP2018004554A (ja) 対象物の特徴点の三次元座標を算出するための装置及び方法
JP6841297B2 (ja) ビジュアルサーボシステム
KR102451791B1 (ko) 영상 내 물체의 위치 추정 시스템 및 방법
WO2019176450A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6719925B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2021091070A (ja) ロボット制御装置
JP6275345B1 (ja) 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201222

R151 Written notification of patent or utility model registration

Ref document number: 6815309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151