JP5725708B2 - センサ位置姿勢計測方法 - Google Patents

センサ位置姿勢計測方法 Download PDF

Info

Publication number
JP5725708B2
JP5725708B2 JP2009292367A JP2009292367A JP5725708B2 JP 5725708 B2 JP5725708 B2 JP 5725708B2 JP 2009292367 A JP2009292367 A JP 2009292367A JP 2009292367 A JP2009292367 A JP 2009292367A JP 5725708 B2 JP5725708 B2 JP 5725708B2
Authority
JP
Japan
Prior art keywords
orientation
work
sensor means
global
auxiliary sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009292367A
Other languages
English (en)
Other versions
JP2011133313A (ja
Inventor
英生 野呂
英生 野呂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009292367A priority Critical patent/JP5725708B2/ja
Publication of JP2011133313A publication Critical patent/JP2011133313A/ja
Application granted granted Critical
Publication of JP5725708B2 publication Critical patent/JP5725708B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数の移動可能なセンサから得られる画像情報を基に作業を遂行するシステムで用いられるセンサ位置姿勢計測方法に関するものである。
高品質の製品を安定して生産を行うため、また危険な作業や疲労を伴う検査等から人間を解放するためといった様々な目的のために、産業用ロボットは生産現場に導入されてきている。そして、自動車産業を始めとする多くの分野では、既に不可欠な存在となっている。
従来からロボットのマニピュレータやそこに取り付けられた作業用工具を、予め定まった道筋に沿って移動、動作させることにより、単純作業を繰り返し行うことがされてきている。更に、マニピュレータに作業用工具の他に、オンハンドカメラを取り付け、オンハンドカメラによって取得された映像を基に、作業対象や環境を把握し、より高度な作業を行わせることも行われている。このように、ロボットに視覚機能を持たせる分野はロボットビジョンとも呼ばれ、多くの研究がなされている。また、コグネックス株式会社からはビジョンシステム「In−Sightシリーズ」が販売されており、産業用ロボットと組み合わせることで、ロボットに視覚機能を持たせることができる。
更にオンハンドカメラの他に、環境内に作業領域全体を俯瞰するグローバルカメラを設置する手法が特許文献1により開示されている。これは、グローバルカメラとオンハンドカメラの両カメラからの映像情報を基に、ロボットの行動を決定する手法である。
グローバルカメラとオンハンドカメラの両方を用いるシステムにおいては、それぞれのカメラによって取得される映像情報を基に、算出される作業空間内にある物体の位置や姿勢を一致させる必要がある。これには両カメラの相対位置及び相対姿勢が正確に分かっていることが必要十分な条件となる。
オンハンドカメラの位置姿勢は、設置時に校正を行うことが可能である。すると、ロボット設置環境である作業環境を基準にした座標系でのオンハンドカメラの位置姿勢は、マニピュレータの位置姿勢から算出することができる。なお、以降のロボット設置環境を基準にした座標系をグローバル座標系と呼び、特に断りのない限り、物体の位置や姿勢はグローバル座標系における値とする。
残る課題はグローバルカメラの位置姿勢を正確に知ることである。これには、作業環境に固定された治具等に、グローバルカメラを確実に固定し、設置時に位置姿勢を計測することで実現できる。
ところで、工場での製品の生産は、製品ユーザの嗜好にきめ細かく対応するために大量生産から多品種少量生産へシフトしてきている。更に、高価な産業用ロボットシステムを有効活用するために、多くの作業を同一のロボットシステムでこなすように対応を迫られている。
ロボットが行う作業内容によって、最適なグローバルカメラの配置は異なるが、作業内容が変更する度にグローバルカメラの位置姿勢を計測することは、生産ラインを停止させることにもつながり、生産性が低下することになる。そこで、グローバルカメラの位置姿勢計測を短時間で行うことが求められており、その1つの解決手法としては、グローバルカメラとその治具にエンコーダを取り付けることが考えられる。
別の手法として、追加ハードウェアを殆ど必要とせずに、グローバルカメラの位置姿勢を計測する手法として、グローバルカメラ自体が環境内の予め校正されたランドマークを撮像する手法がある。これはランドマークがグローバルカメラによる撮像画像と同様に、観測できる位置をグローバルカメラの位置姿勢とする手法である。
特許文献2にはこのような手法が開示されている。また、特許文献3には環境そのものをCGデータとして持ち、CG画像と撮像画像を比較するという、いわば環境全体をランドマークとする手法が開示されている。更に特許文献4には、カメラ同士が互いを見合うことで、相対位置を検出する手法が開示されている。
特開平3−73284号公報 特開2005−57592号公報 特開平7−237158号公報 特開2007−327750号公報
しかし、グローバルカメラとその治具にエンコーダを取り付ける手法では、治具の工作精度、治具を固定するフレーム等の支持体の剛性が求められ、更にエンコーダやその値を受信するインタフェースが必要となり、コストアップにつながるという課題がある。
また特許文献2の手法は、グローバルカメラからランドマークが観測可能でなければならず、間に障害物があってはならない。そのため、作業対象によってランドマークが隠されてしまう状況や、ランドマークの設置が困難な環境では実施困難であるという課題がある。また、グローバルカメラの位置姿勢算出手法に三角測量の原理を用いている場合に、高精度の位置姿勢計測には複数のランドマーク、又は大きな形状のランドマークが観測できなければならない。この制約は特許文献2の手法の実施を、更に困難にしてしまうという問題がある。
特許文献3の手法は、環境の全てをCGデータ化しなければならず、実施困難な場合も多いという問題がある。更に現場環境を変更する度にCGデータも変更しなければならず、メンテナンスコストが増大してしまうという課題がある。また、作業空間が不透明な仕切りによって囲まれていない場合に、作業空間の向こう側の映像をマスクするような仕組みを実装しなければならず、システムのコストアップにつながるという課題がある。
特許文献4の手法は、背景差分によりカメラの位置を算出しているが、差分により違いが出るようなカメラ自体の首降りの仕組みを用意しなければならない課題がある。また、特許文献2と同様に、カメラ間に障害物があってはならないという課題がある。
また、グローバルカメラを視覚補助装置と捉えれば、撮像装置である必要はなく、照明でもよいし、ビーム光、スリット光を出すグローバル照明であってもよい。この場合に、視覚補助装置の位置姿勢を計測するためには、別途に視覚補助装置と一体化したカメラが必要となり、システムのコストアップを招いてしまうという課題がある。
本発明の目的は、上述の問題点を解消し、主センサ手段と補助センサ手段を用いて作業対象物の姿勢に対する正確な計測を行い得るセンサ位置姿勢計測方法を提供することにある。
上記目的を達成するための本発明に係るセンサ位置姿勢計測方法は、作業対象物が存在し得る対象領域の画像情報取得する補助センサ手段と、移動可能であり、かつ前記作業対象物の少なくとも一部を含む領域の画像情報を取得し、該画像情報に基づいて、前記作業対象物の位置姿勢を計測する主センサ手段とを備え、前記補助センサ手段及び前記主センサ手段によって取得した画像情報を基に、前記主センサ手段が移動すべき位置及び姿勢又は作業内容又はその双方を決定し、前記主センサ手段より得られた画像情報を用いて前記作業対象物に対する作業を遂行するシステムにおいて、前記作業対象物に対する作業を行うことに先立ち、前記主センサ手段は、複数の異なる位置から前記補助センサ手段を含んだ画像情報を取得し、該取得された画像情報に基づいて、三角測量の原理により、前記補助センサ手段の三次元位置及び姿勢を計測することを特徴とする。
本発明に係るセンサ位置姿勢計測方法によれば、治具の工作精度、治具が固定されているフレーム等の支持体の剛性が求められたり、エンコーダやその値を受信するインタフェースが必要となるコストアップが抑えられる。
また、主センサは作業空間内を移動するので、作業対象によってランドマークが隠されてしまう状況が少ないという効果がある。また、作業環境内にランドマークを設置する必要がなく、ランドマークの設置が困難であるという状況を回避できる。
実施例1のセンサ位置姿勢計測方法のシステムの構成図である。 コントローラの構成図である。 作業内容・位置姿勢対応表の例である。 アプリケーションコントローラの動作フローチャート図である。 三角測量の原理の説明図である。 実施例2のシステムの構成図である。 コントローラの構成図である。 コントローラの動作フローチャート図である。 実施例3のシステムの構成図である。 システムの構成図である。 コントローラの構成図である。 アプリケーションコントローラの動作フローチャート図である。 実施例4のコントローラの構成図である。 コントローラの動作フローチャート図である。
本発明を図示の実施例に基づいて詳細に説明する。
図1は本実施例のセンサ位置姿勢計測方法を適用した物体追跡撮像システムの構成図である。ロボット1には可動腕であるマニピュレータ2が設けられており、またマニピュレータ2の先端には主センサ手段であるオンハンドカメラ3と、作業内容に適した作業用工具4が取り付けられている。マニピュレータ2、オンハンドカメラ3、作業用工具4の動作は、アプリケーションコントローラ5によって制御可能とされている。なお、外観検査等の作業用工具が不要な作業のみを行う場合に、作業用工具4は省略してもよい。
コントローラ5には補助センサ手段であるグローバルカメラ6、グローバル照明手段7が接続されている。グローバルカメラ6は補助センサ移動手段である例えば直線状のレール8に沿って移動し、グローバル照明手段7は同様の補助センサ移動手段である例えば曲線状のレール9に沿って移動するようにされている。
この場合の作業内容は、例えば山積みされている作業対象物Wを作業用工具4によって1つずつ摘み上げ、部品箱の所定の場所に整列するものである。この際に、山積みされている多くの作業対象物Wのうち、最も摘み上げ易いものを検出するために、グローバルカメラ6が撮像した画像情報の一部を用い、個々の作業対象物Wの精密な位置姿勢情報を得るためにロボット1のオンハンドカメラ3を用いる。
このような構成では、例えばグローバルカメラ6は作業範囲全体が見渡せるように広範囲を撮像し、オンハンドカメラ3は作業対象物Wを作業用工具4によって確実に掴めるように、作業用工具4の付近の狭い対象領域を撮像する。
このように、両カメラ6、3は協調して作業を遂行してゆくが、これらの制御はコントローラ5によって行われる。各カメラ6、3が取得した画像から、摘み上げる作業対象物Wを特定し、作業対象物Wの位置姿勢を計測し、マニピュレータ2を移動し摘み上げる、といった制御の具体的内容は本発明の範囲外であるので詳細な説明は省略する。
ここで重要なことは、作業対象物Wの位置姿勢は、グローバルカメラ6によって撮像した画像から算出したものと、オンハンドカメラ3によって撮像した画像から算出されたものとで、等しくなければならないということである。これにはオンハンドカメラ3の位置姿勢と、グローバルカメラ6の位置姿勢とが正確に分かっていることが必要十分条件である。
なお、グローバルカメラ6で山積みとなっている作業対象物Wの三次元形状を取得するために、スリット光やパターン光を投光するグローバル照明手段7を必要に応じて設置してもよい。この場合には、更にグローバル照明手段7の位置姿勢を正確に知る必要がある。
作業内容によっては、グローバルカメラ6やグローバル照明手段7の最適な配置が異なる。例えば、摘み上げるべき作業対象物Wがばらばらに積み上げられているような状況では、個々の作業対象物Wの特徴的な頂点、エッジ等の個所が良く観測できるように、作業対象物Wの斜め上方にグローバルカメラ6を設置することが好ましい。また、作業対象物Wが整列されて山積みされている状況では、作業対象物Wを真横から撮影するような位置にグローバルカメラ6を設置すると、山の高さを認識し易い。このように、作業内容の変更に応じて、グローバルカメラ6やグローバル照明手段7を最適に配置することにより、作業対象物Wの認識精度が向上することが期待できる。
グローバルカメラ6やグローバル照明手段7はそれぞれ1個に限られるものではなく、また位置姿勢の算出法も同様であるので、以降では特に断りがない限り、これらをまとめてグローバル機器と呼ぶ。補助センサ手段として機能するグローバル機器は一方又は双方を同時に使用してもよい。
主センサ手段であるオンハンドカメラ3の主センサ移動手段による位置姿勢は、設置時に計測可能である。何故なら、ロボット1が作業環境に対してどのように設置されているかさえ分かれば、ロボット1の基台に対するマニピュレータ2の位置姿勢は、コントローラ5により取得・制御可能である。更に、マニピュレータ2に対するオンハンドカメラ3の位置姿勢もマニピュレータ2にオンハンドカメラ3を固定する際に計測可能である。
グローバル機器の位置姿勢を算出する測定原理は、本計測方法の範囲外であるが、例えば三角測量の原理を用いることができる。この場合に、グローバル機器上の異なる3点の三次元位置が計測できれば、グローバル機器の位置姿勢が算出できる。
図2はコントローラ5の内部構成図である。コントローラ5内のグローバル機器位置姿勢算出部5aの出力は、マニピュレータ移動指示部5bを介してロボット1に接続されていると共に、作業遂行部5cに接続されている。また、グローバル機器位置姿勢算出部5aには外部の作業内容指示手段10の出力が接続され、またオンハンドカメラ3の出力がオンハンドカメラ画像取得部5dを介して接続されている。更に、グローバル機器位置姿勢算出部5aは図3に示す作業内容・位置姿勢対応表を有している。
図4は実施例1の動作フローチャート図であり、先ずグローバル機器として、グローバルカメラ6が1台だけの場合を考える。作業内容に応じてグローバルカメラ6を移動させた後に、作業内容を押しボタン等の作業内容指示手段10によって指示する。グローバル機器位置姿勢算出部5aは作業内容の指示を受信すると(ステップS11)、グローバルカメラ6を撮影するためのオンハンドカメラ3の位置姿勢1及び位置姿勢2を図3の作業内容・位置姿勢対応表を参照して求める(ステップS12)。
作業内容・位置姿勢対応表は作業内容に対応するグローバルカメラ6の位置姿勢1、及びそれを撮影するオンハンドカメラ3の位置姿勢2が記録されており、図3はその例を示している。なお、これらの位置姿勢1、2の決め方については後述する。
位置姿勢1、2を取得した後に、グローバル機器位置姿勢算出部5aはマニピュレータ移動指示部5bに対してオンハンドカメラ3を位置姿勢1に移動するような指示を行う(ステップS13)。マニピュレータ移動指示部5bはロボット1に対して指示された位置姿勢にオンハンドカメラ3を移動する。なお、本来はロボット1への移動指示はマニピュレータ2に対するものであるが、オンハンドカメラ3はマニピュレータ2に固定されているため、オンハンドカメラ3への移動指示は、マニピュレータ2への移動指示に1対1に変換できる。なお、以後は特に断りのない限り、オンハンドカメラ3への移動指示として説明する。
オンハンドカメラ3を位置姿勢1に移動させた後に、オンハンドカメラ3でグローバルカメラ6を画像1として撮影する(ステップS14)。同様に、オンハンドカメラ3を位置姿勢2に移動させ(ステップS15)、オンハンドカメラ3でグローバルカメラ6を画像2として撮影する(ステップS16)。画像1、2はオンハンドカメラ画像取得部5dを通してグローバル機器位置姿勢算出部5aに渡される。
グローバル機器位置姿勢算出部5aでは、三角測量の原理により画像1及び画像2から、グローバルカメラ6の位置姿勢を算出する(ステップS17)。なお、位置姿勢1と位置姿勢2は三角測量の原理における2個所の観測位置姿勢のことであり、計測点が撮像画像に含まれるような位置姿勢である。より具体的には、グローバルカメラ6上の異なる3点の全てが、画像1に含まれるようなオンハンドカメラ3の位置姿勢を位置姿勢1、画像2に含まれるような位置姿勢を位置姿勢2とする。
図5は三角測量による説明図である。位置姿勢1の位置をP1、位置姿勢2の位置をP2、グローバルカメラ6上の位置計測をしようとしている位置をP3とする。また、位置P1から位置P3を見る方向が位置姿勢1の姿勢、位置P2から位置P3を見る方向が位置姿勢2の姿勢である。図5は位置P1、P2、P3を通る平面における各点の関係を示し、位置P3を同定することは、距離L21及びL22を求めることと同値である。
先ず、位置P1及びP2から距離L1を算出し、また角度θ1は画像1から取得でき、角度θ2は画像2から取得できる。正弦定理を用いて、次のように距離L21及びL22が求められる。
L21=L1・(sinθ1・sinθ2)/sin(θ1+θ2)…(1)
L22=L1・(cosθ1・sinθ2)/sin(θ1+θ2)…(2)
グローバルカメラ6が或る程度離れているという仮定、つまり距離L21がL1に比べて或る程度大きければ、式(1)及び(2)から、安定して値を算出するには下記の条件1、2を満たすようにすればよい。
(条件1)距離L1を大きくする。
(条件2)角度θ1とθ2を近い値とする。
これらの2条件をなるべく満たすように、位置姿勢1、2を決定するが、位置姿勢1、2はグローバルカメラ6の概略の位置姿勢が定まれば決定が可能である。そのため、作業内容に応じて予めグローバルカメラ6の位置と対応する位置姿勢1、2を作業内容・位置姿勢対応表にしておくことができ、グローバル機器位置姿勢算出部5aはこれを参照して位置姿勢1、2を算出する。
作業内容・位置姿勢対応表の作業IDは、コントローラ5で処理を行い易くするために付された作業内容を区別する一意的な番号である。作業内容に応じたグローバルカメラ6の大まかな位置姿勢を予め計測しておき、その値を作業内容・位置姿勢対応表に書き込んである。また、その位置姿勢にあるグローバルカメラ6の位置姿勢を最も安定して計測できるように、条件1、2を満たす位置姿勢1、2を予め算出しておき、作業内容・位置姿勢対応表に書き込んである。なお、位置姿勢1、2は条件1、2を満たすように実行時に算出してもよく、その場合は作業内容・位置姿勢対応表に値を書き込んでおく必要はない。
このようにして、グローバルカメラ6の位置姿勢が算出できるが、グローバル照明手段7を備える場合は、グローバル照明手段7用の作業内容・位置姿勢対応表を予め作成しておく。そして、グローバルカメラ6に対するものと同様の処理を、グローバル照明手段7に対しても行い、グローバル照明手段7の位置姿勢の算出も行う。
このように、全てのグローバル機器に対して作業内容・位置姿勢対応表を作成しておくことにより、全てのグローバル機器について位置姿勢を算出することができる。算出したグローバル機器の位置姿勢は作業遂行部5cに渡され、以降はグローバル機器とオンハンドカメラ3が協調しながら指示した作業を遂行してゆく。
また、算出したグローバル機器の位置姿勢の精度は、オンハンドカメラ3の位置姿勢の精度による。しかし、ロボット1から得られるマニピュレータ2の位置姿勢の値の精度が十分に高いと考えられる場合に、各グローバル機器に取り付けるエンコーダ等のハードウェアの追加なしに高精度な計測が可能となる。
なお、グローバル機器はレール8、9のような移動に限られるものではなく、二次元或いは三次元上を動くようにしても支障はない。
図6はグローバルカメラ6をレール8上で移動させたり、姿勢を変えたりするグローバルカメラ移動手段11、グローバル照明手段7をレール9上で移動させたり、姿勢を変えたりするグローバル照明移動手段12を備えたシステムの構成図である。また、以後、グローバルカメラ移動手段11、グローバル照明移動手段12についてはグローバル機器移動手段と呼ぶ。
図7はコントローラ5の構成図であり、図2の構成図において、グローバル機器位置姿勢算出部5aの出力は、グローバル機器移動指示部5eを介してグローバル機器移動手段11、12に接続されている。
図8は実施例2の動作フローチャート図である。作業内容の変更があった際に、作業開始に先立って作業内容指示手段10により、グローバル機器位置姿勢算出部5aに作業内容の変更が伝えられると(ステップS21)、全グローバル機器の位置姿勢の算出は完了しているかを判定する(ステップS22)。算出が完了していなければ、作業内容に適したグローバル機器の移動先位置姿勢を算出し(ステップS23)、更にグローバル機器を撮影するオンハンドカメラ3の撮影位置姿勢の位置姿勢1、位置姿勢2を算出する(ステップS24)。ここで、ステップS23やステップS24で算出する位置姿勢は、実施例1と同様に予め用意した作業内容・位置姿勢対応表を参照して導出する。
次いで、グローバル機器移動指示部5eに指示を出し、グローバル機器をステップS23で算出された移動先位置姿勢に移動する(ステップS25)。この後に、オンハンドカメラ3を用いてグローバル機器の位置姿勢を計測するが、この処理は図4のステップS13〜S17と同様である。以上のステップS23以降の処理を、全グローバル機器に対して行う。
実施例2では、作業内容の変更は作業内容指示手段10によって指示を出していたが、作業内容識別部5fを設けることにより、人手を介さずにグローバル機器の位置姿勢を計測することも可能である。
図9及び図10は実施例3のシステムの構成図であり、作業対象物Wは作業パレット13内に入れられており、作業パレット13には作業内容を表す指標Iが付されている。図9では作業パレット13内に山積みに置かれているばらばらの作業対象物Wを1個ずつ摘み上げ、図示しない部品箱の所定の場所に整列しておくという作業内容を想定している。この場合に、作業対象物Wの頂点、エッジ等の画像特徴が良好に得られるように、グローバルカメラ6を水平よりも僅かに上方の斜め上方の角度からグローバル照明手段7を配置している。
図10においては、何本かのタワー状に積み上げられている円盤状の作業対象物Wを1個ずつ摘み上げ、不図示の部品箱の所定の場所に整列しておくという作業内容を想定している。この場合に、積み上げられた作業対象物Wの高さが良く分かるように、グローバルカメラ6は作業対象物Wをほぼ真横から観測できる位置に、グローバル照明手段7は稍々上方に配置されている。
なお、ここでは2つの作業内容を例として挙げたが、2つである必要はなく、更に多くの作業内容を想定してもよい。また、作業内容は例示したものでなくとも支障はない。作業内容により最適なグローバル機器の配置が異なる状況があり、本実施例はそれに対処できることを示すために例として挙げたものである。
図11は本実施例が適用されるコントローラ5の構成図である。オンハンドカメラ画像取得部5dからの出力を受け、グローバル機器位置姿勢算出部5a、マニピュレータ移動指示部5bに出力する作業内容識別部5fが設けられている。
図12は実施例3の動作フローチャート図であり、図8と比べて作業内容変更指示を受信するステップS21の代りに、ステップS31〜S33を処理する。これは作業内容識別部5fによって行われ、作業内容の識別を行う部分であり、
先ず、オンハンドカメラ3が指標Iが良く観察できる位置に移動するように、マニピュレータ移動指示部5bに対して指示を出力する(ステップS31)。作業パレット13や指標Iの位置を全作業で共通化しておけば、この位置は既知のものとなる。指標Iは作業内容を表し、例えばバーコードを用いることにより、作業内容をコード化することができる。
次に、オンハンドカメラ画像取得部5dを通してオンハンドカメラ3が撮像した指標Iの画像を取得し(ステップS32)、作業内容識別部5fはこの画像を基に作業内容を識別する(ステップS33)。バーコードを撮像した画像からコード内容を認識する処理は一般的な技術であり、本発明の範囲外であるのでその説明は省略する。識別した作業内容は、グローバル機器位置姿勢算出部5aに送られ、実施例2と同様の処理が行われる。
なお、指標Iの識別を行うために、オンハンドカメラ3から得られる画像を用いたが、専用のカメラやバーコードスキャナを用いてもよい。また、指標Iはバーコードに限られるものではなく、RFID等を用いてもよい。更に、指標Iは作業パレット13に標示されているが、作業内容と同期していれば作業パレット13に標示しなくともよい。例えば、ベルトコンベアによって作業対象物Wが流れてくる場合に、指標Iの後に対応する作業対象物Wを流すようにしてもよい。
図13は実施例4のコントローラ5の構成図である。外部のグローバル機器6、7の出力はグローバル機器情報取得部5gをグローバル機器特徴抽出部5hを介してグローバル機器微小移動指示生成部5iに接続されている。また、グローバル機器微小移動指示生成部5iの出力はグローバル機器移動指示部5eに接続され、更に作業内容識別部5fの出力が接続されている。
実施例3では、グローバルカメラ6、グローバル照明手段7を移動した後に、その位置姿勢を計測しているが、作業遂行に当っては、より高い品質の情報が得られる位置にグローバル機器を設置した方が好ましい。より高い品質とは、例えば山積みされた作業対象物Wを撮像した画像から頂点特徴を抽出し、それを基にして、作業対象物Wの位置姿勢等の作業に必要な情報を取得する。例えば、頂点特徴がより確実に取得できるように、「明度のコントラストが高い」や、「作業対象物W以外の物体や照明が撮像画像内に存在しない」、また「作業対象物W自体が他の物体によって隠されない」ようにする。
実際に頂点特徴を検出した上で、得られた頂点特徴の個数が多いものほど高品質であるとしてもよい。このような高い品質の情報が得られるグローバル機器の配置は、個々のケースにおいて作業対象物Wの配置状況や、システムが動作している環境によって多少変化する。
そこで、先ずグローバル機器を作業内容・位置姿勢対応表を参照して得られる作業内容に適した位置に移動した後に、グローバル機器の位置姿勢を微小量移動させながら、最も高い品質の出力が得られる位置姿勢で停止させる。その後に、グローバル機器の位置姿勢を計測する。
図14は実施例4の動作フローチャート図である。最初にグローバル機器を移動させると、ステップS31〜S25までは図12と同様であり、その次から説明する。先ず、全てのグローバル機器を作業内容に適した位置姿勢に移動させる。そして、各グローバル機器について以下の処理を行う。
前記グローバル機器の位置姿勢を算出したかを判断する(ステップS41)。算出が完了していなければ、グローバル機器情報取得部5gでグローバル機器に対応したグローバル機器から情報を得る(ステップS42)。例えば、設置調整対象のグローバル機器がグローバルカメラ6であれば、グローバルカメラ6から画像を取得する。また投光器の場合には、投光器に対応したグローバルカメラ6から画像を取得する。
得られた情報からグローバル機器特徴抽出部5hによって特徴抽出を行う(ステップS43)。この特徴は前述したように作業内容によって異なるが、例えば得られた画像から頂点特徴を抽出しその個数を数える。ここで得られた特徴が高品質のものであると判断できた場合は(ステップS44)、図4のステップS13〜S17の処理と同様にグローバル機器の位置姿勢を計測する。
もし高品質のものではない場合は、現在のグローバル機器の位置姿勢を中心として微小移動を行うように、グローバル機器微小移動指示生成部5iで微小移動指示を生成し(ステップS45)、グローバル機器を移動させる(ステップS46)。
グローバル機器から得られた特徴が高品質のものかどうかは、抽出された頂点特徴の個数がグローバル機器の位置姿勢を微小移動させた範囲内で、極大(又は最大)となる位置姿勢を最高品質が得られる位置姿勢とすればよい。また、特徴としてグローバルカメラ6から得られた撮像画像の明度コントラストを用いることもできる。この場合は、グローバル機器の位置姿勢を微小移動させた範囲内で明度コントラストが極大(又は最大)となる位置姿勢を最高品質が得られる位置姿勢とすればよい。
更に、これらの特徴を複合的に用いて品質評価を行ってもよい。複合評価の手法は本実施例の範囲外であるが、例えば各特徴からスコアを出し、それらの重み付き平均を求める。重み付き平均の値がグローバル機器の位置姿勢を微小移動させた範囲内で極大(又は最大)となる位置姿勢を、最高品質が得られる位置姿勢とすればよい。
グローバル機器を微小量移動させた場合は、ステップS42からの処理を繰り返す。このような処理により、各グローバル機器を作業内容により適した位置姿勢にした上で、位置姿勢の計測を行うことができる。
本発明は位置姿勢計測手法に関し、特に作業空間内に設置され作業中は固定されている視覚補助装置と、ロボットのマニピュレータに取り付けられたカメラの両者を用いて、作業を遂行してゆくロボットシステムに用いると好適である。また、主センサはカメラ、補助センサはカメラ、照明手段、を用いたが、他の例えば物体検知センサであってもよい。
1 ロボット
2 マニピュレータ
3 オンハンドカメラ
4 作業用工具
5 アプリケーションコントローラ
5a グローバル機器位置姿勢算出部
5b マニピュレータ移動指示部
5c 作業遂行部
5d オンハンドカメラ画像取得部
5e グローバル機器移動指示部
5f 作業内容識別部
5g グローバル機器情報取得部
5h グローバル機器特徴抽出部
5i グローバル機器微小移動指示生成部
6 グローバルカメラ
7 グローバル照明手段
8、9 レール
10 作業内容指示手段
11 グローバルカメラ移動手段
12 グローバル照明移動手段
W 作業対象物

Claims (6)

  1. 作業対象物が存在し得る対象領域の画像情報を取得する補助センサ手段と、移動可能であり、かつ前記作業対象物の少なくとも一部を含む領域の画像情報を取得し、該画像情報に基づいて、前記作業対象物の位置姿勢を計測する主センサ手段とを備え、前記補助センサ手段及び前記主センサ手段によって取得した画像情報を基に、前記主センサ手段が移動すべき位置及び姿勢又は作業内容又はその双方を決定し、前記主センサ手段より得られた画像情報を用いて前記作業対象物に対する作業を遂行するシステムにおいて、
    前記作業対象物に対する作業を行うことに先立ち、前記主センサ手段は、複数の異なる位置から前記補助センサ手段を含んだ画像情報を取得し、該取得された画像情報に基づいて、三角測量の原理により、前記補助センサ手段の三次元位置及び姿勢を計測することを特徴とするセンサ位置姿勢計測方法。
  2. 前記補助センサ手段は少なくとも撮像手段を含み、前記主センサ手段は少なくとも前記撮像手段の位置及び姿勢を計測することを特徴とする請求項1に記載のセンサ位置姿勢計測方法。
  3. 前記補助センサ手段は、該補助センサ手段の位置及び姿勢のいずれか一方または双方を変更させる補助センサ位置姿勢変更手段を備え、
    前記補助センサ手段は、前記作業対象物に対する作業を行うのに先立ち、前記補助センサ位置姿勢変更手段により前記作業に適した予め定められた位置及び姿勢に移動した後に、前記補助センサ手段の位置及び姿勢を計測することを特徴とする請求項1又は2に記載のセンサ位置姿勢計測方法。
  4. 更に、前記作業内容が変更された際に該変更された作業内容を識別する作業内容識別手段を備え、
    前記作業内容識別手段により識別した作業内容に基づいて、前記補助センサ手段の位置及び姿勢を算出し、前記補助センサ位置姿勢変更手段により前記補助センサ手段で算出した位置及び姿勢に移動した後に、前記補助センサ手段の位置及び姿勢を計測することを特徴とする請求項3に記載のセンサ位置姿勢計測方法。
  5. 前記補助センサ手段を前記予め定められた位置及び姿勢に移動した後に、前記補助センサ手段によって取得される前記対象領域の画像情報から抽出される特徴量を評価し、該評価された結果がより高くなる位置及び姿勢まで、前記補助センサ移動手段により前記補助センサ手段を前記予め定められた位置及び姿勢から更に移動させることを特徴とする請求項3又は4に記載のセンサ位置姿勢計測方法。
  6. 作業対象物が存在し得る対象領域の画像情報を取得する補助センサ手段と、
    移動可能であり、かつ前記作業対象物の少なくとも一部を含む領域の画像情報を取得し、該画像情報に基づいて、前記作業対象物の位置姿勢を計測する主センサ手段と、
    前記補助センサ手段の位置及び姿勢を計測する計測手段とを備え、
    前記補助センサ手段及び前記主センサ手段によって取得した画像情報を基に、前記主センサ手段が移動すべき位置及び姿勢又は作業内容又はその双方を決定し、前記主センサ手段より得られた画像情報を用いて前記作業対象物に対する作業を遂行するシステムであって、
    前記計測手段は、前記作業対象物に対する作業を行うことに先立ち、前記主センサ手段が複数の異なる位置から前記補助センサ手段を撮像することで得られた画像情報に基づいて、三角測量の原理により、前記補助センサ手段の三次元位置及び姿勢を計測することを特徴とするシステム。
JP2009292367A 2009-12-24 2009-12-24 センサ位置姿勢計測方法 Active JP5725708B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009292367A JP5725708B2 (ja) 2009-12-24 2009-12-24 センサ位置姿勢計測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009292367A JP5725708B2 (ja) 2009-12-24 2009-12-24 センサ位置姿勢計測方法

Publications (2)

Publication Number Publication Date
JP2011133313A JP2011133313A (ja) 2011-07-07
JP5725708B2 true JP5725708B2 (ja) 2015-05-27

Family

ID=44346213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009292367A Active JP5725708B2 (ja) 2009-12-24 2009-12-24 センサ位置姿勢計測方法

Country Status (1)

Country Link
JP (1) JP5725708B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101045A (ja) 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP6021533B2 (ja) * 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム
WO2015024579A1 (en) * 2013-08-19 2015-02-26 Abb Technology Ltd Robot manipulated viewpoint
CN104897053A (zh) * 2014-03-05 2015-09-09 泰科电子(上海)有限公司 可编程数字化机器视觉检测平台
CN104019743A (zh) * 2014-06-06 2014-09-03 清华大学深圳研究生院 机械手位姿精度测试系统
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
WO2018008102A1 (ja) * 2016-07-06 2018-01-11 富士機械製造株式会社 撮像装置及び撮像システム
CN107478205A (zh) * 2017-09-01 2017-12-15 西北工业大学 航空发动机高精度装配质量检测机器人系统
JP7062911B2 (ja) 2017-10-11 2022-05-09 セイコーエプソン株式会社 ロボットシステム
JP6611888B2 (ja) * 2018-09-28 2019-11-27 キヤノン株式会社 ロボット装置、ロボット装置の制御方法、プログラムおよび記録媒体
CN113226952B (zh) * 2018-12-27 2023-04-18 日本电气通信系统株式会社 物品位置管理装置、物品位置管理系统、物品位置管理方法和程序
CN112907513B (zh) * 2021-01-18 2023-06-27 广东三姆森科技股份有限公司 一种工业视觉检测中图像位置戳系统及其生成方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02276725A (ja) * 1989-04-13 1990-11-13 Toshiba Corp ロボットの教示方法
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置

Also Published As

Publication number Publication date
JP2011133313A (ja) 2011-07-07

Similar Documents

Publication Publication Date Title
JP5725708B2 (ja) センサ位置姿勢計測方法
EP2916189B1 (en) Quality assured manufacturing
EP2543483B1 (en) Information processing apparatus and information processing method
EP2636493B1 (en) Information processing apparatus and information processing method
US7280687B2 (en) Device for detecting position/orientation of object
KR102056664B1 (ko) 센서를 이용한 작업 방법 및 이를 수행하는 작업 시스템
US20050273199A1 (en) Robot system
JP6025386B2 (ja) 画像計測装置、画像計測方法及び画像計測プログラム
JP2018176334A (ja) 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
US20090187276A1 (en) Generating device of processing robot program
US10725450B2 (en) Control system of machine tool
US20130230235A1 (en) Information processing apparatus and information processing method
JP7359633B2 (ja) ロボットシステム
US10704891B2 (en) Method and apparatus for determining the 3D coordinates of an object
KR100933024B1 (ko) 부재 위치 정보 인식 장치 및 방법
JP2008168372A (ja) ロボット装置及び形状認識方法
JP7414395B2 (ja) 情報投影システム、制御装置、及び情報投影制御方法
CN109983299A (zh) 工业机器人的测量系统和方法
JP2014149182A (ja) ワークとの相関位置決め方法
KR20170142379A (ko) 영상처리를 이용한 용접로봇의 용접선 인식장치
US8717579B2 (en) Distance measuring device using a method of spanning separately targeted endpoints
KR20140053712A (ko) 센서 융합에 의한 실내로봇용 위치인식 방법
KR100773271B1 (ko) 단일 카메라를 이용한 이동 로봇의 위치 측정 방법
KR101972432B1 (ko) 레이저비전 센서 및 그 보정방법
JP5516974B2 (ja) 視覚センサのマウント装置と方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150331

R151 Written notification of patent or utility model registration

Ref document number: 5725708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151