JP5228856B2 - 作業対象物の位置検出方法および位置検出装置 - Google Patents

作業対象物の位置検出方法および位置検出装置 Download PDF

Info

Publication number
JP5228856B2
JP5228856B2 JP2008307109A JP2008307109A JP5228856B2 JP 5228856 B2 JP5228856 B2 JP 5228856B2 JP 2008307109 A JP2008307109 A JP 2008307109A JP 2008307109 A JP2008307109 A JP 2008307109A JP 5228856 B2 JP5228856 B2 JP 5228856B2
Authority
JP
Japan
Prior art keywords
image
affine transformation
transformation coefficient
work object
position detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008307109A
Other languages
English (en)
Other versions
JP2010133718A (ja
Inventor
満広 稲積
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008307109A priority Critical patent/JP5228856B2/ja
Publication of JP2010133718A publication Critical patent/JP2010133718A/ja
Application granted granted Critical
Publication of JP5228856B2 publication Critical patent/JP5228856B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)
  • Image Processing (AREA)

Description

本発明は、作業対象物の位置を検出する作業対象物の位置検出方法および位置検出装置に関する。
各種生産現場において、作業の自動化や省力化のため産業用ロボットが多用されている。このような産業用ロボットは、カメラなどの撮像機器を備え作業対象物を撮像し、撮像された画像を画像処理して作業対象物の位置を検出する。作業対象物と撮像機器とが相対的に動いている場合は、撮像された画像に動きボケが発生する。近年、産業用ロボットによる作業の高速化や高度化に伴い、高精度な位置決めが求められている。そのため、撮像された画像における動きボケの補正が重要になっている。
このような動きボケの補正方法としては、どのようにボケているかを推定し、画像に対してその逆特性を演算することにより、ボケていない画像を復元する方法がある。その方法の例として、移動物の動きに関する情報を撮像機器に設けられた加速度センサで検出し、検出した情報に基づいて動きによるボケの特性を示す点拡散関数(PSF:Point Spread Function)を求める。そして、この点拡散関数を用いてフーリエ変換、逆フーリエ変換などの演算処理を行いボケ補正、すなわち、ボケ画像から元画像を復元する方法が知られている(例えば、特許文献1参照)。
特開2008−165657号公報
しかしながら、上記の方法では、フーリエ変換、逆フーリエ変換が必要とされ、これらは非常に大きな演算量を必要とされる。また、フーリエ変換、逆フーリエ変換を精度良く行うためには、高い演算精度が求められる。そのため、演算処理に多大な時間を要してしまうという課題がある。
また、撮像機器による画像撮像時に画像に撮像素子から発生するノイズなどが重畳される場合がある。多くの場合、このようなノイズは白色ノイズに近いと考えられる。上記の方法は、元画像を復元する演算の過程において、点拡散関数のフーリエ変換の逆数を用いる。そのため、点拡散関数のフーリエ変換に0、あるいは非常に小さい値がある場合、画像に含まれるノイズが非常に小さなものであるとしても、それが大きく拡大されてしまうことになる。つまりノイズの影響が大きくなり、復元される元画像の正確性が損なわれる可能性がある。すなわち、ノイズ等の影響を受けやすいという課題がある。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。
(適用例1)作業対象物を撮像機器で撮像して得られたボケ画像から前記作業対象物の位置を検出する作業対象物の位置検出方法であって、前記作業対象物のモデルに対して、第1のアフィン変換係数でアフィン変換を施し仮定元画像を生成する仮定元画像生成工程と、ボケの特性を示す点拡散係数を求める点拡散係数算出工程と、前記仮定元画像に対して、前記点拡散係数との畳み込み演算を行い前記仮定元画像の合成ボケ画像を生成する合成ボケ画像生成工程と、生成された前記合成ボケ画像と撮像された前記ボケ画像とを比較して差異を抽出する画像比較工程と、前記画像比較工程で抽出された差異に基づいて前記第1のアフィン変換係数を修正して第2のアフィン変換係数を求めるアフィン変換係数修正工程と、修正された前記第2のアフィン変換係数により、前記作業対象物の位置を検出する位置検出工程と、を有することを特徴とする作業対象物の位置検出方法。
この方法によれば、作業対象物および基本配置等を示すモデルに対して、平行移動、回転、拡大縮小等の任意の係数(第1のアフィン変換係数)でアフィン変換を行い仮定元画像を生成して、さらに、撮像して得られるボケ画像のボケ特性に近い点拡散係数の畳み込み演算を行い、作業対象物の合成ボケ画像を生成することができる。そして、撮像して得られる作業対象物の実際のボケ画像と上記の作業対象物の合成ボケ画像とを比較して位置的な差異を抽出することができる。その位置的な差異を、合成ボケ画像の元画像である仮定元画像を生成したときのアフィン変換の係数(第1のアフィン変換係数)の修正値(第2のアフィン変換係数)として表すことができる。なお、アフィン変換係数とは、特定の物体を平行移動させる平行移動量、回転させる回転量、および拡大縮小させる倍率等を示すことができる係数である。そのため、作業対象物のモデルの基本配置からの平行移動量、回転量および拡大縮小倍率等を知ることができ、作業対象物の位置を知ることができる。
この方法では、演算量の多いフーリエ変換や逆フーリエ変換を用いず、アフィン変換操作と点拡散係数との畳み込み演算で作業対象物の位置を知ることができる。そのため、フーリエ変換や逆フーリエ変換を必要とする方法と比較して、演算量を少なくすることができる。また、長いデータ長さの積和演算を必要とするフーリエ変換や逆フーリエ変換のような高い演算精度を必要としない。従って、演算処理に要する時間を低減することができるとともに、より容易に作業対象物の位置を検出することができる。また、この方法では、点拡散係数のフーリエ変換の逆数を用いない。すなわち、逆数演算を行わないために、ノイズの影響を拡大するようなことはない。むしろ相関演算などにおいてはある領域の積和が行われるために、ノイズの影響を小さくすることができる。
(適用例2)前記アフィン変換係数修正工程で修正された前記第2のアフィン変換係数により前記仮定元画像を更新する仮定元画像更新工程を有し、前記合成ボケ画像生成工程において、更新された前記仮定元画像に対して前記点拡散係数との畳み込み演算を行い第2の合成ボケ画像を生成し、前記画像比較工程において、前記第2の合成ボケ画像と撮像された前記ボケ画像とを比較して差異を抽出して、前記アフィン変換係数修正工程において、前記画像比較工程で抽出された差異に基づいて前記第2のアフィン変換係数の修正値を求め、前記第2のアフィン変換係数の修正値が所定の値以上である場合は、所定の値以下になるまで上記作業を繰り返すことを特徴とする上記の作業対象物の位置検出方法。
この方法によれば、合成ボケ画像と撮像されたボケ画像との画像比較を、用いられるアフィン変換係数(修正値)が所定の値以下になるまで繰り返し行うことができる。すなわち、繰り返し処理により、逐次的に推定される位置検出精度を改善することが可能である。
(適用例3)前記画像比較工程において、前記合成ボケ画像に示される前記作業対象物の重心および前記ボケ画像に示される前記作業対象物の重心を推定し、前記重心同士間の相対位置を比較して、前記位置検出工程において、前記重心同士間の相対位置から平行移動量を推定することを特徴とする上記の作業対象物の位置検出方法。
この方法によれば、合成ボケ画像に示される作業対象物の重心および撮像されたボケ画像に示される作業対象物の重心を推定して、推定された重心の位置および重心同士間の距離を推定することができる。そのため、双方の作業対象物を重ね合わせるのに必要な平行移動量、回転量を推定することができる。その結果、平行移動に関するアフィン変換係数の修正値を知ることができる。
(適用例4)前記画像比較工程において、前記合成ボケ画像に示される前記作業対象物の重心からのモーメントおよび前記ボケ画像に示される前記作業対象物の重心からのモーメントを推定し、前記合成ボケ画像の前記モーメントの分布と前記ボケ画像の前記モーメントの分布とを比較して、前記位置検出工程において、前記モーメントの分布位置の違いから回転量を推定することを特徴とする上記の作業対象物の位置検出方法。
この方法によれば、合成ボケ画像に示される作業対象物および撮像されたボケ画像に示される作業対象物に対して、推定された重心回りのモーメントの分布を求めることができる。そして、それぞれの作業対象物における重心回りのモーメントの分布の違いを推定して、双方の作業対象物を重ね合わせるのに必要な回転量を推定することができる。そのため、回転に関するアフィン変換係数の修正値を知ることができる。
(適用例5)前記モデルは、前記モデルを撮像したモデル画像もしくは前記モデルを構成するデータであるモデルデータであることを特徴とする上記の作業対象物の位置検出方法。
この方法によれば、モデルとして実際に撮像されたモデル画像やCAD/CAMデータ等のモデルデータのいずれかを仮定元画像のベースとして使用することができる。
(適用例6)前記モデル画像もしくは前記モデルデータを格納するモデル格納手段を備え、前記モデル格納手段には、前記モデルの背景となる背景画像を格納して、前記仮定元画像生成工程もしくは前記仮定元画像更新工程において、アフィン変換を施した前記モデルと前記背景画像とを合成して前記仮定元画像を作成することを特徴とする上記の作業対象物の位置検出方法。
この方法によれば、背景画像の明度等を調整することにより、作業対象物をより鮮明に表すことができる。また、実際に撮像されるボケ画像の背景と同じ背景に合わせることができる。その結果、作業対象物を認識しやすくなり、画像比較工程での比較処理を容易に行うことができる。
(適用例7)作業対象物を撮像機器で撮像して得られたボケ画像から前記作業対象物の位置を検出する作業対象物の位置検出装置であって、前記作業対象物のモデルに対して第1のアフィン変換係数でアフィン変換を施し仮定元画像を生成する仮定元画像生成部と、ボケの特性を示す点拡散係数を求める点拡散係数算出部と、前記仮定元画像に対して前記点拡散係数との畳み込み演算を行い、前記仮定元画像の合成ボケ画像を生成する合成ボケ画像生成部と、生成された前記合成ボケ画像と撮像された前記ボケ画像とを比較して差異を抽出する画像比較部と、前記画像比較部で抽出された差異に基づいて前記第1のアフィン変換係数を修正して第2のアフィン変換係数を求めるアフィン変換係数修正部と、修正された前記第2のアフィン変換係数より前記作業対象物の位置を検出する位置検出部と、を備えることを特徴とする作業対象物の位置検出装置。
この装置によれば、作業対象物および基本配置等を示すモデルに対して、平行移動、回転、拡大縮小等の任意の係数(第1のアフィン変換係数)でアフィン変換を行い仮定元画像を生成して、さらに、撮像して得られるボケ画像のボケ特性に近い点拡散係数の畳み込み演算を行い、作業対象物の合成ボケ画像を生成することができる。そして、撮像して得られる作業対象物の実際のボケ画像と上記の作業対象物の合成ボケ画像とを比較して位置的な差異を抽出することができる。その位置的な差異を、合成ボケ画像の元画像である仮定元画像を生成したときのアフィン変換の係数(第1のアフィン変換係数)の修正値(第2のアフィン変換係数)として表すことができる。なお、アフィン変換係数とは、特定の物体を平行移動させる平行移動量、回転させる回転量、および拡大縮小させる倍率等を示すことができる係数である。そのため、作業対象物のモデルの基本配置からの平行移動量、回転量および拡大縮小倍率等を知ることができ、作業対象物の位置を知ることができる。
この装置において、演算量の多いフーリエ変換や逆フーリエ変換を用いず、アフィン変換操作と点拡散係数との畳み込み演算で作業対象物の位置を知ることができる。そのため、フーリエ変換や逆フーリエ変換を必要とする方法と比較して、演算量を少なくすることができる。また、長いデータ長さの積和演算を必要とするフーリエ変換や逆フーリエ変換のような高い演算精度を必要としない。従って、演算処理に要する計算時間を低減することができるとともに、より容易に作業対象物の位置を検出することができる。また、この方法では、点拡散係数のフーリエ変換の逆数を用いない。すなわち、逆数演算を行わないために、ノイズの影響を拡大するようなことはない。むしろ相関演算などにおいてはある領域の積和が行われるために、ノイズの影響を小さくすることができる。
(適用例8)前記アフィン変換係数修正部で修正された前記第2のアフィン変換係数により前記仮定元画像を更新する仮定元画像更新部を有し、前記合成ボケ画像生成部において、更新された前記仮定元画像に対して前記点拡散係数との畳み込み演算を行い第2の合成ボケ画像を生成し、前記画像比較部において、前記第2の合成ボケ画像と撮像された前記ボケ画像とを比較して差異を抽出して、前記アフィン変換係数修正部において、前記画像比較部で抽出された差異に基づいて前記第2のアフィン変換係数の修正値を求め、前記第2のアフィン変換係数の修正値が所定の値以上である場合は、所定の値以下になるまで上記作業を繰り返すことを特徴とする上記の作業対象物の位置検出装置。
この装置によれば、合成ボケ画像と撮像されたボケ画像との画像比較を、用いられるアフィン変換係数(修正値)が所定の値以下になるまで繰り返し行うことができる。すなわち、繰り返し処理により、逐次的に推定される位置検出精度を改善することが可能である。
(位置検出装置について)
本発明の作業対象物の位置検出方法を適用した作業対象物の位置検出装置について、図1を参照して説明する。図1は、位置検出装置の構成例を示す図である。
図1に示すように、位置検出装置1は、ロボット10と制御部50とを備える。ロボット10は、いわゆる多関節型ロボットであり、ベース25とアーム17A,17Bと、ロボットハンド19を含む手首部18と、それぞれを回動自在に支持する関節部である第1軸12と第2軸14と第3軸16と、撮像機器としてのカメラ20とから構成されている。
ロボット10は、設置面にベース25により設置される。ベース25は、第1回転軸11を備え、ベース25より上方のロボット10本体を設置面との鉛直軸を中心に回転させることができる。ベース25には、第1軸12を介してアーム17Aが回動自在に取り付けられている。アーム17Aは、第2回転軸13を備え、アーム17A自身が軸方向に回転することができる。アーム17Aには、第2軸14を介してアーム17Bが回動自在に取り付けられている。アーム17Bは、第3回転軸15を備え、アーム17B自身が軸方向に回転することができる。アーム17Bには、第3軸16を介して手首部18が回動自在に取り付けられている。
手首部18の先端にはロボットハンド19が設けられ、作業対象物としてのワークWに作業を施す。また、手首部18の先端部にはカメラ20が装着されている。カメラ20は、いわばロボット10の眼として機能するものであり、例えば、CCDのような撮像素子によりロボットハンド19が作業する方向を撮像する。
これらの第1〜3軸12,14,16、第1〜3回転軸11,13,15およびロボットハンド19は、図示しないモータや空圧機器等により動作する複数の図示しないアクチュエータの駆動により回動するように構成されている。複数のアクチュエータは、制御部50からケーブル85を介して送られる制御信号に基づいて駆動するように構成されている。また、カメラ20は所定の露出時間でワークW等を撮像し、撮像した画像信号はケーブル86を介して制御部50に送られる。
制御部50は、少なくとも、画像処理装置30と、記憶装置40と、コンピュータ60とから構成されている。画像処理装置30は、少なくとも、画像入力部31と、画像生成部32と、画像比較処理部33と、位置検出部34とを備える。記憶装置40は、少なくとも、モデル格納部42と、検出結果格納部44とを備える。画像生成部32は、仮定元画像生成部36と、仮定元画像更新部37と、合成ボケ画像生成部38と、点拡散係数(PSF)算出部46とを有する。画像比較処理部33は、画像比較部47と、アフィン変換係数修正部48とを有する。
コンピュータ60は、中央処理装置として機能し、図示しないCPU、RAM、ROM、HDD、シーケンサおよびロボットコントローラ等からなるハードウェア資源と、ROMやHDD等に記憶された種々のソフトウェアとを有機的に協働させることにより、ロボット10、画像処理装置30、および記憶装置40等を総括的に制御するものである。制御部50の動作については後述する。
(ロボットの作業について)
上述のロボット10の作業について、図1、図2および図3を参照して説明する。図2は、ワークの例を示す図であり、図3は、カメラで撮像されたワークの画像を示す図である。
ロボット10は、図1に示すベルトコンベア5により矢印C方向に搬送される作業対象物としてのワークWに対して、作業を実施する。本実施形態では、生産効率向上、設備の汎用化および簡素化のため、ワークWの整列装置や位置決め装置を設けていない。そのため、ワークWは、ランダムな順番および姿勢で搬送され、それぞれに固有の作業が実施される。そのため、ロボット10は、作業を実施するワークWの位置や姿勢を検出する必要がある。従って、ロボット10は、図1に示すカメラ20を用いて、ベルトコンベア5上を搬送されるワークWi(iはワークWの種類を表す自然数)を撮像してワークWiの位置検出を行う。
図2(a),(b)に示すように、本実施形態では、ワークWiとして、例えば、2種類のワークW1,W2が用いられる。図2(a)に示すワークW1は、例えば、2つの長方形の板が直角に配置されるような、いわゆる「くの字」状の形状に形成され、それぞれの長方形の部分には2つの貫通穴が設けられている。図2(b)に示すワークW2は、例えば、長方形の板状に形成され、平面には4つの貫通穴が設けられている。
これらのワークW1,W2は、ランダムな順番および姿勢で図1に示すベルトコンベア5により搬送され、ロボット10の作業場所に到達する。例えば、図2(c)に示すようなレイアウトで、ワークW1,W2がベルトコンベア5上に置かれ搬送されているとする。ワークW1およびワークW2の位置を検出するため、ロボット10の手首部18の先端部に設けられたカメラ20を用いて、ベルトコンベア5上のワークW1およびワークW2を撮像する。このとき、ロボット10の手首部18の動きを静止させるか、ワークW1およびワークW2を静止、すなわちベルトコンベア5を動きを静止させることが好ましい。ところが、このような方法では作業や移動動作が中断されてしまい、作業効率が著しく低下する。そのため、一般には、双方が移動動作を行っている状態で撮像する。
そのため、図3に示すように、撮像された画像は、ワークW1およびワークW2の画像が動きボケを含んだ、いわゆるボケ画像Bi(iは対象のワークWの種類を表す自然数)となってしまう場合が多い。そのままでは、ワークW1およびワークW2の位置を検出することができない。そのため、何らかの画像処理が必要である。従来の方法の一例として、ボケ画像がどのようにボケているかを推定し、ボケ画像に対してその逆特性を演算することにより、ボケていない元画像を復元する方法がある。ここで、本実施形態の位置検出方法との差異を明らかにするために、この方法を簡単に説明する。
従来の方法において、画像のボケは、下記の式(1)のようにモデル化される。この式(1)で示すように、元画像をImage、ボケ画像をBlur、画像がどのようにボケているのかを表すパラメーターである点拡散関数をPSFとすると、ボケ画像(Blur)は点拡散関数(PSF)と元画像(Image)との畳み込み演算で与えられる。点拡散関数(PSF)は、名前のとおり、本来1点であるデータが、どのように拡がっているのかを表す関数である。
Figure 0005228856
ここで、下記の式(2),(3),(4)のように、関数fに対するフーリエ変換操作をF[f]と表すと、元画像(Image)のフーリエ変換はimage、ボケ画像(Blur)のフーリエ変換はblur、点拡散関数(PSF)のフーリエ変換はpsfと表すことができる。畳み込み演算は、フーリエ変換により単なる乗算に変換されるため、式(1)のは下記の式(5)に変換される。
Figure 0005228856
Figure 0005228856
下記の式(6)のように、元画像のフーリエ変換(image)は、点拡散関数(PSF)のフーリエ変換である(psf)の逆数と、ボケ画像(Blur)のフーリエ変換である(blur)との積により得られる。関数fの逆フーリエ変換操作をIF[f]とすると、ボケの無い元画像(Image)は、式(6)で得られた元画像のフーリエ変換(image)を、式(7)のように逆フーリエ変換することにより得られる。
Figure 0005228856
Figure 0005228856
上述のような演算処理は、数学的処理としては単純なものであり、その一例として、ウィーナフィルタ処理などがある。しかし、実用上、この方法には大きな課題がある。繰り返しになるが、この方法はフーリエ変換、逆フーリエ変換が必要とされ、これらは非常に大きな演算量を必要とされる。また、フーリエ変換、逆フーリエ変換を精度良く行うためには、高い演算精度が求められる。また、図1に示すカメラ20による画像撮像時に画像に撮像素子から発生するノイズなどが重畳される場合がある。上記の方法は、元画像(Image)を復元する演算の過程において、点拡散関数(PSF)のフーリエ変換の逆数(1/psf)を用いる。そのため、点拡散関数(PSF)のフーリエ変換(psf)に0、あるいは非常に小さい値があった場合、画像に含まれるノイズが非常に小さなものとしても、それが非常に拡大されてしまうことになる。
(位置検出方法について)
ここで、本実施形態の位置検出方法について図4〜図6を参照して説明する。図4は、位置検出方法の流れを示すフローチャートであり、図5は、各画像の例を示す図である。図6は、位置検出方法、特に画像比較処理を説明する図である。
この位置検出方法は、上述のフーリエ変換や逆フーリエ変換を用いずに、演算量の少ない、かつ高い演算精度も必要としない畳み込み演算だけを用い、繰り返し演算により元画像を推定し、作業対象物としてのワークの位置を検出するものである。これらの処理は、図1に示す制御部50の画像処理装置30で、コンピュータ60の指令、制御により行われる。
図4に示すように、この位置検出方法は、モデル読み込み工程S1と、仮定元画像生成工程S2と、合成ボケ画像生成工程S3と、PSF算出工程S4と、実ボケ画像撮像工程S5と、実ボケ画像入力工程S6と、画像比較工程S7と、アフィン変換係数修正工程S8と、位置検出工程S10と、仮定元画像更新工程S11と、を有する。
まず、予め、位置検出の対象であるワークWiを、図1に示すカメラ20で撮像することにより、モデルとしてのモデル画像Mi(iは対象のワークWの種類を表す自然数)を作成する。このとき、モデル画像MiにおけるワークWiの配置が、位置検出に置ける基本配置となる。このモデル画像Miは、制御部50の記憶装置40のモデル格納部42に格納される。なお、以降説明の簡便のため、ワークW1に対する位置検出方法についてのみ説明する。ただし、ワークW2および他のワークWiであっても同様である。
図4に示すステップS1のモデル読み込み工程では、図1に示すモデル格納部42に格納されるワークW1のモデル画像M1を画像生成部32に読み込む。図5(a)に示すように、モデル画像M1はワークW1の基本配置を示す画像である。
ステップS2の仮定元画像生成工程では、読み込まれたモデル画像M1のワークW1の画像に対して、任意のアフィン変換係数A0で平行移動、回転、拡大縮小等のアフィン変換操作を行い画像変換を施す。その結果、図5(b)に示すように、アフィン変換係数A0で変換された画像、すなわち仮定元画像P1を得る。このアフィン変換係数A0は、例えば、前工程で実施されたロボット10による作業の結果、ベルトコンベア5上に配置されるであろうワークW1の位置を想定して決定してもよいし、当初のモデル画像M1と同様な配置になるように決定してもよい。以降の作業が容易になるように考慮して任意に設定することができる。次いで、ステップS3に進む。
ステップS3の合成ボケ画像生成工程では、前述の式(1)を用いて、仮定元画像P1のワークW1の画像に対して所定の点拡散係数(PSF)との畳み込み演算を行い、合成ボケ画像Ba1を生成する。このとき用いられる点拡散係数は、ステップS4のPSF算出工程で公知の点拡散係数の算出方法により算出される。点拡散係数の算出方法は、特に限定しないが、後述する実ボケ画像B1のボケ特性とできるだけ近くなるような点拡散係数を算出することが好ましい。そのためには、ベルトコンベア5の実搬送速度、ロボット10の手首部18の実移動速度等を考慮して決定することが好ましい。なお、この点拡散係数は、事前に算出して、制御部50の記憶装置40に記憶させておいてもよい。その結果、アフィン変換操作をされたワークW1が表される仮定元画像P1(図5(b)参照)をベースとした図5(c)に示す合成ボケ画像Ba1を得る。そして、ステップS7に進む。
上述のステップS1〜S3の作業とは別に、図4に示すステップS5およびステップS6の作業を実施する。ステップS5の実ボケ画像撮像工程では、図1に示すカメラ20を用いて、ベルトコンベア5により搬送される作業対象のワークW1を撮像する。このとき、カメラ20およびワークW1は双方とも静止状態ではないため、図5(d)に示すような動きボケを含んだいわゆる実ボケ画像B1となってしまう。
ステップS6の実ボケ画像入力工程では、カメラ20によって撮像された上記実ボケ画像B1を、図1に示す制御部50の画像処理装置30の画像入力部31に取り込む。そして、ステップS7に進む。
図4に示すステップS7の画像比較工程では、上記の合成ボケ画像生成工程S3で得られた合成ボケ画像Ba1と実ボケ画像撮像工程S5で得られた実ボケ画像B1とを、図1に示す画像比較部47で比較して差異を抽出する。
図6(a)に示すように、実ボケ画像B1と合成ボケ画像Ba1とは双方ともボケているため、このままでは比較することができない。そのため、実ボケ画像B1に示されるボケた状態のワークWb1の重心Gおよび合成ボケ画像Ba1に示されるボケた状態のワークWba1の重心Gaを推定する。
例えば、合成ボケ画像Ba1については、図5(a)に示すモデル画像M1の段階で重心Gaを点Gaとして作成しておき、合成ボケ画像となった点Gaの明度の分布を観察してボケた状態のワークWba1の重心Gaを推定してもよい。また、実ボケ画像B1に示されるボケた状態のワークWb1および合成ボケ画像Ba1に示されるボケた状態のワークWba1のそれぞれについて、最外縁を線分でつなぎ1つの物体として重心Gおよび重心Gaを推定してもよい。公知のラベリング処理による重心位置測定を適用してもよい。このようにして、実ボケ画像B1に示されるボケた状態のワークWb1の重心Gと合成ボケ画像Ba1に示されるボケた状態のワークWba1の重心Gaを推定する。そして、重心Gおよび重心Gaの相対位置および距離DからX方向の平行移動量(距離)dx、Y方向の平行移動量(距離)dyを推定する。
次いで、図6(b)に示すように、例えば、実ボケ画像B1に示されるボケた状態のワークWb1について、推定された重心GからワークWb1の外縁の主だった位置まで線分を複数引き、重心回りのモーメントNの分布を作成する。次に、同様に、合成ボケ画像Ba1に示されるボケた状態のワークWba1について、推定された重心GaからワークWba1の外縁の主だった位置まで線分を複数引き、重心回りのモーメントNaの分布を作成する。そして、モーメントNの分布およびモーメントNaの分布に着目して、X軸,Y軸からの角度をそれぞれ求める。
例えば、図6(b)に示す実ボケ画像B1のワークWb1の「くの字」形状の頂点に向かうモーメントN1に着目すると、モーメントN1は、X軸からα°の角度を有している。合成ボケ画像Ba1のワークWba1の「くの字」形状の頂点に向かうモーメントNa1に着目すると、モーメントNa1は、X軸からβ°の角度を有している。従って、モーメントNa1は、モーメントN1に対して(β−α)°の角度差を有していることがわかる。このことにより、実ボケ画像B1に示されるボケた状態のワークWb1は、合成ボケ画像Ba1に示されるボケた状態のワークWba1に対して(β−α)°反時計方向に回転していることが推定される。このようにして、回転量θを推定する。
また、拡大縮小については、図1に示すロボット10に設けられたカメラ20を用いて画像を取得するため、ワークWiとカメラ20との位置(距離)等の撮像条件を事前に知ることができる。そのため、拡大縮小の割合については、事前に求めておくものとする。ただし、例えば、実ボケ画像B1に示されるボケた状態のワークWb1および合成ボケ画像Ba1に示されるボケた状態のワークWba1について、最外縁に相当する面積をそれぞれ求めその面積を比較することによって拡大縮小の割合を求めることもできる。
図4に示すステップS8のアフィン変換係数修正工程では、上記の方法で推定したX方向の平行移動量(距離)dx、Y方向の平行移動量(距離)dy、回転量θおよび拡大縮小の割合を用いて、仮定元画像生成工程S2で使用したアフィン変換係数A0を修正し、新たなアフィン変換係数A1を生成する。次いで、ステップS9において、修正されたアフィン変換係数A1が所定の値以下か否かを判断する。なお、この所定の値(閾値)とは、ロボット10の作業の内容、必要とされる精度、ワークWiの種類、大きさ等により任意に設定される。
アフィン変換係数A1が所定の値以下でなければ(NO)、ステップS11の仮定元画像更新工程に進む。仮定元画像更新工程S11では、仮定元画像生成工程S2で生成された仮定元画像P1のワークW1の画像に対して、アフィン変換係数A1で平行移動、回転、拡大縮小等の操作を行い画像変換を施して図5(e)に示す仮定元画像P2を得る。そして、上述の合成ボケ画像生成工程S3、画像比較工程S7およびアフィン変換係数修正工程S8の作業を行い、再修正されたアフィン変換係数A2を得る。その後、ステップS9において、再修正されたアフィン変換係数A2が所定の値以下か否かを判断する。アフィン変換係数A2が所定の値以上(NO)であれば、ステップS11の仮定元画像更新工程に再度進み、アフィン変換係数Aが所定の値以下になるまで上記の作業を繰り返す。
ステップS9において、アフィン変換係数A1もしくは修正されたアフィン変換係数A2が所定の値以下(YES)であれば、ステップS10の位置検出工程に進む。アフィン変換係数Aが、所定の値以下であると言うことは、合成ボケ画像Ba1が実ボケ画像B1とがほぼ一致したと判断することができる。合成ボケ画像Ba1の点拡散係数は、図1に示すPSF算出部46で実ボケ画像B1のボケ特性とできるだけ近くなるように算出されている。すなわち、合成ボケ画像Ba1と実ボケ画像B1とは、ボケの特性である点拡散係数がほぼ同一であると言える。従って、合成ボケ画像Ba1の元となる仮定元画像Piと、実ボケ画像B1の元となる未知である真の元画像とは、ほぼ同一であると推定できる。
合成ボケ画像Ba1の元となる仮定元画像Piは、ワークW1の基本配置を示す画像であるモデル画像M1に対して、アフィン変換係数A0、アフィン変換係数A1・・・と順次アフィン変換をして生成もしくは更新されている。すなわち、仮定元画像Piに表されるワークW1の位置は、アフィン変換係数Aもしくはアフィン変換係数Aの修正履歴から検出されることができる。合成ボケ画像Ba1の元となる仮定元画像Piと、実ボケ画像B1の元となる未知である真の元画像とは、ほぼ同一であるため、仮定元画像Piで検出されたワークWiの位置は、未知である真の元画像に表されるワークWiの位置とほぼ同一であると判断できる。位置検出工程S10では、このようにして、未知である真の元画像に表されるワークWiの位置を検出することができる。なお、位置検出の誤差については、修正されるアフィン変換係数Aが限りなく小さくなるまで上記作業を繰り返すことによって、十分小さくすることができる。
次いで、ステップS12に進み、次の位置検出を行うワークWiがあるか否かを判断する。次の位置検出を行うワークWiがある(YES)場合は、モデル読み込み工程S1および実ボケ画像撮像工程S5に戻り、上述の作業を繰り返す。次の位置検出を行うワークWiがない(NO)場合は、本作業を終了する。
以下、本実施形態の効果を記載する。
(1)上述の位置検出方法は、フーリエ変換、逆フーリエ変換を用いず、撮像されたボケ画像Bとモデル画像Mに対して、アフィン変換操作と点拡散係数との畳み込み演算を行って生成された合成ボケ画像Baとの比較処理で差異を抽出する。そして、その差異に基づいてアフィン変換係数を修正して、その修正値からワークWiの位置を求めるという従来にはない方法である。このときの演算処理の大部分はアフィン変換操作と点拡散係数との畳み込み演算である。従って、繰り返し演算を行ったとしても、フーリエ変換、逆フーリエ変換を必要とする従来手法に比較して、少ない演算量でワークWiの位置を検出することができる。そのため、演算処理にかかる計算時間を低減することができ、ロボット10による作業の効率化に寄与することができる。
(2)また、上述の位置検出方法は、修正されるアフィン変換係数Aもしくはアフィン変換係数Aの修正値が所定の値(閾値)以下になるまで繰り返し、演算処理が行われる。そのため、誤差を十分小さくすることができる。すなわち、ボケ画像B同士の比較であっても、ワークWiの位置を十分検出することができる。なお、この所定の値は、ロボット10の作業の内容、必要とされる精度、ワークWiの種類、大きさ等により任意に設定することができるため、作業の無駄が低減される。
(3)上述の位置検出方法は、アフィン変換操作と点拡散係数との畳み込み演算でワークWiの位置を検出することができる。そのため、長いデータ長さの積和演算を必要とするフーリエ変換、逆フーリエ変換を行う従来手法に比較して、高い演算精度を必要としないでワークWiの位置を検出することができる。そのため、演算処理にかかる計算時間を低減することができ、ロボット10による作業の効率化に寄与することができる。
(4)上述の位置検出方法は、逆数演算を行わないために、ノイズの影響を拡大するようなことはない。むしろ相関演算などにおいてはある領域の積和が行われるために、ノイズの影響を逆に小さくすることができる。従って、ワークWiの位置をより正確に検出することができる。
(5)上述の位置検出方法は、元画像を推定する処理そのものにおいて、モデル画像Mに対するアフィン変換係数A、つまり、モデルに対する平行移動、回転、拡大縮小に対応する係数を求める。すなわち、このアフィン変換係数Aを用いることにより、モデルの位置からのワークWiの位置が自動的に求まる。つまり、元画像を推定する処理と、ワークWiの位置を推定する処理を同時に行うことができる。なお、従来手法においては、仮にボケの無い元画像が求まったとしても、ワークWiの位置を求めるのは、その画像を用いた別処理となる。そのため、処理にかかる時間を低減することができ、ロボット10による作業の効率化に寄与することができる。
以上、本発明の実施形態について説明したが、上記実施形態に対しては、本発明の趣旨から逸脱しない範囲で様々な変形を加えることができる。例えば上記実施形態以外の変形例は、以下の通りである。
(変形例1)本発明の実施形態では、モデル画像Miとしては、ワークWiをカメラ20により撮像した場合について、説明したがこれに限定されない。モデル画像Miの元になるモデルは、例えば、ワークWiのCAD/CAMデータであるモデルデータであってもよい。この場合でも同様な効果を奏することができる。
(変形例2)また、モデル画像Miの背景である背景画像は、別途生成して、図1に示す制御部50の記憶装置40のモデル格納部42に格納し、図4に示すモデル読み込み工程S1でモデル画像Miとともに背景画像を読み込み、仮定元画像生成工程S2で、モデル画像Miと合成して仮定元画像Pを生成してもよい。この場合、背景画像は、モデル画像Miに表されるワークWiの画像が強調されるように明度差をつけてもよい。または、実ボケ画像撮像工程S5で撮像されるワークWiの背景、すなわちベルトコンベア5の表面と同様な背景画像を用意してもよい。このようにすることによって、画像比較工程S7でのボケ画像B,Ba同士を容易に比較することができる。
なお、本実施形態では、ロボット10として多関節型ロボットを採用したが、これに限定されるものではなく、スカラー型のロボットであってもよい。また、ロボット10の用途は、ロボットハンド19による部品の把持、ハンダ付けや溶接のような加工を行う等様々な用途が想定される。さらに、産業用ロボットに限らず、医療用ロボットや家庭用ロボットであってもよい。
位置検出装置の構成例を示す図。 ワークの例を示す図。 カメラで撮像されたワークの画像を示す図。 位置検出方法の流れを示すフローチャート。 各画像の例を示す図。 位置検出方法、特に画像比較処理を説明する図。
符号の説明
1…位置検出装置、10…ロボット、20…カメラ、30…画像処理装置、32…画像生成部、33…画像比較処理部、36…仮定元画像生成部、37…仮定元画像更新部、38…合成ボケ画像生成部、42…モデル格納部、47…画像比較部、48…アフィン変換係数修正部、50…制御部、Ai…アフィン変換係数、Bi…実ボケ画像、Bai…合成ボケ画像、Mi…モデル画像、Pi…仮定元画像、Wi…作業対象物としてのワーク、G,Ga…重心、N,Na…モーメント、S1…モデル読み込み工程、S2…仮定元画像生成工程、S3…合成ボケ画像生成工程、S5…実ボケ画像撮像工程、S7…画像比較工程、S8…アフィン変換係数修正工程、S10…位置検出工程、S11…仮定元画像更新工程。

Claims (8)

  1. 作業対象物を撮像機器で撮像して得られたボケ画像から前記作業対象物の位置を検出する作業対象物の位置検出方法であって、
    前記作業対象物のモデルに対して、第1のアフィン変換係数でアフィン変換を施し仮定元画像を生成する仮定元画像生成工程と、
    ボケの特性を示す点拡散係数を求める点拡散係数算出工程と、
    前記仮定元画像に対して、前記点拡散係数との畳み込み演算を行い前記仮定元画像の合成ボケ画像を生成する合成ボケ画像生成工程と、
    生成された前記合成ボケ画像と撮像された前記ボケ画像とを比較して差異を抽出する画像比較工程と、
    前記画像比較工程で抽出された差異に基づいて、前記第1のアフィン変換係数を修正して第2のアフィン変換係数を求めるアフィン変換係数修正工程と、
    修正された前記第2のアフィン変換係数により、前記作業対象物の位置を検出する位置検出工程と、を有することを特徴とする作業対象物の位置検出方法。
  2. 前記アフィン変換係数修正工程で修正された前記第2のアフィン変換係数により、前記仮定元画像を更新する仮定元画像更新工程を有し、
    前記合成ボケ画像生成工程において、更新された前記仮定元画像に対して、前記点拡散係数との畳み込み演算を行い第2の合成ボケ画像を生成し、
    前記画像比較工程において、前記第2の合成ボケ画像と撮像された前記ボケ画像とを比較して差異を抽出して、
    前記アフィン変換係数修正工程において、前記画像比較工程で抽出された差異に基づいて前記第2のアフィン変換係数の修正値を求め、
    前記第2のアフィン変換係数の修正値が所定の値以上である場合は、所定の値以下になるまで上記作業を繰り返すことを特徴とする請求項1に記載の作業対象物の位置検出方法。
  3. 前記画像比較工程において、前記合成ボケ画像に示される前記作業対象物の重心および前記ボケ画像に示される前記作業対象物の重心を推定し、前記重心同士間の相対位置を比較して、
    前記位置検出工程において、前記重心同士間の相対位置から平行移動量を推定することを特徴とする請求項1または2に記載の作業対象物の位置検出方法。
  4. 前記画像比較工程において、前記合成ボケ画像に示される前記作業対象物の重心からのモーメントおよび前記ボケ画像に示される前記作業対象物の重心からのモーメントを推定し、前記合成ボケ画像の前記モーメントの分布と前記ボケ画像の前記モーメントの分布とを比較して、
    前記位置検出工程において、前記モーメントの分布位置の違いから回転量を推定することを特徴とする請求項1乃至3のいずれか一項に記載の作業対象物の位置検出方法。
  5. 前記モデルは、前記モデルを撮像したモデル画像もしくは前記モデルを構成するデータであるモデルデータであることを特徴とする請求項1乃至4のいずれか一項に記載の作業対象物の位置検出方法。
  6. 前記モデル画像もしくは前記モデルデータを格納するモデル格納手段を備え、前記モデル格納手段には、前記モデルの背景となる背景画像を格納して、
    前記仮定元画像生成工程もしくは前記仮定元画像更新工程において、アフィン変換を施した前記モデルと前記背景画像とを合成して前記仮定元画像を作成することを特徴とする請求項5に記載の作業対象物の位置検出方法。
  7. 作業対象物を撮像機器で撮像して得られたボケ画像から前記作業対象物の位置を検出する作業対象物の位置検出装置であって、
    前記作業対象物のモデルに対して、第1のアフィン変換係数でアフィン変換を施し仮定元画像を生成する仮定元画像生成部と、
    ボケの特性を示す点拡散係数を求める点拡散係数算出部と、
    前記仮定元画像に対して、前記点拡散係数との畳み込み演算を行い前記仮定元画像の合成ボケ画像を生成する合成ボケ画像生成部と、
    生成された前記合成ボケ画像と撮像された前記ボケ画像とを比較して差異を抽出する画像比較部と、
    前記画像比較部で抽出された差異に基づいて、前記第1のアフィン変換係数を修正して第2のアフィン変換係数を求めるアフィン変換係数修正部と、
    修正された前記第2のアフィン変換係数により、前記作業対象物の位置を検出する位置検出部と、を備えることを特徴とする作業対象物の位置検出装置。
  8. 前記アフィン変換係数修正部で修正された前記第2のアフィン変換係数により、前記仮定元画像を更新する仮定元画像更新部を有し、
    前記合成ボケ画像生成部において、更新された前記仮定元画像に対して前記点拡散係数との畳み込み演算を行い第2の合成ボケ画像を生成し、
    前記画像比較部において、前記第2の合成ボケ画像と撮像された前記ボケ画像とを比較して差異を抽出して、
    前記アフィン変換係数修正部において、前記画像比較部で抽出された差異に基づいて前記第2のアフィン変換係数の修正値を求め、
    前記第2のアフィン変換係数の修正値が所定の値以上である場合は、所定の値以下になるまで上記作業を繰り返すことを特徴とする請求項7に記載の作業対象物の位置検出装置。
JP2008307109A 2008-12-02 2008-12-02 作業対象物の位置検出方法および位置検出装置 Active JP5228856B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008307109A JP5228856B2 (ja) 2008-12-02 2008-12-02 作業対象物の位置検出方法および位置検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008307109A JP5228856B2 (ja) 2008-12-02 2008-12-02 作業対象物の位置検出方法および位置検出装置

Publications (2)

Publication Number Publication Date
JP2010133718A JP2010133718A (ja) 2010-06-17
JP5228856B2 true JP5228856B2 (ja) 2013-07-03

Family

ID=42345160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008307109A Active JP5228856B2 (ja) 2008-12-02 2008-12-02 作業対象物の位置検出方法および位置検出装置

Country Status (1)

Country Link
JP (1) JP5228856B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6626338B2 (ja) * 2015-02-05 2019-12-25 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6489649B2 (ja) * 2015-11-16 2019-03-27 株式会社 日立産業制御ソリューションズ モーションブラー補償装置、撮像システム、および、モーションブラー補償方法
CN113260941B (zh) * 2019-01-09 2023-10-24 三菱电机株式会社 控制装置及控制方法
JP7162574B2 (ja) * 2019-07-10 2022-10-28 三菱電機株式会社 制御装置および周波数特性の同定方法
CN117740792A (zh) * 2024-02-20 2024-03-22 宁德时代新能源科技股份有限公司 裸电芯检测系统及裸电芯检测系统的点检方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07105374A (ja) * 1993-10-08 1995-04-21 Daiichi Sokuhan Seisakusho:Kk 画像位置検出装置
JP3485052B2 (ja) * 1999-12-16 2004-01-13 日本電気株式会社 参照画像作成方法、パターン検査装置及び参照画像作成プログラムを記録した記録媒体
JP4340968B2 (ja) * 2004-05-07 2009-10-07 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP2008091979A (ja) * 2006-09-29 2008-04-17 Hitachi Ltd 画像高画質化装置、及びその方法、並びに画像表示装置

Also Published As

Publication number Publication date
JP2010133718A (ja) 2010-06-17

Similar Documents

Publication Publication Date Title
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
JP5228856B2 (ja) 作業対象物の位置検出方法および位置検出装置
CN104552341B (zh) 移动工业机器人单点多视角挂表位姿误差检测方法
CN111801198A (zh) 一种手眼标定方法、系统及计算机存储介质
JP2019155556A (ja) ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
JP2015176217A (ja) 画像処理装置、システム、画像処理方法、および画像処理プログラム
JP2010276447A (ja) 位置計測装置、位置計測方法およびロボットシステム
CN113379849A (zh) 基于深度相机的机器人自主识别智能抓取方法及系统
WO2019059343A1 (ja) ワーク情報処理装置およびワークの認識方法
Zhang et al. Point cloud based three-dimensional reconstruction and identification of initial welding position
JP2010184300A (ja) 姿勢変更システムおよび姿勢変更方法
JP6410411B2 (ja) パターンマッチング装置及びパターンマッチング方法
JP2015003348A (ja) ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法
JP6939729B2 (ja) 制御システム、制御方法およびプログラム
CN115219492B (zh) 一种三维物体的外观图像采集方法及装置
CN114310892B (zh) 基于点云数据碰撞检测的物体抓取方法、装置和设备
Wang et al. Study on the Target Recognition and Location Technology of industrial Sorting Robot based on Machine Vision.
JP2005069757A (ja) 中心窩広視野画像を利用したカメラ位置姿勢推定方法及びシステム
Jung et al. Control of the manipulator position with the kinect sensor
JP7112528B2 (ja) 作業座標作成装置
JP2014238687A (ja) 画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム
TWI696529B (zh) 自動定位方法以及自動控制裝置
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法
Kim et al. Vision-force guided precise robotic assembly for 2.5 D components in a semistructured environment
CN112533739A (zh) 机器人控制装置、机器人控制方法以及机器人控制程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130304

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350