JP5567922B2 - 画像処理装置及びその制御方法 - Google Patents

画像処理装置及びその制御方法 Download PDF

Info

Publication number
JP5567922B2
JP5567922B2 JP2010164350A JP2010164350A JP5567922B2 JP 5567922 B2 JP5567922 B2 JP 5567922B2 JP 2010164350 A JP2010164350 A JP 2010164350A JP 2010164350 A JP2010164350 A JP 2010164350A JP 5567922 B2 JP5567922 B2 JP 5567922B2
Authority
JP
Japan
Prior art keywords
image processing
image
gaze
specific object
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010164350A
Other languages
English (en)
Other versions
JP2012028949A (ja
Inventor
修 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010164350A priority Critical patent/JP5567922B2/ja
Publication of JP2012028949A publication Critical patent/JP2012028949A/ja
Application granted granted Critical
Publication of JP5567922B2 publication Critical patent/JP5567922B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、画像を用いた演算処理によって物体の各部の三次元位置を計測するための画像処理装置及びその制御方法に関する。
一般に、撮像された画像から情報を抽出して例えばロボットを制御するシステムを構成する場合に、撮像された画像から情報を抽出する領域を設定する方法として認識対象の注目物体を含む領域の周囲領域を解析する手法が知られている。特許文献1では、外部の状況を撮像する撮像手段を有するロボット装置において、撮像手段から出力される画像信号に基づく画像中の注視領域の周囲に位置する周囲領域を解析する。そして、認識対象の注目物体が注視領域からはみ出している程度を示すはみ出し量を推定し、推定されたはみ出し量に基づいて注視点の位置を制御する。また、同様に撮像された画像の色情報を用いることにより注視領域を制御する手法が知られている(例えば非特許文献1、2参照)。
また、三次元位置計測の対象である注目物体に複数のスポット光を照射し、注目物体に形成されるマルチスポットパターンを撮影して得られた画像から当該注目物体の各部の三次元位置を算出する方法が提案されている(非特許文献3)。このような三次元位置計測では、スポットパターンが写っている領域を適切に設定すること、すなわち撮像された画像から情報を抽出する領域を適切に設定することが、計測精度の向上に対して重要である。
特開2003−191189号公報
Mei-Juan Chen他、"ROI Video CodingBased on H.263+ with Robust Skin-Color Detection Technique"、 IEEETransactionson Consumer Electronics, Vol. 49, No. 3, AUGUST 2003 三ツ谷祐輔他、"四脚歩行ロボット搭載用両眼視覚システムの開発"、 計測自動制御学会東北支部第188回研究集会 資料番号188-14 石川正俊他、"多点瞬時解析高速ビジョンによる運動/変形物体のリアルタイム三次元センシング"、日本ロボット学会誌, Vol.25, No.6, pp.1005-1013, 2007
上述の従来技術では、周辺領域を解析することにより、認識対象の注目物体が注視領域からはみ出していることを検知して注視領域を再設定することを目的としているのみである。すなわち、従来技術では、注視領域に対する画像処理(例えば三次元位置計測)のために必要とする情報をより適切に注視領域から抽出するために、撮像条件等を制御することは行っていない。また画像の色情報を用いる場合も、画像中の注視領域から必要な情報を抽出するために、注視領域に対する画像処理方法および撮像制御方法を変更することは想定していない。
本発明は、上記の課題に鑑みてなされたものであり、画像処理に適切な情報が注視領域から得られるように撮像条件を適切に設定することが可能な画像処理装置及びその制御方法を提供することを目的とする。
上記の目的を達成するための本発明の一態様による画像処理装置は以下の構成を備える。すなわち、
カメラで撮像して得られた画像から特定の物体を検出する検出手段と、
前記画像中に、前記検出手段で検出された特定の物体の予め定められた部分を含む注視領域を設定し、前記注視領域の周囲に周辺領域を設定する設定手段と、
前記設定手段により設定された前記周辺領域の画像情報を用いて、前記特定の物体の位置姿勢を算出する算出手段と、
前記設定手段により設定された前記注視領域の画像情報について予め定められた画像処理を行う画像処理手段と、
前記算出手段で算出された位置姿勢に基づいて、前記画像処理手段が実行する画像処理に用いる画像情報が前記注視領域から得られるように、前記カメラが前記特定の物体を撮像するための撮像条件を変更する変更手段とを備え
前記設定手段は、前記特定の物体の予め定められた部分と前記注視領域との相対的な位置関係、前記周辺領域と前記注視領域との相対的な位置関係、前記注視領域の大きさ、及び前記周辺領域の大きさの少なくともいずれかを、前記撮像条件に基づいて変更する。
本発明によれば、注視領域の周辺に設定された周辺領域の画像情報に基づいて、注視領域から画像処理に適切な画像情報が得られるように撮像条件を設定される。
第1実施形態による三次元位置計測処理を示すフロー図。 実施形態における装置構成例を示す図。 実施形態における装置構成例を示す図。 実施形態における注視領域および周辺領域の設定状況を示す図。 実施形態におけるCMOSセンサ部を示す図。 (a)は、注視領域対応ランプ電圧を示す図、(b)は周辺領域対応ランプ電圧を示す図。 三次元位置データ算出手法を示す図。 (a)は周辺領域の画像データを、(b)はエッジデータ抽出状況を、(c)はワイヤーフレームモデルの生成状況を、(d)はモデルフィッティング状況を示す図。 (a)はマルチスポット光パターンを、(b)はマルチスポット光の変形状況を、(c)はオクルージョン状況を示す図。 (a)は調整したマルチスポット光パターンを、(b)はスリット光パターンを示す図。 空間分解能が変更されたスポット光パターンを示す図。 第2実施形態の、周辺領域における画素数削減手法を示す図。 第3実施形態による三次元位置計測処理を示すフロー図。 第3実施形態よる、注視領域及び周辺領域の調整を説明する図。 第4実施形態による三次元位置計測処理を示すフロー図。 (a)は注視領域および周辺領域の設定状況を、(b)は調整後の注視領域および周辺領域の設定状況を示す図。 調整後の注視領域および周辺領域の設定状況を示す図。 モニタ画面の表示例を示す図。
以下、添付の図面を参照して本発明の好適な実施形態について説明する。
<第1実施形態>
図1に本実施形態における三次元位置計測のための撮像制御方法の処理フローチャートを示す。図1において、画像データ取得処理1では、カメラ等の撮像装置から画像データを取得する。物体検出/認識処理2では、画像データ取得処理1で取得された画像データから、周知の物体検出/認識処理により特定の物体を検出および認識する。注視領域/周辺領域設定処理3では、検出および認識した特定の物体の少なくとも一部が含まれるように注視領域を設定し、かつ注視領域の周囲に、注視領域よりも画像データの情報量を削減した周辺領域を設定する。パターン光照射処理4では、注視領域に対して例えばマルチスポット光からなるパターン光を照射する。三次元位置データ算出処理5では、パターン光が投影された注視領域の画像に基づいて、特定の物体に関する奥行き距離情報を算出する。すなわち、三次元位置データ算出処理5では、注視領域/周辺領域設定処理3による各領域の設定後に撮像装置により撮像された画像の注視領域における画像情報を用いて特定の物体の三次元位置が計測される。位置姿勢算出処理6は、注視領域/周辺領域設定処理3による各領域の設定後に撮像装置により撮像された画像の周辺領域の画像を用いて特定の物体の位置姿勢を算出する。撮像条件/演算処理条件変更処理7では、位置姿勢算出処理6により算出された特定物体の位置姿勢に基づいて撮像条件および演算処理条件を変更する。本実施形態においては、図1に示す処理フローを繰り返し、取得する動画像のフレームごとに、特定の物体の奥行き距離情報を含んだ三次元位置データを得ることを目的としている。
続いて、本実施形態における三次元位置計測のための撮像制御方法を実装するロボットシステムの構成例を図2を参照して説明する。本実施形態のロボットシステムは、撮像装置であるカメラ8、カメラ8を搭載したロボットアーム11、パターン光照射器13、パターン光照射器13を搭載したロボットアーム15、ロボットハンド17を搭載したロボットアーム19を有する。図2では、ロボットハンド17が対象物体であるネジ23をつかんだ状態が示されている。
更に、図2に示すロボットシステムにおいて、カメラコントローラ37はロボットアーム11に搭載されたカメラ8を制御する。カメラ用アームコントローラ38は、カメラが搭載されたロボットアーム11を制御する。照明コントローラ39は、ロボットアーム15に搭載されたパターン光照射器13を制御する。照明用アームコントローラ40は、パターン光照射器13が搭載されたロボットアーム15を制御する。ハンド・アームコントローラ41は、ロボットハンド17が搭載されたロボットアーム19、およびロボットハンド17を制御する。コンピュータ35は上記の構成において、三次元位置計測、ロボットによる作業(タスク)を実行させるべく各コントローラを統括的に制御する。モニタ36はコンピュータ35の制御下で各種表示を行う。
また、コンピュータ35は、専用のハードウエア(上述の各コントローラや回路)を用いて、或いはCPUがプログラムを実行することにより、図3に示す各部の機能を実現する。画像取得部9はカメラコントローラ37を制御することにより、カメラ8から画像を取得する。カメラ制御部10は、カメラコントローラ37を介してカメラ8の動作を制御する。カメラ用アーム制御部12は、カメラ用アームコントローラ38を介してカメラ8を搭載したロボットアーム11の動作を制御する。照明制御部14は、照明コントローラ39を介して3次元計測のためのパターン光照射器13を制御する。照明用アーム制御部16は、照明用アームコントローラ40を介して、パターン光照射器13を搭載したロボットアーム15の動作を制御する。ハンド制御部18は、ハンド・アームコントローラ41を介してロボットハンド17の動作を制御する。ハンド用アーム制御部20は、ハンド・アームコントローラ41を介してロボットハンド17を搭載したロボットアーム19の動作を制御する。また、それぞれの制御部は、BUS22を介して画像処理部21に接続される。
なお、カメラ8はCMOSカメラでもCCDカメラのどちらでも構わないが、本実施形態においてはCMOSカメラを用いることとする。また、カメラ8は、後述する画像領域設定サイズに対応して30〜1000fpsのフレームレートで画像を取得可能であるとする。
また図2、図3に示したように、カメラ8およびパターン光照射器13は、ロボットアームに搭載されており、コンピュータ35からの指示により、空間的な位置座標、照明または撮像の向き、撮像条件、および照明条件が可変であるものとする。以上のような構成を備えた本実施形態のロボットシステムにおける、図1に示した各処理の処理内容について、以下に詳細に説明する。
画像データ取得処理1では、画像取得部9が対象物体を含む画像をカメラ8により撮像し、画像処理部21に撮像した画像データを入力する。なお、本実施形態における対象物体はネジ23であり、ロボットハンド17によって把持されている。また、カメラ8およびパターン光照射器13の位置は、事前に設定された初期設定位置および初期設定角度に設定されているものとする。
続いて、物体検出/認識処理2において、画像処理部21は、取得した画像データに対して一般的なレンズ歪み補正等の前処理を施した後、所定の物体検出/認識技術により画像データから測定対象物体を検出および認識する。ここで、所定の物体検出/認識技術としては、既存の物体検出/認識技術の適用が可能であり、本実施形態においてはエッジ等の特徴量を抽出する特徴抽出処理技術と、抽出された特徴情報を基にしたモデルフィッティング処理技術を用いる。なお、モデルフィッティング処理を行う場合の測定対象物体のモデルデータは、画像処理部21の記憶部(不図示)に保持されているものとする。もちろん、物体検出/認識技術としては、測定対象物体を画像データから適切に検出/認識可能なものであればその他の手法を用いるものでも構わない。
次に、注視領域/周辺領域設定処理3において、物体検出/認識処理2で検出/認識した測定対象物体に対して、三次元位置データを算出する領域を注視領域として設定する。また、これと同時に注視領域の周囲に当該注視領域よりも画像データの情報量を削減した周辺領域を設定する。例えば本実施形態では、図4に示すように、対象物体であるネジ23の先端部を含むように注視領域24を設定し、同時に注視領域24に含まれないネジ部分を含む周辺領域25を設定する。ここで、ネジ23の先端部の領域は、事前に画像処理部21の記憶部に保持されているモデルデータにおいて指定されており、その先端部の領域の重心位置に対して注視領域24の中心位置が設定される。また、注視領域24のサイズは、画像上で検出および認識されたネジ23の先端部の領域を含むように設定される。なお、本実施形態において、注視領域24と周辺領域25の大きさ、注視領域24と先端部の領域との相対位置関係、注視領域24と周辺領域25との間の相対位置関係は固定であり、予め設定されているものとする。
なお本実施形態においては、図4に示すようにネジ23はロボットアーム19に搭載されたロボットハンド17によって把持されており、事前に設定された嵌合等のタスクに応じてロボットアーム19およびロボットハンド17によって移動される。ロボットによるネジ23の移動量が所定量を超えると、注視領域にネジ23の先端が入らなくなるので、物体検出/認識処理2からの処理を再度行う必要がある。
また、本実施形態では、例えば注視領域24に設定した部分の画像の輝度データの階調を10bitとし、周辺領域25に設定した部分の画像の輝度データの階調を8bitとする。ここで、注視領域24および周辺領域25のそれぞれの領域の画像データを取得する方法としては、まずカメラ8内のCMOSセンサ26において領域指定および輝度データの階調削減を実行する手法が挙げられる。例えば図5に示すように、CMOSセンサ26は、並列に画素データに相当する電圧値を読み出し、同時にAD変換回路によってAD変換を実行する構成を有する。なお、紙面の都合により、図5ではCMOSセンサ26の画素数を10×10として示している。
AD変換回路では、図5に示すように、コンパレータ27が画素の電圧値と、注視領域対応ランプ電圧回路30または周辺領域対応ランプ電圧回路31から入力されるランプ電圧とを比較する。そして、コンパレータ27により両者の一致が検出されるまでの時間をカウンタ28で計数することによりAD変換が実行される。なおカウンタ28の値は、ラッチ29に保持される。
上記構成において、注視領域24の行アドレス範囲を4および5、列アドレス範囲を4および5に指定したとする。また、周辺領域25を注視領域24の周囲の2画素分広い範囲(行アドレス範囲が2〜7で、列アドレス範囲が2〜7において、注視領域24を除いた領域)に指定したとする。本実施形態では、CMOSセンサから画素データを読み出す際に、設定された注視領域24および周辺領域25に対応する行・列のアドレス範囲のみを読み出し対象としてアクティブにする。これにより、注視領域24および周辺領域25の領域のみを読み出し、かつAD変換を実行することが可能となる。このような構成によれば、読み出す画像領域が限定されるため、画像全体を読み出す場合に対して画像の取得フレームレートが向上する効果がある。本実施形態の場合は、注視領域24および周辺領域25として読み出し領域を限定したことにより、200fpsのフレームレートで画像を取得する事ができるものとする。
またAD変換に際して、注視領域24に関してはランプ電圧の時間幅を、図6の(a)に示すように、
(カウンタのクロックサイクル=10ns)×210 ・・・(1)
と設定する。また、周辺領域25に関してはランプ電圧の時間幅を図6の(b)に示すように
(カウンタのクロックサイクル=10ns)×2 ・・・(2)
と設定する。こうして、注視領域24と周辺領域25のそれぞれにおける画像の輝度データを異なる階調でデジタル化することが可能となる。すなわち、周辺領域25の画像データの情報量を、注視領域24のものよりも低減させることができる。
なお、注視領域24および周辺領域25の設定、および周辺領域25における画像データの情報量削減手法は上述したものに限られない。例えば、カメラ8から画像を取得した後に、画像処理部21によって領域指定および輝度データの階調削減を実行する等の様々な手法が考えられる。
また、本実施形態では、上述したように注視領域/周辺領域設定処理3において、物体検出および物体認識結果を基にカメラ8内の処理として注視領域24および周辺領域25の設定を実現する。そのため、注視領域24および周辺領域25が設定された画像を取得できるのは、物体検出/認識処理2において処理の対象となった画像データの次のフレーム以降の画像データとなる。そこで本実施形態においては、注視領域24および周辺領域25が設定された画像は、物体検出/認識処理2で処理される画像の1フレーム後から取得できるものとする。したがって、以降で説明する処理は、すでに注視領域24および周辺領域25が設定された画像を対象としたものとする。
なお、1つのタスクにおける標準的な処理としては、前述した物体検出/認識処理2および注視領域/周辺領域設定処理3は最初の1回のみ実行される。そして、その後に画像データ取得処理により連続的に取得される画像に対しては、物体検出/認識処理2および注視領域/周辺領域設定処理3を省略し、以降で説明する処理を実行すればよい。ただし必要に応じて、1つのタスクにおける処理として、上述した物体検出/認識処理2および注視領域/周辺領域設定処理3を複数回実行するものであっても構わない。
続いて、パターン光照射処理4において、パターン光照射器13よるパターン光の照射を行う。なお本実施形態においては、初期状態におけるパターン光を照射する位置は、事前情報として与えられている初期状態における対象物体の位置とする。或いは、初期状態における対象物体の位置が事前情報として与えられていない場合には、モデルフィッティング処理で算出された画像中での対象物体の位置情報を空間的な位置情報に換算することでパターン光を照射する位置(対象物体の位置)を決定できる。なお、空間的な位置情報への換算は、カメラ8の位置、角度、およびズーム倍率等の撮像条件設定を用いて行うことができる。
本実施形態においては、パターン光照射器13は校正のとれた多数の点光源で構成されるマルチスポットパターンをレーザ照射する機能を有する。また照射するパターン光のパターンは、図9の(a)に示すように複数のスポットがマトリックス状に配置されたマルチスポットである。なお、パターン光のパターンとしては、このほかにも複数スリットを用いたものや格子状のパターンを用いることも可能である。
続いて、三次元位置データ算出処理5において、画像処理部21は、パターン光が照射された注視領域の画像データを用いて、奥行き距離情報を含んだ三次元位置データ算出処理を実行する。ここで、マルチスポットパターンを用いた、奥行き距離情報の算出を含む三次元位置データ算出手法に関して、図7を用いて説明する。
まず計測されるスポットは、パターン光照射器13から延びる投影直線siと、カメラ8の位置から延びる直線Pの交点に位置する。従って、これらの直線の幾何的な位置関係が既知であれば、空間点Mi=[xw, yw, zw]tは、カメラ8によって撮像された画像面上の画像点mi=[Xv, Yv]tから取得できる。ここで、添え字iは、それぞれの投影スポットの番号を示す。
このとき、パターン光照射器13から測定対象物への投影直線を以下の式(3)に示す。
Mi = c + δsi + c0i(i= 1, ...., Np) ・・・(3)
ここで、cはパターン光照射器の中心座標、siは各スポットの勾配、c0iは各スポットのオフセット座標を示す。また、Npは投影スポットの総数を示し、δは媒介変数を表す。
また撮像系に関する幾何拘束は以下の式(4)で示される。
PM’i = wm’i ・・・(4)
式(4)は、スポットiの空間点M’i = [Mt i,1]tが、透視投影行列Pと画像点m’i = [mt i,1]tの積で表されることを示している。
なお、wは0でない定数を示す。
ここで、c、si、Pが既知のパラメータであり、miが観測データ、すなわち画像として取得されるスポット位置に相当する。
画像処理部21は、パターン光が投影された注視領域24の画像データに対して投影されたスポットパターンに対応した特徴抽出およびパターンマッチング処理を実行することにより、画像上の2次元的な位置情報として観測データmiを算出する。
なお、画像データからスポットパターンの位置情報を算出する手法としては、前述した特徴抽出およびパターンマッチング処理以外の手法を用いても構わない。画像データからスポットパターンの位置情報を算出する手法の個別のバリエーションに関しては、本発明の主眼とするところではないため説明を省略する。
以上説明した結果として、上記の式(3)、(4)から空間点Miとして、パターン光照射位置の奥行き距離情報を含んだ三次元位置データを算出することが可能となる。なお、観測データmiのそれぞれがどの照射スポットに対応するかは、事前に確定されているものとする。以上説明した本実施形態で用いるマルチスポットパターンを用いた奥行き距離情報を含んだ三次元位置データ算出手法は、例えば非特許文献3に記載されている。
また、パターン光を用いた奥行き距離情報を含んだ三次元位置データ算出手法としては、前述した手法はあくまで一例でありその他の手法を用いたものであっても構わない。三次元位置データ算出手法の個別のバリエーションに関しては、本発明の主眼とするところではないため説明を省略する。
上述の注視領域の画像データに対する奥行き距離情報を含んだ三次元位置データ算出処理と並行して、画像処理部21は、位置姿勢算出処理6において周辺領域の画像データに対する位置姿勢算出処理を実行する。前述したように周辺領域25の画像データには、図8の(a)に示すように注視領域24に含まれないネジ部分が含まれる。本実施形態においては、位置姿勢の算出は、特徴抽出処理、ワイヤーフレームモデル生成、およびモデルフィッティングにより実現する。ここで、特徴抽出処理、ワイヤーフレームモデル生成、およびモデルフィッティングに関して説明を行う。まず、図8の(b)に示すように、画像処理部21は、特徴抽出処理により周辺領域25の画像データに対してエッジ抽出処理を実行する。続いて、画像処理部21は、図8の(b)に示すように抽出されたエッジデータに対して、エッジの連続性を検出することにより、図8の(c)に示すようなワイヤーフレームモデルを生成する。さらに、画像処理部21は、図8の(d)に示すように、抽出されたワイヤーフレームモデルに対して、事前に画像処理部21の記憶部に保持されたネジ23のモデルデータとのモデルフィッティングを実行することで、ネジ23の位置姿勢を算出する。
このとき、前述した物体検出/認識処理2によりネジ23は特定されている。このため、周辺領域25の画像データにおいて、図8の(a)に示すように注視領域24に含まれるネジ23の先端部の画像データが欠け、かつ輝度データの階調が8bitに削減されていても、画像上でのネジ23の位置姿勢は容易に算出することができる。
位置姿勢算出処理6で算出されるネジ23の位置姿勢情報は、注視領域24における三次元位置データの算出をより精度良く実行するために、カメラ8およびパターン光照射器13による撮像条件等を変更するのに用いられる。したがって、ネジ23の位置姿勢情報の算出には、周辺領域25の画像データを処理対象とすることで十分である。撮像条件/演算処理条件変更処理7は、算出されたネジ23の位置姿勢情報に基づいて、カメラ8及びパターン光照射器13のネジ23に対する空間的な相対位置、相対的な角度、パターン光のスポットパターン等の少なくともいずれかを変更する。
また、周辺領域25の画像データを用いた位置姿勢の算出結果の信頼度が所定のしきい値Thを下回る場合には、撮像条件/演算処理条件変更処理7による変更を禁止するようにしても良い。信頼度は、本実施形態では、周辺領域25に含まれる対象物体(ネジ23)の画像データの欠損比率(面積比)と、周辺領域25の画像データの削減値(解像度、階調数等)に対応して、部品の種類ごとに、事前に設定されている。ここで、画像データの欠損比率(面積比)は、例えば、位置姿勢算出処理6により算出された位置姿勢を有する対象物体の全面積と周辺領域に存在しない部分の面積との比として算出することができる。また例えば、以下の式(5)で示されるように信頼度を算出しても良い。
(信頼度)=(周辺領域の解像度)×(周辺領域の階調数)/(画像データの欠損比率) ・・・(5)
なお、信頼度が所定のしきい値Thを下回った場合には、周辺領域25の設定を調整することで信頼度の向上が可能であるが、それらの実施形態に関しては、第3実施形態および第4実施形態で説明を行う。また、信頼度が低下したことに応じて、上述した物体検出/認識処理2からの処理を繰り返すようにしても良い。
なお、周辺領域25の画像データを用いた位置姿勢計測手法としては、前述した手法以外を用いても構わない。測定対象物の位置姿勢を計測可能な手法であれば、その他の手法を用いても本発明の本質は損なわれない。
続いて、前述したように周辺領域25の画像データからネジ23の位置姿勢情報を得られれば、現状での、ネジ23とカメラ8およびパターン光照射器13との相対的な位置および角度を算出することができる。すなわち、カメラ8およびパターン光照射器13の位置および角度は、それぞれが搭載されたロボットアームの制御装置により指定される既知の情報である。したがって、周辺領域25から得られるネジ23の位置姿勢情報と統合することにより、容易に両者の相対位置および相対的な角度の情報を得ることができる。なお本実施形態においては、ネジ23とカメラ8およびパターン光照射器13との相対的な位置および角度の算出処理は、図1に示す位置姿勢算出処理6に含まれる。
続いて、撮像条件/演算処理条件変更処理7において、画像処理部21は、前述した周辺領域の画像データに対する演算処理結果に応じて、撮像条件および演算処理条件の変更を実行する。なお、撮像条件の変更としては、例えば、カメラ8の位置、角度、ズーム倍率の変更、パターン光照射器13による照明の位置、角度、照明パターンの変更の少なくともいずれかを挙げることができる。また、演算処理条件の変更は、例えば、撮像条件に変更に応じて画像処理(本例では三次元位置計測)に用いるパラメータを変更することが挙げられる。
前述したように、位置姿勢算出処理6において、ネジ23とカメラ8およびパターン光照射器13との相対的な位置および角度の情報が得られている。ここで注視領域24における奥行き距離情報を含んだ三次元位置データの算出処理を考える。例えばネジ23の注視すべき面とパターン光照射器13との相対位置関係が垂直方向から大きくずれていた場合、図9の(b)に示すようにパターン光の各スポットは変形してしまい、かつ照射面積が広がるため輝度値も低下する。従って、取得した画像の注視領域24において、特徴抽出およびパターンマッチング処理を実行する時に、画像上の2次元的なスポット位置miを算出する際の位置情報精度の劣化が生じる。その結果、奥行き距離情報を含んだ三次元位置データの算出精度も劣化してしまう。
また例えば図9の(c)に示すように、ネジ23の注視すべき面とカメラ8の間にロボットアーム32等の遮蔽物が入り込み、それが注視領域24にオクルージョンを生じさせてしまった場合も、三次元位置データの算出精度が劣化する。オクルージョン部のスポット位置miの位置情報が注視領域24の画像データから得られず、奥行き距離情報を含んだ三次元位置データの欠損が生じるためである。
これに対して本実施形態においては、撮像条件/演算処理条件変更処理7において、ネジ23の注視すべき面とパターン光照射器13との相対位置関係を垂直方向に修正するよう、パターン光照射器13の位置および角度が変更される。なお、この変更は、データ量を削減した周辺領域25の画像データを用いて算出された、ネジ23とパターン光照射器13との相対的な位置および角度の情報を基にしてなされる。また、撮像条件/演算処理条件変更処理7において、ネジ23とカメラ8、およびロボットアームとの相対的な位置および角度の情報を基にして、注視領域24にオクルージョンが生じないようにカメラ8の位置および角度が変更される。
以上の処理により、前述したようなパターン光の各スポットの変形や、オクルージョンを回避する事ができるため、結果として奥行き距離情報を含んだ三次元位置データの算出精度の劣化を防止することが可能となる。また、前述した周辺領域25に対する位置姿勢算出処理6の処理に関しては、周辺領域25の画像データの情報量を削減しているため、データ転送におけるトラフィック負荷および演算処理における処理負荷の両面を低減する事ができる。なお当然のことながら、撮像条件/演算処理条件変更処理7により撮像条件/演算処理条件が変更された画像は、次フレーム以降に取得が可能である。
また本実施形態においては、前述したようにネジ23はロボットアーム19およびロボットハンド17により把持され、嵌合等の所定のタスクが実行される。このため、ネジ23とパターン光照射器13およびカメラ8の相対位置および相対角度はタスクの進行に応じて逐次変化し得る。このような変化に対しては、前述した処理フローをカメラ8により取得される画像の毎フレームごと、もしくは適当なフレームごとに繰り返せばよい。このような繰り返しにより、ネジ23とパターン光照射器13およびネジ23とカメラ8の相対位置および相対角度の変化に追従して、それぞれの相対位置を適当に制御することが可能となる。
なお前述したように、1つのタスクにおいて以上の処理を繰り返す場合には、測定対象物(本実施形態ではネジ23)を一旦検出および認識した後は、物体検出/認識処理2、および注視領域/周辺領域設定処理3は省略することが可能である。ただし必要に応じて、1つのタスクにおける処理として、前述した物体検出/認識処理2および注視領域/周辺領域設定処理3を複数回実行するものであっても構わない。
また、以上では、周辺領域25からのネジ23の位置姿勢算出結果に応じて、ネジ23とパターン光照射器13およびネジ23とカメラ8の相対位置および相対角度を制御することにより、三次元位置データの算出精度の劣化を防止する構成を説明した。しかしながら、周辺領域25からのネジ23の位置姿勢算出結果に応じて、上記以外の制御を実行することも、奥行き方向の距離情報を含む三次元位置データの算出精度の向上に有効である。
例えば図7に示したネジ23の先端部の三次元位置データを計測する場合には、実際にはネジ23の先端部に関して、空間分解能的に密な情報を得られれば良いのであって、ネジ23以外の背景部に関しては空間分解能的に疎な情報で十分である場合が多い。図7では、三次元位置データの算出点となるスポット光の一部がネジ23の先端部を外れており、計測対象外の背景部にはみ出していることが分かる。そこで、周辺領域25からのネジ23の位置姿勢算出結果に応じて、図10の(a)に示すように、パターン光照射器13から照射するパターン光の密度およびパターンを測定対象物に合わせて変更するようにしてもよい。こうすることにより、奥行き方向の距離情報を含む三次元位置データの算出精度の向上を実現することが可能となる。なおこの場合の算出精度とは、空間分解能に関する精度を意味している。
また、図7では、位置姿勢算出結果により、ネジ23が注視領域24に対して斜め方向に傾いており、かつ測定すべきネジ23の先端部の領域が正方形状ではなく長方形状であることが判明している。そこで図10の(a)では、パターン光におけるスポットパターンの密度を縦方向と横方向で異なる値に変更し、かつ正方形状であったスポットパターンを長方形状に変更している。また、スポットパターンがネジの先端部を外れることなく覆うように、スポットパターンを注視領域面内に対して回転させている。その結果、図10の(a)から分かるように、ほぼ全てのスポット光がネジ23の先端部に照射され、必要とされているネジ23の先端部に関する空間分解能的に密な三次元位置データを算出することが可能となる。
また、周辺領域25からのネジ23の位置姿勢算出結果に応じて、パターン光を図9の(a)に示すようなスポットパターンから、図10の(b)に示すようなスリット光パターンに変更することも可能である。この場合は、位置姿勢算出結果により、ネジ23が注視領域24に対して斜め方向に傾いており、かつネジ23の円周方向に関する奥行き座標の変化量が急峻であり、さらにネジ23の軸方向に関する奥行き座標の変化量はほとんど無いことが判明している。そこで図10の(b)では、パターン光をネジに合わせて斜め方向に傾け、さらに奥行き座標の変化量が急峻なネジ23の円周方向にパターンが変化するスリット光に変更する。そして、奥行き座標の変化量がほとんど無いネジ23の軸方向に関してはスリット光パターンの空間変化を無くしてしまう。これにより、ネジ23の円周方向の空間分解能を重視した三次元位置データの計測が可能となる。
また例えば、前述したようにオクルージョンを回避するためにカメラ8の位置および角度を移動した場合に、その移動の仕方はカメラ8を搭載しているロボットアーム11とその他の装置との位置関係に依存する。したがって、例えばロボットアームと他の装置との接触を避けるために、測定対象物(ネジ23)からカメラ8を遠ざける必要が生じる場合が発生し得る。この場合、測定対象物およびパターン光の注視領域24における相対的な大きさが小さくなるため、二次元画像上での空間分解精度が劣化する可能性が生じる。そこで、ネジ23とカメラ8の想定的な位置関係の算出結果に応じてカメラ8のズーム倍率を制御することにより、これを回避するように構成しても良い。
なお、前述した実施形態においては、取得する画像の毎フレームごとに撮像条件/演算処理条件変更処理7を実行する例を説明したが、その実行サイクルは一例を示したに過ぎない。必要に応じて、より遅いサイクルで撮像条件/演算処理条件変更処理7を実行するものであっても良い。例えば、取得する画像の3フレームに1回のみ撮像条件/演算処理条件変更処理7を実行するものであっても良い。
また、以上説明した三次元位置データ算出処理5では、カメラ8により取得される画像のフレームごとに奥行き方向の距離情報を含む三次元位置データを算出する手法を用いているがこれに限られるものではない。例えば、スポットパターンの空間分解能を変更することにより、画像上に投影されるスポットパターンの各スポットが元のスポットパターンの各スポットにどのように対応するかを判別することができる。したがって、スポットパターンの空間分解能を変更して撮像した複数フレームの画像データを1セットとして奥行き方向の距離情報を含む三次元位置データを算出する手法を用いることもできる。例えば図11に示した様な、空間分解能を変更したパターン1〜パターン3のスポットパターンを1セットとして使用するものでも良い。この場合も、周辺領域25からの測定対象物の位置姿勢算出結果に応じてパターン光照射器13とカメラ8に関する撮像条件/演算処理条件を変更することで、奥行き方向の距離情報を含む三次元位置データの算出精度の向上を実現することが可能となる。
なお、上記実施形態では、周辺領域から得られる特定の物体の位置姿勢に応じて注視領域の画像情報を用いた三次元位置計測の精度を向上するべく、撮像条件を変更する例を説明したが、本発明はこれに限られるものではない。すなわち、周辺領域から得られる特定の物体の位置姿勢に応じて、注視領域における画像処理に適した画像情報が当該注視領域から得られるように撮像条件を変更するものであり、三次元位置計測に限られるものではない。
<第2実施形態>
第1実施形態では、周辺領域25における画像データの情報量を低減するために、階調数を変更する例を示した。周辺領域25における情報量低減の方法はこれに限られるものではなく、第2実施形態ではそれらのうちのいくつかの例について説明する。従って本実施形態においては、第1実施形態における画像処理方法および撮像制御方法との相違点についてのみ説明を行い、その他の部分に関しては第1実施形態と同様として説明を省略する。
第2実施形態における注視領域/周辺領域設定処理3においては、周辺領域における画像データの情報量の削減手法として画素数の削減を実行する。これは、画像データの空間分解能を削減することを意味する。
図12に、画素数削減手法の一例として、隣接する4画素からなるブロックごとにブロック内の1画素(図中では左上の画素)の輝度値を代表値として使用する手法を示す。この手法の場合、周辺領域25の画像データの情報量は、画素数削減を行わない場合に比べて1/4に削減される。この手法に関しては、例えば図5に示したカメラ8のCMOSセンサ26において、周辺領域25の読み出し領域指定を1列飛ばし、および1行飛ばしとすることにより実現することができる。ただし、注視領域24に重なる列に関しては、1列飛ばしにすることは出来ず、1列ごとに読み出す必要がある。
例えば第1実施形態と同様に、注視領域24の行アドレス範囲を4および5、列アドレス範囲を4および5に指定し、周辺領域25は行アドレス範囲を2、4、および6に指定し、列アドレス範囲を2、4、および6に指定したとする。この結果、周辺領域25として図12に示した黒マスの位置の画素値を代表値として読み出すことができる。
以上のように、周辺領域25における画像データの情報量を削減することにより、第1実施形態で説明した周辺領域25に対する位置姿勢計測処理に関して、データ転送におけるトラフィック負荷および演算処理における処理負荷の両面を低減することができる。また上述した手法以外にも、画素数削減手法の一例として、隣接する4画素からなるブロックごとの輝度値の平均値を代表値として使用する手法がある。この手法に関しては、例えばCMOSセンサ26からのデジタル出力値を4画素ブロックごとに平均して代表値を算出することにより実現することができる。または、CMOSセンサ26上で、撮像後に各画素に蓄積された電荷を4画素ブロックごとに累算することによっても平均値の算出を実現することができる。また、それ以外の手法により実現するものであっても構わない。
また、注視領域/周辺領域設定処理3においては、上記以外の周辺領域25における画像データの情報量の削減手法として、フレームレートの削減を実行するものであっても良い。例えば第1実施形態において、注視領域24の画像データを200fpsで取得するのに対して、周辺領域25の画像データは100fpsで取得することにより、周辺領域25のフレームレートは1/2に削減される。これを実現するためには、カメラ8のCMOSセンサ26において、周辺領域25の読み出しサイクルを1/100sec、注視領域24の読み出しサイクルを1/200secとすることにより実現することができる。
または、CMOSセンサ26の読み出しに関しては注視領域24と同様に200fpsで処理を行い、画像処理部21へのデータ転送処理を1回飛ばしとすることによっても実現できる。
以上のように、周辺領域25における画像データの情報量を削減することにより、第1実施形態と同様に、周辺領域25に対する位置姿勢計測処理に関して、データ転送におけるトラフィック負荷および演算処理における処理負荷の両面を低減することができる。
なお、周辺領域25における画像データのフレームレートを削減した場合には、それに対応して、第1実施形態で説明した撮像条件/演算処理条件変更処理7の実行サイクルも変更される。例えば本実施形態の場合は、周辺領域25における画像データの毎フレームで処理を実行する場合、フレームレートに相当するサイクル(1/100sec)で撮像条件/演算処理条件変更処理7が実行される。ただし、第1実施形態でも説明したように、上記サイクルは一例を示したに過ぎず、必要に応じてさらに遅いサイクルで撮像条件/演算処理条件変更処理7を実行するものであっても良い。
なお、画素数およびフレームレートの削減量は、データ転送トラフィックの帯域、照明条件、および部品の形状などに基づいて、事前に最適値をルックアップテーブル形式で設定しておくことを想定している。従って、注視領域/周辺領域設定処理3においては、ルックアップテーブルを参照することで、画素数およびフレームレートの削減量を適宜設定することが可能となる。
また以上の実施形態においては、画像データの削減をカメラ8のCMOSセンサ26によって実現する手法を説明したが、同様の処理を実現できるものであれば、当然のことながらCCDセンサを用いたカメラを用いても良い。
また以上のように画像データの削減をカメラ側で実行するのではなく、画像処理部21で実行するようにしても良い。画像処理部21は、カメラ8により取得した画像データに対して、注視領域24および周辺領域25を設定し、さらに周辺領域25のデータ量を削減する。この場合も、周辺領域25における画像データの情報量を削減することにより、第1実施形態で説明した周辺領域25に対する位置姿勢計測処理に関して、データ転送におけるトラフィック負荷および演算処理における処理負荷の両面を低減することができる。
<第3実施形態>
以下、図面を参照して本発明の第3実施形態を説明する。
第3実施形態における画像処理方法および撮像制御方法は、図13の処理フローチャートに示すように、第1実施形態の処理フロー(図1)に対して注視領域/周辺領域調整処理33が追加されたものである。注視領域/周辺領域調整処理33では、画像データを取得する際の撮像条件設定に対応して、注視領域および周辺領域のサイズ、形状、位置、個数、周辺領域の画像データの情報量削減手法の少なくといずれかが設定される。なお、注視領域と周辺領域の位置としては、各領域間の相対位置関係、注視領域の対象物体に対する相対位置関係が挙げられる。以下、第3実施形態と第1および第2実施形態における三次元位置計測処理との相違点について説明を行う。
まず画像データを取得する際の撮像条件設定としては、カメラの位置、カメラの角度、カメラのズーム倍率、照明の位置、照明の角度、および照明パターン等が挙げられる。本実施形態においては、第1および第2実施形態で説明した処理フローを実行する際に、これらの撮像条件設定に対応して注視領域/周辺領域の設定を調整するものである。注視領域および周辺領域の条件設定としては、例えば、注視領域および周辺領域のサイズ、形状、位置、個数、周辺領域の画像データの情報量削減手法が挙げられる。
続いて図13を用いて、第3実施形態における処理フローを説明する。まずタスクのスタート時に、画像データ取得処理1においては、撮像条件の初期値が設定されている。撮像条件としては、カメラ8の位置、カメラ8の角度、カメラ8のズーム倍率、カメラ8のフレームレート、パターン光照射器13の位置、パターン光照射器13の角度、およびスポット光パターンが挙げられる。
注視領域・周辺領域調整処理33では、これらの撮像条件の変化に対応して、注視領域および周辺領域のサイズ、形状、位置および個数の調整を実行する。例えば、カメラ8の状態と、パターン光照射器13の状態と、物体検出/認識処理2で抽出された画像中での物体位置の情報とを基にして、三次元位置データ算出処理5を適当に実行できるように注視領域および周辺領域を調整する。なお、カメラ8の状態としては、例えば、カメラ8の位置、角度、ズーム倍率およびフレームレートが挙げられる。また、パターン光照射器13の状態としては、パターン光照射器13の位置、角度およびスポット光パターンが挙げられる。
例えば、仮に第1実施形態で示したように、物体検出/認識処理2で抽出された画像中での物体位置(第3実施形態ではネジ先端部とネジ穴の位置)の情報だけをもとにして注視領域24および周辺領域25を設定したとする。この場合、注視領域24および周辺領域25の形状、サイズ、および両領域の相対位置が固定であると、図14の(a)に示すように注視領域24からパターン光が外れてしまう事が起こりうる。また、周辺領域25に関しても、図14の(a)に示すように位置姿勢算出処理6において必要の無い、対象物体以外の領域を多く含む事が起こりうる。または図15の(a)に示すように、位置姿勢算出処理6が必要とする領域を外してしまうことも起こりうる。
これに対して第3実施形態においては、注視領域/周辺領域調整処理33が、前述したカメラ8の状態と、パターン光照射器13の状態を用いることにより画像中でのパターン光照射位置を算出する。そして、注視領域/周辺領域調整処理33において、注視領域/周辺領域設定処理3で設定された注視領域24および周辺領域25を、図14の(b)および図15の(b)に示すように調整する。この時、図14の(b)および図15の(b)に示すように、注視領域24は、三次元位置データ算出処理5で必要となる領域(ネジ穴とネジ先端部)に調整される。また、図14の(b)および図15の(b)に示すように周辺領域25は、位置姿勢算出処理6で必要となる領域(ネジ皿部を含む領域)に調整される。例えば、物体検出/認識処理2において検出された対象物体の大きさから周辺領域を設定しても良いし、予めサイズがわかている対象物体であれば撮像条件(カメラの位置やズーム倍率等)に基づいてその大きさを推定し、周辺領域を設定するようにしても良い。
これにより、注視領域24を対象とする三次元位置データ算出処理5をより適切に実行する事が可能となり、かつ周辺領域25を対象とする位置姿勢算出処理6をより適切に実行することが可能となる。またこれにより、式(5)を用いて説明した信頼度が、所定のしきい値Thを下回った場合にも、周辺領域25の設定を調整することで信頼度の向上を図ることが可能である。
なお以上では、タスクのスタート時の初期段階における注視領域/周辺領域調整処理33に関する説明を行ったが、注視領域/周辺領域調整の処理はこのタイミングでの実行に限られるものではない。例えば、撮像条件/演算処理条件変更処理7において変更された撮像条件に対応して、逐次注視領域/周辺領域調整処理33を実行するようにしてもよい。すなわち、タスクの進行中に随時変更される撮像条件に対応して、注視領域および周辺領域を前述したように調整する構成とすることもできる。
また上記の説明においては、注視領域/周辺領域調整処理33において注視領域24および周辺領域25のサイズ、形状、位置、および個数の調整を実行する例を示したが、その他に周辺領域25の画像データの情報量削減手法を変更するものであっても良い。例えばカメラ8のフレームレートが高い場合には、一般的にCMOSセンサ26の感度が低下する。そこで、事前情報としてカメラ8のフレームレートが高く設定された場合には、CMOSセンサ26の感度低下による影響を低減するために、周辺領域25の画像データの情報量削減手法を変更する。例えば第1実施形態においては周辺領域25の輝度データの階調を2としていたものを2とするように情報量削減手法を変更する。これにより、カメラ8のフレームレートが高く設定された場合にも、周辺領域25における特徴抽出が適切に実行され、結果として位置姿勢算出処理6が適切に実行される。またこれにより、式(5)を用いて説明した信頼度が、所定のしきい値Thを下回った場合にも、周辺領域25の設定を調整することで信頼度の向上を図ることが可能である。
なお、上記では撮像条件(スポット光の照射位置)に応じて注視領域の移動(対象物体及び周辺領域に対する相対位置の変更)と周辺領域の変形(サイズ変更、形状変更)を示したが、これらはあくまで一例である。撮像条件に応じて注視領域のサイズを変えたり、各領域の個数を変更したりすることが可能であることは、上記説明から当業者には明らかである。
<第4実施形態>
以下、図16のフロー図を参照して、第4実施形態による三次元位置計測処理を説明する。第4実施形態では、第1実施形態の処理フローに対して、タスク処理内容入力処理43と、注視領域/周辺領域調整処理44とが追加されている。上述した第3実施形態の注視領域/周辺領域調整処理33では、撮像条件に応じて注視領域24、周辺領域25の調整を行った。これに対して、第4実施形態の注視領域/周辺領域調整処理44では、画像データから得られる情報を基にして実行されるタスクに応じて注視領域24、周辺領域25の調整を行う。調整の内容としては、例えば、注視領域および周辺領域のサイズ、形状、位置、個数、周辺領域の画像データの情報量削減手法の設定が挙げられる。また、画像データから得られる情報を基にして実行するタスク処理としては、ロボットアームおよびロボットハンドを用いた、嵌合処理、分類処理、および整列処理等が挙げられる。以下、第4実施形態について、第1実施形態における三次元位置計測処理との相違点について説明する。
第4実施形態では、第1実施形態で説明した処理フローを実行する際に、実行されるタスク処理に対応して注視領域/周辺領域の条件設定が調整される。注視領域および周辺領域の条件設定としては、例えば、注視領域および周辺領域のサイズ、形状、位置、個数、周辺領域の画像データの情報量削減手法が挙げられる。なお、注視領域と周辺領域の位置としては、各領域間の相対位置関係、注視領域の対象物体に対する相対位置関係が挙げられる。
まず、タスク処理内容入力処理43において、画像処理部21は、スタート時にタスク処理の種類を設定する。注視領域/周辺領域調整処理44において、画像処理部21は、この事前に設定されたタスク処理の内容に対応して、注視領域および周辺領域の調整(例えば、サイズ、形状、位置、個数の調整)を実行する。すなわち、タスク処理の内容(例えば、嵌合処理、分類処理、整列処理等)と、物体検出/認識処理2で抽出された画像中での物体位置の情報を基にして、三次元位置データ算出処理5を適切に実行できるように注視領域および周辺領域が調整される。
例えば、嵌合タスクにおいては、ネジ23とネジ穴34の三次元位置を測定する必要がある。この場合、図17の(a)に示すように注視領域24および周辺領域25をそれぞれ一箇所のみ設定すると、周辺領域にも注視領域にもタスク処理に不必要な領域の画像データが多く含まれるため、無駄な演算処理が生じてしまう。これに対して第4実施形態においては、嵌合タスクを実行するという事前情報を用いることにより、図17の(b)に示すように、タスクを実行するために必要となるネジ穴34の位置と、ネジ23の先端部の2箇所に注視領域24が設定される。また、ネジ23の先端部に対する注視領域24の周囲にのみ周辺領域25が設定される。このように、タスク処理の内容に対応して注視領域24および周辺領域25の個数を設定することにより、無駄な演算処理を回避して要求されたタスクを適切に実行することが可能となる。またこのとき、図17の(b)に示すようにそれぞれの注視領域24および周辺領域25のサイズ、形状、および位置に関しても、タスク処理に対応して調整される。
以上のように、事前情報として与えられるタスク処理の内容に対応した注視領域/周辺領域調整処理44を実行することにより、タスク処理に適した三次元位置データ算出処理5の実行と位置姿勢算出処理6の実行を実現する事が可能となる。
また上記の説明においては、タスク処理の内容に対応した注視領域/周辺領域調整処理44において注視領域24および周辺領域25のサイズ、形状、位置、および個数の調整を実行する例を示したが本発明はこれに限られるものではない。例えば、周辺領域25の画像データの情報量削減手法を変更するものであっても良い。例えば図18に示すように、皿部が大きいネジ23の嵌合のような事前に設定されたタスク処理に対応して、周辺領域25の範囲が大きくなってしまった場合、位置姿勢算出処理6における処理負荷が増大する可能性が生じる。そこで、例えば周辺領域25の輝度データの階調を2としていたものを2とするように情報量削減手法を変更する。これにより、周辺領域25の範囲拡大による処理負荷増大の影響を低減することが可能となる。
なお当然のことながら、前述した情報量の削減手法の変更は、式(5)を用いて説明した信頼度が、所定のしきい値Thを下回らない範囲での調整となる。なお、タスク処理の内容に対応した注視領域/周辺領域調整処理44に関しては、第3実施形態で説明した撮像条件設定に対応したものと、本実施形態で説明したタスク処理に対応したものとを同時に実行するものであっても構わない。
以上、タスクの内容に応じた注視領域の個数の変更と周辺領域の変形(サイズ変更、形状変更)を示したが、これらはあくまで一例である。タスク内容の情報に応じて注視領域のサイズを変えたり、周辺領域の個数を変更したりすることが可能であることは、上記説明から当業者には明らかである。
以上のように、第1〜第4実施形態によれば、周辺領域から抽出される情報を基にして注視領域に対する撮像条件を変更することにより、注視領域から適切な画像情報を抽出することが可能となる。また。周辺領域の画像情報については情報量を削減するので、画像データに対する演算処理が効率化され、撮像条件の設定を迅速に(ほぼリアルタイムに)行うことができる。
<第5実施形態>
第5実施形態では、モニタ36における表示について説明する。コンピュータ35に接続されたモニタ36には、第1〜第4実施形態で説明した全ての処理が表示される。図19に示す表示例では、第3実施形態で説明した三次元位置計測処理におけるモニタ36の表示内容が示されている。画像データ取得処理1においては、取得した画像データがモニタ画面42の一部領域に逐次表示される。また物体検出/認識処理2においては、画像データから対象物を検出および認識した結果がモニタ画面42の一部領域に逐次表示される。また注視領域/周辺領域設定処理3においては、設定した注視領域および周辺領域がモニタ画面42の一部領域に逐次表示される。また注視領域/周辺領域調整処理33においては、調整後の注視領域および周辺領域がモニタ画面42の一部領域に逐次表示される。またパターン光照射処理4においては、パターン光が照射された画像がモニタ画面42の一部領域に逐次表示される。また注視領域に対する三次元位置データ算出処理5においては、奥行き距離情報を含んだ三次元位置データがモニタ画面42の一部領域に逐次表示される。また周辺領域に対する位置姿勢算出処理6においては、周辺領域に対する位置姿勢計測結果がモニタ画面42の一部領域に逐次表示される。また撮像条件/演算処理条件変更処理7においては、撮像条件および演算処理条件を変更した結果がモニタ画面42の一部領域に逐次表示される。
なお、以上説明したモニタ画面42に対する情報の表示においては、図19に示すように、取得した画像データとともに、算出された位置などの数値データを含むテキストデータの表示も同時に行われる。以上のように構成された第5実施形態のシステムにおいては、システムを操作・管理する担当者がモニタ画面42を見ることにより実行タスクの進行状況を把握することが出来るため、システムを適切に稼動させる事が可能となる。
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (13)

  1. カメラで撮像して得られた画像から特定の物体を検出する検出手段と、
    前記画像中に、前記検出手段で検出された特定の物体の予め定められた部分を含む注視領域を設定し、前記注視領域の周囲に周辺領域を設定する設定手段と、
    前記設定手段により設定された前記周辺領域の画像情報を用いて、前記特定の物体の位置姿勢を算出する算出手段と、
    前記設定手段により設定された前記注視領域の画像情報について予め定められた画像処理を行う画像処理手段と、
    前記算出手段で算出された位置姿勢に基づいて、前記画像処理手段が実行する画像処理に用いる画像情報が前記注視領域から得られるように、前記カメラが前記特定の物体を撮像するための撮像条件を変更する変更手段とを備え
    前記設定手段は、前記特定の物体の予め定められた部分と前記注視領域との相対的な位置関係、前記周辺領域と前記注視領域との相対的な位置関係、前記注視領域の大きさ、及び前記周辺領域の大きさの少なくともいずれかを、前記撮像条件に基づいて変更することを特徴とする画像処理装置。
  2. カメラで撮像して得られた画像から特定の物体を検出する検出手段と、
    前記画像中に、前記検出手段で検出された特定の物体の予め定められた部分を含む注視領域を設定し、前記注視領域の周囲に周辺領域を設定する設定手段と、
    前記設定手段により設定された前記周辺領域の画像情報を用いて、前記特定の物体の位置姿勢を算出する算出手段と、
    前記設定手段により設定された前記注視領域の画像情報について予め定められた画像処理を行う画像処理手段と、
    前記算出手段で算出された位置姿勢に基づいて、前記画像処理手段が実行する画像処理に用いる画像情報が前記注視領域から得られるように、前記カメラが前記特定の物体を撮像するための撮像条件を変更する変更手段と、
    前記特定の物体に対して行われる作業の内容を示す情報を取得する手段と、備え、
    前記設定手段は、前記特定の物体の予め定められた部分と前記注視領域との相対的な位置関係、前記周辺領域と前記注視領域との相対的な位置関係、前記注視領域の大きさ、及び前記周辺領域の大きさの少なくともいずれかを、前記作業の内容を示す情報に基づいて変更することを特徴とする画像処理装置。
  3. カメラで撮像して得られた画像から特定の物体を検出する検出手段と、
    前記画像中に、前記検出手段で検出された特定の物体の予め定められた部分を含む注視領域を設定し、前記注視領域の周囲に周辺領域を設定する設定手段と、
    前記設定手段により設定された前記周辺領域の画像情報を用いて、前記特定の物体の位置姿勢を算出する算出手段と、
    前記設定手段により設定された前記注視領域の画像情報について予め定められた画像処理を行う画像処理手段と、
    前記算出手段で算出された位置姿勢に基づいて、前記画像処理手段が実行する画像処理に用いる画像情報が前記注視領域から得られるように、前記カメラが前記特定の物体を撮像するための撮像条件を変更する変更手段とを備え、
    前記設定手段は、前記特定の物体の予め定められた部分と前記注視領域との相対的な位置関係、前記周辺領域と前記注視領域との相対的な位置関係、前記注視領域の大きさ、及び前記周辺領域の大きさの少なくともいずれかを、前記検出手段で検出された特定の物体の形状に基づいて変更することを特徴とする画像処理装置。
  4. 前記周辺領域における画像情報の情報量を削減する削減手段を更に備えることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記削減手段は、前記周辺領域について画像情報の階調数の削減、画素数の削減およびフレームレートの削減の少なくともいずれかを行うことを特徴とする請求項に記載の画像処理装置。
  6. 前記画像処理手段は、照明手段により前記特定の物体にパターン光を照明しながら前記カメラによる撮像を行うことで得られた前記注視領域の画像情報から、前記特定の物体の三次元位置計測を行うことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  7. 前記変更手段による前記撮像条件の変更は、前記カメラの位置、角度、ズーム倍率の少なくともいずれかの変更を含むことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  8. 前記変更手段による前記撮像条件の変更は、前記照明手段による照明の位置、角度、照明パターンの少なくともいずれかの変更を含むことを特徴とする請求項に記載の画像処理装置。
  9. 前記変更手段は、前記画像処理手段が実行する画像処理に適した画像情報が前記注視領域から得られるように、前記算出手段で算出された位置姿勢に基づいて、前記カメラが前記特定の物体を撮像するための撮像条件を変更することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. カメラで撮像して得られた画像を処理する画像処理装置の制御方法であって、
    検出手段が、前記カメラで撮像して得られた画像から特定の物体を検出する検出工程と、
    設定手段が、前記画像中に、前記検出手段で検出された特定の物体の予め定められた部分を含む注視領域を設定し、前記注視領域の周囲に周辺領域を設定する設定工程と、
    算出手段が、前記設定工程で設定された前記周辺領域の画像情報を用いて、前記特定の物体の位置姿勢を算出する算出工程と、
    画像処理手段が、前記設定工程で設定された前記注視領域の画像情報について、予め定められた画像処理を行う画像処理工程と、
    変更手段が、前記算出工程で算出された位置姿勢に基づいて、前記画像処理工程が実行する画像処理に用いる画像情報が前記注視領域から得られるように、前記カメラが前記特定の物体を撮像するための撮像条件を変更する変更工程とを有し、
    前記設定工程では、前記特定の物体の予め定められた部分と前記注視領域との相対的な位置関係、前記周辺領域と前記注視領域との相対的な位置関係、前記注視領域の大きさ、及び前記周辺領域の大きさの少なくともいずれかを、前記撮像条件に基づいて変更することを特徴とする画像処理装置の制御方法。
  11. カメラで撮像して得られた画像を処理する画像処理装置の制御方法であって、
    検出手段が、前記カメラで撮像して得られた画像から特定の物体を検出する検出工程と、
    設定手段が、前記画像中に、前記検出手段で検出された特定の物体の予め定められた部分を含む注視領域を設定し、前記注視領域の周囲に周辺領域を設定する設定工程と、
    算出手段が、前記設定工程で設定された前記周辺領域の画像情報を用いて、前記特定の物体の位置姿勢を算出する算出工程と、
    画像処理手段が、前記設定工程で設定された前記注視領域の画像情報について、予め定められた画像処理を行う画像処理工程と、
    変更手段が、前記算出工程で算出された位置姿勢に基づいて、前記画像処理工程が実行する画像処理に用いる画像情報が前記注視領域から得られるように、前記カメラが前記特定の物体を撮像するための撮像条件を変更する変更工程と、
    前記特定の物体に対して行われる作業の内容を示す情報を取得する工程と、を有し、
    前記設定工程では、前記特定の物体の予め定められた部分と前記注視領域との相対的な位置関係、前記周辺領域と前記注視領域との相対的な位置関係、前記注視領域の大きさ、及び前記周辺領域の大きさの少なくともいずれかを、前記作業の内容を示す情報に基づいて変更することを特徴とする画像処理装置の制御方法。
  12. カメラで撮像して得られた画像を処理する画像処理装置の制御方法であって、
    検出手段が、前記カメラで撮像して得られた画像から特定の物体を検出する検出工程と、
    設定手段が、前記画像中に、前記検出手段で検出された特定の物体の予め定められた部分を含む注視領域を設定し、前記注視領域の周囲に周辺領域を設定する設定工程と、
    算出手段が、前記設定工程で設定された前記周辺領域の画像情報を用いて、前記特定の物体の位置姿勢を算出する算出工程と、
    画像処理手段が、前記設定工程で設定された前記注視領域の画像情報について、予め定められた画像処理を行う画像処理工程と、
    変更手段が、前記算出工程で算出された位置姿勢に基づいて、前記画像処理工程が実行する画像処理に用いる画像情報が前記注視領域から得られるように、前記カメラが前記特定の物体を撮像するための撮像条件を変更する変更工程と、を有し、
    前記設定工程では、前記特定の物体の予め定められた部分と前記注視領域との相対的な位置関係、前記周辺領域と前記注視領域との相対的な位置関係、前記注視領域の大きさ、及び前記周辺領域の大きさの少なくともいずれかを、前記検出工程で検出された特定の物体の形状に基づいて変更することを特徴とする画像処理装置の制御方法。
  13. 請求項1乃至のいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させるためのプログラム。
JP2010164350A 2010-07-21 2010-07-21 画像処理装置及びその制御方法 Active JP5567922B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010164350A JP5567922B2 (ja) 2010-07-21 2010-07-21 画像処理装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010164350A JP5567922B2 (ja) 2010-07-21 2010-07-21 画像処理装置及びその制御方法

Publications (2)

Publication Number Publication Date
JP2012028949A JP2012028949A (ja) 2012-02-09
JP5567922B2 true JP5567922B2 (ja) 2014-08-06

Family

ID=45781384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010164350A Active JP5567922B2 (ja) 2010-07-21 2010-07-21 画像処理装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP5567922B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11393063B2 (en) 2019-03-28 2022-07-19 Seiko Epson Corporation Object detecting method, object detecting device, and robot system

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6222898B2 (ja) 2012-07-03 2017-11-01 キヤノン株式会社 3次元計測装置及びロボット装置
JP5955170B2 (ja) * 2012-09-06 2016-07-20 キヤノン株式会社 表示制御装置、表示制御方法、及びプログラム
JP6104662B2 (ja) * 2013-03-25 2017-03-29 株式会社東芝 計測装置、方法及びプログラム
CN105190229B (zh) * 2013-04-19 2018-07-31 凸版印刷株式会社 三维形状计测装置、三维形状计测方法及三维形状计测程序
JP2015085457A (ja) * 2013-10-31 2015-05-07 セイコーエプソン株式会社 ロボット、ロボットシステム及びロボット制御装置
JP6503379B2 (ja) * 2015-01-06 2019-04-17 株式会社Fuji 実装関連処理装置、画像処理方法及びそのプログラム
JP6700706B2 (ja) * 2015-10-06 2020-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7071054B2 (ja) 2017-01-20 2022-05-18 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP6781140B2 (ja) * 2017-12-05 2020-11-04 株式会社ニコン 撮像装置
JP6747465B2 (ja) * 2018-03-06 2020-08-26 株式会社ニコン 電子機器
JP7276427B2 (ja) * 2019-02-18 2023-05-18 日本電気株式会社 画像処理装置、方法、システム、及びプログラム
JP6764509B2 (ja) * 2019-07-23 2020-09-30 株式会社Fuji ボルト移載装置
JP2020074596A (ja) * 2020-01-23 2020-05-14 株式会社ニコン 撮像装置
JP7028279B2 (ja) * 2020-06-08 2022-03-02 株式会社ニコン 電子機器
WO2022158201A1 (ja) * 2021-01-22 2022-07-28 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム
WO2022180790A1 (ja) * 2021-02-26 2022-09-01 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体
US20240241497A1 (en) * 2021-05-14 2024-07-18 Fanuc Corporation Imaging environment adjusting device, and computer-readable storage medium
JPWO2023112217A1 (ja) * 2021-12-15 2023-06-22

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4040825B2 (ja) * 2000-06-12 2008-01-30 富士フイルム株式会社 画像撮像装置及び距離測定方法
JP2003191189A (ja) * 2001-12-21 2003-07-08 Sony Corp ロボット装置及びその制御方法
JP2003211382A (ja) * 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP2003211381A (ja) * 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP2006060496A (ja) * 2004-08-19 2006-03-02 Nikon Corp 画像表示装置
JP2006300929A (ja) * 2005-03-22 2006-11-02 Jfe Engineering Kk 物体の3次元位置認識装置およびデパレタイズシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11393063B2 (en) 2019-03-28 2022-07-19 Seiko Epson Corporation Object detecting method, object detecting device, and robot system

Also Published As

Publication number Publication date
JP2012028949A (ja) 2012-02-09

Similar Documents

Publication Publication Date Title
JP5567922B2 (ja) 画像処理装置及びその制御方法
JP6363863B2 (ja) 情報処理装置および情報処理方法
JP6007178B2 (ja) 3次元撮像システム
JP5794705B2 (ja) 撮像装置、その制御方法及びプログラム
US9704255B2 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
JP5725194B2 (ja) 夜景画像ボケ検出システム
JP5222430B1 (ja) 寸法計測装置、寸法計測方法及び寸法計測装置用のプログラム
JP2016217944A (ja) 計測装置、および計測方法
US9521397B2 (en) System and method for selecting a two-dimensional region of interest using a range sensor
JP2007298376A (ja) 境界の位置決定装置、境界の位置を決定する方法、当該装置としてコンピュータを機能させるためのプログラム、および記録媒体
JP4198536B2 (ja) 物体撮影装置、物体撮影方法及び物体撮影プログラム
JP6513941B2 (ja) 画像処理方法、画像処理装置及びプログラム
US20160044295A1 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
JP2014142832A (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP5336325B2 (ja) 画像処理方法
WO2018012524A1 (ja) 投影装置、投影方法および投影制御プログラム
JP2008217330A (ja) 速度推定方法および速度推定プログラム
JP2018013416A (ja) Mtf測定装置及びそのプログラム
JP2020193820A5 (ja)
JP5342977B2 (ja) 画像処理方法
JP6127399B2 (ja) ステレオカメラ装置及びプログラム
CN112710662A (zh) 生成方法及装置、生成系统和存储介质
JP2008250674A (ja) 画像処理装置
JP2008058279A (ja) 距離画像生成装置、距離画像生成方法及びプログラム
JP3635327B2 (ja) 焦点調整機構とズーム機構による高精度3次元計測方法およびそのための高精度3次元計測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140620

R151 Written notification of patent or utility model registration

Ref document number: 5567922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151