JP6415066B2 - 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム - Google Patents

情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム Download PDF

Info

Publication number
JP6415066B2
JP6415066B2 JP2014058490A JP2014058490A JP6415066B2 JP 6415066 B2 JP6415066 B2 JP 6415066B2 JP 2014058490 A JP2014058490 A JP 2014058490A JP 2014058490 A JP2014058490 A JP 2014058490A JP 6415066 B2 JP6415066 B2 JP 6415066B2
Authority
JP
Japan
Prior art keywords
value
luminance
variation amount
image
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014058490A
Other languages
English (en)
Other versions
JP2015184767A (ja
Inventor
圭祐 立野
圭祐 立野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014058490A priority Critical patent/JP6415066B2/ja
Priority to US14/661,859 priority patent/US10083512B2/en
Publication of JP2015184767A publication Critical patent/JP2015184767A/ja
Application granted granted Critical
Publication of JP6415066B2 publication Critical patent/JP6415066B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Description

本発明は、画像の局所的な特徴を検出するために用いる閾値を決定する技術に関する。
近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品を把持して組立を行う。この組立には、把持の対象となる部品とロボット(ハンド)との間の相対的な位置姿勢を計測する必要がある。位置姿勢を計測する方法として、カメラで撮影した二次元画像上から検出されるエッジやキーポイントといった特徴に対して物体の三次元形状モデルをあてはめるモデルフィッティングによる計測がある。
カメラにより物体を撮像する場合、カメラの撮像素子(例えばCMOSやCCDなど)に入射される光量を電荷に変換する過程において、光ショットノイズや読み出し回路ノイズなどのノイズ(撮像素子ノイズ)が発生する。そのため、得られる画像中には、撮像素子ノイズに起因する輝度値のばらつきが含まれる。このようなノイズから検出された特徴をモデルフィッティングの処理に用いた場合、計測の精度が損なわれてしまうため、一定の閾値(例えば近傍画素間の輝度差が所定以上など)を設定し、ノイズからの特徴検出を抑制して特徴検出を行うことが必要となる。
従来の閾値設定においては、撮影する画像の明るさや物体の反射輝度、撮像に利用するカメラの撮像素子に応じて適切な閾値が異なるため、人手によるチューニングが一般的である。また一方で、特許文献1には、撮像素子ノイズによる輝度ばらつきをあらかじめ計測しておいて、それに基づいて閾値を自動で設定して特徴検出を行う手法も開示されている。具体的には、遮光画素の輝度ばらつき量をあらかじめ計測しておき、遮光画素の固定的な輝度ばらつき量と画像のコントラストに基づいて、閾値を自動設定して特徴検出を行うことを開示している。
特許第4661934号公報
しかしながら、人手によるチューニングは、チューニングを行う人ごとにどうしてもばらつきが生じる。またチューニングを適切に行うには経験を要するため、簡便ではない。
また、特許文献1の方法では、遮光画素からノイズレベルを推定するため、撮像素子ノイズのなかで暗電流ノイズのみを考慮しているため、エッジ検出閾値の設定において、画素の明るさに比例して発生するショットノイズを考慮できないという問題があった。
本発明は、以上の課題を鑑みてなされたものであり、画像に含まれる特徴を検出するための閾値を好適に設定することを目的とする。
本発明の情報処理装置は、撮像手段によって撮像して得られた撮像画像を取得する画像取得手段と、前記撮像手段で撮像される画像の輝度値と該輝度値のばらつき量との関係を示す第1の情報を保持する保持手段と、前記撮像画像の所定領域の輝度値と前記第1の情報とに基づき、前記撮像画像の前記所定領域における輝度値のばらつき量を導出するするばらつき量導出手段と、前記撮像画像から特徴を検出するためのフィルタ処理のフィルタ情報を保持するフィルタ情報保持手段と、前記フィルタ情報に基づいて、前記輝度勾配値を取得し、該取得した輝度勾配値と前記導出した輝度値のばらつき量とに基づいて、該輝度値の勾配値である輝度勾配値のばらつき量を取得する取得手段と、前記取得した輝度勾配値のばらつき量に基づいて、前記撮像画像から得られる輝度勾配値との比較に用いる閾値を導出する閾値導出手段とを備えることを特徴とする。
本発明により、画像に含まれる特徴を検出するための閾値を好適に設定することができる。
本発明の第一の実施形態における情報処理装置の構成を示す図である。 本発明の第一の実施形態における情報処理装置の行う処理手順を示すフローチャートである。 本発明の第二の実施形態における情報処理装置の構成を示す図である。 本発明の第二の実施形態における情報処理装置の行う処理手順を示すフローチャートである。 本発明の第三の実施形態における情報処理装置の構成を示す図である。 本発明のハードウェア構成図を示す図である。
以下、添付図面を参照して本発明の好適な実施形態について詳細に説明する。
[実施形態1]
本実施形態では、本発明の情報処理装置及びその方法を、画像からのエッジ検出方法に適用した場合について説明する。なお、エッジ検出とは、画像中に映る物体像の形状や材質、照明などが不連続に変化する点を検出するために、画像中の明るさが不連続に変化する点を特定する処理を表す。本実施形態では、画像中の輝度勾配が極値となる点をエッジとして定義する。
エッジ検出の処理では、まず、画像に対し1次微分フィルタを畳み込み、近傍画素間の輝度勾配を算出する。そして、輝度勾配が極値となる画素において、輝度勾配値が所定の閾値以上となる画素を判定することで、エッジ検出を行う。上述したように、画像には撮像素子の特性に基づくノイズが含まれるため、撮像素子ノイズに起因するようなエッジの検出を抑制するためには、輝度勾配値の閾値を適切に設定する必要がある。
すなわち、輝度勾配値の極値の中で、撮像素子ノイズによって発生する輝度勾配値の極値は除去し、実際に画像中の物体像の境界としてエッジが観測される部分の輝度勾配値の極値は除去しないような閾値を設定する必要がある。しかしながら、撮像素子ノイズによる輝度のばらつきは、光量に比例して変化する特性があるため、明るい画像に対する閾値と暗い画像に対する閾値とは適切な値が異なる。また、輝度勾配を求めるためのフィルタの係数によっても算出される輝度勾配値が変化するため、1次微分フィルタの種類などのエッジ検出方式の違いによっても適切な閾値は異なる。
そこで、本実施形態では、あらかじめ、撮像素子に入射される光量と輝度のばらつき量との関係性を計測し、関数フィッティングによりパラメータ化することで、光量に応じた撮像素子ノイズのモデル化を行う。そして、撮像素子ノイズモデルと1次微分フィルタ(画像フィルタ)の係数とに基づいて、撮像素子ノイズによって輝度勾配値がばらつく量の予測値を求める。そして、撮像素子ノイズに起因して発生する輝度勾配値の極値は除去するような閾値を、輝度勾配値のばらつき量の予測値に基づいて設定することで、撮像素子ノイズからのエッジ検出を抑制したエッジ検出を行う。
図6は、本実施形態における情報装置1のハードウェア構成図である。同図において、CPU610は、バス600を介して接続する各デバイスを統括的に制御する。CPU610は、読み出し専用メモリ(ROM)620に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM620に記憶されており、ランダムアクセスメモリ(RAM)630に一時記憶され、CPU610によって適宜実行される。また、入力I/F640は、外部の装置(撮像装置など)から画像を情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F650は、位置姿勢算出装置2などの外部装置に、該外部装置が処理可能な形式で、検出された特徴などを出力信号として出力する。
以下、本実施形態における特徴検出処理について詳細を述べる。図1は、本実施形態における情報処理装置1の構成を示している。図1に示すように、情報処理装置1は、画像取得部110、撮像素子ノイズモデル保持部120、輝度ノイズ量予測部130、フィルタ情報保持部140、閾値算出部150、特徴検出部160から構成されている。
これらの各機能部は、CPU610が、ROM620に格納されたプログラムをRAM630に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU610を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
また、情報処理装置1は、外部の撮像装置10に接続されている。撮像装置10は、通常の画像を撮影するカメラである。撮影される画像は濃淡画像であってもよいしカラー画像であってもよい。また、各画素が奥行きの情報を持つ距離画像であってもよい。距離画像を計測する距離計測方式としては、特に制限はなく、例えば対象に照射したマルチスリットラインをカメラで撮像して三角測量によって距離計測を行うアクティブステレオ方式でもよいし、光の飛行時間を利用するTime−of−flight方式でもよい。また、ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。本実施形態では撮像装置10は各画素に輝度値が格納された濃淡画像を撮像するカメラであり、濃淡画像を出力するものとする。
次に、情報処理装置1を構成する各部について説明する。
画像取得部110は、撮像装置10が撮影した画像を取得する。上述の通り、本実施形態では撮像装置10は濃淡画像を撮像するカメラであり、画像取得部110は、インターフェースを介して濃淡画像を取得する。
撮像素子ノイズモデル保持部120では、撮像装置10の撮像素子の特性に基づく撮像素子ノイズモデルを保持する。ここで、撮像素子ノイズモデルとは、輝度値に基づいて輝度値のばらつき量(時系列的に輝度値がばらつく範囲)を予測するための、撮像素子に入射される光量と輝度のばらつき量との関係性を記述したものである。本実施形態では、撮像素子モデルは、輝度値と輝度値のばらつき量との関数として表現する。本実施形態では、撮像素子ノイズは、撮像素子に入射される光量に比例して発生する光ショットノイズと、撮像素子から電荷を読みだす過程で一定量発生する読み出し回路ノイズの2種類のノイズから構成されるものとする。そして、以下の手順によって、あらかじめモデル化を行っておく。そして、撮像素子ノイズモデル保持部120は、作成されたモデルを保持する。
まず、撮像素子を遮光した状態で、撮像素子全体の出力値(輝度値)の標準偏差(輝度ばらつき量)を計測する。この輝度の標準偏差が、光量に比例しない読み出し回路ノイズを表す計測値となる。次に、光量を調整可能な光源を用いて、撮像素子に光を直射させた状態での撮像素子全体の輝度の標準偏差と平均値を測定する。光量を一定の割合で変化させながら計測することで、異なる光量における輝度値の標準偏差および平均値が得られる。これらのデータが光量に比例する光ショットノイズを表す計測値となる。光ショットノイズを表す計測値は、輝度値を対数スケールとする片対数空間において比例関係になる。そのため、輝度値の対数と輝度値の標準偏差の計測データを直線フィッティングすることで、これらの関係性を比例係数Sとオフセット係数Sの2パラメータとして関数化できる。そして、上述の読み出し回路ノイズの計測値Dをオフセット係数として加え、計3パラメータからなる関数を撮像素子ノイズモデルとして表す。撮像素子ノイズモデルを用いることで、輝度をIとしたときの輝度値のばらつき量σimgは、以下の式より予測することができる。
Figure 0006415066
以上においては、撮像素子ノイズモデルを輝度値と輝度値のばらつき量との関数として表現したが、これに限るものではない。例えば、輝度値が変化した時の輝度値のばらつき量の変化を、実測または計算データの参照テーブルの形で保持しておき、入力される輝度値に対する輝度ばらつき量をテーブル参照することで予測するようにモデル化を行っても良い。また、ISO12231やISO15739で標準化される手法を用いて撮像素子ノイズを測定しても良い。輝度値に基づいて輝度値のばらつき量を予測できる限り、考慮するノイズの種類やモデル化方法に特に制限はなく、いかなる方式でモデル化しても、特に問題はない。撮像素子ノイズモデルは、撮像素子ノイズモデル保持部120に保存され、輝度ノイズ量予測部130に入力される。
輝度ノイズ量予測部130は、撮像素子ノイズモデル保持部120から撮像素子ノイズモデルを取得する。また、画像取得部110から撮像画像を取得する。そして、取得した撮像素子ノイズモデルと、撮像画像の輝度とに基づいて、輝度の大きさに基づく輝度ばらつき量を予測する。輝度ノイズ量の予測処理の詳細については後述する。
フィルタ情報保持部140では、取得した画像に対し、特徴を検出するためのフィルタ情報を保持する。本実施形態では、1次微分フィルタである3×3のSobelフィルタを保持する。ただし、エッジ特徴を検出するためのフィルタ応答値の算出方法としては、Sobelフィルタに限るものではなく、例えばprewitt、scharrフィルタなどの別の1次微分フィルタを保持してもよい。また、1次微分フィルタに限るものではなく、プラシアンフィルタなどの2次微分フィルタでもよい。また、Cannyエッジ検出アルゴリズムのように、画像のノイズ除去のために、ガウシアンフィルタのような平滑化フィルタをかけてから、Sobelフィルタの処理を行っても良い。近傍画素間での輝度変化量を最終的に算出できる限り、画像フィルタ処理の種類や数、順番に特に制限はなく、いかなる方式であっても本発明の本質を損なうことはない。
閾値算出部150では、輝度ノイズ量予測部130において算出された輝度ノイズ量と、フィルタ情報保持部140で保持する特徴検出フィルタの係数とに基づいて、撮像素子ノイズに起因する特徴の検出を抑制するための閾値を算出する。閾値算出処理の詳細については後述する。
特徴検出部160では、閾値算出部150で算出した閾値に基づいて、エッジ特徴を検出する。本実施形態では、具体的には、フィルタ情報保持部140から取得したフィルタを画像取得部から取得した画像の画素に適用して得られた輝度勾配値を算出する。そして、近傍画素間で輝度勾配値が極値となる画素の中で、閾値を上回る画素をエッジとして判定することでエッジ特徴の検出を行う。ただし、エッジの判定はこれに限るものではなく、例えば、極値判定を行わず、閾値を上回る画素を全てエッジとして判定しても良いし、閾値に対し、輝度勾配値が、一定範囲内または下回る画素をエッジとして判定しても良い。また、ラプラシアンフィルタのような2次微分フィルタ処理を行い、2次微分量を算出している場合には、2次微分量が0となる画素をエッジとして判定しても良い。この場合の閾値判定としては、2次微分値が0となる位置の輝度勾配値を用いても良いし、近傍の2次微分値を用いても良い。閾値算出部150において算出した閾値に基づいて、輝度勾配が顕著に変化する画素を判定できる限り、エッジ検出の処理に特に制限はなく、いかなる方式を用いてもかまわない。特徴検出の処理の詳細に関しては後述する。
以上が、情報処理装置1の構成の一例についての説明である。
次に、本実施形態における特徴検出の処理手順について説明する。図2は、本実施形態における特徴検出の処理手順を示すフローチャートである。
(ステップS1100)
まず、ステップS1100において、輝度ノイズ量予測部130は、撮像素子ノイズモデル保持部120が保持する撮像素子ノイズモデルを取得する。撮像素子ノイズモデルは、上述した手順によりあらかじめ測定しておいた撮像装置10の撮像素子に関するノイズモデルである。本実施形態では、ノイズモデルがROM620や不図示のハードディスク等に保持されているとするが、外部記憶装置にノイズモデルを保持しておき、読み込むことによって、ノイズモデルを取得しても良い。本実施形態では、撮像素子ノイズモデルは、光ショットノイズに関するパラメータS1、S2と読み出し回路ノイズに関するパラメータDの、計3パラメータから構成されるノイズモデルを用いる。情報処理装置1の初期化が終了したら、ステップS1100の処理を終了し、ステップS1200に進む。
(ステップS1200)
次に、ステップS1200において、画像取得部110は、撮像装置10から濃淡画像を取得する。撮像装置10から直接取得しなくても、予め撮像した画像を記憶媒体に記憶させておき、その記憶媒体を読み込むことによって、濃淡画像を取得してもかまわない。濃淡画像の取得が終了したら、画像取得部は、輝度ノイズ量予測部130とフィルタ情報保持部140とに取得した濃淡画像を送出する。ステップS1200の処理を終了し、ステップS1300に進む。
(ステップS1300)
次に、ステップS1300では、輝度ノイズ量予測部130は、ステップS1100で取得した撮像素子ノイズモデルとステップS1200において取得した濃淡画像とに基づいて、濃淡画像の所定領域の輝度ノイズ量を予測する。本実施形態では、画像の各画素毎に、撮像素子ノイズモデルに基づく輝度ノイズ量の算出を行う。
まず、着目画素の輝度値をIとしたときに、輝度ノイズ量の予測値σimgは、上述したように、光ショットノイズを表す比例係数Sオフセット係数Sと、読み出し回路ノイズを表すオフセット係数Dに基づき、式(1)により算出できる。画像中の全ての画素に関して式(1)による、輝度ノイズ量予測処理を繰り返すことで、全画素に関する輝度ノイズ量の予測値を算出する。なお、本実施形態においては、各画素毎に輝度ノイズ量の予測値の算出を行ったが、輝度ノイズ量の予測処理は、これに限るものではない。例えば、画素毎に予測値を算出するのではなく、所定の領域毎に予測値を算出しても良い。この場合、例えば、着目画素近傍3×3範囲や着目領域から所定の円径範囲内などの着目画素の近傍に基づいて領域を設定しても良いし、画像をグリッド状に区切って領域を設定しても良い。また、輝度ノイズ量を予測するための所定両機の輝度代表値としては、例えば、所定の領域での最大値や最小値、平均値や最頻値、メディアンなどの輝度に関する統計値を用いれば良い。画像中の輝度ノイズ量の予測値が算出出来れば、輝度ノイズ量の算出方法や算出範囲に特に制限はなく、いかなる方式で算出しても、特に問題はない。
以上の処理により、画像の各画素毎の輝度ノイズ量の予測値算出処理が終了したら、算出した予測値を閾値算出部へと送出する。ステップS1300の処理を終了し、ステップS1400の処理に進む。
(ステップS1400)
次に、ステップS1400では、閾値算出部150は、ステップS1300において求めた各画素の輝度ノイズ量の予測値と、フィルタ情報保持部140が保持するフィルタ情報とに基づいて、特徴の検出のための閾値を算出(閾値導出)する。
以下、輝度ノイズ量の予測値と特徴検出フィルタの係数とに基づく、輝度勾配値のばらつき量の予測値の算出方法(ばらつき量導出)について、詳述する。
具体的には、まずフィルタ情報保持部から、フィルタ情報として特徴検出フィルタの係数を取得する(数式2、3)。そして、取得した特徴検出フィルタの係数から、輝度が微小に変化したときに輝度勾配値が変化する割合を表す関係式(輝度勾配値のヤコビアン)を求める(数式6)。
本実施形態で用いるsobelフィルタは、画像の方向毎に定義されるため、画像横方向のsobelフィルタと画像縦方向のsobelフィルタの2つのフィルタ処理を行い、その応答値ベクトルの長さを、輝度勾配値として算出する。具体的には、着目画素の輝度値をI22として、着目画素左上の輝度値から右下の輝度値をI11〜I33とすると、画像横方向のsobelフィルタの応答値gと、画像縦方向のsobelフィルタの応答値gと、輝度勾配値Gは以下の式により定義される。
Figure 0006415066
Figure 0006415066
Figure 0006415066
Figure 0006415066
本実施形態では、フィルタとして3×3のSobelフィルタを用いる。そこで、Sobelフィルタを適用する各画素I11〜I33に対応した輝度ノイズ量の予測値をノイズ値予測部からσ11〜σ33として取得する。そして、式2〜4に基づいて、輝度勾配値Gを算出し、該輝度勾配値Gを各画素I11〜I33に関して偏微分した行列(輝度勾配値のヤコビアン)Jを求める(式5)。
輝度勾配値のばらつき量の予測値σは、輝度勾配値のヤコビアンと、各画素の輝度ノイズ量の予測値に基づいて、式6より算出できる。そして、求められた輝度勾配値のばらつき量の予測値に基づいて、特徴検出処理のための閾値を算出する。
Figure 0006415066
Figure 0006415066
以上の処理により全ての画素に関する輝度勾配値のばらつき量σを求める。
以上では、輝度勾配値のばらつき量σを、画像フィルタ処理における勾配値算出式のヤコビアンに基づいて求める方法について述べたが、これに限るものではない。例えば、輝度値のばらつき量と輝度勾配値のばらつき量との関係性を多数回実測し参照テーブルとして保持しておくことで、輝度値のばらつき量に対する輝度勾配値のばらつき量を算出しても良い。また、上述の実測値を関数フィッティングし、求めたパラメータを利用して、輝度値ばらつき量に対する輝度勾配値のばらつき量を算出しても良い。輝度値のばらつき量に基づいて輝度勾配値のばらつき量を算出できる方法であれば、算出方法に特に制限はなく、いかなる方式でも特に問題はない。
以上で算出した輝度勾配値のばらつき量σは、輝度ノイズに起因する輝度勾配値の大きさを表しているため、輝度ノイズに基づく特徴検出を抑制するためには、少なくともσ以上に閾値を設定すれば良い。本実施形態では、3σを閾値として設定する。ただし、閾値の設定方法は、以上に説明した方法に限るものではなく、例えば、σの任意の定数倍を閾値に設定しても良いし、σに加え所定のオフセット値を加えて閾値を設定しても良い。輝度ノイズ量の予測値に基づく輝度勾配値のばらつき量の予測値に基づいて閾値を設定する限り、閾値の設定方法に特に制限はなく、いかなる方式を用いても特に問題はない。
以上の処理により、画像中の画素毎の閾値の算出が終了したら、ステップS1400の処理を終了し、ステップS1500に進む。
(ステップS1500)
次に、ステップS1500では、特徴検出部160は、フィルタ情報保持部140から特徴を検出するための画像フィルタを取得し、ステップS1200において取得した濃淡画像に対し、特徴を検出するための画像フィルタを適用する。本実施形態では、上述した通り、フィルタ情報保持部140から、3×3のSobelフィルタを取得し、該フィルタを用いて画像の輝度勾配値を算出する。具体的には、上記式2〜4を用いて画像の輝度勾配値を算出する。
以上の処理を全ての画素に対して行うことで、画素毎の輝度勾配値Gを算出する。画像のフィルタ処理を終了すればステップS1500の処理を終了し、ステップS1600に進む。
(ステップS1600)
次に、ステップS1600において、特徴検出部160は、ステップS1500において算出した輝度勾配値と、ステップS1400において算出した閾値に基づいて、エッジとなる画素の判定を行うことで、エッジ特徴を検出する。本実施形態では、上述したように、近傍画素間で輝度勾配値が極値となる画素の中で、ステップS1500において算出した閾値を上回る輝度勾配値を備える画素をエッジとして判定する。以下、近傍画素間での輝度勾配値の極値算出方法および閾値判定の処理について、詳細を説明する。
まず、各画素に関して、ステップS1400の方向別のsobelフィルタの応答値(g、g)から、以下の式により勾配方向Aを算出する。
Figure 0006415066
勾配方向Aに基づき、勾配方向に隣接する画素の輝度勾配値を参照し、輝度勾配値が極値となる画素を判定する。そして、極値となる輝度勾配値の絶対値とステップS1500において算出した閾値とを比較して、閾値を上回る場合は、その画素をエッジとして判定する。
以上の処理を全ての画素に対して行い、全ての画素に対してエッジ判定処理を終了したら、この処理を終了し、画像からのエッジ検出の結果が決定される。
以上述べたように、本実施形態では、画像からのエッジ検出において、撮像素子ノイズに起因するエッジの検出を抑制するような閾値を、撮像素子ノイズモデルに基づく輝度ノイズ量の予測値と勾配検出するフィルタの係数とに基づいて算出する方法について述べた。
これにより、明るさが異なる画像に対しても、撮像素子ノイズからの特徴検出を抑制する閾値を自動的に設定して特徴検出を行うことが可能になる。特徴検出に用いるフィルタ応答値が撮像素子ノイズによってばらつく量を予測することにより、任意の特徴検出方法に応じた閾値を自動的に算出することが可能になる。
[変形例1]
上述の実施形態では、特徴検出方法として、エッジ検出を行う方法について述べていた。しかし、特徴検出方法は、これに限るものではない。例えば、特徴検出として、以下の文献で示されるようなHarris特徴点などの点特徴を検出しても良い。
C. Harris and M. Stephens, “A combined corner and edge detector,” Proc. 4th Alvey Vision Conf., pp.147−151, Manchester, U.K., Aug. 1988.
この場合、上述の実施形態とは、フィルタ処理と閾値算出処理および特徴検出処理が異なる。まずフィルタ処理では、画像全体に対しガウシアンフィルタと1次微分フィルタをかけ、平滑化後の画像縦方向の微分画像と画像横方向の微分画像を算出する。そして、縦方向と横方向の微分画像に基づいて、着目点近傍の2次微分値を表すヘッセ行列を求め、ヘッセ行列の行列式(determinant)と跡(trace)に基づいて、harrisのコーナー指標を算出する。
以上の処理を画像中の全画素に関して行う。そして、閾値算出処理では、第1の実施形態のステップS1400と同様に行う。すなわち、harrisのコーナー指標を算出した式を、コーナー指標を計算した各画素に関して偏微分した行列(コーナー指標のヤコビアン)と画素に対応した輝度ノイズ量の予測値とから、コーナー指標のばらつき量の予測値σcを求める。そして、3σcをコーナー指標の閾値として設定する。
そして、特徴検出処理では、フィルタ処理において算出したコーナー指標と閾値算出処理において算出した閾値とを比較し、閾値を上回るコーナー指標を備える画素を、特徴点として出力する。なお、撮像素子ノイズに基づく輝度ノイズ量の予測値の算出は上述の実施形態と同様である。
本変形例では、Harris特徴点を例に説明したが、特徴点の検出方法に関しては、Harris特徴点に限るものではなく、例えば、Moravec特徴やShi−Tomashi特徴、FAST特徴などの別の特徴点検出方法であっても良い。また、例えば、以下の文献で示されるようなSIFT特徴におけるDifference of Gaussian(DoG)処理のようなblob特徴の検出に本発明を適用してもよい。
D. Lowe, “Distinctive image features from scaleinvariant keypoints”, Proc. of International Journal of Computer Vision (IJCV), 60(2), pp. 91−110, 2004.
以上の処理により、明るさが異なる画像に対しても、撮像素子ノイズからの特徴検出を抑制する閾値を自動的に設定して点特徴またはblob特徴の検出を行うことが可能になる。
[変形例2]
上述の実施形態では、画像全体に対して特徴検出を行う方法について述べた。しかし、画像全体から特徴検出せずに、以下の文献で行われているような、着目領域近傍で局所的にエッジ検出を行うような方法を用いても良い。
T Drummond, R Cipolla, “Real−time visual tracking of complex structures, ”Pattern Analysis and Machine Intelligence, IEEE Transactions on 24 (7), 932−946.
この場合、上述の実施形態における画像フィルタ処理と輝度ノイズ量予測処理、閾値算出処理および特徴検出処理において、画像中の全画素に対して処理を行わず、所定の着目領域または画素に関してのみ処理を行う。これにより、画像全体を処理するコストを軽減し、着目領域のみの特徴検出を高速に行うことが可能になる。
[第2の実施形態]
本発明による情報処理装置1による特徴検出の好適な適用事例として、以下のような形態も考えられる。すなわち、情報処理装置1により検出された特徴に、被測定物体(対象物体)の形状を表す三次元形状モデルの特徴が当てはまるようにフィッティングを行うことで、被測定物体の位置姿勢の推定を行う利用例が挙げられる。以下、図3を用いて本実施形態の情報処理装置1を、画像中の特徴に基づいた位置姿勢推定における特徴検出に適用した場合について説明する。なお、本実施形態の説明では、第1の実施形態と同じ構成については説明を省き、違う点のみ説明する。また、本実施形態では、情報処理装置1と位置姿勢推定装置2とをそれぞれ別の装置として説明するが、もちろんこれらの装置を一体の装置として構成するようにしてもよい。
図3は、本発明の第2の実施形態に係る情報処理装置1および位置姿勢推定装置2の概略構成の一例を示す模式図である。図3に示すように、情報処理装置1は、第1の実施形態と同様に、画像取得部110、撮像素子ノイズモデル保持部120、輝度ノイズ量予測部130、フィルタ情報保持部140、閾値算出部150、特徴検出部160から構成されている。また、位置姿勢推定装置2は、概略位置姿勢取得部210、三次元形状モデル保持部220、残差算出部230、位置姿勢算出部240から構成されている。また、図3に示す構成は、本発明の情報処理装置の適用例となる構成である。
次に、情報処理装置1および位置姿勢推定装置2を構成する各部について説明する。情報処理装置1に関する、撮像素子ノイズモデル保持部120、輝度ノイズ量予測部130、フィルタ情報保持部140、閾値算出部150、特徴検出部160は、第1の実施形態における情報処理装置1と同様である。ただし、本実施形態における撮像装置10の、焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、使用する機器の仕様を参照するか、または、以下の文献で開示される方法によって事前にキャリブレーションしておく。
R. Y. Tsai, “A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses,” IEEE Journal of Robotics and Automation, vol.RA−3, no.4, 1987.
概略位置姿勢取得部210は、被計測物体の置かれているおおよその位置や姿勢を取得する。2次元画像撮像装置20と距離画像撮像装置30からなる撮像装置2030に対する被計測物体の位置及び姿勢の概略値を入力する。本実施形態では、位置姿勢算出装置2は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いる。しかしながら、位置及び姿勢の概略値の入力方法はこれに限るものではない。
例えば、過去の位置及び姿勢の計測をもとに物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測したものでもよい。また、様々な姿勢で撮像した対象物体の画像をテンプレートとして保持しておき、入力する画像に対してテンプレートマッチングを行うことによって、対象物体の大まかな位置と姿勢を推定してもよい。
あるいは、他のセンサによる物体の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。センサは、例えばトランスミッタが発する磁界を物体に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサであってもよい。また、物体上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサであってもよい。その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。また、物体の置かれているおおよその位置や姿勢があらかじめ分かっている場合にはその値を概略値として用いる。
三次元形状モデル保持部220は、被測定物体の形状を表す三次元形状モデルを保持する。本実施形態では、三次元形状モデルは、三次元位置と三次元線分方向から構成される物体輪郭上の局所的な三次元線分情報(以後、局所線特徴と称する)によって構成されるものとする。ただし、三次元形状モデルとして保持する形状情報は、対象形状を表す三次元的な幾何情報であれば良く、表現形式に特に制限はない。例えば、稜線を表す三次元ラインの集合、三次元点3点で構成される面および線の集合で表されるポリゴン形式の形状情報など、他の表現で表しても良い。三次元形状モデル保持部220に保持される三次元形状モデルは、残差算出部230に入力される。
残差算出部230は、情報処理装置1の特徴検出部160において検出されたエッジ特徴と、三次元形状モデルの特徴との残差(画像エッジと局所線特徴間の画像上の距離)を算出する。処理の詳細は後述する。
位置姿勢算出部240では、残差算出部230において算出された残差情報に基づいて、残差が最小になるように、撮像装置10と被測定物体との間の位置及び姿勢を計測する。処理の詳細については後述する。
次に、本実施形態における位置・姿勢推定方法の処理手順について説明する。図4は、本発明の第2の実施形態に係る情報処理装置1および位置姿勢推定装置2における位置・姿勢推定方法の処理手順の一例を示すフローチャートである。
(ステップS2100)
ステップS2100において、概略位置姿勢取得部210は、撮像装置10に対する被測定物体の位置及び姿勢の概略値を取得する。本実施形態では、物体の置かれているおおよその位置や姿勢があらかじめわかっているものとして、その値を概略値として用いる。しかしながら、位置及び姿勢の概略値の設定方法はこれに限るものではない。例えば、情報処理装置1は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いるものとしてもよい。また、過去の位置及び姿勢の計測をもとに物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測したものでもよい。また、その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。ステップS2100の処理を終了したら、ステップS2200に進む。
(ステップS2200)
次に、ステップS2200において、情報処理装置1は、被測定物体のエッジ特徴を検出する。本ステップの処理は、第1の実施形態におけるステップS1100からS1600の処理と同一であるのでその詳細な説明を省略する。本ステップにより、画像からエッジ特徴の検出処理が終了すればステップS2200の処理を終了し、ステップS2300に進む。
(ステップS2300)
次に、ステップS2300では、残差算出部230は、ステップS2200において検出されたエッジ特徴(画像特徴)と、三次元形状モデルから抽出された特徴との残差を算出する。具体的には、残差算出部230は、情報処理装置1から検出された特徴を取得する。また、残差算出部230は、概略位置姿勢取得部210から概略位置姿勢を取得し、三次元形状モデル保持部220から三次元形状モデルを取得する。そして、三次元形状モデルを構成する局所線特徴を、取得した概略位置姿勢と校正済みの撮像装置10の内部パラメータとを用いて画像へ投影した位置を算出する。そして、画像上で検出されたエッジと三次元形状モデル中の局所線特徴とを対応付けを行い、画像エッジと局所線特徴間の画像上の距離を残差として算出する。エッジが各局所線特徴に対応して複数検出された場合には、複数検出されたエッジのうち、投影された局所線特徴に対して画像上で最も近いエッジを対応付ける。全ての局所線特徴に関する残差の算出が終了すればばステップS2300の処理を終了し、ステップS2300に進む。
(ステップS2400)
次に、ステップS2400では、位置姿勢算出部240は、ステップS2300において算出した局所線特徴と画像エッジ間の残差に基づいて、三次元形状モデルと被測定物体間の位置及び姿勢を算出する。本ステップでは、局所線特徴と画像エッジ間の残差が最小になるように、線形連立方程式を解くことで、位置姿勢の更新を行う。本処理に関しては本発明の本質に関わる話ではないため、記述は省略する。詳細は以下の文献に記述されている。
T Drummond, R Cipolla, “Real−time visual tracking of complex structures,”Pattern Analysis and Machine Intelligence, IEEE Transactions on 24 (7), 932−946.
位置及び姿勢の更新処理が終了すればステップS2400の処理を終了し、ステップS2500に進む。
(ステップS2500)
次に、ステップS2500では、位置姿勢算出部240は、ステップS2400で更新した位置姿勢が、収束しているか否か、すなわち、さらに反復計算を必要とするか否かの判定を行う。具体的には、補正値がほぼ0である場合や、誤差ベクトルの二乗和の補正前と補正後の差がほぼ0である場合に収束したと判定する。収束していなければ、ステップS2300に戻り、更新した位置姿勢を用いて、再度残差算出処理を行う。収束していると判断した場合は、この処理は終了する。
以上の処理により、撮像装置と被測定物体間の相対的な位置姿勢の最終的な推定値が決定される。
本発明の情報処理装置1および位置姿勢推定装置2により、撮像素子ノイズから検出される特徴を抑制して検出した特徴に基づいて位置姿勢推定を行うことにより、撮像装置10と被測定物体間の位置及び姿勢の推定を高精度に行うことが可能となる。
[第3の実施形態]
本発明による情報処理装置1および位置姿勢推定装置2の好適な適用事例としては、以下のような形態も考えられる。すなわち、撮像装置10により得られる濃淡画像を基に被測定物体30の位置姿勢を推定し、推定された位置姿勢に基づいて産業用ロボットアーム50を制御する。そして、ロボットアーム先端のロボットハンドにより被測定物体の把持(対象物体保持)などを行う利用例があげられる。以下、図5を用いて本発明の一実施例である位置姿勢推定装置1の適用例を説明する。図5では、位置姿勢推定装置2とロボット50を用いて被測定物体30を把持するロボットシステムの構成例を示す。
ロボット50はロボットコントローラ40により制御され、指令された位置に手先を移動させ物体の把持などを行うロボットである。被測定物体30は、作業台に置かれる位置が変わるため、現在の被測定物体30の位置姿勢を推定し、ロボットの把持制御を行う必要がある。
撮像装置10は、通常の濃淡画像を撮影するカメラであり、産業用ロボットアームの手先等の被測定物体30を撮像できる位置に設置する。
位置姿勢推定装置2は、撮像装置10から得られる濃淡画像を基に被測定物体30の位置姿勢を推定する。位置姿勢推定装置2で推定された被測定物体30の位置姿勢は、ロボット50に入力され、被測定物体30の把持などを行うようにロボットアームを制御する。本実施形態の情報処理装置により、ロボットシステムは被測定物体30の位置が不定でも位置姿勢推定を行うことで、被測定物体30を把持(保持)することが可能となる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<実施例の効果>
第1の実施形態では、画像からのエッジ検出において、撮像素子ノイズに起因するエッジの検出を抑制するような閾値を、撮像素子ノイズモデルに基づく輝度ノイズ量の予測値と勾配検出するフィルタの係数とに基づいて算出する方法について述べた。これにより、明るさが異なる画像に対しても、撮像素子ノイズからの特徴検出を抑制する閾値を自動的に設定して特徴検出を行うことが可能になる。特徴検出に用いるフィルタ応答値が撮像素子ノイズによってばらつく量を予測することにより、任意の特徴検出方法に応じた閾値を自動的に算出することが可能になる。
第2の実施形態では、濃淡画像から検出した特徴に、被測定物体の形状を表す三次元形状モデルが当てはまるようにモデルフィッティングを行うことで、被測定物体の位置姿勢の推定を行う方法について述べた。像素子ノイズから検出される特徴を抑制して検出した特徴に基づいて位置姿勢推定を行うことにより、被測定物体の位置姿勢を高精度に推定することが可能となる。
第3の実施形態では、本発明の情報処理装置および位置姿勢推定装置により、被測定物体の位置姿勢を推定し、推定結果に基づいてロボットシステムが被測定物体の把持および移動を行う方法を示した。これにより、被測定物体の位置が不定でもロボットシステムが被測定物体を把持することが可能となる。
<定義>
本願明細書における画像取得は、濃淡画像を取得するカメラによる入力に限るものでなく、対象像が得られる限り他の方式でもよい。例えば、濃淡画像であってもよいしカラー画像であってもよい。また、また、カメラにより撮影される画像に限るものではなく、記憶媒体等に保存されたファイルまたは外部ネットワークから読み込んだ画像を入力しても特に問題はない。また、各画素が奥行きの情報を持つ距離画像であってもよい。
本願明細書における撮像素子ノイズモデルは、輝度値に基づいて輝度値のばらつき量を予測できる限り、いかなるモデルを用いても、特に問題はない。例えば、輝度値と輝度値のばらつき量との関数として表現してもよい。また、輝度値が変化した時の輝度値のばらつき量の変化を、実測または計算データの参照テーブルの形で保持しておき、入力される輝度値に対する輝度ばらつき量をテーブル参照することで予測するようにモデル化を行っても良い。あるいは、ISO12231やISO15739で標準化される手法を用いて撮像素子ノイズを測定しても良い。
本願明細書における輝度ノイズ量予測は、撮像素子ノイズモデルと画像中の輝度に基づいて、輝度ノイズ量の予測値が算出出来れば、算出方法に特に制限はなく、いかなる方式で算出しても、特に問題はない。例えば、着目する画素の輝度ノイズ量を予測するために、着目する画素の輝度値のみから算出しても良いし、着目画素の周辺領域中の輝度値の統計値を算出し、統計値から輝度ノイズ量を予測しても良い。
本願明細書におけるフィルタ処理は、特徴検出を行うためのフィルタ応答値を算出できる限り、画像フィルタ処理の種類や数、順番に特に制限はなく、いかなる方式であっても本発明の本質を損なうことはない。例えば、エッジ検出を行う場合は、1次微分フィルタであるSobelフィルタを画像に畳み込むことで各画素に関する輝度勾配値を算出しても良いし、prewitt、scharrフィルタなどの別の1次微分フィルタを用いても良い。また、プラシアンフィルタなどの2次微分フィルタを用いてもよい。また、Cannyエッジ検出アルゴリズムのように、画像のノイズ除去のために、ガウシアンフィルタのような平滑化フィルタをかけてから、Sobelフィルタの処理を行っても良い。
本願明細書における閾値算出は、輝度勾配値のばらつき量の予測値に基づいて閾値を設定する限り、閾値の設定方法に特に制限はなく、いかなる方式を用いても特に問題はない。例えば、輝度勾配値のばらつき量の予測値の任意の定数倍を閾値に設定しても良いし、輝度勾配値のばらつき量の予測値に加え所定のオフセット値を加えて閾値を設定しても良い。また、撮像素子ノイズによる輝度勾配値のばらつき量の予測処理は、輝度値のばらつき量に基づいて輝度勾配値のばらつき量を算出できる方法であれば、算出方法に特に制限はなく、いかなる方式でも特に問題はない。例えば、画像フィルタ処理における勾配値算出式のヤコビアンに基づいて求めても良い。また、輝度値のばらつき量と輝度勾配値のばらつき量との関係性を多数回実測し参照テーブルとして保持しておくことで、輝度値のばらつき量に対する輝度勾配値のばらつき量を算出しても良い。あるいは、上述の実測値を関数フィッティングし、求めたパラメータを利用して、輝度値ばらつき量に対する輝度勾配値のばらつき量を算出しても良い。
本願明細書における特徴検出は、画像フィルタ処理の結果として得られるフィルタ応答値と閾値とに基づいて特徴となる点を検出できる限り、特徴検出方法に特に制限はない。例えば、エッジ特徴を検出する場合では、近傍画素間で輝度勾配値が極値となる画素の中で、閾値を上回る画素をエッジとして判定しても良い。また、極値判定を行わず、閾値を上回る画素を全てエッジとして判定しても良い。また、閾値に対し、輝度勾配値が、一定範囲内または下回る画素をエッジとして判定しても良い。また、ラプラシアンフィルタのような2次微分フィルタ処理の結果として、2次微分量が得られている場合には、2次微分量が0となる画素をエッジとして判定しても良い。この場合の閾値判定としては、2次微分値が0となる位置の輝度勾配値を用いても良いし、近傍の2次微分値を用いても良い。また、フィルタ応答値よりコーナーらしさを評価する指標を計算することで、特徴点を検出しても良い。また、SIFT特徴におけるDifference of Gaussian(DoG)処理のように、平滑化量が異なる平滑化フィルタの応答値の差分に基づいて、blob特徴の検出を行っても良い。
110 画像取得部
120 撮像素子ノイズモデル保持部
130 輝度ノイズ量予測部
140 フィルタ情報保持部
150 閾値算出部
160 特徴検出部

Claims (12)

  1. 撮像手段によって撮像して得られた撮像画像を取得する画像取得手段と、
    前記撮像手段で撮像される画像の輝度値と該輝度値のばらつき量との関係を示す第1の情報を保持する保持手段と、
    前記撮像画像の所定領域の輝度値と前記第1の情報とに基づき、前記撮像画像の前記所定領域における輝度値のばらつき量を導出するばらつき量導出手段と、
    前記撮像画像から特徴を検出するためのフィルタ処理のフィルタ情報を保持するフィルタ情報保持手段と、
    前記フィルタ情報に基づいて、前記輝度勾配値を取得し、該取得した輝度勾配値と前記導出した輝度値のばらつき量に基づいて、該輝度値の勾配値である輝度勾配値のばらつき量を取得する取得手段と、
    前記取得した輝度勾配値のばらつき量に基づいて、前記撮像画像から得られる輝度勾配値との比較に用いる閾値を導出する閾値導出手段とを備えることを特徴とする情報処理装置。
  2. 前記取得手段は、前記フィルタ情報に基づいて、前記輝度値の変化と前記輝度勾配値の変化との関係を示す第2の情報を導出し、該第2の情報と、前記導出した輝度値のばらつき量とに基づいて、前記輝度勾配値のばらつきを取得することを特徴とする請求項に記載の情報処理装置。
  3. 前記保持手段が保持する第1の情報は、輝度値と該輝度値のばらつき量との関数として表現されることを特徴とする、請求項1または2に記載の情報処理装置。
  4. 前記閾値導出手段で導出された閾値に基づいて、前記撮像画像から前記特徴を検出する検出手段を更に備えることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  5. 前記検出手段は、前記撮像画像に対して前記特徴を検出するためのフィルタを適用することにより、前記撮像画像の各画素に関する輝度勾配値を算出し、該輝度勾配値と前記導出された閾値とに基づいて、前記特徴を検出することを特徴とする請求項に記載の情報処理装置。
  6. 前記検出手段は、前記撮像画像からエッジ特徴を検出することを特徴とする請求項またはに記載の情報処理装置。
  7. 前記検出手段は、点特徴またはblob特徴を検出することを特徴とする、請求項またはに記載の情報処理装置。
  8. 請求項乃至7のいずれか1項に記載の情報処理装置と、
    対象物体を含む画像を取得する第2の画像取得手段と、
    前記対象物体の三次元形状モデルを保持する三次元形状モデル保持手段と、
    前記検出手段により検出された画像特徴と、前記三次元形状モデルの特徴とを対応づける対応付け手段と、
    前記対応付け手段の結果に基づいて、前記対象物体の位置姿勢を推定する位置姿勢推定手段を備えることを特徴とする位置姿勢推定装置。
  9. 請求項に記の位置姿勢推定装置と、
    前記位置姿勢推定装置による前記対象物体の位置姿勢の推定結果に基づいて、前記対象物体を保持する対象物体保持手段とを備えることを特徴とするロボットシステム。
  10. 撮像手段によって撮像して得られた撮像画像を取得する画像取得手段と、
    前記撮像手段で撮像される画像の輝度値と該輝度値のばらつき量との関係を示す第1の情報を保持する保持手段と、
    前記撮像画像の所定領域の輝度値と前記第1の情報とに基づき、前記撮像画像の前記所定領域における輝度値のばらつき量を導出するするばらつき量導出手段と、
    前記導出した輝度値のばらつき量と、事前に計測した輝度値のばらつき量と輝度勾配値のばらつき量との関係とに基づいて、該輝度値の勾配値である輝度勾配値のばらつきを取得する取得手段と、
    前記取得した輝度勾配値のばらつき量に基づいて、前記撮像画像から得られる輝度勾配値との比較に用いる閾値を導出する閾値導出手段とを備えることを特徴とする情報処理装置。
  11. 撮像手段によって撮像して得られた撮像画像を取得する画像取得工程と、
    前記撮像画像の所定領域の輝度値と前記撮像手段で撮像される画像の輝度値と該輝度値のばらつき量との関係を示す第1の情報とに基づき、前記撮像画像の前記所定領域における輝度値のばらつき量を導出するばらつき量導出工程と、
    前記撮像画像から特徴を検出するためのフィルタ処理のフィルタ情報に基づいて、前記輝度勾配値を取得し、該取得した輝度勾配値と前記導出した輝度値のばらつき量に基づいて、該輝度値の勾配値である輝度勾配値のばらつき量を取得する取得工程と、
    前記取得した輝度勾配値のばらつき量に基づいて、前記撮像画像から得られる輝度勾配値との比較に用いる閾値を導出する閾値導出工程とを備えることを特徴とする情報処理方法。
  12. 撮像手段によって撮像して得られた撮像画像を取得する画像取得工程と、
    前記撮像画像の所定領域の輝度値と前記撮像手段で撮像される画像の輝度値と該輝度値のばらつき量との関係を示す第1の情報とに基づき、前記撮像画像の前記所定領域における輝度値のばらつき量を導出するするばらつき量導出工程と、
    前記導出した輝度値のばらつき量と、事前に計測した輝度値のばらつき量と輝度勾配値のばらつき量との関係とに基づいて、該輝度値の勾配値である輝度勾配値のばらつき量を取得する取得工程と、
    前記取得した輝度勾配値のばらつき量に基づいて、前記撮像画像から得られる輝度勾配値との比較に用いる閾値を導出する閾値導出工程とを備えることを特徴とする情報処理方法。
JP2014058490A 2014-03-20 2014-03-20 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム Active JP6415066B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014058490A JP6415066B2 (ja) 2014-03-20 2014-03-20 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
US14/661,859 US10083512B2 (en) 2014-03-20 2015-03-18 Information processing apparatus, information processing method, position and orientation estimation apparatus, and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014058490A JP6415066B2 (ja) 2014-03-20 2014-03-20 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム

Publications (2)

Publication Number Publication Date
JP2015184767A JP2015184767A (ja) 2015-10-22
JP6415066B2 true JP6415066B2 (ja) 2018-10-31

Family

ID=54142610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014058490A Active JP6415066B2 (ja) 2014-03-20 2014-03-20 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム

Country Status (2)

Country Link
US (1) US10083512B2 (ja)
JP (1) JP6415066B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5839929B2 (ja) * 2010-11-19 2016-01-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6478713B2 (ja) * 2015-03-04 2019-03-06 キヤノン株式会社 計測装置および計測方法
US9754358B1 (en) * 2015-09-21 2017-09-05 Rockwell Collins, Inc. Image content enhancement generating and presenting system, device, and method
EP3742347B1 (en) 2016-03-03 2022-11-02 Google LLC Deep machine learning methods and apparatus for robotic grasping
CN108885715B (zh) * 2016-03-03 2020-06-26 谷歌有限责任公司 用于机器人抓取的深度机器学习方法和装置
JP2018036898A (ja) * 2016-08-31 2018-03-08 キヤノン株式会社 画像処理装置及びその制御方法
CN111028188B (zh) * 2016-09-19 2023-05-02 杭州海康威视数字技术股份有限公司 分光融合的图像采集设备
JP6833533B2 (ja) * 2017-01-31 2021-02-24 キヤノンメディカルシステムズ株式会社 超音波診断装置および超音波診断支援プログラム
US10311554B2 (en) 2017-03-01 2019-06-04 Fotonation Limited Method of providing a sharpness measure for an image
US10268903B2 (en) * 2017-06-11 2019-04-23 Jungo Connectivity Ltd. Method and system for automatic calibration of an operator monitor
DE102017212339A1 (de) * 2017-07-19 2019-01-24 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bewertung von Bildausschnitten für eine Korrespondenzbildung
JP6977425B2 (ja) * 2017-09-14 2021-12-08 セイコーエプソン株式会社 画像処理装置、二値画像生産方法および画像処理プログラム
EP3503528B1 (en) * 2017-12-21 2020-10-07 Axis AB Determination of a contrast value for a digital image
JP7257752B2 (ja) * 2018-07-31 2023-04-14 清水建設株式会社 位置検出システム
TWI677233B (zh) * 2018-08-02 2019-11-11 瑞昱半導體股份有限公司 決定濾波器係數的方法
CN111340749B (zh) * 2018-12-17 2023-08-29 丰翼科技(深圳)有限公司 图像质量的检测方法、装置、设备及存储介质
JP7049983B2 (ja) * 2018-12-26 2022-04-07 株式会社日立製作所 物体認識装置および物体認識方法
EP3979637A4 (en) * 2019-05-28 2023-06-28 Hitachi Astemo, Ltd. Calibration method
TWI698124B (zh) * 2019-06-13 2020-07-01 瑞昱半導體股份有限公司 影像調整方法以及相關的影像處理電路
CN112489055B (zh) * 2020-11-30 2023-04-07 中南大学 融合亮度-时序特征的卫星视频动态车辆目标提取方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60105081A (ja) * 1983-11-14 1985-06-10 Fujitsu Ltd 輪郭抽出装置
US6335985B1 (en) * 1998-01-07 2002-01-01 Kabushiki Kaisha Toshiba Object extraction apparatus
EP1969562B1 (en) * 2005-12-30 2016-11-09 Telecom Italia S.p.A. Edge-guided morphological closing in segmentation of video sequences
GB2436654A (en) * 2006-02-03 2007-10-03 Snell & Wilcox Ltd Detection of a cross-fade in a video sequence
JP5052301B2 (ja) * 2007-11-21 2012-10-17 オリンパス株式会社 画像処理装置、画像処理方法
JP4661934B2 (ja) 2008-10-09 2011-03-30 株式会社デンソー 画像処理装置
JP5290864B2 (ja) * 2009-05-18 2013-09-18 キヤノン株式会社 位置姿勢推定装置及び方法
JP5657375B2 (ja) * 2010-12-24 2015-01-21 オリンパス株式会社 内視鏡装置及びプログラム
JP5799516B2 (ja) * 2011-02-03 2015-10-28 セイコーエプソン株式会社 ロボット装置、検査装置、検査プログラム、および検査方法
JP5769559B2 (ja) * 2011-09-07 2015-08-26 キヤノン株式会社 画像処理装置、画像処理プログラム、ロボット装置及び画像処理方法

Also Published As

Publication number Publication date
JP2015184767A (ja) 2015-10-22
US10083512B2 (en) 2018-09-25
US20150269735A1 (en) 2015-09-24

Similar Documents

Publication Publication Date Title
JP6415066B2 (ja) 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
US10288418B2 (en) Information processing apparatus, information processing method, and storage medium
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US9639942B2 (en) Information processing apparatus, information processing method, and storage medium
EP2360638B1 (en) Method, system and computer program product for obtaining a point spread function using motion information
US20130230235A1 (en) Information processing apparatus and information processing method
US9630322B2 (en) Information processing apparatus, method therefor, measurement apparatus, and working apparatus for estimating a position/orientation of a three-dimensional object based on relative motion
JP5480667B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム
JP2012042396A (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2008506953A5 (ja)
JP2011179907A (ja) 位置姿勢計測装置、位置姿勢計測方法およびプログラム
JP2014013147A5 (ja)
WO2016042779A1 (ja) 三角測量装置、三角測量方法およびそのプログラムを記録した記録媒体
JP6817742B2 (ja) 情報処理装置およびその制御方法
JP2016148649A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JPWO2020090897A1 (ja) 位置検出装置、位置検出システム、遠隔制御装置、遠隔制御システム、位置検出方法、及びプログラム
JP7121936B2 (ja) カメラ校正情報取得装置、画像処理装置、カメラ校正情報取得方法およびプログラム
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
CN115862124A (zh) 视线估计方法、装置、可读存储介质及电子设备
JP6719925B2 (ja) 情報処理装置、情報処理方法、プログラム
CN111586299B (zh) 一种图像处理方法和相关设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181002

R151 Written notification of patent or utility model registration

Ref document number: 6415066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151