JP2016103230A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2016103230A
JP2016103230A JP2014242301A JP2014242301A JP2016103230A JP 2016103230 A JP2016103230 A JP 2016103230A JP 2014242301 A JP2014242301 A JP 2014242301A JP 2014242301 A JP2014242301 A JP 2014242301A JP 2016103230 A JP2016103230 A JP 2016103230A
Authority
JP
Japan
Prior art keywords
image
target object
feature
deterioration
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014242301A
Other languages
English (en)
Other versions
JP6573354B2 (ja
Inventor
その子 宮谷
Sonoko Miyatani
その子 宮谷
達矢 鈴木
Tatsuya Suzuki
達矢 鈴木
藤木 真和
Masakazu Fujiki
真和 藤木
小林 一彦
Kazuhiko Kobayashi
一彦 小林
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
祐一郎 廣田
Yuichiro Hirota
祐一郎 廣田
小竹 大輔
Daisuke Kotake
大輔 小竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014242301A priority Critical patent/JP6573354B2/ja
Priority to US14/949,136 priority patent/US10059002B2/en
Priority to CN201510821654.5A priority patent/CN105654464B/zh
Priority to DE102015015194.0A priority patent/DE102015015194A1/de
Publication of JP2016103230A publication Critical patent/JP2016103230A/ja
Application granted granted Critical
Publication of JP6573354B2 publication Critical patent/JP6573354B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Optics & Photonics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮像画像を用いて物体の位置姿勢を計測する場合において、物体の撮像画像に劣化が生じている際の計測精度を向上させる。【解決手段】撮像装置により撮像される撮像画像内の各位置について画像の劣化度を示す情報を取得する。撮像装置により撮像された対象物体の撮像画像を取得する。撮像画像から、対象物体の特徴を抽出する。対象物体の3次元モデルを保持する。対象物体の特徴と、所定の位置姿勢に従って3次元モデルを配置した場合に観察される3次元モデルの特徴とを対応付ける。対応付けられた結果と、特徴が抽出された位置に対応する劣化度とに基づいて、所定の位置姿勢を補正することにより撮像装置に対する対象物体の位置姿勢を導出する。【選択図】図1

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
近年のロボット技術の発展とともに、工業製品の組み立てのようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、組み立てを行うために、ハンドなどのエンドエフェクタによって部品を把持する。ロボットが部品を把持するためには、把持の対象となる部品とロボット(ハンド)との間の相対的な位置及び姿勢(以下、単に位置姿勢と呼ぶ)を計測する必要がある。このような位置姿勢の計測は、他にも、ロボットが自律移動するための自己位置推定、拡張現実における現実空間(現実物体)と仮想物体との位置合わせ等、様々な目的に応用できる。
物体の位置姿勢を計測する方法として、非特許文献1は、撮像装置により得られた画像上のエッジ特徴に対して、線分の集合で表される物体の3次元モデルの投影像をマッチングさせる方法を開示している。具体的には、既知の情報として与えられた概略の位置姿勢に基づいて、3次元モデル中の線分が画像上に投影される。次に、投影された線分上に離散的に配置された制御点のそれぞれに対応するエッジ特徴が画像上から検出される。そして、制御点が属する線分の投影像と対応するエッジ特徴との画像上での距離の二乗和が最小となるように、概略の位置姿勢を補正することにより、最終的な位置姿勢の計測値が得られる。
T. Drummond and R. Cipolla, "Real−time visual tracking of complex structures",IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.24,no.7,pp.932−946,2002.
しかしながら、非特許文献1に記載の手法では、画像のボケ又はブレ等に起因する画像の劣化が生じた場合に、位置姿勢の計測精度が低下するという課題があった。これは、画像が劣化している場合に、画像上から抽出されるエッジ特徴の位置が本来のエッジ特徴の位置からずれるためと考えられる。
本発明は、撮像画像を用いて物体の位置姿勢を計測する場合において、物体の撮像画像に劣化が生じている際の計測精度を向上させることを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。すなわち、
撮像装置により撮像される撮像画像内の各位置について画像の劣化度を示す情報を取得する劣化度取得手段と、
撮像装置により撮像された対象物体の撮像画像を取得する画像取得手段と、
前記撮像画像から、前記対象物体の特徴を抽出する抽出手段と、
前記対象物体の3次元モデルを保持するモデル保持手段と、
前記対象物体の特徴と、所定の位置姿勢に従って前記3次元モデルを配置した場合に観察される3次元モデルの特徴とを対応付ける対応付け手段と、
前記対応付けられた結果と、前記特徴が抽出された位置に対応する前記劣化度とに基づいて、前記所定の位置姿勢を補正することにより前記撮像装置に対する前記対象物体の位置姿勢を導出する導出手段と、
を備えることを特徴とする。
撮像画像を用いて物体の位置姿勢を計測する場合において、物体の撮像画像に劣化が生じている際の計測精度を向上させることができる。
実施形態1に係る情報処理装置1の構成を示す図。 実施形態1に係る処理のフローチャート。 実施形態1に係る劣化度算出処理のフローチャート。 実施形態1に係る特徴抽出処理のフローチャート。 エッジ特徴を抽出するためのフィルタを示す図。 実施形態1に係る位置姿勢算出処理のフローチャート。 エッジ特徴の対応付け方法を説明する図。 モデルエッジ特徴と画像エッジ特徴との関係を示す図。 変形例6に係る特徴抽出処理のフローチャート。 変形例7に係る特徴抽出処理のフローチャート。 変形例8に係る劣化度算出処理のフローチャート。 対象物体の3次元位置を計測する方法を示す図。 照明パターンの1例を示す図。 実施形態4に係るロボットシステムの構成を示す図。 実施形態6に係るコンピュータの構成を示す図。
以下、本発明の実施形態を図面に基づいて説明する。ただし、本発明の範囲は以下の実施形態に限定されるものではない。
[実施形態1]
実施形態1では、測定対象物体の撮像画像の劣化度を考慮して、測定対象物体の位置姿勢の推定が行われる。具体的には、撮像画像から特徴を抽出する際に、撮像画像の劣化度を考慮することにより、高精度に特徴抽出が行われる。また、抽出された特徴に測定対象物体の3次元モデルをフィッティングさせる際に、撮像画像の劣化度に応じた重み付けが行われる。以下では、測定対象物体のことを単に対象物体と呼ぶ。
以下では、撮像装置により撮像された撮像画像に基づいて、対象物体の位置姿勢を推定する場合について説明する。この場合、撮像装置に対する対象物体の相対位置姿勢が算出される。以下の説明においては、別記ない限り、対象物体の位置姿勢とは、撮像装置に対する対象物体の相対位置姿勢を指すものとする。もっとも、撮像装置に対する対象物体の相対位置姿勢と、任意の座標系における撮像装置の位置姿勢とに基づいて、この座標系における対象物体の位置姿勢を算出することは容易である。したがって、撮像装置に対する対象物体の相対位置姿勢を算出することは、任意の座標系における対象物体の位置姿勢を算出することと等価である。
劣化度は、撮像装置により撮像される撮像画像の劣化度を示す。このように、対象物体の位置姿勢を推定する際に対象物体の撮像画像の劣化度を考慮することにより、高精度に測定対象物体の位置姿勢を推定することができる。本実施形態において、劣化度は後述する劣化度保持部102により予め作成されており、予め保持されている。例えば、撮像装置108により対象物体の撮像画像が取得される前、又は画像取得部103により対象物体の撮像画像が取得される前に、劣化度は算出されている。本実施形態の場合には、画像取得部103により対象物体の撮像画像が取得される前に、劣化度算出部101は劣化度を算出する。このような構成によれば、画像取得部103が対象物体の撮像画像を取得した後に劣化度を算出する処理を省略できるので、対象物体の位置姿勢の推定を高速に行うことができる。もっとも、別の実施形態において、撮像装置108により対象物体の撮像画像が取得された後に、又は画像取得部103により対象物体の撮像画像が取得された後に、劣化度が算出されてもよい。例えば劣化度算出部101は、特徴抽出部104又は信頼度算出部105等の処理において劣化度が必要となった場合に、リアルタイムに劣化度を算出してもよい。
本実施形態においては、対象物体の3次元モデル上の特徴(モデル特徴)ごとに、撮像装置に対する対象物体の相対位置姿勢に応じた劣化度が設定されている。この劣化度は、対象物体を撮像装置で撮像した際における、撮像画像上でのモデル特徴に対応する対象物体の特徴の像の劣化度を表す。本実施形態においては、ボケ及びブレによる像の劣化度が考慮される。すなわち、ボケ及びブレに起因する劣化度が、撮像条件を考慮して予め算出及び保持されている。撮像条件には、対象物体と撮像装置との間の相対速度等が含まれる。また、撮像条件には、露光時間、焦点位置、絞り等の撮像装置の撮像パラメータが含まれる。
撮像画像から抽出される特徴は特に限定されないが、本実施形態においてはエッジ特徴が用いられる。エッジ特徴とは、ソーベルフィルタのような微分フィルタを撮像画像に適用することにより抽出される、輝度勾配の極値となる点である。本実施形態においては、エッジ特徴を正しく抽出するために、ボケ量及びブレ量に合わせたフィルタが用いられる。一実施形態においては、ボケ量及びブレ量が大きい場合には大きいサイズのフィルタが用いられ、ボケ量及びブレ量が小さい場合には小さいサイズのフィルタが用いられる。また、撮像画像から抽出されたエッジ特徴(画像エッジ特徴)と3次元モデル上の特徴(モデルエッジ特徴)とのフィッティングにおいては、劣化度が小さいほどエッジ特徴の重みが大きくされる。
図1は、本発明に係る情報処理装置の一例である、実施形態1に係る情報処理装置1の構成を示す。情報処理装置1は、劣化度算出部101、劣化度保持部102、画像取得部103、特徴抽出部104、信頼度算出部105、モデル保持部106及び照合部107を備える。
劣化度算出部101は、撮像装置により撮像される撮像画像内の各位置について画像の劣化度を示す情報を算出する。本実施形態において、劣化度算出部101は、各モデルエッジ特徴について、撮像画像上でのモデルエッジ特徴の位置における画像の劣化度を算出する。
本実施形態において、劣化度算出部101は、モデルエッジ特徴ごとに、撮像画像上でのボケ量及びブレ量を劣化度として算出する。一実施形態において、劣化度算出部101は、対象物体の3次元形状を示す3次元モデルと、撮像装置108による撮像条件と、を考慮してシミュレーションにより劣化度を算出する。劣化度の詳細な算出方法については後述する。本実施形態において、劣化度算出部101は、ボケ量及びブレ量を劣化度として算出する。劣化度保持部102は、劣化度算出部101が算出したモデルエッジ特徴ごとの劣化度を保持する。もっとも、劣化度は撮像画像上での画像劣化度を示すものであれば特に限定されない。例えば、劣化度は画像のボケ量とブレ量とのうちの少なくとも一方でありうる。また、劣化度として、ボケ量とブレ量とに基づくパラメータ(例えば後述するσ)が算出されてもよい。さらに、劣化度として3つ以上のパラメータが算出されてもよい。
本実施形態において、劣化度算出部101は、モデル保持部106が位置情報を保持しているモデルエッジ特徴ごとに、劣化度を算出する。そして、劣化度保持部102は、モデル保持部106が位置情報を保持しているモデルエッジ特徴のそれぞれについて、劣化度を保持する。もっとも、3次元モデル上の任意の点について、同様の方法で劣化度を算出することができる。
本実施形態においては、後述するように、対象物体の像と、比較対象の像(3次元モデル像)とのマッチングが行われる。マッチングが良好な場合、例えば最適化の最終段階においては、対象物体の像と比較対象の像とは近似しているものと考えられる。したがって、撮像画像上でのモデルエッジ特徴の位置における画像の劣化度は、撮像画像上での対応する画像エッジ特徴の劣化度に対応するものと考えられる。
本実施形態において、劣化度算出部101は、撮像装置108に対する対象物体との間の様々な相対位置姿勢について、モデルエッジ特徴群の位置を検出する。そして、劣化度算出部101は、それぞれのモデルエッジ特徴について劣化度を算出する。そして、劣化度保持部102は、モデルエッジ特徴群について算出された劣化度群を、撮像装置108に対する対象物体との相対位置姿勢と関連づけて保持する。ここで、それぞれのモデルエッジ特徴について算出された劣化度には、撮像装置108に対するモデルエッジ特徴の相対位置姿勢が関連づけられる。
本実施形態においては、撮像装置108に対する対象物体の相対位置姿勢が同じである場合、撮像画像の劣化度も同じであることが仮定される。撮像装置108の焦点位置及び絞り値のような撮像条件が一定である場合、撮像装置108に対する対象物体の相対位置姿勢が一定であれば、撮像画像のボケ量は同様であることが推定される。
また、産業用ロボットが対象物体を把持する際に、ロボットに固定された撮像装置108を用いて対象物体を撮像することで、対象物体の位置姿勢を測定する場合を想定する。産業用ロボットは一定の動作を繰り返すことが予想されるため、撮像装置108の位置姿勢に対応して撮像装置108の速度は定まるものと考えられる。また、対象物体は静止しているか、又はベルトコンベア等に乗って一定速度で移動していると考えられる。したがって、撮像装置108のシャッタ速度のような撮像条件が一定である場合、撮像装置108に対する対象物体の相対位置姿勢が一定であれば、撮像画像のブレ量は同様であることが推定される。
もっとも、別の実施形態においては、劣化度算出部101は、撮像装置108による様々な撮像条件を用いて劣化度群を算出してもよい。この場合、劣化度保持部102は、撮像装置108に対する対象物体の相対位置姿勢及び撮像条件と関連づけて、劣化度群を保持することができる。この場合、例えば、対象物体の概略位置姿勢と、画像取得部103が取得した撮像画像の撮像条件と、に対応する劣化度群を用いて、対象物体の位置姿勢を推定することができる。
画像取得部103は、対象物体を撮像することにより得られた撮像画像を取得する。本実施形態において、画像取得部103は、情報処理装置1に接続された撮像装置108により撮像された対象物体の撮像画像を、撮像装置108から取得する。別の実施形態において、画像取得部103は、情報処理装置1が有する、撮像画像を記憶している記憶部(不図示)から、撮像画像を取得してもよい。さらに、画像取得部103は、撮像装置108により得られた撮像画像を記憶している、ネットワークを介して情報処理装置1に接続された外部の記憶装置(不図示)から、撮像画像を取得してもよい。また、撮像画像の種類は、対象物体の像の特徴が抽出できるのであれば、特に限定されない。例えば、撮像画像はグレースケール画像であってもよいし、カラー画像であってもよいし、距離画像であってもよい。
特徴抽出部104は、画像取得部103が取得した撮像画像から、対象物体の像の特徴を抽出する。本実施形態において特徴抽出部104は、撮像画像に対してエッジ検出処理を行うことにより、エッジ特徴を抽出する。この際、特徴抽出部104は、劣化度保持部102が保持する劣化度を参照してエッジ特徴を抽出する。すなわち、特徴抽出部104は、劣化度に応じて、撮像画像から特徴を抽出するために用いる抽出パラメータを設定する。特徴抽出部104は、撮像画像を参照して、設定された抽出パラメータを用いて、撮像画像から複数の特徴を抽出する。このように、特徴抽出部104は、劣化度保持部102が保持する劣化度を取得する劣化度取得部を有している。
具体的には、特徴抽出部104は、まず、対象物体の現在の位置姿勢の概略値に対応する劣化度群を、劣化度保持部102から取得する。本実施形態において特徴抽出部104は、劣化度保持部102が保持している劣化度群に対応付けられている対象物体の位置姿勢のうち、現在の対象物体の位置姿勢の概略値に最も近いものを特定する。そして、特徴抽出部104は、特定された対象物体の位置姿勢に関連づけられた劣化度群を取得する。
そして、特徴抽出部104は、取得した劣化度にもとづいてエッジ特徴を抽出するための抽出パラメータを設定する。本実施形態においては、抽出パラメータとして、エッジ抽出フィルタのフィルタ係数が設定される。さらに、特徴抽出部104は、設定されたフィルタを撮像画像に適用することにより、エッジ特徴を抽出する。以下、特徴抽出部104が撮像画像から抽出したエッジ特徴のことを、画像エッジ特徴と呼ぶ。フィルタの設定方法については、後述する。
対象物体の概略的な位置姿勢は、公知の方法を用いて求めることができる。対象物体の概略的な位置姿勢を求める方法の一例としては、吉井裕人,「アンサンブル分類木を用いたバラ積み部品の概略位置姿勢検出」,画像の認識・理解シンポジウム(MIRU2010),2010.に記載の方法が挙げられる。また、対象物体の概略的な位置姿勢として、直前に推定された対象物体の位置姿勢が用いられてもよい。
モデル保持部106は、対象物体の3次元モデルを保持する。3次元モデルは、対象物体の3次元的な幾何形状を示す。幾何形状の表現形式に特に制限はない。例えば、3次元モデルはポリゴン形式のデータであってもよく、すなわち幾何形状を表すために3次元点で構成される面及び線の集合を有していてもよい。また、3次元モデルは稜線を表す3次元ラインの集合を有していてもよいし、単純な3次元点の集合を有していてもよい。本実施形態において、モデル保持部106は、対象物体の3次元モデル上から抽出された3次元のエッジ特徴(モデルエッジ特徴)の位置情報を保持している。
モデル保持部106が保持するモデルエッジ特徴の抽出方法の一例を以下に示す。まず、撮像装置108に対する対象物体の相対位置姿勢に基づいて、3次元モデルが撮像装置108の撮像画像面に投影される。こうして得られた画像のことを投影画像と呼ぶ。すなわち、撮像装置108が対象物体を撮像することにより得られる画像が、対象物体の3次元モデルを用いて推定される。例えば、仮想空間上に、撮像装置108に相当する視点と3次元モデルとを、撮像装置108に対する対象物体の相対位置姿勢にしたがって配置し、視点からの対象物体の画像を生成することにより、この処理を実現できる。
次に、得られた投影画像に対して微分フィルタを適用することにより、投影画像上のエッジ特徴が抽出される。さらに、投影画像上のエッジ特徴を3次元モデルに逆投影することにより、モデルエッジ特徴が抽出される。例えば、投影画像上のエッジ特徴に対応する3次元モデル上の点群を、モデルエッジ特徴として抽出することができる。以上の処理を撮像装置108に対する対象物体の様々な相対位置姿勢について行うことにより、それぞれの相対位置姿勢において1以上のモデルエッジ特徴群が抽出される。モデル保持部106は、抽出された1以上のモデルエッジ特徴群の位置情報を保持する。本実施形態において、モデル保持部106は、撮像装置108に対する対象物体の間の相対位置姿勢に関連づけて、抽出された1以上のモデルエッジ特徴群の位置情報を保持する。この場合、モデルエッジ特徴の位置情報は、撮像装置108に対するモデルエッジ特徴の相対位置姿勢を示しうる。
もっとも、3次元モデルからモデルエッジ特徴を抽出する方法は上記の方法には限られず、別の方法を用いることもできる。例えば、3次元モデルが面の法線情報を保持している場合には、法線方向が不連続となる箇所をモデルエッジ特徴として抽出することができる。また、モデル保持部106は、様々な相対位置姿勢において抽出されたモデルエッジ特徴群をまとめて保持してもよい。例えば、モデル保持部106は、3次元モデル上におけるモデルエッジ特徴の位置情報を保持してもよい。この場合、撮像装置108に対する3次元モデルの相対位置姿勢に基づいて、撮像装置108に対するモデルエッジ特徴の相対位置姿勢を算出することができる。
また、モデル保持部106が保持するモデル情報は、3次元モデルそのものであってもよい。さらに、モデル情報は、3次元モデルのエッジ特徴を撮像装置108の撮像画像面に投影して得られる2次元のエッジ特徴像についての、投影画像上の位置及び方向の情報であってもよい。このような場合であっても、モデル情報に示される特徴を、画像から抽出される特徴とマッチングさせることができる。さらには、モデル情報は、対象物体を撮像して得られる画像であってもよい。この場合、この画像から抽出された特徴を、特徴抽出部104により抽出された特徴とマッチングさせることができる。また、後述する実施形態5に従って画像同士をマッチングさせることもできる。さらには、モデル情報は、対象物体の種類を特定する識別子を有していてもよい。
照合部107は、対象物体の位置姿勢を算出する。照合部107は、対象物体の特徴と、所定の位置姿勢に従って3次元モデルを配置した場合に観察される3次元モデルの特徴との対応付けを行う。そして、対応付けられた結果と、特徴が抽出された位置に対応する劣化度とに基づいて、所定の位置姿勢を補正することにより撮像装置108に対する対象物体の位置姿勢を導出する。
照合部107により行われる処理の概略は、以下の通りである。まず、照合部107は、対象物体の像から抽出された複数の特徴のそれぞれについて、この特徴と、この特徴に対応する比較対象の像の特徴と、の差異を算出する。本実施形態において、照合部107は、対象物体の像から抽出された複数のエッジ特徴のそれぞれについて、このエッジ特徴と、このエッジ特徴に対応する比較対象の像のエッジ特徴と、の差異を算出する。ここで、比較対象の像とは、所定の位置姿勢に従って視点と3次元モデルを配置した場合に観察される3次元モデル像である。本実施形態においては、まず、上記のように取得された対象物体の概略位置姿勢に従って視点と3次元モデルとを配置した場合における3次元モデル像を用いて差異が算出される。そして、視点と3次元モデルとの間の相対位置姿勢を変化させながら得られた複数の3次元モデル像を用いて、同様に差異が算出される。
具体的な一例として、照合部107は、モデル保持部106が保持しているモデルエッジ特徴群のうち、撮像装置108に対する対象物体の現在の相対位置姿勢に対応するモデルエッジ特徴群を取得する。例えば、照合部107は、モデル保持部106が保持しているモデルエッジ特徴群に関連づけられている相対位置姿勢のうち、撮像装置108に対する対象物体の現在の相対位置姿勢の概略値にもっとも近いものを検出することができる。そして、検出された相対位置姿勢に関連づけられているモデルエッジ特徴群を、照合部107は取得する。こうして取得されたモデルエッジ特徴群のそれぞれについては、視点すなわち撮像装置108に対する、各エッジの相対位置姿勢が特定されている。
照合部107は、次に、取得したモデルエッジ特徴群のそれぞれについて、特徴抽出部104により抽出された対応する画像エッジ特徴を対応付ける。対応付けの方法は特に限定されず、例えば次の方法で行うことができる。まず、照合部107は、3次元モデルが有する複数のエッジのそれぞれについて、所定の位置姿勢に基づいて投影画像上に投影することで得られる画像位置を算出する。例えば、照合部107は、モデルエッジ特徴群のそれぞれについて、所定の位置姿勢に従って視点と3次元モデルを配置した場合に観察される投影画像上における画像位置を算出する。この投影画像には、所定の位置姿勢に従って視点と3次元モデルを配置した場合に観察される3次元モデル像が含まれており、この3次元モデル像は複数のモデルエッジ特徴の像により構成されている。そして、投影画像上におけるモデルエッジ特徴の画像位置と、撮像画像上における画像エッジ特徴の画像位置が近接するように、モデルエッジ特徴に画像エッジ特徴が対応付けられる。このような対応付け方法の一例については後に説明する。もっとも、対象物体に埋め込まれた情報等を用いてモデルエッジ特徴に対応する画像エッジ特徴を識別してもよい。
モデル保持部106が3次元モデルをモデル情報として保持している場合には、照合部107は、モデル保持部106から3次元モデルを取得する。次に、照合部107は、撮像装置108に対する対象物体の現在の相対位置姿勢の概略値に基づいて、取得した3次元モデルを撮像装置108の撮像画像面に投影する。こうして、所定の位置姿勢に従って視点と3次元モデルを配置した場合に観察される3次元モデルの像が得られる。さらに、照合部107は、モデル保持部106が保持するモデルエッジ特徴の抽出方法と同様の方法を用いて、投影画像からモデルエッジ特徴を抽出する。そして、照合部107は、抽出されたモデルエッジ特徴を上述の方法で画像エッジ特徴と対応付ける。
また、照合部107は、画像エッジ特徴に対して適用される信頼度wを、信頼度算出部105から取得する。この信頼度wは、撮像画像から画像エッジ特徴が正しく抽出される可能性、例えば正しい位置で抽出される可能性を示す。本実施形態においては、画像エッジ特徴に対して適用される信頼度wは、対応するモデルエッジ特徴についての劣化度に従って得られる。前述のように、劣化度は、撮像画像上でのモデルエッジ特徴に対応する画像エッジ特徴の像の劣化度を表すため、劣化度に従って信頼度wを算出することができる。別の実施形態において、信頼度算出部105は、画像エッジ特徴が抽出された画像位置に対応する劣化度に従って、信頼度w算出することもできる。
そして、照合部107は、モデルエッジ特徴群、画像エッジ特徴群、及び信頼度wを参照して、対象物体の位置姿勢を算出する。本実施形態において、照合部107は、複数の3次元モデル像のうち、対象物体の像との一致度が最も高くなる3次元モデル像を、対象物体の像に対応する比較対象の像として判定する。ここで、一致度は、画像エッジ特徴が抽出された位置に対応する劣化度に従って重み付けされた、複数の画像エッジ特徴と対応するモデルエッジ特徴との差異に基づいて求められる値に相当する。
本実施形態において、画像エッジ特徴とモデルエッジ特徴との差異は、撮像画像上における画像エッジ特徴の画像位置と、投影画像上におけるモデルエッジ特徴の画像位置と、の間の距離である。また、重み付けには、劣化度に従って算出された信頼度wが用いられる。具体的には、画像エッジ特徴の像が正しく抽出される可能性が高いほど、大きい重み付けがなされる。
本実施形態において、照合部107は、対象物体の概略位置姿勢を、視点と3次元モデルとの間の初期の位置姿勢として用いる。そして、照合部107は、一致度がより高くなるように視点と3次元モデルとの間の位置姿勢の最適化を行う。照合部107は、一致度がもっとも高くなる場合に、3次元モデルの像は対象物体の像に一致し、すなわち視点に対する3次元モデルの位置姿勢が撮像装置108に対する対象物体の位置姿勢を表しているものと判定する。この最適化計算の詳細についても、後述する。
信頼度算出部105は、モデルエッジ特徴についての劣化度に基づいて、モデルエッジ特徴に対応する画像エッジ特徴についての信頼度wを算出する。本実施形態においては、モデルエッジ特徴についての劣化度が高いほど、信頼度wが低くなるように、信頼度wの算出が行われる。
以下に、具体的な処理の一例について説明する。まず、信頼度算出部105は、劣化度保持部102から、撮像装置に対する対象物体の位置姿勢に関連づけて格納されている、対応する画像エッジ特徴が検出された各モデルエッジ特徴についての劣化度σの情報取得を行う。このように、信頼度算出部105は、劣化度保持部102が保持する劣化度を取得する劣化度取得部を有している。そして、信頼度算出部105は、得られた劣化度σに基づいて、画像エッジ特徴についての信頼度wを算出する。
信頼度wは、画像エッジ特徴が正しく抽出される可能性が高いほど高くなるように定められる値であれば、特に限定されない。劣化度としてボケ量とブレ量との少なくとも一方が用いられる一実施形態においては、ボケ量が大きいほど、及びブレ量が大きいほど、信頼度wが低くなるように信頼度wが定められる。本実施形態においては、ボケ量及びブレ量に従って求められる劣化度σの統計量がパラメータとして含まれる関数を用いて、信頼度wが定められる。統計量としては、劣化度の平均値又は分散値等が挙げられるが、特に限定されない。例えば、信頼度wは式(1)に示すTukey関数を用いて表現することができる。
Figure 2016103230
式(1)において、cは対応する画像エッジ特徴が検出された各モデルエッジ特徴についての劣化度σの平均値、すなわち統計量であり、bは各モデルエッジ特徴についての劣化度σである。なお、関数の種類は特に限定されず、劣化度が高いほど信頼度wが低くなり、劣化度が低いほど信頼度wが高くなる他の関数を用いることができる。例えば、ガウス関数又はHuberの関数等で信頼度を表現してもよい。また、統計量cの代わりに予め設定された劣化度の許容値を用いて、Tukey関数などの関数により信頼度wを表現してもよい。
<本実施形態に係る処理>
次に、本実施形態における処理の一例を、図2のフローチャートを参照しながら説明する。ステップS201において、劣化度保持部102は、劣化度を既に保持しているか否かを判定する。劣化度を保持している場合には処理はステップS204に進む。劣化度を保持していない場合には処理はステップS202に進む。ステップS202において、劣化度算出部101は劣化度を算出する。劣化度の算出方法については後述する。ステップS203において、劣化度保持部102は、ステップS202で算出された劣化度を保持する。このように、本実施形態においては、ステップS201及びS202において、情報処理装置1の初期処理として、画像取得部103が撮像画像を取得する前に劣化度の算出及び保持が行われる。もっとも、劣化度保持部102は、外部装置又は記憶媒体等から予め算出されている劣化度を取得及び保持してもよい。
ステップS204において、画像取得部103は、撮像装置108が対象物体を撮像することにより得られた撮像画像を取得する。ステップS205において、特徴抽出部104は、ステップS204で得られた撮像画像から画像エッジ特徴を抽出する。特徴抽出部104は、劣化度保持部102から取得した劣化度に基づいてフィルタを設定し、撮像画像にフィルタを適用することにより、画像エッジ特徴を抽出する。ステップS205における具体的な処理については後述する。ステップS206において、照合部107は対象物体の位置姿勢を算出する。具体的な処理については後述する。
<劣化度算出処理>
次に、図3のフローチャートを参照して、劣化度算出部101が劣化度を算出するステップS202の処理について説明する。本実施形態において、劣化度算出部101は、撮像装置108に対する対象物体の様々な位置姿勢に従って、視点と対象物体の3次元モデルとを配置する。そして、撮像装置108による撮像条件を考慮して、視点からみた3次元モデルの像の劣化度を算出する。こうして得られた劣化度は、撮像装置108が対象物体を撮像した際に得られると対象物体の像の劣化度の推定値として用いることができる。
本実施形態においては、劣化度としてボケ量D、ブレ量B、及びボケ量及びブレ量に従って得られる劣化度σが算出される。また、撮像装置108による対象物体の撮像条件には、対象物体と撮像装置108との間の相対速度、並びに露光時間、焦点位置、及び絞り等の撮像装置108の撮像パラメータ等が含まれる。以下に、これらの情報を用いてシミュレーションにより劣化度を算出する方法について説明する。
以下では、モデル保持部106が位置情報を保持しているモデルエッジ特徴ごとに劣化度を算出する方法について説明する。別の実施形態において、劣化度算出部101は、撮像装置108に対する対象物体の様々な相対位置姿勢について、モデルエッジ特徴の位置を検出し、それぞれのモデルエッジ特徴について劣化度を算出する。この場合、劣化度算出部101は、モデル保持部106が保持するモデルエッジ特徴の抽出方法として上述した方法を用いて、モデルエッジ特徴を検出することができる。検出されたモデルエッジ特徴についての劣化度の算出方法は、以下の通りに行うことができる。
ステップS301において劣化度算出部101は、撮像装置108が対象物体を撮像する際の撮像条件を取得する。撮像条件には、撮像装置108による撮像画像に影響を与える撮像パラメータ、例えば焦点距離、ピント位置、絞り値、及び露光時間等が含まれる。また、撮像条件には、撮像装置108と対象物体との相対速度が含まれる。この相対速度は、撮像装置108と対象物体との相対的な移動方向及び速度を表す。
例えば対象物体がベルトコンベア上を1軸方向に並進運動する場合には、設計データ又は設定値等に基づいて、対象物体の移動方向及び移動速度を算出することができる。また、対象物体の移動方向及び移動速度をセンサ等を用いて検出してもよい。撮像装置108と対象物体との相対速度は、対象物体の移動方向及び移動速度、並びにモデルエッジ特徴に関連づけられている撮像装置108に対する対象物体の相対位置姿勢に基づいて算出することができる。
ステップS302において、劣化度算出部101は、モデル保持部106が位置情報を保持しているモデルエッジ特徴群の中から、劣化度を算出するモデルエッジ特徴を1つ選択する。ステップS303において、劣化度算出部101は、ステップS302において選択されたモデルエッジ特徴について、予測されるボケ量Dを算出する。ボケ量の計算方法は特に限定されず、公知の式を用いて算出することができる。ボケ量の計算は、撮像装置108の焦点距離、撮像装置108の絞り値、及び撮像装置108とピント面との距離のような撮像パラメータ、並びに撮像装置108とモデルエッジ特徴との距離等を用いて行うことができる。本実施形態において、劣化度算出部101は、以下の式(2)を用いてボケ量Dを算出する。
Figure 2016103230
式(2)において、fは撮像装置108の撮影レンズの焦点距離を表す。Lは仮想視点のピント位置を表す。Lは仮想視点からモデルエッジ特徴までの距離を表す。Fは撮像装置108の撮影レンズの絞り値を表す。Δdは画素の大きさを表す。Lは、モデルエッジ特徴の位置情報に基づいて算出することができる。撮影レンズの焦点距離及び絞り値のような撮像装置108の撮像パラメータは、撮像装置108の仕様に従って予め設定されていてもよいし、劣化度算出部101が撮像装置108から取得してもよい。また、撮像パラメータが、R. Y. Tsai, "A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses", IEEE Journal of Robotics and Automation, vol.RA−3, no.4, 1987.で開示される方法等によって事前にキャリブレーションされていてもよい。撮像パラメータがさらにレンズ歪みパラメータ等を含んでいてもよく、このようなさらなるパラメータを参照してボケ量が算出されてもよい。
ステップS304において、劣化度算出部101は、ステップS302において選択されたモデルエッジ特徴について、予測されるブレ量を算出する。ブレ量の計算方法は特に限定されず、公知の式を用いて算出することができる。以下では、ブレ量の計算方法の一例について説明する。本実施形態において、劣化度算出部101は、露光時間中におけるモデルエッジ特徴の撮像画像上での移動量を、ブレ量として算出する。ブレ量は、撮像装置108に対するモデルエッジ特徴の相対位置姿勢と、露光時間及び撮像装置108と対象物体との相対速度のような撮像装置108による撮像条件と、に基づいて算出できる。以下の例では、露光時間中における撮像画像上でのモデルエッジ特徴の移動量がブレ量として算出される。
本実施形態において、劣化度算出部101は、撮像画像上でのモデルエッジ特徴のヤコビアンを算出する。そして、劣化度算出部101は、モデルエッジ特徴のヤコビアン、撮像装置108と対象物体との間の相対速度、並びに露光時間に基づいて、モデルエッジ特徴のブレ量を算出する。
モデルエッジ特徴のヤコビアンとは、対象物体についての6自由度の位置姿勢パラメータが微小に変化したときに、撮像画像上においてモデルエッジ特徴の像の位置が変化する割合を表す値である。
以下では、対象物体の位置姿勢をs、露光開始時のモデルエッジ特徴の像の位置を(u,v)、露光終了時のモデルエッジ特徴の像の位置を(u’,v’)、モデルエッジ特徴の像の法線方向を(n,n)(単位ベクトル)と表す。すると、露光開始時のモデルエッジ特徴の像と、露光終了時のモデルエッジ特徴の像と、の間の符号付距離err2Dは、以下の式(3)より算出できる。
Figure 2016103230
対象物体の位置姿勢sは6次元ベクトルであり、対象物体の位置を表す3つの要素(s1,s2,s3)と、姿勢を表す3つの要素(s4,s5,s6)を有する。3つの要素による姿勢の表現方法は特に限定されない。例えば、姿勢はオイラー角によって表現することができる。また、原点を通る回転軸をベクトルの方向が表し、回転角をベクトルのノルムが表す3次元ベクトルによって、姿勢を表現することもできる。この位置姿勢sの各要素で対応間距離err2Dを偏微分することにより、以下の式(4)のようにモデルエッジ特徴のヤコビアン行列J2Dを算出することができる。
Figure 2016103230
劣化度算出部101は、以上の処理を各モデルエッジ特徴に対して処理を行うことにより、各モデルエッジ特徴のヤコビアンを計算する。すると、画像の露光時間t中に対象物体が相対速度Vで動くことによって発生するモデルエッジ特徴のブレ量Bは、モデルエッジ特徴のヤコビアンを用いて、以下の式(5)により計算できる。
Figure 2016103230
得られるブレ量Bはスカラーであり、露光時間中における撮像画像上でのモデルエッジ特徴の像の位置の移動量を表す。劣化度算出部101は、以上の処理を各モデルエッジ特徴に対して行うことにより、各モデルエッジ特徴についてのブレ量Bを算出する。
ステップS305において、劣化度算出部101は、各モデルエッジ特徴について、ステップS303で得られたボケ量Dと、ステップS304で得られたブレ量Bとを用いて、劣化度σを算出する。劣化度σの具体的な算出方法は特に限定されない。本実施形態において、劣化度算出部101は、ボケ量D及びブレ量Bが大きいほど劣化度σが大きくなるように、劣化度σを算出する。例えば、劣化度σは式(6)を用いて算出できる。もっとも、劣化度σは、画像の劣化度が高いほど大きくなるのであれば、任意の方法で定めることができる。
Figure 2016103230
ステップS306において、劣化度算出部101は、すべてのエッジ特徴について劣化度、すなわちボケ量D及びブレ量Bの算出が行われたか否かを判定する。劣化度の算出が終わっている場合、処理は終了する。劣化度の算出が変わっていない場合、処理はステップS302に戻る。劣化度保持部102は、こうして算出された劣化度、すなわちボケ量D及びブレ量Bを、モデルエッジ特徴と関連づけて保持する。
<フィルタ設定及びエッジ抽出処理>
次に、図4のフローチャートを用いて、撮像画像から画像エッジ特徴を抽出するステップS205における具体的な処理について説明する。本実施形態において、特徴抽出部104は、撮像画像の劣化度に応じてフィルタを設定する。そして、特徴抽出部104は、設定されたフィルタを取得画像に適用することで、画像エッジ特徴を抽出する。本実施形態においては、対象物体の位置姿勢に応じて1つのフィルタが設定され、この1つのフィルタを撮像画像全体に適用することにより、画像エッジ特徴が抽出される。
ステップS401において、特徴抽出部104は、画像取得部103が取得した対象物体の撮像画像を取得する。ステップS402において、特徴抽出部104は、対象物体の位置姿勢に対応する劣化度群を劣化度保持部102から取得する。本実施形態においては、劣化度としてボケ量B及びブレ量Dが取得される。ボケ量B及びブレ量Dはモデルエッジ特徴毎に保持されており、以下の処理においては、複数のモデルエッジ特徴についてのボケ量B及びブレ量Dの統計値、例えば平均値が用いられる。
ステップS403において、特徴抽出部104は、エッジ特徴を抽出するための抽出パラメータを設定する。本実施形態において、特徴抽出部104は、撮像画像から画像エッジ特徴を抽出するためのフィルタを設定する。本実施形態において、特徴抽出部104は、ステップS402において取得したボケ量B及びブレ量Dを参照して、予測されるエッジ特徴の波形を計算する。本実施形態において、特徴抽出部104は、具体的には、特徴抽出部104は、図5(A)〜(F)に示すように、標準偏差Dのガウス関数と、幅がBで高さが1である矩形波とのたたみこみ計算を行うことで、予測されるモデルエッジ特徴の像の波形を計算する。
図5(A)(D)は、ボケ量D及びブレ量Bを用いて計算される波形501,504を示す。次に、特徴抽出部104は、図5(B)(E)に示すように、得られた波形501,504を微分することにより波形502,505を計算する。こうして得られた波形502,505は、波形501,504に対応する抽出フィルタであり、波形501,504からエッジを高精度に抽出することができる。最後に、特徴抽出部104は、所定の閾値を用いて波形502,505を量子化することにより、抽出フィルタ503,506を得る。こうして、図5(C)(F)に示すように、撮像画像に対するたたみこみ計算のために用いられる抽出フィルタ503,506が設定される。こうして得られた抽出フィルタ503,506は、微分フィルタに相当する。
抽出フィルタ503は、波形501に示されるようにボケ量D及びブレ量Bがより大きい場合に用いられる。また、抽出フィルタ506は、波形504に示されるようにボケ量D及びブレ量Bがより大きい場合に用いられる。このように、本実施形態においては、劣化度(ボケ量D及びブレ量B)が大きいほど大きいサイズのフィルタが用いられ、劣化度が小さいほど小さいサイズのフィルタが用いられる。また、ボケ量D及びブレ量Bの代わりに、上述のように計算された劣化度σを用いることもできる。この場合も、劣化度σが大きいほど大きいサイズのフィルタが用いられ、劣化度が小さいほど小さいサイズのフィルタが用いられる。
ここでは、抽出フィルタとして1次元のフィルタを用いる場合について説明した。しかしながら、抽出フィルタとして2次元のフィルタを用いることもできる。この場合にも、劣化度が大きいほど大きいサイズのフィルタを、劣化度が小さいほど小さいサイズのフィルタを、それぞれ設定することができる。
ステップS404において、特徴抽出部104は、ステップS403で設定されたフィルタを撮像画像に適用することにより、エッジ特徴(画像エッジ特徴)を抽出する。本実施形態においては、フィルタを撮像画像に適用することにより、エッジ強度を示すマップが得られる。
<位置姿勢推定処理>
次に、図6のフローチャートを参照して、ステップS206における、対象物体の位置姿勢を推定する方法について説明する。本実施形態において、照合部107は、撮像画像上に投影したモデルエッジ特徴の像と、画像エッジ特徴とがフィットするように、3次元モデルの位置姿勢を最適化することにより、対象物体の位置姿勢を推定する。ここでは、照合部107は、画像エッジ特徴とモデルエッジ特徴の像との撮像画像上での距離の総和が最小化されるように、Gauss−Newton法を用いて3次元モデルの位置姿勢を最適化する。
ステップS601において、照合部107は初期化処理を行う。まず、照合部107は、対象物体の概略位置姿勢を取得し、3次元モデルの位置姿勢sとして設定する。また、照合部107は、上述のように、撮像装置108に対する対象物体の概略的な相対位置姿勢に対応するモデルエッジ特徴群を、モデル保持部106から取得する。
ステップS602において、照合部107は、取得したモデルエッジ特徴群のそれぞれと、特徴抽出部104により抽出された画像エッジ特徴群のそれぞれとの対応付けを行う。対応付けの方法は特に限定されないが、例えば次のように対応付けを行うことができる。まず、照合部107は、撮像装置108に対する対象物体の現在の相対位置姿勢の概略値に基づいて、モデルエッジ特徴を撮像装置108の撮像画像面に投影する。こうして、照合部107は、撮像装置108の撮像画像面における、モデルエッジ特徴の位置及び方向を算出する。図7(A)は、投影されたモデルエッジ特徴701が示されている。
次に、照合部107は、撮像画像面上で等間隔になるように、投影されたモデルエッジ特徴701上に複数の制御点702を設定する。さらに、照合部107は、制御点702のそれぞれについて、投影されたモデルエッジ特徴701の法線方向に探索ライン703を設定する。そして、照合部107は、制御点702のそれぞれについて、制御点702から所定の範囲内において、探索ライン703上に存在する画像エッジ特徴を探索する。
図7(B)においては、原点が制御点702であり、横軸が探索ラインであり、縦軸がエッジ強度マップの画素値の絶対値を示す。本実施形態において、エッジ強度マップは、ステップS404において特徴抽出部104が撮像画像に対して微分フィルタを適用することにより得られている。すなわち、エッジ強度マップの画素値の絶対値は、撮像画像の輝度勾配の絶対値に相当する。そして、照合部107は、輝度勾配の絶対値が極値となる点を、画像エッジ特徴として検出する。本実施形態において、照合部107は、輝度勾配の絶対値が極値となりかつ所定の閾値705よりも大きい点を、対応点として検出する。
図7(B)には、こうして発見された対応点704,706が示されている。照合部107は、発見された対応点704,706のうち、制御点702に最も近い対応点704を、制御点702に対応する対応点として記録する。この処理により、複数の制御点702のそれぞれについて対応点が検出される。こうして検出された対応点704は、モデルエッジ特徴701に対応する画像エッジ特徴800上の点である。
以下では、モデルエッジ特徴のそれぞれについて1つの制御点を用いて処理が行われる。照合部107は、1つのモデルエッジ特徴について設定された複数の制御点のうち、対応点が検出された1つの制御点を選択し、後の処理に用いることができる。選択方法は特に限定されない。いくつかのモデルエッジ特徴については、対応する画像エッジ特徴が検出されなくてもよい。
ステップS603〜S605において、照合部107は、上述のように、対象物体の位置姿勢を算出する。一実施形態においては、照合部107は、以下のように対象物体の位置姿勢を算出することができる。例えば、照合部107は、位置姿勢を変化させることにより得られた複数の3次元モデル像について、対象物体の像との一致度を算出する。ここで、一致度は、画像エッジ特徴が抽出された位置に対応する劣化度に従って重み付けされた、複数の画像エッジ特徴の画像位置と対応するモデルエッジ特徴の画像位置との距離に基づいて求められる。重み付けは、劣化度が高いほど重みが小さくなるように行われる。
一例において、照合部107は、対応するモデルエッジ特徴と画像エッジ特徴との間の撮像画像上での距離に、重みとして信頼度wを乗じて得られる重み付き距離の総和を評価関数として用いる。この評価関数は、対象物体の像と3次元モデル像との一致度を表す。
そして、照合部107は、複数の3次元モデル像のうち最も高い一致度を与える3次元モデル像を、対象物体の像に対応する3次元モデル像として判定する。照合部107は、こうして判定された3次元モデル像に対応する視点に対する3次元モデルの位置姿勢は、撮像装置108に対する対象物体の位置姿勢を表しているものと判定する。
しかしながら、本実施形態においては、以下のようにGauss−Newton法を用いて対象物体の位置姿勢が算出される。以下の方法によれば、対象物体の像と3次元モデルの像の一致度がより高くなるように、視点に対する3次元モデルの位置姿勢が繰り返し更新される。
ステップS603において、照合部107は、以下のように、係数行列Jと、誤差ベクトルEとを算出する。係数行列Jの各要素は、モデルエッジ特徴の画像座標についての、3次元モデルの位置姿勢の微小変化に対する一次の偏微分係数である。また、誤差ベクトルEとは、撮像画像上に投影されたモデルエッジ特徴と画像エッジ特徴との、撮像画像上での距離である。
図8は、撮像画像上に投影されたモデルエッジ特徴701と、ステップS602で検出された、モデルエッジ特徴701に対応する画像エッジ特徴800と、の関係を示す。図8において、u軸及びv軸はそれぞれ画像の水平方向及び垂直方向である。制御点702の撮像画像上での位置を(u,v)と表し、この制御点702が所属するモデルエッジ特徴700の撮像画像上でのu軸に対する傾きをθと表す。以下の説明においては、モデルエッジ特徴700の制御点702における傾きをθとする。この場合、モデルエッジ特徴700の法線ベクトル、特に制御点702における法線ベクトルは(sinθ,−cosθ)となる。また、制御点702に対応する対応点704の画像座標を(u’,v’)とする。
ここで、点(u’,v’)を通り、傾きがθである直線上の点(u,v)は、
Figure 2016103230
と表せる。式(7)において、θは上述する定数であり、dは上式に示す定数である。
制御点702の撮像画像上での位置は、3次元モデルの位置姿勢により変化する。また、上述のように、3次元モデルの位置姿勢の自由度は6自由度であり、3次元モデルの位置姿勢sは6次元ベクトルで表される。3次元モデルの位置姿勢が変化した後の制御点702に対応するモデルエッジ特徴700上の点の画像座標(u,v)は、(u,v)の近傍での1次のテイラー展開を用いて、式(8)のように近似できる。式(8)において、Δs(i=1,2,・・・,6)は、6次元ベクトルsの各成分の微小変化を表す。
Figure 2016103230
3次元モデルの位置姿勢が対象物体の位置姿勢と一致するように変化した場合、制御点702に対応するモデルエッジ特徴700上の点の画像座標は、画像エッジ特徴800上、すなわち式(7)が表す直線上に移動すると仮定できる。式(8)によって近似されるu、vを式(7)に代入することにより、式(9)が得られる。式(9)において、rは下式に示す定数である。
Figure 2016103230
式(9)はステップS602において対応する画像エッジ特徴が検出されたすべてのモデルエッジ特徴について成り立つ。従って、式(10)のΔsiに関する線形連立方程式が成り立つ。
Figure 2016103230
ここで、式(10)を式(11)のように表す。
Figure 2016103230
式(11)の線形連立方程式の係数行列Jを算出するための偏微分係数の算出は、公知の方法を用いて行うことができる。例えば、V. Lepetit and P. Fua, ”Keypoint recognition using randomized trees”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.28, no.9, 2006.に開示されている方法によって、偏微分係数を算出することができる。
ステップS604において、信頼度算出部105は、モデルエッジ特徴に対応付けられた画像エッジ特徴について信頼度wを算出する。信頼度wの算出は、上述したように行われる。そして、照合部107は、信頼度算出部105によって算出された信頼度wを取得する。信頼度wを算出する際には、ステップS601で取得された概略位置姿勢に対応する劣化度を用いることができる。一方で、信頼度wを算出する際に、現在の3次元モデルの位置姿勢sに対応する劣化度を用いてもよい。
もっとも、全てのモデルエッジ特徴について予め信頼度wが算出されていてもよく、この信頼度wは例えば劣化度保持部102により保持されていてもよい。この場合、照合部107は、劣化度保持部102から、画像エッジ特徴についての信頼度wとして、対応するモデルエッジ特徴についての信頼度を取得できる。
それぞれの画像エッジ特徴についての信頼度wは、ステップS605における補正値Δsの算出において、それぞれの画像エッジ特徴についての重みとして用いられる。以下の説明においては、対応する画像エッジ特徴が検出された画像エッジ特徴についての信頼度wを係数として有する、式(12)に示される重み行列Wが用いられる。
Figure 2016103230
重み行列Wは、対角成分以外の成分が0である正方行列である。また、対角成分は各エッジ特徴の信頼度w(i=1〜Nc)であり、重みとして用いられる。またNcは、モデルエッジ特徴に対応付けられた画像エッジ特徴の総数である。
式(11)は、重み行列Wを用いて式(13)のように変形される。
Figure 2016103230
ステップS605において、照合部107は、3次元モデルの位置姿勢の補正値Δsを算出する。本実施形態において、照合部107は、式(13)を解くことにより補正値Δsを算出する。具体的には、式(13)は、式(14)に示されるように解くことができる。
Figure 2016103230
ところで、式(13)を式(14)に示されるように解くことは、式(13)の各行についての差分、すなわちwの二乗和を最小化するΔs〜Δsを求めることに相当する。ここで、F=(sinθ(∂u/∂s)−cosθ(∂v/∂s))Δs+・・・−(d−r)である。ここで、Fはモデルエッジ特徴ごとに算出され、3次元モデルの位置姿勢がΔsだけ動いた後の、撮像画像上でのモデルエッジ特徴と画像エッジ特徴との距離の残差を示す評価値であると考えられる。また、S=Σ(wは重み付けされた残差の二乗和である。したがって、式(13)を式(14)に示されるように解くことは、モデルエッジ特徴ごとにフィッティング誤差を示す評価値Fを信頼度wで重み付けして得られる評価関数Sを最小化することに相当する。すなわち、ステップS605の処理により、対象物体の像と3次元モデルの像との一致度がより高くなる位置姿勢の補正値Δsが得られる。
ステップS606において、照合部107は、ステップS604において算出された補正値Δsを用いて、3次元モデルの位置姿勢をs+Δsに更新する。対応づけられた対象物体の特徴と3次元モデルの特徴との間の距離を小さくするように、位置姿勢sを補正することができる。
ステップS607において、照合部107は、3次元モデルの位置姿勢が収束したか否かを判定する。位置姿勢が収束したと判定された場合は、照合部107は、その時の3次元モデルの位置姿勢を、フィッティングにより得られた対象物体の推定位置姿勢として出力する。そして、処理は終了する。位置姿勢が収束していないと判定された場合、処理はステップS602に戻り、照合部は位置姿勢が収束するまでステップS602〜S606の処理を繰り返し行う。もっとも、処理の簡略化のために、位置姿勢が収束していない場合の処理はステップS603に戻ってもよい。
本実施形態において、照合部107は、ステップS605で得られた補正値Δsが所定値以下であり、かつほぼ変化がない場合に、位置姿勢は収束したと判定する。例えば、照合部107は、所定回数続けて補正値Δsが所定値以下である場合に、位置姿勢は収束したと判定することができる。もっとも、収束を判定する方法はこの方法に限定されない。例えば、ステップS602〜S606の反復回数が所定回数に達した場合には、照合部107は、位置姿勢が収束したと判定してもよい。
以上説明したように、ステップS601〜S606の処理により対象物体について推定される位置姿勢が算出される。上記の説明においては、対象物体の3次元の位置姿勢を算出する場合について説明した。しかしながら、別の実施例においては、対象物体の2次元の位置姿勢を算出することもできる。この場合、ベクトルsとしては、位置を表す2つの要素と姿勢を表す1つの要素とを有する3次元ベクトルが用いられる。また、対象物体の位置姿勢の算出方法は上述したGauss−Newton法には限られない。例えば、よりロバストなLevenberg−Marquardt法を用いることもできるし、よりシンプルな最急降下法を用いることもできる。さらに、共役勾配法又はICCG法等の、他の非線形最適化計算手法を用いることもできる。
以上説明した実施形態1によれば、ボケ及びブレ等による撮像画像の劣化を考慮することにより、画像エッジ特徴を高精度に抽出できる。また、ボケ及びブレ等による撮像画像の劣化を考慮してエッジ特徴に重み付けを行いながら、画像エッジ特徴にモデルエッジ特徴をフィッティングさせることにより、対象物体の位置姿勢が推定される。このため、対象物体の位置姿勢の推定精度を向上させることができる。
[変形例1]
実施形態1では、劣化度がモデルエッジ特徴ごとに設定された。しかしながら、劣化度は撮像画像の分割領域ごと、又は画素ごとに設定されてもよい。例えば、ステップS305とステップS306との間において、劣化度算出部101は、劣化度が算出されたモデルエッジ特徴を撮像画像面に投影し、モデルエッジ特徴の像の位置を判定することができる。そして、劣化度保持部102は、モデルエッジ特徴の像の位置を含む撮像画像の分割領域に含まれる各画素に、このモデルエッジ特徴について算出された劣化度を設定することができる。
この場合、信頼度算出部105は、撮像画像の分割領域ごと、又は画素ごとに、劣化度を用いて信頼度を設定してもよい。このような変形例において、照合部107は、画像エッジ特徴が検出された画素に設定された信頼度を、画像エッジ特徴についての信頼度として用いながら、フィッティング処理を行うことができる。
[変形例2]
実施形態1では、ステップS205において、1つのフィルタが設定され、この1つのフィルタが撮像画像全体に適用された。しかしながら、1つの撮像画像に対して複数のフィルタが用いられてもよい。すなわち、特徴抽出部104は、撮像画像の各位置について、この位置についての画像の劣化度に応じて、この位置において特徴を抽出するために用いる抽出パラメータを設定することができる。
例えば、変形例1のように劣化度が撮像画像の分割領域ごとに設定されている場合、特徴抽出部104は、フィルタを適用しようとする画素について設定された劣化度を用いて、抽出フィルタを設定することができる。例えば、特徴抽出部104は、ボケ量D及びブレ量Bを考慮して、又は劣化度σを考慮して、上述のように抽出フィルタのサイズを決定することができる。このように、撮像画像の各領域の劣化度に応じて適した抽出フィルタを用いることにより、より高精度にエッジを抽出することができる。
[変形例3]
実施形態1では、ステップS205において画像エッジ特徴が抽出された後に、ステップS206においてモデルエッジ特徴と画像エッジ特徴との対応付けが行われた。しかしながら、ステップS205を省略し、ステップS206においてモデルエッジ特徴に対応する画像エッジ特徴を抽出してもよい。
具体的には、ステップS602において、照合部107は、探索ライン703上に存在する画像エッジ特徴を探索する。この際に、実施形態1では、エッジ強度マップを参照して画像エッジ特徴が検出されたが、本変形例においては、撮像画像を参照して画像エッジ特徴が検出される。すなわち、照合部107は、撮像画像において探索ライン703上に存在する画素値の1次元配列に対し、ステップS403で設定された1次元の抽出フィルタを用いた畳み込み計算を行うことにより、探索ライン703に沿った撮像画像の輝度勾配を算出する。そして、照合部107は、輝度勾配の絶対値が極値となる点を、画像エッジ特徴として検出する。
[変形例4]
実施形態1では、特徴抽出部104は劣化度を参照して画像エッジ特徴を抽出した。また、照合部107は、劣化度に基づいて定められた信頼度を重み付けに用いて、対象物体の位置姿勢を推定した。しかしながら、画像エッジ特徴の抽出と、重み付けとの双方に、劣化度を用いることは必須ではない。変形例4では、特徴抽出部104は実施形態1と同様に劣化度を参照して画像エッジ特徴を抽出する。一方で、照合部107は、信頼度に基づく重み付けを行わずに対象物体の位置姿勢を推定する。
本変形例に係る情報処理装置1は、信頼度算出部105を有さない点を除き、実施形態1と同様の構成を有する。また、本変形例における処理は、ステップS206の処理を除いて実施形態1と同様である。以下では、本変形例におけるステップS206の処理について、図6のフローチャートを参照しながら説明する。
ステップS601〜S603は、実施形態1と同様に行われる。また、ステップS604の処理は省略される。ステップS605において、照合部107は、式(11)を解くことにより補正値Δsを算出する。具体的には、式(11)は、式(15)に示されるように解くことができる。
Figure 2016103230
本変形例においても、ボケ及びブレ等による撮像画像の劣化を考慮することにより、画像エッジ特徴を高精度に抽出できる。これにより、抽出した画像エッジ特徴に基づく対象物体の位置姿勢の推定精度を向上させることができる。
[変形例5]
変形例5では、照合部107は実施形態1と同様に劣化度に基づいて定められた信頼度を重み付けに用いて、対象物体の位置姿勢を推定する。一方で、特徴抽出部104は、劣化度を用いずに、予め定められた抽出フィルタを撮像画像に適用することで画像エッジ特徴を抽出する。
本変形例に係る情報処理装置1は、実施形態1と同様の構成を有する。また、本変形例における処理は、ステップS205の処理を除いて実施形態1と同様である。本変形例のステップS205において、特徴抽出部104は、フィルタを取得画像に適用することで、画像エッジ特徴を抽出する。用いるフィルタは特に限定されず、例えば、任意の形状の微分フィルタを用いることができる。
本変形例においても、ボケ及びブレ等による撮像画像の劣化を考慮してエッジ特徴に重み付けを行いながら、画像エッジ特徴にモデルエッジ特徴をフィッティングさせることにより、対象物体の位置姿勢が推定される。このため、対象物体の位置姿勢の推定精度を向上させることができる。
[変形例6]
実施形態1において特徴抽出部104は、劣化度に基づいてエッジ特徴を抽出するためのフィルタを設定し、設定されたフィルタを撮像画像に適用することにより画像エッジ特徴を抽出した。変形例6においては、画像エッジ特徴を抽出するためのフィルタは固定される。一方で、撮像画像のサイズが変更されてからフィルタが適用される。
本変形例に係る情報処理装置1は、実施形態1と同様の構成を有する。また、本変形例における処理は、ステップS205の処理を除いて実施形態1と同様である。本変形例におけるステップS205の処理について、図9のフローチャートを参照して説明する。ステップS901及びS902の処理は、それぞれステップS401及びS402と同様である。
ステップS903において、特徴抽出部104は、ステップS902で取得した劣化度に応じて撮像画像のリサイズ率を設定する。本変形例においては、劣化度(例えばボケ量D及びブレ量B)が大きいほど、より撮像画像が小さくなるようにリサイズ率が算出される。
具体的な一例として、実施形態1と同様に、特徴抽出部104は、ボケ量D及びブレ量Bを用いて、撮像画像上におけるモデルエッジ特徴の像の波形Sを推定する。次に、特徴抽出部104は、波形Sが所定の拡がりに収まるように、リサイズ率Rを設定する。本変形例において、特徴抽出部104は、波形Sの標準偏差Zを計算し、標準偏差が所定の値Eとなるようにリサイズ率R=E/Zを計算する。ここで、所定の値Eは、画像エッジ特徴を抽出するためのフィルタに応じて定められる値である。本変形例において、画像エッジ特徴を抽出するためのフィルタとしては、標準偏差Eのガウス関数を微分することにより得られる波形に従うフィルタが用いられる。もっとも、リサイズ率Rの設定方法はこの方法には限られない。例えば、計算量を削減するために、R=E/(D+B)としてもよい。この場合であっても、ボケ量D及びブレ量Bが大きいほど、より撮像画像が小さくなるようにリサイズ率Rが算出される。
ステップS904において、特徴抽出部104は、ステップS903で設定されたリサイズ率Rに基づいて、画像取得部103により取得された撮像画像から画像エッジ特徴を抽出する。具体的には、まず、特徴抽出部104は、撮像画像をリサイズ率Rに従ってリサイズする。リサイズ率Rが1より大きい場合には、撮像画像は拡大される。次に、特徴抽出部104は、予め用意されたフィルタをリサイズされた撮像画像に適用することにより、画像エッジ特徴を抽出する。リサイズされた撮像画像から検出された画像エッジ特徴の座標は、リサイズ率を参照することにより、例えば1/Rを掛けることにより、リサイズ前の撮像画像上における画像エッジ特徴の座標へと変換することができる。
本変形例の方法によっても、ボケ及びブレ等による撮像画像の劣化を考慮することにより、画像エッジ特徴を高精度に抽出できる。これにより、抽出した画像エッジ特徴に基づく対象物体の位置姿勢の推定精度を向上させることができる。
[変形例7]
実施形態1においては、劣化度に基づいて画像エッジ特徴を抽出するためのフィルタが設定され、設定されたフィルタを撮像画像に適用することにより画像エッジ特徴が抽出され。変形例7においては、劣化度に基づいて抽出パラメータが設定される。具体的には、複数のフィルタが設定され、複数のフィルタを用いて画像エッジ特徴が抽出される。
本変形例においては、劣化度算出部101が算出するボケ量D及びブレ量Bには誤差が含まれうることを考慮する。そこで、特徴抽出部104は、劣化度算出部101が算出したボケ量Dに基づいて複数のボケ量D±ΔDを設定する。同様に、特徴抽出部104は、劣化度算出部101が算出したブレ量Bに基づいて複数のブレ量B±ΔBを設定する。そして、特徴抽出部104は、ボケ量D±ΔDとブレ量B±ΔBとの組み合わせのそれぞれを用いて、画像エッジ特徴を抽出するためのフィルタを設定し、撮像画像から画像エッジ特徴を抽出する。さらに、特徴抽出部104は、フィルタ処理の応答値に応じて複数の抽出結果から少なくとも1つの抽出結果を選択する。具体的には、特徴抽出部104は、フィルタの応答値を比較することにより、抽出精度が相対的に高いと想定される抽出結果を判定及び出力する。
本変形例に係る情報処理装置1は、実施形態1と同様の構成を有する。また、本変形例における処理は、ステップS205の処理を除いて実施形態1と同様である。本変形例におけるステップS205の処理について、図10のフローチャートを参照して説明する。ステップS1001及びS1002の処理は、それぞれステップS401及びS402と同様である。
ステップS1003において、特徴抽出部104は、ステップS1002で取得した劣化度に基づいて、複数の抽出フィルタを設定する。まず、特徴抽出部104は、ボケ量D及びブレ量Bに対して所定の範囲(ΔD,ΔB)で変化を与える。具体的には、D±ΔD及びB±ΔBの範囲で、複数のボケ量及びブレ量が設定される。ボケ量D及びブレ量Bの変動範囲、並びに設定されるボケ量及びブレ量の数は、予め設定されうる。次に、設定された複数のボケ量及びブレ量を組み合わせることにより、特徴抽出部104は、複数の抽出フィルタを設定する。抽出フィルタの設定は、実施形態1と同様に行うことができる。
ステップS1004においては、特徴抽出部104は、ステップS1003で設定された複数の抽出フィルタのそれぞれを用いて、画像取得部103により取得された撮像画像から画像エッジ特徴を抽出する。こうして、それぞれの抽出フィルタに対応して、画像エッジ特徴の複数の抽出結果が得られる。
次に、特徴抽出部104は、抽出された画像エッジ特徴のうち、抽出精度が相対的に高いと想定される画像エッジ特徴を選択する。本変形例においては、フィルタの応答値が大きい抽出結果が選択される。具体的には、抽出フィルタを適用することにより算出された輝度勾配の極値がより大きくなる画像エッジ特徴が選択される。具体的な一例として、特徴抽出部104は、異なる抽出フィルタを用いて抽出された同一位置に存在する画像エッジ特徴群のうち、抽出精度が相対的に高いと想定される画像エッジ特徴を選択する。具体的には、特徴抽出部104は、所定の範囲E[pixel]内に含まれる近接する複数のエッジ特徴のうち、それぞれの抽出フィルタの応答値である輝度勾配の極値が最大となるエッジ特徴を選択する。もっとも、特徴抽出部104は、2以上のエッジ特徴を選択してもよい。
本変形例の方法によれば、ボケ及びブレ等による撮像画像の劣化を考慮することにより、画像エッジ特徴を高精度に抽出できる。さらに、ボケ及びブレの誤差を考慮して複数の抽出フィルタを用いることにより、1種類の抽出フィルタを用いる場合と比べて、高い精度で画像エッジ特徴を抽出することができる。これにより、抽出した画像エッジ特徴に基づく対象物体の位置姿勢の推定精度を向上させることができる。
本変形例においては、複数の抽出フィルタ形状を設定する方法について説明した。一方で、変形例6に示すように、画像のリサイズ率を複数設定してもよい。この場合、それぞれのリサイズ率に従って、画像エッジ特徴の複数の検出結果が得られる。そして、抽出フィルタをリサイズ後の撮像画像に適用することにより算出された輝度勾配の極値がより大きくなる画像エッジ特徴が選択される。
[変形例8]
実施形態1において、劣化度算出部101は、対象物体の3次元モデル、撮像装置108による撮像条件に基づいて、シミュレーションにより劣化度を算出した。変形例8では、撮像装置が対象物体を撮像して得た撮像画像から劣化度が算出される。以下の処理は、撮像装置に対する対象物体の相対位置姿勢を変化させながら撮像された、対象物体の複数の撮像画像について行われる。そして、それぞれの撮像画像を用いて算出された劣化度は、撮像装置に対する対象物体の相対位置姿勢に関連づけて、劣化度保持部102により保持される。
変形例8に係る情報処理装置1の構成及び処理は、ステップS202の処理を除いて実施形態1と同様である。以下では、変形例8におけるステップS202の処理について、図11のフローチャートを参照して説明する。
ステップS1100において、劣化度算出部101は、画像取得部103により取得された対象物体の撮像画像から複数のエッジ特徴を抽出する。エッジ特徴の抽出方法は特に限定されず、例えば任意の微分フィルタを用いることができる。ステップS1101において、劣化度算出部101は、ステップS1100で抽出された複数のエッジ特徴の中からエッジ特徴を1つ選択する。
ステップS1102において、劣化度算出部101は、ステップS1101で選択されたエッジ特徴の劣化度を算出する。本変形例において、劣化度算出部101は、エッジ特徴の位置とエッジの法線方向とに基づいて、エッジ特徴の劣化度を算出する。具体的な一例として、劣化度算出部101は、式(16)を用いることで、撮像画像が劣化度σにしたがって劣化していると仮定した場合における、エッジ特徴上の着目画素における輝度値を推定する。
Figure 2016103230
式(16)において、x,yはエッジ特徴のある着目画素位置であり、rは着目画素位置からの距離を表し、θはエッジ特徴の法線方向(2次元)を表す。また、tは着目画素位置からの探索範囲を表し、σは劣化度である。劣化度σの値は、ボケ量とブレ量とが統合された値に相当する。tは任意の正の値を示す。
式(17)に示されるように、エッジ特徴を構成するそれぞれの画素についての、撮像画像上の輝度値と、式(16)に従って算出された同位置における輝度値と、の差の二乗和を評価関数Eとする。そして、劣化度算出部101は、繰り返し演算により評価関数Eを最小化することにより、パラメータσを推定する。評価関数Eの最小化は公知の方法を用いることができ、例えば最急降下法又はLevenberg−Marquardt法等を用いることができる。式(17)において、I(x,y)は座標(x,y)における撮像画像の輝度値を示す。
Figure 2016103230
ステップS1103において、劣化度算出部101は、全てのエッジ特徴について劣化度を算出したか否かを判定する。全てのエッジ特徴について劣化度の算出が終了していない場合、処理はステップS1101に戻り、次のエッジ特徴について劣化度が算出される。全てのエッジ特徴についての劣化度の算出が終了すると、ステップS202の処理は終了する。この場合、劣化度保持部102は、変形例1と同様に、撮像画像の分割領域ごと、又は画素ごとに劣化度を保持することができる。例えば、抽出されたエッジ特徴の像の位置を含む撮像画像の分割領域に含まれる各画素に、このエッジ特徴について算出された劣化度を設定することができる。
以上述べたように、本変形例の方法によれば、対象物体を撮影した画像から劣化度を算出することができる。これにより、対象物体の3次元モデル及び撮像装置108の撮像パラメータ等のみでは表現しきれない影響、例えばノイズによる影響等を考慮して、より正確に劣化度を算出することができる。この劣化度を参照することで、画像エッジ特徴を高精度に抽出できるとともに、エッジ特徴に重み付けを行いながら画像エッジ特徴にモデルエッジ特徴をフィッティングさせることができる。このため、対象物体の位置姿勢の推定精度を向上させることができる。
式(16)を用いる代わりに、撮像画像がボケ量D及びブレ量Bにしたがって劣化していると仮定した場合における、エッジ特徴上の着目画素における輝度値を推定することもできる。この場合には、劣化度算出部101は、劣化度σの代わりに、ボケ量D及びブレ量Bを推定することができる。
[変形例9]
変形例8では、対象物体の撮像画像から劣化度が計算された。変形例9では、撮像装置による対象物体の撮像条件に基づいて、撮像装置が対象物体を撮影して得られる撮像画像が対象物体の3次元モデルを用いて推定される。具体的には、3次元モデルを撮像画像上に投影して得られる画像に対して、劣化を再現(復元)する処理が行われる。これらの処理においては、対象物体の3次元モデル並びに撮像装置108による撮像条件が参照される。本変形例における処理は、ステップS1100が異なることを除いて、変形例8と同様である。以下では、ステップS1100の処理について説明する。
ステップS1100において、劣化度算出部101は、対象物体の3次元モデルを撮像画像上に投影する。そして、劣化度算出部101は、投影された画像に対して劣化を再現する処理を行う。本変形例において、劣化度算出部101は、ボケ及びブレが再現された画像を生成する。
ボケ及びブレを再現する方法の一例について、以下に説明する。まず、劣化度算出部101は、投影画像の各画素について、画素に対応する3次元モデル上での3次元位置に基づいて、投影画像上でのボケ量D及びブレ量Bを算出する。ボケ量Dは、投影画像の各画素に対応する3次元位置を用いて、式(2)に従って算出できる。
ブレ量Bは、以下のように算出できる。まず、3次元空間におけるブレ量B3Dが算出される。ブレ量B3Dは、B3D=t3DVに従ってできる。ここで、J3Dは投影画像の各画素に対応する3次元位置のヤコビアンであり、tは露光時間であり、Vは撮像装置108に対する対象物体の相対速度である。ヤコビアンJ3Dは、位置姿勢6自由度のパラメータが微小に変化したときに、投影画像の各画素に対応する3次元位置が変化する割合を表す値である。ヤコビアンJ3Dは、式(18)及び式(19)にしたがって計算できる。
Figure 2016103230
Figure 2016103230
式(18)において、sは対象物体の位置姿勢を示す。また、err3Dは、露光開始時の3次元位置を(x,y,z)とし、露光終了時の3次元位置を(x’,y’,z’)とした場合における、露光中における3次元位置の移動ベクトルを示す。
そして、3次元空間におけるブレ量B3D(3次元ベクトル)を投影画像上へと投影することで、投影画像上におけるブレ量B(2次元ベクトル)を算出することができる。
次に、劣化度算出部101は、求めたボケ量D及びブレ量Bに基づいて、投影画像からボケ及びブレが再現された画像を生成する。具体的には、劣化度算出部101は、投影画像の各画素について、標準偏差Dのガウス関数との畳み込み計算、並びに幅B及び高さ1の矩形波との畳み込み計算を行うことにより、ボケ及びブレが再現された画像を生成する。
その後、劣化度算出部101は、得られたボケ及びブレが再現された画像から複数のエッジ特徴を抽出する。この処理は、対象物体の撮像画像の代わりにボケ及びブレが再現された画像を用いることを除き、変形例8と同様に行うことができる。
以上述べたように、本変形例の方法によれば、対象物体の3次元モデル、並びに露光時間及び撮像装置108に対する対象物体の相対位置姿勢のような撮像条件に基づいて、ボケ及びブレが再現された画像が生成される。そして、この画像に基づいて、劣化度が算出される。この劣化度を参照することで、画像エッジ特徴を高精度に抽出できるとともに、エッジ特徴に重み付けを行いながら画像エッジ特徴にモデルエッジ特徴をフィッティングさせることができる。このため、対象物体の位置姿勢の推定精度を向上させることができる。
劣化が再現された画像の生成方法は、上述した方法には限られない。例えば、田中和之著「確率モデルによる画像処理技術入門」第6章に開示されているような、画像フィルタを用いてボケ及びブレを再現する方法を用いることもできる。
[実施形態2]
実施形態1では、撮像画像から抽出された画像エッジ特徴の画像座標に、撮像画面上に投影された対象物体の3次元モデルのモデルエッジ特徴の画像座標をフィッティングさせることにより、対象物体の位置姿勢を推定した。実施形態2では、撮像画像から算出された特徴(例えば3次元点)の3次元座標に、対象物体の3次元モデルの特徴(例えば面)の3次元座標をフィッティングさせることにより、対象物体の位置姿勢を推定する。
本実施形態において、特徴抽出部104は、撮像装置が対象物体を撮像して得た撮像画像に基づいて、対象物体の像上の特徴の3次元位置を算出する。具体的には、特徴抽出部104は、対象物体の像上の点の3次元位置を算出する。3次元位置は、例えば、照明パターンを対象物体に照射することにより測定することができる。本実施形態では、図12に示すように、照射装置1200から照明パターン1201が対象物体1205に投影される。そして、照明パターン1201が投影された対象物体1205を、撮像装置1203を用いて撮像する。本実施形態においては、複数の点線を含む照明パターン1201が投影される。
そして、照明パターン1201、撮像画像1204、並びに照射装置1200と撮像装置1203との位置関係に基づいて、照明パターン1201が投影された物体面の3次元位置が算出される。具体的には、照射装置1200により投影される照明パターン1201中の着目特徴の位置と、投影された着目特徴が抽出される撮像画像1204上の位置と、照射装置1200に対する撮像装置1203の相対位置姿勢とが取得される。ここで、照明パターン1201中の着目特徴の位置は照射装置1200からの着目特徴の投影方向に、投影された着目特徴が抽出される撮像画像1204上の位置は撮像装置1203からの着目特徴の観測方向にそれぞれ対応する。したがって、三角測量の原理で着目特徴の3次元位置を算出することができる。
本実施形態においては、撮像画像1204から特徴が抽出される。本実施形態において、照明パターン1201は複数の線を含み、撮像画像1204上に写る照明パターン1201から抽出される特徴は、線分上の点である。線分上の点の抽出方法の一例について、以下に説明する。まず、微分フィルタを撮像画像1204に適用することで輝度勾配分布が得られる。そして、輝度勾配が極値となる点により構成される線分が抽出される。さらに、こうして抽出された線分上に微分フィルタを適用することにより、線分上の輝度勾配分布が得られる。そして、線分上の輝度勾配が極値となる点が、特徴として抽出される。こうして、撮像画像1204から特徴を抽出し、特徴の位置を取得することができる。照明パターン1201中の特徴の位置は、予め定義されていてもよい。また、同様の方法を用いて、照明パターン1201中の特徴を抽出し、特徴の位置を取得してもよい。
もっとも、照明パターン1201が投影された対象物体1205から、照明パターン1201が含む特徴が抽出できるのであれば、照明パターン1201の種類は特に限定されない。例えば、照明パターン1201が線を含んでいる必要はなく、照明パターン1201は任意の幾何形状を含みうる。図13は、一例として、複数の点を特徴として含む照明パターン1300を示す。
また、3次元位置の算出方法は上記の方法には限られない。対象物体1205を撮像することにより得られる画像に基づいて対象物体1205の表面の3次元位置が算出できる、任意の方法を用いることができる。例えば、異なる位置に配置された複数の撮像装置を用いて対象物体1205を撮像することができる。この場合、各撮像画像上から抽出される着目特徴の位置と、撮像装置間の相対位置姿勢とを用いて、三角測量の原理で着目特徴の3次元位置を算出することができる。さらに、以上の方法により、対象物体の像上の点について、3次元位置を算出することができる。
次に、本実施形態で行われる処理について、図2のフローチャートを参照して説明する。本実施形態に係る情報処理装置1は、実施形態1と同様の構成を有しており、以下では異なる点について説明する。本実施形態においては、モデル保持部106は対象物体1205の3次元モデルを保持している。モデル保持部106が保持している対象物体1205の3次元モデルは、例えば対象物体1205の表面に位置する点群又は面群の位置を示す情報で構成される。以下では、対象物体1205の3次元モデルが面群により構成される場合について説明する。
ステップS201は、実施形態1と同様に行われる。ステップS202及びS203は、各モデルエッジ特徴について劣化度を算出する代わりに、3次元モデルの表面上の各点について劣化度が算出及び保持されることを除き、実施形態1と同様に行われる。点についての劣化度の算出は、モデルエッジ特徴についての劣化度の算出と同様に行うことができる。例えば、劣化度算出部101は、撮像装置1203の撮像条件、並びに撮像装置1203と点との距離等を用いて、ボケ量を算出することができる。また、劣化度算出部101は、露光時間中における点の撮像画像面での移動量を、ブレ量として算出することができる。もっとも、劣化度算出部101及び劣化度保持部102は、3次元モデルの各面について劣化度を算出及び保持してもよい。
ステップS204において、特徴抽出部104は、上述のように、照明パターン1201が投影された対象物体1205を撮像することにより得られた撮像画像1204を取得する。ステップS205において、特徴抽出部104は、ステップS204で得られた撮像画像から、上述のように3次元点を抽出し、3次元点の3次元位置を記録する。以下、抽出された3次元点のことを計測特徴と呼ぶ。
以下に、ステップS206の処理について、図6のフローチャートを参照して詳しく説明する。ステップS606及びS607の処理は実施形態1と同様であり、説明を省略する。
ステップS601において、照合部107は初期化処理を行う。まず、照合部107は、モデル保持部106から対象物体1205の3次元モデルを取得する。また、照合部107は、対象物体1205の概略位置姿勢を取得し、3次元モデルの位置姿勢sとして設定する。
ステップS602において、照合部107は、ステップS205で抽出された3次元点と、ステップS601で取得された3次元モデル上の特徴とを対応付ける。本実施形態において、照合部107は、計測特徴のそれぞれについて、距離が最も近い3次元モデル像上の面を検出する。そして、照合部107は、検出された面を、計測特徴に対応付ける。以下では、計測3次元点に対応付けられた3次元モデルの面を、モデル特徴と呼ぶ。
ステップS603〜S605において、照合部107は、実施形態1と同様に、Gauss−Newton法を用いて、対象物体の位置姿勢を算出する。具体的には、照合部107は、対象物体の像と3次元モデルの像との一致度がより高くなるように、視点に対する3次元モデルの相対位置姿勢を繰り返し更新する。本実施形態においても、一致度は、計測特徴が抽出された位置に対応する劣化度に従って重み付けされた、計測特徴のそれぞれについての対応するモデル特徴との差異に基づいて求められる。また、計測特徴とモデル特徴との差異は、計測特徴の3次元位置とモデル特徴の3次元位置との間の距離である。もっとも、照合部107は、実施形態1と同様に、位置姿勢を変化させることにより得られた複数の3次元モデル像について、対象物体の像との一致度を算出してもよい。そして、複数の3次元モデル像のうち最も高い一致度を与える3次元モデル像を、対象物体の像に対応する3次元モデル像として判定してもよい。
ステップS603において、照合部107は、以下のように、係数行列と、誤差ベクトルとを算出する。係数行列の各要素は、計測特徴の座標についての、3次元モデルの位置姿勢の微小変化に対する一次の偏微分係数であり、具体的には3次元座標の偏微分係数である。また、誤差ベクトルとは、計測特徴とモデル特徴との、3次元空間中での距離である。
カメラ座標系、例えば撮像装置1203の位置及び光軸の方向を基準とする座標系における点群の3次元座標は、対象物体1205の位置姿勢sを用いて、対象物体1205の座標系における3次元座標(x,y,z)に変換される。ここで、対象物体1205の概略位置姿勢に従って、カメラ座標系におけるある計測特徴の3次元座標が、対象物体座標系における3次元座標(x,y,z)に変換されるとする。(x,y,z)は対象物体1205の位置姿勢sにより変化し、(x,y,z)の近傍での1次のテイラー展開によって式(20)のように近似できる。
Figure 2016103230
ある計測特徴に対応付けられたモデル特徴のモデル座標系における式を、a+b+c=e(a+b+c=1,a,b,c,eは定数)とする。対象物体1205の位置姿勢sが正確である場合、カメラ座標系における計測特徴の3次元座標(x,y,z)を対象物体座標系における3次元座標に変換すると、変換後の3次元座標は上記の式を満たすものと考えられる。このことを仮定すると、式(20)を面の方程式a+b+c=e(a+b+c=1)に代入することにより、式(21)が得られる。
Figure 2016103230
式(21)において、qは定数である。
式(21)はステップS602において対応するモデル特徴が検出された全ての計測特徴について成り立つ。したがって、式(22)のように、Δsに関する線形連立方程式が成り立つ。
Figure 2016103230
式(22)において、左辺の行列が係数行列であり、右辺の行列が誤差ベクトルである。このように、照合部107は係数行列及び誤差ベクトルを算出する。
ステップS604において、信頼度算出部105は、それぞれの計測特徴について、信頼度を算出する。信頼度の算出は、実施形態1と同様に行うことができる。例えば、信頼度算出部105は、それぞれの計測特徴について、対応する劣化度を劣化度保持部102から取得する。本実施形態の場合、劣化度が算出されている3次元モデルの表面上の各点のうち、計測特徴の3次元位置に最も近い点についての劣化度を、計測特徴についての劣化度として取得することができる。そして、信頼度算出部105は、それぞれの計測特徴についての劣化度の平均を算出し、さらに式(1)を用いてそれぞれの計測特徴についての信頼度を算出する。本実施形態においては、式(1)のcは計測特徴についての劣化度の平均であり、bは計測特徴についての劣化度である。信頼度の算出方法はこの方法には限定されず、実施形態1で説明した様々な方法を用いることができる。また、3次元空間を複数の領域に分割し、分割領域ごとに計測特徴についての劣化度の統計量を算出し、算出された統計量をパラメータとして有する関数で信頼度を表現してもよい。
算出された信頼度は、各計測特徴についての重みとして用いられる。以下の説明においては、実施形態1で説明したように、式(12)のように信頼度に基づく重み行列Wが定義される。重み行列Wは、対角成分の成分が0である正方行列である。また、対角成分は各モデル特徴についての重み、すなわち信頼度wである(i=1〜Nc)。Ncは、計測特徴に対応付けられたモデル特徴の総数である。実施形態1と同様に、式(11)は重み行列Wを用いて式(13)のように変形される。ステップS605において、信頼度算出部105は、式(14)のように式(13)を解くことにより、補正値Δsを求める。ステップS605の処理により、対象物体の像と3次元モデルの像との一致度がより高くなる位置姿勢の補正値Δsが得られる。
以上説明したように、ステップS601〜S607の処理により対象物体の位置姿勢が推定される。
本実施形態においては、対象物体1205の3次元モデルが面群により構成される場合について説明した。しかしながら、対象物体1205の3次元モデルは点群により構成されていてもよい。この場合、ステップS602においては、計測特徴のそれぞれについて、距離が最も近い3次元モデルの点を対応付けることができる。そして、対応点間の距離を信頼度で重み付けして得られる評価関数が最小となるように、対象物体1205の位置姿勢の補正値Δsを求めることができる。
以上説明した実施形態2によれば、ボケ及びブレ等による撮像画像の劣化を考慮して計測特徴に重み付けを行いながら、計測特徴にモデル特徴をフィッティングさせることにより、対象物体の位置姿勢が推定される。このため、対象物体の位置姿勢の推定精度を向上させることができる。
[実施形態3]
実施形態1では、撮像画像から抽出された画像エッジ特徴の画像座標に、撮像画面上に投影された対象物体の3次元モデルのモデルエッジ特徴の画像座標をフィッティングさせることにより、対象物体の位置姿勢を推定した。実施形態2では、撮像画像から算出された計測特徴(例えば3次元点)の3次元座標に、対象物体の3次元モデルのモデル特徴(例えば面)の3次元座標をフィッティングさせることにより、対象物体の位置姿勢を推定した。実施形態3では、実施形態1,2を組み合わせることにより、撮像画像上での画像座標のフィッティングと、3次元空間中の3次元座標のフィッティングとの双方を用いて、対象物体の位置姿勢を推定する。
次に、本実施形態で行われる処理について、図2のフローチャートを参照して説明する。本実施形態に係る情報処理装置1は、実施形態1と同様の構成を有しており、以下では異なる点について説明する。
ステップS201は、実施形態1と同様に行われる。ステップS202及びS203においては、実施形態1と同様に各モデルエッジ特徴について劣化度が算出及び保持されるとともに、実施形態2と同様に3次元モデルの各面について劣化度が算出及び保持される。ステップS204は実施形態2と同様に行われる。ステップS205において、特徴抽出部104は、実施形態1と同様に撮像画像から画像エッジ特徴を抽出するとともに、実施形態2と同様に計測特徴(3次元点)を抽出する。
以下に、ステップS206の処理について、図6のフローチャートを参照して詳しく説明する。ステップS606及びS607の処理は実施形態1と同様であり、説明を省略する。ステップS601において、照合部107は実施形態1,2と同様に初期化処理を行う。
ステップS602において、照合部107は、実施形態1と同様に、モデルエッジ特徴群のそれぞれと、画像エッジ特徴群のそれぞれとの対応付けを行う。また、照合部107は、実施形態2と同様に、計測特徴と、モデル特徴(3次元モデルの面)とを対応付ける。
ステップS603において、照合部107は、線形連立方程式を解くための係数行列と誤差ベクトルとを算出する。具体的には、照合部107は、実施形態1で説明した処理と、実施形態2で説明した処理との双方を行う。実施形態1に従って得られるエッジ特徴に関する係数行列及び誤差ベクトル、並びに実施形態2に従って得られるエッジ特徴に関する係数行列及び誤差ベクトルを組み合わせることにより、式(23)が得られる。
Figure 2016103230
ステップS604において、照合部107は、実施形態1と同様にモデルエッジ特徴に対応する画像エッジ特徴について信頼度を算出するとともに、実施形態2と同様にモデル特徴に対応する計測特徴について信頼度を算出する。算出した信頼度は、各画像エッジ特徴及び計測特徴についての重みとして用いられる。以下の説明においては、式(24)のように信頼度に基づく重み行列Wが定義される。
Figure 2016103230
重み行列Wは、対角成分の成分が0である正方行列である。また、重み行列Wの対角成分は、画像エッジ特徴についての信頼度w2d,i(i=1〜Na)及び計測特徴についての信頼度w3d,i(i=1〜Nb)である。Naは対応する画像エッジ特徴が検出されたモデルエッジ特徴の総数であり、Nbは計測特徴に対応するモデル特徴の総数である。
実施形態1と同様に、式(11)は重み行列Wを用いて式(13)のように変形される。ステップS605において、信頼度算出部105は、式(14)のように式(13)を解くことにより、補正値Δsを求める。
以上説明したように、ステップS601〜S607の処理により対象物体の位置姿勢が推定される。
以上説明した実施形態3によれば、ボケ及びブレ等による撮像画像の劣化を考慮して計測特徴に重み付けを行いながら、計測特徴と画像エッジ特徴との双方を用いて対象物体の位置姿勢が推定される。このため、対象物体の位置姿勢の推定精度を向上させることができる。
[実施形態4]
実施形態4においては、実施形態1〜3に係る情報処理装置1の適用例を、図14を参照して説明する。具体的には、情報処理装置1は、撮像装置1400より得られる撮像画像を基に対象物体1205の位置姿勢を推定する。そして、産業用のロボット1401は、推定された対象物体1205の位置姿勢に基づいて、対象物体1205を操作する。図14に示されるように、本実施形態に係るロボットシステムは、情報処理装置1と、撮像装置1400と、ロボット1401とを備えている。
ロボット1401は例えば産業用ロボットであり、可動軸を有するロボットアームを備える。ロボットアームの動きは、ロボットコントローラにより制御され、指令された位置に手先を移動させることができる。こうして、ロボット1401は物体の操作、例えば物体の把持等を行うことができる。作業台上に置かれる対象物体1205の位置は変化しうる。したがって、ロボット1401が対象物体1205の操作を行うためには、現在の対象物体1205の位置姿勢を推定し、この推定に基づいてロボットアームの移動を制御する必要がある。ロボットコントローラは、ロボット1401が備えていてもよいし、ロボットコントローラに、ロボット1401が接続されていてもよい。
撮像装置1400は、2次元の画像を撮影するカメラである。撮像装置1400としては、通常のカメラを用いることができる。撮像装置1400は、対象物体1205を撮像できる位置に設置される。一実施形態において、撮像装置1400は、ロボット1401が備えるロボットアームの手先、すなわち物体を把持するハンド上に又はハンドに隣接して設けられる。もっとも、撮像装置1400がロボット1401と離れた位置に配置されてもよい。
情報処理装置1は、実施形態1〜3で説明したように、撮像装置1400から得られた撮像画像を基に対象物体1205の位置姿勢を推定する。必要に応じて、実施形態2で説明した照射装置がさらに用いられてもよい。情報処理装置1で推定された対象物体1205の位置姿勢は、ロボットコントローラへと送られる。ロボットコントローラは、取得した対象物体1205の位置姿勢に基づいて、ロボットアームの位置姿勢を制御する。こうして、ロボット1401は対象物体1205の把持等の操作を行うことができる。
上記のように、実施形態4に係るロボットシステムは、対象物体1205の位置が不定であっても、対象物体1205の位置姿勢を推定することにより、対象体1205に対して操作を行うことができる。
[実施形態5]
実施形態1〜4では、対象物体の位置姿勢が推定された。実施形態5では、対象物体の種類の特定が行われる。実施形態5に係る情報処理装置1は、実施形態1と同様の構成を有しており、以下では異なる点について説明する。
劣化度算出部101及び劣化度保持部102は、劣化度を算出及び保持する。本実施形態においては、例えば変形例1,8,9で説明したように、画素ごとに劣化度が算出及び保持される。また、本実施形態においては、後述する投影画像ごとに劣化度が算出及び保持される。
特徴抽出部104は、画像取得部103が取得した撮像画像から特徴を抽出する。本実施形態においては、各画素についての輝度値が特徴として抽出される。
モデル保持部106は、対象物体と比較される物体である複数の比較対象についてモデル情報を保持する。1つのモデル情報は、比較対象の像を含む画像と、比較対象の種類を特定する識別子と、により構成される。すなわち、モデル保持部106は画像保持を行い、比較対象の像を含む画像を複数保持する。本実施形態において、比較対象の画像は、比較対象の3次元モデルを撮像画像上に投影して得られる投影画像である。もっとも、比較対象の画像が、比較対象を撮像して得られる撮像画像であってもよい。また、モデル保持部106は、1つの比較対象について、比較対象と撮像装置の相対位置姿勢が異なる場合における複数のモデル情報を保持することができる。
信頼度算出部105は、モデル保持部106が保持する投影画像の画素ごとに信頼度を算出する。本実施形態において、信頼度算出部105は、投影画像の各画素についての劣化度から、劣化度の統計値、例えば平均値を算出する。そして、信頼度算出部105は、実施形態1と同様に、Tukey関数を用いて各画素の信頼度を算出する。もっとも、信頼度の算出方法は、既に説明したように、劣化度が高いほど信頼度が低くなるのであれば特に限定されない。例えば、予め定められた閾値とTukey関数とを用いて各画素の信頼度を算出してもよい。また、算出された統計値を用いて、全画素位置に対して共通の信頼度が設定されてもよい。また、統計値としては、メディアン値や標準偏差等を用いることもできる。
照合部107は、画像取得部103により取得された撮像画像に含まれる対象物体の種類を特定する。具体的には、照合部107は、画像取得部103により取得された撮像画像と、モデル保持部106が保持する投影画像と、の類似度を判定する。本実施形態において、照合部107は、各画素位置についての撮像画像の画素値と投影画像の画素値との差分を、各画素位置についての信頼度に従って重み付けする。そして、それぞれの画素位置について得られた重み付けされた差分に基づいて、対象物体の像と比較対象の像との一致度を算出する。こうして得られた一致度は、特徴が抽出された位置に対応する劣化度に従って重み付けされた、対象物体の像の複数の特徴のそれぞれについての対応する比較対象の像の特徴との差異に基づいている。
一例において、照合部107は、モデル保持部106が保持する投影画像の輝度値と、特徴抽出部104により取得された輝度値との間の類似度NCCを、式(24)に示す正規化相互相関関数を用いて計算する。式(24)に従って計算されたNCCの値が1に近いほど、類似度が高いと判断される。
Figure 2016103230
式(25)において、i,jは画素位置を示し、関数I及びTはそれぞれモデル保持部106が保持する投影画像の輝度値及び特徴抽出部104により取得された輝度値を示す。また、関数Wは信頼度算出部105により算出された信頼度を示す。
照合部107は、モデル保持部106が保持する投影画像のそれぞれに対してNCCを計算する。そして、照合部107は、NCCの値が最も1に近くなる投影画像を特定する。最後に、照合部107は、特定された投影画像と関連づけられている識別子により、対象物体の種類を特定する。照合部107は、特定された対象物体の種類を示す情報を出力することができる。NCCの値が閾値を超えない場合、照合部107は、撮像画像中には登録された種類の物体が存在しないと判定することもできる。
次に、図2のフローチャートを参照して、本実施形態における処理について説明する。ステップS201の処理は、実施形態1と同様である。ステップS202及びS203において、劣化度算出部101及び劣化度保持部102は、上述したように、劣化度を算出及び保持する。ステップS204の処理は、実施形態1と同様である。
ステップS205において、特徴抽出部104は、ステップS204で取得された撮像画像上の各画素値を特徴として抽出する。ステップS206において、照合部107は、上述のように、ステップS205において抽出された特徴と、モデル保持部106が保持する投影画像と、信頼度算出部105により算出された信頼度とを用いて、対象物体の認識を行う。
以上の処理により、対象物体の種類を特定することができる。本実施形態を応用して、さらに対象物体の位置姿勢を判定することもできる。例えば、モデル保持部106が保持する1つのモデル情報は、投影画像と、識別子と、比較対象に対する撮像装置の相対位置姿勢を示す情報と、により構成されていてもよい。この場合、照合部107は、特定された投影画像と関連づけられている相対位置姿勢を示す情報を用いて、対象物体の位置姿勢を判定することができる。
実施形態5によれば、ボケ及びブレ等による撮像画像の劣化を考慮して各画素に重み付けを行いながら、撮像画像と投影画像との一致度を算出することにより、対象物体の種類の特定を高精度に行うことができる。
[変形例10]
実施形態5では、対象物体の撮像画像と、モデル保持部106が保持する投影画像と、の間の類似度に基づいて、対象物体の認識が行われた。変形例10では、SIFT特徴の類似度を用いて対象物体の認識が行われる。実施形態5に係る情報処理装置1は、実施形態1と同様の構成を有しており、以下では異なる点について説明する。
特徴抽出部104は、画像取得部103により取得された撮像画像からSIFT特徴量を抽出する。例えば、特徴抽出部104は、撮像画像から特徴点(キーポイント)を検出し、それぞれのキーポイントにおけるSIFT特徴量を算出することができる。キーポイントの検出方法及びSIFT特徴量の算出方法は公知である。本実施形態では一例として藤吉弘亘「一般物体認識のための局所特徴量(SIFTとHOG)」情報処理学会研究報告,CVIM 160,pp.211−224,2007で開示されている方法が用いられる。
モデル保持部106は、複数の比較対象についてモデル情報を保持する。1つのモデル情報は、比較対象の3次元モデルを撮像画像上に投影して得られる投影画像から抽出されたSIFT特徴量と、比較対象の種類を特定する識別子と、により構成される。本実施形態において、1つのモデル情報には複数のSIFT特徴量が含まれている。また、モデル保持部106は、1つの比較対象について、撮像装置に対する比較対象の相対位置姿勢が異なる場合における複数のモデル情報を保持することができる。
照合部107は、画像取得部103により取得された撮像画像中の対象物体の種類を特定する。具体的には、照合部107は、まず、モデル保持部106が保持するモデル情報を1つ選択し、選択されたモデル情報に含まれるSIFT特徴量を、特徴抽出部104により抽出されたSIFT特徴量に対応付ける。SIFT特徴量の対応付け方法は公知であり、本実施形態では一例として藤吉弘亘「一般物体認識のための局所特徴量(SIFTとHOG)」情報処理学会研究報告,CVIM 160,pp.211−224,2007で開示されている方法が用いられる。
SIFT特徴量の対応付けを行う場合、距離が近い、画像取得部103により取得された撮像画像から抽出されたSIFT特徴量と、モデル保持部106が保持するSIFT特徴量と、を対応付けることができる。この対応付けは、キーポイントの画素位置に依存せずに行うことができる。実施形態1〜5においては位置が近い特徴が対応付けられたが、このように、特徴の対応付け方法としては様々な方法を用いることができる。
次に、照合部107は、対応付けられたSIFT特徴量についての信頼度を取得する。本変形例においても、実施形態5と同様に、信頼度算出部105は、モデル保持部106が保持する投影画像の画素ごとに信頼度を算出している。照合部107は、撮像画像から抽出されたSIFT特徴量に対応するキーポイントの画素についての信頼度を、信頼度算出部105から取得する。そして、照合部107は、対応付けられたSIFT特徴間のユークリッド距離に、得られた信頼度を重みとして乗じた重み付き距離の総和を、類似度Rとして算出する。
照合部107は、上述の類似度Rを算出する処理を、それぞれのモデル情報について行う。そして、照合部107は、類似度Rが最も小さくなるモデル情報を特定し、特定されたモデル情報に関連づけられている識別子により、対象物体の種類を特定する。照合部107は、特定された対象物体の種類を示す情報を出力することができる。本変形例においても、実施形態5と同様に、特定されたモデル情報と関連づけられている相対位置姿勢を示す情報を用いて、対象物体の位置姿勢を判定することができる。
本変形例においてはSIFT特徴量が用いられたが、画像から抽出される他の特徴を用いて対象物体の種類を特定することもできる。例えば、特徴として、エッジ特徴、又は撮像画像に基づいて算出される3次元点等を用いることができる。
[実施形態6]
上述の実施形態においては、例えば図1等に示される各処理部は、専用のハードウェアによって実現される。しかしながら、一部又は全部の処理部が、コンピュータにより実現されてもよい。本実施形態では、上述の各実施形態に係る処理の少なくとも一部がコンピュータにより実行される。図15はコンピュータの基本構成を示す図である。このコンピュータにおいて上述の各実施形態の機能を実行するためには、各機能構成をプログラムにより表現し、このコンピュータに読み込ませればよい。こうして、このコンピュータで上述の実施形態のそれぞれの機能を実現することができる。この場合、図15をはじめとする構成要素の各々は関数、若しくはCPUが実行するサブルーチンで機能させればよい。
また、コンピュータプログラムは通常、CD−ROM等のコンピュータが読み取り可能な記憶媒体に格納されている。この記憶媒体を、コンピュータが有する読み取り装置(CD−ROMドライブ等)にセットし、システムにコピー若しくはインストールすることで実行可能になる。従って、係るコンピュータが読み取り可能な記憶媒体も本発明の範疇にあることは明らかである。
図15はコンピュータの基本構成を示す図である。図15においてプロセッサ1510は、例えばCPUであり、コンピュータ全体の動作をコントロールする。メモリ1520は、例えばRAMであり、プログラム及びデータ等を一時的に記憶する。コンピュータが読み取り可能な記憶媒体1530は、例えばハードディスク又はCD−ROM等であり、プログラム及びデータ等を長期的に記憶する。本実施形態においては、記憶媒体1530が格納している、各部の機能を実現するプログラムが、メモリ1520へと読み出される。そして、プロセッサ1510が、メモリ1520上のプログラムに従って動作することにより、各部の機能が実現される。
図15において、入力インタフェース1540は外部の装置から情報を取得するためのインタフェースであり、例えば操作パネル112等に接続されている。また、出力インタフェース1550は外部の装置へと情報を出力するためのインタフェースであり、例えばLCDモニタ113等に接続されている。バス1560は、上述の各部を接続し、データのやりとりを可能とする。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
1:情報処理装置 102:劣化度保持部 103:画像取得部 104:特徴抽出部 107:照合部 108:撮像装置

Claims (25)

  1. 撮像装置により撮像される撮像画像内の各位置について画像の劣化度を示す情報を取得する劣化度取得手段と、
    撮像装置により撮像された対象物体の撮像画像を取得する画像取得手段と、
    前記撮像画像から、前記対象物体の特徴を抽出する抽出手段と、
    前記対象物体の3次元モデルを保持するモデル保持手段と、
    前記対象物体の特徴と、所定の位置姿勢に従って前記3次元モデルを配置した場合に観察される3次元モデルの特徴とを対応付ける対応付け手段と、
    前記対応付けられた結果と、前記特徴が抽出された位置に対応する前記劣化度とに基づいて、前記所定の位置姿勢を補正することにより前記撮像装置に対する前記対象物体の位置姿勢を導出する導出手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記劣化度取得手段は、撮像装置により撮像される撮像画像の各位置について画像の劣化度を示す情報を予め保持する劣化度保持手段から、前記劣化度を取得することを特徴とする、請求項1に記載の画像処理装置。
  3. 前記劣化度保持手段は、前記撮像装置と前記対象物体との間の位置姿勢に関連づけて前記劣化度を示す情報を保持することを特徴とする、請求項2に記載の画像処理装置。
  4. 前記劣化度保持手段は、前記撮像装置により前記対象物体を撮像して得られる撮像画像の、前記対象物体の像の各特徴の位置における劣化度を示す情報を、当該特徴に対応する前記3次元モデルが有する特徴に関連づけて保持することを特徴とする、請求項2又は3に記載の画像処理装置。
  5. 前記導出手段は、前記対応付け手段によって対応づけられた前記対象物体の特徴と、前記3次元モデルの特徴との間の距離を小さくするように、前記所定の位置姿勢を補正することを特徴とする、請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記特徴はエッジ特徴であり、
    前記抽出手段は、前記撮像画像に対してエッジ検出処理を行うことで複数のエッジ特徴を抽出し、
    前記対応付け手段は、前記3次元モデルが有する複数のエッジのそれぞれについて、前記所定の位置姿勢に基づいて投影画像上に投影することで得られる画像位置を算出し、前記撮像画像上における前記対象物体の像のエッジ特徴の画像位置と、当該画像位置に近接する前記投影画像上における前記3次元モデルのエッジ特徴の画像位置とを対応付けることを特徴とする、請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 前記撮像画像は、照射装置により照明パターンが照射された対象物体を前記撮像装置が撮像することにより得られており、
    前記抽出手段は、前記照射装置の位置、前記撮像装置の位置、及び前記照明パターンに基づいて、前記対象物体の像上の点の3次元位置を、前記特徴として抽出し、
    前記対応付け手段は、前記対象物体の像上の点の3次元位置と、当該3次元位置に近接する前記3次元モデルの面の3次元位置とを対応付けることを特徴とする、請求項1乃至5の何れか1項に記載の画像処理装置。
  8. 前記劣化度に応じて、前記撮像画像から特徴を抽出するために用いる抽出パラメータを設定する設定手段をさらに備え、
    前記抽出手段は、前記設定手段により設定された抽出パラメータを用いて、前記撮像画像から前記特徴を抽出する
    ことを特徴とする、請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 撮像装置により撮像される撮像画像の各位置について画像の劣化度を示す情報を取得する劣化度取得手段と
    撮像装置により撮像された対象物体の撮像画像を取得する画像取得手段と、
    比較対象の像を複数保持する保持手段と、
    複数の前記比較対象の像のうち、前記対象物体の像と前記比較対象の像との一致度に基づいて、前記複数の比較対象の像から、前記対象物体の像に対応する像を判定する判定手段と、を備え、
    前記一致度は、特徴が抽出された位置に対応する前記劣化度に従って重み付けされた、前記対象物体の像の前記複数の特徴のそれぞれについての対応する比較対象の像の特徴との差異に基づく
    ことを特徴とする画像処理装置。
  10. 撮像装置により撮像される撮像画像の劣化度を示す情報を取得する劣化度取得手段と、
    撮像装置により撮像された対象物体の撮像画像を取得する画像取得手段と、
    前記劣化度に応じて、前記撮像画像から特徴を抽出するために用いる抽出パラメータを設定する設定手段と、
    前記撮像画像を参照して、前記設定手段により設定された抽出パラメータを用いて、前記撮像画像から特徴を抽出する抽出手段と、
    を備えることを特徴とする画像処理装置。
  11. 前記劣化度取得手段は、前記撮像画像の各位置について画像の劣化度を示す情報を取得し、
    前記設定手段は、前記撮像画像の各位置について、当該位置についての前記劣化度に応じて、当該位置において特徴を抽出するために用いる抽出パラメータを設定する
    ことを特徴とする、請求項10に記載の画像処理装置。
  12. 前記劣化度取得手段は、前記撮像装置の視点と前記対象物体との間の位置姿勢に関連づけられた前記劣化度を示す情報を取得することを特徴とする、請求項10又は11に記載の画像処理装置。
  13. 前記設定手段は、前記劣化度が高いほど大きいサイズのフィルタを用いたフィルタ処理により特徴が抽出されるように、前記抽出パラメータを設定することを特徴とする、請求項10乃至12の何れか1項に記載の画像処理装置。
  14. 前記設定手段は、前記劣化度が高いほど小さくなるように前記撮像画像をリサイズしてからフィルタ処理により特徴が抽出されるように、前記抽出パラメータを設定することを特徴とする、請求項10乃至12の何れか1項に記載の画像処理装置。
  15. 前記設定手段は、前記劣化度に応じて複数の抽出パラメータを設定し、
    前記抽出手段は、前記複数の抽出パラメータのそれぞれを用いてフィルタ処理により特徴を抽出し、フィルタ処理の応答値に応じて複数の抽出結果から少なくとも1つの抽出結果を選択する
    ことを特徴とする、請求項10乃至14の何れか1項に記載の画像処理装置。
  16. 前記劣化度は、画像のボケ量とブレ量とのうちの少なくとも一方を示すことを特徴とする、請求項1乃至15の何れか1項に記載の画像処理装置。
  17. 前記撮像装置による前記対象物体の撮像条件に基づいて、前記対象物体の3次元モデルを用いて前記劣化度を算出する劣化度算出手段をさらに備えることを特徴とする、請求項1乃至16の何れか1項に記載の画像処理装置。
  18. 前記撮像装置が前記対象物体を撮像して得た撮像画像に基づいて前記劣化度を算出する劣化度算出手段をさらに備えることを特徴とする、請求項1乃至16の何れか1項に記載の画像処理装置。
  19. 前記撮像装置による前記対象物体の撮像条件に基づいて前記対象物体の3次元モデルを用いて前記撮像装置が前記対象物体を撮影して得られる撮像画像を推定し、当該推定された画像に基づいて前記劣化度を算出する劣化度算出手段をさらに備えることを特徴とする、請求項1乃至16の何れか1項に記載の画像処理装置。
  20. 前記対象物体を撮像することにより前記撮像画像を取得する撮像手段をさらに備えることを特徴とする、請求項1乃至19の何れか1項に記載の画像処理装置。
  21. 前記対象物体を撮像することにより前記撮像画像を取得する撮像手段と、
    可動軸を有するロボットアームと、
    前記導出された対象物体の位置姿勢に従って前記ロボットアームの位置姿勢を制御する制御手段と、
    をさらに備えることを特徴とする、請求項1乃至8の何れか1項に記載の画像処理装置。
  22. 画像処理装置が行う画像処理方法であって、
    撮像装置により撮像される撮像画像内の各位置について画像の劣化度を示す情報を取得する劣化度取得工程と、
    撮像装置により撮像された対象物体の撮像画像を取得する画像取得工程と、
    前記撮像画像から、前記対象物体の特徴を抽出する抽出工程と、
    前記対象物体の特徴と、所定の位置姿勢に従って前記対象物体の3次元モデルを配置した場合に観察される3次元モデルの特徴とを対応付ける対応付け工程と、
    前記対応付けられた結果と、前記特徴が抽出された位置に対応する前記劣化度とに基づいて、前記所定の位置姿勢を補正することにより前記撮像装置に対する前記対象物体の位置姿勢を導出する導出工程と、
    を備えることを特徴とする画像処理方法。
  23. 画像処理装置が行う画像処理方法であって、
    撮像装置により撮像される撮像画像の各位置について画像の劣化度を示す情報を取得する劣化度取得工程と
    撮像装置により撮像された対象物体の撮像画像を取得する画像取得工程と、
    前記対象物体の像と比較対象の像との一致度に基づいて、複数の比較対象の像から、前記対象物体の像に対応する像を判定する判定工程と、を備え、
    前記一致度は、特徴が抽出された位置に対応する前記劣化度に従って重み付けされた、前記対象物体の像の前記複数の特徴のそれぞれについての対応する比較対象の像の特徴との差異に基づく
    ことを特徴とする画像処理方法。
  24. 画像処理装置が行う画像処理方法であって、
    撮像装置により撮像される撮像画像の劣化度を示す情報を取得する劣化度取得工程と、
    撮像装置により撮像された対象物体の撮像画像を取得する画像取得工程と、
    前記劣化度に応じて、前記撮像画像から特徴を抽出するために用いる抽出パラメータを設定する設定工程と、
    前記撮像画像を参照して、前記設定工程で設定された抽出パラメータを用いて、前記撮像画像から特徴を抽出する抽出工程と、
    を備えることを特徴とする画像処理方法。
  25. コンピュータを、請求項1乃至21の何れか1項に記載の画像処理装置の各手段として機能させるための、コンピュータプログラム。
JP2014242301A 2014-11-28 2014-11-28 画像処理装置、画像処理方法、及びプログラム Active JP6573354B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014242301A JP6573354B2 (ja) 2014-11-28 2014-11-28 画像処理装置、画像処理方法、及びプログラム
US14/949,136 US10059002B2 (en) 2014-11-28 2015-11-23 Image processing apparatus, image processing method, and non-transitory computer-readable medium
CN201510821654.5A CN105654464B (zh) 2014-11-28 2015-11-24 图像处理装置及图像处理方法
DE102015015194.0A DE102015015194A1 (de) 2014-11-28 2015-11-24 Bildverarbeitungsvorrichtung und -verfahren und Programm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014242301A JP6573354B2 (ja) 2014-11-28 2014-11-28 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016103230A true JP2016103230A (ja) 2016-06-02
JP6573354B2 JP6573354B2 (ja) 2019-09-11

Family

ID=55967978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014242301A Active JP6573354B2 (ja) 2014-11-28 2014-11-28 画像処理装置、画像処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US10059002B2 (ja)
JP (1) JP6573354B2 (ja)
CN (1) CN105654464B (ja)
DE (1) DE102015015194A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6275345B1 (ja) * 2017-02-03 2018-02-07 三菱電機株式会社 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム
WO2018047705A1 (ja) * 2016-09-07 2018-03-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および対象物認識方法
US10507583B2 (en) 2016-08-17 2019-12-17 Fanuc Corporation Robot control device
WO2020110495A1 (ja) * 2018-11-30 2020-06-04 オムロン株式会社 制御装置、制御方法、及び制御プログラム
WO2024201662A1 (ja) * 2023-03-27 2024-10-03 ファナック株式会社 物体検出装置

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6537332B2 (ja) * 2014-04-28 2019-07-03 キヤノン株式会社 画像処理方法および撮影装置
JP6317618B2 (ja) * 2014-05-01 2018-04-25 キヤノン株式会社 情報処理装置およびその方法、計測装置、並びに、作業装置
US9842278B2 (en) * 2015-11-29 2017-12-12 Tend Insights, Inc. Image analysis and orientation correction for target object detection and validation
JP6348097B2 (ja) * 2015-11-30 2018-06-27 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6688088B2 (ja) 2016-01-19 2020-04-28 キヤノン株式会社 情報処理装置およびその制御方法
US10171730B2 (en) 2016-02-15 2019-01-01 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP6795993B2 (ja) * 2016-02-18 2020-12-02 株式会社ミツトヨ 形状測定システム、形状測定装置及び形状測定方法
US10245724B2 (en) * 2016-06-09 2019-04-02 Shmuel Ur Innovation Ltd. System, method and product for utilizing prediction models of an environment
JP6740033B2 (ja) 2016-06-28 2020-08-12 キヤノン株式会社 情報処理装置、計測システム、情報処理方法及びプログラム
JP6800676B2 (ja) * 2016-09-27 2020-12-16 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10726814B2 (en) * 2017-01-27 2020-07-28 Canon Kabushiki Kaisha Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium
US10682774B2 (en) 2017-12-12 2020-06-16 X Development Llc Sensorized robotic gripping device
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
KR20190092051A (ko) * 2018-01-30 2019-08-07 한화정밀기계 주식회사 물체 검출 방법 및 로봇 시스템
US11830131B2 (en) * 2018-02-06 2023-11-28 Veo Robotics, Inc. Workpiece sensing for process management and orchestration
JP7161857B2 (ja) 2018-03-14 2022-10-27 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
US10939081B2 (en) 2018-05-25 2021-03-02 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP7178803B2 (ja) 2018-06-04 2022-11-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
JP7228966B2 (ja) 2018-06-29 2023-02-27 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム
US11003939B2 (en) 2018-07-06 2021-05-11 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP7134016B2 (ja) 2018-08-10 2022-09-09 キヤノン株式会社 情報処理装置、情報処理方法
US11636382B1 (en) * 2018-08-10 2023-04-25 Textron Innovations, Inc. Robotic self programming visual inspection
JP6744898B2 (ja) * 2018-10-12 2020-08-19 ソニーセミコンダクタソリューションズ株式会社 計測装置、計測方法、プログラム
TWI696529B (zh) * 2018-11-30 2020-06-21 財團法人金屬工業研究發展中心 自動定位方法以及自動控制裝置
JP7275759B2 (ja) * 2019-03-28 2023-05-18 セイコーエプソン株式会社 物体検出方法、物体検出装置およびロボットシステム
JP7007324B2 (ja) * 2019-04-25 2022-01-24 ファナック株式会社 画像処理装置、画像処理方法、及びロボットシステム
CN110196638B (zh) * 2019-05-17 2023-10-13 中电海康集团有限公司 基于目标检测和空间投影的移动端增强现实方法和系统
US11389965B2 (en) 2019-07-26 2022-07-19 Mujin, Inc. Post-detection refinement based on edges and multi-dimensional corners
CN111783529B (zh) * 2019-07-26 2021-07-09 牧今科技 基于边缘和多维拐角的检测后改善
CN111191546A (zh) * 2019-12-20 2020-05-22 广西柳州联耕科技有限公司 基于机器视觉识别的产品智能装配方法
CN111360827B (zh) * 2020-03-06 2020-12-01 哈尔滨工业大学 一种视觉伺服切换控制方法及系统
JP7367849B2 (ja) * 2020-03-16 2023-10-24 日本電気株式会社 劣化診断装置、劣化診断システム、劣化診断方法、及び、プログラム
CN111444928A (zh) * 2020-03-30 2020-07-24 北京市商汤科技开发有限公司 关键点检测的方法、装置、电子设备及存储介质
JP7364045B2 (ja) * 2020-03-31 2023-10-18 日本電気株式会社 劣化診断装置、劣化診断システム、劣化診断方法、及び、プログラム
CN111915792B (zh) * 2020-05-19 2022-06-07 武汉卓目科技有限公司 一种图像斑马线图文的识别方法及装置
CN111695519B (zh) 2020-06-12 2023-08-08 北京百度网讯科技有限公司 关键点定位方法、装置、设备以及存储介质
JP7564671B2 (ja) 2020-09-29 2024-10-09 キヤノン株式会社 情報処理装置、制御方法、及び、プログラム
JP7447042B2 (ja) * 2021-03-17 2024-03-11 株式会社東芝 画像処理装置、方法及びプログラム
CN113012048B (zh) * 2021-03-26 2022-08-26 电子科技大学 一种基于sift特征的传送带表面物体图像拼接方法
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
CN118386258B (zh) * 2024-06-28 2024-09-17 江苏腾通包装机械有限公司 一种包装机械手臂控制系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087442A (ja) * 2001-09-14 2003-03-20 Fuji Photo Film Co Ltd 画像評価方法および装置並びにプログラム
JP2006031388A (ja) * 2004-07-15 2006-02-02 Yamaha Motor Co Ltd 画像類似度演算装置およびそれを利用した画像認識装置、画像類似度演算方法およびそれを利用した画像認識方法、ならびに画像照合用コンピュータプログラムおよびそれを記録した記録媒体
JP2008061217A (ja) * 2006-07-31 2008-03-13 Ricoh Co Ltd 画像処理装置、撮像装置、画像処理方法、および画像処理プログラム
JP2010267232A (ja) * 2009-05-18 2010-11-25 Canon Inc 位置姿勢推定方法および装置
JP2012505562A (ja) * 2008-12-10 2012-03-01 キヤノン株式会社 画像処理装置および画像処理方法、並びに、データ処理装置およびデータ処理方法
JP2012181757A (ja) * 2011-03-02 2012-09-20 Denso Wave Inc 光学情報読み取り装置
JP2013175928A (ja) * 2012-02-24 2013-09-05 Canon Inc 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
WO2013145554A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 画像処理装置及び画像処理方法
JP2014169990A (ja) * 2013-02-07 2014-09-18 Canon Inc 位置姿勢計測装置及び方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100562067C (zh) 2007-07-26 2009-11-18 上海交通大学 带有去噪功能的实时数字图像处理增强方法
JP5241423B2 (ja) 2008-10-16 2013-07-17 株式会社キーエンス 画像処理における画像データ縮小率の決定方法、画像処理におけるパターンモデルの位置決め方法、画像処理におけるパターンモデルの作成方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
US10037466B2 (en) * 2013-08-23 2018-07-31 Nec Corporation Video processing apparatus, video processing method, and video processing program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087442A (ja) * 2001-09-14 2003-03-20 Fuji Photo Film Co Ltd 画像評価方法および装置並びにプログラム
JP2006031388A (ja) * 2004-07-15 2006-02-02 Yamaha Motor Co Ltd 画像類似度演算装置およびそれを利用した画像認識装置、画像類似度演算方法およびそれを利用した画像認識方法、ならびに画像照合用コンピュータプログラムおよびそれを記録した記録媒体
JP2008061217A (ja) * 2006-07-31 2008-03-13 Ricoh Co Ltd 画像処理装置、撮像装置、画像処理方法、および画像処理プログラム
JP2012505562A (ja) * 2008-12-10 2012-03-01 キヤノン株式会社 画像処理装置および画像処理方法、並びに、データ処理装置およびデータ処理方法
JP2010267232A (ja) * 2009-05-18 2010-11-25 Canon Inc 位置姿勢推定方法および装置
JP2012181757A (ja) * 2011-03-02 2012-09-20 Denso Wave Inc 光学情報読み取り装置
JP2013175928A (ja) * 2012-02-24 2013-09-05 Canon Inc 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
WO2013145554A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 画像処理装置及び画像処理方法
JP2014169990A (ja) * 2013-02-07 2014-09-18 Canon Inc 位置姿勢計測装置及び方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10507583B2 (en) 2016-08-17 2019-12-17 Fanuc Corporation Robot control device
WO2018047705A1 (ja) * 2016-09-07 2018-03-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および対象物認識方法
JP2018041277A (ja) * 2016-09-07 2018-03-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および対象物認識方法
US11048912B2 (en) 2016-09-07 2021-06-29 Sony Interactive Entertainment Inc. Information processing apparatus and target object recognition method
JP6275345B1 (ja) * 2017-02-03 2018-02-07 三菱電機株式会社 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム
WO2018142582A1 (ja) * 2017-02-03 2018-08-09 三菱電機株式会社 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム
WO2020110495A1 (ja) * 2018-11-30 2020-06-04 オムロン株式会社 制御装置、制御方法、及び制御プログラム
JP2020082332A (ja) * 2018-11-30 2020-06-04 オムロン株式会社 制御装置、制御方法、及び制御プログラム
US11745355B2 (en) 2018-11-30 2023-09-05 Omron Corporation Control device, control method, and non-transitory computer-readable storage medium
WO2024201662A1 (ja) * 2023-03-27 2024-10-03 ファナック株式会社 物体検出装置

Also Published As

Publication number Publication date
US20160155235A1 (en) 2016-06-02
DE102015015194A1 (de) 2016-06-02
JP6573354B2 (ja) 2019-09-11
CN105654464B (zh) 2019-04-12
US10059002B2 (en) 2018-08-28
CN105654464A (zh) 2016-06-08

Similar Documents

Publication Publication Date Title
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US10189162B2 (en) Model generation apparatus, information processing apparatus, model generation method, and information processing method
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP6271953B2 (ja) 画像処理装置、画像処理方法
US10684116B2 (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
JP5746477B2 (ja) モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP2023052266A (ja) 案内された組立環境におけるマシンビジョン座標空間を結合するためのシステム及び方法
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
JP6415066B2 (ja) 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
US10203197B2 (en) Range measurement apparatus and range measurement method
CN110926330B (zh) 图像处理装置和图像处理方法
JP2012123781A (ja) 情報処理装置、情報処理システム及び情報処理方法
JP6626338B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6548789B2 (ja) 位置姿勢計測装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190809

R151 Written notification of patent or utility model registration

Ref document number: 6573354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151