JP7298687B2 - 物体認識装置及び物体認識方法 - Google Patents

物体認識装置及び物体認識方法 Download PDF

Info

Publication number
JP7298687B2
JP7298687B2 JP2021525479A JP2021525479A JP7298687B2 JP 7298687 B2 JP7298687 B2 JP 7298687B2 JP 2021525479 A JP2021525479 A JP 2021525479A JP 2021525479 A JP2021525479 A JP 2021525479A JP 7298687 B2 JP7298687 B2 JP 7298687B2
Authority
JP
Japan
Prior art keywords
dimensional
point
dimensional data
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021525479A
Other languages
English (en)
Other versions
JPWO2020250348A1 (ja
Inventor
嘉典 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Publication of JPWO2020250348A1 publication Critical patent/JPWO2020250348A1/ja
Application granted granted Critical
Publication of JP7298687B2 publication Critical patent/JP7298687B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、テンプレートマッチングにより3次元物体を認識する技術に関する。
画像から物体を認識(検出)する方法の一つとしてテンプレートマッチングがある。テンプレートマッチングは、認識対象となる物体のモデル(テンプレート)を予め用意しておき、入力画像とモデルのあいだの画像特徴の一致度を評価することで、入力画像に含まれる物体を検出する方法である。テンプレートマッチングによる物体認識は、例えば、FA(Factory Automation)における検査やピッキング、ロボットビジョン、監視カメラなど、多岐にわたる分野で利用されている。
近年、テンプレートマッチングを物体の3次元的な位置及び姿勢の認識に応用する技術に注目が集まっている。その基本的な原理は、対象物体に対する視点位置を変えることでビュー(見え)の異なる多数のテンプレートを用意し、それらのテンプレートの中から入力画像における対象物体のビューに最もマッチするものを選択することで、カメラに対する対象物体の3次元的な位置及び姿勢を特定するというものである。しかしこの方法は、認識の分解能がテンプレートのバリエーションに比例するため、認識の分解能を上げようとすると、テンプレート作成の負荷増大、テンプレートのデータ量の増加、テンプレートマッチングの処理時間の増大などの問題が顕著になる。
このような問題への対応策として、特許文献1には、デプスセンサによって対象物体の奥行き距離を計測し、その奥行き距離に応じてテンプレート(特徴値をサンプリングする2次元グリッド)をスケーリング(拡大/縮小)する、というアイデアが開示されている。
米国特許第9659217号明細書
特許文献1の方法によれば、奥行き距離のみが異なる複数のビューのテンプレートを共通化できるため、テンプレート作成の負荷軽減や、テンプレート数の削減などの効果が期待できる。しかしながら、テンプレートマッチングの探索時に、各画素の奥行き距離に合わせてテンプレートを拡大又は縮小する処理が発生するため、処理速度が遅くなるというデメリットがある。テンプレートの拡大又は縮小にかかる時間を削減するために、テンプレートマッチング処理に先立ち、対象物体が存在し得る距離範囲と必要な分解能に応じて複数スケールのテンプレートを生成しワークメモリに保持しておくことも技術的には可能であるが、非常に多くのメモリ容量が必要となるため実用的でない。
本発明は、上記実情に鑑みてなされたものであり、様々な奥行き距離に存在し得る物体をテンプレートマッチングにより高速に検出することを可能にする実用的な技術を提供することを目的とする。
本発明の一側面は、各々が3次元情報をもつ複数の点から構成される3次元データを取得する3次元データ取得部と、前記3次元データの各点をある投影面に平行投影することにより2次元画像を生成する平行投影変換部と、テンプレートマッチングにより前記2次元画像から対象物体を検出する認識処理部と、を有することを特徴とする物体認識装置を提供する。
3次元データは、3次元計測により得られるデータであるとよい。3次元計測の方式はどのようなものでもよく、アクティブ計測方式でもパッシブ計測方式でもよい。テンプレートマッチングは、対象物体のテンプレート(モデル)と2次元画像における注目領域とのあいだの画像特徴の一致度(類似度)を評価することによって、当該注目領域内の部分画像が対象物体の画像であるか否かを判断する方法である。対象物体のビュー(見え)が異なる複数のテンプレートをテンプレートマッチングに用いれば、対象物体の姿勢の認識も可能である。
本発明では、3次元データを平行投影することで生成された2次元画像をテンプレートマッチングに利用する。平行投影では、投影面から対象物体までの距離にかかわらず、対象物体は同じ大きさで投影される。それゆえ、平行投影により生成された2次元画像においては、対象物体の像は(その奥行き距離によらず)常に同じ大きさをとる。したがって、単一のサイズのテンプレートだけを用いてマッチングを行えばよいので、従来方法(奥行き距離に応じてテンプレートのスケーリングを行う方法)に比べて高速な処理が可能である。また、テンプレートの数及びデータ量を削減できるとともに、ワークメモリの必要量も少なくて済むため、実用性に優れるという利点もある。
前記認識処理部は、前記対象物体のテンプレートとして、前記対象物体を平行投影した画像から生成されたテンプレートを用いてもよい。テンプレートも平行投影画像から生成することによって、テンプレートと2次元画像における対象物体像とのマッチング精度が向上するため、物体認識処理の信頼性を高めることができる。
前記投影面は任意に設定してよいが、3次元データを構成する各点の投影点が前記投影面上でできるだけ広い範囲に分布するように前記投影面を設定することが好ましい。例えば、前記3次元データが、カメラで撮影された画像を用いて生成されたデータである場合には、前記平行投影変換部は、前記カメラの光軸に直交するように前記投影面を設定してもよい。
前記平行投影変換部は、前記3次元データにおける第1の点が前記2次元画像における第1の画素に投影された場合に、前記第1の点の3次元情報から求まるデプス情報を前記第1の画素に関連付けてもよい。前記3次元データの各点が輝度の情報を有している場合には、前記平行投影変換部は、前記3次元データにおける第1の点が前記2次元画像における第1の画素に投影された場合に、前記第1の点の輝度の情報を前記第1の画素に関連付けてもよい。前記3次元データの各点が色の情報を有している場合には、前記平行投影変換部は、前記3次元データにおける第1の点が前記2次元画像における第1の画素に投影された場合に、前記第1の点の色の情報を前記第1の画素に関連付けてもよい。
前記平行投影変換部は、前記2次元画像における第2の画素に投影される点が存在しない場合に、前記第2の画素の周辺の画素に関連付けられた情報に基づいて、前記第2の画素に関連付ける情報を生成してもよい。例えば、前記平行投影変換部は、前記第2の画素の周辺の画素に関連付けられた情報を補間することによって、前記第2の画素に関連付ける情報を求めてもよい。このような処理により2次元画像の情報量を増すことで、テンプレートマッチングの精度向上が期待できる。
前記3次元データは、カメラで撮影された画像を用いて生成されたデータであり、前記平行投影変換部は、前記3次元データにおける複数の点が前記投影面上の同じ位置に投影される場合には、前記複数の点のうち前記カメラに最も近い点を前記2次元画像の生成に用いてもよい。このような処理により、投影面側から見たときの物体同士の重なり(隠れ)を考慮した平行投影像が生成されるため(つまり、カメラから見える点のみが2次元画像にマッピングされるため)、テンプレートマッチングによる物体認識処理を精度良く行うことができる。
本発明は、上述した手段ないし構成の少なくとも一部を有する物体認識装置として捉えてもよいし、上述した平行投影変換を行う画像処理装置として捉えてもよい。また、本発明は、上記処理の少なくとも一部を含む物体認識方法、画像処理方法、テンプレートマッチング方法、物体認識装置の制御方法などとして捉えてもよく、または、かかる方法を実現するためのプログラムやそのプログラムを非一時的に記録した記録媒体として捉えることもできる。なお、上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
本発明によれば、様々な奥行き距離に存在し得る物体をテンプレートマッチングにより高速に検出することを可能にする実用的な技術を提供することができる。
図1は、物体認識装置による処理を模式的に示す図である。 図2は、物体認識装置の全体構成を模式的に示す図である。 図3は、画像処理装置の構成を示すブロック図である。 図4は、テンプレート作成処理のフローチャートである。 図5は、視点位置の設定例を示す図である。 図6は、テンプレート作成処理における平行投影画像の例を示す図である。 図7は、物体認識処理のフローチャートである。 図8は、物体認識処理における平行投影変換のフローチャートである。 図9は、カメラ座標系と投影画像座標系の設定例を示す図である。 図10は、投影点補完処理のフローチャートである。
<適用例>
図1は、本発明の適用例の一つである物体認識装置による処理を模式的に示している。図1の符号10は、ステージ101上の3つの物体102a、102b、102cを斜め上方からカメラ103によって計測(撮影)する様子を示している。物体102a、102b、102cは同じ形状(円柱形)・同じサイズの物体であるが、カメラ103からの奥行き距離が物体102a、物体102b、物体102cの順で遠い。
符号11は、カメラ103で撮影された画像に基づき生成された3次元データの一例である。3次元データ11は、各点が3次元情報をもつ複数の点から構成されるデータである。3次元データ11の形式はどのようなものでもよく、例えば、各点が3次元座標値をもつ形式のデータでもよいし、2次元画像の各点(各画素)にデプス値(奥行き距離の情報)が関連付けられた形式のデータでもよい。3次元座標値は、カメラ座標系の座標値でもよいし、グローバル座標系の座標値でもよいし、それ以外の座標系の座標値でもよい。図1の3次元データ11はデプス画像の例であり、デプス値を便宜的に濃淡で表している(カメラ103から遠い点ほど暗い。)。一般的な光学系ではカメラ103から遠い物体ほど小さく結像するため、画像上のサイズは、物体102a、物体102b、物体102cの順で小さくなる。
従来のテンプレートマッチングは、様々なサイズの物体に対応するために、サイズの異なる複数種類のテンプレートを用いるか、特許文献1のようにデプス値に応じてテンプレートのサイズをスケーリングしていた。しかしながら、これらの従来方法は、前述のとおり、処理速度の低下やメモリ容量の増大などの問題が生じるという不利があった。
そこで、本発明の実施形態では、3次元データ11を平行投影変換して2次元画像12を生成し、この2次元画像12をテンプレートマッチングに用いる。平行投影変換を行うことによって、実際のサイズが同じ物体は、2次元画像12上でのサイズも同じになる。したがって、単一のサイズのテンプレート13を適用するだけで、2次元画像12に含まれているすべての物体102a、102b、102cを検出することができる。符号14は、認識結果の例を示している。
本実施形態の方法によれば、従来方法に比べて高速な処理が可能である。また、テンプレートの数及びデータ量を削減できるとともに、ワークメモリの必要量も少なくて済むため、実用性に優れるという利点もある。なお、説明の便宜のため図1では物体102a、102b、102cの姿勢が同じである例を示したが、物体の姿勢(つまり物体を見る角度)によってその形状が変化する場合には、認識したい姿勢ごとにテンプレート13を用意しておけばよい。
<実施形態>
(物体認識装置の全体構成)
図2を参照して、本発明の実施形態に係る物体認識装置について説明する。
物体認識装置2は、物品の組み立てや加工などを行う生産ラインに設置され、センサユニット20から取り込まれたデータを用いて、テンプレートマッチングによりトレイ26に積載された物体27の位置・姿勢を認識(3次元の物体認識)するシステムである。トレイ26上には、認識対象の物体(以下、「対象物体」ともいう。)27がバラ積みされている。
物体認識装置2は、概略、センサユニット20と画像処理装置21から構成される。センサユニット20と画像処理装置21のあいだは有線又は無線で接続されており、センサユニット20の出力は画像処理装置21に取り込まれる。画像処理装置21は、センサユニット20から取り込まれたデータを用いて各種の処理を行うデバイスである。画像処理装置21の処理としては、例えば、距離計測(測距)、3次元形状認識、物体認識、シーン認識などが含まれてもよい。物体認識装置2の認識結果は、例えばPLC(プログラマブルロジックコントローラ)25やディスプレイ22などに出力される。認識結果は、例えば、ピッキング・ロボット28の制御、加工装置や印字装置の制御、対象物体27の検査や計測などに利用される。
(センサユニット)
センサユニット20は、対象物体27の光学像を撮影するためのカメラを少なくとも有する。さらに、センサユニット20は、対象物体27の3次元計測を行うために必要な構成(センサ、照明装置、投光装置など)を含んでもよい。例えば、ステレオマッチング(ステレオビジョン、ステレオカメラ方式などとも呼ばれる。)によって奥行き距離を計測する場合には、センサユニット20に複数台のカメラが設けられる。アクティブステレオの場合はさらに、対象物体27にパターン光を投射する投光装置がセンサユニット20に設けられる。空間コード化パターン投影方式により3次元計測を行う場合には、パターン光を投射する投光装置とカメラがセンサユニット20に設けられる。他にも、照度差ステレオ法、TOF(タイムオブフライト)法、位相シフト法など、対象物体27の3次元情報を取得可能な方法であればいかなる方式を用いてもよい。
(画像処理装置)
画像処理装置21は、例えば、CPU(プロセッサ)、RAM(メモリ)、不揮発性記憶装置(ハードディスク、SSDなど)、入力装置、出力装置などを備えるコンピュータにより構成される。この場合、CPUが、不揮発性記憶装置に格納されたプログラムをRAMに展開し、当該プログラムを実行することによって、後述する各種の構成が実現される。ただし、画像処理装置21の構成はこれに限られず、後述する構成のうちの全部又は一部を、FPGAやASICなどの専用回路で実現してもよいし、クラウドコンピューティングや分散コンピューティングにより実現してもよい。
図3は、画像処理装置21の構成を示すブロック図である。画像処理装置21は、テンプレート作成装置30の構成と、物体認識処理装置31の構成を有している。テンプレート作成装置30は、物体認識処理で利用するテンプレートを作成するための構成であり、3次元CADデータ取得部300、平行投影パラメータ設定部301、視点位置設定部302、2次元投影画像作成部303、特徴抽出部304、テンプレート作成部305を有する。物体認識処理装置31は、テンプレートマッチングによる物体認識処理を実行するための構成であり、3次元データ取得部310、平行投影パラメータ設定部311、平行投影変換部312、特徴抽出部313、テンプレート記憶部314、テンプレートマッチング部315、認識結果出力部316を有する。本実施形態では、特徴抽出部313、テンプレート記憶部314、及び、テンプレートマッチング部315により、本発明の「認識処理部」が構成されている。
(テンプレート作成処理)
図4のフローチャートを参照して、テンプレート作成装置30によるテンプレート作成処理の一例を説明する。
ステップS400において、3次元CADデータ取得部300が、対象物体27の3次元CADデータを取得する。CADデータは、画像処理装置21の内部記憶装置から読み込んでもよいし、外部のCADシステムやストレージなどからネットワークを介して取得してもよい。なお、CADデータの代わりに、3次元センサなどで計測された3次元形状データを取得してもよい。
ステップS401において、視点位置設定部302が、テンプレートを作成する視点位置を設定する。図5は、視点位置の設定例を示している。この例では、対象物体27を包含する八十面体の42個の頂点に視点(黒丸で図示)を設定している。なお、視点の数や配置は、要求される分解能、対象物体27の形状や採り得る姿勢などに応じて適宜設定すればよい。視点の数や配置は、ユーザにより指定されてもよいし、視点位置設定部302によって自動で設定されてもよい。
ステップS402において、平行投影パラメータ設定部301が、テンプレート作成に使用する平行投影パラメータを設定する。ここでは、平行投影パラメータとして、res,resの2つのパラメータを用いる。(res,res)は投影画像の1画素の大きさ(単位はmm)である。なお、後述する物体認識処理における平行投影変換でも平行投影パラメータを用いるが、テンプレート作成時と物体認識処理時で同じ値のパラメータを使用するとよい。平行投影パラメータの値を揃えることで、テンプレートにおける対象物体27のサイズと物体認識処理で生成される平行投影画像における対象物体27のサイズとが一致するため、テンプレートマッチングの際にテンプレート又は画像のスケール調整をする必要がなくなるからである。
ステップS403において、2次元投影画像作成部303が、3次元CADデータを平行投影した2次元投影画像を作成する。図6は、2次元投影画像の例を示している。対象物体27の表面上の各点を、視点VPを通る投影面62に平行投影することによって、視点VPに対応する2次元投影画像60が作成される。
ステップS404において、特徴抽出部304が、ステップS403で作成された2次元投影画像60から対象物体27の画像特徴を抽出する。画像特徴としては、例えば、輝度、色、輝度勾配方向、量子化勾配方向、HoG(Histogram of Oriented Gradients)、表面の法線方向、HAAR-like、SIFT(Scale-Invariant Feature Transform)などを用いることができる。輝度勾配方向は、特徴点を中心とする局所領域での輝度の勾配の方向(角度)を連続値で表すものであり、量子化勾配方向は、特徴点を中心とする局所領域での輝度の勾配の方向を離散値で表す(例えば、8方向を0~7の1バイトの情報で保持する)ものである。特徴抽出部304は、2次元投影画像60の全ての点(画素)について画像特徴を求めてもよいし、所定の規則に従ってサンプリングした一部の点について画像特徴を求めてもよい。画像特徴が得られた点を特徴点と呼ぶ。
ステップS405において、テンプレート作成部305が、ステップS404で抽出された画像特徴に基づいて、視点VPに対応するテンプレートを作成する。テンプレートは、例えば、各特徴点の座標値と抽出された画像特徴とを含むデータセットである。
ステップS403~S405の処理が、ステップS401で設定された全ての視点について行われる(ステップS406)。全ての視点についてテンプレートの作成が完了すると、テンプレート作成部305が、テンプレートのデータを物体認識処理装置31のテンプレート記憶部314に格納する(ステップS407)。以上でテンプレート作成処理は終了である。
(物体認識処理)
図7のフローチャートを参照して、物体認識処理装置31による物体認識処理の一例を説明する。
ステップS700において、3次元データ取得部310が、センサユニット20で撮影された画像に基づいて、視野内の3次元データを生成する。本実施形態では、投光装置からパターン光を投射した状態で、2台のカメラによってステレオ画像を撮影し、画像間の視差に基づき奥行き距離を計算する、アクティブステレオ方式によって視野内の各点の3次元情報を得る。
ステップS701において、平行投影パラメータ設定部311が、平行投影変換に使用する平行投影パラメータを設定する。ここでは、平行投影パラメータとして、res,res,c,cの4つのパラメータを用いる。(res,res)は投影画像の1画素の大きさ(単位はmm)であり、任意の値に設定してよい。例えば、センサユニット20のカメラの焦点距離(f,f)を用いて、
res=d/f
res=d/f
としてもよい。dは、対象物体27が存在し得る奥行き距離に応じて設定される定数である。例えば、センサユニット20から対象物体27までの奥行き距離の平均値、最小値、もしくは、最大値などを定数dに設定してもよい。なお、前述のように、(res,res)については、テンプレート作成時と同じ値を用いることが好ましい。(c,c)は投影画像の中心座標である。
ステップS702において、平行投影変換部312が、3次元データにおける各点(以下、「3次元点」と呼ぶ)を所定の投影面に平行投影することにより、2次元投影画像を生成する。
図8及び図9を参照して、平行投影変換の詳細を説明する。ステップS800において、平行投影変換部312は、3次元点を平行投影した場合の画像座標値を計算する。カメラ座標系を(X,Y,Z)、投影画像の画像座標系を(x,y)とする。図9の例では、原点Oがセンサユニット20のカメラのレンズの中心(主点)に一致し、Z軸が光軸に重なり、X軸とY軸がカメラの撮像素子の水平方向と垂直方向にそれぞれ平行となるように、カメラ座標系が設定される。また、画像座標系は、画像中心(c,c)がカメラ座標系のZ軸上にあり、x軸とy軸がカメラ座標系のX軸とY軸にそれぞれ平行となるように設定される。画像座標系のxy平面が投影面である。すなわち、本実施形態では、カメラの光軸に直交するように、平行投影変換の投影面が設定されている。図9のように座標系を設定した場合、3次元点(X,Y,Z)に対応する、平行投影変換後の画像座標値(x,y)は、
=ROUND(X/res+c
=ROUND(Y/res+c
により求まる。ROUNDは小数点以下を丸める演算子である。
ステップS801において、平行投影変換部312は、画像座標値(x,y)に投影された3次元点が既に存在していたかどうかを調べる。具体的には、投影画像の画素(x,y)に対し既に3次元点の情報が関連付けられているかどうかがチェックされる。関連付けられている3次元点が未だ無い場合(ステップS801のNO)、平行投影変換部312は、画素(x,y)に対し3次元点(X,Y,Z)の情報を関連付ける(ステップS803)。本実施形態では、3次元点の座標値(X,Y,Z)を画素(x,y)に関連付けるが、これに限らず、3次元点のデプス情報(例えばZの値)、色情報(例えばRGB値)、輝度情報などを関連付けてもよい。関連付けられている3次元点が既に存在していた場合(ステップS801のYES)、平行投影変換部312は、Zの値と、既に関連付けられているZの値とを比較し、Zの方が小さければ(ステップS802のYES)、画素(x,y)に関連付けられた情報を3次元点(X,Y,Z)の情報で上書きする(ステップS803)。このような処理により、複数の3次元点が投影面上の同じ位置に投影される場合には、複数の3次元点のうちカメラに最も近い3次元点の情報が投影画像の生成に用いられることとなる。ステップS800~S803の処理が全ての3次元点について行われたら、図7のステップS703に進む(ステップS804)。
ステップS703において、特徴抽出部313が、投影画像から画像特徴を抽出する。ここで抽出される画像特徴は、テンプレート作成に用いられた画像特徴と同じものである。ステップS704において、テンプレートマッチング部315が、テンプレート記憶部314からテンプレートを読み込み、当該テンプレートを用いたテンプレートマッチング処理によって、投影画像から対象物体を検出する。このとき、異なる視点のテンプレートを用いることで、対象物体の姿勢を認識することもできる。ステップS705において、認識結果出力部316が認識結果を出力する。以上で物体認識処理が終了する。
(本実施形態の利点)
以上述べた構成及び処理では、3次元データを平行投影することで生成された2次元画像をテンプレートマッチングに利用する。平行投影では、投影面から対象物体までの距離にかかわらず、対象物体は同じ大きさで投影される。それゆえ、平行投影により生成された2次元画像においては、対象物体の像は(その奥行き距離によらず)常に同じ大きさをとる。したがって、単一のサイズのテンプレートだけを用いてマッチングを行えばよいので、従来方法に比べて高速な処理が可能である。また、テンプレートの数及びデータ量を削減できるとともに、ワークメモリの必要量も少なくて済むため、実用性に優れるという利点もある。
また、本実施形態では、テンプレートも平行投影画像から生成することとしたので、テンプレートと平行投影変換により得られた画像における対象物体像とのマッチング精度が向上する。これにより、物体認識処理の信頼性を高めることができる。
また、本実施形態では、カメラの光軸に直交するように投影面を設定したので、カメラ座標系から画像座標系への変換の計算を簡単化でき、平衡投影変換処理の高速化、ひいてはテンプレートマッチングによる物体認識処理の高速化を図ることができる。また、カメラの光軸に直交するように投影面を設定したことで、平行投影変換後の対象物体像の歪みを抑えることもできる。
また、複数の3次元点が同一の画素に投影される場合には、カメラに最も近い3次元点の情報のみを用いることとしたので、カメラから見たときの物体同士の重なり(隠れ)を考慮した平行投影像が生成され、テンプレートマッチングによる物体認識処理を精度良く行うことができる。
<その他>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
例えば、図10に示す投影点補完処理を、平行投影変換処理(図7のステップS702)の後に行ってもよい。具体的には、平行投影変換部312が、ステップS702で生成された投影画像の各画素(x,y)について、3次元点の情報が関連付けられているか否かを調べ(ステップS100)、3次元点の情報が関連付けられていない場合(つまり、投影点が存在しない場合)には、画素(x,y)の周辺の画素(例えば4近傍画素や8近傍画素など)に関連付けられている情報に基づいて、画素(x,y)用の情報を生成する(ステップS101)。例えば、ニアレストネイバー、バイリニア、バイキュービックなどの補間によって画素(x,y)用の情報を生成してもよい。そして、平行投影変換部312は、ステップS101で生成した情報を、画素(x,y)に対し関連付ける(ステップS102)。ステップS100~S102の処理を投影画像の全ての画素について実施する。このような処理によって、投影画像の情報量(投影点の数)が増すので、テンプレートマッチングの精度向上が期待できる。
また、投影面の設定は図9の例に限られない。例えば、カメラ座標系の原点Oの後ろ側(像側)に投影面を配置してもよい。あるいは、投影面が光軸(Z軸)と斜めに交わるように(つまり、投影方向が光軸と非平行になるように)、投影面を配置してもよい。
<付記>
(1) 各々が3次元情報をもつ複数の点から構成される3次元データを取得する3次元データ取得部(310)と、
前記3次元データの各点をある投影面に平行投影することにより2次元画像を生成する平行投影変換部(312)と、
テンプレートマッチングにより前記2次元画像から対象物体を検出する認識処理部(313、314、315)と、
を有することを特徴とする物体認識装置(2)。
2:物体認識装置
20:センサユニット
21:画像処理装置
22:ディスプレイ
27:対象物体
30:テンプレート作成装置
31:物体認識処理装置

Claims (13)

  1. 各々が3次元情報をもつ複数の点から構成される3次元データを取得する3次元データ取得部と、
    前記3次元データの各点をある投影面に平行投影することにより2次元画像を生成する平行投影変換部と、
    テンプレートマッチングにより前記2次元画像から対象物体を検出する認識処理部と、を有し、
    前記3次元データは、カメラで撮影された画像を用いて生成されたデータであり、
    前記平行投影変換部は、前記カメラの光軸に直交するように前記投影面を設定する
    ことを特徴とする物体認識装置。
  2. 各々が3次元情報をもつ複数の点から構成される3次元データを取得する3次元データ取得部と、
    前記3次元データの各点をある投影面に平行投影することにより2次元画像を生成する平行投影変換部と、
    テンプレートマッチングにより前記2次元画像から対象物体を検出する認識処理部と、を有し、
    前記3次元データの各点は、輝度の情報を有しており、
    前記平行投影変換部は、前記3次元データにおける第1の点が前記2次元画像における第1の画素に投影された場合に、前記第1の点の輝度の情報を前記第1の画素に関連付ける
    ことを特徴とする物体認識装置。
  3. 各々が3次元情報をもつ複数の点から構成される3次元データを取得する3次元データ取得部と、
    前記3次元データの各点をある投影面に平行投影することにより2次元画像を生成する平行投影変換部と、
    テンプレートマッチングにより前記2次元画像から対象物体を検出する認識処理部と、
    を有し、
    前記3次元データの各点は、色の情報を有しており、
    前記平行投影変換部は、前記3次元データにおける第1の点が前記2次元画像における第1の画素に投影された場合に、前記第1の点の色の情報を前記第1の画素に関連付けることを特徴とする物体認識装置。
  4. 各々が3次元情報をもつ複数の点から構成される3次元データを取得する3次元データ取得部と、
    前記3次元データの各点をある投影面に平行投影することにより2次元画像を生成する平行投影変換部と、
    テンプレートマッチングにより前記2次元画像から対象物体を検出する認識処理部と、を有し、
    前記3次元データは、カメラで撮影された画像を用いて生成されたデータであり、
    前記平行投影変換部は、前記3次元データにおける複数の点が前記投影面上の同じ位置に投影される場合には、前記複数の点のうち前記カメラに最も近い点を前記2次元画像の生成に用いる
    ことを特徴とする物体認識装置。
  5. 前記平行投影変換部は、前記3次元データにおける第1の点が前記2次元画像における第1の画素に投影された場合に、前記第1の点の3次元情報から求まるデプス情報を前記第1の画素に関連付ける
    ことを特徴とする請求項1~4のうちいずれか1項に記載の物体認識装置。
  6. 前記平行投影変換部は、前記2次元画像における第2の画素に投影される点が存在しない場合に、前記第2の画素の周辺の画素に関連付けられた情報に基づいて、前記第2の画素に関連付ける情報を生成する
    ことを特徴とする請求項2、3、または、5に記載の物体認識装置。
  7. 前記平行投影変換部は、前記第2の画素の周辺の画素に関連付けられた情報を補間することによって、前記第2の画素に関連付ける情報を求める
    ことを特徴とする請求項6に記載の物体認識装置。
  8. 前記認識処理部は、前記対象物体のテンプレートとして、前記対象物体を平行投影した画像から生成されたテンプレートを用いる
    ことを特徴とする請求項1~7のうちいずれか1項に記載の物体認識装置。
  9. 各々が3次元情報をもつ複数の点から構成される3次元データを取得するステップと、
    前記3次元データの各点をある投影面に平行投影することにより2次元画像を生成するステップと、
    テンプレートマッチングにより前記2次元画像から対象物体を検出するステップと、
    を有し、
    前記3次元データは、カメラで撮影された画像を用いて生成されたデータであり、
    前記平行投影では、前記カメラの光軸に直交するように前記投影面を設定する
    ことを特徴とする物体認識方法。
  10. 各々が3次元情報をもつ複数の点から構成される3次元データを取得するステップと、
    前記3次元データの各点をある投影面に平行投影することにより2次元画像を生成するステップと、
    テンプレートマッチングにより前記2次元画像から対象物体を検出するステップと、
    を有し、
    前記3次元データの各点は、輝度の情報を有しており、
    前記平行投影では、前記3次元データにおける第1の点が前記2次元画像における第1の画素に投影された場合に、前記第1の点の輝度の情報を前記第1の画素に関連付ける
    ことを特徴とする物体認識方法。
  11. 各々が3次元情報をもつ複数の点から構成される3次元データを取得するステップと、
    前記3次元データの各点をある投影面に平行投影することにより2次元画像を生成するステップと、
    テンプレートマッチングにより前記2次元画像から対象物体を検出するステップと、
    を有し、
    前記3次元データの各点は、色の情報を有しており、
    前記平行投影では、前記3次元データにおける第1の点が前記2次元画像における第1の画素に投影された場合に、前記第1の点の色の情報を前記第1の画素に関連付ける
    ことを特徴とする物体認識方法。
  12. 各々が3次元情報をもつ複数の点から構成される3次元データを取得するステップと、
    前記3次元データの各点をある投影面に平行投影することにより2次元画像を生成するステップと、
    テンプレートマッチングにより前記2次元画像から対象物体を検出するステップと、
    を有し、
    前記3次元データは、カメラで撮影された画像を用いて生成されたデータであり、
    前記平行投影では、前記3次元データにおける複数の点が前記投影面上の同じ位置に投影される場合には、前記複数の点のうち前記カメラに最も近い点を前記2次元画像の生成に用いる
    ことを特徴とする物体認識方法。
  13. 請求項9~12のうちいずれか1項に記載の物体認識方法の各ステップをコンピュータに実行させるためのプログラム。
JP2021525479A 2019-06-12 2019-06-12 物体認識装置及び物体認識方法 Active JP7298687B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/023330 WO2020250348A1 (ja) 2019-06-12 2019-06-12 物体認識装置及び物体認識方法

Publications (2)

Publication Number Publication Date
JPWO2020250348A1 JPWO2020250348A1 (ja) 2020-12-17
JP7298687B2 true JP7298687B2 (ja) 2023-06-27

Family

ID=73781383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021525479A Active JP7298687B2 (ja) 2019-06-12 2019-06-12 物体認識装置及び物体認識方法

Country Status (5)

Country Link
US (1) US12094227B2 (ja)
EP (1) EP3961556A4 (ja)
JP (1) JP7298687B2 (ja)
CN (1) CN113939852A (ja)
WO (1) WO2020250348A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7391342B2 (ja) 2021-08-09 2023-12-05 株式会社Mujin 計算システム、方法及び非一時的コンピュータ可読媒体
TWI834495B (zh) * 2023-02-10 2024-03-01 所羅門股份有限公司 物件姿態辨識方法及系統

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008203991A (ja) 2007-02-16 2008-09-04 Mitsubishi Electric Corp 画像処理装置
CN103065130A (zh) 2012-12-31 2013-04-24 华中科技大学 一种三维模糊空间目标识别方法
JP2019003407A (ja) 2017-06-15 2019-01-10 オムロン株式会社 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4823533A (en) * 1987-12-30 1989-04-25 Marketing Displays, Inc. Structural cladding apparatus
US5904653A (en) * 1997-05-07 1999-05-18 General Electric Company Method and apparatus for three-dimensional ultrasound imaging combining intensity data with color flow velocity or power data
US7003134B1 (en) * 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
GB0031016D0 (en) * 2000-12-20 2001-01-31 Alphafox Systems Ltd Security systems
TW583600B (en) * 2002-12-31 2004-04-11 Ind Tech Res Inst Method of seamless processing for merging 3D color images
US8737720B2 (en) * 2003-04-30 2014-05-27 Deere & Company System and method for detecting and analyzing features in an agricultural field
US7436988B2 (en) * 2004-06-03 2008-10-14 Arizona Board Of Regents 3D face authentication and recognition based on bilateral symmetry analysis
US7873185B2 (en) * 2005-08-03 2011-01-18 Siemens Medical Solutions Usa, Inc. Method for detection and tracking of deformable objects
JP5553673B2 (ja) * 2009-05-11 2014-07-16 キヤノン株式会社 撮像装置および表示制御方法
US9203301B2 (en) * 2010-06-23 2015-12-01 Volterra Semiconductor Corporation Feedback for controlling the switching frequency of a voltage regulator
US9341678B2 (en) * 2011-09-28 2016-05-17 Alliance For Sustainable Energy, Llc Fail-safe designs for large capacity battery systems
JP2013210254A (ja) * 2012-03-30 2013-10-10 Canon Inc 三次元計測装置、三次元計測方法及び三次元計測プログラム
DE102014005181A1 (de) 2014-04-03 2015-10-08 Astrium Gmbh Positions- und Lagebestimmung von Objekten
WO2016019347A1 (en) * 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition
US9424470B1 (en) 2014-08-22 2016-08-23 Google Inc. Systems and methods for scale invariant 3D object detection leveraging processor architecture

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008203991A (ja) 2007-02-16 2008-09-04 Mitsubishi Electric Corp 画像処理装置
CN103065130A (zh) 2012-12-31 2013-04-24 华中科技大学 一种三维模糊空间目标识别方法
JP2019003407A (ja) 2017-06-15 2019-01-10 オムロン株式会社 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム

Also Published As

Publication number Publication date
EP3961556A4 (en) 2022-12-07
US20220230459A1 (en) 2022-07-21
CN113939852A (zh) 2022-01-14
JPWO2020250348A1 (ja) 2020-12-17
US12094227B2 (en) 2024-09-17
EP3961556A1 (en) 2022-03-02
WO2020250348A1 (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
CN109737874B (zh) 基于三维视觉技术的物体尺寸测量方法及装置
US10288418B2 (en) Information processing apparatus, information processing method, and storage medium
JP6426968B2 (ja) 情報処理装置およびその方法
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP4677536B1 (ja) 3次元物体認識装置及び3次元物体認識方法
JP6363863B2 (ja) 情報処理装置および情報処理方法
JP6554900B2 (ja) テンプレート作成装置及びテンプレート作成方法
JP6836561B2 (ja) 画像処理装置及び画像処理方法
WO2011115143A1 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
JP2021174554A (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
JP7298687B2 (ja) 物体認識装置及び物体認識方法
CN112802114A (zh) 多视觉传感器融合装置及其方法和电子设备
KR102195762B1 (ko) 포토그래메트리를 이용한 고품질 3차원 공간 정보 획득 방법
KR101673144B1 (ko) 부분 선형화 기반의 3차원 영상 정합 방법
JP7195785B2 (ja) 3次元形状データを生成する装置、方法、及びプログラム
JP6198104B2 (ja) 3次元物体認識装置及び3次元物体認識方法
JP7251631B2 (ja) テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラム
KR101741501B1 (ko) 카메라와 객체 간 거리 추정 장치 및 그 방법
JP6719168B1 (ja) 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法
JPH0273471A (ja) 三次元形状推定方法
JP6641313B2 (ja) 領域抽出装置及びプログラム
EP2953096B1 (en) Information processing device, information processing method, system and carrier means
JP7327484B2 (ja) テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラム
WO2023132275A1 (ja) 物体測定装置及び物体測定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230529

R150 Certificate of patent or registration of utility model

Ref document number: 7298687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150