JP5172010B2 - Rgb及び奥行き計測ハイブリッドカメラセンサを使用する長方形テーブル検知 - Google Patents

Rgb及び奥行き計測ハイブリッドカメラセンサを使用する長方形テーブル検知 Download PDF

Info

Publication number
JP5172010B2
JP5172010B2 JP2011510530A JP2011510530A JP5172010B2 JP 5172010 B2 JP5172010 B2 JP 5172010B2 JP 2011510530 A JP2011510530 A JP 2011510530A JP 2011510530 A JP2011510530 A JP 2011510530A JP 5172010 B2 JP5172010 B2 JP 5172010B2
Authority
JP
Japan
Prior art keywords
plane
depth image
image
depth
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011510530A
Other languages
English (en)
Other versions
JP2011523742A5 (ja
JP2011523742A (ja
Inventor
ング−ソウ−ヒン,ビクター
ヤン,ジンギュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2011523742A publication Critical patent/JP2011523742A/ja
Publication of JP2011523742A5 publication Critical patent/JP2011523742A5/ja
Application granted granted Critical
Publication of JP5172010B2 publication Critical patent/JP5172010B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform

Description

本発明は、画像データ中の平面の位置を決定する方法及びシステムに関する。より具体的には、カラー画像データ及び奥行き画像データの組合せを使用して平面の位置を決定する方法及びシステムに関する。
多くの状況において、ロボットは、対象物についての情報及び対象物がロボットの周辺において占める位置についての情報を入手しなければならない。ロボットが新たな環境に移動した後、又は、環境の変化が発生した後、ロボットは、1又は複数のセンサを使用して対象物を検知し、当該対象物の位置を決定しなければならない。センサ入力に基づいて、ロボットは、環境において対象物がどのような空間的関係を有するかを決定し、様々なタスクを実行する。ある例では、ロボットが、様々な対象物の当該環境における座標値を格納する占有マップを生成する。そして、ロボットは、センサ入力と組み合わせて占有マップ内の情報を使用し、当該環境において対象物に対する様々な操作を実行する。
物を掴む、物を押す、のような多くのロボット操作は、平面上に置かれた対象物に対して動作を行うことが前提となる。平面を有する対象物を検知しその位置を決定することは、多くのロボットアプリケーションにおいて重要である。なぜならば、平面を有する対象物(例えば、テーブル)は、ロボット操作に用いる他の目標対象物を支えていたり、載せていたりすることが多いからである。そこで、ロボットは、平面を有する対象物と、平面上に置かれた目標対象物との間の空間的関係を認識し、決定し、目標対象物についてのいくつかのタスクを実行する必要がある。例えば、平面を有する対象物(例えば、テーブル)上の目標対象物(例えば、コップ)を掴むためには、ロボットは、まず、平面を有する対象物の位置及び向きを決定しなければならない。そうすることによって、ロボットは、目標対象物(例えば、コップ)に届き得る領域まで進むことができる。
平面を有する対象物を検知する1つの方法は、カメラを使用してシーンのカラー画像を取得することである。画像取得装置は、濃淡画像を生成してもよいし、RGBカラー画像を使用してもよい。取得された濃淡画像又はカラー画像に対して画像処理が実行され、平面を有する対象物の位置及び向きを決定する。濃淡画像又はカラー画像を使用することの短所は、平面の一部が隠れている、平面のエッジが隠れている、平面上で複数の対象物が散乱している、平面を有する対象物と同じ特徴を有する他の対象物が画像内に存在する、のような理想的ではない状況では、位置及び向きの精度が有意に低下するということである。
平面を有する対象物を検知する他の1つの方法は、センサから対象物までの距離を示す奥行き画像を使用することである。奥行き画像を生成するために飛行時間奥行きセンサがしばしば使用される。飛行時間奥行きセンサは、対象物に信号を送信し、対象物から戻ってくる信号の特性を計測して対象物までの距離を決定する。このような返信信号を計測することによって得られた奥行き画像は、非常にノイズが多く不正確であることが多い。結果的に、奥行きから決定された対象物の3次元座標値は、信頼性に欠け、不正確であることが多い。
(発明の要約)
本発明の実施形態は、平面を有する対象物の位置を決定する方法、システム及びコンピュータプログラム製品を提供する。カラー画像と奥行き画像の両者が、平面を有する対象物の位置を決定するために使用される。シーンの奥行き画像が処理されて、対象物の平面が存在する可能性が高い候補領域を決定する。候補領域に対応するカラー画像の部分が処理されて、対象物の平面の輪郭を描いていそうな幾何学的特徴(例えば、線)を検知し選択する。
ある実施形態においては、奥行き画像の画素から法線ベクトルを計算することによって、奥行き画像から候補領域が決定される。法線ベクトルとは、奥行き画像内の対象物の面に垂直なベクトルである。すべての法線ベクトルが概ね同じ方向を向いているような奥行き画像の領域内に、平面が存在する可能性が高い。すべての法線ベクトルが同じ方向を向いている領域が拡大されて、候補領域を表すマスクを生成する。マスクを使用してカラー画像をトリミングし、その後の処理を行うに相応しい領域を表す画像を作成してもよい。
ある実施形態においては、トリミングされたカラー画像内のエッジを検知した後に、幾何学的特徴を検知するための変換を実行することによって幾何学的特徴が検知される。ハフ変換が使用されてカラー画像内の幾何学的特徴を検知してもよい。幾何学的特徴が検知された後、検知された幾何学的特徴の長さが奥行き画像内の奥行き情報に応じて調節され、幾何学的特徴の物理的長さが決定される。
ある実施形態においては、物理的長さに応じて幾何学的特徴をランク付けすることによって、平面の輪郭を描く幾何学的特徴が決定される。物理的長さのランクに基づいて、検知された幾何学的特徴のサブセットが、候補平面の輪郭を描くものとして選択される。所定の基準を満たす場合、候補平面が最終的な平面であることが決定される。
本明細書に記述されている特徴及び利点は、限定的なものではなく、図面、明細書及び特許請求の範囲を見れば、当業者には、追加的な特徴及び利点が明らかになる。さらに、本明細書中で使用される用語は、主として意味の取りやすさ及び教示目的から選択されており、本発明の主旨を限定するために選択されているものではないことは当然である。
添付図面を参照しつつ以降に詳述される説明を読めば、本発明の教示は容易に理解される。
本発明のある実施形態に係る、平らな天板表面を有する長方形のテーブルを含む環境内のロボットを示す図である。 本発明のある実施形態に係る、ロボットのブロック図である。 本発明のある実施形態に係る、奥行き画像処理モジュールのブロック図である。 本発明のある実施形態に係る、カラー画像処理モジュールのブロック図である。 本発明のある実施形態に係る、平面を検知する方法のフローチャートである。 本発明のある実施形態に係る、平面を検知する方法のフローチャートである。 本発明のある実施形態に係る、対応するカラー画像をトリミングするマスクを取得するための奥行き画像の処理を示す図である。 本発明のある実施形態に係る、対応するカラー画像をトリミングするマスクを取得するための奥行き画像の処理を示す図である。 本発明のある実施形態に係る、対応するカラー画像をトリミングするマスクを取得するための奥行き画像の処理を示す図である。 本発明のある実施形態に係る、対応するカラー画像をトリミングするマスクを取得するための奥行き画像の処理を示す図である。 本発明のある実施形態に係る、テーブルの平面の輪郭を決定するためのカラー画像の処理を示す図である。 本発明のある実施形態に係る、テーブルの平面の輪郭を決定するためのカラー画像の処理を示す図である。 本発明のある実施形態に係る、テーブルの平面の輪郭を決定するためのカラー画像の処理を示す図である。 本発明のある実施形態に係る、テーブルの平面の輪郭を決定するためのカラー画像の処理を示す図である。 本発明のある実施形態に係る、テーブルの平面の輪郭を決定するためのカラー画像の処理を示す図である。 本発明のある実施形態に係る、テーブルの平面の輪郭を決定するためのカラー画像の処理を示す図である。 本発明のある実施形態に係る、テーブルの平面の輪郭を決定するためのカラー画像の処理を示す図である。 本発明のある実施形態に係る、カラー画像内の消失線を決定する方法を示す図である。
本発明の好適な一実施形態を、図を参照しつつ説明する。複数の図にまたがって同様の参照番号が記される場合、それらは同一の又は機能的に類似した構成要素を意味する。
本明細書において、“一実施形態”又は“ある実施形態”と言う場合は、本発明の少なくとも1つの実施形態に、その実施形態に関連して記述される1つの特徴又は構造が含まれていることを意味する。本明細書のあちこちに“ある実施形態では”という語が出現しても、必ずしも同一の実施形態を指しているわけではない。
後記する詳細説明のいくつかの部分は、アルゴリズム用語や、コンピュータメモリ内のデータビット作業を示す象徴的な表現による。これらのアルゴリズム的な説明や表現は、情報処理分野の当業者が、自らの業績の要旨を、同分野の他の当業者に最も効率的に伝えるために用いる手段である。アルゴリズムとは、ここでは、そして一般的にも、ある所望の結果に至る複数のステップ(命令)の首尾一貫したシーケンスのことを言う。ステップとは、物理量に対する物理的操作を要求するステップのことである。通常、必ずしも必要条件ではないが、それらの数値は、記憶され、転送され、合成され、比較されかつ操作され得る、電子的、磁気的又は光学的信号の形を取る。これらの信号のことを、ビット、値、要素、シンボル、文字、語又は番号等と呼ぶことが主として用語の共通化の理由から便宜である。さらに、物理量に対する物理的操作を要求するステップの配列のうちいくつかのものは、一般性を失うことなく、モジュール又はコードデバイスと呼ぶことが便宜である。
しかしながら、このような用語の全ては適当な物理量と関連付けられており、これらの物理量に付された単なる便宜的なラベルに過ぎない。後記において特段の説明がない限り、明細書本文全体を通じて、“処理”、“計算”、“算出”、“決定”又は“表示”等の用語を用いた説明は、(電子的な)物理量としてのデータを、コンピュータシステムのメモリ、レジスタ又は他の情報ストレージのなかで操作しかつ変形するコンピュータシステムや同様の電子的コンピューティングデバイスの動作や処理のことを言う。
本発明のいくつかの側面は、アルゴリズムの形になったプロセスステップや命令を含む。本発明のプロセスステップや命令は、ソフトウエア、ファームウエア又はハードウエアによって実装され、ソフトウエアで実施される場合は、ダウンロードされることが可能であり、多様なオペレーティングシステムが用いる別のプラットフォームから操作されることも可能である。
本発明は、操作を実行する装置にも関する。この装置は、所与の目的を達成する専用装置であってもよいし、コンピュータに記憶されたコンピュータプログラムによって動作する汎用コンピュータであってもよい。このようなコンピュータプログラムは、コンピュータが読取り可能な媒体に記憶され得る。その媒体とは、コンピュータシステムバスに接続可能な、フロッピー(登録商標)ディスク、光ディスク、CD−ROM、電磁光学的ディスク、ROM、RAM、EPROM、EEPROM、電磁的又は光学的カード、ASIC又は電子的命令を記憶し得るあらゆる媒体を含むが、これらに限定されない。さらに、本明細書で言うコンピュータは、単体のプロセッサを含んでもよいし、コンピュータ能力を増加させるために複数のプロセッサを用いた装置であってもよい。
ここでいうアルゴリズムやディスプレイは、もともと特定のコンピュータや他の装置に関係している訳ではない。ここで教示される内容に従って、プログラムとともに多様な一般目的システムが使用され得る。又は、必要とされる方法ステップを実行するためにさらに特化した装置を作成することも便宜である。これらのシステムのそれぞれについてどのような構成が必要となるかは、後記する明細書本文から明らかになる。さらには、本発明は特定のプログラム言語を参照して記載されるものではない。本発明の教示を実施するために、多様なプログラム言語が使用され得る。後記において特定の言語に言及した場合、それは本発明の実施可能性及びベストモードを開示するためである。
さらに、本明細書で使用される言語は、主として意味の取りやすさ及び教示目的から選択されているのであって、本発明の主旨を限定するために選択されているのではない。従って、本発明の開示は、特許請求の範囲にて記述されている本発明の範囲を例示するものであるが限定するものではない。
本発明の実施形態は、テーブルのような対象物の平面を検知する方法、装置及びコンピュータプログラム製品を提供する。奥行き情報を含む奥行き画像を処理することによって、平面を有する対象物を含む可能性が高い領域を示すマスクが生成される。カラー画像のうち平面を有する対象物を含む可能性が高い部分の輪郭を描くように、奥行き画像に対応するカラー画像がマスクを使用してトリミングされる。トリミングされたカラー画像の幾何学的特徴が検知され、平面を有する対象物の位置及び向きを決定する。所定の基準に基づいて、幾何学的特徴のサブセットが、平面の輪郭として選択される。奥行き画像及びカラー画像の両者を使用することによって、平面はより正確かつより確実に決定され得る。
平面とは、実質的に平らである任意の面を言う。平面は、平面を隠す1又は複数の対象物に覆われていてもかまわない。実質的に平らな平面は、どのような方向を向いていてもかまわない。例えば、面は水平的に(例えば、テーブルの天板表面)平らであってもよいし、垂直的に(例えば、黒板、ホワイトボード)又は他の方向に向かって(例えば、斜面)平らであってもよい。
奥行き画像は画素を含み、当該画素は、基準点(例えば、奥行きセンサ)からその画素に対応する対象物又は対象物の部分までの距離を表す。基準点からその画素に対応する対象物又は対象物の部分までの距離のことを、ここでは、奥行き情報とも言う。奥行き画像は、飛行時間奥行きセンサ、立体カメラ及び構造化光線センサを含む様々な装置によって生成されてもよい。
カラー画像は、対象物の2次元形状を表す画素を含む。カラー画像は、濃淡画像及びカラー空間内の画像の両者を含む。カラー画像内では、RGB、YCbCr及びHSV(色相、彩度、明度)を含むどのようなカラー空間が使用されてもよい。しかしながら、カラー画像は、奥行き情報を含まない。カラー画像は、圧縮されていてもよいし、圧縮されていなくてもよい。
対象物の位置を決定するとは、2次元空間内又は3次元空間内において、対象物の位置及び向きを決定することを言う。同様に、位置決め情報とは、2次元空間内又は3次元空間内における対象物の位置及び向きを示す情報を言う。位置決め情報を使用することによって、2以上の対象物間の空間的関係が決定され得る。
(ロボットと環境との間の相互作用の概要)
図1は、本発明のある実施形態に係る、長方形のテーブル110と相互作用するロボット130を示す。図1のロボット130は、人間動作と同じ様々な動作を実行することができる人間型ロボットである。このようなロボットの一例として、日本、東京の本田技研工業株式会社の進化人間型ロボットASIMOがある。図2の説明で詳しく後記するように、ロボット130は、画像データのストリームを生成するセンサ140を含む。センサ140は、立体カメラ及び飛行時間奥行きセンサ等を含む。以降の実施形態は人間型ロボット130を参照しながら記述されるが、本発明は、人間型ロボットに限定されることはなく、他のタイプのロボットにも使用され得る。
ある実施形態においては、ロボット130は、センサ140によって取得された画像を処理することによってテーブル110の天板表面の位置を決定する。ロボット130は、ロボット操作(例えば、掴む、押す)を行うために、対象物112、114を検知し、それらの位置を決定する。ある実施形態においては、テーブル110及びテーブル110上の他の対象物112、114の位置は、2次元座標値又は3次元座標値で表現され、ロボット130内に記憶される。このことは、図2を参照しつつ詳細に後記する。
ある実施形態においては、ロボット130は、2次元座標系内又は3次元座標系内で、対象物112、114の移動を追跡し更新する。対象物112、114の移動は、ロボット130によって実行される操作(例えば、掴む、押す)に起因してもよいし、他の理由(例えば、人間が動かす)に起因してもよい。いずれの場合でも、対象物112、114の移動は、センサ140によって生成された画像を監視することによって知覚され、追跡され得る。
(平面を有する対象物を検知する処理モジュール装置の構造)
図2は、本発明のある実施形態に係る、ロボット130のブロック図である。図2に示されるように、ロボット130は、3つの主たる構成要素を含む。すなわち、センサ140、処理モジュール200及びエフェクタ290である。センサ140は、ロボット130の周辺についての情報を提供する。処理モジュール200は、センサ140から情報を受け取り、ロボット130の周辺の対象物及び条件を検知し、制御信号282をエフェクタ290又は他の処理ユニット(図示せず)に送信する。単純化のために、本発明に必須ではないロボット130の他の構成要素は、ここでは省略されている。
センサ140は、奥行きセンサ及び画像センサ等を含む。奥行きセンサ及び画像センサは、両者が実質的に同じシーンを捕捉できるように、並んで配置されている。奥行きセンサは、奥行きセンサから対象物又は対象物の部分までの距離を示す画素を有する奥行き画像を生成する。画像センサは、シーン内の対象物の2次元形状を取得する。画像センサ及び奥行きセンサは、同じシーン及び同じ対象物を捉えることが望ましいが、必要条件ではない。センサ140からの画像データのストリーム210は、奥行き画像及び2次元画像の両者用のデータを含んでもよい。センサ140は、例えば、カリフォルニアのCanesta of Sunnyvale社、スイスのCSEM of Zurich社及びイスラエルの3DV Systems of Yokneam社によって製造される奥行きセンサ及びカメラの組合せであってもよい。
エフェクタ290は、処理モジュール200と接続されており、命令信号282を受け取り、ロボット130によるいくつかの動作を起動する。エフェクタ290は、モータ及びアクチュエータ等を含み、実世界事象を引き起こす様々な装置であってもよい。命令信号282は、ロボット130の複数のエフェクタ290(例えば、複数の関節)をそれらが相互に調和するように動かし、歩行する、対象物を押す、のようないくつかの有意なタスクを実行する。
処理モジュール200は、平面検知部240、対象物検知部250、環境写像部260、モーション計画部270及び制御装置280等を含む。これらの構成要素のそれぞれは、他の構成要素と協働して、例えば、ソフトウエア、ハードウエア、ファームウエア又はこれらの組合せとして、実装されてもよい。処理モジュール200は、汎用コンピュータとして実装されてもよいし、専用コンピュータとして実装されてもよい。処理モジュール200は、ロボット130の全体に亘って分散配置されてもよい。たとえば、様々なエフェクタ用の複数の制御装置280が、ロボット130の別々の部分に備えられていてもよい。
平面検知部240は、画像データ210を使用することによって、平面を有する対象物を検知する。画像データ210内のカラー画像及び奥行き画像の両者を使用することによって、平面検知部240は、より確実にかつより効率的に平面の位置を決定し得る。奥行き画像処理モジュール242は、平面が位置している可能性が高い通常領域を決定する。このことは、図3Aを参照して詳しく後記する。カラー画像処理モジュール244は、当該通常領域内の平面のエッジ特徴を検知する。このことは、図3Bを参照して詳しく後記する。平面検知部240は、環境写像部260に平面情報248を提供する。平面情報248は、平面の位置決め情報を含む。1又は複数の実施形態においては、位置決め情報は、平面を有する対象物の2次元座標値又は3次元座標値、及び、平面を有する対象物の向きを示す。
対象物検知部250は、平面の内側又は外側にある様々な対象物を検知する。ある実施形態においては、対象物検知部250は、カラー画像内の対象物の様々な特徴を検知し、環境写像部260に対象物情報252を提供する。対象物情報252は、例えば、対象物の位置決め情報並びに対象物の同一性及び属性を示す対象物プロフィールを含む。
環境写像部260は、ロボット130の周囲にある対象物についての情報を維持し、追跡する。具体的には、環境写像部260は、対象物情報252及び平面情報248を受け取り、2次元座標系又は3次元座標系に対象物を写像する。環境写像部260は、プロフィール(例えば、対象物の幅、高さ及び長さ)についての情報及び対象物の位置を、ロボット130によって検知されたように格納する。ある実施形態においては、環境写像部260は、ユーザ、又は、平面検知部240及び対象物検知部250以外の情報ソースによって提供された、対象物の位置及びプロフィール情報も格納する。環境写像部260は、モーション計画部270に環境情報262を提供する。環境情報262は、ロボット130の周囲にある対象物の位置及びプロフィールに関する情報を含む。
モーション計画部270は、ロボット130によって取られるべきモーションの計画を生成する。具体的には、モーション計画部270は、環境情報262を受け取り、ロボット130によって実行されるべき1又は複数のモーションの計画(例えば、ある経路を経てある点まで歩行する)を作成する。計画されたモーションは、ロボット130が実行すべくプログラミングされているタスクに関連付けられてもよい。計画に基づいて、モーション計画部270は、命令272(例えば、脚関節を30度だけ曲げる)を制御装置280に送信する。制御装置280は、様々なエフェクタ290に制御信号282を送信し、エフェクタ290によりモーションを実行する。
図3Aは、ある実施形態に係る、奥行き画像処理モジュール242のブロック図である。奥行き画像処理モジュール242は、奥行き画像取得モジュール312、ガウシアンフィルタ316、法線ベクトルモジュール320及びマスク生成部324等を含む。これらの構成要素のそれぞれは、他の構成要素と協働して、例えば、ソフトウエア、ハードウエア、ファームウエア又はこれらの組合せとして、実装されてもよい。
奥行き画像取得モジュール312は、画像データ210に含まれる奥行き画像を取得し、バッファリングする。奥行き画像取得モジュール312は、ある時点において取得された奥行き画像を一時的に格納し、ガウシアンフィルタ316又は奥行き画像処理モジュール242の他のモジュールが、奥行き画像にアクセスし、奥行き画像を検索することを可能にする。
ガウシアンフィルタ316は、奥行き画像を処理し、ノイズを削減するために使用される。図5Aに示されるように、奥行きセンサから取得された奥行き画像は、一般的に、非常にノイズが多い。ガウシアンフィルタ316によって奥行き画像を処理することによって、奥行き画像内のノイズは、図5Bに示したように減少する。奥行き画像のノイズが減少すると、奥行き画像のその後の処理は、より確実にかつより正確に実行され得る。メディアンフィルタ及び平均フィルタのような他のタイプのフィルタが使用されて奥行き画像内のノイズを削減してもよい。奥行き画像内のノイズが明らかに少ない場合、ガウシアンフィルタ316による処理は省略してもよい。
法線ベクトルモジュール320は、すべての法線ベクトルが概ね所定の方向を向いているような奥行き画像の領域を検知する。ある実施形態においては、法線ベクトルの所定の方向は、平面検知部240によって自動的に選択され、又は、ユーザの手動選択によって選択される。例えば、対象物(例えば、テーブル)の天板表面が検知の目標となっている場合、法線ベクトルの所定の方向は、物理的世界において垂直に立ち上がっている。(この方向は、奥行き画像内で傾いていることもある。なぜならば、奥行き画像は、斜めから見た透視投影であるからである。)垂直な平面(例えば、ホワイトボード)が検知の目標となっている場合、法線ベクトルの所定の方向は、実質的に水平である。(法線ベクトルは、奥行き画像内の水平方向に対して傾いていることもある。なぜならば、奥行き画像は、斜めから見た透視投影であるからである。)所定の方向が識別された後、法線ベクトルモジュール320は、所定の方向との差が所定の許容範囲内にある方向を示す法線ベクトルを有する画素の群を探して奥行き画像を走査する。奥行き画像から法線ベクトルを取得する方法は、当業者には周知である。例えば、奥行き情報に対して平滑面を重ね合わせ、当該面の法線ベクトルを計算することによって、法線ベクトルを取得してもよい。図5Cは、概ね立ち上がった方向を示す法線ベクトルを有する、奥行き画像の領域510を示す図である。図5Cの奥行き画像は、複数の画素からなる白い小領域も含む。この小領域は、奥行き画像内のノイズに起因するかもしれないし、平面を有する他の小さな対象物の面に起因するかもしれない。
マスク生成部324は、対象物の平面が存在する可能性が高い候補領域を表すマスクを生成する機能を有する。具体的には、マスク生成部324は、所定の方向(例えば、垂直)との差が所定の許容範囲内にある方向を指す法線ベクトルを有する、奥行き画像内の領域についての情報を受け取る。ある実施形態においては、マスク生成部324は、所定の方向との差が所定の許容範囲内にある法線ベクトルを有する隣接領域を選択することによって、候補領域を決定する。図5Dは、長方形になるまで垂直方向及び水平方向に隣接領域を拡大することによって生成されたマスク520を示している。長方形は単なる一例に過ぎず、円やひし形のような、様々な他の形状が使用されてもよい。マスクが生成された後、マスクは、その後の処理を行うために、カラー画像処理モジュール244に提供される。
図3Bは、本発明のある実施形態に係る、カラー画像処理モジュール244のブロック図である。カラー画像処理モジュール244は、カラー画像取得モジュール330、画像トリミングモジュール334、エッジ検知部338、特徴抽出部342、長さ調節モジュール346及び形状評価部350等を有する。これらの構成要素のそれぞれは、他の構成要素と協働して、例えば、ソフトウエア、ハードウエア、ファームウエア又はこれらの組合せとして、実装されてもよい。
カラー画像取得モジュール330は、画像データ210に含まれるカラー画像を取得しバッファリングする。カラー画像取得モジュール330は、ある時点において取得されたカラー画像を一時的に格納し、画像トリミングモジュール334又はカラー画像処理モジュール244の他のモジュールが、奥行き画像にアクセスし、奥行き画像を検索することを可能にする。図6Aは、カラー画像取得モジュール330に取得され格納されたカラー画像を示している。
画像トリミングモジュール334は、カラー画像取得モジュール330を検索し、奥行き画像処理モジュール242によって提供されたマスクに応じてカラー画像をトリミングする。ある実施形態においては、奥行き画像処理モジュール242によって生成されたマスクの位置及びサイズは、カラー画像をトリミングする前に、画像トリミングモジュール334によって較正される。図6Bは、図5Dに示されたマスク520を使用してトリミングされた図6Aのカラー画像を示している。カラー画像をトリミングすることによって、平面が存在する可能性が高い、カラー画像の候補領域上にのみ、平面が検知される。平面を含む可能性が低い、カラー画像の部分が処理から除外されるので、より正確かつより確実に平面がカラー画像から検知され得る。
エッジ検知部338は、色彩の急激な変化を検知することによって、トリミングされたカラー画像のエッジ検知を実行する。ある実施形態においては、エッジ検知部338は、キャニーエッジ検知部である。トリミングされたカラー画像のエッジ検知の前処理として、画像閾値化のような処理が実行され、エッジ検知を促進することとしてもよい。ある実施形態においては、エッジ検知部338は、エッジ検知中に取得されたパラメータを特徴抽出部342に提供し、幾何学的特徴の検知を促進する。図6Cは、図6Bのトリミングされたカラー画像について、エッジ検知部338がエッジ検知を実行した結果を示している。
特徴抽出部342は、エッジ検知されたカラー画像から、幾何学的特徴を検知する。具体的には、特徴抽出部342は、線、曲線及び円のような幾何学的特徴を、エッジ検知された画像から検知する。検知されるべき幾何学的特徴は、検知されるべき平面の形状に応じて異なることとしてもよい。直線(例えば、図6A〜6Gに示されたような長方形のテーブルのエッジ)によって輪郭が描かれた平面を検知するためには、線特徴が検知されることとしてもよい。他の形状(例えば、楕円又は円)を有する平面を検知するためには、任意の形状に適応される一般化されたハフ変換が使用されてもよい。このことは、例えば、D.H.Ballardによる“Generalizing the Hough Transform to Detect Arbitrary Shapes,” Pattern Recognition, vol.13,no.2,pp.111-122(1981)に記述されており、当該文献は、その全体がここに引用される。ある実施形態においては、特徴抽出部342は、ハフ変換を実行して、エッジ検知されたカラー画像から線特徴を検知する。図6Dは、特徴抽出部342によって検知された線特徴を示している。図6Dでは、三角形の記号は線特徴の一方の端点を表し、四角形の記号は当該線特徴の他方の端点を表している。ある実施形態においては、特徴抽出部342は、エッジを表す画素の座標値のようなパラメータ値を、エッジ検知部から受け取る。このようなパラメータは、特徴抽出部342がより正確に線特徴を検知することを可能にする。
図6Dに示されているように、平面の輪郭以外の線特徴もまた検知され得る。平面の位置を決定する精度を上げるには、平面の輪郭を表す線特徴を保存する一方で、平面の輪郭を表さない線特徴は、可能な限り削除されるべきである。ある実施形態においては、カラー画像処理モジュール244は、奥行き画像内の対応する複数の標本点間における奥行きの有意な変化を示す線特徴を除外することによって線特徴をフィルタリングする。線特徴内の複数の標本点間の奥行き変化が閾値を超えている場合、当該線特徴は、別の対象物のエッジが偶然に並んだ結果であるか、又は、カラー画像内のノイズの結果である可能性がより高い。つまり、複数の点が急激な奥行き変化を示すような線特徴は、平面のエッジである可能性がより低い。
カラー画像処理モジュール244は、奥行き画像処理モジュール242から奥行き情報を受け取り、複数の標本点が連続性のある奥行き変化又は漸進的な奥行き変化を示さないような線特徴を除外することとしてもよい。図6Eは、奥行き画像内の複数の標本点が急激に奥行き変化するような線特徴を除外した後に残っている線特徴を示している。このような線特徴をフィルタリングした後、残っている線特徴の殆どは、平面の輪郭又は平面上の対象物の何れかを表している。
長さ調節モジュール346は、幾何学的特徴の物理的長さを近似する。センサ140からの距離がより大きい幾何学的特徴は、センサ140からの距離がより小さい幾何学的特徴に比して、より短い長さを有するものとしてカラー画像内に現れる。したがって、長さ調節モジュール346は、奥行き画像処理モジュール242から、幾何学的特徴に関連付けられた奥行き情報を受け取り、形状評価部350によって比較するために、カラー画像内の線特徴の近似的な物理的長さを算出する。
形状評価部350は、平面の輪郭である可能性が高い幾何学的特徴を選択する機能を有する。幾何学的特徴を選択するために、1又は複数の基準が使用されてもよい。このような基準は、線特徴の近似的な物理的長さを含む。テーブルのような平面は、物理的長さがテーブル上に置かれた他の対象物よりも長いエッジを有する可能性が高い。したがって、形状評価部350は、最長の長さを有するものから順に複数の線特徴をランク付けし選択してもよい。平面の輪郭を形成するのに充分な数の線特徴を選択した後、形状評価部350は、評価対象の候補平面を抽出する。
候補平面が決定された後、候補平面は、1又は複数の基準を使用して評価される。基準は、平面に一致する複数の線特徴間の比率が所定の閾値を超えるか否か、平面内の画素に対して垂直なベクトルが実質的に並列しているか否か、及び、平面のサイズが所定の範囲内にあるか否か(すなわち、小さすぎない、又は大きすぎない)等を含む。候補平面が基準を満たす場合、候補平面は、平面として最終的に決定される。他方、候補平面が基準を満たさない場合、複数の線特徴の別の組合せが選択されて評価される。ある実施形態においては、次の組合せ内の線特徴は、前の組合せ内の線特徴に比して、より短い長さを有する。その後の線特徴の組合せから生成される平面の何れもが基準を満たさない場合、画像内には平面が存在しないと宣言される。
最終的な平面が決定された後、当該平面を有する対象物の向きが決定される。図7は、消失線を使用することによって、平面を有する長方形の対象物の向きを決定する例を示している。図7に示されるような透視投影では、長方形の対象物の2組の平行なエッジのそれぞれは、点A702及び点A´704において交差する。平行なエッジが交差するこのような点は、消失点として知られている。2つの消失点702、704を連結することによって、消失線A−A´が取得される。消失線A−A´は画像の地面と平行である。
消失線及び内蔵カメラ較正行列に基づいて、平面に直交する法線ベクトルが取得され得る。内蔵カメラ較正行列は、消失線と組合わされて、平面の両側に平行な2つのベクトルを取得するために使用され得る。法線ベクトル及び2つの方向ベクトルは、3次元空間において平面を有する対象物の向きを定義する基準座標系を形成する。平面の次元が既知であり平面検知部240に提供されている場合、平面を有する対象物の3次元座標値及び向きが決定され得る。
消失線A−A´、内蔵カメラ較正行列及び平面の向きを計算することは、例えば、Richard Hartley及びAndrew Zissermanによる“Multiple view geometry in computer vision,”First Edition, Cambridge University Press,pp.205-213(2003)に記述されている。当該文献は、その全体がここに引用される。
図6Fは、線特徴をランク付けし、複数の線特徴間の幾何学的関係を決定した後に選択された線特徴を示している。図6Gに示されているように、選択された線特徴は延長されて、平面の輪郭を描く線特徴を取得する。形状評価部350が平面を決定した後、カラー画像処理モジュール244は、平面の位置決め情報を含む平面情報248を環境写像部260に出力する。
(平面検知方法)
図4A及び図4Bは、本発明のある実施形態に係る、平面を検知する方法のフローチャートである。最初に、奥行き画像及びカラー画像が、それぞれ奥行き画像取得モジュール312及びカラー画像取得モジュール330によって、画像データ210のストリームから取得される(ステップ406)。奥行き画像をガウシアンフィルタ316で処理することによって奥行き画像が平滑化され、奥行き画像のノイズが削減される(ステップ410)。奥行き画像の質に因っては、当該ステップ410を実行せずに省略してもよい。
法線ベクトルモジュール320によって、奥行き画像内の画素から奥行き画像内の法線ベクトルが計算される(ステップ420)。マスク生成部324によって、奥行き画像の法線ベクトルに基づいて、カラー画像をトリミングするマスクが作成される(ステップ430)。具体的には、所定の方向との差が所定の許容範囲内にある法線ベクトルを有する、奥行き画像内の画素の群が選択される。マスク生成部324によって、画素の群を含む領域が拡大され、ある幾何学的形状(例えば、長方形)のマスクを取得する。画像トリミングモジュール334は、マスクを使用して、カラー画像をトリミングする(ステップ440)。
エッジ検知部338によって、トリミングされたカラー画像からエッジが検知される(ステップ444)。カラー画像から検知されたエッジに対して、特徴抽出部342によってハフ変換が適用され、平面のエッジの候補となる線特徴を取得する(ステップ450)。他の処理方法又は他の変換(例えば、円ハフ変換)が適用されて、他のタイプの幾何学的特徴(例えば、曲線)を検知してもよい。
急激に奥行きが変化する標本点を有する候補線が除外される(ステップ460)。具体的には、線特徴に対応する奥行き画像内の複数の点において、2以上の標本点が取得される。標本点間の奥行きの差分が閾値を超える場合は、当該線特徴は、平面の輪郭を描くエッジであるかもしれない候補線特徴のプールから除外される。
長さ調節モジュール346によって、候補線特徴の長さが調節され、実世界における線の物理的長さを近似する(ステップ470)。線特徴の長さに基づいて、線特徴が選択される(ステップ480)。具体的には、より長い長さを有する線特徴のサブセットが、候補平面を定義するものとして幾何学的特徴から選択される(ステップ480)。
平面のサイズ、平面のエッジに一致する線特徴の比率、及び、所定の許容範囲内の法線ベクトルを有するエッジ内の画素の百分比のような、1又は複数の基準に基づいて、候補平面が評価される(ステップ488)。
候補平面が基準を満たす場合、候補平面は、最終的な平面として決定され、当該平面を有する対象物の向きが決定される(ステップ496)。具体的には、消失線、内蔵カメラ較正行列、及び、平面の両側を表す線に平行な方向ベクトルが計算され、平面を有する対象物の2次元座標値又は3次元座標値、及び、平面を有する対象物の向きを決定する。対象物の座標値及び向きを含む平面情報が、カラー画像処理モジュール244から出力される(ステップ498)。
候補平面が基準を満たさない場合、候補平面は廃棄され、別の線特徴が選択される(ステップ482)。処理はステップ484に戻る。そこでは、選択された線特徴に基づいて、他の候補平面が決定される。ある実施形態においては、長さがより短い線特徴が組み合わされて、次の候補平面を生成する。
それに続く線特徴の組合せからなる候補平面のいずれもが基準を満たさない場合、画像内には平面が発見されなかったと宣言される(ステップ494)。
(代替実施形態)
平面検知部240によって生成される平面情報248は、他の目的に使用されてもよい。ある実施形態においては、平面情報248は、カメラを較正するために使用される。具体的には、平面情報248は、(カメラに取得された)画像内の対象物のカメラに対する相対的な向き及び相対的な位置を表すカメラ姿勢を取得するために使用される。
ある実施形態においては、カラー画像及び奥行き画像の先行フレームによって生成された平面情報は、平面検知部240に格納されるので、連続画像の複数のフレームに亘って平面の連続検知が実行される。つまり、画像データ210の先行フレーム内で平面が検知されなかった場合、平面検知部240は、次の画像フレーム内で平面を検知しないようにバイアスを掛けられる。対照的に、先行フレーム内で平面が検知された場合、平面検知部240は、次の画像フレーム内で平面を検知するようにバイアスを掛けられる。さらに、格納された先行フレームの平面情報が参照されて、平面の検索が開始されるべき後続フレーム内の画像の部分を決定してもよい。
前記では、いくつかの実施形態に関して本発明を記述してきたが、本発明の範囲内で様々な修正が可能である。したがって、本発明の開示は、例示的なものであって、特許請求の範囲に記載された本発明の範囲を限定するものではない。
110 テーブル
112 対象物
114 対象物
130 ロボット
140 センサ
200 処理モジュール
210 画像データ
240 平面検知部
242 奥行き画像処理
244 カラー画像処理
248 平面情報
250 対象物検知部
252 対象物情報
260 環境写像部
262 環境情報
270 モーション計画部
272 命令
280 制御装置
282 制御信号
312 奥行き画像取得
316 ガウシアンフィルタ
320 法線ベクトル
324 マスク生成部
330 カラー画像取得
334 画像トリミング
338 エッジ検知部
342 特徴抽出部
346 長さ調節
350 形状評価部
702、704 消失点

Claims (8)

  1. 平面を有する対象物の位置を決定するコンピュータを用い方法であって、
    前記コンピュータは、
    奥行きセンサと奥行き画像内の対象物の部分との間の距離を表す画像画素を含む前記奥行き画像を受け取り、
    前記奥行き画像を処理することによって、前記奥行き画像のうちから、前記奥行き画像よりもサイズが小さい隣接領域である候補領域であって、前記平面を含む可能性を有する前記奥行き画像の部分を表す候補領域を決定し、
    カメラによって取得されたカラー画像であって、前記奥行き画像内の前記候補領域を含むカラー画像を受け取り、
    前記カラー画像から、前記平面の境界の輪郭を描く幾何学的特徴を検知し選択することによって、前記カラー画像の前記候補領域内の前記対象物の平面を検知し、
    前記幾何学的特徴を選択することは、
    前記奥行き画像内の奥行き情報に応じて、前記検知された幾何学的特徴の長さを調節し、前記幾何学的特徴の物理的長さを決定し、
    前記検知された幾何学的特徴の前記物理的長さに基づいて、候補平面の輪郭を描く、前記検知された幾何学的特徴のサブセットを選択すること、
    を含むこと、
    を特徴とする方法。
  2. 前記奥行き画像内の候補領域を決定することは、
    前記奥行き画像の前記画像画素から、前記奥行き画像内の対象物の面に対して垂直であるベクトルを表す法線ベクトルを計算し、
    所定の方向の法線ベクトルを有する、前記奥行き画像内の1又は複数の領域を決定し、
    前記奥行き画像の前記1又は複数の領域を拡大し前記候補領域を表すマスクを生成すること、
    を含み、
    前記マスクに対応する前記カラー画像の部分は、
    前記幾何学的特徴を検知するためにトリミングされること、
    を特徴とする請求項1に記載の方法。
  3. 前記コンピュータは、
    前記候補領域を決定する前に、前記奥行き画像をガウシアンフィルタでフィルタリングすること、
    を特徴とする請求項1に記載の方法。
  4. 前記幾何学的特徴を検知することは、
    前記候補領域を含む前記カラー画像内のエッジを検知し、
    前記検知されたエッジに対してハフ変換を実行して前記カラー画像内の線特徴を取得すること、
    を含むこと、
    を特徴とする請求項1に記載の方法。
  5. 前記候補平面は、
    前記候補平面のサイズ、
    前記候補平面内の複数の画素に対して垂直な複数のベクトル間の類似性、及び、
    前記候補平面に一致する前記幾何学的特徴の比率、からなる群のうちの少なくとも1つに基づいて評価されること、
    を特徴とする請求項に記載の方法。
  6. 前記幾何学的特徴を選択することは、
    前記幾何学的特徴の複数の点間の奥行き変化が閾値を超えていると決定する場合は、前記検知された幾何学的特徴を除外すること、
    を含むこと、
    を特徴とする請求項に記載の方法。
  7. 平面を有する対象物を検知するコンピュータを機能させるためのコンピュータプログラムを格納する、不揮発性のコンピュータ読取可能な記憶媒体であって、
    前記コンピュータプログラムは、
    前記コンピュータのプロセッサに対して、
    奥行きセンサと奥行き画像内の対象物の部分との間の距離を表す画像画素を含む前記奥行き画像を受け取り、
    前記奥行き画像を処理することによって、前記奥行き画像のうちから、前記奥行き画像よりもサイズが小さい隣接領域である候補領域であって、前記平面を含む可能性を有する前記奥行き画像の部分を表す候補領域を決定し、
    カメラによって取得されたカラー画像であって、前記奥行き画像内の前記候補領域を含むカラー画像を受け取り、
    前記カラー画像から、前記平面の境界の輪郭を描く幾何学的特徴を検知し選択することによって、前記カラー画像の前記候補領域内の前記対象物の平面を検知する処理を実行させ、
    前記幾何学的特徴を選択することは、
    前記奥行き画像内の奥行き情報に応じて、前記検知された幾何学的特徴の長さを調節し、前記幾何学的特徴の物理的長さを決定し、
    前記検知された幾何学的特徴の前記物理的長さに基づいて、候補平面の輪郭を描く、前記検知された幾何学的特徴のサブセットを選択すること、
    を含むこと、
    を特徴とする記憶媒体。
  8. 平面を有する対象物の位置を決定するシステムであって、
    前記システムは、
    奥行きセンサと奥行き画像内の対象物の部分との間の距離を表す画像画素を含む前記奥行き画像を受け取り、
    前記奥行き画像を処理することによって、前記奥行き画像のうちから、前記奥行き画像よりもサイズが小さい隣接領域である候補領域であって、前記平面を含む可能性を有する前記奥行き画像の部分を表す候補領域を決定する奥行き画像処理モジュールと、
    前記奥行き画像処理モジュールに接続され、
    カメラによって取得されたカラー画像であって、前記奥行き画像内の前記候補領域を含むカラー画像を受け取り、
    前記カラー画像から幾何学的特徴を検知し、前記平面の境界の輪郭を描く幾何学的特徴を選択することによって、前記カラー画像の前記候補領域内の前記対象物の平面を検知するカラー画像処理モジュールと、を有し、
    前記幾何学的特徴を選択することは、
    前記奥行き画像内の奥行き情報に応じて、前記検知された幾何学的特徴の長さを調節し、前記幾何学的特徴の物理的長さを決定し、
    前記検知された幾何学的特徴の前記物理的長さに基づいて、候補平面の輪郭を描く、前記検知された幾何学的特徴のサブセットを選択すること、
    を含むこと、
    を特徴とするシステム。
JP2011510530A 2008-05-20 2009-04-14 Rgb及び奥行き計測ハイブリッドカメラセンサを使用する長方形テーブル検知 Expired - Fee Related JP5172010B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/124,016 US8265425B2 (en) 2008-05-20 2008-05-20 Rectangular table detection using hybrid RGB and depth camera sensors
US12/124,016 2008-05-20
PCT/US2009/040531 WO2009142841A2 (en) 2008-05-20 2009-04-14 Rectangular table detection using hybrid rgb and depth camera sensors

Publications (3)

Publication Number Publication Date
JP2011523742A JP2011523742A (ja) 2011-08-18
JP2011523742A5 JP2011523742A5 (ja) 2012-08-30
JP5172010B2 true JP5172010B2 (ja) 2013-03-27

Family

ID=41340752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011510530A Expired - Fee Related JP5172010B2 (ja) 2008-05-20 2009-04-14 Rgb及び奥行き計測ハイブリッドカメラセンサを使用する長方形テーブル検知

Country Status (3)

Country Link
US (1) US8265425B2 (ja)
JP (1) JP5172010B2 (ja)
WO (1) WO2009142841A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2690296C1 (ru) * 2017-05-23 2019-05-31 Тойота Дзидося Кабусики Кайся Транспортное средство и способ управления двигателем транспортного средства

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
KR101553522B1 (ko) * 2008-12-29 2015-09-16 삼성전자 주식회사 로봇 및 그 제어 방법
US8406925B2 (en) * 2009-07-01 2013-03-26 Honda Motor Co., Ltd. Panoramic attention for humanoid robots
US8619122B2 (en) * 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
JP2011175477A (ja) * 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
US9201501B2 (en) * 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US9113130B2 (en) 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9407904B2 (en) * 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9288476B2 (en) * 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9241147B2 (en) * 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US10586341B2 (en) 2011-03-04 2020-03-10 General Electric Company Method and device for measuring features on or near an object
US10157495B2 (en) * 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US9875574B2 (en) * 2013-12-17 2018-01-23 General Electric Company Method and device for automatically identifying the deepest point on the surface of an anomaly
TWI476403B (zh) * 2011-04-22 2015-03-11 Pai Chi Li 超音波自動掃描系統及其掃描方法
EP2710536A4 (en) * 2011-05-11 2015-07-22 Proiam Llc REGISTRATION APPARATUS, SYSTEM AND METHOD WITH THREE-DIMENSIONAL CAMERA
KR101920473B1 (ko) * 2011-07-27 2018-11-22 삼성전자주식회사 센서 융합 기반으로 3차원 위치와 방향을 추정하는 장치 및 방법
JP5879877B2 (ja) * 2011-09-28 2016-03-08 沖電気工業株式会社 画像処理装置、画像処理方法、プログラム、および画像処理システム
KR20130047822A (ko) * 2011-11-01 2013-05-09 삼성전자주식회사 영상 처리 장치 및 방법
EP2726858A1 (de) * 2011-12-16 2014-05-07 Siemens Aktiengesellschaft Dynamische ergebnisprojektion bei bewegtem prüfobjekt
US8995737B2 (en) * 2012-01-20 2015-03-31 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2014002502A (ja) * 2012-06-18 2014-01-09 Dainippon Printing Co Ltd 手のばし検出装置、手のばし検出方法及びプログラム
US8855369B2 (en) * 2012-06-22 2014-10-07 Microsoft Corporation Self learning face recognition using depth based tracking for database generation and update
US8831285B2 (en) 2012-07-26 2014-09-09 Hewlett-Packard Development Company, L.P. Detecting objects with a depth sensor
TWI493962B (zh) * 2012-09-05 2015-07-21 Acer Inc 多媒體處理系統及音訊信號調整方法
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
JP2014170368A (ja) * 2013-03-04 2014-09-18 Univ Of Tokyo 画像処理装置、方法及びプログラム並びに移動体
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9563955B1 (en) * 2013-05-15 2017-02-07 Amazon Technologies, Inc. Object tracking techniques
JP6270361B2 (ja) * 2013-07-16 2018-01-31 株式会社キーエンス 三次元画像処理装置、三次元画像処理方法及び三次元画像処理プログラム並びにコンピュータで読み取り可能な記録媒体及び記録した機器
JP6054831B2 (ja) * 2013-09-03 2016-12-27 国立大学法人 東京大学 画像処理装置、画像処理方法及び画像処理プログラム
US9934611B2 (en) 2013-09-11 2018-04-03 Qualcomm Incorporated Structural modeling using depth sensors
JP2015056057A (ja) * 2013-09-12 2015-03-23 トヨタ自動車株式会社 姿勢推定方法及びロボット
JP5799273B2 (ja) * 2013-10-02 2015-10-21 パナソニックIpマネジメント株式会社 寸法計測装置、寸法計測方法、寸法計測システム、プログラム
US9818039B2 (en) * 2013-12-17 2017-11-14 General Electric Company Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
US9600928B2 (en) * 2013-12-17 2017-03-21 General Electric Company Method and device for automatically identifying a point of interest on the surface of an anomaly
US9259844B2 (en) * 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
US9626766B2 (en) * 2014-02-28 2017-04-18 Microsoft Technology Licensing, Llc Depth sensing using an RGB camera
WO2016095192A1 (en) * 2014-12-19 2016-06-23 SZ DJI Technology Co., Ltd. Optical-flow imaging system and method using ultrasonic depth sensing
CN104574375B (zh) * 2014-12-23 2017-05-03 浙江大学 结合彩色和深度信息的图像显著性检测方法
US10115035B2 (en) * 2015-01-08 2018-10-30 Sungkyunkwan University Foundation For Corporation Collaboration Vision system and analytical method for planar surface segmentation
GB201501311D0 (en) * 2015-01-27 2015-03-11 Apical Ltd Method, system and computer program product
JP6132246B2 (ja) * 2015-04-01 2017-05-24 パナソニックIpマネジメント株式会社 寸法計測方法
WO2017031117A1 (en) * 2015-08-17 2017-02-23 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
US10554956B2 (en) 2015-10-29 2020-02-04 Dell Products, Lp Depth masks for image segmentation for depth-based computational photography
US10021371B2 (en) 2015-11-24 2018-07-10 Dell Products, Lp Method and apparatus for gross-level user and input detection using similar or dissimilar camera pair
US10372968B2 (en) * 2016-01-22 2019-08-06 Qualcomm Incorporated Object-focused active three-dimensional reconstruction
US11037320B1 (en) * 2016-03-01 2021-06-15 AI Incorporated Method for estimating distance using point measurement and color depth
US10311590B1 (en) * 2016-03-01 2019-06-04 Al Incorporated Method for estimating distance using point measurement and color depth
US10616552B2 (en) * 2016-03-25 2020-04-07 Intel Corporation Multi-modal real-time camera localization and environment mapping
JP6574461B2 (ja) * 2016-08-04 2019-09-11 株式会社フォーディーアイズ 点群データ変換システム及びその方法
WO2018025842A1 (ja) * 2016-08-04 2018-02-08 株式会社Hielero 点群データ変換システム、その方法、及びプログラム
US10636137B1 (en) * 2017-10-23 2020-04-28 Amazon Technologies, Inc. System for determining object orientations in an image
CN107948517B (zh) * 2017-11-30 2020-05-15 Oppo广东移动通信有限公司 预览画面虚化处理方法、装置及设备
CN109974746B (zh) * 2017-12-27 2020-11-24 深圳市优必选科技有限公司 全向轮里程校准方法及机器人
JP7109207B2 (ja) * 2018-02-23 2022-07-29 パナソニックホールディングス株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
CN110291771B (zh) * 2018-07-23 2021-11-16 深圳市大疆创新科技有限公司 一种目标对象的深度信息获取方法及可移动平台
CN110706267B (zh) * 2019-09-04 2022-11-15 五邑大学 一种基于采矿过程的矿石三维坐标获取方法及其装置
CN111062305B (zh) * 2019-12-12 2023-02-24 河南省科学院高新技术研究中心 一种棉花装卸运输阴燃监测方法及装置
US11741620B1 (en) 2020-01-24 2023-08-29 Apple Inc. Plane detection using depth sensor and semantic information
CN111696124A (zh) * 2020-02-14 2020-09-22 牧今科技 用于处理候选边缘的方法和计算系统
CN111462234B (zh) * 2020-03-27 2023-07-18 北京华捷艾米科技有限公司 一种位置确定方法及装置
WO2022194352A1 (en) 2021-03-16 2022-09-22 Huawei Technologies Co., Ltd. Apparatus and method for image correlation correction
CN113332110B (zh) * 2021-06-02 2023-06-27 西京学院 一种基于景物听觉感知的导盲手电及导盲方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5243665A (en) 1990-03-07 1993-09-07 Fmc Corporation Component surface distortion evaluation apparatus and method
JP3466661B2 (ja) * 1993-06-29 2003-11-17 キヤノン株式会社 画像処理装置及びその方法
US6095989A (en) 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
JP2919284B2 (ja) 1994-02-23 1999-07-12 松下電工株式会社 物体認識方法
GB9515311D0 (en) * 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
JPH1139496A (ja) * 1997-07-17 1999-02-12 Nippon Telegr & Teleph Corp <Ntt> 平面の姿勢推定方法およびその装置
JP4054103B2 (ja) * 1998-04-09 2008-02-27 富士通テン株式会社 走行路形状認識装置
US6813395B1 (en) 1999-07-14 2004-11-02 Fuji Photo Film Co., Ltd. Image searching method and image processing method
JP3945279B2 (ja) 2002-03-15 2007-07-18 ソニー株式会社 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
US7068817B2 (en) 2002-11-07 2006-06-27 Mcmaster University Method for on-line machine vision measurement, monitoring and control of product features during on-line manufacturing processes
EP1658579B1 (en) 2003-08-15 2016-09-28 Scape A/S Method for for classification and spatial localization of bounded 3d-objects
JP3994950B2 (ja) * 2003-09-19 2007-10-24 ソニー株式会社 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
US7653216B2 (en) * 2003-12-23 2010-01-26 Carnegie Mellon University Polyhedron recognition system
KR100519781B1 (ko) 2004-02-18 2005-10-07 삼성전자주식회사 객체 추적 방법 및 그 장치
JP4297501B2 (ja) 2004-08-11 2009-07-15 国立大学法人東京工業大学 移動体周辺監視装置
US7466841B2 (en) 2004-08-16 2008-12-16 Siemens Corporate Research, Inc. Method for traffic sign detection
JP2006178696A (ja) * 2004-12-22 2006-07-06 Nippon Telegr & Teleph Corp <Ntt> 平面検出装置および方法並びに平面検出プログラム
DE102005047160B4 (de) 2005-09-30 2007-06-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Ermitteln einer Information über eine Form und/oder eine Lage einer Ellipse in einem graphischen Bild
JP4702050B2 (ja) * 2005-12-28 2011-06-15 カシオ計算機株式会社 画像投影装置、画像投影装置の投影画像補正方法及びプログラム
JP2009522683A (ja) * 2006-01-07 2009-06-11 アイリテック インコーポレイテッド ステレオカメラを装着した移動端末機を利用した虹彩認識システム及び虹彩認識方法
US7747045B2 (en) 2006-06-30 2010-06-29 Fujifilm Corporation Method and apparatus for diffusion based illumination normalization

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2690296C1 (ru) * 2017-05-23 2019-05-31 Тойота Дзидося Кабусики Кайся Транспортное средство и способ управления двигателем транспортного средства

Also Published As

Publication number Publication date
US20090290758A1 (en) 2009-11-26
WO2009142841A3 (en) 2010-01-14
WO2009142841A2 (en) 2009-11-26
JP2011523742A (ja) 2011-08-18
US8265425B2 (en) 2012-09-11

Similar Documents

Publication Publication Date Title
JP5172010B2 (ja) Rgb及び奥行き計測ハイブリッドカメラセンサを使用する長方形テーブル検知
US11320833B2 (en) Data processing method, apparatus and terminal
US11087169B2 (en) Image processing apparatus that identifies object and method therefor
JP6854840B2 (ja) 地図構築装置及びその地図構築方法
EP3168812B1 (en) System and method for scoring clutter for use in 3d point cloud matching in a vision system
JP6348093B2 (ja) 入力データから検出対象物の像を検出する画像処理装置および方法
US10163225B2 (en) Object state identification method, object state identification apparatus, and carrier
US11654571B2 (en) Three-dimensional data generation device and robot control system
EP1926004A2 (en) Method, apparatus, and medium for controlling mobile device based on image of real space including the mobile device
JP2010541065A (ja) 3次元飲料容器位置決定装置
JP6397354B2 (ja) 人物領域検出装置、方法およびプログラム
JP7252581B2 (ja) 物品検出装置、物品検出方法、及び産業車両
CN112013858B (zh) 定位方法、装置、自移动设备和存储介质
CN110926330B (zh) 图像处理装置和图像处理方法
KR101670270B1 (ko) 알려진 형상의 기준을 탐사하는 시스템 및 방법
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
Adorni et al. Omnidirectional stereo systems for robot navigation
US20200159229A1 (en) System and method for creating a single perspective synthesized image
JP2015111128A (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP6198104B2 (ja) 3次元物体認識装置及び3次元物体認識方法
CN115953465A (zh) 基于模块化机器人实训平台的三维视觉随机抓取处理方法
JP6719925B2 (ja) 情報処理装置、情報処理方法、プログラム
Riecický et al. Optical-inertial Synchronization of MoCap Suit with Single Camera Setup for Reliable Position Tracking.
JP5614100B2 (ja) 画像処理装置及び移動体位置推定方法
JP2023124122A (ja) 物品検出装置、物品検出方法、及び産業車両

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120131

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120711

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20120711

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20120727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121225

R150 Certificate of patent or registration of utility model

Ref document number: 5172010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees