JP6408216B2 - 物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための方法及びロボット - Google Patents

物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための方法及びロボット Download PDF

Info

Publication number
JP6408216B2
JP6408216B2 JP2013252773A JP2013252773A JP6408216B2 JP 6408216 B2 JP6408216 B2 JP 6408216B2 JP 2013252773 A JP2013252773 A JP 2013252773A JP 2013252773 A JP2013252773 A JP 2013252773A JP 6408216 B2 JP6408216 B2 JP 6408216B2
Authority
JP
Japan
Prior art keywords
parameter
object recognition
pose estimation
detection
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013252773A
Other languages
English (en)
Other versions
JP2014116007A (ja
JP2014116007A5 (ja
Inventor
マリア アンジェロ デュガッシュ ジョセフ
マリア アンジェロ デュガッシュ ジョセフ
Original Assignee
トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド, トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド filed Critical トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
Publication of JP2014116007A publication Critical patent/JP2014116007A/ja
Publication of JP2014116007A5 publication Critical patent/JP2014116007A5/ja
Application granted granted Critical
Publication of JP6408216B2 publication Critical patent/JP6408216B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Description

本開示は、概して、物体検出及び/又は物体認識に関し、特に、物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための方法及びロボットに関する。
画像内の候補の物体を検出する物体検出方法が用いられる場合がある。画像内の物体を認識する物体認識方法が用いられる場合がある。物体検出方法は、画像内の候補の物体を検出するために、物体検出パラメータを利用する場合がある。物体認識方法は、画像内の物体を認識するために、物体認識パラメータを利用する場合がある。物体検出方法及び物体認識方法の精度を向上させるために、物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整することが望ましい。
画像カテゴリ化システム、マシンビジョンシステムなどの種々の環境、及びロボット用途において、物体検出方法及び/又は物体認識方法を用いる場合がある。例えば、ロボット用途において、ロボットは、空間内で作動して特定の作業を実行する場合がある。とりわけ、ロボットは、工場、家庭、オフィス及び医療施設に配備される場合がある。家事ロボット(servant robots)は、作動空間内で操縦され、物体を配置し、物体を操作する任務を負う。例えば、ロボットは、作動領域の範囲内で物体を見つけ、物体をピックアップして、作動空間内で物体を異なる位置へ移動することを命令される場合がある。ロボットは、作動空間内での物体の操作を容易にするために、視覚ベースの物体検出方法及び/又は物体認識方法を一般に利用する。物体を操作する際にロボットを補助するために、ロボットが、正確な物体検出方法及び/又は物体認識方法を採用することが望ましい。
したがって、物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための代替の方法及びロボットのニーズが存在する。
一実施形態において、少なくとも1つの物体認識パラメータを調整する方法には、画像データを受信することと、画像データに基づいて、物体認識モジュールにより物体を自動的に認識することとが含まれる。物体認識モジュールには、少なくとも1つの物体認識パラメータが含まれる。方法には、ポーズ推定エラーが生じたか否かを判断することと、ポーズ推定エラーが生じたときに、少なくとも1つの物体認識パラメータを調整することとが更に含まれる。
別の実施形態において、少なくとも1つの物体検出パラメータを調整する方法には、画像データを受信することと、画像データに基づいて、物体検出モジュールにより候補の物体を自動的に検出することとが含まれる。物体検出モジュールには、少なくとも1つの物体検出パラメータが含まれる。方法には、検出された候補の物体に基づいて、物体認識モジュールにより物体を認識することが更に含まれる。物体認識モジュールには、少なくとも1つの物体認識パラメータが含まれる。方法には、物体認識エラーが生じたか否かを判断することと、物体認識エラーが生じたときに、少なくとも1つの物体検出パラメータを調整することとが更に含まれる。
更に別の実施形態において、ロボットには、1以上のプロセッサと、1以上のプロセッサに通信可能に接続される1以上の画像取込装置と、1以上のプロセッサに通信可能に接続される非一時的メモリ要素と、非一時的メモリ要素に記憶される物体検出モジュールと、非一時的メモリ要素に記憶される物体認識モジュールと、非一時的メモリ要素に記憶される機械可読命令とが含まれる。物体検出モジュールには、少なくとも1つの物体検出パラメータが含まれる。物体認識モジュールには、少なくとも1つの物体認識パラメータが含まれる。1以上のプロセッサにより実行されるとき、非一時的メモリ要素に記憶される機械可読命令によって、ロボットは、1以上の画像取込装置から画像データを受信し、画像データに基づいて、物体検出モジュールにより候補の物体を検出し、検出された候補の物体に基づいて、物体認識モジュールにより物体を認識し、物体認識エラーが生じたか否かを判断し、物体認識エラーが生じたときに、少なくとも1つの物体検出パラメータを調整する。
本明細書に説明する実施形態によって提供される、これらの特徴及び追加の特徴は、図面と共に、以下の詳細な説明を考慮することによって十分に理解される。
図面に示す実施形態は、本来、説明のためのもので、例示的なものであり、請求項に規定する主題を限定しないものとする。具体的な実施形態の次に示す詳細な説明は、以下の図面と共に読み込むことで理解することができ、類似する構造は、類似する参照符号によって示す。
本明細書で説明し例示する1以上の実施形態による、作動空間内で作動するロボットを概略的に表す。 本明細書で説明し例示する1以上の実施形態による、図1Aのロボットの内部の構成要素を概略的に表す。 本明細書で説明し例示する1以上の実施形態による、物体検出パラメータ及び物体認識パラメータを調整する方法のフローチャートを概略的に表す。
本開示の実施形態は、物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための方法及びロボットに関する。本明細書に説明する実施形態は、画像データを受信し、画像データに基づいて、物体認識モジュールにより物体を自動的に認識し、ポーズ推定エラーが生じたか否かを判断し、ポーズ推定エラーが生じたときに、少なくとも1つの物体認識パラメータを調整することができる。本明細書に説明する実施形態は、画像データを受信し、画像データに基づいて、物体検出モジュールにより候補の物体を自動的に検出し、検出された候補の物体に基づいて、物体認識モジュールにより物体を認識し、物体認識エラーが生じたか否かを判断し、物体認識エラーが生じたときに、少なくとも1つの物体検出パラメータを調整することができる。本明細書に説明するように、物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整することによって、物体検出及び/又は物体認識の精度を向上させることができる。物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための方法及びロボットの種々の実施形態を、以下に詳細に説明する。
最初に、本開示は、ロボットに連結される物体を、検出するため及び/又は認識するために画像データを処理することができる画像処理システムを図示し及び説明しているが、他の実施形態において、本明細書に説明する画像処理システムは、画像処理システムがモバイル機器(例えば、スマートフォン、ノートパソコンなど)内に組み込まれている、又は、分離して存在する(例えば、画像処理システムの外部供給源から画像データを受信する画像処理システム)実施形態などのように、ロボットに連結されていなくてもよいことに留意すべきである。
ここで、図1Aを参照すると、作動空間101内で作動するロボット100が示される。図1Aに概して示すロボット100は、任意のサイズ及び構成であってもよい。例えば、ロボット100は、図1Aに示すロボット100などの、家庭、職場、学校、又は医療施設で人間を補助するサービスロボットとして構成されていてもよい。別の実施形態において、ロボットは、製造設備内で利用される生産ロボットであってもよい。本明細書に説明する実施形態は、いかなる種類のロボットにも限定されないことを理解する必要がある。
図1Aに示すロボット100は、概して、2つの画像取込装置102a、102bと、2つのアーム106a、106bと、2つの把持アセンブリ108a、108bと、2つの移動装置104a、104bとを備える。画像取込装置102a、102bは、静止画像及び/又はデジタルビデオを取り込むことができるデジタルカメラとして構成されていてもよい。別の実施形態において、ロボット100は、1つの画像取込装置から、2以上の画像取込装置まで備え得る。図1Aに表す画像取込装置102a、102bにより、ロボット100は、下記のように、物体を検出し、物体を認識し、作動空間101内で遭遇する検出された物体のポーズを推定することができる。
移動装置104a、104bは、ロボット100によって利用され、作動空間101内で操作される。図1Aに表す実施形態において、移動装置104a、104bは、無限軌道の移動装置である。ただし、他の実施形態において、ロボット100には、無限軌道の移動装置以外の1以上の移動装置が含まれ得る。例えば、ロボット100は、1以上の車輪又は脚を使用して作動空間101内で操作されてもよい。一部の実施形態において、ロボット100には、1つの移動装置のみ、又は、2以上の移動装置が含まれ得る。
アーム106a、106b及び把持アセンブリ108a、108bは、一実施形態において、ロボット100が作動空間内で遭遇する物体を操作するように、サーボ駆動されてもよい。例えば、空気駆動、ハイドロリック駆動、圧電高分子モーター(electro-active polymer motors)などの他の駆動機構が利用されてもよい。ある実施形態において、ロボット100には、1つのみのアーム及び把持アセンブリ、又は、2以上のアーム及び把持アセンブリが含まれ得る。
ここで、図1Bを参照すると、ロボット100の種々の内部の構成要素が示される。ロボット100には、1以上のプロセッサ110と、データ記憶装置112と、非一時的メモリ要素114と、任意の入/出力ハードウェア116と、2つの画像取込装置102a、102bと、任意の通信モジュール120と、アクチュエータ駆動ハードウェア154とが含まれる。ある実施形態において、1以上のプロセッサ110、データ記憶装置112、及び、非一時的メモリ要素114は、単一の集積回路(例えば、システムオンチップ)において備え得る。ある実施形態において、1以上のプロセッサ110、データ記憶装置112、及び、非一時的メモリ要素114は、別々の集積回路として備え得る。
1以上のプロセッサ110はそれぞれ、電気的に接続された構成要素と通信するように構成され、ロボット100が作動するように設計された特定の用途に適する、任意の、市販された又はカスタマイズされたプロセッサとして構成され得る。1以上のプロセッサ110はそれぞれ、機械可読命令を実行することができる、任意の装置であってもよい。したがって、1以上のプロセッサ110はそれぞれ、コントローラ、集積回路、マイクロチップ、コンピュータ、又は、他の任意のコンピューティング装置であり得る。1以上のプロセッサ110は、ロボット100の種々のモジュール間で信号の相互接続性を提供する通信経路130に連結される。通信経路130は、任意の数のプロセッサと相互に通信可能に接続することができ、通信経路130に連結されたモジュールは、分散コンピューティング環境で作動することができる。特に、それぞれのモジュールは、データを送信及び/又は受信するノードとして作動することができる。本明細書に使用する「通信可能に接続された」という用語は、例えば、導電性媒体を介する電気信号、空気を介する電磁信号、光導波路を介する光信号などのように、連結された構成要素がデータ信号を相互に交換することが可能であることを意味する。
したがって、通信経路130は、例えば、導電性ワイヤ、導電トレース(conductive traces)、光導波路などの、信号を伝達することが可能な任意の媒体から形成され得る。更に、通信経路130は、信号を伝達することが可能な媒体の組合せから形成され得る。一実施形態において、通信経路130は、プロセッサ、メモリ、センサ、入力装置、出力装置及び通信装置などの構成要素への電気データ信号の伝達を可能にするように協働する、導電トレース、導電性ワイヤ、コネクタ及びバスの組合せを備える。加えて、「信号」という用語が、例えば、媒体を通じて進行可能な、DC、AC、正弦波、三角波、矩形波、振動などの波形(例えば、電気、光、磁性、機械又は電磁)を意味することに留意すべきである。
非一時的メモリ要素114は、通信経路130に連結されていてもよい。非一時的メモリ要素114には、RAM、ROM、フラッシュメモリ、ハードドライブ、又は、機械可読命令が1以上のプロセッサ110によってアクセスできるように機械可読命令を記憶することができる任意の媒体のような、揮発性及び/又は不揮発性のコンピュータ可読記憶媒体が含まれ得る。機械可読命令は、例えば、プロセッサによって直接実行される、機械語、又は、機械可読命令にコンパイル又はアセンブルされて、非一時的メモリ要素114に記憶される、アセンブリ言語、オブジェクト指向プログラミング(OOP)、スクリプト言語、マイクロコードなどの、任意の世代(例えば、1GL、2GL、3GL、4GL若しくは5GL)のプログラミング言語で書き込まれた論理又はアルゴリズムを含んでいてもよい。なお、機械可読命令は、フィールドプログラマブルゲートアレイ(FPGA)構成若しくは特定用途向け集積回路(ASIC)、又はこれらの同等物によって実行された論理などのハードウェア記述言語(HDL)で書き込まれてもよい。したがって、本明細書に説明する方法は、予めプログラムされたハードウェア要素、又は、ハードウェア要素とソフトウェア要素の組合せとして、任意の公知のコンピュータプログラム言語で実行されてもよい。
非一時的メモリ要素114は、1以上のプロセッサ110により実行されるときに、ロボット100に、本明細書に説明するモジュールの機能性を実行させる命令の集合をそれぞれが含む、1以上のモジュールを記憶するように、構成され得る。例えば、非一時的メモリ要素114は、1以上のプロセッサ110により実行されるときに、ロボット100に一般的なロボット動作を実行させる命令の集合を含むが、これに限定されない、ロボット作動モジュールを記憶するように構成されていてもよい。更に、非一時的メモリ要素114は、図2を参照して、機能性を以下に説明する、物体検出モジュール、物体認識モジュール、ポーズ推定モジュール、検出チューナーモジュール、認識チューナーモジュール、及びロボット操作モジュールを記憶するように、構成されていてもよい。ある実施形態において、非一時的メモリ要素114は、物体検出モジュール、物体認識モジュール、ポーズ推定モジュール、検出チューナーモジュール、認識チューナーモジュール、及びロボット操作モジュールの一部(subset)のみを記憶するように、構成できることを理解する必要がある。本明細書に説明する機能性の支持を提供するために、他のデータが非一時的メモリ要素114に記憶されてもよい。
データ記憶装置112はまた、揮発性及び/又は不揮発性のコンピュータ可読記憶媒体としても構成され得る。一実施形態において、データ記憶装置112は、非一時的メモリ要素114から分離したデータ記憶要素である。別の実施形態において、データ記憶装置112及び非一時的メモリ要素114は、単一のデータ記憶要素として備えられる(すなわち、データベース及び命令の集合が単一のデータ記憶要素に記憶される)。更に別の実施形態において、データ記憶装置112は、ロボット100から離れていて、任意の通信モジュール120を経由して遠隔にアクセスすることができる。
画像取込装置102a、102bは、通信経路130に連結されていてもよい。画像取込装置102a、102bは、1以上のプロセッサ110から制御信号を受信して、周囲の作動空間の画像データを取り込み、処理及び/又は記憶のため、1以上のプロセッサ110及び/又はデータ記憶装置112に、取り込まれた画像データを送信することができる。画像取込装置102a、102bは、データ記憶装置112に直接接続され得るか、又は、別の実施形態において、検索のために1以上のプロセッサ110にアクセス可能である、専用のメモリ装置(例えば、フラッシュメモリ)を含み得る。
画像取込装置102a、102bはそれぞれ、任意の適切な解像度を有し、紫外線波長域、近紫外線波長域、可視光波長域、近赤外線波長域、又は、赤外線波長域などの任意の望ましい波長域の放射を検出するように、構成されていてもよい。ある実施形態において、画像取込装置102a、102bのうちの少なくとも1つは、標準画質(例えば、640画素×480画素)のカメラであり得る。一部の実施形態において、画像取込装置102a、102bのうちの少なくとも1つは、高画質のカメラ(例えば、1440画素×1024画素、又は1280画素×1024画素)であり得る。ある実施形態において、画像取込装置102a、102bのうちの少なくとも1つは、640画素×480画素、1440画素×1024画素、又は、1280画素×1024画素以外の解像度を有し得る。画像取込装置102a、102bは、デジタルビデオ及び/又は1以上のデジタル写真の形態で画像データを提供してもよい。
任意の通信モジュール120は、ロボット100が外部のシステム及び装置と通信するように、通信経路130に接続されてもよく、無線通信回路として構成されていてもよい。任意の通信モジュール120は、衛星通信、WiFi、WiMax、携帯電話(例えば、3G、4G、LTEなど)、及び、専用の無線通信プロトコルなどであって、これらに限定されない、任意の種類の無線通信プロトコルで通信するように、構成されていてもよい。
アクチュエータ駆動ハードウェア154は、移動装置104a、104b、アーム106a、106b、把持アセンブリ108a、108b、及び、ロボット100に含まれ得る他の任意の外部構成要素を制御する、アクチュエータ及び関連する駆動用電子機器を備え得る。したがって、アクチュエータ駆動ハードウェア154は、1以上のプロセッサ110から制御信号を受信し、これによりロボット100を作動するように、構成され得る。
再び図1Aを参照すると、ロボット100は、作動空間101内で作動して種々の物体に遭遇し得る。ロボット100は、特定の物体を検索する(retrieve)及び/又は操作するように、命令されるか若しくはプログラムされてもよく、又は、作動空間内で自律的に運転され、遭遇する物体を自由に操作するように、プログラムされてもよい。例えば、図1Aにおいて、ロボット100は、コーヒーテーブル上に配置されたスプレーボトル180に遭遇している。ロボット100は、スプレーボトル180を見つけて、これを何らかの方法で操作するように、プログラムされるか又は命令され得る。例えば、ロボット100を操作しているユーザは、スプレーボトル180を見つけて、これをピックアップして、ユーザに持ってくるように、ロボット100に命令することができる。このように、スプレーボトル180は、ロボット100の対象物体である。2つの画像取込装置102a、102bを用いて、ロボット100は、図1Aに示す対象物体画像190によって表されるスプレーボトル180の対象画像データを得る。対象画像データは、デジタルビデオ及び/又は1以上のデジタル写真の形態であってもよい。ロボット100は、非一時的メモリ要素114に記憶される物体検出モジュールにより、スプレーボトル180であり得る候補の物体を検出するようにプログラムされてもよく、且つ/又は、操作の実行を試みる前に、非一時的メモリ要素114に記憶される物体認識モジュールにより、スプレーボトル180を認識するようにプログラムされてもよい。ロボット100の検出精度を向上させるために、物体検出モジュールの物体検出パラメータを調整することが望ましい。同様に、ロボット100の認識精度を向上させるために、物体認識モジュールの物体認識パラメータを調整することが望ましい。
ここで、図2を参照すると、物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整する方法200のフローチャートを概略的に表す。一部の実施形態において、方法200は、1以上のプロセッサ110によって実行されるときに、物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を自動的に調整する機械可読命令の範囲内の論理として実行することができる。方法200は特定のシーケンスを表しているが、本開示の付加的な実施形態がいかなる特定のシーケンスにも限定されていないことに留意すべきである。
ここで、図1〜2を参照すると、ブロック210で、ロボット100は、作動空間101を表す画像データを受信する。上述するように、一部の実施形態において、ロボット100は、作動空間101内で作動し、画像取込装置102a、102bから作動空間101の画像データを取り込み、記憶及び/又は処理のために、1以上のプロセッサ110及び/又はデータ記憶装置112に、作動空間101の取り込まれた画像データを送信するように、構成される。一部の実施形態において、ロボット100は、任意の通信モジュール120などを経由して、ロボット100の外部供給源から画像データを受信することができる。
ブロック210で受信される画像データは、赤/緑/青(「RGB」)データ、奥行き画像データ(depth image data)、三次元(「3D」)点データなどであるが、これらに限定されない、種々の形式のデータであってもよい。一部の実施形態において、ロボット100は、画像取込装置102a、102bと統合される赤外線センサ又は奥行きセンサなどの、赤外線センサ又は他の奥行きセンサから奥行き画像データを受信することができる。奥行きセンサ(例えば、赤外線センサ)を含む他の実施形態において、奥行きセンサは、画像取込装置102a、102bから分離され得る。
更に、図1〜2を参照すると、ブロック220で、非一時的メモリ要素114に記憶される機械可読命令によって、1以上のプロセッサ110により実行されるときに、ロボット100は、ブロック210で受信された画像データに基づいて、物体検出モジュールにより候補の物体を検出する。一部の実施形態において、物体検出モジュールは、高エントロピーを含む画像の領域などの、受信された画像データの候補の領域を識別することによって、候補の物体を検出することができる。例えば、図1Aに表す実施形態において、物体検出モジュールは、スプレーボトル180を含む取り込まれた対象画像データにおいて、高エントロピー領域を検出することができる。一部の実施形態において、物体検出モジュールは、スライディングウィンドウアルゴリズムを利用して、受信された画像データの候補の領域を識別することができる。実施形態において、物体検出モジュールは、スケール不変特徴変換(scale-invariant feature transform)(「SIFT」)、スピードアップロバスト特徴(speeded up robust feature)(「SURF」)、勾配ヒストグラム(histogram of oriented gradients)(「HOG」)、汎用検索ツリー(generalized search tree)(「GIST」)、高速レティーナキーポイント(fast retina keypoint)(「FREAK」)、バイナリロバスト不変性スケーラブルキーポイント(binary robust invariant scalable keypoints)(「BRISK」)などの特徴記述子アルゴリズム(feature descriptor algorithm)又は画像記述子アルゴリズム(image descriptor algorithm)を利用することによって、候補の物体を検出することができる。一部の実施形態において、物体検出モジュールは、用途、光景の形状及び/又は過去の情報に基づいて、1以上の空間的に配置された目的の領域の検出にバイアスをかけることができる。
物体検出モジュールには、候補の物体の検出を容易にするための少なくとも1つの物体検出パラメータが含まれる。一部の実施形態において、少なくとも1つの物体検出パラメータは、ウィンドウサイズ、ノイズフィルタリングパラメータ、推定光量、推定ノイズレベル、特徴記述子パラメータ、画像記述子パラメータなどである。
更に、図1〜2を参照すると、ブロック230で、非一時的メモリ要素114に記憶される機械可読命令によって、1以上のプロセッサ110により実行されるとき、ロボット100は、ブロック210で受信される画像データに基づいて、物体認識モジュールにより物体を認識する。一部の実施形態において、物体認識モジュールは、物体検出モジュールによって識別される候補の領域に基づいて、物体を認識することができる。
スケール不変特徴変換(「SIFT」)、スピードアップロバスト特徴(「SURF」)、勾配ヒストグラム(「HOG」)、汎用検索ツリー(「GIST」)、高速レティーナキーポイント(「FREAK」)、バイナリロバスト不変性スケーラブルキーポイント(「BRISK」)などの特徴記述子アルゴリズム又は画像記述子アルゴリズムを利用することによって、候補の物体を認識することができる。物体認識モジュールが特徴記述子アルゴリズム又は画像記述子アルゴリズムを利用する一部の実施形態において、物体認識モジュールは、物体検出モジュールによって識別される候補の領域から特徴の集合を抽出することができる。そして、物体認識モジュールは、非一時的メモリ要素114又はデータ記憶装置112に記憶された物体認識データベースから物体認識参照モデルの特徴の参照集合にアクセスし、抽出された特徴の集合と物体認識参照モデルの特徴の参照集合とを比較することができる。例えば、図1Aに表す実施形態において、物体認識モジュールは、スプレーボトル180を含む取り込まれた対象画像データの高エントロピー領域から特徴の集合を抽出して、抽出された特徴の集合と1以上の参照スプレーボトルモデルの特徴の参照集合とを比較してもよい。抽出された特徴の集合が特徴の参照集合に適合するとき、物体認識モジュールは、物体を認識することができる(例えば、スプレーボトル180を含む取り込まれた対象画像データの高エントロピー領域から抽出された特徴の集合が、参照スプレーボトルモデルの特徴の参照集合と適合するときに、スプレーボトルを認識する。)。抽出された特徴の集合が特徴の参照集合に適合しないとき、物体認識エラーが生じる(例えば、物体認識エラーは、物体認識参照モデルが候補の物体と適合しないことを示す。)。物体認識エラーが生じたとき(例えば、図1Aの例を参照すると、参照スプレーボトルモデルは、非一時的メモリ要素114又はデータ記憶装置112に存在しない。)、少なくとも1つの物体検出パラメータは、ブロック225に関して以下に説明するように、物体検出モジュールの精度を向上させるように調整されてもよい。
一部の実施形態において、物体認識モジュールは、認識された物体に識別子を割り当てることができる。例えば、識別子は、物体カテゴリ識別子(例えば、抽出された特徴の集合が、「スプレーボトルカテゴリ」の特徴の参照集合に適合する場合には「スプレーボトル」とされるか、若しくは、抽出された特徴の集合が、「カップ」物体カテゴリの特徴の参照集合に適合する場合には「カップ」とされる。)であってもよいし、又は、特定の物体インスタンスの識別子(例えば、抽出された特徴の集合が、「私のスプレーボトル」物体インスタンスの特徴の参照集合に適合する場合には「私のスプレーボトル」とされるか、若しくは、抽出された特徴の集合が、特定の「私のカップ」物体インスタンスの特徴の参照集合に適合する場合には「私のカップ」とされる。)であってもよい。識別子は、ブロック240に関して以下に説明するように、ポーズ推定モジュールによって用いられてもよい。
物体認識モジュールは、物体の認識を容易にするための少なくとも1つの物体認識パラメータを含む。一部の実施形態において、少なくとも1つの物体認識パラメータは、ウィンドウサイズ、ノイズフィルタリングパラメータ、推定光量、推定ノイズレベル、特徴記述子パラメータ、画像記述子パラメータなどである。
更に、図1〜2を参照すると、ブロック240で、非一時的メモリ要素114に記憶される機械可読命令によって、1以上のプロセッサ110によって実行されるとき、ロボット100は、ブロック210で受信される画像データに基づいて、ポーズ推定モジュールにより認識された物体のポーズを推定する。一部の実施形態において、ポーズ推定モジュールは、物体検出モジュールによって識別される候補の領域、及び、物体認識モジュールによって提供される認識された物体の識別子に基づいて、物体のポーズを推定することができる。
一部の実施形態において、ポーズ推定モジュールは、スケール不変特徴変換(「SIFT」)、スピードアップロバスト特徴(「SURF」)、勾配ヒストグラム(「HOG」)、汎用検索ツリー(「GIST」)、高速レティーナキーポイント(「FREAK」)、バイナリロバスト不変性スケーラブルキーポイント(「BRISK」)などの特徴記述子アルゴリズム又は画像記述子アルゴリズムを利用することによって、認識された物体のポーズを推定することができる。ポーズ推定モジュールが特徴記述子アルゴリズム又は画像記述子アルゴリズムを利用する、一部の実施形態において、ポーズ推定モジュールは、物体検出モジュールによって識別される候補の領域から特徴の集合を抽出することができる。そして、ポーズ推定モジュールは、非一時的メモリ要素114又はデータ記憶装置112に記憶されたポーズ推定データベースからポーズ推定参照モデルの特徴の参照集合にアクセスし、抽出された特徴の集合とポーズ推定参照モデルの特徴の参照集合とを比較することができる。例えば、図1Aに表す実施形態において、ポーズ推定モジュールは、スプレーボトル180を含む取り込まれた対象画像データの高エントロピー領域から特徴の集合を抽出して、複数の位置及び/又は配向で、抽出された特徴の集合と一連の高解像度参照スプレーボトルモデル特徴の参照集合とを比較することができる。抽出された特徴の集合が特徴の参照集合に適合するとき、ポーズ推定モジュールは、物体のポーズ(例えば、位置及び/又は配向)を推定することができる(例えば、図1Aの例を参照すると、高解像度の参照スプレーボトルモデルが、候補の領域から抽出された特徴の集合に適合するとき、スプレーボトルのポーズは、適合した参照モデルのポーズと推定することができる。)。抽出された特徴の集合が特徴の参照集合に適合しないとき、ポーズ推定モジュールは、ポーズ推定エラーが生じたと決定し、ポーズ推定エラーの程度を算出することができる。ポーズ推定エラーが生じたとき、少なくとも1つの物体認識パラメータ及び/又は少なくとも1つの物体検出パラメータは、ブロック225及び235に関して以下に説明するように、物体検出モジュール及び/又は物体認識モジュールの精度を向上させるために調整されてもよい。
ポーズ推定モジュールは、特徴記述子又は画像記述子を利用すること以外の多くの方法で、認識された物体のポーズを推定できることを理解する必要がある。例えば、一部の実施形態において、ポーズ推定モジュールは、候補の領域を、三次元のモデル又は複数の二次元のモデルと比較することによって、認識された物体のポーズを推定することができる。一部の実施形態において、候補の領域が比較されるモデルは、物体認識モジュールによって提供される識別子に基づき得る。
更に、図1〜2を参照すると、ブロック250で、非一時的メモリ要素114に記憶される機械可読命令によって、1以上のプロセッサ110により実行されるとき、ロボット100は、移動装置104a、104b、アーム106a、106b、把持アセンブリ108a、108b、及び、1以上の物体の操作を達成するようにロボット100に含まれ得る他の任意の外部構成要素を制御するために、アクチュエータ駆動ハードウェア154に制御信号を送信する。一部の実施形態において、ブロック250のロボット操作は、ポーズ推定モジュールによって提供される6つの自由角度の出力に基づき得る。
上述するように、物体認識エラーが生じたとき、少なくとも1つの物体検出パラメータは、物体検出モジュールの精度を向上させように調整することができる。同様に、ポーズ推定エラーが生じたとき、少なくとも1つの物体認識パラメータ及び/又は少なくとも1つの物体検出パラメータは、以下に説明するように、物体検出モジュール及び/又は物体認識モジュールの精度を向上させるように調整することができる。
更に、図1〜2を参照すると、ブロック225で、非一時的メモリ要素114に記憶される機械可読命令によって、1以上のプロセッサ110により実行される場合、ロボット100は、ポーズ推定エラーが生じたとき又は物体認識エラーが生じたときに、物体検出モジュールの少なくとも1つの物体検出パラメータを、検出チューナーモジュールによって調整する。非限定例として、一部の実施形態では、検出チューナーモジュールは、ポーズ推定エラーが生じたとき又は物体認識エラーが生じたときに、物体検出モジュールによって利用されるウィンドウサイズを調整することができる。一部の実施形態において、検出チューナーモジュールには検出チューナーモデルが含まれ、検出チューナーモデルは、ポーズ推定エラー、物体認識エラー、又は、ポーズ推定エラーと物体認識エラーの双方に基づいて、少なくとも1つの物体検出パラメータを調整する。一部の実施形態において、検出チューナーモデルは、ポーズ推定エラー、物体認識エラー、又は、ポーズ推定エラーと物体認識エラーの双方を、調整された少なくとも1つの物体検出パラメータにマッピングする。一部の実施形態において、検出チューナーモデルは、サポートベクターマシン(「SVM」)モデルなどの学習相関モデルである。
更に、図1〜2を参照すると、ブロック235で、非一時的メモリ要素114に記憶される機械可読命令によって、1以上のプロセッサ110により実行されるとき、ロボット100は、ポーズ推定エラーが生じたときに、物体認識モジュールの少なくとも1つの物体認識パラメータを、認識チューナーモジュールによって調整する。限定しない例として、一部の実施形態では、認識チューナーモジュールは、ポーズ推定スケールエラーが生じたときに、物体認識モジュールによって利用されるウィンドウサイズを調整することができる。一部の実施形態において、認識チューナーモジュールには認識チューナーモデルが含まれ、認識チューナーモデルは、ポーズ推定エラーに基づいて、少なくとも1つの物体認識パラメータを調整する。一部の実施形態において、認識チューナーモデルは、ポーズ推定エラーを、調整された少なくとも1つの物体認識パラメータにマッピングする。一部の実施形態において、認識チューナーモデルは、サポートベクターマシン(「SVM」)モデルなどの学習相関モデルである。
物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整することによって、本明細書に説明するように、物体検出及び/又は物体認識の精度を向上させることができることを理解する必要がある。また、物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整することによって、本明細書に説明するように、経時的な光景変化の視覚的特徴(例えば、照明状態の変化、光景変化に存在する物体の数など)として、物体検出及び/又は物体認識の精度を向上させることができる。更に、物体検出パラメータ及び/又は物体認識パラメータを調整することによって、本明細書に説明するように、エラー検出を改良することができる(例えば、大きいポーズ推定エラーは、物体認識が不適切であることを示している可能性がある。)。更にまた、物体検出パラメータ及び/又は物体認識パラメータを調整することによって、本明細書に説明するように、迅速かつ効率的な物体検出及び/又は物体認識を容易にし、処理及びデータ記憶条件を減少させ、及び/又は、照明、視点などの変化に対する、物体検出及び/又は物体認識のロバスト性を増加させることができる。
本明細書において、特定の実施形態を示し説明してきたが、請求項に記載の主題の趣旨及び範囲から逸脱することなく、種々の他の変更及び改良ができることを理解する必要がある。更に、請求項に記載の主題の種々の態様を本明細書に説明してきたが、かかる態様は、組み合わせて利用される必要はない。したがって、添付の特許請求の範囲は、請求項に記載の主題の範囲内にある、すべてのかかる変更及び改良に及ぶものとする。
100 ロボット
101 作動空間
102a 画像取込装置
102b 画像取込装置
104a 移動装置
104b 移動装置
106a アーム
106b アーム
108a 把持アセンブリ
108b 把持アセンブリ
110 プロセッサ
112 データ記憶装置
114 非一時的メモリ要素
116 入/出力ハードウェア
120 任意の通信モジュール
130 通信経路
154 アクチュエータ駆動ハードウェア
180 スプレーボトル
190 対象物体画像
200 方法
210 ブロック
220 ブロック
225 ブロック
230 ブロック
235 ブロック
240 ブロック
250 ブロック

Claims (18)

  1. 少なくとも1つの物体認識パラメータを調整するための方法であって、
    デジタル画像データを受信することと、
    該デジタル画像データに基づいて、少なくとも1つの物体認識パラメータを含む物体認識モジュールによって自動的に物体を認識することと、
    識別子を、認識された前記物体に割り当てることと、
    受信された前記デジタル画像データの候補の領域を識別することと、
    識別された該候補の領域から特徴の集合を抽出することと、
    割り当てられた前記識別子に基づいて選択されたポーズ推定参照モデルの特徴の参照集合に、ポーズ推定データベースからアクセスすることと、
    識別された前記候補の領域の前記抽出された特徴の集合を、前記ポーズ推定参照モデルの前記特徴の参照集合と比較することと、
    識別された前記候補の領域の前記抽出された特徴の集合が前記ポーズ推定参照モデルの前記特徴の参照集合に適合しないときにポーズ推定エラーが生じたと決定することと、
    前記ポーズ推定エラーが生じたとの決定に対応して、少なくとも1つの前記物体認識パラメータを調整することと、を含む方法。
  2. 少なくとも1つの前記物体認識パラメータが、ウィンドウサイズ、ノイズフィルタリングパラメータ、推定光量、推定ノイズレベル、特徴記述子パラメータ、又は、画像記述子パラメータである、請求項1に記載の方法。
  3. 少なくとも1つの前記物体認識パラメータが認識チューナーモジュールによって調整され、
    前記認識チューナーモジュールが認識チューナーモデルを含み、
    前記認識チューナーモデルが前記ポーズ推定エラーに基づいて少なくとも1つの前記物体認識パラメータを調整する、請求項1に記載の方法。
  4. 前記認識チューナーモデルが、学習相関モデルである請求項3に記載の方法。
  5. 前記認識チューナーモデルが、前記ポーズ推定エラーを、調整された少なくとも1つの前記物体認識パラメータにマッピングする、請求項4に記載の方法。
  6. 前記デジタル画像データに基づいて、物体検出モジュールによって自動的に候補の物体を検出することを更に含み、
    前記物体検出モジュールが、少なくとも1つの物体検出パラメータを含み、
    前記物体が、検出された前記候補の物体に基づいて認識される、請求項1に記載の方法。
  7. 前記ポーズ推定エラーが生じたときに、少なくとも1つの前記物体検出パラメータを調整することを更に含む、請求項6に記載の方法。
  8. 少なくとも1つの前記物体検出パラメータが、ウィンドウサイズ、ノイズフィルタリングパラメータ、推定光量、推定ノイズレベル、特徴記述子パラメータ、又は、画像記述子パラメータである、請求項7に記載の方法。
  9. 少なくとも1つの前記物体検出パラメータが検出チューナーモジュールによって調整され、
    前記検出チューナーモジュールが検出チューナーモデルを含み、
    前記検出チューナーモデルが前記ポーズ推定エラーに基づいて少なくとも1つの物体検出パラメータを調整する、請求項7に記載の方法。
  10. 前記検出チューナーモデルが、前記ポーズ推定エラーを、調整された少なくとも1つの前記物体認識パラメータにマッピングする、請求項9に記載の方法。
  11. 物体認識エラーが生じたか否かを判断することと、
    該物体認識エラーが生じたときに、少なくとも1つの前記物体検出パラメータを調整することと、を更に含む、請求項6に記載の方法。
  12. 少なくとも1つの前記物体検出パラメータが検出チューナーモジュールによって調整され、
    前記検出チューナーモジュールが検出チューナーモデルを含み、
    前記検出チューナーモデルが前記ポーズ推定エラーに基づいて少なくとも1つの物体検出パラメータを調整する、請求項11に記載の方法。
  13. 前記物体認識モジュールが、
    物体認識データベースから物体認識参照モデルの特徴の参照集合にアクセスすることと、
    識別された前記候補の領域の抽出された前記特徴の集合を、前記物体認識参照モデルの前記特徴の参照集合と比較することと、
    によって、前記物体を認識する、請求項1に記載の方法。
  14. 前記識別子は、物体カテゴリ識別子又は特定の物体インスタンスの識別子である、請求項に記載の方法。
  15. 少なくとも1つの物体検出パラメータを調整するための方法であって、
    デジタル画像データを受信することと、
    該デジタル画像データに基づいて、少なくとも1つの物体検出パラメータを含む物体検出モジュールによって自動的に候補の物体を検出することと、
    検出された該候補の物体に基づいて、少なくとも1つの物体認識パラメータを含む物体認識モジュールによって物体を認識することと、
    物体認識エラーが生じたか否かを判断することと、
    該物体認識エラーが生じたとの決定に対応して、少なくとも1つの前記物体検出パラメータを調整することと、
    識別子を、認識された前記物体に割り当てることと、
    受信された前記デジタル画像データの候補の領域を識別することと、
    識別された該候補の領域から特徴の集合を抽出することと、
    ポーズ推定エラーが生じたか否かを判断することであって、
    割り当てられた前記識別子に基づいて選択されたポーズ推定参照モデルの特徴の参照集合に、ポーズ推定データベースからアクセスすること、
    識別された前記候補の領域の前記抽出された特徴の集合を、前記ポーズ推定参照モデルの前記特徴の参照集合と比較すること、及び、
    識別された前記候補の領域の前記抽出された特徴の集合が前記ポーズ推定参照モデルの前記特徴の参照集合に適合しないときに前記ポーズ推定エラーが生じたと決定すること
    によって判断することと、
    前記ポーズ推定エラーが生じたとの決定に対応して、少なくとも1つの前記物体認識パラメータを調整することと、を含む方法。
  16. 少なくとも1つの前記物体検出パラメータが、ウィンドウサイズ、ノイズフィルタリングパラメータ、推定光量、推定ノイズレベル、特徴記述子パラメータ、又は、画像記述子パラメータである、請求項15に記載の方法。
  17. 少なくとも1つの前記物体検出パラメータが検出チューナーモジュールによって調整され、
    該検出チューナーモジュールが検出チューナーモデルを含み、
    該検出チューナーモデルが前記物体認識エラーに基づいて少なくとも1つの前記物体検出パラメータを調整する、請求項15に記載の方法。
  18. ロボットであって、
    1以上のプロセッサと、
    1以上の該プロセッサと通信可能に接続された1以上の画像取込装置と、
    1以上の前記プロセッサと通信可能に接続された非一時的メモリ要素と、
    該非一時的メモリ要素に記憶され、少なくとも1つの物体検出パラメータを含む物体検出モジュールと、
    前記非一時的メモリ要素に記憶され、少なくとも1つの物体認識パラメータを含む物体認識モジュールと、
    前記非一時的メモリ要素に記憶された機械可読命令であって、1以上の前記プロセッサによって実行されたときに、当該ロボットに、少なくとも、
    1以上の前記画像取込装置からのデジタル画像データの受信と、
    該デジタル画像データに基づいた、前記物体検出モジュールによる候補の物体の検出と、
    検出された該候補の物体に基づいた、前記物体認識モジュールによる物体の認識と、
    物体認識エラーが生じたか否かの判断と、
    該物体認識エラーが生じたときの少なくとも1つの前記物体検出パラメータの調整と、
    識別子を、認識された前記物体に割り当てることと、
    受信された前記デジタル画像データの候補の領域を識別することと、
    識別された該候補の領域から特徴の集合を抽出することと、
    割り当てられた前記識別子に基づいて選択されたポーズ推定参照モデルの特徴の参照集合に、ポーズ推定データベースからアクセスすることと、
    識別された前記候補の領域の前記抽出された特徴の集合を、前記ポーズ推定参照モデルの前記特徴の参照集合と比較することと、
    識別された前記候補の領域の前記抽出された特徴の集合が前記ポーズ推定参照モデルの前記特徴の参照集合に適合しないときにポーズ推定エラーが生じたと決定することと、
    前記ポーズ推定エラーが生じたとの決定に対応して、少なくとも1つの前記物体認識パラメータの調整と
    を実行させる機械可読命令とを具備する、ロボット。
JP2013252773A 2012-12-06 2013-12-06 物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための方法及びロボット Expired - Fee Related JP6408216B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/706,809 US10572774B2 (en) 2012-12-06 2012-12-06 Methods and robots for adjusting object detection parameters, object recognition parameters, or both object detection parameters and object recognition parameters
US13/706,809 2012-12-06

Publications (3)

Publication Number Publication Date
JP2014116007A JP2014116007A (ja) 2014-06-26
JP2014116007A5 JP2014116007A5 (ja) 2017-01-26
JP6408216B2 true JP6408216B2 (ja) 2018-10-17

Family

ID=49725035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013252773A Expired - Fee Related JP6408216B2 (ja) 2012-12-06 2013-12-06 物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための方法及びロボット

Country Status (3)

Country Link
US (1) US10572774B2 (ja)
EP (1) EP2741235A3 (ja)
JP (1) JP6408216B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10217379B2 (en) * 2015-01-30 2019-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Modifying vision-assist device parameters based on an environment classification
US10037712B2 (en) 2015-01-30 2018-07-31 Toyota Motor Engineering & Manufacturing North America, Inc. Vision-assist devices and methods of detecting a classification of an object
US9569666B2 (en) 2015-02-25 2017-02-14 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for measuring image recognition accuracy
US9844881B2 (en) 2015-06-22 2017-12-19 GM Global Technology Operations LLC Robotic device including machine vision
EP3165206B1 (en) 2015-11-06 2020-12-30 Allen Medical Systems, Inc. Subject and surgical equipment monitoring system
US10515559B2 (en) 2017-08-11 2019-12-24 The Boeing Company Automated detection and avoidance system
US10921763B1 (en) * 2017-10-25 2021-02-16 Alarm.Com Incorporated Baby monitoring using a home monitoring system
CN108647781B (zh) * 2018-05-18 2021-08-27 中国科学院计算技术研究所 一种人工智能芯片处理装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2528813B2 (ja) * 1985-05-10 1996-08-28 株式会社日立製作所 制御装置
JP3434976B2 (ja) 1996-06-28 2003-08-11 三菱電機株式会社 画像処理装置
US5878151A (en) * 1996-10-31 1999-03-02 Combustion Engineering, Inc. Moving object tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6330356B1 (en) 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
US7206435B2 (en) * 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
AU2003280516A1 (en) 2002-07-01 2004-01-19 The Regents Of The University Of California Digital processing of video images
JP2008296330A (ja) * 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
US7957583B2 (en) 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
US7983487B2 (en) 2007-11-07 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for locating and picking objects using active illumination
US9165199B2 (en) 2007-12-21 2015-10-20 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
KR100951890B1 (ko) * 2008-01-25 2010-04-12 성균관대학교산학협력단 상황 모니터링을 적용한 실시간 물체 인식 및 자세 추정 방법
WO2010099035A1 (en) 2009-02-25 2010-09-02 Honda Motor Co., Ltd. Body feature detection and human pose estimation using inner distance shape contexts
EP2249292A1 (en) * 2009-04-03 2010-11-10 Siemens Aktiengesellschaft Decision making mechanism, method, module, and robot configured to decide on at least one prospective action of the robot
ES2384928B1 (es) 2010-06-25 2013-05-20 Telefónica, S.A. Método y sistema para la identificación rápida y robusta de productos específicos en imágenes.
JP5782760B2 (ja) 2011-03-14 2015-09-24 オムロン株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び、波形データ処理装置
US8467596B2 (en) * 2011-08-30 2013-06-18 Seiko Epson Corporation Method and apparatus for object pose estimation
US9092698B2 (en) * 2012-06-21 2015-07-28 Rethink Robotics, Inc. Vision-guided robots and methods of training them

Also Published As

Publication number Publication date
EP2741235A3 (en) 2016-11-09
US10572774B2 (en) 2020-02-25
JP2014116007A (ja) 2014-06-26
EP2741235A2 (en) 2014-06-11
US20140161345A1 (en) 2014-06-12

Similar Documents

Publication Publication Date Title
JP6408216B2 (ja) 物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための方法及びロボット
US8768071B2 (en) Object category recognition methods and robots utilizing the same
US10807236B2 (en) System and method for multimodal mapping and localization
US11051000B2 (en) Method for calibrating cameras with non-overlapping views
JP6475772B2 (ja) 視覚的測位によるナビゲーション装置およびその方法
US10710244B2 (en) Robot control using gestures
US20220324107A1 (en) Performance recreation system
Li et al. Automated visual positioning and precision placement of a workpiece using deep learning
US20220351389A1 (en) Method and computing system for processing candidate edges
US11119498B2 (en) Systems and methods for simulation utilizing a segmentable monolithic mesh
US20230300312A1 (en) Omnidirectional image-capturing assembly and method executed by same
Kaymak et al. Implementation of object detection and recognition algorithms on a robotic arm platform using raspberry pi
Choi et al. Multi‐robot mapping using omnidirectional‐vision slam based on fisheye images
CN114187312A (zh) 目标物的抓取方法、装置、系统、存储介质及设备
EP2741255B1 (en) Method, system, and robot for processing omni-directional image data
Putri et al. Object detection and tracking using SIFT-KNN classifier and Yaw-Pitch servo motor control on humanoid robot
JP6431495B2 (ja) 教師データ生成方法
Schmidt et al. The calibration of the pan-tilt units for the active stereo head
Walter et al. Vision-based reacquisition for task-level control
Figueiredo et al. Self-organizing mapping of robotic environments based on neural networks
Cuong et al. An application of movement direction control for the three wheeled mobile robots using visual information
Sumikura et al. Scale Estimation of Monocular SfM for a Multi-modal Stereo Camera
Peng et al. Vision-Based Manipulator Grasping
KR20230051895A (ko) 학습 데이터 수집 시스템 및 방법
GHOSH et al. INTELLIGENT AGENT DRIVEN FEATURE EXTRACTION SYSTEM

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180920

R150 Certificate of patent or registration of utility model

Ref document number: 6408216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees