JP5820297B2 - 物体認識システム、物体認識装置 - Google Patents
物体認識システム、物体認識装置 Download PDFInfo
- Publication number
- JP5820297B2 JP5820297B2 JP2012030120A JP2012030120A JP5820297B2 JP 5820297 B2 JP5820297 B2 JP 5820297B2 JP 2012030120 A JP2012030120 A JP 2012030120A JP 2012030120 A JP2012030120 A JP 2012030120A JP 5820297 B2 JP5820297 B2 JP 5820297B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- photographed
- image
- camera
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Description
図1は、本発明の実施形態1に係る物体認識システム1000の構成を示すブロック図である。物体認識システム1000は、ある空間に新たに置かれた物体を認識するためのシステムであり、N台のカメラ101、通信部102、情報処理装置110、ロボット120を備える。以降の説明では、物体認識システム1000が対象とする空間を認識対象空間と表記し、物体認識システム1000が認識対象とする物体を認識対象物体と表記する。
[参考文献1]Youji FUKADA, "Calculation of Camera Parameters Utilizing Rotation Mechanism", The Transactions of the IEICE Vol.J76-D-II, No.9, pp.1922-1931。
[参考文献2]Pablo Arbela´ez et al. "Contour Detection and Hierarchical Image Segmentation ", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.33, No.5, May 2011
[参考文献3]Atsushi HASHIMOTO et al. "TexCut: Background Subtraction by Texture Comparison on Graph Cut", The Transactions of the IEICE D, Vol.J94-D, No.6, pp1007-1016, 2011。
[参考文献4]Richard A. Newcombe et al. "Live dense reconstruction with a single moving camera", IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2010, pp1498-1505, 2010
[参考文献5]Kenichi KANATANI, "3-D Reconstruction from Two Uncalibrated Views and Its Reliability Evaluation", Transactions of IPSJ, Vol.42, No.SIG 6(CVIM 2), pp.1-8, 2001。
[参考文献6]Hideki NAKAYAMA et al. "Image Annotation and Retrieval Method for Large-Scale Web Images", The Transactions of the IEICE D, Vol.J93-D, No.8, pp1267-1280, 2010。
(図5:ステップS501〜S502)
画像入力部1121は、カメラ101から動画像を取得する(S501)。物体領域抽出部1122は、画像入力部1121が取得した動画像を用いて、画像上の座標のうち認識対象空間に新たに置かれた物体の場所を示す領域を算出する(S502)。
(図5:ステップS503〜S505)
3次元位置推定部1123は、物体領域抽出部1122から得た物体領域の座標を認識対象空間の3次元座標に変換する(S503)。3次元形状推定部1125は、画像入力部1121から得た動画像と物体領域抽出部1122から得た物体領域から、物体の3次元構造を復元する(S504)。物体認識部1124は、物体領域抽出部1122から得た物体領域を解析し、物体名の候補を抽出する(S505)。ステップS503〜S505は、並列的に実行してもよいし順次実行してもよい。
(図7:ステップS701)
物体配置関係算出部1131は、地図・物体情報データベース111内に存在する物体1〜物体Nの重心座標と、3次元位置推定部1123から得た認識対象物体の重心座標との間の3次元距離を算出する。
(図7:ステップS702)
物体配置関係算出部1131は、物体1〜物体Nのうち、ステップS701で算出した3次元距離が所定閾値より小さい物体については、認識対象物体の周辺に配置されていると判定し、任意のID、重心間距離を関連付けて地図・物体情報データベース111に格納する。さらに、各物体に関する情報を地図・物体情報データベース111から取り出して移動目標算出部1132に出力する。以降、地図・物体情報データベース111内に存在する物体1〜物体Nのうち、認識対象物体の周辺に配置されたと判定されたM個の物体を周辺物体1〜周辺物体Mと表記する。
物体配置関係算出部1131は、認識対象物体がロボットの腕部などと接触したときに現在位置から大きく移動するか否かを判定する。ここでは、認識対象物体が他の物体上の端部に配置されている場合、ロボットの腕部等が接触すると落下して位置が大きく変動する場合を例に説明する。具体的には、認識対象物体がX−Z平面である物体に接触している、つまり認識対処物体がある物体上に配置されており、さらに、認識対処物体がX−Z平面で接触している物体の端に配置されている場合は、ロボットの腕部などが接触したとき現在位置から大きく移動すると判定する。
(図7:ステップS703)
物体配置関係算出部1131は、周辺物体1〜周辺物体Mと認識対象物体のそれぞれに対して、3次元形状モデルを用いて、物体を囲む直方体を算出する。この直方体は、各物体の端部を簡易的に表している。
(図7:ステップS704)
物体配置関係算出部1131は、周辺物体1〜周辺物体Mのなかで、当該周辺物体を囲む直方体が認識対象物体を囲む直方体とY軸上で接触または重なっているものを求める。重なっている周辺物体については認識対象物体と接触していると判定し、後続の処理を実行する。以降、認識対象物体と接触していると判定された周辺物体を、接触物体1〜接触物体Rと表記する。
(図7:ステップS705)
物体配置関係算出部1131は、接触物体1〜接触物体Rそれぞれに対して、認識対象物体が接触物体上の端部に配置されているか否かを判定する。具体的には、認識対象物体と接触物体1〜接触物体Rそれぞれについて、ステップS703で求めた直方体をX−Z平面上で切り出した部分平面を取り出す。認識対象物体の部分平面と接触物体の部分平面それぞれの各辺同士の距離が所定閾値より小さいものが存在する場合は、認識対象物体は接触物体の端部に配置されていると判定し、地図・物体情報データベース111の配置状態を「接触により移動の恐れある状態で存在」している旨の値にセットする。
認識対象物体がロボットの腕部などと接触した場合に現在位置から大きく移動する状況は、本例に限らない。例えば認識対象物体が球状をしている場合は、認識対象物体の周辺物体1〜周辺物体Mに関らずロボットの腕部などが接触することによって現在位置から大きく移動する恐れがあるため、地図・物体情報データベース111の配置状態を無条件に「接触により移動の恐れある状態で存在」としてもよい。
(図7:ステップS703〜S705:補足その2)
本フローチャートでは、認識対象物体の配置状態を「接触により移動の恐れある状態で存在」またはそれ以外の2つの状態のみを考慮したが、認識対象物体の配置状態はこれに限られるものではない。例えば、認識対象物体の配置状態として、接触物体の端からの距離に応じた連続値を地図・物体情報データベース111登録するようにしてもよい。この場合、腕部動作決定部1133は認識対象物体の配置状態の連続値に応じて、腕部を認識対象物体へ接触させる面積やスピードなどを設定する。これにより、ロボット120は認識対象物体の配置状態に応じて連続的な接触操作をすることができる。
(図9:ステップS901)
移動目標算出部1132は、ロボット120が腕部を認識対象物体に接触させることができる、認識対象物体とロボット120との間の距離Rを算出する。
(図9:ステップS902)
移動目標算出部1132は、認識対象物体の重心802を中心とし、距離Rを半径とするX−Z平面上の円を算出する。
移動目標算出部1132は、ステップS902で算出した円上の各点のうち、認識対象物体の周辺にある物体(図8の例では物体804)を囲む立方体のX−Z平面と重なる円弧C2、および重ならない円弧C1を算出する。
(図9:ステップS904)
移動目標算出部1132は、円弧C1のうち、ロボット120の現在位置から最も近い点をロボット120の移動目標に設定する。移動目標の設定は、円弧C1上の点であればどこまでも構わない。また、移動目標を円弧C1上の点に複数設定し、認識対象物体を複数回撮影するようにしてもよい。その場合、腕部動作決定部1133も後述の処理フローを移動回数実行するようにしてもよい。
(図10:ステップS1001)
腕部動作決定部1133は、物体配置関係算出部1131が算出した認識対象物体の配置状態を、地図・物体情報データベース111から取得する。配置状態が「接触により移動の恐れある状態で存在」である場合はステップS1002へ進み、それ以外であればステップS1003へ進む。
(図10:ステップS1002)
腕部動作決定部1133は、ロボット120の腕部を認識対象物体に接触させることは不可と判断し、「腕部動作なし」を示すメッセージをロボット制御指示生成部1134に出力する。
(図10:ステップS1003)
腕部動作決定部1133は、ロボット120の腕部を認識対象物体に接触させることができると判断し、「腕部を認識対象物体へ接触させて動作」を示すメッセージをロボット制御指示生成部1134に出力する。
(図11:ステップS1101)
制御部124は、ロボット撮像方法決定部113から送信されたメッセージを受信し、そのメッセージから、認識対象物体の3次元位置、ロボット120の移動目標位置、ロボット120の腕部動作指示を抽出する。
(図11:ステップS1102〜S1103)
制御部124は、移動機構125を制御し、ステップS1101で抽出した目標位置にロボット120を移動させる(S1102)。制御部124は、移動機構125を制御し、ステップS1101で抽出した認識対象物体の重心に向かう方向にロボット120を方向転換させ、ロボット120が備えるカメラ画像内に認識対象物体が入り、かつ腕部機構126を用いて認識対象物体を動かせるように姿勢を調整する(S1103)。
ステップS1101で抽出した腕部動作指示が「腕部を認識対象物体へ接触させて動作」である場合はステップS1105へ進み、それ以外であればステップS1106へスキップする。
(図11:ステップS1105)
制御部124は、腕部機構126を制御し、腕部を動作させて認識対象物体に接触させて動かす。例えば、ロボット120が認識対象物体の所望箇所を撮影できるように、認識対象物の位置や向きを腕部によって調整する。具体的な手法は、例えば特許文献1に記載されている手法を用いればよい。
(図11:ステップS1106)
制御部124は、ロボットカメラ121〜122を起動して画像を撮影する。制御部124は、ロボットカメラ121〜122が撮影した動画像をロボットカメラ画像処理部114に送信する。また、動画像を受信できるようにロボット画像処理部114へその旨のメッセージを送信する。
以上のように、本実施形態1に係る物体認識システム1000は、認識対象物体とその周辺物体との間の配置関係を、認識対象空間を俯瞰的に撮影する環境カメラによって客観的に(ロボット120よりも広範な視野範囲で)把握し、これに基づき、ロボット120の腕部によって認識対象物体を動かす手順を決定する。これにより、ロボット120は認識対象物体の外観を確実に撮影できるように、認識対象物体を動かすことができるので、認識性能を向上させることができる。なお、必ずしも認識対象物体の外観全体を撮影することができる必要はなく、所望の範囲内で撮影できればよい。以下の実施形態においても同様である。
本発明の実施形態2では、認識対象物体の周辺に、認識対象物を隠す障害物が存在しており、ロボット120はその障害物を避けて認識対象物を撮影することができる位置まで移動する動作例を説明する。本実施形態2に係る物体認識システム1000は、移動目標算出部1132の処理フロー以外は実施形態1と同様であるため、以下では差異点を中心に説明する。
(図14:ステップS1401)
ステップS901からステップS903までは、図3と同様である。
(図14:ステップS1402)
移動目標算出部1132は、円弧C1上の点の中で、認識対象物体の重心802に向かう直線が障害物1204を囲む立方体のX−Z平面と重なる点の集合C4と、重ならない点の集合C3を算出する。
(図14:ステップS1403)
移動目標算出部1132は、円弧C3の中でロボット120の現在位置から最も近い位置をロボット120の移動目標に設定する。移動目標の設定は、円弧C3上の位置であればどこまでも構わない。
以上のように、本実施形態2に係る物体認識システム1000は、認識対象空間内に認識対象物の他に新たな障害物1204が置かれた場合、環境カメラ101が撮影した画像に基づきこれら物体の配置関係を算出し、ロボット120から見て認識対象物体が障害物1204により隠れない位置までロボット120を移動させる。これにより、障害物1204が存在している場合でも、ロボット120は認識対象物体の外観を確実に撮像できるので、ロボット120による物体の認識性能が向上する。
本発明の実施形態3では、実施形態2で説明した障害物1204を腕部機構126によって動かすことができる場合の動作例を説明する。本実施形態3に係る物体認識システム1000は、移動目標算出部1132と腕部動作決定部1133の入出力および処理フローを除いて実施形態1と同様であるため、以下では差異点を中心に説明する。
(図17:ステップS1701〜S1702)
移動目標算出部1132は、図9で説明したステップS901からステップS903(S1701)、および図14で説明したステップS1402(S1702)を実行する。
(図17:ステップS1703)
移動目標算出部1132は、障害物1204が存在する場合、障害物1204に関する情報を地図・物体情報データベース111から取り出し、腕部動作決定部1133に出力する。
移動目標算出部1132は、認識対象物体を障害物1204に置き換えて、ステップS901からステップS903と同様の処理を実行し、円弧C5を算出する。
(図17:ステップS1705)
移動目標算出部1132は、円弧C5のうち、ロボット120の現在位置から最も近い点を第1移動目標に設定する。第1移動目標の設定は、円弧C5上の点であればどこでも構わない。
(図17:ステップS1706)
移動目標算出部1132は、円弧C3と円弧C4を合わせた円弧の中でロボット120の現在位置から最も近い位置を第2移動目標に設定する。第2移動目標の設定は、円弧C3と円弧C4を合わせた円弧上の位置であればどこでも構わない。
(図18:ステップS1801)
腕部動作決定部1133は、移動目標算出部1132から受け取った障害物1204の情報から配置状態を取り出す。その配置状態が「接触により移動の恐れある状態で存在」であればステップS1802へ進み、それ以外の場合はステップS1804へ進む。
(図18:ステップS1802)
腕部動作決定部1133は、ロボット120の腕部を障害物1204に接触させることは不可と判断し、第1移動目標を円弧C3の中でロボット120の現在位置から最も近い位置に設定しなおし、第2移動目標を削除する。
障害物1204を動かすことができない場合、障害物1204が邪魔になるので、認識対象物体を動かすこともできないと思われる。そこで腕部動作決定部1133は、「腕部動作なし」を示すメッセージをロボット制御指示生成部1134に出力する。
(図18:ステップS1804)
腕部動作決定部1133は、腕部を障害物1204に接触させて動かすことができると判断し、障害物1204の移動先を、円弧C3と円弧C4を合わせた円弧と認識対象物体の重心802を結ぶ扇形領域以外の範囲に設定する。
腕部動作決定部1133は、第1腕部動作として「腕部を障害物1204へ接触させて移動先に移動させる」を示すメッセージをロボット制御指示生成部1134に送信する。
(図18:ステップS1806)
腕部動作決定部1133は、障害物1204を動かした後に認識対象物体の位置と向きを調整するため、第2腕部動作として「腕部を認識対象物体へ接触させて動作」を示すメッセージをロボット制御指示生成部1134に出力する。
以上のように、本実施形態3に係る物体認識システム1000は、認識対象空間内に認識対象物の他に新たな障害物1204が置かれた場合、環境カメラ101が撮影した画像に基づきこれら物体の配置関係を算出し、ロボット120から見て認識対象物体が障害物1204により隠れない位置まで障害物1204を移動させる。これにより、障害物1204が存在している場合でも、ロボット120は認識対象物体の外観を確実に撮像できるので、ロボット120による物体の認識性能が向上する。
図20は、本発明の実施形態4に係る物体認識システム1000のうち情報処理装置110の周辺構成を抜粋した構成図である。本実施形態4に係る物体認識システム1000は、実施形態1〜3で説明した構成に加えて、新たに通知部103を備える。また情報処理装置110は、通知処理部115を備える。その他の構成は実施形態1〜3と同様であるため、以下では差異点を中心に説明する。なお図20において、一部の構成要素を省略していることを付言しておく。
以上のように、本実施形態4に係る物体認識システム1000は、環境カメラ101が撮影した画像上で認識対象物体を隠す障害物1204が存在する場合、その旨を示す通知メッセージを生成し、通知部103を介してユーザに通知する。これにより、環境カメラ101が認識対象物体を確実に撮像できるように障害物1204を動かすことを促し、認識対象物体の認識性能を向上させることができる。
Claims (13)
- 被撮影物の周辺に移動して前記被撮影物を撮影するロボットと、
前記被撮影物周辺の空間を撮影する環境カメラと、
前記環境カメラが撮影した画像と前記ロボットが撮影した画像を用いて前記空間内に存在する物体を認識する情報処理装置と、
を備えた物体認識システムであって、
前記ロボットは、
前記情報処理装置の指示にしたがって物体を動かす機構をさらに備えており、
前記情報処理装置は、
前記環境カメラが撮影した画像を用いて前記被撮影物の配置状態を認識し、
前記認識した前記被撮影物の配置状態に基づき、前記機構を用いて前記被撮影物を動かす手順を決定して前記ロボットにその手順および前記被撮影物を動かした後に前記被撮影物を撮影すべき旨の指示を送信し、
前記ロボットが前記手順および前記指示にしたがって撮影した前記被撮影物の画像を取得し、その画像に基づき前記被撮影物を認識し、
前記物体認識システムは、
前記環境カメラが撮影した画像および前記ロボットが撮影した画像を用いて前記情報処理装置が認識した物体についての情報を格納するデータベースをさらに備え、
前記情報処理装置は、
前記空間中に新たに前記被撮影物が置かれた場合に、前記環境カメラが撮影した画像を用いて前記新たに置かれた前記被撮影物を認識し、
前記データベースから前記新たに置かれた前記被撮影物よりも過去に前記空間中に置かれた物体についての情報を取り出し、
前記過去に置かれた物体についての情報と前記新たに置かれた前記被撮影物についての情報を用いて、前記過去に置かれた物体と前記新たに置かれた前記被撮影物との間の配置関係を算出し、
前記機構が前記新たに置かれた前記被撮影物を動かした場合に発生する前記新たに置かれた前記被撮影物の運動を、前記配置関係を用いて算出し、
前記情報処理装置の指示にしたがって前記ロボットが前記被撮影物を撮影できるように、前記算出した運動に基づいて、前記機構が前記新たに置かれた前記被撮影物を動かす手順を決定する
ことを特徴とする物体認識システム。 - 被撮影物の周辺に移動して前記被撮影物を撮影するロボットと、
前記被撮影物周辺の空間を撮影する環境カメラと、
前記環境カメラが撮影した画像と前記ロボットが撮影した画像を用いて前記空間内に存在する物体を認識する情報処理装置と、
を備えた物体認識システムであって、
前記ロボットは、
前記情報処理装置の指示にしたがって物体を動かす機構をさらに備えており、
前記情報処理装置は、
前記環境カメラが撮影した画像を用いて前記被撮影物の配置状態を認識し、
前記認識した前記被撮影物の配置状態に基づき、前記機構を用いて前記被撮影物を動かす手順を決定して前記ロボットにその手順および前記被撮影物を動かした後に前記被撮影物を撮影すべき旨の指示を送信し、
前記ロボットが前記手順および前記指示にしたがって撮影した前記被撮影物の画像を取得し、その画像に基づき前記被撮影物を認識し、
前記情報処理装置は、
前記環境カメラが撮影した画像を用いて認識した前記空間内に存在する物体の認識信頼度を算出し、
前記認識信頼度が所定閾値未満である場合は、前記ロボットが撮影した画像を補完的に用いて、前記空間内に存在する物体を認識する
ことを特徴とする物体認識システム。 - 被撮影物の周辺に移動して前記被撮影物を撮影するロボットと、
前記被撮影物周辺の空間を撮影する環境カメラと、
前記環境カメラが撮影した画像と前記ロボットが撮影した画像を用いて前記空間内に存在する物体を認識する情報処理装置と、
を備えた物体認識システムであって、
前記ロボットは、
前記情報処理装置の指示にしたがって物体を動かす機構をさらに備えており、
前記情報処理装置は、
前記環境カメラが撮影した画像を用いて前記被撮影物の配置状態を認識し、
前記認識した前記被撮影物の配置状態に基づき、前記機構を用いて前記被撮影物を動かす手順を決定して前記ロボットにその手順および前記被撮影物を動かした後に前記被撮影物を撮影すべき旨の指示を送信し、
前記ロボットが前記手順および前記指示にしたがって撮影した前記被撮影物の画像を取得し、その画像に基づき前記被撮影物を認識し、
前記物体認識システムは、
前記被撮影物の周辺に移動して前記被撮影物を撮影し、前記情報処理装置の指示にしたがって前記被撮影物の周辺に存在する物体を動かす第2機構を有する第2ロボットを備えており、
前記情報処理装置は、
前記ロボットが前記機構によって前記被撮影物を動かすことができない場合は、前記第2ロボットに対して前記手順および前記指示を送信する
ことを特徴とする物体認識システム。 - 被撮影物の周辺に移動して前記被撮影物を撮影するロボットと、
前記被撮影物周辺の空間を撮影する環境カメラと、
前記環境カメラが撮影した画像と前記ロボットが撮影した画像を用いて前記空間内に存在する物体を認識する情報処理装置と、
を備えた物体認識システムであって、
前記ロボットは、
前記情報処理装置の指示にしたがって物体を動かす機構をさらに備えており、
前記情報処理装置は、
前記環境カメラが撮影した画像を用いて前記被撮影物の配置状態を認識し、
前記認識した前記被撮影物の配置状態に基づき、前記機構を用いて前記被撮影物を動かす手順を決定して前記ロボットにその手順および前記被撮影物を動かした後に前記被撮影物を撮影すべき旨の指示を送信し、
前記ロボットが前記手順および前記指示にしたがって撮影した前記被撮影物の画像を取得し、その画像に基づき前記被撮影物を認識し、
前記物体認識システムは、
前記環境カメラが撮影した画像および前記ロボットが撮影した画像を用いて前記情報処理装置が認識した物体についての情報を格納するデータベースをさらに備え、
前記情報処理装置は、
前記空間中に新たに物体が置かれた場合に、前記環境カメラが撮影した画像を用いて前記新たに置かれた物体を認識し、
前記データベースから前記新たに置かれた物体よりも過去に前記空間中に置かれた前記被撮影物についての情報を取り出し、
前記過去に置かれた被撮影物についての情報と前記新たに置かれた物体についての情報を用いて、前記過去に置かれた被撮影物と前記新たに置かれた物体との間の配置関係を算出し、
前記機構が前記新たに置かれた物体を動かすことができる範囲のなかから、前記情報処理装置が指定した視野範囲で前記ロボットが前記被撮影物を撮影することができる位置を、前記配置関係を用いて算出し、
前記算出した位置に移動するように前記ロボットへ指示する
ことを特徴とする物体認識システム。 - 被撮影物の周辺に移動して前記被撮影物を撮影するロボットと、
前記被撮影物周辺の空間を撮影する環境カメラと、
前記環境カメラが撮影した画像と前記ロボットが撮影した画像を用いて前記空間内に存在する物体を認識する情報処理装置と、
を備えた物体認識システムであって、
前記ロボットは、
前記情報処理装置の指示にしたがって物体を動かす機構をさらに備えており、
前記情報処理装置は、
前記環境カメラが撮影した画像を用いて前記被撮影物の配置状態を認識し、
前記認識した前記被撮影物の配置状態に基づき、前記機構を用いて前記被撮影物を動かす手順を決定して前記ロボットにその手順および前記被撮影物を動かした後に前記被撮影物を撮影すべき旨の指示を送信し、
前記ロボットが前記手順および前記指示にしたがって撮影した前記被撮影物の画像を取得し、その画像に基づき前記被撮影物を認識し、
前記物体認識システムは、
前記環境カメラが撮影した画像および前記ロボットが撮影した画像を用いて前記情報処理装置が認識した物体についての情報を格納するデータベースをさらに備え、
前記情報処理装置は、
前記空間中に新たに物体が置かれた場合に、前記環境カメラが撮影した画像を用いて前記新たに置かれた物体を認識し、
前記データベースから前記新たに置かれた物体よりも過去に前記空間中に置かれた前記被撮影物についての情報を取り出し、
前記過去に置かれた被撮影物についての情報と前記新たに置かれた物体についての情報を用いて、前記過去に置かれた被撮影物と前記新たに置かれた物体との間の配置関係を算出し、
前記新たに置かれた物体が、前記ロボットから見て前記被撮影物を隠す位置に置かれている場合は、前記情報処理装置が指定した視野範囲で前記ロボットが前記被撮影物を撮影することができる位置まで、前記機構を用いて前記新たに置かれた物体を動かすように前記ロボットへ指示する
ことを特徴とする物体認識システム。 - 前記情報処理装置は、
前記新たに置かれた物体が複数存在する場合は、新たな前記被撮影物が置かれた場合にその外観が前記カメラまたは前記ロボットから見える範囲を最大化するような位置へ、前記機構を用いて前記複数の新たに置かれた物体をそれぞれ移動させるよう前記ロボットへ指示する
ことを特徴とする請求項5記載の物体認識システム。 - 前記情報処理装置は、
前記環境カメラが前記被撮影物を撮影する際に前記新たに置かれた物体が前記被撮影物の外観を隠す位置に存在する場合、
前記算出された配置関係に基づき、前記環境カメラから見て前記被撮影物の外観が見える位置まで、前記機構を用いて前記新たに置かれた物体を移動させるように前記ロボットへ指示する
ことを特徴とする請求項5記載の物体認識システム。 - 被撮影物の周辺に移動して前記被撮影物を撮影するロボットと、
前記被撮影物周辺の空間を撮影する環境カメラと、
前記環境カメラが撮影した画像と前記ロボットが撮影した画像を用いて前記空間内に存在する物体を認識する情報処理装置と、
を備えた物体認識システムであって、
前記ロボットは、
前記情報処理装置の指示にしたがって物体を動かす機構をさらに備えており、
前記情報処理装置は、
前記環境カメラが撮影した画像を用いて前記被撮影物の配置状態を認識し、
前記認識した前記被撮影物の配置状態に基づき、前記機構を用いて前記被撮影物を動かす手順を決定して前記ロボットにその手順および前記被撮影物を動かした後に前記被撮影物を撮影すべき旨の指示を送信し、
前記ロボットが前記手順および前記指示にしたがって撮影した前記被撮影物の画像を取得し、その画像に基づき前記被撮影物を認識し、
前記物体認識システムは、
前記情報処理装置が出力するメッセージを提示する提示部と、
前記メッセージに対する応答を受け取る通知部と、
をさらに備え、
前記情報処理装置は、
前記環境カメラまたは前記ロボットが前記被撮影物を撮影する際に前記被撮影物の外観を隠す位置に障害物が置かれている場合、その旨の前記メッセージを前記提示部に提示させ、
前記障害物を除去した旨の前記応答を前記通知部が受け取ると、前記環境カメラまたは前記ロボットを用いて前記被撮影物を改めて撮影する
ことを特徴とする物体認識システム。 - 前記情報処理装置は、
前記環境カメラが撮影した画像に基づき、前記機構が前記被撮影物を前記ロボットに対して正対させるために必要な回転量を示す回転パラメータを算出し、
前記回転パラメータを用いて前記被撮影物を動かして前記被撮影物を撮影するように前記ロボットへ指示することにより、前記被撮影物の正面画像を取得する
ことを特徴とする請求項1から8のいずれか1項記載の物体認識システム。 - 前記情報処理装置は、
前記環境カメラが撮影した画像に基づき、前記被撮影物の撮影数が不足している撮影方向を算出し、その撮影方向から前記被撮影物を撮影することができる位置に前記ロボットを移動させる
ことを特徴とする請求項1から9のいずれか1項記載の物体認識システム。 - 被撮影物の周辺に移動して前記被撮影物を撮影し、指示にしたがって物体を動かす機構を備えたロボットに対して、動作指示を送信するロボット動作決定部と、
前記被撮影物周辺の空間を撮影する環境カメラから撮像画像を処理する環境カメラ画像処理部と、
前記ロボットが撮影した画像を処理するロボットカメラ画像処理部と、
を備えた物体認識装置であって、
前記環境カメラ画像処理部は、
前記環境カメラが撮影した画像を用いて前記被撮影物の配置状態を認識し、
前記ロボット動作決定部は、
前記環境カメラ画像処理部が認識した前記被撮影物の配置状態に基づき、前記機構を用いて前記被撮影物を動かす手順を決定して前記ロボットにその手順および前記被撮影物を動かした後に前記被撮影物を撮影すべき旨の指示を送信し、
前記ロボットカメラ画像処理部は、
前記ロボットが前記手順および前記指示にしたがって撮影した前記被撮影物の画像を取得し、その画像に基づき前記被撮影物を認識し、
前記物体認識装置は、
前記環境カメラが撮影した画像および前記ロボットが撮影した画像を用いて認識した物体についての情報を格納するデータベースをさらに備え、
前記環境カメラ画像処理部は、
前記空間中に新たに物体が置かれた場合に、前記環境カメラが撮影した画像を用いて前記新たに置かれた物体を認識し、
前記データベースから前記新たに置かれた物体よりも過去に前記空間中に置かれた前記被撮影物についての情報を取り出し、
前記過去に置かれた被撮影物についての情報と前記新たに置かれた物体についての情報を用いて、前記過去に置かれた被撮影物と前記新たに置かれた物体との間の配置関係を算出し、
前記ロボット動作決定部は、
前記機構が前記新たに置かれた物体を動かすことができる範囲のなかから、指定した視野範囲で前記ロボットが前記被撮影物を撮影することができる位置を、前記配置関係を用いて算出し、
前記算出した位置に移動するように前記ロボットへ指示する
ことを特徴とする物体認識装置。 - 被撮影物の周辺に移動して前記被撮影物を撮影し、指示にしたがって物体を動かす機構を備えたロボットに対して、動作指示を送信するロボット動作決定部と、
前記被撮影物周辺の空間を撮影する環境カメラから撮像画像を処理する環境カメラ画像処理部と、
前記ロボットが撮影した画像を処理するロボットカメラ画像処理部と、
を備えた物体認識装置であって、
前記環境カメラ画像処理部は、
前記環境カメラが撮影した画像を用いて前記被撮影物の配置状態を認識し、
前記ロボット動作決定部は、
前記環境カメラ画像処理部が認識した前記被撮影物の配置状態に基づき、前記機構を用いて前記被撮影物を動かす手順を決定して前記ロボットにその手順および前記被撮影物を動かした後に前記被撮影物を撮影すべき旨の指示を送信し、
前記ロボットカメラ画像処理部は、
前記ロボットが前記手順および前記指示にしたがって撮影した前記被撮影物の画像を取得し、その画像に基づき前記被撮影物を認識し、
前記物体認識装置は、
前記環境カメラが撮影した画像および前記ロボットが撮影した画像を用いて前記情報処理装置が認識した物体についての情報を格納するデータベースをさらに備え、
前記環境カメラ画像処理部は、
前記空間中に新たに物体が置かれた場合に、前記環境カメラが撮影した画像を用いて前記新たに置かれた物体を認識し、
前記データベースから前記新たに置かれた物体よりも過去に前記空間中に置かれた前記被撮影物についての情報を取り出し、
前記過去に置かれた被撮影物についての情報と前記新たに置かれた物体についての情報を用いて、前記過去に置かれた被撮影物と前記新たに置かれた物体との間の配置関係を算出し、
前記ロボット動作決定部は、
前記新たに置かれた物体が、前記ロボットから見て前記被撮影物を隠す位置に置かれている場合は、指定した視野範囲で前記ロボットが前記被撮影物を撮影することができる位置まで、前記機構を用いて前記新たに置かれた物体を動かすように前記ロボットへ指示する
ことを特徴とする物体認識装置。 - 被撮影物の周辺に移動して前記被撮影物を撮影し、指示にしたがって物体を動かす機構を備えたロボットに対して、動作指示を送信するロボット動作決定部と、
前記被撮影物周辺の空間を撮影する環境カメラから撮像画像を処理する環境カメラ画像処理部と、
前記ロボットが撮影した画像を処理するロボットカメラ画像処理部と、
を備えた物体認識装置であって、
前記環境カメラ画像処理部は、
前記環境カメラが撮影した画像を用いて前記被撮影物の配置状態を認識し、
前記ロボット動作決定部は、
前記環境カメラ画像処理部が認識した前記被撮影物の配置状態に基づき、前記機構を用いて前記被撮影物を動かす手順を決定して前記ロボットにその手順および前記被撮影物を動かした後に前記被撮影物を撮影すべき旨の指示を送信し、
前記ロボットカメラ画像処理部は、
前記ロボットが前記手順および前記指示にしたがって撮影した前記被撮影物の画像を取得し、その画像に基づき前記被撮影物を認識し、
前記物体認識装置は、
メッセージを提示する提示部と、
前記メッセージに対する応答を受け取る通知部と、
をさらに備え、
前記提示部は、
前記環境カメラが前記被撮影物を撮影する際に前記被撮影物の外観を隠す位置に障害物が置かれている場合、その旨の前記メッセージを提示し、
前記環境カメラ画像処理部は、
前記障害物を除去した旨の前記応答を前記通知部が受け取ると、前記環境カメラを用いて前記被撮影物を改めて撮影する
ことを特徴とする物体認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012030120A JP5820297B2 (ja) | 2012-02-15 | 2012-02-15 | 物体認識システム、物体認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012030120A JP5820297B2 (ja) | 2012-02-15 | 2012-02-15 | 物体認識システム、物体認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013167988A JP2013167988A (ja) | 2013-08-29 |
JP5820297B2 true JP5820297B2 (ja) | 2015-11-24 |
Family
ID=49178352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012030120A Expired - Fee Related JP5820297B2 (ja) | 2012-02-15 | 2012-02-15 | 物体認識システム、物体認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5820297B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020062691A (ja) * | 2018-10-15 | 2020-04-23 | 株式会社Preferred Networks | 検査装置、検査方法、ロボット装置、ロボット装置における検査方法及びプログラム |
JP7012181B1 (ja) * | 2021-06-15 | 2022-02-14 | Dmg森精機株式会社 | ロボットシステム |
-
2012
- 2012-02-15 JP JP2012030120A patent/JP5820297B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013167988A (ja) | 2013-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10674142B2 (en) | Optimized object scanning using sensor fusion | |
CN105740839B (zh) | 三维场景的分析 | |
CN103778635B (zh) | 用于处理数据的方法和装置 | |
CN101305401B (zh) | 用于处理游戏的立体视频的方法 | |
JP6295645B2 (ja) | 物体検出方法及び物体検出装置 | |
TW201941098A (zh) | 智慧型裝置跟焦方法、裝置、智慧型裝置及儲存媒體 | |
JP5631086B2 (ja) | 情報処理装置及びその制御方法、プログラム | |
KR20150130483A (ko) | 평면의 자연스러운 특성 타겟들의 인시츄 생성 | |
JP2012216051A (ja) | 歩行ロボット装置及びその制御プログラム | |
JPWO2015186436A1 (ja) | 画像処理装置、画像処理方法、および、画像処理プログラム | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
JP2013025401A (ja) | 自己位置推定装置、自己位置推定方法およびプログラム | |
JP6988704B2 (ja) | センサ制御装置、物体探索システム、物体探索方法及びプログラム | |
JP2019036346A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2018113021A (ja) | 情報処理装置およびその制御方法、プログラム | |
JP5565331B2 (ja) | 表示システム、表示処理装置、表示方法、および表示プログラム | |
JP2023502239A (ja) | 広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法 | |
US8970479B1 (en) | Hand gesture detection | |
JP5820297B2 (ja) | 物体認識システム、物体認識装置 | |
CN109407824B (zh) | 人体模型的同步运动方法与装置 | |
KR101799351B1 (ko) | 임의 시점 렌더링을 위한 자동 항공 촬영 방법, 이를 수행하기 위한 기록 매체 및 장치 | |
KR20050027796A (ko) | 물체 인식 및 추적방법 | |
JP3401512B2 (ja) | 移動物体追跡装置 | |
McClean | An Augmented Reality System for Urban Environments using a Planar Building Fa cade Model | |
Riecický et al. | Optical-inertial Synchronization of MoCap Suit with Single Camera Setup for Reliable Position Tracking. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140811 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150612 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151002 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5820297 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |