JP2012526335A - 物体認識方法、物体認識装置、自律移動ロボット - Google Patents
物体認識方法、物体認識装置、自律移動ロボット Download PDFInfo
- Publication number
- JP2012526335A JP2012526335A JP2012510444A JP2012510444A JP2012526335A JP 2012526335 A JP2012526335 A JP 2012526335A JP 2012510444 A JP2012510444 A JP 2012510444A JP 2012510444 A JP2012510444 A JP 2012510444A JP 2012526335 A JP2012526335 A JP 2012526335A
- Authority
- JP
- Japan
- Prior art keywords
- transformation matrix
- feature
- observation scene
- distance image
- object recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/36—Indoor scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Abstract
Description
<構成>
本発明は、距離画像を用いて、オンライン(リアルタイム)で物体認識を行う物体認識技術に関する。本発明は、例えば、環境を自律的に移動する自律移動ロボットに対して適用することができる。以下、図面を参照して本発明の実施の形態について説明する。
次に、図2乃至図11を参照して、本発明に係る物体認識処理動作について説明する。図2は、本発明に係る物体認識処理動作を概略的に示すフローチャートである。図2において、ステップS100は、1つの物体モデルについての、点群の生成処理及び特徴量の抽出処理を示している。ステップS200は、実際の観測場面についての、点群の生成処理及び特徴量の抽出処理を示している。
<ループ構造>
FOR(k=3;k・|C|;k=k+1){
FOR(j=2;j・k;j=j+1){
FOR(i=1;i<j;i=i+1){
triple=(ci,cj,ck)
・・・
}
}
}
score(Tabc)=Σi max(0,1−d(vmi,vsi)/dmax)
<認識率>
まず、図12及び図13を参照して、本発明に係る物体認識方法及び物体認識装置を使用した場合の、物体の認識率について説明する。図12は、実際の実験の設定を示す画像である。図13は、図12に示した実験設定での、物体集合に対する認識率を示す表である。
図14は、物体までの距離と物体の認識率の関係を示すグラフである。各距離の段階について、物体の異なる視点から5回の走査を行った。図に示すように、物体の認識率は、物体までの距離に依存する。以下、その理由について説明する。距離画像は、レーザレンジセンサから取得された点群から計算される。当該センサは固定された角度分解能を有しているため、点群の密度は強く距離に依存する。距離画像の最大解像度は、取得された点群の密度に直接影響される。即ち、距離画像のパッチは、パッチに含まれるピクセルの合計数よりも少ない個数の測定点を用いて描画される。従って、距離画像のパッチを満たすためには補間が必要となり、補間は認識のロバスト性に明らかに影響する。
次に、図15及び図16を参照して、本発明に係る物体認識方法及び物体認識装置を使用した場合の、認識への遮蔽の影響について説明する。図15は、部分的に遮蔽された物体を含む点群の画像(左図)と距離画像(右図)を示している。図16は、図15に示した状況での、物体(オフィスチェアとテーブル)に対する認識結果を示す表である。図16に示す表は、異なる可視率(Visibility)に対する、物体の認識の成功回数(それぞれ10回のスキャンのうちで正しく認識できた回数。)を示している。
次に、本発明に係る物体認識方法及び物体認識装置を使用した場合の、認識に要求される処理時間について説明する。まず、スキャンデータの収集処理に要する処理時間について説明する。
次に、認識処理に要する処理時間について説明する。本発明に係る認識技術では、2.4GHzのCPUを搭載したコンピュータを使用した場合に、7つの認識対象物体に対して、取得された点群から物体を検出するために、1.5秒から3秒の処理時間を必要とする。従って、本発明に係る認識技術は、3次元の点群から距離画像を生成し、2次元の距離画像を使用して特徴量のマッチング処理行うことで、短時間で物体認識を行うことができる。
上述した実施の形態では、レーザレンジセンサの測定値から3次元の点群を生成するものとして説明したが本発明はこれに限定されない。すなわち、通常のカメラを使用して、3次元の点群を生成するものとしてもよい。
102 距離画像生成部、
103 注目点検出部、
104 領域特徴抽出部、
105 線特徴抽出部、
106 物体モデル記憶部、
107 マッチング・検証処理部
Claims (21)
- 予め作成した物体モデルを用いて、観測場面に含まれる対象物体を認識する物体認識方法であって、
前記観測場面の距離画像を生成するステップと、
前記距離画像から注目点を検出するステップと、
前記注目点を含む領域の特徴量である第1の特徴量を抽出するステップと、
前記第1の特徴量と、前記物体モデルの距離画像の領域の特徴量である第2の特徴量と、のマッチング処理を行うステップと、
前記マッチング処理結果に基づいて、前記観測場面の座標系に前記第2の特徴量を射影するための変換行列を計算するステップと、
前記変換行列に基づいて、前記物体モデルに対して前記対象物体を認識するステップと、
を有する物体認識方法。 - レーザセンサを使用して、前記観測場面の3次元の点群を生成するステップを更に有し、
前記生成した3次元の点群から前記距離画像を生成する
ことを特徴とする請求項1に記載の物体認識方法。 - レーザセンサを使用して、前記観測場面の3次元の点群を生成するステップと、
前記観測場面の3次元の点群から、前記対象物体に含まれる線の特徴量である第3の特徴量を抽出するステップを更に有し、
前記マッチング処理を行うステップは、
前記第3の特徴量と、前記物体モデルの線の特徴量である第4の特徴量と、のマッチング処理を行い、
前記変換行列を計算するステップは、
前記マッチング処理結果に基づいて、前記観測場面の座標系に前記第3の特徴量を射影するための変換行列を計算する
ことを特徴とする請求項1に記載の物体認識方法。 - 前記変換行列の妥当性を検証するステップを更に有し、
前記変換行列を計算するステップは、
前記マッチング処理により求めた前記第1の特徴量と前記第2の特徴量との対応から、前記観測場面の座標系に前記第2の特徴量を射影するための変換行列であって、候補となる複数の変換行列を計算し、
前記変換行列の妥当性を検証するステップは、
各前記変換行列に基づいて前記第2の特徴量を前記観測場面に射影して、当該射影した前記第2の特徴量と前記第1の特徴量との間の類似度に基づくスコアを計算し、当該計算したスコアに応じて、各前記変換行列の妥当性を検証する
ことを特徴とする請求項1に記載の物体認識方法。 - 前記変換行列の妥当性を検証するステップは、
前記対象物体を含む局所領域ごとに前記複数の変換行列を分類し、前記局所領域ごとに、前記スコアに応じて1の変換行列を選択する
ことを特徴とする請求項4に記載の物体認識方法。 - 前記変換行列の妥当性を検証するステップは、
前記局所領域ごとに選択した変換行列に基づいて前記第2の特徴量を配置した場合に、当該配置した第2の特徴量の物体モデルの間の衝突を検出し、当該検出した衝突状況に応じて、前記局所領域ごとに選択した変換行列の妥当性を検証する
ことを特徴とする請求項5に記載の物体認識方法。 - 前記変換行列の妥当性を検証するステップは、
前記複数の変換行列のうち、前記スコアが所定の閾値を下回る変換行列を棄却する
ことを特徴とする請求項4に記載の物体認識方法。 - 前記変換行列の妥当性を検証するステップを更に有し、
前記変換行列を計算するステップは、
前記マッチング処理により求めた前記第1の特徴量と前記第2の特徴量との対応から、前記観測場面の座標系に前記第2の特徴量を射影するための変換行列であって、候補となる複数の変換行列を計算し、
前記変換行列の妥当性を検証するステップは、
前記複数の変換行列のうち、束縛されている回転成分を有する変換行列を棄却する
ことを特徴とする請求項1に記載の物体認識方法。 - 前記変換行列の妥当性を検証するステップを更に有し、
前記変換行列を計算するステップは、
前記マッチング処理により求めた前記第1の特徴量と前記第2の特徴量との対応から、前記観測場面の座標系に前記第2の特徴量を射影するための変換行列であって、候補となる複数の変換行列を計算し、
前記変換行列の妥当性を検証するステップは、
各前記変換行列に基づいて前記第2の特徴量を配置した場合に、当該配置した第2の特徴量から距離画像を生成し、当該生成した距離画像と、前記観測場面の距離画像から抽出した前記対象物体を含む部分の距離画像と、の類似度に応じて、各前記変換行列の妥当性を検証する
ことを特徴とする請求項1に記載の物体認識方法。 - 前記対象物体であると認識された物体モデルを、前記変換行列に基づいて前記観測場面の座標系に配置した状態で出力するステップを更に有する
ことを特徴とする請求項1に記載の物体認識方法。 - 予め作成した物体モデルを用いて、観測場面に含まれる対象物体を認識する物体認識装置であって、
前記観測場面の距離画像を生成する距離画像生成手段と、
前記距離画像から注目点を検出する注目点検出手段と、
前記注目点を含む領域の特徴量である第1の特徴量を抽出する領域特徴抽出手段と、
前記第1の特徴量と、前記物体モデルの距離画像の領域の特徴量である第2の特徴量と、のマッチング処理を行い、当該マッチング処理結果に基づいて、前記観測場面の座標系に前記第2の特徴量を射影するための変換行列を計算して、当該変換行列に基づいて、前記物体モデルに対して前記対象物体を認識するマッチング・検証処理手段と、
を備える物体認識装置。 - レーザセンサを使用して、前記観測場面の3次元の点群を生成する点群生成手段を更に備え、
前記距離画像生成手段は、
前記点群生成手段により生成した3次元の点群から前記距離画像を生成する
ことを特徴とする請求項11に記載の物体認識装置。 - レーザセンサを使用して、前記観測場面の3次元の点群を生成する点群生成手段と、
前記観測場面の3次元の点群から、前記対象物体に含まれる線の特徴量である第3の特徴量を抽出する線特徴抽出手段と、を更に備え、
前記マッチング・検証処理手段は、
前記第3の特徴量と、前記物体モデルの線の特徴量である第4の特徴量と、のマッチング処理を行い、当該マッチング処理結果に基づいて、前記観測場面の座標系に前記第3の特徴量を射影するための変換行列を計算する
ことを特徴とする請求項11に記載の物体認識装置。 - 前記マッチング・検証処理手段は、
前記マッチング処理により求めた前記第1の特徴量と前記第2の特徴量との対応から、前記観測場面の座標系に前記第2の特徴量を射影するための変換行列であって、候補となる複数の変換行列を計算し、当該計算した各変換行列に基づいて前記第2の特徴量を前記観測場面に射影して、当該射影した前記第2の特徴量と前記第1の特徴量との間の類似度に基づくスコアを計算し、当該計算したスコアに応じて、各前記変換行列の妥当性を検証する
ことを特徴とする請求項11に記載の物体認識装置。 - 前記マッチング・検証処理手段は、
前記対象物体を含む局所領域ごとに前記複数の変換行列を分類し、前記局所領域ごとに、前記スコアに応じて1の変換行列を選択する
ことを特徴とする請求項14に記載の物体認識装置。 - 前記マッチング・検証処理手段は、
前記局所領域ごとに選択した変換行列に基づいて前記第2の特徴量を配置した場合に、当該配置した第2の特徴量の物体モデルの間の衝突を検出し、当該検出した衝突状況に応じて、前記局所領域ごとに選択した変換行列の妥当性を検証する
ことを特徴とする請求項15に記載の物体認識装置。 - 前記マッチング・検証処理手段は、
前記複数の変換行列のうち、前記スコアが所定の閾値を下回る変換行列を棄却する
ことを特徴とする請求項14に記載の物体認識装置。 - 前記マッチング・検証処理手段は、
前記マッチング処理により求めた前記第1の特徴量と前記第2の特徴量との対応から、前記観測場面の座標系に前記第2の特徴量を射影するための変換行列であって、候補となる複数の変換行列を計算し、当該計算した複数の変換行列のうち、束縛されている回転成分を有する変換行列を棄却する
ことを特徴とする請求項11に記載の物体認識装置。 - 前記マッチング・検証処理手段は、
前記マッチング処理により求めた前記第1の特徴量と前記第2の特徴量との対応から、前記観測場面の座標系に前記第2の特徴量を射影するための変換行列であって、候補となる複数の変換行列を計算し、当該計算した各変換行列に基づいて前記第2の特徴量を配置した場合に、当該配置した第2の特徴量から距離画像を生成し、当該生成した距離画像と、前記観測場面の距離画像から抽出した前記対象物体を含む部分の距離画像と、の類似度に応じて、各前記変換行列の妥当性を検証する
ことを特徴とする請求項11に記載の物体認識装置。 - 前記マッチング・検証処理手段は、
前記対象物体であると認識された物体モデルを、前記変換行列に基づいて前記観測場面の座標系に配置した状態で出力する
ことを特徴とする請求項11に記載の物体認識装置。 - 環境に存在する物体の認識結果を用いて地図情報を作成し、当該作成した地図情報を参照して自律的に移動する自律移動ロボットであって、
観測場面の距離画像を生成する距離画像生成手段と、
前記距離画像から注目点を検出する注目点検出手段と、
前記注目点を含む領域の特徴量である第1の特徴量を抽出する領域特徴抽出手段と、
前記第1の特徴量と、予め作成した物体モデルの距離画像の領域の特徴量である第2の特徴量と、のマッチング処理を行い、当該マッチング処理結果に基づいて、前記観測場面の座標系に前記第2の特徴量を射影するための変換行列を計算して、当該変換行列に基づいて、前記物体モデルに対して前記観測場面に含まれる対象物体を認識するマッチング・検証処理手段と、
を備える自律移動ロボット。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2009/059231 WO2010131371A1 (en) | 2009-05-12 | 2009-05-12 | Object recognition method, object recognition apparatus, and autonomous mobile robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012526335A true JP2012526335A (ja) | 2012-10-25 |
JP5328979B2 JP5328979B2 (ja) | 2013-10-30 |
Family
ID=41571855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012510444A Active JP5328979B2 (ja) | 2009-05-12 | 2009-05-12 | 物体認識方法、物体認識装置、自律移動ロボット |
Country Status (4)
Country | Link |
---|---|
US (1) | US8630456B2 (ja) |
EP (1) | EP2430588B1 (ja) |
JP (1) | JP5328979B2 (ja) |
WO (1) | WO2010131371A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015156136A (ja) * | 2014-02-20 | 2015-08-27 | 株式会社東芝 | 算出装置、方法及びプログラム |
JP2015228992A (ja) * | 2014-06-05 | 2015-12-21 | 大日本印刷株式会社 | 視線分析システムおよび視線分析装置 |
JP2016161569A (ja) * | 2015-02-26 | 2016-09-05 | 三菱電機株式会社 | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム |
JP2017004228A (ja) * | 2015-06-09 | 2017-01-05 | 株式会社パスコ | 軌跡推定方法、軌跡推定装置及び軌跡推定プログラム |
JP2017146708A (ja) * | 2016-02-16 | 2017-08-24 | 日本電信電話株式会社 | 物体認識装置、3次元点群モデル化装置、方法、及びプログラム |
WO2019087404A1 (ja) * | 2017-11-06 | 2019-05-09 | 富士通株式会社 | 算出方法、算出プログラムおよび情報処理装置 |
JP2021082265A (ja) * | 2019-11-15 | 2021-05-27 | 広東工業大学Guangdong University Of Technology | 深度点線特徴に基づくドローン視覚走行距離計方法 |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9014848B2 (en) * | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
US9014420B2 (en) * | 2010-06-14 | 2015-04-21 | Microsoft Corporation | Adaptive action detection |
JP5892360B2 (ja) | 2011-08-02 | 2016-03-23 | ソニー株式会社 | ロボット指示装置、ロボット指示方法、プログラム、及び通信システム |
US9361412B1 (en) * | 2012-03-26 | 2016-06-07 | The United Sates Of America As Represented By The Secretary Of The Navy | Method for the simulation of LADAR sensor range data |
US9435888B1 (en) * | 2012-03-26 | 2016-09-06 | The United States Of America As Represented By The Secretary Of The Navy | Shape matching automatic recognition methods, systems and articles of manufacturing |
US9128188B1 (en) * | 2012-07-13 | 2015-09-08 | The United States Of America As Represented By The Secretary Of The Navy | Object instance identification using template textured 3-D model matching |
US9150119B2 (en) | 2013-03-15 | 2015-10-06 | Aesynt Incorporated | Apparatuses, systems, and methods for anticipating and delivering medications from a central pharmacy to a patient using a track based transport system |
US20140102859A1 (en) | 2012-10-12 | 2014-04-17 | Mckesson Automation Inc. | Apparatuses, systems, and methods for dispensing medications from a central pharmacy to a patient in a healthcare facility |
US9305364B2 (en) * | 2013-02-19 | 2016-04-05 | Caterpillar Inc. | Motion estimation systems and methods |
US9483829B2 (en) | 2013-09-04 | 2016-11-01 | International Business Machines Corporation | Efficient visual surface finding |
US9158996B2 (en) * | 2013-09-12 | 2015-10-13 | Kabushiki Kaisha Toshiba | Learning image collection apparatus, learning apparatus, and target object detection apparatus |
KR102113813B1 (ko) * | 2013-11-19 | 2020-05-22 | 한국전자통신연구원 | 정합 쌍을 이용한 신발 영상 검색 장치 및 방법 |
US9443134B2 (en) * | 2014-05-15 | 2016-09-13 | Adobe Systems Incorporated | Propagating object selection across multiple images |
US9868212B1 (en) * | 2016-02-18 | 2018-01-16 | X Development Llc | Methods and apparatus for determining the pose of an object based on point cloud data |
JP6249247B2 (ja) * | 2016-02-29 | 2017-12-20 | ソニー株式会社 | 制御装置、制御方法、およびプログラム |
US10088676B2 (en) * | 2016-06-30 | 2018-10-02 | Paypal, Inc. | Enhanced safety through augmented reality and shared data |
CN106373159A (zh) * | 2016-08-30 | 2017-02-01 | 中国科学院长春光学精密机械与物理研究所 | 一种简化的无人机多目标定位方法 |
RU173131U1 (ru) * | 2016-12-05 | 2017-08-14 | Ярослав Юрьевич Кульков | Устройство идентификации плоских объектов по безразмерным признакам их контуров |
US20180211404A1 (en) * | 2017-01-23 | 2018-07-26 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | 3d marker model construction and real-time tracking using monocular camera |
CN107077739A (zh) * | 2017-01-23 | 2017-08-18 | 香港应用科技研究院有限公司 | 使用单目相机的三维标记模型构建和实时跟踪 |
US20180217233A1 (en) * | 2017-01-31 | 2018-08-02 | Toyota Research Institute, Inc. | Systems and methods for estimating objects using deep learning |
US10489663B2 (en) | 2017-04-24 | 2019-11-26 | Toyota Research Institute, Inc. | Systems and methods for identifying changes within a mapped environment |
EP3726462A4 (en) * | 2017-12-14 | 2020-12-23 | NEC Corporation | IDENTIFICATION DEVICE, IDENTIFICATION METHOD AND STORAGE MEDIUM |
CN108082083B (zh) * | 2018-01-16 | 2019-11-01 | 京东方科技集团股份有限公司 | 一种被遮挡对象的显示方法和显示系统以及车载防撞系统 |
CN108733741A (zh) * | 2018-03-07 | 2018-11-02 | 北京猎户星空科技有限公司 | 一种交互方法及装置、智能设备和计算机可读存储介质 |
US11669724B2 (en) | 2018-05-17 | 2023-06-06 | Raytheon Company | Machine learning using informed pseudolabels |
US11407111B2 (en) | 2018-06-27 | 2022-08-09 | Abb Schweiz Ag | Method and system to generate a 3D model for a robot scene |
US10970586B2 (en) | 2018-06-28 | 2021-04-06 | General Electric Company | Systems and methods of 3D scene segmentation and matching for robotic operations |
CN109102547A (zh) * | 2018-07-20 | 2018-12-28 | 上海节卡机器人科技有限公司 | 基于物体识别深度学习模型的机器人抓取位姿估计方法 |
KR102577785B1 (ko) | 2018-09-20 | 2023-09-13 | 삼성전자주식회사 | 청소 로봇 및 그의 태스크 수행 방법 |
CN111178366B (zh) * | 2018-11-12 | 2023-07-25 | 杭州萤石软件有限公司 | 一种移动机器人的定位方法和移动机器人 |
JP2022020871A (ja) * | 2018-12-06 | 2022-02-02 | パナソニックIpマネジメント株式会社 | 物体認識装置、物体認識方法、およびプログラム |
JP7049983B2 (ja) * | 2018-12-26 | 2022-04-07 | 株式会社日立製作所 | 物体認識装置および物体認識方法 |
CN111815683A (zh) * | 2019-04-12 | 2020-10-23 | 北京京东尚科信息技术有限公司 | 目标定位方法及装置、电子设备和计算机可读介质 |
JP7376268B2 (ja) * | 2019-07-22 | 2023-11-08 | ファナック株式会社 | 三次元データ生成装置及びロボット制御システム |
US11068747B2 (en) * | 2019-09-27 | 2021-07-20 | Raytheon Company | Computer architecture for object detection using point-wise labels |
CN111444768A (zh) * | 2020-02-25 | 2020-07-24 | 华中科技大学 | 一种用于反光地面场景的微小障碍物发现方法 |
US11676391B2 (en) | 2020-04-16 | 2023-06-13 | Raytheon Company | Robust correlation of vehicle extents and locations when given noisy detections and limited field-of-view image frames |
CN112200851B (zh) * | 2020-12-09 | 2021-02-26 | 北京云测信息技术有限公司 | 一种基于点云的目标检测方法、装置及其电子设备 |
CN112925223B (zh) * | 2021-02-03 | 2022-03-15 | 北京航空航天大学 | 基于视觉传感网络的无人机三维跟踪虚拟测试仿真系统 |
US11562184B2 (en) | 2021-02-22 | 2023-01-24 | Raytheon Company | Image-based vehicle classification |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006202152A (ja) * | 2005-01-21 | 2006-08-03 | Univ Of Tokyo | 画像処理装置および画像処理方法並びにこれらに用いるプログラム |
JP2009014415A (ja) * | 2007-07-02 | 2009-01-22 | National Institute Of Advanced Industrial & Technology | 物体認識装置および物体認識方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3515657B2 (ja) | 1995-12-26 | 2004-04-05 | 株式会社リコー | 三次元位置検出装置及びこれを用いた移送ロボット |
JP2003051012A (ja) * | 2001-08-03 | 2003-02-21 | Nec Corp | ユーザ認証方法及びユーザ認証装置 |
US6965645B2 (en) * | 2001-09-25 | 2005-11-15 | Microsoft Corporation | Content-based characterization of video frame sequences |
US20030169906A1 (en) * | 2002-02-26 | 2003-09-11 | Gokturk Salih Burak | Method and apparatus for recognizing objects |
JP4007899B2 (ja) * | 2002-11-07 | 2007-11-14 | オリンパス株式会社 | 運動検出装置 |
EP1599829A1 (en) * | 2003-03-06 | 2005-11-30 | Animetrics, Inc. | Viewpoint-invariant detection and identification of a three-dimensional object from two-dimensional imagery |
KR100682889B1 (ko) * | 2003-08-29 | 2007-02-15 | 삼성전자주식회사 | 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치 |
US7463778B2 (en) * | 2004-01-30 | 2008-12-09 | Hewlett-Packard Development Company, L.P | Motion estimation for compressing multiple view images |
EP1766552A2 (en) * | 2004-06-23 | 2007-03-28 | Strider Labs, Inc. | System and method for 3d object recognition using range and intensity |
GB0714940D0 (en) * | 2007-08-01 | 2007-09-12 | Depuy Orthopaedie Gmbh | Image processing |
US8295543B2 (en) * | 2007-08-31 | 2012-10-23 | Lockheed Martin Corporation | Device and method for detecting targets in images based on user-defined classifiers |
JP5144422B2 (ja) * | 2007-09-28 | 2013-02-13 | 富士フイルム株式会社 | 撮影装置及び撮影方法 |
JP4568357B2 (ja) * | 2008-06-30 | 2010-10-27 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 動画データから検索対象である動画コンテンツを含むシーンを検索するためのコンピュータ・システム、並びにその方法及びコンピュータ・プログラム |
-
2009
- 2009-05-12 JP JP2012510444A patent/JP5328979B2/ja active Active
- 2009-05-12 WO PCT/JP2009/059231 patent/WO2010131371A1/en active Application Filing
- 2009-05-12 EP EP09787961.3A patent/EP2430588B1/en active Active
- 2009-05-12 US US13/320,220 patent/US8630456B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006202152A (ja) * | 2005-01-21 | 2006-08-03 | Univ Of Tokyo | 画像処理装置および画像処理方法並びにこれらに用いるプログラム |
JP2009014415A (ja) * | 2007-07-02 | 2009-01-22 | National Institute Of Advanced Industrial & Technology | 物体認識装置および物体認識方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015156136A (ja) * | 2014-02-20 | 2015-08-27 | 株式会社東芝 | 算出装置、方法及びプログラム |
JP2015228992A (ja) * | 2014-06-05 | 2015-12-21 | 大日本印刷株式会社 | 視線分析システムおよび視線分析装置 |
JP2016161569A (ja) * | 2015-02-26 | 2016-09-05 | 三菱電機株式会社 | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム |
JP2017004228A (ja) * | 2015-06-09 | 2017-01-05 | 株式会社パスコ | 軌跡推定方法、軌跡推定装置及び軌跡推定プログラム |
JP2017146708A (ja) * | 2016-02-16 | 2017-08-24 | 日本電信電話株式会社 | 物体認識装置、3次元点群モデル化装置、方法、及びプログラム |
WO2019087404A1 (ja) * | 2017-11-06 | 2019-05-09 | 富士通株式会社 | 算出方法、算出プログラムおよび情報処理装置 |
US11348324B2 (en) | 2017-11-06 | 2022-05-31 | Fujitsu Limited | Calculation method, non-transitory computer readable recording medium, and information processing device |
JP2021082265A (ja) * | 2019-11-15 | 2021-05-27 | 広東工業大学Guangdong University Of Technology | 深度点線特徴に基づくドローン視覚走行距離計方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2430588B1 (en) | 2018-04-25 |
US20120121132A1 (en) | 2012-05-17 |
EP2430588A1 (en) | 2012-03-21 |
JP5328979B2 (ja) | 2013-10-30 |
US8630456B2 (en) | 2014-01-14 |
WO2010131371A1 (en) | 2010-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5328979B2 (ja) | 物体認識方法、物体認識装置、自律移動ロボット | |
US10599228B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
JP6430064B2 (ja) | データを位置合わせする方法及びシステム | |
JP5380789B2 (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
JP5870273B2 (ja) | 物体検出装置、物体検出方法及びプログラム | |
JP5726125B2 (ja) | 奥行き画像内の物体を検出する方法およびシステム | |
JP6054831B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP5297727B2 (ja) | ロボット装置及び物体の位置姿勢推定方法 | |
JP6172432B2 (ja) | 被写体識別装置、被写体識別方法および被写体識別プログラム | |
JP2015184054A (ja) | 同定装置、方法及びプログラム | |
JP2009288917A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6922605B2 (ja) | 3次元物体検出装置、ロボット、及びプログラム | |
JP6124566B2 (ja) | 画像認識方法および画像認識装置 | |
Cociaş et al. | Multiple-superquadrics based object surface estimation for grasping in service robotics | |
JP2012220271A (ja) | 姿勢認識装置、姿勢認識方法、プログラム及び記録媒体 | |
JP6544482B2 (ja) | 物体認識装置、物体認識方法及び記憶媒体 | |
WO2021220345A1 (ja) | エレベーターの3次元データの処理装置 | |
CN114972495A (zh) | 针对纯平面结构的物体的抓取方法、装置及计算设备 | |
JP2021022185A (ja) | 画像処理装置、画像処理プログラム、及び画像処理方法 | |
JP5614100B2 (ja) | 画像処理装置及び移動体位置推定方法 | |
JP2993611B2 (ja) | 画像処理方法 | |
KR20230057944A (ko) | 모바일 로봇의 전역 위치인식을 위한 방법 및 컴퓨팅 장치 | |
JP2021085781A (ja) | 情報処理装置、情報処理方法、計測装置、プログラム、システム及び物品の製造方法 | |
Snailum et al. | Vision Based Mobile Robot Navigation in a Visually Cluttered Environment‖ | |
Samad et al. | Recognition of 3D facial expression from posed data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130723 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5328979 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |