JP2012128744A - 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム - Google Patents
物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム Download PDFInfo
- Publication number
- JP2012128744A JP2012128744A JP2010281008A JP2010281008A JP2012128744A JP 2012128744 A JP2012128744 A JP 2012128744A JP 2010281008 A JP2010281008 A JP 2010281008A JP 2010281008 A JP2010281008 A JP 2010281008A JP 2012128744 A JP2012128744 A JP 2012128744A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- region
- voting
- detector
- specific
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】対象物体を検出する検出器の学習方法は、対象物体の既知の三次元モデルから複数の特定領域を選択する選択工程と、選択工程で選択された特定領域を検出する検出器の学習を行う学習工程と、学習工程で学習された検出器により複数の特定領域のうち所定の領域の位置および姿勢の認識処理を行う評価工程と、評価工程における認識処理の結果の認識精度に従って、検出器の出力に対する投票重みを設定する正規化工程とを有する。
【選択図】図7
Description
学習装置の選択手段が、前記対象物体の既知の三次元モデルから複数の特定領域を選択する選択工程と、
前記学習装置の学習手段が、前記選択工程で選択された前記特定領域を検出する検出器の学習を行う学習工程と、
前記学習装置の評価手段が、前記学習工程で学習された前記検出器により前記複数の特定領域のうち所定の領域の位置および姿勢の認識処理を行う評価工程と、
前記学習装置の正規化手段が、前記評価工程における前記認識処理の結果の認識精度に従って、前記検出器の出力に対する投票重みを設定する正規化工程と、
を有することを特徴とする。
取得手段が、撮像手段で撮像された対象物体の画像を取得する取得工程と、
上記の学習方法の学習工程で生成された検出器が、前記取得工程で取得された前記画像から、前記画像に含まれる部分領域の画像として複数の特定領域を検出する検出工程と、
生成手段が、前記検出工程で検出された前記複数の特定領域のうち所定の距離の範囲内にある特定領域を組み合わせた領域組を生成する生成工程と、
領域組推定手段が、前記生成工程で生成された前記領域組について、前記撮像手段の座標系を基準とした検出位置情報および前記対象物体の3次元モデル上の座標位置情報を求め、前記検出位置情報と前記座標位置情報との差分を最小にする位置と、前記位置に対応する姿勢とを、前記領域組の推定位置および推定姿勢とする領域組推定工程と、
投票手段が、前記領域組推定工程で推定された前記領域組の推定位置および推定姿勢に対して上記の学習方法の収束判断工程で確定された投票重みを、前記検出器から出力される位置および姿勢の投票値に乗じる演算処理を行う投票工程と、
対象物体推定手段が、前記投票工程の演算処理で前記検出器から出力される位置および姿勢の投票値に前記投票重みを乗じた値を全ての領域組について演算し、前記演算の結果を加算することにより求められる累積投票値が極大となる位置および姿勢を演算し、前記極大となる位置および姿勢における前記累積投票値の値が所定の閾値以上であるときに、前記累積投票値が極大となる位置および姿勢を前記対象物体の位置および姿勢と推定する対象物体推定工程と、を有することを特徴とする。
図1の参照により、本発明の実施形態にかかる情報処理システムの全体的な構成を説明する。撮像部300で撮像された撮像データが座標対応算出部400に送られる。座標対応算出部400は三次元モデル記憶部600において記憶されている三次元モデル上の各点と撮像データとの対応関係を算出する。座標対応算出部400で算出された撮像データと三次元モデルとの対応関係を用いて、学習装置200は後述する学習処理を行い、得られた学習結果(学習パラメータ)を学習結果記憶部700に記憶する。
物体認識処理を行うための基本的な装置構成の例を図2に示し、物体認識装置で実行される処理フローを図3に示す。
A500は認識の対象となる対象物体である。A300は対象物体A500を載せるためのステージである。A100は対象物体A500を撮像し、画像データを取得するためのカメラである。A110はカメラA100と連動して、光切断法によって対象物体A500の距離マップデータを得るために、ガルバノミラーなどで稼動するレーザ投光部(レーザ投光器)である。カメラA100およびレーザ投光器A110は、図1における撮像部300に相当する。カメラA100およびレーザ投光器A110は、光切断法による距離測定を行うための校正が行われているものとする。ここで、認識処理を行うための装置構成として光切断法による距離測定を例示したが、距離測定手法は光切断法に限定されるものではない。例えば、レーザ投光器A110の替わりにプロジェクタを用いた空間コード化、もしくは複数のカメラを用いたステレオ計測など、さまざまな距離測定手法を適用することが可能である。A200は、三次元物体検出処理を行うための情報処理装置であり、図1における物体認識装置100に相当する。
回転変換Rの四元数表現である四元数qは、単回転軸Nkおよび単回転角Bkとの間に以下の数8式の関係があるため、NkおよびBkの値が求まる。
対象物体推定工程S1060では、投票工程S1050の演算処理で、位置および姿勢の投票値に投票重みが乗じられた値を全ての領域組について加算した位置および姿勢の累積投票値(位置姿勢累積投票値)を算出する。そして、加算により求められる累積投票値(位置姿勢累積投票値)が極大となる位置および姿勢を算出する。累積投票値(位置姿勢累積投票値)が極大となる位置および姿勢における累積投票値の値が所定の閾値以上であるときに、その位置および姿勢を対象物体の位置および姿勢と推定する。本工程では、領域組からの投票の集計結果である位置姿勢累積投票値Pr(P,Θ)から検出物体の位置および姿勢の推定値を算出する。具体的には、Pr(P,Θ)が極大となる位置P、姿勢Θを求め、そのときのPr(P,Θ)の値が閾値η以上であるときに、その位置P、姿勢Θを認識の対象となる対象物体の推定位置姿勢であるとする。閾値ηは位置姿勢累積投票値Pr(P,Θ)に関する下限値である。閾値ηは、例えばη=0.9などと設定する。
座標対応算出工程S2200において、座標対応算出部400は三次元モデル記憶部600から対象物体の三次元モデルを取得する。座標対応算出部400には、撮像部300から撮像データ(学習画像)が送られてきており、座標対応算出部400は三次元モデル上の各点と撮像データ(学習画像)との対応関係を算出する。まず、学習画像における対象物体のカメラ座標空間における位置および姿勢を、手動もしくは公知技術によるトラッキングツールなどを使ったマッチング処理によって算出する。これにより学習画像における対象物体のカメラ座標空間における位置と姿勢が求まるため、透視投影することにより画像上における対象物体領域が得られる。図8のように対象物体領域における各画像座標点pjと対応する三次元モデル上の点のカメラ座標系位置Pjが得られる。座標対応算出部400は、各学習画像Ivにおける対象物体領域内の画像座標点とカメラ座標点との対応関係をすべて算出して学習装置200へ送る。対応関係を算出(マッチング)によって得られた対象物体の単回転表現による姿勢パラメータである回転軸単位ベクトルnv,回転角度βv,さらに物体の位置を示す平行移動ベクトルPc vも併せて学習装置200へ送る。これらの情報を全視点v=1・・・Vに関してまとめたものを学習データS={Iv,Xmapv,Ymapv,Zmapv,nv,βv,Pc v}とする。なお、学習データが三次元モデルから人工的に生成され、各視点における物体の位置および姿勢が既知であるならば、上記マッチング処理は必要ない。
学習データ分割工程S2300では、学習データ収集工程S2100および座標対応算出工程S2200で得られた複数視点v=1・・・Vからの学習データを、特定領域検出器学習データと評価データに分割する。まず、各データに対する視点インデックスvをvL=1・・・VL、vW=1・・・VWと振りなおす。振りなおされた視点インデックスに従い、学習画像Iv、カメラ座標系マップXmapv、Ymapv、及びZmapvと、各データにおける物体の位置姿勢パラメータnv,βv,Pc vを二つのグループに分割する。すなわち、特定領域検出器学習データは、特定領域検出器学習データSL={IvL,XmapvL,YmapvL,ZmapvL,nvL,βvL,Pc vL}とする。また、評価データは、評価データSW={IvW,XmapvW,YmapvW,ZmapvW,nvW,βvW,Pc vW}である。ただし、分割した二つのグループにおけるデータは重複していても、重複しないように分割しても、いずれでもよく、データの重複度によって限定されるものではない。学習結果による姿勢推定性能を視点に偏りなく得たい場合には、特定領域検出器学習データSLと評価データSWそれぞれの視点分布は図9(a)のように測地ドーム近似されて偏りが少ないことが望ましい。測地ドームとは、正多面体の三角形面素を再帰的に同一面積の三角形に分割していくことで球面を均一に離散化表現する、公知の手法である。ただし、検出対象物体の配置条件による姿勢に関する事前分布が既知である場合には、その分布に従った視点密度で学習データを準備してもよい。例えば、必ず表側を向いて供給されることがわかっている物体を検出器の検出対象とするのであれば、図9(b)のように表側に関するデータだけを収集して使ってもよい。これらのデータを用いた学習装置200における学習方法は、以下の学習工程S2400で説明される。
本実施形態では、第1実施形態において説明した学習方法に対して、さらに不要な領域組の削除と不足した特定領域の追加を実行する方法を説明する。学習処理のフローは図7(a)のとおりである。学習データ収集工程S2100、座標対応算出工程S2200および学習データ分割工程S2300では、第1の実施形態と同様の処理を行い、特定領域検出器学習データSLと評価データSWを生成する。
正規化工程S2450では、投票重みを正規化し、不要な領域組の削除と不足した特定領域の追加を行う。本実施形態における正規化工程S2450内の処理に関する詳細フローを図10(b)に示す。図10(b)に示す詳細フローにおいて、累積投票値算出工程S2451および投票重み更新工程S2452では、図10(a)の各工程と同様の処理が行われ、投票重みが更新される。
領域削除工程S2453では不要な領域組と特定領域を削除する。それぞれの領域組に関して、投票重み更新工程S2452で更新された投票重みの最大値が所定の閾値未満であれば、該当する領域組を削除する。それぞれの領域組kに関して、領域組kの領域組有効度w’k(Θ)として、全姿勢における投票重みの最大値を数22式により算出する。
説明を図7(b)に戻し、正規化工程S2450の処理によって、投票重み、選択特定領域および選択領域組に変化がなければ収束したものと判断する(S2470−Yes)。そして、投票重み、選択特定領域、選択領域組を学習結果記憶部700に記憶させ、学習処理を終了する。それ以外の場合は収束しなかったものとして(S2470−No)、評価工程S2440に戻り、再度評価を行う。
本実施形態では、第1実施形態において説明した認識処理に必要な領域組に関して、検出結果を改善するように領域組の構成特定領域を更新していく方法を説明する。学習処理のフローは図7(a)のとおりである。学習データ収集工程S2100、座標対応算出工程S2200および学習データ分割工程S2300では、第1実施形態と同様の処理を行い、特定領域検出器学習データSLと評価データSWを生成する。
特定領域選択工程S2460では、領域組の同時検出率に従って領域組を構成する特定領域を選択する。特定領域選択工程S2460の処理に関する詳細フローを図12(b)に示す。
本実施形態では、第3実施形態において説明した学習方法に対して、さらに領域組の投票重みを設定する方法を説明する。学習処理のフローは図7(a)のとおりである。学習データ収集工程S2100、座標対応算出工程S2200および学習データ分割工程S2300では、第1の実施形態と同様の処理を行い、特定領域検出器学習データSLと評価データSWを生成する。
正規化工程S2450では領域組の投票重みを正規化し、特定領域選択工程S2460では同時検出率に従って領域組を構成する特定領域を選択する。本実施形態における正規化工程S2450と特定領域選択工程S2460内の処理に関する詳細フローを図13(b)に示す。図13(b)における正規化工程S2450の累積投票値算出工程S2451および投票重み更新工程S2452では、第1実施形態と同様にして正検出累積投票値ET(vW)と誤検出累積投票値EF(vW)を求め、投票重みを更新する。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (12)
- 対象物体を検出する検出器の学習方法であって、
学習装置の選択手段が、前記対象物体の既知の三次元モデルから複数の特定領域を選択する選択工程と、
前記学習装置の学習手段が、前記選択工程で選択された前記特定領域を検出する検出器の学習を行う学習工程と、
前記学習装置の評価手段が、前記学習工程で学習された前記検出器により前記複数の特定領域のうち所定の領域の位置および姿勢の認識処理を行う評価工程と、
前記学習装置の正規化手段が、前記評価工程における前記認識処理の結果の認識精度に従って、前記検出器の出力に対する投票重みを設定する正規化工程と、
を有することを特徴とする学習方法。 - 前記学習装置の収束判断手段が、既に設定済みの投票重みと、前記正規化工程で新たに設定された投票重みとの差分が所定の閾値を超える場合に、前記評価工程および前記正規化工程の処理を繰り返し実行させ、前記差分が所定の閾値以内の場合に、前記正規化工程で設定された投票重みは収束したものと判断し、前記投票重みを確定する収束判断工程を更に有することを特徴とする請求項1に記載の学習方法。
- 前記正規化工程は、
前記評価工程における前記認識処理の結果から、所定の誤差範囲内の検出精度で正しく検出された領域組の投票重みの値の累積値と、前記誤差範囲を超えて誤って検出された領域組の投票重みの値の累積値とを算出する算出工程と、
前記算出工程で算出された前記正しく検出された領域組の投票重みの値の累積値が閾値以上になり、かつ、前記誤って検出された領域組の投票重みの値の累積値が閾値未満になるように、前記投票重みを更新する更新工程と、
を有することを特徴とする請求項1に記載の学習方法。 - 前記正規化工程は、
それぞれの領域組に関して、前記更新工程で更新された前記投票重みの最大値が所定の閾値未満であれば、前記領域組を削除する領域削除工程と、
前記評価工程における前記認識処理の結果により、前記領域組の位置および姿勢が得られない場合に、新たな特定領域を追加する領域追加工程と、
を更に有することを特徴とする請求項3に記載の学習方法。 - 前記学習装置の特定領域選択手段が、前記評価工程における前記認識処理の結果から、所定の誤差範囲内の検出精度で正しく検出された領域組を再構成する特定領域を選択する特定領域選択工程を更に有し、
前記特定領域選択工程は、
前記評価工程により求められる、複数の撮像位置から複数の領域組を撮像した場合の認識結果のうち、同一の撮像位置で同時に所定の誤差範囲内の位置、姿勢として複数の領域組が検出される同時検出率を算出する同時検出率算出工程と、
前記同時検出率算出工程で算出された前記同時検出率が所定の閾値より大きくなる複数の領域組をそれぞれ構成する特定領域を、新規の一つの領域組を構成する特定領域として選択し、選択された特定領域から新規の領域組を生成して、前記領域組に追加する領域組再構成工程と、
を有することを特徴とする請求項1に記載の学習方法。 - 請求項1または2に記載の学習方法で学習された検出器を用いて対象物体の認識処理を行う物体認識方法であって、
取得手段が、撮像手段で撮像された対象物体の画像を取得する取得工程と、
請求項1に記載の学習方法の学習工程で学習された検出器が、前記取得工程で取得された前記画像から、前記画像に含まれる部分領域の画像として複数の特定領域を検出する検出工程と、
生成手段が、前記検出工程で検出された前記複数の特定領域のうち所定の距離の範囲内にある特定領域を組み合わせた領域組を生成する生成工程と、
領域組推定手段が、前記生成工程で生成された前記領域組について、前記撮像手段の座標系を基準とした検出位置情報および前記対象物体の3次元モデル上の座標位置情報を求め、前記検出位置情報と前記座標位置情報との差分を最小にする位置と、前記位置に対応する姿勢とを、前記領域組の推定位置および推定姿勢とする領域組推定工程と、
投票手段が、前記領域組推定工程で推定された前記領域組の推定位置および推定姿勢に対して請求項2に記載の学習方法の収束判断工程で確定された投票重みを、前記検出器から出力される位置および姿勢の投票値に乗じる演算処理を行う投票工程と、
対象物体推定手段が、前記投票工程の演算処理で前記検出器から出力される位置および姿勢の投票値に前記投票重みを乗じた値を全ての領域組について演算し、前記演算の結果を加算することにより求められる累積投票値が極大となる位置および姿勢を演算し、前記極大となる位置および姿勢における前記累積投票値の値が所定の閾値以上であるときに、前記累積投票値が極大となる位置および姿勢を前記対象物体の位置および姿勢と推定する対象物体推定工程と、
を有することを特徴とする物体認識方法。 - 対象物体の既知の三次元モデルから複数の特定領域を選択する選択手段と、
前記選択手段で選択された前記特定領域を検出する検出器の学習を行う学習手段と、
前記学習手段で学習された前記検出器により前記複数の特定領域のうち所定の領域の位置および姿勢の認識処理を行う評価手段と、
前記評価手段における前記認識処理の結果の認識精度に従って、前記検出器の出力に対する投票重みを設定する正規化手段と、
を備えることを特徴とする学習装置。 - 既に設定済みの投票重みと、前記正規化手段で新たに設定された投票重みとの差分が所定の閾値を超える場合に、前記評価手段および前記正規化手段の処理を繰り返し実行させ、前記差分が所定の閾値以内の場合に、前記正規化手段で設定された投票重みは収束したものと判断し、前記投票重みを確定する収束判断手段を更に備えることを特徴とする請求項7に記載の学習装置。
- 請求項7または8に記載の学習装置で学習された検出器を用いて対象物体の認識処理を行う物体認識装置であって、
撮像手段で撮像された対象物体の画像を取得する取得手段と、
請求項7に記載の学習装置の学習手段で学習された検出器を用いて、前記取得手段で取得された前記画像から、前記画像に含まれる部分領域の画像として複数の特定領域を検出する検出手段と、
前記検出手段で検出された前記複数の特定領域のうち所定の距離の範囲内にある特定領域を組み合わせた領域組を生成する生成手段と、
前記生成手段で生成された前記領域組について、前記撮像手段の座標系を基準とした検出位置情報および前記対象物体の3次元モデル上の座標位置情報を求め、前記検出位置情報と前記座標位置情報との差分を最小にする位置と、前記位置に対応する姿勢とを、前記領域組の推定位置および推定姿勢とする領域組推定手段と、
前記領域組推定手段で推定された前記領域組の推定位置および推定姿勢に対して請求項8に記載の学習装置の収束判断手段で確定された投票重みを、前記検出器から出力される位置および姿勢の投票値に乗じる演算処理を行う投票手段と、
前記投票手段の演算処理で前記検出器から出力される位置および姿勢の投票値に前記投票重みを乗じた値を全ての領域組について演算し、前記演算の結果を加算することにより求められる累積投票値が極大となる位置および姿勢を演算し、前記累積投票値が極大となる位置および姿勢における前記累積投票値の値が所定の閾値以上であるときに、前記極大となる位置および姿勢を前記対象物体の位置および姿勢と推定する対象物体推定手段と、
を有することを特徴とする物体認識装置。 - コンピュータを、請求項7に記載の学習装置の各手段として機能させるためのプログラム。
- コンピュータを、請求項9に記載の物体認識装置の各手段として機能させるためのプログラム。
- 検出器の学習を行う請求項7に記載の学習装置と、
前記学習装置で学習された検出器を用いて対象物体の認識処理を行う請求項9に記載の物体認識装置と、
を有することを特徴とする情報処理システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010281008A JP5759161B2 (ja) | 2010-12-16 | 2010-12-16 | 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム |
US13/298,641 US8965114B2 (en) | 2010-12-16 | 2011-11-17 | Object recognition apparatus, object recognition method, learning apparatus, learning method, storage medium and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010281008A JP5759161B2 (ja) | 2010-12-16 | 2010-12-16 | 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012128744A true JP2012128744A (ja) | 2012-07-05 |
JP5759161B2 JP5759161B2 (ja) | 2015-08-05 |
Family
ID=46234501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010281008A Active JP5759161B2 (ja) | 2010-12-16 | 2010-12-16 | 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US8965114B2 (ja) |
JP (1) | JP5759161B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015194478A (ja) * | 2014-03-20 | 2015-11-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
WO2019194128A1 (ja) * | 2018-04-04 | 2019-10-10 | 日本電信電話株式会社 | モデル学習装置、モデル学習方法、プログラム |
WO2020080045A1 (ja) * | 2018-10-15 | 2020-04-23 | パナソニックIpマネジメント株式会社 | 物体認識方法、車両制御方法、情報表示方法、および物体認識装置 |
JP2021503139A (ja) * | 2017-11-27 | 2021-02-04 | 日本電気株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP7367383B2 (ja) | 2019-08-21 | 2023-10-24 | 富士通株式会社 | 画像認識アプリケーション構築支援システム及びプログラム |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5651659B2 (ja) * | 2012-08-31 | 2015-01-14 | 株式会社東芝 | 物体検出システムおよびプログラム |
US9881383B2 (en) * | 2013-01-28 | 2018-01-30 | Virtek Vision International Ulc | Laser projection system with motion compensation and method |
US9998684B2 (en) * | 2013-08-16 | 2018-06-12 | Indiana University Research And Technology Corporation | Method and apparatus for virtual 3D model generation and navigation using opportunistically captured images |
US9747680B2 (en) | 2013-11-27 | 2017-08-29 | Industrial Technology Research Institute | Inspection apparatus, method, and computer program product for machine vision inspection |
TWI531983B (zh) * | 2014-04-30 | 2016-05-01 | 聚晶半導體股份有限公司 | 使用多鏡頭輔助的影像辨識系統及其方法 |
CN104318248B (zh) * | 2014-10-21 | 2018-04-06 | 北京智谷睿拓技术服务有限公司 | 动作识别方法及动作识别装置 |
GB2532075A (en) | 2014-11-10 | 2016-05-11 | Lego As | System and method for toy recognition and detection based on convolutional neural networks |
US9727800B2 (en) * | 2015-09-25 | 2017-08-08 | Qualcomm Incorporated | Optimized object detection |
JP6431495B2 (ja) * | 2016-03-25 | 2018-11-28 | 本田技研工業株式会社 | 教師データ生成方法 |
DE102016108973A1 (de) * | 2016-05-13 | 2017-11-16 | Dürr Assembly Products GmbH | Verfahren zur Erkennung der Richtung der Orientierung eines Fahrzeugs sowie Verwendung des Verfahrens |
CN108009576A (zh) * | 2017-11-28 | 2018-05-08 | 中国地质大学(武汉) | 一种目标匹配的物体识别方法、设备及存储设备 |
CN110875874B (zh) * | 2018-09-03 | 2022-06-07 | Oppo广东移动通信有限公司 | 一种电子红包检测方法、装置及移动终端 |
US10748033B2 (en) * | 2018-12-11 | 2020-08-18 | Industrial Technology Research Institute | Object detection method using CNN model and object detection apparatus using the same |
CN111310535B (zh) * | 2018-12-11 | 2023-07-14 | 财团法人工业技术研究院 | 使用卷积神经网络模型的对象检测方法及对象检测设备 |
US11113588B2 (en) * | 2019-10-02 | 2021-09-07 | United States Of America As Represented By The Secretry Of The Navy | Randomization-based hierarchical and associatively assisted vector learning for machine vision |
CN111401221B (zh) * | 2020-03-12 | 2023-04-25 | 重庆农村商业银行股份有限公司 | 一种卡票识别方法、装置、设备及存储介质 |
CN113536557B (zh) * | 2021-07-02 | 2023-06-09 | 江苏赛诺格兰医疗科技有限公司 | 成像系统中探测器布局的优化方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08212329A (ja) * | 1995-02-06 | 1996-08-20 | Fujitsu Ltd | 適応的認識システム |
JPH11306354A (ja) * | 1998-04-21 | 1999-11-05 | Matsushita Electric Ind Co Ltd | 画像認識方法及び画像認識装置 |
JP2003271975A (ja) * | 2002-03-15 | 2003-09-26 | Sony Corp | 平面抽出方法、その装置、そのプログラム、その記録媒体及び平面抽出装置搭載型ロボット装置 |
JP2004326693A (ja) * | 2003-04-28 | 2004-11-18 | Sony Corp | 画像認識装置及び方法、並びにロボット装置 |
JP2010257158A (ja) * | 2009-04-23 | 2010-11-11 | Canon Inc | オブジェクト識別装置及びオブジェクト識別方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3346679B2 (ja) | 1994-06-14 | 2002-11-18 | 日本電信電話株式会社 | 画像検査/認識方法、これに用いる参照データ作成方法およびこれらの装置 |
US5638465A (en) | 1994-06-14 | 1997-06-10 | Nippon Telegraph And Telephone Corporation | Image inspection/recognition method, method of generating reference data for use therein, and apparatuses therefor |
JP2008204103A (ja) | 2007-02-19 | 2008-09-04 | Yokohama National Univ | 画像認識システム |
-
2010
- 2010-12-16 JP JP2010281008A patent/JP5759161B2/ja active Active
-
2011
- 2011-11-17 US US13/298,641 patent/US8965114B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08212329A (ja) * | 1995-02-06 | 1996-08-20 | Fujitsu Ltd | 適応的認識システム |
JPH11306354A (ja) * | 1998-04-21 | 1999-11-05 | Matsushita Electric Ind Co Ltd | 画像認識方法及び画像認識装置 |
JP2003271975A (ja) * | 2002-03-15 | 2003-09-26 | Sony Corp | 平面抽出方法、その装置、そのプログラム、その記録媒体及び平面抽出装置搭載型ロボット装置 |
JP2004326693A (ja) * | 2003-04-28 | 2004-11-18 | Sony Corp | 画像認識装置及び方法、並びにロボット装置 |
JP2010257158A (ja) * | 2009-04-23 | 2010-11-11 | Canon Inc | オブジェクト識別装置及びオブジェクト識別方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015194478A (ja) * | 2014-03-20 | 2015-11-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2021503139A (ja) * | 2017-11-27 | 2021-02-04 | 日本電気株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US11380010B2 (en) | 2017-11-27 | 2022-07-05 | Nec Corporation | Image processing device, image processing method, and image processing program |
WO2019194128A1 (ja) * | 2018-04-04 | 2019-10-10 | 日本電信電話株式会社 | モデル学習装置、モデル学習方法、プログラム |
WO2020080045A1 (ja) * | 2018-10-15 | 2020-04-23 | パナソニックIpマネジメント株式会社 | 物体認識方法、車両制御方法、情報表示方法、および物体認識装置 |
JPWO2020080045A1 (ja) * | 2018-10-15 | 2021-09-09 | パナソニックIpマネジメント株式会社 | 物体認識方法、車両制御方法、情報表示方法、および物体認識装置 |
JP7367383B2 (ja) | 2019-08-21 | 2023-10-24 | 富士通株式会社 | 画像認識アプリケーション構築支援システム及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20120155751A1 (en) | 2012-06-21 |
US8965114B2 (en) | 2015-02-24 |
JP5759161B2 (ja) | 2015-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5759161B2 (ja) | 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム | |
JP5800494B2 (ja) | 特定領域選択装置、特定領域選択方法及びプログラム | |
JP6681729B2 (ja) | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム | |
US10189162B2 (en) | Model generation apparatus, information processing apparatus, model generation method, and information processing method | |
JP5746477B2 (ja) | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム | |
JP5111210B2 (ja) | 画像処理装置、画像処理方法 | |
JP5705147B2 (ja) | 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法 | |
JP4650750B2 (ja) | 三次元形状データの記憶・表示方法と装置および三次元形状の計測方法と装置 | |
US8792726B2 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
CN103984362B (zh) | 位置和姿势测量装置、信息处理装置以及信息处理方法 | |
US20100042382A1 (en) | Method and Apparatus for Localizing and Mapping the Position of a Set of Points on a Digital Model | |
CN102236794A (zh) | 3d场景中3d对象的识别和姿态确定 | |
JP2008304268A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
JP2018091656A (ja) | 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法 | |
CN114004894A (zh) | 基于三个标定板的激光雷达与双目相机空间关系确定方法 | |
CN116147618B (zh) | 一种适用动态环境的实时状态感知方法及系统 | |
KR102130687B1 (ko) | 다중 센서 플랫폼 간 정보 융합을 위한 시스템 | |
JP5960642B2 (ja) | 3次元情報取得方法及び3次元情報取得装置 | |
JP2011174891A (ja) | 位置姿勢計測装置、位置姿勢計測方法、及びプログラム | |
CN113793379A (zh) | 相机姿态求解方法及系统、设备和计算机可读存储介质 | |
Li et al. | Absolute pose estimation using multiple forms of correspondences from RGB-D frames | |
KR20220052784A (ko) | 깊이 영상 기반 실시간 바닥 검출방법 | |
Yang et al. | Stereo matching algorithm based on improved census transform | |
Kotthäuser et al. | Triangulation-based plane extraction for 3D point clouds | |
EP4292777A1 (en) | Assistance system, image processing device, assistance method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140916 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150508 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150605 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5759161 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |