JP5680152B2 - オブジェクト検索方法、検索検証方法、及びその装置 - Google Patents

オブジェクト検索方法、検索検証方法、及びその装置 Download PDF

Info

Publication number
JP5680152B2
JP5680152B2 JP2013156401A JP2013156401A JP5680152B2 JP 5680152 B2 JP5680152 B2 JP 5680152B2 JP 2013156401 A JP2013156401 A JP 2013156401A JP 2013156401 A JP2013156401 A JP 2013156401A JP 5680152 B2 JP5680152 B2 JP 5680152B2
Authority
JP
Japan
Prior art keywords
local feature
object image
feature point
detected
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013156401A
Other languages
English (en)
Other versions
JP2014071890A (ja
Inventor
ショウホウ トウ
ショウホウ トウ
ダイウェイ リャン
ダイウェイ リャン
ウェイ ゼン
ウェイ ゼン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC China Co Ltd
Original Assignee
NEC China Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC China Co Ltd filed Critical NEC China Co Ltd
Publication of JP2014071890A publication Critical patent/JP2014071890A/ja
Application granted granted Critical
Publication of JP5680152B2 publication Critical patent/JP5680152B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明はビデオ監視技術の分野に関し、特に、オブジェクト検索方法、検索検証方法、及びその装置に関する。
ビデオ技術の絶え間ない発達に伴い、ビデオ監視の普及は拡大の一途をたどっている。捕捉されたビデオの管理にあたっては、ビデオ内で指定されたオブジェクトを検索することが解決するべき課題であり、重要な研究テーマとなる。
従来技術においては、ビデオ内でオブジェクトを検索する際の1つの方法は、検索対象のオブジェクトイメージのドミナントカラー(支配的な色)を決定し、捕捉されたビデオ内において、同じドミナントカラーを有するオブジェクトイメージを検索するというものである。そして、もう1つの方法は、検索対象のオブジェクトイメージの色ヒストグラムを計算し、その色ヒストグラムに基づいて、ビデオ内の各捕捉イメージと検索対象のオブジェクトイメージとの間の一致度を測定し、それにより検索結果を取得するというものである。
本発明の発明者は、本発明の実装時に、従来技術は少なくとも以下の問題を抱えることを確認している。
まず、色ヒストグラムはイメージ間のグローバルマッチング率のみを反映するため、色ヒストグラムを使用したオブジェクト検索方法の適用範囲は限定的である。加えて、オブジェクトの色は照明等の要因に大きく影響されるので、オブジェクトの特徴を完全に体現しているわけではない。そのため、照明等の外的条件が変動した場合は効果的なオブジェクト検索ができず、オブジェクトの色分布を用いたオブジェクト検索であれ、色ヒストグラムを用いたオブジェクト検索であれ、低精度の検索結果しか得られない。
本発明は、従来技術の問題を解決するため、オブジェクト検索方法、検索検証方法、及びその装置を提供する。その技術的解決法は以下のとおりである。
1つの態様においては、オブジェクト検索方法が提供され、当該方法は、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの特徴的な領域である指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内に含まれる局所特徴点を計算するステップと、
ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップと、
検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップとを含む。
その上、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップの前に、当該方法はさらに、
ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算するステップと、
取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として用いて索引セットを構築するステップとを含む。
具体的には、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップは特に、
指定領域内の局所特徴点と索引セット内の局所特徴点とをクラスタ化し、指定領域内の局所特徴点と同じカテゴリに分類される索引セット内の局所特徴点を、指定領域内の局所特徴点と一致するとして検出された索引として使用するステップを含む。
その上、検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップの後に、当該方法はさらに、
局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップと、
各局所特徴点ペアにおける2つの局所特徴点間の角度差を計算し、計算で得られた角度差から1つの基本角度差を決定するステップと、
各角度差から基本角度差までの距離を計算し、その距離に基づいて、被検出オブジェクトイメージを検証するステップとを含む。
あるいは、検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップの後に、当該方法はさらに、
局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップと、
任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算するステップと、
計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用するステップと、
被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するステップとを含む。
その上、検索対象のオブジェクトイメージを取得するステップの後に、当該方法はさらに、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを表示するステップを含む。
その上、検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップの後に、当該方法はさらに、
被検出オブジェクトイメージを表示するステップを含む。
その上、当該方法はさらに、
検証に合格したオブジェクトイメージを表示するステップを含む。
他の態様においては、オブジェクト検索装置が提供され、当該装置は、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの特徴的な領域である指定領域とを取得するように構成された第1取得モジュールと、
第1取得モジュールによって取得された検索対象のオブジェクトイメージの指定領域内に含まれる局所特徴点を計算するように構成された計算モジュールと、
ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、計算モジュールによって計算された指定領域内の局所特徴点と一致する索引を検索するように構成された検出モジュールと、
検出モジュールによって検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するように構成された第2取得モジュールとを含む。
その上、当該装置はさらに、
ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算し、取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として用いて索引セットを構築するように構成された索引セット構築モジュールを含む。
検出モジュールは、具体的には、指定領域内の局所特徴点と索引セット内の局所特徴点とをクラスタ化し、指定領域内の局所特徴点と同じカテゴリに分類される索引セット内の局所特徴点を、指定領域内の局所特徴点と一致するとして検出された索引として使用するように構成される。
その上、当該装置はさらに、
局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得し、各局所特徴点ペアにおける2つの局所特徴点間の角度差を計算し、計算で得られた角度差から1つの基本角度差を決定し、各角度差から基本角度差までの距離を計算し、その距離に基づいて、被検出オブジェクトイメージを検証するように構成された第1検証モジュールとを含む。
あるいは、当該装置はさらに、
局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得し、任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算し、計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するように構成された第2検証モジュールを含む。
その上、当該装置はさらに、
第1取得モジュールによって取得された、検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを表示するように構成された第1GUIを含む。
その上、当該装置はさらに、
第2取得モジュールによって取得されたオブジェクトイメージを表示するように構成された第2GUIを含む。
その上、当該装置はさらに、
第1検証モジュールと第2検証モジュールによる検証に合格したオブジェクトイメージを表示するように構成された第3GUIを含む。
1つの態様においては、オブジェクト検証方法が提供され、当該方法は、
局所特徴点ペアを取得するために、検索対象のオブジェクトイメージの特徴的な領域である指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップと、
任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算するステップと、
計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用するステップと、
被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するステップとを含む。
その上、検索対象のオブジェクトイメージの指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップの前に、当該方法はさらに、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内における局所特徴点を計算するステップと、
ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップと、
検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップとを含む。
その上、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップの前に、当該方法はさらに、
ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算するステップと、
取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として用いて索引セットを構築するステップとを含む。
具体的には、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップは特に、
指定領域内の局所特徴点と索引セット内の局所特徴点とをクラスタ化し、指定領域内の局所特徴点と同じカテゴリに分類される索引セット内の局所特徴点を、指定領域内の局所特徴点と一致するとして検出された索引として使用するステップを含む。
その上、検索対象のオブジェクトイメージを取得するステップの後に、当該方法はさらに、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを表示するステップを含む。
その上、検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップの後に、当該方法はさらに、
被検出オブジェクトイメージを表示するステップを含む。
その上、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するステップの後に、当該方法はさらに、
検証に合格したオブジェクトイメージを表示するステップを含む。
他の態様においては、検索検証装置が提供され、当該装置は、
局所特徴点ペアを取得するために、検索対象のオブジェクトイメージの特徴的な領域である指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するように構成された第1取得モジュールと、
第1取得モジュールによって取得された任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算するように構成された計算モジュールと、
計算モジュールによって計算された角度差が、当該線分ペアによって形成される角度と等しいかどうかを判定するように構成された判定モジュールと、
計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するように構成された検証モジュールとを含む。
その上、当該装置はさらに、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内に含まれる局所特徴点を計算し、ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索し、検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するように構成された検索モジュールとを含む。
その上、当該装置はさらに、
ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算し、取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として用いて索引セットを構築するように構成された索引セット構築モジュールを含む。
検索モジュールは、具体的には、指定領域内の局所特徴点と索引セット内の局所特徴点とをクラスタ化し、指定領域内の局所特徴点と同じカテゴリに分類される索引セット内の局所特徴点を、指定領域内の局所特徴点と一致するとして検出された索引として使用するように構成される。
本発明が提供する技術的解決法は、以下の有益な効果を達成する。
上記のオブジェクト検索方法によれば、検索対象のオブジェクトイメージの特徴的な領域である指定領域内の局所特徴点を使用して、ビデオ内から1つ以上のオブジェクトイメージが検出される。これにより、オブジェクト検索は、イメージの局所領域を使用して実行される。加えて、局所特徴点の計算は照明等の外的要因の影響を受けないので、ビデオ内のオブジェクトが有効に検出されるため、検索結果の精度が向上する。
上記の検索検証方法によれば、任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差と、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度とが計算され、それに基づいて一致する局所特徴点ペアが取得され、その後、一致する局所特徴点ペア数に基づいて、1つ以上の被検出オブジェクトイメージが検証される。このように、計算の複雑性を軽減するという前提に立ち、局所特徴点間の相対的位置関係が効果的に使用されるため、検証性能が向上する。
以下では、本発明の実施例における技術的解決法の理解を容易にするため、実施例を示す添付図面について簡単に説明する。なお、以下の説明で言及される添付図面は、本発明の一部の実施例を示すに過ぎず、当業者は何らの創造的な努力を要することなく、これらの添付図面から他の添付図面を導出できることは明らかである。
本発明の実施例1によるオブジェクト検索方法のフローチャートである。 本発明の実施例1による検索検証方法のフローチャートである。 本発明の実施例2によるオブジェクト検索方法のフローチャートである。 本発明の実施例2によるオブジェクト検索用インタフェースの概略図である。 本発明の実施例2によるイメージ照合の概略図である。 本発明の実施例2による角度差分布の概略図である。 本発明の実施例2による点ペアの概略図である。 本発明の実施例3による検索検証方法のフローチャートである。 本発明の実施例4による第1オブジェクト検索装置の概略的構造図である。 本発明の実施例4による第2オブジェクト検索装置の概略的構造図である。 本発明の実施例4による第3オブジェクト検索装置の概略的構造図である。 本発明の実施例4による第4オブジェクト検索装置の概略的構造図である。 本発明の実施例5による第1検索検証装置の概略的構造図である。 本発明の実施例5による第2検索検証装置の概略的構造図である。 本発明の実施例5による第3検索検証装置の概略的構造図である。
本発明の目的、技術的解決法及び利点を明確にするため、以下では、添付図面を参照して本発明の実施例について詳細に説明する。
本実施例はオブジェクト検索方法を提供する。当該方法は、検索対象のオブジェクトイメージの指定領域に含まれる局所特徴点を使用して、ビデオ内でオブジェクトイメージを検出することにより、イメージの局所領域を使用したオブジェク検索を実行する。図1を参照すると、本実施例で提供される当該方法は、以下のステップを含む。
101:検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの特徴的な領域である指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内における局所特徴点を計算する。
102:ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索する。
その上、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップの前に、当該方法はさらに、
ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算するステップと、
取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として用いて索引セットを構築するステップとを含む。
具体的には、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップは、
指定領域内の局所特徴点と索引セット内の局所特徴点とをクラスタ化し、指定領域内の局所特徴点と同じカテゴリに分類される索引セット内の局所特徴点を、指定領域内の局所特徴点と一致するとして検出された索引として使用するステップを含む。
103:検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用する。
その上、検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップの後に、当該方法はさらに、
局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップと、
各局所特徴点ペアにおける2つの局所特徴点間の角度差を計算し、計算で得られた角度差から1つの基本角度差を決定するステップと、
各角度差から基本角度差までの距離を計算し、その距離に基づいて、被検出オブジェクトイメージを検証するステップとを含む。
あるいは、検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップの後に、当該方法はさらに、
局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップと、
任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算するステップと、
計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用するステップと、
被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するステップとを含む。
その上、検索対象のオブジェクトイメージを取得するステップの後に、当該方法はさらに、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを表示するステップを含む。
その上、検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップの後に、当該方法はさらに、
被検出オブジェクトイメージを表示するステップを含む。
その上、当該方法はさらに、
検証に合格したオブジェクトイメージを表示するステップを含む。
他の態様においては、1つの実施例はさらに検索検証方法を提供する。図2を参照すると、本実施例による検索検証方法は、以下のステップを含む。
201:局所特徴点ペアを取得するために、検索対象のオブジェクトイメージの特徴的な領域である指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々における対応する局所特徴点とを取得する。
その上、検索対象のオブジェクトイメージの指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップの前に、当該方法はさらに、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内における局所特徴点を計算するステップと、
ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップと、
検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップとを含む。
その上、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップの前に、当該方法はさらに、
ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算するステップと、
取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として用いて索引セットを構築するステップとを含む。
具体的には、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップは、
指定領域内の局所特徴点と索引セット内の局所特徴点とをクラスタ化し、指定領域内の局所特徴点と同じカテゴリに分類される索引セット内の局所特徴点を、指定領域内の局所特徴点と一致するとして検出された索引として使用するステップを含む。
202:任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算する。
203:計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用する。
204:被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証する。
その上、検索対象のオブジェクトイメージを取得するステップの後に、当該方法はさらに、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを表示するステップを含む。
その上、検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップの後に、当該方法はさらに、
被検出オブジェクトイメージを表示するステップを含む。
その上、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するステップの後に、当該方法はさらに、
検証に合格したオブジェクトイメージを表示するステップを含む。
本実施例で提供されるオブジェクト検索方法によれば、検索対象のオブジェクトイメージの特徴的な領域である指定領域内の局所特徴点を使用して、ビデオ内から1つ以上のオブジェクトイメージが検出される。これにより、オブジェクト検索は、イメージの局所領域を使用して実行される。加えて、局所特徴点の計算は照明等の外的要因の影響を受けないので、ビデオ内のオブジェクトが有効に検出されるため、検索結果の精度が向上する。
本実施例で提供される検索検証方法によれば、任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差と、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度とが計算され、それに基づいて一致する局所特徴点ペアが取得され、その後、一致する局所特徴点ペア数に基づいて、1つ以上の被検出オブジェクトイメージが検証される。このように、計算の複雑性を軽減するという前提に立ち、局所特徴点間の相対的位置関係が効果的に使用されるため、検証性能が向上する。
オブジェクト検索方法及び検索検証方法を明確に提示するため、上記の実施例で開示された内容を参照し、実施例2及び実施例3を例として用いて、オブジェクト検索方法及び検索検証方法について説明する。詳細については、以下の実施例2及び実施例3を参照されたい。
本実施例はオブジェクト検索方法を提供する。オブジェクト検索時には、オブジェクトイメージは概して特徴的な局所領域を含むので、局所特徴点を利用してオブジェクトイメージの局所特徴を検出及び描画することができる。従って、オブジェクト検索の適用範囲を拡大するため、本実施例で提供される方法は、検索対象のオブジェクトイメージの指定領域に含まれる局所特徴点を使用してオブジェクトイメージを検索することにより、イメージの局所領域を使用したオブジェク検索を実行する。以下では、実施例1の説明を参照して本実施例を説明するが、説明の便宜上、SIFT(scale−invariant feature transform)点を一例として用いる。図3を参照すると、本実施例で提供される当該方法は、以下のステップを含む。
301:ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内のSIFT点を計算する。
このステップの具体的な実装方法においては、まずビデオが取得される。このビデオには、多くの場合、樹木、自動車、建物、人等の様々なオブジェクトが含まれる。次に、取得された後、ビデオが対応するイメージ系列に変換され、イメージ系列内の各イメージに対してオブジェクト検出が実行され、マルチフレームのオブジェクトを含むイメージが取得される。これらのイメージは、フレーム番号によって識別される。識別されたマルチフレームのオブジェクトを含むイメージは、フォアグラウンドイメージとバックグラウンドイメージとから成る。イメージ内のオブジェクトイメージは、通常、オブジェクトを含むイメージのフォアグラウンドイメージである。オブジェクトイメージの識別では、座標、長さ、幅等の情報が使用される。これにより、座標、長さ、幅等の情報に基づいて、オブジェクトを含むイメージからオブジェクトイメージを抽出し、抽出したオブジェクトイメージのSIFT点が計算される。SIFT点を計算するための方法については、従来技術に既知のものがいくつかある。SIFT点の計算はこうした従来技術で開示された方法によって行うことができるので、ここではさらなる詳述を控える。
ビデオを取得する方法については、ビデオ技術の絶え間ない発達により、ビデオ捕捉装置が多様なシナリオで広く使用されているので、ビデオ捕捉装置を使用して大量なビデオを捕捉及び取得することができる。また、多くの場合、取得されたビデオは限定的な範囲のシナリオ情報を反映するので、取得するビデオの量が多いほど、ビデオから取得されるオブジェクトイメージは多様となり、オブジェクト検索の範囲も広範になる。この理由から、概して大量なビデオが取得される。本実施例は、具体的な実装時に取得されるビデオの数とオブジェクトイメージの数を限定しない。
302:取得したSIFT点をクラスタ化し、クラスタ中心のSIFT点を索引として用いて索引セットを構築する。
このステップでは、取得されたSIFT点は数通りの方法でクラスタ化することができる。本実施例で採用される方法には、K−平均アルゴリズムを使用して取得されたすべてのSIFT点をクラスタ化する方法等がある。具体的な計算プロセスは以下のとおりである。
まず、すべてのSIFT点から、K個のカテゴリの初期クラスタ中心として、K個のSIFT点が無作為に選択され、各SIFT点とK個の初期クラスタ中心との間の類似性が計算される。具体的には、この類似性は、各SIFT点とK個の初期クラスタ中心との間のユークリッド距離またはマハラノビス距離を計算するか、または類似性計算のための他の類似した方法を使用して計算することができる。本実施例では、この計算方法は特定のものに限定されない。
次に、各SIFT点とK個のクラスタ中心との間の類似性が計算された後、SIFT点が類似性に基づいて対応するカテゴリにグループ分けされてK個のカテゴリが取得され、各カテゴリの各2つのSIFT点間の類似性が計算されて各カテゴリのクラスタ中心が再度取得される。このようにして、SIFT点が正しくクラスタ化される。
取得された各クラスタ中心は、対応する1つのSIFT点でもある。そして、クラスタ中心であるSIFTは、SIFT点の1つのカテゴリを表す。このカテゴリに含まれるSIFT点は、オブジェクトイメージの1つのカテゴリに対応する。そのため、本実施例においては、各カテゴリのクラスタ中心が取得された後に、クラスタ中心のSIFT点を索引として用いて索引セットが構築され、オブジェクトイメージに基づいてSIFT点が取得されてクラスタ化された後に、クラスタ中心としてのSIFT点が、対応するカテゴリに含まれるオブジェクトイメージを検索するための索引として使用される。例えば、オブジェクトイメージA、B、C、D、E、及びFに含まれるSIFT点がそれぞれ計算されてクラスタ化され、このうちオブジェクトイメージA、B、C、及びDは同じクラスタ中心のSIFT点1に対応し、オブジェクトイメージE及びFは同じクラスタ中心のSIFT点2に対応する。SIFT点1とSIFT点2を索引として用いて索引セットが構築された後には、オブジェクトイメージA、B、C、及びDはSIFT点1をクエリすることにより特定でき、オブジェクトイメージE及びFはSIFT点2をクエリすることにより特定できる。
ここで、ステップ301及び302に示した索引セットを構築するプロセスは、ビデオに基づいて検索データベースを構築するプロセスとみなすことができることに留意されたい。すべてのビデオは索引セットとして記憶されるので、索引セットを使用すれば、指定された索引に対応するオブジェクトイメージが検出される。そのため、ステップ301及び302はオブジェクト検索の前提条件として、オブジェクト検索方法を実行する前に実行することができる。また、本実施例で提供されるオブジェクト検索方法の実行中にビデオが変化しない場合には、ステップ301及び302を反復して実行する必要はなく、同じ索引セットに基づいてオブジェクトを検出することができる。一方、ビデオが変化するか新しいビデオが取得された場合には、ステップ301及び302を再度実行して、対応する索引セットを構築する必要がある。
303:検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの特徴的な領域である指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内におけるSIFT点を計算する。
検索対象のオブジェクトイメージはユーザが指定することができ、この場合は、指定されたオブジェクトイメージに基づいて、ビデオ内の対応するオブジェクトイメージが検出される。具体的な実装においては、本実施例による方法は、検索対象のオブジェクトイメージを入力するためのインタフェース、すなわちGUIを提供する。ユーザはこの入力インタフェース上で検索対象の対応するオブジェクトイメージを選択して入力する。入力されたオブジェクトイメージは取得された検索対象のオブジェクトイメージとして使用され、そのオブジェクトイメージが表示される。ユーザは、入力インタフェース上で対応する検索対象のオブジェクトイメージを入力した後、検索対象のオブジェクトイメージから、例えば衣服の柄や自動車のロゴやマウンティングブラケット等の特徴的な局所領域を選択することもできる。選択された局所領域は指定領域として使用され、以降のステップでは、指定領域内のSIFT点に基づいてオブジェクトが検出される。つまり、この場合の指定領域は、GUI上でユーザによって選択された特徴的領域となる。
理解を容易にするため、以下では、図4に示すユーザ用の入力インタフェースが提供され、ユーザが提供された入力インタフェース上で自動車を検索対象のオブジェクトイメージとして選択して入力するケースを例として説明する。図4に示す参照記号41は、検索対象のオブジェクトイメージを入力する際のオプション項目を示す。ユーザがこのオプション項目を選択して、検索対象のオブジェクトイメージを入力する操作を実行すると、選択され、入力された検索対象のオブジェクトイメージが取得され、取得された検索対象のオブジェクトイメージ42が入力インタフェースに表示される。さらに、ユーザはマウス等の入力デバイスを使用して、図4に示す、表示された検索対象のオブジェクトイメージ42内の指定領域421をマーキングすることもできる。これをもってユーザの入力操作は完了し、続いて、ユーザが入力した検索対象のオブジェクトイメージとユーザが指定した指定領域とを取得して、従来のSIFT点計算方法によって指定領域内のSIFT点を計算するプロセスが開始される。
304:ビデオ内におけるオブジェクトイメージのSIFT点に基づいて構築される、事前構築された索引セット内において、指定領域内のSIFT点と一致する索引を検索する。
具体的には、本実施例においては、事前構築された索引セット内で、指定領域内のSIFT点と一致する索引が検出される。検出方法は、以下を含むがこれに限定されない。
すなわち、指定領域内のSIFT点と索引セット内のSIFT点とをクラスタ化し、指定領域内のSIFT点と同じカテゴリに分類される索引セット内のSIFT点を、指定領域内のSIFT点と一致するとして検出されたSIFT点として使用する。
指定領域内のSIFT点と索引セット内のSIFT点とのクラスタ化は、ステップ302で説明されるクラスタ化方法を用いて行うことができる。具体的には、指定領域内のSIFT点と索引セット内のSIFT点とがクラスタ化され、指定領域内のSIFT点と同じカテゴリに分類されるSIFT点が、検出された索引として使用される。
305:検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用する。
このステップにおいては、ステップ302での索引セットの構築時には、索引セット内の各索引はオブジェクトイメージのカテゴリに対応するので、検出された索引に基づいて、オブジェクトイメージの対応するカテゴリを取得することができる。さらに、検出された索引は指定領域内のSIFT点と一致するSIFT点なので、検出された索引に基づいて取得されたオブジェクトイメージもまた指定領域内の特徴を含む。このように、取得されたオブジェクトイメージは、ビデオ内の被検出オブジェクトイメージとして使用でき、これにより検索結果を得ることができる。
加えて、本実施例で提供される方法はさらに、ユーザに検索結果を通知するために、被検出オブジェクトイメージを表示する動作をサポートしている。被検出オブジェクトイメージは、具体的には、検索対象のオブジェクトイメージを表示するためのインタフェースに、被検出オブジェクトイメージを表示する等の方法で表示することができる。例えば、図4に示すインタフェースでは、インタフェースの左側においてユーザが検索対象のオブジェクトイメージを選択して入力し、指定領域を選択した後に、図4に示すインタフェースの右側に、ステップ305で被検出オブジェクトイメージが表示される。
さらに、ビデオ内で検出された1つ以上のオブジェクトイメージが、検索対象のオブジェクトイメージと完全に一致する場合には、これらの間に存在するSIFT点ペアは角度差及びスケールの面で一致している。以下では、図5に示す検索対象のオブジェクトイメージの指定領域と被検出オブジェクトイメージ、並びに図6に示す角度差分布を例として用いて、さらに説明する。図6に示すヒストグラムから分かるように、4つのタイプの角度差が計算されている。ここで、角度差の過半数は2つのタイプに該当し、ヒストグラムの2つの領域に集中している。他の領域の角度差は、不一致に起因する角度差とみなすことができる。そのため、不一致による検索結果を除去してオブジェクト検索の精度をさらに高めるため、本実施例で提供される方法はさらに、被検出オブジェクトイメージを検証する動作をサポートする。具体的な検証方法は、以下の2つを含むがこれに限定されない。
検証方法1:SIFT点ペアを取得するために、指定領域内の各SIFT点と、被検出オブジェクトイメージの各々に対応するSIFT点とを取得し、各SIFT点ペアにおける2つのSIFT点間の角度差を計算し、計算で得られた角度差から1つの基本角度差を決定し、各角度差から基本角度差までの距離を計算し、その距離に基づいて、被検出オブジェクトイメージを検証する。
ここで、4つのSIFT点ペア(f1,g1)、(f2,g2)、(f3,g3)、及び(f4,g4)を例として、検証方法1について説明する。2つのイメージが互いに一致する場合、それぞれのSIFT点ペアにおけるSIFT点間の差は同じである。図7に示すように、この2つのイメージにおいては、SIFT点ペア(f4,g4)における2つのSIFT点の位置は同じではないので、この2つのSIFT点間の角度差は、他の任意のSIFT点ペアにおける2つのSIFT点間の角度差と等しくない。計算で得られた角度差から1つの基本角度差を決定する際には、マッチ数が最も多い角度差が基本角度差として決定され、各角度差から基本角度差までの距離が計算される。そして、それ以降には、1つ以上の被検出オブジェクトイメージがこの距離に基づいて検証される。
検証時には、当該1つ以上の被検出オブジェクトイメージが、各被検出オブジェクトイメージの各角度差から基本角度差までの距離の総和に基づいてソートされるか、または各被検出オブジェクトイメージの角度差から基本角度差までの距離のうち最大の距離に基づいてソートされ、ソートされた被検出オブジェクトイメージから事前設定された数の被検出オブジェクトイメージが最終検索結果として選択される。被検出オブジェクトイメージのソートは昇順または降順のどちらでも行うことができ、本実施例では限定されない。加えて、事前設定される選択すべき被検出オブジェクトイメージの数もまた、本実施例では限定されない。距離の大きさは一致エラーの程度の大きさを示す。そのため、距離の小さい被検出オブジェクトイメージを、検証に合格したオブジェクトイメージとして選択することができる。
検証方法2:SIFT点ペアを取得するために、指定領域内の各SIFT点と、被検出オブジェクトイメージの各々に対応するSIFT点とを取得し、任意の2つのSIFT点ペアの各々における2つのSIFT点間の角度差を計算し、当該任意の2つのSIFT点ペアによって形成される線分ペアによって形成される角度を計算し、計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つのSIFT点ペアを一致するSIFT点ペアとして使用し、被検出オブジェクトイメージの各々における一致するSIFT点ペア数を計数し、被検出オブジェクトイメージ内の一致するSIFT点ペア数に基づいて、被検出オブジェクトイメージを検証する。
第2検証方法の詳細については実施例3の説明を参照できるので、ここではさらなる詳述は控える。
本実施例で提供される方法によれば、オブジェクト検索時に、検索対象のオブジェクトイメージの特徴的な領域である指定領域内のSIFT点を使用して、ビデオ内から1つ以上のオブジェクトイメージが検出される。このように、オブジェクト検索はイメージの局所領域を使用して実行されるので、オブジェクト検索の適用範囲が拡大される。加えて、SIFT点の計算は照明等の外的要因の影響を受けないので、ビデオ内のオブジェクトが有効に検出されるため、検索結果の精度が向上する。さらに、1つ以上のオブジェクトイメージが検出された後に、これらのオブジェクトイメージが検証される。これにより、一致しないオブジェクトイメージが除去されるため、検索結果の精度はさらに向上する。
本実施例は検索検証方法を提供する。以下では本実施例について、実施例1の説明を参照し、実施例2で提供されたオブジェクト検索方法により取得された検索結果を検証する動作を例として説明する。本実施例では、説明の便宜上、SIFT点を例として使用する。図8を参照すると、本実施例で提供される当該方法は、以下のステップを含む。
801:SIFT点ペアを取得するために、検索対象のオブジェクトイメージの特徴的な領域である指定領域内の各SIFT点と、被検出オブジェクトイメージに対応するSIFT点とを取得する。
検索対象のオブジェクトイメージ、検索対象のオブジェクトイメージの指定領域、及び指定領域内のSIFT点を取得する動作の詳細については、実施例2のステップ303を参照できるので、ここではさらなる詳述を控える。1つ以上の被検出オブジェクトイメージとは、実施例2で提供されるオブジェクト検索方法によりビデオ内で検出されたオブジェクトイメージである。そのため、検索対象のオブジェクトイメージの指定領域内の各SIFT点と、被検出オブジェクトイメージの各々における対応するSIFT点とを取得するステップの前に、当該方法はさらに、
検索対象のオブジェクトイメージと、ユーザによってGUI上で選択された特徴的な領域である検索対象のオブジェクトイメージの指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内におけるSIFT点を計算するステップと、
ビデオ内におけるオブジェクトイメージのSIFT点に基づいて構築される、事前構築された索引セット内において、指定領域内のSIFT点と一致する索引を検索するステップと、
検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップとを含む。
その上、事前構築された索引セット内において、指定領域内のSIFT点と一致する索引を検索するステップの前に、当該方法はさらに、
ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内のSIFT点を計算するステップと、
取得したSIFT点をクラスタ化し、クラスタ中心のSIFT点を索引として使用して、索引セットを構築するステップとを含む。
具体的には、事前構築された索引セット内において、指定領域内のSIFT点と一致する索引を検索するステップは特に、
指定領域内のSIFT点と索引セット内のSIFT点とをクラスタ化し、指定領域内のSIFT点と同じカテゴリに分類される索引セット内のSIFT点を、指定領域内のSIFT点と一致するとして検出されたSIFT点として使用するステップを含む。
被検出オブジェクトイメージを取得するステップについては実施例2の説明を参照できるので、ここではさらなる詳述を控える。
802:任意の2つのSIFT点ペアの各々における2つのSIFT点間の角度差を計算し、当該任意の2つのSIFT点ペアによって形成される線分ペアによって形成される角度を計算する。
このステップについては、説明の便宜上、図7に示す2つのSIFT点ペア(f1,g1)、(f4,g4)、及び4つのSIFT点ペア(f1,g1)、(f2,g2)、(f3,g3)、(f4,g4)におけるSIFT点間の角度差と、当該2つのSIFT点ペアによって形成される線分ペアによって形成される角度とを例として用いる。これらの角度差と角度は、以下の式で表される。
SIFTAngle(f1)−SIFTAngle(g1);
SIFTAngle(f4)−SIFTAngle(g4);
Angle(f1f4,g1g4);
「SIFTAngle(f1)−SIFTAngle(g1)」はf1及びg1間の角度差を示し、「SIFTAngle(f4)−SIFTAngle(g4)」はf4及びg4間の角度差を示し、「Angle(f1f4,g1g4)」はf1及びf4によって形成される線分とg1及びg4によって形成される線分とによって形成される線分ペアによって形成される角度を示す。この角度差と角度は、SIFT点の位置、スケール、及び方向を使用して取得することができる。線分ペアによって形成される角度の計算は、SIFT点の相対的位置関係を始めとする空間的情報を使用して行われるので、検証性能が向上する。
803:計算で得られた角度差が当該線分ペアによって形成される計算で得られた角度と等しいかどうかを判定し、等しい場合にはステップ804を実行し、等しくない場合にはステップ805を実行する。
このステップにおいては、計算で得られた角度差が当該線分ペアによって形成される計算で得られた角度と等しいかどうかが判定される。その理由は、検索対象のオブジェクトイメージが被検出オブジェクトイメージと一致する場合は、この2つの一致するオブジェクトイメージ内における任意の2つのSIFT点ペアに含まれるSIFT点間の角度差と、この2つの一致するオブジェクトイメージ内の当該任意の2つのSIFT点ペアによって形成される線分ペアによって形成される角度は同じだからである。そのため、このステップの判定結果が、計算で得られた角度差が当該線分ペアによって形成される計算で得られた角度と等しいことを示す場合は、ステップ804が実行され、等しくないことを示す場合にはステップ805が実行される。
804:当該任意の2つのSIFT点ペアを一致するSIFT点ペアとして使用して、ステップ806を実行する。
ステップ803において、ステップ802で取得された角度差が線分ペアによって形成される角度と等しいと判定された場合には、当該任意の2つのSIFT点ペアは一致するSIFT点ペアとして使用される。
805:当該任意の2つのSIFT点ペアを一致しないSIFT点ペアとして使用する。
ステップ803において、ステップ802で取得された角度差が線分ペアによって形成される角度と等しくないと判定された場合には、当該任意の2つのSIFT点ペアは一致しないSIFT点ペアとして使用される。
806:被検出オブジェクトイメージ内の一致するSIFT点ペア数を計数し、被検出オブジェクトイメージ内の一致するSIFT点ペア数に基づいて、被検出オブジェクトイメージを検証する。
このステップにおいては、被検出オブジェクトイメージ内の任意の2つのSIFT点ペアに対して、ステップ802及び803に基づいて一致するか否かの判定が実行され、被検出オブジェクトイメージの各々における一致するSIFT点ペア数が計数される。そして、一致するSIFT点ペア数に基づいて、1つ以上の被検出オブジェクトイメージが検証される。
検証時には、1つ以上の被検出オブジェクトイメージが、一致するSIFT点ペア数に基づいてソートされ、ソートされた被検出オブジェクトイメージから、事前設定された数の被検出オブジェクトイメージが検証に合格したオブジェクトイメージとして選択される。当該1つ以上の被検出オブジェクトイメージが、一致するSIFT点ペア数に基づいてソートされる際には、昇順または降順のどちらでも行うことができ、本実施例では限定されない。加えて、事前設定される選択すべき被検出オブジェクトイメージの数もまた、本実施例では限定されない。一致するSIFT点ペア数が少ないことは一致エラーの程度が大きいことを意味し、一致するSIFT点ペア数が多いことは一致エラーの程度が小さいことを意味する。従って、一致するSIFT点ペア数が多いオブジェクトイメージを、検証に合格したオブジェクトイメージとして選択することができる。
その上、本実施例で提供される方法は、検証に合格したオブジェクトイメージに関して、オブジェクトイメージを表示する動作をさらにサポートする。オブジェクトイメージは様々な方法で表示することができ、その方法は本実施例では限定されない。
ここで、本実施例で提供される検索検証方法はさらに、実施例1または実施例2で提供されるオブジェクト検索方法を用いて検出されたオブジェクトイメージを検証する動作に加えて、他のオブジェクト検索方法を用いて検出されたオブジェクトイメージも検証できることに留意されたい。本実施例は、検証対象の被検出オブジェクトイメージを取得する方法を限定しない。
本実施例で提供される検索検証方法によれば、任意の2つのSIFT点ペアの各々における2つのSIFT点間の角度差と、当該任意の2つのSIFT点ペアによって形成される線分ペアによって形成される角度とが計算され、それに基づいて一致するSIFT点ペアが取得され、さらに、一致するSIFT点ペア数に基づいて、1つ以上の検出されたオブジェクトイメージが検証される。このように、計算の複雑性を軽減するという前提に立ち、SIFT点間の相対的位置関係が効果的に使用されるため、検証性能が向上する。
本実施例は、実施例1〜2で提供されるオブジェクト検索方法を実行するように構成されたオブジェクト検索装置を提供する。図9を参照すると、当該装置は、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの特徴的な領域である指定領域とを取得するように構成された第1取得モジュール901と、
第1取得モジュール901によって取得された検索対象のオブジェクトイメージの指定領域内に含まれる局所特徴点を計算するように構成された計算モジュール902と、
ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、計算モジュール902によって計算された指定領域内の局所特徴点と一致する索引を検索するように構成された検出モジュール903と、
検出モジュール903によって検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するように構成された第2取得モジュール904とを含む。
図10を参照すると、当該装置は、
ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算し、取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として使用して、索引セットを構築するように構成された索引セット構築モジュール905を含む。
検出モジュール903は、具体的には、指定領域内の局所特徴点と索引セット内の局所特徴点とをクラスタ化し、指定領域内の局所特徴点と同じカテゴリに分類される索引セット内の局所特徴点を、指定領域内の局所特徴点と一致するとして検出された索引として使用するように構成される。
その上、図11を参照すると、当該装置はさらに、
局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得し、各局所特徴点ペアにおける2つの局所特徴点間の角度差を計算し、計算で得られた角度差から1つの基本角度差を決定し、各角度差から基本角度差までの距離を計算し、その距離に基づいて、被検出オブジェクトイメージを検証するように構成された第1検証モジュール906を含む。
その上、図12を参照すると、当該装置はさらに、
局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得し、任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算し、計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するように構成された第2検証モジュール907を含む。
その上、当該装置はさらに、
第1取得モジュール901によって取得された、検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを表示するように構成された第1GUIを含む。
その上、当該装置はさらに、
第2取得モジュール904によって取得されたオブジェクトイメージを表示するように構成された第2GUIを含む。
その上、当該装置はさらに、
第1検証モジュール906と第2検証モジュール907による検証に合格したオブジェクトイメージを表示するように構成された第3GUIを含む。
本実施例で提供される装置によれば、オブジェクト検索時に、検索対象のオブジェクトイメージの特徴的な領域である指定領域内の局所特徴点を使用して、ビデオ内から1つ以上のオブジェクトイメージが検出される。このように、オブジェクト検索はイメージの局所領域を使用して実行されるので、オブジェクト検索の適用範囲が拡大される。加えて、局所特徴点の計算は照明等の外的要因の影響を受けないので、ビデオ内のオブジェクトが有効に検出されるため、検索結果の精度が向上する。さらに、1つ以上のオブジェクトイメージが検出された後に、これらのオブジェクトイメージが検証される。これにより、一致しないオブジェクトイメージが除去されるため、検索結果の精度はさらに向上する。
本実施例は、実施例1〜3で提供されるオブジェクト検索方法を実行するように構成されたオブジェクト検索装置を提供する。図13を参照すると、当該装置は、
局所特徴点ペアを取得するために、検索対象のオブジェクトイメージの特徴的な領域である指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するように構成された第1取得モジュール1301と、
第1取得モジュール1301によって取得された任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算するように構成された計算モジュール1302と、
計算モジュール1302によって計算された角度差が、当該線分ペアによって形成される角度と等しいかどうかを判定するように構成された判定モジュール1303と、
計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するように構成された検証モジュール1304とを含む。
その上、図14を参照すると、当該装置はさらに、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内に含まれる局所特徴点を計算し、ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索し、検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するように構成された検索モジュール1305とを含む。
さらに、図15を参照すると、当該装置はさらに、
ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算し、取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として使用して、索引セットを構築するように構成された索引セット構築モジュール1306を含む。
検索モジュール1305は、具体的には、指定領域内のローカル特徴点と索引セット内のローカル特徴点とをクラスタ化し、指定領域内のローカル特徴点と同じカテゴリに分類される索引セット内のローカル特徴点を、指定領域内のローカル特徴点と一致するとして検出された索引として使用するように構成される。
その上、当該装置はさらに、
検索モジュール1305によって取得された、検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを表示するように構成された第4GUIを含む。
その上、当該装置はさらに、
検索モジュール1305によって検出されたオブジェクトイメージを表示するように構成された第5GUIを含む。
その上、当該装置はさらに、
検証モジュール1304による検証に合格したオブジェクトイメージを表示するように構成された第5GUIを含む。
本実施例で提供される検索検証装置によれば、任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差と、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度とが計算され、それに基づいて一致する局所特徴点ペアが取得され、その後、一致する局所特徴点ペア数に基づいて、1つ以上の検出されたオブジェクトイメージが検証される。このように、計算の複雑性を軽減するという前提に立ち、局所特徴点間の相対的位置関係が効果的に使用されるため、検証性能が向上する。
上記の実施例で提供されるオブジェクト検索装置により実行されるオブジェクト検索においては、上記の実施例による装置は、上記の機能モジュールの配分を一例として説明されているに過ぎないことに留意されたい。実用用途においては、これらの機能は実装の必要に応じて、異なる機能モジュールに割り当てることができる。具体的には、当該装置の内部構造は、上記で説明した機能の全部または一部を実装するために、様々な機能モジュールに分割される。加えて、上記の実施例によれば、オブジェクト検索装置とオブジェクト検索方法は同じ概念に関連し、検索検証装置と検索検証方法も同じ概念に関連する。具体的な実装の詳細については、方法の実施例の説明を参照できるので、ここではさらなる詳述は控える。
本発明の上記の実施例の連続番号は、説明の便宜上付けたものであり、実施例の好適度を示すものではない。
上記の方法の全部または一部のステップは、ハードウェア、またはプログラムの命令に従うソフトウェアによって実装できることは、当業者には理解されるであろう。これらのプログラムは、コンピュータ可読記憶媒体に記憶することができる。この記憶媒体は、読み出し専用メモリ、磁気ディスク、またはコンパクトディスク読み出し専用メモリ(CD−ROM)のいずれであってもよい。
上記の説明は本発明の好適な実施例のみを示したに過ぎず、本発明を限定することを意図するものではない。従って、本発明の保護範囲には、本発明の精神及び原則に則ったあらゆる変更態様、等価置換または改良態様も内包される。
さらに、上記実施形態の一部又は全部は、以下の付記のようにも記載されうるが、これに限定されない。
(付記1) オブジェクト検索方法であって、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの特徴的な領域である指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内に含まれる局所特徴点を計算するステップと、
ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップと、
検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップと
を含むことを特徴とするオブジェクト検索方法。
(付記2) 事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップの前に、
ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算するステップと、
取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として用いて索引セットを構築するステップと
を含むことを特徴とする付記1に記載のオブジェクト検索方法。
(付記3) 事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップは、
指定領域内の局所特徴点と索引セット内の局所特徴点とをクラスタ化し、指定領域内の局所特徴点と同じカテゴリに分類される索引セット内の局所特徴点を、指定領域内の局所特徴点と一致するとして検出された索引として使用するステップを
含むことを特徴とする付記1に記載のオブジェクト検索方法。
(付記4) 検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップの後に、さらに、
局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップと、
各局所特徴点ペアにおける2つの局所特徴点間の角度差を計算し、計算で得られた角度差から1つの基本角度差を決定するステップと、
各角度差から基本角度差までの距離を計算し、その距離に基づいて、被検出オブジェクトイメージを検証するステップと
を含むことを特徴とする付記1に記載のオブジェクト検索方法。
(付記5) 検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップの後に、さらに、
局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップと、
任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算するステップと、
計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用するステップと、
被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するステップと
を含むことを特徴とする付記1に記載のオブジェクト検索方法。
(付記6) 検索対象のオブジェクトイメージを取得するステップの後に、さらに、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを表示するステップを
含むことを特徴とする付記1に記載のオブジェクト検索方法。
(付記7) 検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップの後に、さらに、
被検出オブジェクトイメージを表示するステップを
含むことを特徴とする付記1に記載のオブジェクト検索方法。
(付記8) 検証に合格したオブジェクトイメージを表示するステップを
さらに含むことを特徴とする付記4または付記5に記載のオブジェクト検索方法。
(付記9) オブジェクト検索装置であって、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの特徴的な領域である指定領域とを取得するように構成される第1取得モジュールと、
第1取得モジュールによって取得された検索対象のオブジェクトイメージの指定領域内に含まれる局所特徴点を計算するように構成される計算モジュールと、
ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、計算モジュールによって計算された指定領域内の局所特徴点と一致する索引を検索するように構成される検出モジュールと、
検出モジュールによって検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するように構成される第2取得モジュールと
を備えることを特徴とするオブジェクト検索装置。
(付記10) ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算し、取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として用いて索引セットを構築するように構成される索引セット構築モジュールをさらに備えることを特徴とする付記9に記載のオブジェクト検索装置。
(付記11) 前記検出モジュールは、指定領域内の局所特徴点と索引セット内の局所特徴点とをクラスタ化し、指定領域内の局所特徴点と同じカテゴリに分類される索引セット内の局所特徴点を、指定領域内の局所特徴点と一致するとして検出された索引として使用するように構成されることを特徴とする付記9または付記10に記載のオブジェクト検索装置。
(付記12) 局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得し、各局所特徴点ペアにおける2つの局所特徴点間の角度差を計算し、計算で得られた角度差から1つの基本角度差を決定し、各角度差から基本角度差までの距離を計算し、その距離に基づいて、被検出オブジェクトイメージを検証するように構成される第1検証モジュールをさらに備えることを特徴とする付記9に記載のオブジェクト検索装置。
(付記13) 局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得し、任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算し、計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するように構成される第2検証モジュールをさらに備えることを特徴とする付記9に記載のオブジェクト検索装置。
(付記14) 前記第1取得モジュールによって取得された、検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを表示するように構成される第1GUIをさらに備えることを特徴とする付記9に記載のオブジェクト検索装置。
(付記15) 前記第2取得モジュールによって取得されたオブジェクトイメージを表示するように構成された第2GUIをさらに備えることを特徴とする付記9に記載のオブジェクト検索装置。
(付記16) 前記第1検証モジュールと前記第2検証モジュールによる検証に合格したオブジェクトイメージを表示するように構成される第3GUIをさらに備えることを特徴とする付記12または付記13に記載のオブジェクト検索装置。
(付記17) オブジェクト検証方法であって、
局所特徴点ペアを取得するために、検索対象のオブジェクトイメージの特徴的な領域である指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップと、
任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算するステップと、
計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用するステップと、
被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するステップと
を含むことを特徴とするオブジェクト検証方法。
(付記18) 検索対象のオブジェクトイメージの指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップの前に、さらに、
検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内における局所特徴点を計算するステップと、
ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップと、
検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップと
を含むことを特徴とする付記17に記載のオブジェクト検証方法。
(付記19) 事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップの前に、さらに、
ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算するステップと、
取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として用いて索引セットを構築するステップと
を含むことを特徴とする付記18に記載のオブジェクト検証方法。
(付記20) 事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップは、
指定領域内の局所特徴点と索引セット内の局所特徴点とをクラスタ化し、指定領域内の局所特徴点と同じカテゴリに分類される索引セット内の局所特徴点を、指定領域内の局所特徴点と一致するとして検出された索引として使用するステップ
を含むことを特徴とする付記19に記載のオブジェクト検証方法。
(付記21) 検索検証装置であって、
局所特徴点ペアを取得するために、検索対象のオブジェクトイメージの特徴的な領域である指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するように構成された第1取得モジュールと、
前記第1取得モジュールによって取得された任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算するように構成された計算モジュールと、
前記計算モジュールによって計算された角度差が、当該線分ペアによって形成される角度と等しいかどうかを判定するように構成された判定モジュールと、
計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するように構成された検証モジュールと
を備えることを特徴とする検索検証装置。
(付記22) 検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内に含まれる局所特徴点を計算し、ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索し、検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するように構成された検索モジュールをさらに備えることを特徴とする付記21に記載の検索検証装置。
(付記23) ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算し、取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として用いて索引セットを構築するように構成された索引セット構築モジュールをさらに備えることを特徴とする付記22に記載の検索検証装置。
(付記24) 前記検索モジュールは、指定領域内の局所特徴点と索引セット内の局所特徴点とをクラスタ化し、指定領域内の局所特徴点と同じカテゴリに分類される索引セット内の局所特徴点を、指定領域内の局所特徴点と一致するとして検出された索引として使用するように構成されることを特徴とする付記22に記載の検索検証装置。
901:第1取得モジュール
902:計算モジュール
903:検出モジュール
904:第2取得モジュール
905:逆索引構築モジュール
906:第1検証モジュール
907:第2検証モジュール
1301:第1取得モジュール
1302:計算モジュール
1303:判定モジュール
1304:検証モジュール
1305:検索モジュール
1306:逆索引構築モジュール


Claims (10)

  1. オブジェクト検索方法であって、
    検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの特徴的な領域である指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内に含まれる局所特徴点を計算するステップと、
    ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップと、
    検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップと、
    所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップと、
    各局所特徴点ペアにおける2つの局所特徴点間の角度差を計算し、計算で得られた角度差から1つの基本角度差を決定するステップと、
    各角度差から基本角度差までの距離を計算し、その距離に基づいて、被検出オブジェクトイメージを検証するステップと
    を含むことを特徴とする、コンピュータが実行するオブジェクト検索方法。
  2. オブジェクト検索方法であって、
    検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの特徴的な領域である指定領域とを取得し、検索対象のオブジェクトイメージの指定領域内に含まれる局所特徴点を計算するステップと、
    ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップと、
    検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップと、
    所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップと、
    任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算するステップと、
    計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用するステップと、
    被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するステップと
    を含むことを特徴とする、コンピュータが実行するオブジェクト検索方法。
  3. 事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップの前に、
    ビデオ内のオブジェクトイメージを取得し、オブジェクトイメージ内の局所特徴点を計算するステップと、
    取得した局所特徴点をクラスタ化し、クラスタ中心の局所特徴点を索引として用いて索引セットを構築するステップと
    を含むことを特徴とする請求項1又は2に記載のオブジェクト検索方法。
  4. 事前構築された索引セット内において、指定領域内の局所特徴点と一致する索引を検索するステップは、
    指定領域内の局所特徴点と索引セット内の局所特徴点とをクラスタ化し、指定領域内の局所特徴点と同じカテゴリに分類される索引セット内の局所特徴点を、指定領域内の局所特徴点と一致するとして検出された索引として使用するステップを
    含むことを特徴とする請求項1乃至3のいずれか一項に記載のオブジェクト検索方法。
  5. 検索対象のオブジェクトイメージを取得するステップの後に、さらに、
    検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの指定領域とを表示するステップを
    含むことを特徴とする請求項1乃至4のいずれか一項に記載のオブジェクト検索方法。
  6. 検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するステップの後に、さらに、
    被検出オブジェクトイメージを表示するステップを
    含むことを特徴とする請求項1乃至5のいずれか一項に記載のオブジェクト検索方法。
  7. オブジェクト検索装置であって、
    検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの特徴的な領域
    である指定領域とを取得するように構成される第1取得モジュールと、
    第1取得モジュールによって取得された検索対象のオブジェクトイメージの指定領域内に含まれる局所特徴点を計算するように構成される計算モジュールと、
    ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、計算モジュールによって計算された指定領域内の局所特徴点と一致する索引を検索するように構成される検出モジュールと、
    検出モジュールによって検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するように構成される第2取得モジュールと
    局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得し、各局所特徴点ペアにおける2つの局所特徴点間の角度差を計算し、計算で得られた角度差から1つの基本角度差を決定し、各角度差から基本角度差までの距離を計算し、その距離に基づいて、被検出オブジェクトイメージを検証するように構成される第1検証モジュールと
    を備えることを特徴とするオブジェクト検索装置。
  8. オブジェクト検索装置であって、
    検索対象のオブジェクトイメージと、検索対象のオブジェクトイメージの特徴的な領域である指定領域とを取得するように構成される第1取得モジュールと、
    第1取得モジュールによって取得された検索対象のオブジェクトイメージの指定領域内に含まれる局所特徴点を計算するように構成される計算モジュールと、
    ビデオ内におけるオブジェクトイメージの局所特徴点に基づいて構築される、事前構築された索引セット内において、計算モジュールによって計算された指定領域内の局所特徴点と一致する索引を検索するように構成される検出モジュールと、
    検出モジュールによって検出された索引に対応するオブジェクトイメージを取得し、取得したオブジェクトイメージを、ビデオ内の被検出オブジェクトイメージとして使用するように構成される第2取得モジュールと、
    局所特徴点ペアを取得するために、指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得し、任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算し、計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するように構成される第2検証モジュールと
    を備えることを特徴とするオブジェクト検索装置。
  9. オブジェクト検証方法であって、
    局所特徴点ペアを取得するために、検索対象のオブジェクトイメージの特徴的な領域である指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するステップと、
    任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算するステップと、
    計算で得られた角度差が当該線分ペアによって形成される角度と等しいかどうかを判定し、計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用するステップと、
    被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するステップと
    を含むことを特徴とする、コンピュータが実行するオブジェクト検証方法。
  10. 検索検証装置であって、
    局所特徴点ペアを取得するために、検索対象のオブジェクトイメージの特徴的な領域である指定領域内の各局所特徴点と、被検出オブジェクトイメージの各々に対応する局所特徴点とを取得するように構成された第1取得モジュールと、
    前記第1取得モジュールによって取得された任意の2つの局所特徴点ペアの各々における2つの局所特徴点間の角度差を計算し、当該任意の2つの局所特徴点ペアによって形成される線分ペアによって形成される角度を計算するように構成された計算モジュールと、
    前記計算モジュールによって計算された角度差が、当該線分ペアによって形成される角度と等しいかどうかを判定するように構成された判定モジュールと、
    計算で得られた角度差が当該線分ペアによって形成される角度と等しい場合には、当該任意の2つの局所特徴点ペアを一致する局所特徴点ペアとして使用し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数を計数し、被検出オブジェクトイメージ内の一致する局所特徴点ペア数に基づいて、被検出オブジェクトイメージを検証するように構成された検証モジュールと
    を備えることを特徴とする検索検証装置。
JP2013156401A 2012-09-29 2013-07-29 オブジェクト検索方法、検索検証方法、及びその装置 Expired - Fee Related JP5680152B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201210376145.2A CN103714077B (zh) 2012-09-29 2012-09-29 物体检索的方法、检索校验的方法及装置
CN201210376145.2 2012-09-29

Publications (2)

Publication Number Publication Date
JP2014071890A JP2014071890A (ja) 2014-04-21
JP5680152B2 true JP5680152B2 (ja) 2015-03-04

Family

ID=50384799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013156401A Expired - Fee Related JP5680152B2 (ja) 2012-09-29 2013-07-29 オブジェクト検索方法、検索検証方法、及びその装置

Country Status (3)

Country Link
US (1) US20140092244A1 (ja)
JP (1) JP5680152B2 (ja)
CN (1) CN103714077B (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012126008A2 (en) * 2011-03-17 2012-09-20 New York University Systems, methods and computer-accessible mediums for authentication and verification of physical objects
US9792528B2 (en) * 2012-01-30 2017-10-17 Nec Corporation Information processing system, information processing method, information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
CN104571515B (zh) * 2014-12-29 2019-03-29 联想(北京)有限公司 一种信息处理方法及电子设备
CN104751455A (zh) * 2015-03-13 2015-07-01 华南农业大学 一种作物图像稠密匹配方法及系统
CN104731952B (zh) * 2015-03-31 2017-02-15 努比亚技术有限公司 图片查看的方法及装置
JP6012819B1 (ja) * 2015-07-03 2016-10-25 日本電信電話株式会社 類似画像取得装置、方法、及びプログラム
KR101814553B1 (ko) * 2016-01-21 2018-01-03 한국과학기술원 실시간 이미지 특징점 추출 시스템 및 방법
US10204417B2 (en) * 2016-05-10 2019-02-12 International Business Machines Corporation Interactive video generation
CN106023187B (zh) * 2016-05-17 2019-04-19 西北工业大学 一种基于sift特征和角度相对距离的图像配准方法
CN107704609B (zh) * 2017-10-18 2021-01-08 浪潮金融信息技术有限公司 视频内容检索方法及装置、计算机可读存储介质、终端
CN107809613B (zh) * 2017-10-18 2020-09-01 浪潮金融信息技术有限公司 视频索引创建方法及装置、计算机可读存储介质、终端
US10977493B2 (en) * 2018-01-31 2021-04-13 ImageKeeper LLC Automatic location-based media capture tracking
US11501483B2 (en) 2018-12-10 2022-11-15 ImageKeeper, LLC Removable sensor payload system for unmanned aerial vehicle performing media capture and property analysis
CN110807110B (zh) * 2019-09-30 2023-02-28 奇安信科技集团股份有限公司 结合局部和全局特征的图片搜索方法、装置及电子设备
CN111028261B (zh) * 2019-11-15 2023-03-17 五邑大学 高精度半自动化图像数据标注方法、电子装置及存储介质
CN111209874B (zh) * 2020-01-09 2020-11-06 北京百目科技有限公司 一种对人头部穿戴属性的分析识别方法
CN113204665B (zh) * 2021-04-28 2023-09-22 北京百度网讯科技有限公司 图像检索方法、装置、电子设备及计算机可读存储介质
CN117221510B (zh) * 2023-11-07 2024-03-29 深圳骄阳视觉创意科技股份有限公司 基于虚拟现实技术的展览展示系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7860317B2 (en) * 2006-04-04 2010-12-28 Microsoft Corporation Generating search results based on duplicate image detection
US7813561B2 (en) * 2006-08-14 2010-10-12 Microsoft Corporation Automatic classification of objects within images
JP5139716B2 (ja) * 2007-05-16 2013-02-06 キヤノン株式会社 画像検索装置及び画像検索方法
CN101493813B (zh) * 2008-01-25 2012-05-30 北京新岸线网络技术有限公司 一种基于内容的视频检索系统
CN101566994B (zh) * 2008-04-22 2011-02-16 王磊 一种图像、视频检索方法
US8180667B1 (en) * 2008-06-03 2012-05-15 Google Inc. Rewarding creative use of product placements in user-contributed videos
KR101380783B1 (ko) * 2008-08-22 2014-04-02 정태우 영상에 포함된 객체를 식별하여 부가 서비스를 제공하는 시스템
JP5226651B2 (ja) * 2009-12-07 2013-07-03 日本電信電話株式会社 類似画像検索装置,類似画像検索方法および類似画像検索プログラム
JP5094830B2 (ja) * 2009-12-16 2012-12-12 ヤフー株式会社 画像検索装置、画像検索方法及びプログラム
JP5370267B2 (ja) * 2010-05-27 2013-12-18 株式会社デンソーアイティーラボラトリ 画像処理システム
KR20120090101A (ko) * 2010-12-23 2012-08-17 한국전자통신연구원 디지털 비디오 고속 정합 시스템

Also Published As

Publication number Publication date
JP2014071890A (ja) 2014-04-21
CN103714077B (zh) 2017-10-20
US20140092244A1 (en) 2014-04-03
CN103714077A (zh) 2014-04-09

Similar Documents

Publication Publication Date Title
JP5680152B2 (ja) オブジェクト検索方法、検索検証方法、及びその装置
US9064171B2 (en) Detection device and method for transition area in space
CN106355577B (zh) 基于特征状态与全局一致性的快速图像匹配方法及系统
US9075897B2 (en) Storing and searching fingerprints derived from media content based on a classification of the media content
Jiang et al. Seeing double without confusion: Structure-from-motion in highly ambiguous scenes
WO2019080411A1 (zh) 电子装置、人脸图像聚类搜索方法和计算机可读存储介质
JP5385105B2 (ja) 画像検索方法およびシステム
Lee et al. Place recognition using straight lines for vision-based SLAM
WO2015042772A1 (zh) 一种遥感图像显著目标变化检测方法
JP2010272092A5 (ja)
JP2013025799A (ja) 画像検索方法、システム、及びプログラム
US11501462B2 (en) Multi-view three-dimensional positioning
US10614312B2 (en) Method and apparatus for determining signature actor and identifying video based on probability of appearance of signature actor
TW201546636A (zh) 註解顯示器輔助裝置及輔助方法
JP6128910B2 (ja) 学習装置、学習方法及びプログラム
US20200005078A1 (en) Content aware forensic detection of image manipulations
CN107451156A (zh) 一种图像再识别方法及识别装置
JPWO2020050413A1 (ja) 認証用顔画像候補判定装置、認証用顔画像候補判定方法、プログラム、および記録媒体
Zhang et al. Topological spatial verification for instance search
JP5248236B2 (ja) 画像処理装置および画像処理方法
Marouane et al. Visual positioning systems—An extension to MoVIPS
CN105190689A (zh) 包括基于毗连特征的对象检测和/或双边对称对象分段的图像处理
CN111126102A (zh) 人员搜索方法、装置及图像处理设备
JP5520353B2 (ja) BoF表現生成装置及びBoF表現生成方法
Wang et al. Adaptive room-level localization system with crowd-sourced WiFi data

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150106

R150 Certificate of patent or registration of utility model

Ref document number: 5680152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees