JP2020071525A - 被写体追跡装置、被写体追跡方法及びプログラム - Google Patents

被写体追跡装置、被写体追跡方法及びプログラム Download PDF

Info

Publication number
JP2020071525A
JP2020071525A JP2018203081A JP2018203081A JP2020071525A JP 2020071525 A JP2020071525 A JP 2020071525A JP 2018203081 A JP2018203081 A JP 2018203081A JP 2018203081 A JP2018203081 A JP 2018203081A JP 2020071525 A JP2020071525 A JP 2020071525A
Authority
JP
Japan
Prior art keywords
histogram
segment
image feature
feature amount
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018203081A
Other languages
English (en)
Inventor
誠明 松村
Masaaki Matsumura
誠明 松村
和樹 岡見
Kazuki Okami
和樹 岡見
能登 肇
Hajime Noto
肇 能登
木全 英明
Hideaki Kimata
英明 木全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018203081A priority Critical patent/JP2020071525A/ja
Priority to PCT/JP2019/039425 priority patent/WO2020090352A1/ja
Priority to US17/289,203 priority patent/US11763465B2/en
Publication of JP2020071525A publication Critical patent/JP2020071525A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】動画像のフレーム画像内で被写体領域を追跡する精度を向上させることが可能である被写体追跡装置、被写体追跡方法及びプログラムを提供する。【解決手段】被写体追跡装置は、被写体領域の画像特徴量の出現頻度を画像特徴量のセグメントごと及び補助セグメントごとに表す第1ヒストグラムを生成する第1ヒストグラム生成部と、候補領域の画像特徴量の出現頻度を画像特徴量のセグメントごと及び補助セグメントごとに表す第2ヒストグラムを候補領域ごとに生成する第2ヒストグラム生成部と、第1ヒストグラムと第2ヒストグラムとをセグメントごと及び補助セグメントごとに比較し、第1ヒストグラムと第2ヒストグラムとの画像特徴量の出現頻度の差分合計値を候補領域ごとに導出する差分導出部と、差分合計値が最小である候補領域を各候補領域のうちから選択する領域選択部とを備える。補助セグメントは、セグメント間の境界を跨ぐように定められる。【選択図】図1

Description

本発明は、被写体追跡装置、被写体追跡方法及びプログラムに関する。
動画像のフレーム画像内で被写体を包含する領域(以下「被写体領域」という。)を追跡する技術分野では、画像(信号強度)の特徴量のヒストグラムに基づいて被写体領域を追跡する方法がある。以下、追跡対象である被写体領域を含むフレーム画像を「追跡対象フレーム」という。追跡対象フレームから参照されるフレーム画像を「参照フレーム」という。以下、動画像のフレーム画像の一部分の領域を「部分領域」という。以下、被写体領域又は部分領域に内包される画素信号から導出される特徴量を「画像特徴量」という。
図10は、被写体領域におけるヒストグラムの例を示す図である。ヒストグラムは、データの出現頻度の分布状況を表す統計グラフの一種である。ヒストグラムの縦軸は、データ(画像特徴量)の出現頻度を示す。ヒストグラムの横軸は、データ(画像特徴量)の各階級を表す。以下、階級の分割区間を「セグメント」という。
参照フレーム内の被写体領域の位置及びサイズは、予め特定されている。すなわち、参照フレームにおいて、被写体領域を含む部分領域300は予め定められている。被写体追跡装置は、部分領域300の画像特徴量の出現数を、セグメントごとに生成する。被写体追跡装置は、部分領域300の全てのセグメントの画像特徴量の出現頻度の総和が1になるように、各セグメントの画像特徴量の出現数を、画像特徴量の出現数の総和で除算する。これにより、被写体追跡装置は、各セグメントの画像特徴量の出現数を正規化することによって、部分領域300の画像特徴量の出現頻度を表すヒストグラムを生成する。
被写体追跡装置は、追跡対象フレーム内で被写体領域が探索される範囲内に、例えば、部分領域400を定める。被写体追跡装置は、部分領域400の画像特徴量の出現頻度を表すヒストグラムを生成する。被写体追跡装置は、追跡対象フレーム内で被写体領域が探索される範囲内で、部分領域の位置及びサイズを変更する。図10では、被写体追跡装置は、追跡対象フレーム内に部分領域500を定める。被写体追跡装置は、部分領域500の画像特徴量の出現頻度を表すヒストグラムを生成する。被写体追跡装置は、他の部分領域の画像特徴量の出現頻度を表すヒストグラムを更に生成してもよい。
被写体追跡装置は、参照フレームの部分領域の画像特徴量のヒストグラムと、追跡対象フレームの部分領域の画像特徴量のヒストグラムとの間の差分値を、セグメントごとに導出する。被写体追跡装置は、追跡対象フレームについて、セグメントごとの画像特徴量の出現頻度の差分値の合計(以下「差分合計値」という。)が最小となる部分領域の位置及びサイズを、その追跡対象フレームにおける被写体領域の位置及びサイズ(追跡結果)と定める。
被写体追跡装置に入力されたフレーム画像の画素値を色相、彩度及び輝度(HSV)形式に変換し、色相及び彩度に基づいて被写体領域を追跡する方法が、被写体の照明環境の変化による追跡精度の低下を防ぐことを目的として、非特許文献1に開示されている(非特許文献1参照)。フレーム画像の全体について予め導出された画像特徴量の平均値と画像特徴量との差分に基づいて、画像の特徴点を追跡する方法が、非特許文献2に開示されている(非特許文献2参照)。
被写体の照明環境が変化しても、フレーム画像の画素勾配の方向は変わらない。被写体の照明環境の変化に対して強い画像特徴量であるHoG(Histograms of Oriented Gradients)特徴量に基づいて被写体領域を追跡する方法が、非特許文献3及び4に開示されている(非特許文献3及び4参照)。被写体追跡装置は、HoG特徴量に基づいて被写体領域を追跡する場合、フレーム画像の画素勾配の方向に基づいてヒストグラムを生成する。
P. Perez, C. Hue, J. Vermaak, and M. Gangnet,"Color-Based Probabilistic Tracking," in Proceeding of the European Conference on Computer Vision, pp.661-675, 2002. Doi, M., Matsumoto, T., Kimachi, A., Nishi, S., & Ikoma, N. "Robust Color Objects Tracking Method Against Illumination Color Change", 2014 Joint 7th International Conference on Soft Computing and Intelligent Systems (SCIS) and IEEE 15th International Symposium on Advanced Intelligent Systems (ISIS). 718-722, 2014. Deepthi V.K.P and Mr. Mohammed Anvar P.K, "Visual Tracking Using HOG and SVM", International Journal of Advanced Engineering Research and Technology(IJAERT),Volume 4 Issue 5,2016. D. G. Lowe, "Object recognition from local scaleinvariant features", Proc. of IEEE International Conference on Computer Vision (ICCV), pp.1150-1157, 1999.
しかしながら、画像特徴量のヒストグラムにおける出現頻度をフレーム画像間で比較して被写体領域を追跡する場合、フレーム画像間で被写体の照明環境が変化すると、輝度の特徴量の出現頻度を表すヒストグラムは、ヒストグラムの全体で変化する。このため、差分合計値が大きくなるので、被写体領域の追跡精度が低下する。フレーム画像間で被写体の向きが異なっている場合、画像のエッジの向きの画像特徴量の出現頻度を表すヒストグラムは、ヒストグラムの全体で変化する。このため、差分合計値が大きくなるので、被写体領域の追跡精度が低下する。
非特許文献1に開示された方法では、カメラのオートホワイトバランスに応じて色温度が変更された場合や、色付きの光で被写体が照射された場合等、フレーム画像における色相及び彩度が変化するので、被写体領域の追跡精度が低下する。非特許文献2に開示された方法では、スポットライトの光で被写体のみが照射された場合等、フレーム画像内の一部の領域では輝度の特徴量が変化し、フレーム画像内の他の領域では輝度の特徴量が変化しないので、被写体領域の追跡精度が低下する。非特許文献3及び4に開示された方法では、HoG特徴量として主に用いられるSIFT(Scale-Invariant Feature Transform)がアフィン変換の影響を受けないが、フレーム画像において奥行き方向へのパースが生じて平行性が失われた場合には、被写体領域の追跡精度が低下する。
これらのように、従来の被写体追跡装置は、動画像のフレーム画像内で被写体領域を追跡する精度を向上させることができない場合があった。
上記事情に鑑み、本発明は、動画像のフレーム画像内で被写体領域を追跡する精度を向上させることが可能である被写体追跡装置、被写体追跡方法及びプログラムを提供することを目的としている。
本発明の一態様は、被写体領域の画像特徴量の出現頻度を前記画像特徴量のセグメントごと及び補助セグメントごとに表す第1ヒストグラムを生成する第1ヒストグラム生成部と、候補領域の画像の前記画像特徴量の出現頻度を前記画像特徴量の前記セグメントごと及び前記補助セグメントごとに表す第2ヒストグラムを前記候補領域ごとに生成する第2ヒストグラム生成部と、前記第1ヒストグラムと前記第2ヒストグラムとを前記セグメントごと及び前記補助セグメントごとに比較し、前記第1ヒストグラムと前記第2ヒストグラムとの前記画像特徴量の出現頻度の差分値の合計である差分合計値を前記候補領域ごとに導出する差分導出部と、前記差分合計値が最小である前記候補領域を各前記候補領域のうちから選択する領域選択部とを備え、前記補助セグメントは、前記セグメント間の境界を跨ぐように定められる、被写体追跡装置である。
本発明の一態様は、上記の被写体追跡装置であって、前記被写体領域は、第1フレーム画像の部分領域であり、前記候補領域は、第2フレーム画像の部分領域である。
本発明の一態様は、上記の被写体追跡装置であって、前記補助セグメント群は、前記被写体領域を含む領域と前記候補領域とにおける全ての前記境界を跨ぐように定められる。
本発明の一態様は、上記の被写体追跡装置であって、少なくとも1個の前記補助セグメントは、2個以上の前記境界を跨ぐように定められる。
本発明の一態様は、被写体追跡が実行する被写体追跡方法であって、被写体領域を含む領域の画像特徴量の出現頻度を前記画像特徴量のセグメントごと及び補助セグメントごとに表す第1ヒストグラムを生成するステップと、候補領域の画像の前記画像特徴量の出現頻度を前記画像特徴量の前記セグメントごと及び前記補助セグメントごとに表す第2ヒストグラムを前記候補領域ごとに生成するステップと、前記第1ヒストグラムと前記第2ヒストグラムとを前記セグメントごと及び前記補助セグメントごとに比較し、前記第1ヒストグラムと前記第2ヒストグラムとの前記画像特徴量の出現頻度の差分値の合計である差分合計値を前記候補領域ごとに導出するステップと、前記差分合計値が最小である前記候補領域を各前記候補領域のうちから選択するステップとを有し、前記補助セグメントは、前記セグメント間の境界を跨ぐように定められる、被写体追跡方法である。
本発明の一態様は、上記の被写体追跡装置としてコンピュータを機能させるためのプログラムである。
本発明により、動画像のフレーム画像内で被写体領域を追跡する精度を向上させることが可能である。
実施形態における、被写体追跡装置の構成例を示す図である。 実施形態における、プログラムを実行する被写体追跡装置の構成例を示す図である。 実施形態における、被写体追跡装置の動作例を示すフローチャートである。 ヒストグラム生成部の構成例を示す図である。 複数のセグメントに分割された画像特徴量の配列Bufとヒストグラムとの関係の例を示す図である。 ヒストグラム生成部が実行するヒストグラムの生成処理の例を示すフローチャートである。 実施形態における、ヒストグラム生成部の構成例を示す図である。 実施形態における、複数のセグメントに分割された画像特徴量の配列Bufとヒストグラムとの関係の例を示す図である。 実施形態における、ヒストグラム生成処理の例を示すフローチャートである。 被写体領域におけるヒストグラムの例を示す図である。
本発明の実施形態について、図面を参照して詳細に説明する。
図1は、被写体追跡装置1の構成例を示す図である。被写体追跡装置1は、時系列のフレーム画像(動画像)内で被写体領域を追跡する装置である。被写体追跡装置1の一部又は全部は、CPU(Central Processing Unit)等のプロセッサが、メモリに記憶されたプログラムを実行することにより実現される。
図2は、実施形態における、プログラムを実行する被写体追跡装置1の構成例を示す図である。被写体追跡装置1は、プロセッサ10と、メモリ11と、入力記憶部12と、記憶装置13と、出力記憶部14と、インタフェース15と、バス16とを備える。
プロセッサ10は、メモリ11に記憶されているプログラムを実行する。メモリ11は、RAM(Random Access Memory)などの揮発性の記録媒体である。メモリ11は、記憶装置13から展開されたプログラムを記憶する。入力記憶部12は、記憶部であり、被写体追跡装置に入力されたフレーム画像(以下「入力フレーム」という。)等のデータを記憶する。
記憶装置13は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)などの不揮発性の記録媒体(非一時的な記録媒体)が好ましい。記憶装置13は、RAMなどの揮発性の記録媒体を備えてもよい。記憶装置13は、例えば、入力フレーム内で被写体領域を追跡する処理をプロセッサに実行させるためのプログラムと、入力フレーム内における1個以上の部分領域の位置及びサイズのデータベースと、追跡結果データベースとを記憶する。
出力記憶部14は、記憶部であり、出力される追跡結果(部分領域の位置及びサイズ)等のデータを記憶する。インタフェース15は、追跡結果を所定のネットワーク等の外部装置に出力する。バス16は、データを伝送する。
図1に戻り、被写体追跡装置1の構成例の説明を続ける。
被写体追跡装置1は、抽出部101と、第1ヒストグラム生成部102と、位置・サイズ生成部103と、第2ヒストグラム生成部104と、差分導出部105と、領域選択部106と、出力部107とを備える。
これらの各機能部は、メモリ11に記憶されたプログラムをプロセッサ10が実行することにより実現される。なお、被写体追跡装置1の一部又は全部は、例えば、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現されてもよい。
抽出部101は、時系列の複数のフレーム画像(動画像の画像信号)を取得する。抽出部101は、被写体領域の位置及びサイズが特定された参照フレームと、追跡対象フレームとを、入力フレームとして動画像の画像信号から抽出する。
第1ヒストグラム生成部102は、参照フレーム内における被写体領域の位置及びサイズの初期値を取得する。第1ヒストグラム生成部102は、参照フレームを入力フレームとして取得する。第1ヒストグラム生成部102は、部分領域の位置及びサイズの初期値に基づいて、参照フレームに部分領域を生成する。すなわち、第1ヒストグラム生成部102は、被写体領域の位置及びサイズの初期値に基づいて、被写体領域を含む部分領域を参照フレームから切り出す。第1ヒストグラム生成部102は、参照フレームにおける部分領域の画像特徴量の出現頻度を表すヒストグラムを生成する。
位置・サイズ生成部103は、参照フレームにおける被写体領域の位置及びサイズの初期値を取得する。以下、追跡対象フレームにおける被写体領域を含む位置及びサイズの候補を「候補領域」という。位置・サイズ生成部103は、追跡対象フレーム内で被写体領域が探索される範囲内に、位置及びサイズの初期値に基づいて、異なる位置及びサイズの複数の組み合わせ(位置及びサイズの候補群、すなわち候補領域群)を生成する。
第2ヒストグラム生成部104は、第1ヒストグラム生成部102のヒストグラム生成処理と同様のヒストグラム生成処理を実行する。第2ヒストグラム生成部104は、追跡対象フレームを抽出部101から取得する。第2ヒストグラム生成部104は、位置及びサイズの候補群を取得する。第2ヒストグラム生成部104は、入力された位置及びサイズの候補に基づいて導出される部分領域の各画像特徴量に応じて、追跡対象フレームの部分領域における画像特徴量のヒストグラムを生成する。このようにして、第2ヒストグラム生成部104は、位置及びサイズの候補の個数のヒストグラムを生成する。
差分導出部105は、参照フレームの画像特徴量のヒストグラムと、追跡対象フレームの画像特徴量のヒストグラムとを、位置及びサイズの候補ごとに比較する。すなわち、差分導出部105は、画像特徴量の出現頻度の差分値(絶対値)を、セグメントごとに導出する。差分導出部105は、各セグメントの画像特徴量の差分値(ヒストグラム差分群)を、部分領域ごとに合計する。このようにして、差分導出部105は、差分合計値を部分領域ごとに生成する。
領域選択部106は、追跡対象フレームの1個以上の部分領域のうちから、差分合計値が最小となる部分領域を選択する。領域選択部106は、選択された部分領域の位置及びサイズを、出力部107に出力する。
出力部107は、選択された部分領域の位置及びサイズを、予め指定された出力ファイル及びネットワーク等に出力する。出力部107は、選択された部分領域の位置及びサイズを、第1ヒストグラム生成部102と位置・サイズ生成部103とに出力する。これによって、領域選択部106は、第1ヒストグラム生成部102と位置・サイズ生成部103とに出力された部分領域の位置及びサイズに基づいて、次の追跡対象フレーム内でも被写体領域を追跡することができる。
図3は、実施形態における、被写体追跡装置1の動作例を示すフローチャートである。位置・サイズ生成部103は、位置及びサイズの初期値を、参照フレームの部分領域の位置及びサイズとして記憶する(ステップS101)。被写体追跡装置1は、抽出部101に入力された全ての追跡対象フレームに対して、ステップS102からステップS114までの処理を繰り返す(ステップS102)。
抽出部101は、参照フレーム及び追跡対象フレームを取得する(ステップS103)。第1ヒストグラム生成部102は、参照フレーム内の部分領域の位置及びサイズのデータを取得する(ステップS104)。第1ヒストグラム生成部102は、位置及びサイズの初期値に基づいて、参照フレーム内に部分領域を生成する。第1ヒストグラム生成部102は、参照フレームにおける部分領域の画像特徴量の出現頻度を表すヒストグラムを生成する(ステップS105)。
領域選択部106は、予め定められた大きな値に最小値Mを初期化する(ステップS106)。領域選択部106は、追跡対象フレーム内で被写体領域が探索される範囲に、異なる位置及びサイズの複数の組み合わせ(位置及びサイズの候補群)を生成する(ステップS107)。被写体追跡装置1は、生成された位置及びサイズの候補ごとに、ステップS108からステップS113までの処理を繰り返す(ステップS108)。
第2ヒストグラム生成部104は、位置及びサイズの候補に基づいて、追跡対象フレーム内に部分領域を生成する。第2ヒストグラム生成部104は、追跡対象フレームにおける部分領域の画像特徴量の出現頻度を表すヒストグラムを生成する(ステップS109)。差分導出部105は、第1ヒストグラム生成部102によって生成されたヒストグラムと、第2ヒストグラム生成部104によって生成されたヒストグラムとを比較し、差分合計値Sを導出する(ステップS110)。差分導出部105は、差分合計値Sと最小値Mとを比較する(ステップS111)。
差分合計値Sが最小値M以上である場合(ステップS111:NO)、差分導出部105は、ステップS114に処理を進める。差分合計値Sが最小値M未満である場合(ステップS111:YES)、差分導出部105は、最小値Mに差分合計値Sを代入する(ステップS112)。差分導出部105は、位置及びサイズの候補を、追跡結果を表す変数「Result」に代入する(ステップS113)。差分導出部105は、次の参照フレームの位置及びサイズの初期値として、変数「Result」を追跡結果データベースに記録する(ステップS114)。出力部107は、追跡結果を表す変数「Result」を、出力ファイル等に出力する(ステップS115)。
次に、ヒストグラム生成処理について説明する。
図4は、実施形態の第1ヒストグラム生成部102及び第2ヒストグラム生成部104の比較対象として示された、ヒストグラム生成部200の構成例を示す図である。ヒストグラム生成部200は、特徴量変換部201と、セグメント分割部202と、出現数導出部203と、正規化部204と、ヒストグラム出力部205とを備える。
特徴量変換部201は、入力フレームの画素値を、予め定められた種類(例えば、色相、彩度、輝度)の画像特徴量に変換する。セグメント分割部202は、入力された位置及びサイズに基づいて導出される部分領域の画像特徴量を、所定間隔(量子化サイズ)のセグメント群に分割する。すなわち、セグメント分割部202は、部分領域の画像特徴量に、所定間隔のセグメント(階級)を定める。
図5は、複数のセグメントに分割された画像特徴量(階級)の配列Bufとヒストグラムとの関係の例を示す図である。各セグメントの配列Bufの値は、そのセグメントの画像特徴量の出現頻度を表す。画像特徴量は、例えば、画素の輝度の特徴量である。輝度は、例えば、0から255までの値で表現される。図5では、一例として、部分領域のセグメントの個数(配列の要素の個数)Nは、32(=量子化値「0」から量子化値「31」まで)である。画像特徴量のオフセット値Oは、0である。量子化サイズ(セグメントのサイズ)Dは、8である。
図4に戻り、ヒストグラム生成部200の構成例の説明を続ける。出現数導出部203は、部分領域の画像特徴量の出現数を、セグメントごとに導出する。正規化部204は、入力フレームについて、各セグメントの画像特徴量の出現数の総和を導出する。正規化部204は、部分領域の全てのセグメントの画像特徴量の出現頻度の総和が1になるように除算処理を実行し、各セグメントの画像特徴量の出現数を正規化する。ヒストグラム出力部205は、正規化された出現頻度を、セグメントごとの画像特徴量の出現頻度のヒストグラムとして、差分導出部に出力する。
図6は、実施形態のヒストグラム生成処理の比較対象として示された、ヒストグラム生成部200が実行するヒストグラム生成処理の例を示すフローチャートである。特徴量変換部201は、入力フレームの画素値を、予め定められた種類の画像特徴量に変換する(ステップS201)。セグメント分割部202は、セグメントの個数(分割数)であるN個の配列Buf(配列Buf[0]からBuf[N−1]まで)を生成する。セグメント分割部202は、配列Bufの各要素の値0で初期化する(ステップS202)。
ヒストグラム生成部200は、入力された位置及びサイズの候補に基づいて導出される部分領域の各画像特徴量に対して、ステップS204の処理を繰り返す(ステップS203)。セグメント分割部202は、所定のオフセット値Oを画像特徴量に加算する。セグメント分割部202は、オフセットされた画像特徴量が量子化サイズDで除算された結果を、例えば、「0」から「N−1」までの量子化値に量子化(クリッピング)することによって、オフセットされた画像特徴量の量子化値Xを生成する(ステップS204)。セグメント分割部202は、配列Buf[X]の値(出現数)を1増加させる(ステップS205)。
出現数導出部203は、配列Bufの各要素の値の合計値S1を導出する(ステップS206)。正規化部204は、配列Bufの各要素の値を合計値S1で除算する(ステップS207)。ヒストグラム出力部205は、入力フレームの部分領域の画像特徴量のヒストグラムとして、配列Bufを差分導出部に出力する(ステップS208)。
図7は、実施形態における、第1ヒストグラム生成部102の構成例を示す図である。第1ヒストグラム生成部102の構成と第2ヒストグラム生成部104の構成とは、同じである。このため図5では、第1ヒストグラム生成部102の構成例を説明する。第1ヒストグラム生成部102は、特徴量変換部301と、セグメント分割部302と、補助セグメント分割部303と、出現数導出部304と、正規化部305と、ヒストグラム出力部306とを備える。このように、第1ヒストグラム生成部102は、ヒストグラム生成部200と比較して、補助セグメント分割部303を更に備える。
特徴量変換部301は、入力フレームの画素値を、予め定められた種類の画像特徴量に変換する。セグメント分割部302は、入力された位置及びサイズの候補に基づいて導出される部分領域の画像特徴量(信号強度)を、所定間隔(量子化サイズ)のセグメント群に分割する。すなわち、セグメント分割部302は、部分領域の画像特徴量に、所定間隔のセグメント(階級)を定める。
補助セグメント分割部303は、入力された位置及びサイズの候補に基づいて導出される部分領域の画像特徴量を、所定間隔の補助セグメント群に分割する。すなわち、補助セグメント分割部303は、部分領域の画像特徴量に、所定間隔の補助階級を定める。
図8は、実施形態における、複数のセグメントに分割された画像特徴量(階級)の配列Bufとヒストグラムとの関係の例を示す図である。各セグメントの配列Bufの値は、そのセグメントの画像特徴量の出現頻度を表す。各補助セグメントの配列Bufの値は、その補助セグメントの画像特徴量の出現頻度を表す。画像特徴量は、例えば、画素の色差の特徴量である。色差は、例えば、0から255までの値で表現される。セグメント及び補助セグメントの合計数は、N(=2A−1)個である。図8では、一例として、部分領域のセグメント及び補助セグメントの合計数(配列の要素の個数)Nは、63(=量子化値「0」から量子化値「62」まで)である。画像特徴量のオフセット値Oは、0である。量子化サイズ(セグメントのサイズ)Dは、8である。
図8の下段には、部分領域の複数のセグメントの画像特徴量の配列Buf[Xmain](図8では、Buf[0]からBuf[31]まで)が示されている。一例として部分領域のセグメントの個数(配列の要素の個数)「A」は、32(=量子化値「0」から量子化値「31」まで)である。画像特徴量のオフセット値Oは、0である。量子化サイズ(セグメントのサイズ)Dは、8である。なお、コンピュータビジョンにおける計算用ライブラリ(OpenCV)では、8から16までの値が量子化サイズDとして広く用いられている。量子化サイズDが8である場合、セグメントの個数Aは32(=256/8)である。
図8の上段には、その部分領域の1個以上の補助セグメントの画像特徴量の配列Buf[Xsub](図8では、Buf[32]からBuf[62]まで)が示されている。一例として部分領域の補助セグメントの個数(配列の要素の個数)「A−1」は、31(=量子化値「32」から量子化値「62」まで)である。画像特徴量のオフセット値Oは、(−D/2)である。量子化サイズ(セグメントのサイズ)Dは、8である。
このように、補助セグメント群は、被写体領域と候補領域(位置及びサイズの候補)とにおける全ての境界を跨ぐように定められてもよい。少なくとも1個の補助セグメントは、2個以上の境界を跨ぐように定められてもよい。
図7に戻り、第1ヒストグラム生成部102の構成例の説明を続ける。補助セグメント分割部303は、隣り合うセグメントの少なくとも一つの境界を補助セグメントが跨ぐように、部分領域の画像特徴量を補助セグメント群に分割する。図8では、補助セグメント分割部303は、全てのセグメントの各境界を各補助セグメントが跨ぐように、部分領域の画像特徴量を補助セグメント群に分割する。
補助セグメント分割部303は、画像特徴量の特性に応じて、一部のセグメントの境界を跨ぐように、ヒストグラムに補助セグメントを定めてもよい。例えば、自然画像では色差の特徴量の中央値(例えば、0から255までの範囲の128)に偏る特性があるので、ヒストグラムにおいて色差の特徴量の偏りが大きいセグメントの境界(部分)に、補助セグメントを定めてもよい。これにより、全てのセグメントの各境界を各補助セグメントが跨ぐように補助セグメント分割部303が部分領域の画像特徴量を補助セグメント群に分割する場合と比較して、補助セグメント分割部303は、処理速度を大きく低下させることなく、追跡精度を向上させることができる。
補助セグメント分割部303は、より大きい量子化サイズの補助セグメントを、ヒストグラムに定めてもよい。すなわち、少なくとも1個の補助セグメントがセグメント間の2個以上の境界を跨ぐように、部分領域の画像特徴量を補助セグメント群に分割してもよい。これにより、補助セグメント分割部303は、画像特徴量の変化に対して安定的に追跡精度を向上させることができる。なお。補助セグメントの量子化サイズDが所定サイズよりも大きい場合に被写体領域の画像特徴量を導出することが困難にならないように、補助セグメント分割部303は、部分領域の画像特徴量の特性に応じて、補助セグメントの量子化サイズを適切に定める。
出現数導出部304は、部分領域の画像特徴量の出現数を、セグメントごと及び補助セグメントごとに導出する。正規化部305は、入力フレームについて、各セグメントの特徴量の出現数の総和を導出する。正規化部305は、部分領域におけるセグメント及び補助セグメントの画像特徴量の出現頻度の総和が1になるように除算処理を実行し、各セグメントの画像特徴量の出現数を正規化する。ヒストグラム出力部306は、出現数の正規化によって生成された出現頻度を、各セグメントの画像特徴量の出現頻度を表すヒストグラムとして、差分導出部105に出力する。
図9は、実施形態における、ヒストグラムの生成処理の例を示すフローチャートである。特徴量変換部301は、入力フレームの画素値を、予め定められた種類の画像特徴量に変換する(ステップS301)。セグメント分割部302は、A個のセグメントの画像特徴量の配列Buf(Buf[0]からBuf[A−1]まで)を生成し、この配列Bufの各要素の値を0に初期化する。補助セグメント分割部303は、(A−1)個のセグメントの画像特徴量の配列Buf(Buf[A]からBuf[N−1]まで)を生成し、この配列Bufの各要素の値を0に初期化する(ステップS302)。
第1ヒストグラム生成部102及び第2ヒストグラム生成部104は、入力された位置及びサイズの候補に基づいて導出される部分領域の各画像特徴量に対して、ステップS303からステップS307までの処理を繰り返す(ステップS303)。セグメント分割部302は、所定のオフセット値O(=0)を画像特徴量に加算する。セグメント分割部302は、オフセットされた画像特徴量が量子化サイズDで除算された結果を、例えば、「0」から「A−1」までの量子化値に量子化(クリッピング)することによって、オフセットされた画像特徴量の量子化値Xmainを生成する(ステップS304)。セグメント分割部302は、配列Buf[Xmain]の値(出現数)を1増加させる(ステップS305)。
補助セグメント分割部303は、所定のオフセット値O(=0−D/2)を画像特徴量に加算する。セグメント分割部302は、オフセットされた画像特徴量が量子化サイズDで除算された結果を、例えば、「0」から「(A−1)−1」までの量子化値に量子化(クリッピング)することによって、オフセットされた画像特徴量の量子化値Xsubを生成する(ステップS306)。補助セグメント分割部303は、配列Buf[Xsub+A]の値(出現数)を1増加させる(ステップS307)。出現数導出部304は、配列Bufの各要素の値の合計値S1を導出する(ステップS308)。正規化部305は、配列Bufの各要素の値を合計値S1で除算する(ステップS309)。ヒストグラム出力部306は、入力フレームの部分領域の画像特徴量のヒストグラムとして、配列Bufを差分導出部105に出力する(ステップS310)。
以上のように、実施形態の被写体追跡装置1は、第1ヒストグラム生成部102と、第2ヒストグラム生成部104と、差分導出部105と、領域選択部106とを備える。第1ヒストグラム生成部102は、被写体領域の画像特徴量の出現頻度を画像特徴量のセグメントごと及び補助セグメントごとに表す第1ヒストグラムを生成する。第2ヒストグラム生成部104は、候補領域の画像特徴量の出現頻度を画像特徴量のセグメントごと及び補助セグメントごとに表す第2ヒストグラムを候補領域ごとに生成する。差分導出部105は、第1ヒストグラムと第2ヒストグラムとをセグメントごと及び補助セグメントごとに比較し、第1ヒストグラムと第2ヒストグラムとの画像特徴量の出現頻度の差分値の合計である差分合計値を候補領域ごとに導出する。領域選択部106は、差分合計値が最小である候補領域を各候補領域のうちから選択する。補助セグメントは、セグメント間の境界を跨ぐように定められる。
例えば図8では、参照フレームと追跡対象フレームとの間で、1個のセグメントを表す配列Buf[0]の値が急激に変化した場合、配列Buf[0]の差分値が大きくなるので、各セグメントの差分合計値が大きくなる。配列Buf[1]の値が急激に変化した場合も同様に、各セグメントの差分合計値が大きくなる。各セグメントの差分合計値が大きい場合、被写体領域の追跡精度は低下する。これに対して、配列Buf[0]及び配列Buf[1]の境界を跨ぐように定められた1個の補助セグメントを表す配列Buf[32]の値は、配列Buf[0]の値と配列Buf[1]の値との平均値である。このため、参照フレームと追跡対象フレームとの間で配列Buf[0]又は配列Buf[1]の値が急激に変化した場合でも、配列Buf[32]の差分値があまり大きくならず、各補助セグメントの差分合計値は大きくならない。各補助セグメントの差分合計値が大きくならないので、各セグメントの差分合計値のみに基づいて被写体領域が追跡される場合と比較して、被写体領域の追跡精度の低下は抑制される。これによって、実施形態の被写体追跡装置1は、動画像のフレーム画像内で被写体領域を追跡する精度を向上させることが可能である。
被写体領域は、動画像の第1フレーム画像の部分領域でもよい。候補領域は、動画像の第2フレーム画像の部分領域でもよい。
入力フレーム内の画像が緩やかに変化する場合、被写体追跡装置1は、第1のセグメントごとの画像特徴量の出現頻度を表すヒストグラムと、第2のセグメントごとの画像特徴量の出現頻度を表すヒストグラムとについて、画像特徴量の出現頻度を比較する。第1のセグメントは、所定間隔で画像特徴量を区切る(分割する)階級である。第2のセグメントは、第1のセグメント間の境界を跨ぐように定められた補助セグメントである。なお、「緩やかに変化する」とは、参照フレームと追跡対象フレームとの時間差分における変化がヒストグラムに及ぼす影響が、例えば、1個のセグメント以下(例えば、1個のセグメントの半分以下)であることである。
被写体追跡装置1は、第2のセグメントに基づいて、セグメント間の差分合計値の増加を抑制することができるので、追跡精度の低下を防ぐことができる。被写体追跡装置1は、第1のセグメントに第2のセグメント(補助セグメント)を追加するだけで、追跡精度の低下を防ぐことができる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
例えば、追跡対象フレームの数は、複数でもよい。被写体追跡装置1は、参照フレームの部分領域の画像特徴量のヒストグラムと、複数の追跡対象フレームの部分領域の画像特徴量のヒストグラムとの差分合計値が最小となる部分領域を検出してもよい。追跡対象フレームでは、複数の被写体領域が追跡されてもよい。入力フレームにおける領域(部分)の形状は、矩形でなくてもよく、円形等の任意の形状でもよい。
本発明は、画像処理システムに適用可能である。
1…被写体追跡装置、10…プロセッサ、11…メモリ、12…入力記憶部、13…記憶装置、14…出力記憶部、15…インタフェース、16…バス、101…抽出部、102…第1ヒストグラム生成部、103…位置・サイズ生成部、104…第2ヒストグラム生成部、105…差分導出部、106…領域選択部、107…出力部、200…ヒストグラム生成部、201…特徴量変換部、202…セグメント分割部、203…出現数導出部、204…正規化部、205…ヒストグラム出力部、300…部分領域、301…特徴量変換部、302…セグメント分割部、303…補助セグメント分割部、304…出現数導出部、305…正規化部、306…ヒストグラム出力部、400…部分領域、500…部分領域

Claims (6)

  1. 被写体領域の画像特徴量の出現頻度を前記画像特徴量のセグメントごと及び補助セグメントごとに表す第1ヒストグラムを生成する第1ヒストグラム生成部と、
    候補領域の画像の前記画像特徴量の出現頻度を前記画像特徴量の前記セグメントごと及び前記補助セグメントごとに表す第2ヒストグラムを前記候補領域ごとに生成する第2ヒストグラム生成部と、
    前記第1ヒストグラムと前記第2ヒストグラムとを前記セグメントごと及び前記補助セグメントごとに比較し、前記第1ヒストグラムと前記第2ヒストグラムとの前記画像特徴量の出現頻度の差分値の合計である差分合計値を前記候補領域ごとに導出する差分導出部と、
    前記差分合計値が最小である前記候補領域を各前記候補領域のうちから選択する領域選択部と
    を備え、
    前記補助セグメントは、前記セグメント間の境界を跨ぐように定められる、
    被写体追跡装置。
  2. 前記被写体領域は、第1フレーム画像の部分領域であり、
    前記候補領域は、第2フレーム画像の部分領域である、
    請求項1に記載の被写体追跡装置。
  3. 前記補助セグメント群は、前記被写体領域と前記候補領域とにおける全ての前記境界を跨ぐように定められる、
    請求項1又は請求項2に記載の被写体追跡装置。
  4. 少なくとも1個の前記補助セグメントは、2個以上の前記境界を跨ぐように定められる、
    請求項3に記載の被写体追跡装置。
  5. 被写体追跡が実行する被写体追跡方法であって、
    被写体領域の画像特徴量の出現頻度を前記画像特徴量のセグメントごと及び補助セグメントごとに表す第1ヒストグラムを生成するステップと、
    候補領域の画像の前記画像特徴量の出現頻度を前記画像特徴量の前記セグメントごと及び前記補助セグメントごとに表す第2ヒストグラムを前記候補領域ごとに生成するステップと、
    前記第1ヒストグラムと前記第2ヒストグラムとを前記セグメントごと及び前記補助セグメントごとに比較し、前記第1ヒストグラムと前記第2ヒストグラムとの前記画像特徴量の出現頻度の差分値の合計である差分合計値を前記候補領域ごとに導出するステップと、
    前記差分合計値が最小である前記候補領域を各前記候補領域のうちから選択するステップとを有し、
    前記補助セグメントは、前記セグメント間の境界を跨ぐように定められる、
    被写体追跡方法。
  6. 請求項1から請求項4のいずれか一項に記載の被写体追跡装置としてコンピュータを機能させるためのプログラム。
JP2018203081A 2018-10-29 2018-10-29 被写体追跡装置、被写体追跡方法及びプログラム Pending JP2020071525A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018203081A JP2020071525A (ja) 2018-10-29 2018-10-29 被写体追跡装置、被写体追跡方法及びプログラム
PCT/JP2019/039425 WO2020090352A1 (ja) 2018-10-29 2019-10-07 被写体追跡装置、被写体追跡方法及びプログラム
US17/289,203 US11763465B2 (en) 2018-10-29 2019-10-07 Object tracking apparatus, object tracking method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018203081A JP2020071525A (ja) 2018-10-29 2018-10-29 被写体追跡装置、被写体追跡方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2020071525A true JP2020071525A (ja) 2020-05-07

Family

ID=70464000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018203081A Pending JP2020071525A (ja) 2018-10-29 2018-10-29 被写体追跡装置、被写体追跡方法及びプログラム

Country Status (3)

Country Link
US (1) US11763465B2 (ja)
JP (1) JP2020071525A (ja)
WO (1) WO2020090352A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023109049A (ja) * 2022-01-26 2023-08-07 株式会社日立製作所 設計支援デバイス、設計支援デバイスを備える設計支援装置、及び設計支援方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006227973A (ja) * 2005-02-18 2006-08-31 Kyushu Institute Of Technology 物体追跡方法および物体追跡装置ならびにプログラム
JP2014112347A (ja) * 2012-11-08 2014-06-19 Nec Corp 画像照合システム、画像照合方法、およびプログラム
WO2017081839A1 (ja) * 2015-11-13 2017-05-18 パナソニックIpマネジメント株式会社 移動体追跡方法、移動体追跡装置、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006227973A (ja) * 2005-02-18 2006-08-31 Kyushu Institute Of Technology 物体追跡方法および物体追跡装置ならびにプログラム
JP2014112347A (ja) * 2012-11-08 2014-06-19 Nec Corp 画像照合システム、画像照合方法、およびプログラム
WO2017081839A1 (ja) * 2015-11-13 2017-05-18 パナソニックIpマネジメント株式会社 移動体追跡方法、移動体追跡装置、およびプログラム

Also Published As

Publication number Publication date
US11763465B2 (en) 2023-09-19
US20210398295A1 (en) 2021-12-23
WO2020090352A1 (ja) 2020-05-07

Similar Documents

Publication Publication Date Title
US10303983B2 (en) Image recognition apparatus, image recognition method, and recording medium
US12002259B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
US7489803B2 (en) Object detection
KR101782589B1 (ko) 이미지에 포함된 텍스트를 검출하는 방법, 장치 및 컴퓨터 판독 가능한 기록매체
JP6432162B2 (ja) 画像照合方法、画像照合装置、モデルテンプレート生成方法、モデルテンプレート生成装置、およびプログラム
US9443287B2 (en) Image processing method and apparatus using trained dictionary
US9430718B1 (en) Efficient local feature descriptor filtering
US20160125260A1 (en) Selecting features from image data
US20180232888A1 (en) Removal of background information from digital images
US9870618B2 (en) Image processing apparatus and image processing method
WO2014074959A1 (en) Real-time face detection using pixel pairs
US20150199996A1 (en) Method and apparatus for indexing a video stream
Hato et al. Fast algorithm for video shot boundary detection using surf features
US10643096B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US11176455B2 (en) Learning data generation apparatus and learning data generation method
JP6490441B2 (ja) 画像評価装置、画像評価方法およびプログラム
WO2020090352A1 (ja) 被写体追跡装置、被写体追跡方法及びプログラム
US10580127B2 (en) Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and storage medium
US9008434B2 (en) Feature extraction device
US10509986B2 (en) Image similarity determination apparatus and image similarity determination method
JP7031584B2 (ja) 領域識別装置と領域識別方法および領域識別プログラム
JP6254771B2 (ja) 画像処理装置及び画像処理プログラム
KR101937859B1 (ko) 360도 이미지에서의 공통 객체 탐색 시스템 및 방법
JP2015130041A (ja) 画像処理装置及び画像処理プログラム
KR20140076506A (ko) 배경확산 및 영역확장을 이용한 물체 검출 방법 및 장치, 이를 이용한 물체 추적 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220607