JP2017005582A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2017005582A
JP2017005582A JP2015119267A JP2015119267A JP2017005582A JP 2017005582 A JP2017005582 A JP 2017005582A JP 2015119267 A JP2015119267 A JP 2015119267A JP 2015119267 A JP2015119267 A JP 2015119267A JP 2017005582 A JP2017005582 A JP 2017005582A
Authority
JP
Japan
Prior art keywords
area
subject
matching
histogram
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015119267A
Other languages
English (en)
Other versions
JP6555940B2 (ja
JP2017005582A5 (ja
Inventor
良介 辻
Ryosuke Tsuji
良介 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015119267A priority Critical patent/JP6555940B2/ja
Priority to US15/168,608 priority patent/US10140503B2/en
Publication of JP2017005582A publication Critical patent/JP2017005582A/ja
Publication of JP2017005582A5 publication Critical patent/JP2017005582A5/ja
Application granted granted Critical
Publication of JP6555940B2 publication Critical patent/JP6555940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ヒストグラムマッチングとテンプレートマッチングを併用するとともに、各マッチングの特性を踏まえて、被写体追跡の性能を向上させることができる画像処理装置を提供する。
【解決手段】この画像処理装置は、入力される画像から追跡対象となる被写体を検出する被写体検出手段と、追跡対象となる被写体を示す部分領域をテンプレートとして登録する第1の登録手段と、登録されたテンプレートを用いて、逐次入力された画像と照合し、類似度が高い第1の領域を推定する第1のマッチング手段と、追跡対象となる被写体を示す部分領域のヒストグラムを登録する第2の登録手段と、登録されたヒストグラムを用いて、逐次入力された画像のヒストグラムと照合し、類似度が高い第2の領域を推定する第2のマッチング手段と、第1のマッチング手段および第2のマッチング手段による推定結果に基づいて、追跡領域を決定する追跡領域決定手段とを備える。
【選択図】図6

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関し、特に、逐次供給される画像に含まれる被写体を追跡する画像処理装置に関する。
近年、時系列的に逐次供給される画像から特定の被写体を抽出し、その抽出した被写体を追跡する技術が非常に有用であり、例えば、動画像における人間の顔領域や人体領域の特定に利用されている。このような技術は、例えば、通信会議、マン・マシン・インターフェース、セキュリティ、任意の被写体を追跡するためのモニタ・システム、画像圧縮等の多くの分野で使用することができる。
また、デジタルスチルカメラやデジタルビデオカメラ等において、撮像画像に含まれる任意の被写体を抽出および追跡して、かかる被写体に対する焦点状態や露出状態を最適化する技術が知られている(特許文献1乃至3参照)。
例えば、特許文献1には、撮像画像に含まれる顔の位置を検出(抽出)および追跡し、その顔に対して、焦点を合わせると共に最適な露出で撮像する撮像装置が開示されている。検出された顔を追跡することにより、時系列に対して安定的な制御が可能になる。
また、特許文献2には、テンプレートマッチングを利用して自動で特定の被写体を追跡するようにした技術が開示されている。なお、テンプレートマッチングとは、追跡対象となる特定の被写体を含む画像領域を切り出した部分画像をテンプレート画像として登録し、テンプレート画像と最も類似度が高い又は相違度が低い領域を画像内において推定し、特定の被写体を追跡する技術である。
特許文献3には、テンプレートマッチングに対して、ヒストグラムマッチングという、マッチングの特徴量に画像データそのものではなくヒストグラムを利用する技術が開示されている。これは、被写体を示す情報を画像データからヒストグラムに変換して登録し、登録したヒストグラムと最も類似するヒストグラムに変換できる領域を画像内において推定し、特定の被写体を追跡する技術である。
特開2005−318554号公報 特開2001−060269号公報 特開2004−348273号公報
しかしながら、テンプレートマッチングでは、画像データのパターンを特徴量として用いるため、類似対象との区分には強い一方で、見えの変化に弱い。これに対し、ヒストグラムマッチングでは、被写体を示す情報を画像データからヒストグラムに変換することで、曖昧性を持たせ、被写体の姿勢変動などの見えの変化にロバストな被写体追跡が実現できるが、類似対象との区分に弱い。さらに、ヒストグラムマッチングとテンプレートマッチングは互いの特性が異なるため、単にヒストグラムマッチングとテンプレートマッチングを併用することは難しい。
本発明は、上記課題を鑑みて、ヒストグラムマッチングとテンプレートマッチングを併用するとともに、被写体追跡の性能を向上させることができる画像処理装置を提供することを目的とする。
上記の課題を解決するために、本発明に係る画像処理装置は、逐次入力される画像に含まれる被写体を追跡する画像処理装置であって、前記入力される画像から追跡対象となる被写体を検出する被写体検出手段と、前記検出した追跡対象となる被写体を示す部分領域をテンプレートとして登録する第1の登録手段と、前記第1の登録手段により登録されたテンプレートを用いて、前記逐次入力された画像の部分領域の各領域と照合し、類似度が高い第1の領域を推定する第1のマッチング手段と、前記検出した追跡対象となる被写体を示す部分領域のヒストグラムを登録する第2の登録手段と、前記第2の登録手段により登録されたヒストグラムを用いて、前記逐次入力された画像の部分領域のヒストグラムと照合し、類似度が高い第2の領域を推定する第2のマッチング手段と、前記第1のマッチング手段および前記第2のマッチング手段による推定結果に基づいて、追跡領域を決定する追跡領域決定手段とを備、記第2の登録手段が登録するヒストグラムに対応する部分領域は、前記第1の登録手段が登録するテンプレートに対応する部分領域よりも広い部分領域であること、および、前記第2の登録手段が登録するヒストグラムの更新頻度は、前記第1の登録手段が登録するテンプレートの更新頻度よりも低いことの、少なくともいずれかを満たすることを特徴とする。
本発明によれば、ヒストグラムマッチングとテンプレートマッチングを併用するとともに、被写体領域を精度良く推定することができ、被写体追跡の性能を向上させることができる画像処理装置を提供することができる。
撮像装置の概略構成を示すブロック図である。 被写体追跡回路の構成を示すブロック図である。 テンプレートマッチングを説明するための図である。 ヒストグラムマッチングを説明するための図である。 被写体追跡のフレームワークを示す図である。 被写体追跡処理を示すフローチャートである。 図6に示す被写体領域決定処理を示すフローチャートである。 ヒストグラム取得領域の最適化処理の流れを示すフローチャートである。
以下、本発明を実施するための最良の形態について図面などを参照して説明する。本発明は、デジタル一眼レフカメラやデジタルスチルカメラ、デジタルビデオカメラ等の撮像装置に適用可能である。
図1は、実施形態に係る撮像装置100の概略構成を示すブロック図である。本実施形態では、撮像装置100は、被写体の画像を撮像するデジタルカメラとして具現化される。また、撮像装置100は、時系列的に逐次供給(逐次入力)される画像に含まれる被写体を追跡する被写体追跡装置としても機能する。
撮像装置100は、撮像光学系101と、撮像素子102と、アナログ信号処理回路103と、A/D変換器104と、制御回路105と、画像処理回路106と、表示器107と、記録媒体108と、被写体追跡回路109とを備える。
被写体の像を表す光は、撮像光学系101によって集光され、CCDイメージセンサやCMOSイメージセンサ等で構成された撮像素子102に入射する。撮像素子102は、入射する光の強度に応じた電気信号を画素単位で出力する。すなわち、撮像光学系101によって形成された被写体の像を光電変換する。撮像素子102から出力される電気信号は、撮像素子102で撮像された被写体の像を示すアナログの画像信号である。
撮像素子102から出力された映像信号は、アナログ信号処理回路103で相関二重サンプリング(CDS)等のアナログ信号処理が行われる。アナログ信号処理回路103から出力された映像信号は、A/D変換器104でデジタルデータの形式に変換され、制御回路105および画像処理回路106に入力される。
制御回路105は、CPUやマイクロコントローラ等で構成され、撮像装置100の動作を中央制御する。制御回路105は、撮像素子102で撮像する際の焦点状況や露出状況等の撮像条件を制御する。具体的には、制御回路105は、A/D変換器104から出力された映像信号に基づいて、撮像光学系101の焦点制御機構や露出制御機構(いずれも不図示)を制御する。例えば、焦点制御機構は、撮像光学系101に含まれるレンズを光軸方向へ駆動させるアクチュエータ等であり、露出制御機構は、絞りやシャッタを駆動させるアクチュエータ等である。また、制御回路105は、撮像素子102の出力タイミングや出力画素等、撮像素子102の読み出し制御を行う。制御回路105は、ROMに記憶されたプログラムコードをRAMの作業領域に展開して順次実行することで、撮像装置100の各部を制御する。
画像処理回路106は、A/D変換器104から出力された映像信号に対して、ガンマ補正、ホワイトバランス処理等の画像処理を行う。また、画像処理回路106は、通常の画像処理に加え、後述する被写体追跡回路109から供給される画像中の被写体領域に関する情報を用いた画像処理を行う機能も有する。
画像処理回路106から出力された映像信号は、表示器107に送られる。表示器107は、例えば、LCDや有機ELディスプレイで構成され、映像信号を表示する。撮像素子102で時系列的に逐次撮像した画像を表示器107に逐次表示させることで、表示器107は、電子ビューファインダ(EVF)として機能する。また、表示器107は、被写体追跡回路109によって追跡している被写体を含む被写体領域を矩形等で表示する。
また、画像処理回路106から出力された映像信号は、記録媒体108(例えば、着脱可能なメモリーカード等)に記録される。なお、映像信号の記録先は、撮像装置100の内蔵メモリであっても、通信インターフェイスにより通信可能に接続された外部装置(不図示)であってもよい。
被写体追跡回路109は、画像処理回路106から時系列的に逐次供給される(すなわち、撮像された時刻の異なる)画像(画像信号)に含まれる被写体を追跡する。被写体追跡回路109は、被写体の画素パターンやヒストグラムに基づき、逐次供給される画像から被写体領域を推定する。被写体追跡回路109の詳細については後述する。
制御回路105は、上述の焦点制御機構や露出制御機構の制御に、被写体追跡回路109から供給された被写体領域の情報を用いることができる。具体的には、被写体領域のコントラスト値を用いた焦点制御や、被写体領域の輝度値を用いた露出制御を行う。これにより、撮像装置100では、撮像画像における特定の被写体領域を考慮した撮像処理を行うことができる。
ここで、被写体追跡回路109に関して詳細を説明する。被写体追跡回路109は、2種のマッチング手段として機能する。1つは、目的とする被写体を示す部分画像をテンプレートとして、供給された画像の部分領域と照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定するマッチング手段である(以下、テンプレートマッチングと呼ぶ)。もう1つは、目的とする被写体を示す部分画像のヒストグラムを、供給された画像の部分領域のヒストグラムと照合し、照合する部分領域を変化させ、類似度が高い又は相違度が低い領域を推定するマッチング手段である(以下、ヒストグラムマッチングと呼ぶ)。そして、各々の推定結果におけるマッチング評価値に基づいて被写体領域が決定される。本実施形態に係る被写体追跡では、各マッチング手段の特性に応じて、追跡のための特徴量を取得する領域や更新頻度を変えることで高精度な追跡を行う。
図2は、被写体追跡回路109のブロック図である。被写体追跡回路109は、被写体検出回路201、テンプレート登録回路202、テンプレートマッチング回路203、ヒストグラム登録回路204、ヒストグラムマッチング回路205、追跡処理制御回路206により構成される。被写体検出回路201から追跡処理制御回路206の各ブロック(回路)は、バスによって接続され、データのやり取りができる。
被写体検出回路(被写体検出手段)201は、供給される画像から目的とする所定の被写体を検出し、追跡対象を特定する。目的とする被写体としては、例えば、人物の顔などが代表的である。この場合、被写体検出回路201は、被写体領域として人物の顔領域を特定し、その人物の顔領域を追跡対象とする。被写体検出回路201における被写体の検出方法では、例えば、検出対象が人物の顔である場合、公知の顔検出方法を用いてもよい。顔検出の公知技術として、顔に関する知識(肌色情報、目・鼻・口などのパーツ)を利用する方法とニューラルネットに代表される学習アルゴリズムにより顔検出のための識別器を構成する方法などがある。また、顔検出では、認識率向上のためにこれらを組み合わせて顔認識を行うのが一般的である。例えば、ウェーブレット変換と画像特徴量を利用して顔検出する方法である。
テンプレート登録回路(第1の登録手段)202は、目的とする被写体を示す部分画像を被写体の特徴を表現するモデルであるテンプレートとして登録する。テンプレートマッチング回路(第1のマッチング手段)203では、テンプレート登録回路202により登録されたテンプレートと、供給された画像の部分領域と照合し、照合する部分領域を変化させて、類似度が高いまたは相違度が低い領域を推定する。
ヒストグラム登録回路(第2の登録手段)204は、目的とする被写体を示す部分画像のヒストグラムを被写体の特徴を表現するモデルとして登録する。ヒストグラムマッチング回路(第2のマッチング手段)205は、供給された画像の部分領域のヒストグラムと照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する。
追跡処理制御回路(追跡領域決定手段)206は、CPUなどで構成され、被写体追跡処理の制御を行う。被写体検出回路201からヒストグラムマッチング回路205は、追跡処理制御回路206を介して処理が実行される。追跡処理制御回路206では、テンプレートマッチング回路203およびヒストグラムマッチング回路205の評価値から被写体領域を決定する。この決定された被写体領域が被写体追跡回路109の出力情報となる。
次に、被写体領域を決定する方法について説明する。ヒストグラムマッチングによる推定領域の近傍にテンプレートマッチングによる推定領域があれば、テンプレートマッチングによる推定領域を被写体領域として採用する。ヒストグラムマッチングによる推定領域の近傍にテンプレートマッチングによる推定領域がなければ、ヒストグラムマッチングによる推定領域を被写体領域として採用する。また、追跡処理制御回路206は、テンプレート登録回路202およびヒストグラム登録回路204の特徴量を取得する部分領域の制御や更新タイミングの制御を行う。詳細は後述するが、テンプレート登録回路202とヒストグラム登録回路204において、マッチングの特性に応じて異なる部分領域の制御や更新タイミングの制御とすることで、高精度な追跡を行う。なお、本実施形態では、追跡処理専用の制御回路を設けたが、追跡処理制御回路206は、制御回路105に含まれる構成としてもよい。
次に、図3を参照して、テンプレートマッチングの詳細について説明する。図3(A)は、テンプレートマッチングにおける被写体モデル(テンプレート)の一例を示す図である。テンプレート301は、追跡対象となる被写体を示す部分画像(テンプレート)であり、この画像の画素パターンを特徴量として扱う。特徴量302は、テンプレート301における複数領域の各座標の特徴量を表現したものであり、本実施形態では、画素データの輝度信号を特徴量とする。特徴量T(i,j)は、テンプレート領域内の座標を(i,j)、水平画素数をW、垂直画素数をHとすると、式(1)で表現される。
Figure 2017005582
図3(B)は、追跡対象を探索する画像の情報を示す図である。画像303は、マッチング処理を行う範囲の画像である。探索画像における座標は、(x,y)で表現する。部分領域304は、マッチングの評価値を取得するための領域である。特徴量305は、部分領域304の特徴量を表現したものであり、テンプレート301と同様に画像データの輝度信号を特徴量とする。特徴量S(i,j)は、部分領域内の座標を(i,j)、水平画素数をW、垂直画素数をHとすると、式(2)で表現される。
Figure 2017005582
本実施形態では、テンプレート301と部分領域304との類似性を評価する演算方法として、差分絶対和、いわゆるSAD(Sum of Absolute Difference)値を用いる。SAD値は、式(3)により算出される。
Figure 2017005582
部分領域304を探索範囲の画像303の左上から順に1画素ずつずらしながら、SAD値V(x,y)を演算する。演算されたV(x,y)が最小値を示す座標(x,y)がテンプレート301と最も類似した位置を示す。つまり、最小値を示す位置が探索画像において目的とする追跡対象が存在する可能性の高い位置となる。
なお、本実施形態では、特徴量として輝度信号の1次元の情報を用いたが、明度・色相・彩度の信号等の3次元の情報を特徴量として扱ってもよい。また、マッチングの評価値の演算方法としてSAD値に関して説明したが、正規化相互相関いわゆるNCC(Normalized Correlation Coffiecient)等の異なる演算方法を用いても良い。
次に、図4を参照して、ヒストグラムマッチングの詳細について説明する。図4(A)は、ヒストグラムマッチングにおける被写体モデルの一例を示す図である。部分画像401は、追跡対象となる被写体を示す部分画像であり、この部分画像401の画素データから生成するヒストグラムを特徴量として扱う。特徴量402は、部分画像401の特徴量を表現したものであり、特徴量402は、輝度信号のM階調のヒストグラムとすると、式(4)で表現される。
Figure 2017005582
図4(B)は、追跡対象を探索する画像の情報を示す図である。画像403は、マッチング処理を行う範囲の画像である。探索画像における座標は、(x,y)で表現する。部分領域404は、マッチングの評価値を取得するための部分領域である。特徴量405は、部分領域404から生成される特徴量を表現したものであり、特徴量405は、部分画像401と同様に輝度信号のM階調のヒストグラムとすると、式(5)で表現される。
Figure 2017005582
テンプレート301のヒストグラムと部分領域404のヒストグラムとの類似性を評価する演算方法として、Bhattacharyya(バタチャリア)係数を用いる。Bhattacharyya係数は、式(6)により算出される。
Figure 2017005582
部分領域404を探索範囲403の左上から順に1画素ずつずらしながら、Bhattacharyya係数D(x,y)を演算する。演算されたD(x,y)が最大値を示す座標(x,y)が部分画像401と最も類似した位置を示す。つまり、最大値を示す位置が探索画像において目的とする追跡対象が存在する可能性の高い位置となる。
ここでは、特徴量として輝度信号の1次元の情報を用いる例を示したが、明度・色相・彩度の信号等の3次元の情報を特徴量として扱ってもよい。また、マッチングの評価値の演算方法としてBhattacharyya係数に関して説明したが、ヒストグラムインタセクション等の異なる演算方法を用いてもよい。
本実施形態に係る撮像装置100では、テンプレートマッチングおよびヒストグラムマッチングによる評価値、推定領域(推定位置)より被写体領域を決定する。テンプレートマッチングでは、画像データのパターンを特徴量として用いる。しかしながら、類似対象との区分には強い一方で、見えの変化に弱い。一方で、ヒストグラムマッチングは、マッチングの特徴量に画像データそのものではなくヒストグラムを利用する。特徴量に曖昧性を持たせているため、被写体の姿勢変動などの見えの変化に強い一方で、類似対象との区分には弱い。
被写体追跡の方法において、上述した数式のように特徴量の表現方法やその照合(マッチグ)方法に加え、特徴量の取得方法が重要な要素となる。特徴量の取得方法とは、取得領域の大きさ、特徴量の更新頻度を示す。特徴量の取得領域が大きければ、追跡対象と他とを区分するための特徴を取得することができ、類似対象との区分に強くなる。その一方で、時間方向での変化が大きくなりやすく、追跡対象の見えの変化に弱くなる。特徴量の取得領域が小さければ、追跡対象の局所領域のみが対象となるため、時間方向での変化が少なくなりやすく、追跡対象の見えの変化に強くなる。その一方で、追跡対象と他とを区分するための特徴を取得しにくくなり、類似対象との区分に弱くなる。
また、特徴量の更新頻度に関しては、更新頻度が高ければ特徴量の取得タイミングの画像とマッチング処理の画像との時間間隔が小さくなり、追跡対象の変化が小さくなる。つまり、結果として、追跡対象の見えの変化に強くなる。その一方で、例えば追跡処理の度に特徴量を更新すると、被写体追跡の推定誤差を含んでしまう恐れがある。そのため、特徴量の信頼性が低くなってしまう。被写体追跡の推定の信頼性が高い場合のみに、特徴量を更新すれば、特徴量の信頼性は高くなる。しかしながら、特徴量の更新頻度は低くなり、特徴量の取得タイミングの画像とマッチング処理の画像との時間間隔が大きくなり、追跡対象の変化が大きくなる。そのため、追跡対象の見えの変化に弱くなる。ここで、被写体追跡の推定の信頼性が高いとは、例えば被写体検出より追跡対象を検出した場合などが考えられる。
上述した特性を踏まえて、テンプレートマッチングでは、特徴量の取得範囲は狭く、特徴量の更新頻度は高くする。これにより、テンプレートマッチングの見えの変化に弱いデメリットを抑える。ヒストグラムマッチングでは、特徴量の取得範囲は広く、特徴量の更新頻度は低くする。これにより、ヒストグラムマッチングの見えの変化に強いメリットを活かす。
次に、図5において、被写体追跡回路109による被写体追跡のフレームワークを示す。画像501、502、503は、被写体追跡回路109の入力画像の一例である。画像501は、被写体検出回路201により追跡対象が検出された画像である。画像502は、被写体追跡処理を実施した画像のうち、現在時刻に最も近い画像である。画像503は、現在時刻の画像であり、被写体領域を推定する処理を実施する画像である。画像501より後で、画像502までの期間において、被写体検出回路201により追跡対象が検出されなかったものとする。
枠505および506は、被写体追跡回路109による推定領域を示す。領域504は、被写体検出回路201によって推定された領域であり、被写体としての信頼性(信頼度)が高いといえる。そのため、部分領域507に示すように、被写体検出回路201によって推定された領域よりも広い範囲から特徴量を取得する。部分領域507からヒストグラム508を生成し、このヒストグラム508をヒストグラム登録回路204で登録しておく。テンプレート509は、被写体追跡処理の直前結果を示す部分領域であり、この部分領域をテンプレートとしてテンプレート登録回路202で登録する。なお、被写体追跡の開始時は、被写体検出回路201によって推定された領域を、テンプレートとしてテンプレート登録回路202で登録する。
探索範囲510は、被写体追跡処理の探索範囲である。探索範囲510に対して、ヒストグラムマッチング回路205により、ヒストグラム508を用いたヒストグラムマッチングが実行される。これに並行して、テンプレートマッチング回路203により、テンプレート509を用いたテンプレートマッチングが実行される。各々のマッチング結果より、追跡処理制御回路206により被写体追跡領域506が決定される。図5では、ヒストグラムマッチングの特徴量であるヒストグラム508は、テンプレートマッチングの特徴量であるテンプレート509よりも特徴量の取得範囲が広く、更新頻度が低いことを示している。すなわち、ヒストグラム登録回路204で登録するヒストグラムに対応する部分領域は、テンプレート登録回路202が登録するテンプレートに対応する部分領域よりも広い。また、ヒストグラム登録回路204登録するヒストグラムの更新頻度は、テンプレート登録回路202が登録するテンプレートの更新頻度よりも低い。
次に、図6を参照して、本実施形態における被写体追跡処理について説明する。まず、画像処理回路106から被写体追跡回路109に画像が供給されると(ステップS601)、被写体追跡回路109は、追跡対象を決定するため被写体検出を行う(ステップS602)。検出された被写体領域を追跡対象とし、追跡対象となる被写体を示す部分画像に基づいて、ヒストグラムマッチングの被写体モデル(特徴量)であるヒストグラムを登録する(ステップS603)。また、被写体追跡回路109は、追跡対象となる被写体を示す部分画像を、テンプレートマッチングの被写体モデル(特徴量)であるテンプレートとして登録する(ステップS604)。ここで、図示していないが、ステップS602において、被写体が検出されなかった場合、処理を終了してもよい。
次に、画像処理回路106から被写体追跡回路109に画像が供給(入力)される(ステップS605)。なお、ステップS605の入力画像は、被写体追跡回路109の探索画像に相当する領域の画像を示し、ステップS601の入力画像とステップS605の入力画像とは時刻の異なる画像である。次に、ステップS605の入力画像に基づいて、被写体検出(ステップS606)が行われる。次に、ヒストグラムマッチング(ステップS607)が行われ、そして、テンプレートマッチング(ステップS608)が行われる。次に、被写体検出の結果と、ヒストグラムマッチングとテンプレートマッチングの評価値とその領域情報に基づいて、被写体領域を決定する(ステップS609)。
ここで、図7を参照して、ステップS609の被写体領域決定処理に流れについて説明する。まず、被写体追跡回路109は、被写体検出により追跡対象が検出された否かを判定する(ステップS701)。ステップS701で追跡対象が検出されている場合(YES)、被写体検出による推定領域を被写体領域として採用する(ステップS702)。一方、追跡対象が検出されていない場合(NO)、ステップS703に進み、ヒストグラムマッチングの評価値の信頼性(信頼度)が高いか否か否かを判定する。信頼性判定としては、例えば、式(6)のBhattacharyya係数D(x,y)の最大値が所定の閾値以上であれば信頼性が高いと判定し、Bhattacharyya係数D(x,y)の最大値が所定の閾値未満であれば信頼性が低いと判定する。
ステップS703で、ヒストグラムマッチングの評価値の信頼性が高い場合(YES)、ステップS704に進み、ヒストグラムマッチングの推定領域の近傍にテンプレートマッチングの推定領域があるか否かを判定する。この判定は、式(6)のBhattacharyya係数D(x,y)の最大値の座標(x,y)と式(3)のSAD値V(x,y)の最小値の座標(x,y)との距離を算出し、算出した距離が所定範囲であるか否かに基づいて判定する。ステップS704で、ヒストグラムマッチングの推定距離の近傍にテンプレートマッチングの推定領域がない場合(NO)、ステップS706に進み、ヒストグラムマッチングによる推定領域を採用する。すなわち、式(6)のBhattacharyya係数D(x,y)の最大値の座標(x,y)を被写体位置として決定する。一方、ヒストグラムマッチングの推定距離の近傍にテンプレートマッチングの推定領域がある場合(YES)、ステップS707に進み、テンプレートマッチングによる推定領域を採用する。信頼性が高いヒストグラムマッチングの推定領域の近傍に、テンプレートマッチングによる推定領域があるならば、そのテンプレートマッチングによる推定領域も信頼性が高いと考えられる。また、ヒストグラムマッチングよりもテンプレートマッチングのほうが、推定領域の位置精度が高いと考えられるため、この場合はテンプレートマッチングの推定領域を採用する。
一方、ステップS703で、ヒストグラムマッチングの評価値の信頼性が低い場合(NO)、ステップS705に進み、テンプレートマッチングの評価値の信頼性が高いか否かを判定する(ステップS705)。信頼性判定は、式(3)のSAD値V(x,y)の最小値が所定の閾値未満であれば信頼性が高いと判定し、SAD値V(x,y)の最小値が所定の閾値以上であれば信頼性が低いと判定する。
ステップS705でテンプレートマッチングの評価値の信頼性が高い場合(YES)、ステップS707に進む。そして、テンプレートマッチングによる推定領域を採用する(ステップS707)。すなわち、式(3)のSAD値V(x,y)の最小値の座標(x,y)を被写体位置として決定する。一方、ステップS705でテンプレートマッチングの評価値の信頼性が低い場合(NO)、ステップS708に進み、テンプレートマッチング、ヒストグラムマッチングの推定領域を共に採用しない。
図6に戻って、ステップS609で被写体領域が決定されると、被写体追跡回路109は、被写体モデル(特徴量)の更新処理を行う。次に、ステップS610で決定された被写体領域の信頼性が高いか否かを判定する。ステップS610で信頼性が高い場合(YES)、ヒストグラムの更新を行う(ステップS611)。一方、ステップS610で、信頼性が高くない(低い)場合(NO)、ヒストグラムの更新を行わない。なお、ステップS610での信頼性の判定方法としては、ステップS606の被写体検出によって追跡対象が検出されていれば、信頼性が高く、ステップS606の被写体検出によって追跡対象が検出されてなければ、信頼性が低いとする。つまり、ステップS702によって、被写体検出による推定領域を被写体領域として採用していれば、信頼性が高く、それ以外であれば信頼性が低いと判定してよい。
次に、被写体追跡回路109は、被写体追跡を継続するか否かを判定する(ステップS612)。この判定は、例えば、ステップS708のようにテンプレートマッチングやヒストグラムマッチングの推定領域を共に採用しなければ、継続しないと判定する。一方で、ステップS706、ステップS707のようにテンプレートマッチング、ヒストグラムマッチングの推定領域のいずれかが採用されれば、追跡を継続する。ステップS612で、追跡を継続しない場合(NO)、被写体追跡の処理を終了する。つまり、目的とする追跡の被写体が探索範囲の画像に存在しなくなった場合処理が終了する。一方、ステップS612で、追跡を継続する場合(YES)、推定した被写体領域に基づきテンプレートを更新する(ステップS613)。そして、ステップS605に戻り、逐次供給される画像に基づいて、繰り返し処理が実行される。このように、ヒストグラムマッチングに用いるヒストグラムは、追跡に成功したとしても、被写体領域の信頼性が高いと判断された時しか更新されないのに対して、テンプレートマッチングに用いるテンプレートは、追跡に成功するたびに更新される。
なお、テンプレートマッチングのテンプレートや、ヒストグラムマッチングのヒストグラムの取得領域は、被写体検出や被写体追跡の結果領域に基づいて決定される。また、テンプレートマッチングのテンプレートの大きさは、被写体検出による検出領域相当であるが、ヒストグラムマッチングのヒストグラムの取得領域の大きさは、被写体検出によって検出された領域よりも大きい。ヒストグラムの取得領域の大きさを、被写体検出によって検出された領域に対して単純に拡大した領域とすると、取得領域の中に背景など追跡対象とは異なる領域を含んでしまうことがある。この場合、被写体追跡の精度を低下させてしまう恐れがあるため、ヒストグラムの取得領域の最適化が必要となる。
ここで、ヒストグラムの取得領域の最適化処理では、被写体検出による検出領域に含まれる画素情報であって、被写体の領域外に広がっていない画素情報の分布状況に応じて取得領域を決定する。ここで、図8を参照して、不図示の最適化手段によるヒストグラムの取得領域の最適化の処理の流れを説明する。まず、ヒストグラムを取得する画像情報をクラスタリングする(ステップS801)。これは、多次元である画像情報を、クラスタリングにより低次元化し、ノイズの影響抑制や、後段処理で情報を扱いやすくするためである。クラスタリングの方法としては、例えば、K−meansなどの一般的な手法を適用してよい。
次に、クラスタリング画像に基づきラベリング処理を行う(ステップS802)。ラベリング処理では、同じクラスの画素情報であって、位置が連続した(上下または左右で隣り合っている)画素情報に同じラベルを割り当てる。次に、ラベルリング画像に対して、第1の所定領域内に含まれるラベルを有効ラベルとし、第1の所定領域内に含まれないラベルを無効ラベルとする(ステップS803)。なお、第1の所定領域は、被写体検出による追跡対象の検出領域に基づき決定される。
次に、有効ラベルに対して、第1の所定領域とは異なる第2の所定領域外に含まれない(すなわち、第2の所定領域内)画素を有効ラベルとして、第2の所定領域外に含まれる(すなわち、第2の所定領域外)画素を無効ラベルとする(ステップS804)。なお、本実施形態では、第2の所定領域は、第1の所定領域よりも広いものとする。次に、有効ラベルの分布状況に基づき領域をフィッティングする(ステップS805)。領域フィッティングでは、例えば、有効ラベルの画素を多く含み、無効ラベルの画素は多く含まないように矩形の形状を変化させる。
次に、推定された領域が所定の条件を満たすか否かを判定する(ステップS806)。推定領域が所定の条件を満たしている場合(YES)、推定領域に基づきヒストグラムを更新する(ステップS807)。推定領域が所定の条件を満たさない場合(NO)、ヒストグラムは更新されず処理を終了する。例えば、推定領域が所定の閾値より小さい場合、または推定領域が所定の閾値よりも大きい場合は、ヒストグラムは更新されない。つまり、ステップS610で被写体領域の信頼性が高いと判断され、ステップS611に進んだ場合であっても、推定領域が所定の条件を満たさない場合にはヒストグラムは更新されない。以上の処理により、ヒストグラムの取得領域の最適化され追跡精度の低下を防ぐことができる。
以上、本実施形態では、ヒストグラムマッチングとテンプレートマッチングを併用するとともに、各マッチングの特性を踏まえて、特徴の取得範囲や更新頻度を最適化することで被写体追跡の性能を向上させることができる画像処理装置を提供することができる。
なお、本実施形態では、撮像装置に被写体追跡装置を適用したが、被写体追跡装置を適用する機器は、撮像装置に限定しない。例えば、外部機器や記録媒体等から供給される画像(再生データ)を表示する表示装置に被写体追跡装置を適用してもよい。なお、表示装置では、再生データを被写体追跡処理のデータとし、被写体追跡処理が行われることとなる。この場合、表示装置におけるマイクロコントローラ等の制御回路は、被写体追跡処理により抽出された被写体の情報(画像中の被写体の位置、大きさ等)に基づいて、画像を表示する際の表示条件を制御する。具体的には、画像中の被写体の位置に枠等の被写体を示す情報の重畳表示や、被写体部分の輝度や色情報に応じた表示画像の輝度や色合い等の制御を行う。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、機能ごとに、プロセッサーがプログラムを読出すことによって実行されるものと、回路によって実行されるものに分け、これらを組み合わせるようにしてもよい。
また、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。
201 被写体検出回路
202 テンプレート登録回路
203 テンプレートマッチング回路
204 ヒストグラム登録回路
205 ヒストグラムマッチング回路
206 追跡処理制御回路

Claims (11)

  1. 逐次入力される画像に含まれる被写体を追跡する画像処理装置であって、
    前記入力される画像から追跡対象となる被写体を検出する被写体検出手段と、
    前記検出した追跡対象となる被写体を示す部分領域をテンプレートとして登録する第1の登録手段と、
    前記第1の登録手段により登録されたテンプレートを用いて、前記逐次入力された画像の部分領域の各領域と照合し、類似度が高い第1の領域を推定する第1のマッチング手段と、
    前記検出した追跡対象となる被写体を示す部分領域のヒストグラムを登録する第2の登録手段と、
    前記第2の登録手段により登録されたヒストグラムを用いて、前記逐次入力された画像の部分領域のヒストグラムと照合し、類似度が高い第2の領域を推定する第2のマッチング手段と、
    前記第1のマッチング手段および前記第2のマッチング手段による推定結果に基づいて、追跡領域を決定する追跡領域決定手段と
    を備え、
    前記第2の登録手段が登録するヒストグラムに対応する部分領域は、前記第1の登録手段が登録するテンプレートに対応する部分領域よりも広い部分領域であること、および、前記第2の登録手段が登録するヒストグラムの更新頻度は、前記第1の登録手段が登録するテンプレートの更新頻度よりも低いことの、少なくともいずれかを満たす
    ことを特徴とする画像処理装置。
  2. 前記第1の登録手段は、前記被写体検出手段により検出される領域相当の部分領域をテンプレートとして登録し、
    前記第2の登録手段は、前記被写体検出手段により検出される領域よりも広い部分領域からヒストグラムを登録する
    ことを特徴する請求項1に記載の画像処理装置。
  3. 前記第2の登録手段は、登録するヒストグラムを取得するための部分領域を最適化する最適化手段を備え、
    前記最適化手段は、前記被写体検出手段による検出領域に含まれる画素情報であって、前記被写体の領域外に広がっていない画素情報の分布状況に応じて前記部分領域を最適化する
    ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記追跡領域決定手段は、前記第1のマッチング手段および前記第2のマッチング手段による照合の信頼度に応じて前記第1の領域または前記第2の領域のいずれかを前記追跡領域として決定する
    ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
  5. 前記追跡領域決定手段は、前記第2のマッチング手段による照合の信頼度が高い場合、前記第2の領域を前記追跡領域として決定する
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記追跡領域決定手段は、前記第2のマッチング手段による照合の信頼度が高く、かつ前記第2の領域の近傍に前記第1の領域がある場合、前記第1の領域を前記追跡領域として決定する
    ことを特徴とする請求項4または5に記載の画像処理装置。
  7. 前記追跡領域決定手段は、前記第2のマッチング手段による照合の信頼度が低く、かつ前記第1のマッチング手段による信頼度が高い場合、前記第1の領域を前記追跡領域として決定する
    ことを特徴とする請求項4〜6のいずれか1項に記載の画像処理装置。
  8. 請求項1〜7のいずれか1項に記載の画像処理装置と、
    撮像した画像を前記画像処理装置に逐次入力する撮像手段と、
    前記撮像手段が撮像する際の撮像条件を、前記画像処理装置が出力する被写体の情報に応じて制御する制御手段と
    を備える
    ことを特徴とする撮像装置。
  9. 請求項1〜7のいずれか1項に記載の画像処理装置と、
    逐次入力される画像を表示する表示手段と、
    前記表示手段が表示する表示条件を、前記画像処理装置が出力する被写体の情報に応じて制御する制御手段と
    を備える
    ことを特徴とする表示装置。
  10. 逐次入力される画像に含まれる被写体を追跡する画像処理装置の制御方法であって、
    前記入力される画像から追跡対象となる被写体を検出する被写体検出工程と、
    前記検出した追跡対象となる被写体を示す部分領域をテンプレートとして登録する第1の登録工程と、
    前記第1の登録工程において登録されたテンプレートを用いて、前記逐次入力された画像の部分領域の各領域と照合し、類似度が高い第1の領域を推定する第1のマッチング工程と、
    前記検出した追跡対象となる被写体を示す部分領域のヒストグラムを登録する第2の登録工程と、
    前記第2の登録工程において登録されたヒストグラムを用いて、前記逐次入力された画像の部分領域のヒストグラムと照合し、類似度が高い第2の領域を推定する第2のマッチング工程と、
    前記第1のマッチング工程および前記第2のマッチング工程における推定結果に基づいて、追跡領域を決定する追跡領域決定工程と
    を有し、
    前記第2の登録工程において登録するヒストグラムに対応する部分領域は、前記第1の登録工程において登録するテンプレートに対応する部分領域よりも広い部分領域であること、および、前記第2の登録工程において登録するヒストグラムの更新頻度は、前記第1の登録工程において登録するテンプレートの更新頻度よりも低いことの、少なくともいずれかを満たす
    ことを特徴とする画像処理装置の制御方法。
  11. 請求項1〜7のいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させるためのプログラム。

JP2015119267A 2015-06-12 2015-06-12 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法 Active JP6555940B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015119267A JP6555940B2 (ja) 2015-06-12 2015-06-12 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法
US15/168,608 US10140503B2 (en) 2015-06-12 2016-05-31 Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015119267A JP6555940B2 (ja) 2015-06-12 2015-06-12 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法

Publications (3)

Publication Number Publication Date
JP2017005582A true JP2017005582A (ja) 2017-01-05
JP2017005582A5 JP2017005582A5 (ja) 2018-07-19
JP6555940B2 JP6555940B2 (ja) 2019-08-07

Family

ID=57516996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015119267A Active JP6555940B2 (ja) 2015-06-12 2015-06-12 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法

Country Status (2)

Country Link
US (1) US10140503B2 (ja)
JP (1) JP6555940B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10552706B2 (en) * 2016-10-24 2020-02-04 Fujitsu Ten Limited Attachable matter detection apparatus and attachable matter detection method
CN109472812B (zh) * 2018-09-29 2021-11-02 深圳市锦润防务科技有限公司 一种目标跟踪模板更新的方法、系统和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039604A (ja) * 2009-08-06 2011-02-24 Canon Inc 画像追尾装置、画像追尾方法、及びコンピュータプログラム
JP2011130384A (ja) * 2009-12-21 2011-06-30 Canon Inc 被写体追跡装置及びその制御方法
JP2012164002A (ja) * 2011-02-03 2012-08-30 Ricoh Co Ltd 撮像装置および撮像方法
JP2012231319A (ja) * 2011-04-26 2012-11-22 Canon Inc 被写体追尾装置、被写体追尾方法及びプログラム
JP2013098746A (ja) * 2011-10-31 2013-05-20 Jvc Kenwood Corp 撮像装置、撮像方法およびプログラム
JP2014178739A (ja) * 2013-03-13 2014-09-25 Sony Corp 画像処理装置及び画像処理方法、並びにプログラム
JP2014206772A (ja) * 2013-03-21 2014-10-30 株式会社日立国際電気 画像処理装置、撮像装置、監視システム、符号化装置、画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3768073B2 (ja) 1999-06-15 2006-04-19 株式会社日立国際電気 物体追跡方法及び物体追跡装置
JP3836814B2 (ja) 2003-05-20 2006-10-25 株式会社東芝 画像処理方法、画像処理装置、画像処理プログラム
JP4154400B2 (ja) 2004-04-01 2008-09-24 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
US8509482B2 (en) * 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP6509027B2 (ja) 2015-05-12 2019-05-08 キヤノン株式会社 被写体追跡装置、光学機器、撮像装置、被写体追跡装置の制御方法、プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039604A (ja) * 2009-08-06 2011-02-24 Canon Inc 画像追尾装置、画像追尾方法、及びコンピュータプログラム
JP2011130384A (ja) * 2009-12-21 2011-06-30 Canon Inc 被写体追跡装置及びその制御方法
JP2012164002A (ja) * 2011-02-03 2012-08-30 Ricoh Co Ltd 撮像装置および撮像方法
JP2012231319A (ja) * 2011-04-26 2012-11-22 Canon Inc 被写体追尾装置、被写体追尾方法及びプログラム
JP2013098746A (ja) * 2011-10-31 2013-05-20 Jvc Kenwood Corp 撮像装置、撮像方法およびプログラム
JP2014178739A (ja) * 2013-03-13 2014-09-25 Sony Corp 画像処理装置及び画像処理方法、並びにプログラム
JP2014206772A (ja) * 2013-03-21 2014-10-30 株式会社日立国際電気 画像処理装置、撮像装置、監視システム、符号化装置、画像処理方法

Also Published As

Publication number Publication date
JP6555940B2 (ja) 2019-08-07
US10140503B2 (en) 2018-11-27
US20160364604A1 (en) 2016-12-15

Similar Documents

Publication Publication Date Title
JP5567853B2 (ja) 画像認識装置および方法
US9092662B2 (en) Pattern recognition method and pattern recognition apparatus
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
US10748294B2 (en) Method, system, and computer-readable recording medium for image object tracking
CN107707871B (zh) 图像处理设备、摄像设备、图像处理方法和存储介质
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
KR20170077366A (ko) 얼굴 인식 시스템 및 방법
JP6157165B2 (ja) 視線検出装置及び撮像装置
US20210256713A1 (en) Image processing apparatus and image processing method
JP7354767B2 (ja) 物体追跡装置および物体追跡方法
JP2013228930A (ja) 被写体領域検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
JP6555940B2 (ja) 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
JP2016081095A (ja) 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム
JP5451364B2 (ja) 被写体追跡装置及びその制御方法
JP7386630B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
KR100853267B1 (ko) 스테레오 시각 정보를 이용한 복수 인물 추적 방법 및 그시스템
JP5247419B2 (ja) 撮像装置および被写体追跡方法
JP5995610B2 (ja) 被写体認識装置及びその制御方法、撮像装置、表示装置、並びにプログラム
JP2020181268A (ja) 物体対応付け装置、物体対応付けシステム、物体対応付け方法及びコンピュータプログラム
JPH10255058A (ja) 動作検出装置および動作検出方法
JP2024056441A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP2019200527A (ja) 情報処理装置、情報処理方法、およびプログラム
US20240242476A1 (en) Image recognition apparatus, training apparatus, control method, and storage medium
WO2023106103A1 (ja) 画像処理装置およびその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190709

R151 Written notification of patent or utility model registration

Ref document number: 6555940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151