JP6624878B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP6624878B2
JP6624878B2 JP2015204049A JP2015204049A JP6624878B2 JP 6624878 B2 JP6624878 B2 JP 6624878B2 JP 2015204049 A JP2015204049 A JP 2015204049A JP 2015204049 A JP2015204049 A JP 2015204049A JP 6624878 B2 JP6624878 B2 JP 6624878B2
Authority
JP
Japan
Prior art keywords
image
feature amount
unit
imaging
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015204049A
Other languages
English (en)
Other versions
JP2017076909A (ja
Inventor
東條 洋
洋 東條
矢野 光太郎
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015204049A priority Critical patent/JP6624878B2/ja
Priority to US15/292,691 priority patent/US10079974B2/en
Publication of JP2017076909A publication Critical patent/JP2017076909A/ja
Application granted granted Critical
Publication of JP6624878B2 publication Critical patent/JP6624878B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像の特徴量を抽出する画像処理装置、画像処理方法及びプログラムに関する。
従来、録画された動画中から所定の被写体の画像を検索し、その被写体が撮像された録画区間の再生を可能とする技術が開発されている。これを実現するために、カメラでの撮像時に被写体領域を検出し、その被写体領域から画像の特徴量を抽出して、その被写体領域の特徴量を動画像と関連付けて記憶している。動画像の中から所定の被写体の画像を検索する際には、動画像の中から、特徴量に関連付けられた被写体が映っている画像を検索する。より高精度な検索を可能とするためには、高解像度の被写体画像を取得して特徴量を抽出する方法が有効である。特に監視カメラの分野では、広域(広角)を監視するカメラに加えて、パン・チルト・ズーム(以下、PTZと表記する。)の操作の可能なカメラを用意し、被写体である人物一人一人の高解像度の画像を取得する技術が知られている。
例えば、特許文献1には、人物を検出してズームし、合焦度合いやノイズ量で判断して画質のよい画像が得られるまでカメラで人物をトラッキングし、人物領域の高解像度画像を取得する技術が開示されている。また、特許文献2には、背景差分により動体として人物を検出し、その検出領域より肌色領域を検出してズームし、顔の高解像度画像を取得する技術が開示されている。
米国特許出願公開2005/0104958号明細書 特開2003−219225号公報
しかしながら、例えばコンビニエンスストア、ショッピングモール、空港など大勢の人物が行き来する環境の場合、それら多数の人物を個々に判別するには、対象となる人物の数が多すぎる。このような環境で、特許文献1の技術のように、全ての人物について高画質な人物画像が取得できるまでトラッキングしたり、特許文献2の技術のように、全ての人物の顔にズームしたりするのは、処理負荷が非常に高くなる。また、一般に高解像度な画像であるほど、より詳細な(情報量の多い)特徴量が抽出されることになるため、抽出された特徴量のデータ量も大きくなり、消費するメモリ量も増大する。その上、空港のような環境の場合、一つのカメラでは監視対象エリアを全てカバーできないため、多数のカメラを設置する必要がある。それぞれのカメラで個々の人物の高解像度画像を取得して特徴量を抽出すると、システム全体の処理負荷、必要な総メモリ量は莫大なものとなる。
そこで、本発明は、処理負荷と必要な総メモリ量の増大を防ぎつつ、各被写体を判別する際に有効な特徴量を取得可能とする画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
本発明の画像処理装置は、広域画像を撮像する第1の撮像手段と、前記第1の撮像手段の撮影範囲の一部の範囲を撮影可能な第2の撮像手段と、前記第1の撮像手段により撮像された画像の中から検出の対象とされている複数の被写体の画像領域を検出する検出手段と、前記第2の撮像手段により撮像された画像の中で、前記検出の対象とされている複数の被写体の画像領域ごとに特徴量を抽出する抽出手段と、前記複数の被写体の画像領域ごとに前記抽出された特徴量に基づいて、前記複数の被写体のそれぞれを判別可能にする特徴量の種別と、前記種別の特徴量を抽出可能な画像の解像度とを決定する決定手段と、前記決定手段により決定された解像度で画像を出力するように、前記第2の撮像手段を制御する撮像制御手段と、前記抽出手段に対し、前記第2の撮像手段から出力された前記決定された解像度の画像から、前記決定された種別の特徴量を抽出させる抽出制御手段とを有することを特徴とする。
本発明によれば、処理負荷と必要な総メモリ量の増大を防ぎつつ、各被写体を判別する際に有効な特徴量を取得可能となる。
実施形態の画像処理装置の概略的なハードウェア構成例を示す図である。 実施形態の画像処理装置の機能別の構成例を示す図である。 画像の解像度と特徴量の種別の関係説明に用いる図である。 高解像特徴化判定モード時の処理の流れを示すフローチャートである。 運用モード時の処理の流れを示すフローチャートである。 被写体検索処理の流れを示すフローチャートである。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
<概略的なハードウェア構成>
図1は、本実施形態の画像処理装置の概略的なハードウェア構成例を示す図である。
CPU101は、ROM102やRAM103に格納されたプログラムに従って命令を実行する。またCPU101は、画像入力装置105、入力装置106、表示装置107、2次記憶装置104、ネットワークI/F108等を制御する。CPU101による命令実行処理や各部の制御の詳細は後述する。
ROM102は、不揮発性メモリであり、本実施形態にかかるプログラムやその他の制御に必要なプログラムやデータ等を格納している。RAM103は、揮発性メモリであり、画像入力装置105により撮影された動画像やネットワークI/F108や2次記憶装置104を介して取得した動画像の各フレーム画像データ、後述する特徴量の判別結果の情報などを一時的に記憶する。
2次記憶装置104は、ハードディスクドライブやフラッシュメモリーなどの書き換え可能でコンピュータ読み取り可能な各種の記憶媒体110に対して、画像データやその他の各種情報等を記憶する。記憶媒体110は、それら画像データや各種情報の記録だけでなく、本実施形態に係るプログラムが記録されていてもよい。また、2次記憶装置104は、画像データや各種情報、プログラム等をRAM103に転送する。これにより、CPU101は、それらプログラムを実行し、画像データ等を利用する。
入力装置106は、キーボードやマウス、タッチパネルなどであり、ユーザからの入力を可能とするための装置である。表示装置107は、液晶ディスプレイや有機ELディスプレイパネルなどであり、画像や後述する検索処理結果などを表示するための装置である。ネットワークI/F108は、インターネットやイントラネットなどのネットワークと接続を行うためのモデムやLAN、無線通信網などと接続するためのインターフェイス装置である。バス109は、これらを接続して相互にデータの入出力を行う。
画像入力装置105は、例えば、監視カメラとして用いられるデジタルビデオカメラやネットワークカメラ、赤外線カメラなどであり、例えばコンビニエンスストア、ショッピングモール、空港などの監視エリア内の画像を撮影する装置である。本実施形態の場合、画像入力装置105は、監視エリアの略々全ての広域(広角)撮像が可能なカメラと、パン・チルト・ズーム(PTZ)等のような撮像方向や画角の調整が可能なカメラとを有している。以下、広域(広角)撮像が可能なカメラを広域撮像カメラと表記し、PTZ等による撮像方向や画角の調整が可能なカメラをPTZ撮像カメラと表記する。PTZ撮影カメラは、パン・チルトにより撮影方向の調整が可能で、ズームレンズの焦点距離(ズーム倍率)の変更により画角の調整が可能である。PTZ撮像カメラは、広域撮像カメラの撮影範囲(視野)と同じ撮影範囲を撮影可能であるだけでなく、広域撮像カメラの撮影範囲内(視野内)の一部のみを拡大(ズームアップ)して撮影することも可能なカメラである。画像入力装置105は、広域撮像カメラの撮影範囲内(視野内)をPTZ撮像カメラがズームアップして撮影している場合、広域撮像カメラの撮影範囲内の何れの範囲をPTZ撮像カメラが撮像しているかについては常に認識しているとする。なお、本実施形態において、それら広域撮像カメラとPTZ撮像カメラはそれぞれ一つのみである必要はなく、それぞれ複数であってもよい。また、監視エリアも一つだけでなく複数であってもよく、この場合、一つの監視エリアに対しては、少なくとも一組の広域撮像カメラとPTZ撮像カメラが配置される。その他、広域撮像とPTZ撮像は、例えば一つのカメラが時分割で行ってもよい。
図1では、画像入力装置105がバス109により接続された例を挙げているが、画像入力装置105が例えばネットワークカメラである場合、そのネットワークカメラはネットワークI/F108を介して画像処理装置に接続される。また、入力装置106、表示装置107、2次記憶装置104等についても同様に、バス109を介して接続される例だけでなく、ネットワークI/F108を介して接続されていてもよい。
<被写体特徴抽出機能と被写体検索機能>
本実施形態の画像処理装置は、被写体特徴抽出機能と被写体検索機能とを備えている。以下、本実施形態の画像処理装置において、被写体特徴抽出機能と被写体検索機能がオペレーティングシステムの上で動作するアプリケーションとして実装されている場合を例に挙げて説明を行うこととする。
図2は、本実施形態の画像処理装置が有している被写体特徴抽出機能部200Aと被写体検索機能部200Bとを、機能ブロックとして表した図である。なお、図2には、説明を判り易くするために、図1の画像入力装置105、入力装置106、表示装置107、RAM103、2次記憶装置104等も描いている。また、図2において、画像入力装置105の第1撮像部201は前述した広角撮像カメラに対応し、第2撮像部203は前述したPTZ撮像カメラに対応している。
本実施形態の被写体特徴抽出機能部200Aと被写体検索機能部200Bは、例えば図1のCPU101が図1のROM102又は2次記憶装置104の記憶媒体110に記憶されたアプリケーションプログラムを実行することにより実現される機能部である。被写体特徴抽出機能部200Aは、人物検出部202、特徴量抽出部204、特徴判定部205、解像度変更部206、特徴量変更部207、撮像対象選択部208を有して構成されている。被写体検索機能部200Bは、クエリ画像入力部211、特徴量抽出部212、特徴量照合部213、検索結果出力部214を有して構成されている。
<被写体特徴抽出機能部の構成>
以下、被写体特徴抽出機能部200Aの概略構成について説明する。
画像入力装置105の第1撮像部201により動画として撮影された広域画像のデータは、被写体特徴抽出機能部200Aの人物検出部202と映像記憶部210に送られる。人物検出部202は、検出手段であり、第1撮像部201にて撮影された広域画像の各フレーム画像の中から、検出対象としての被写体画像として例えば人物の画像領域を検出する。以下、人物の画像領域を「人物領域」と表記する。なお、第1撮像部201の撮影範囲(視野)内に複数の人物等が存在していた場合、人物検出部202は、第1撮像部201で撮影された広域画像からそれら複数の各人物にそれぞれ対応した複数の人物領域を検出することになる。人物検出部202による人物領域の検出処理の詳細については後述する。人物検出部202は、広域画像内における各人物領域の位置と各人物領域の範囲を示す情報を、撮像対象選択部208と特徴量抽出部204に送る。
撮像対象選択部208は、撮像制御手段の選択制御手段であり、人物検出部202により検出された人物領域の被写体(人物)が、第2撮像部203の画面(撮影範囲)の略々中央で撮像されるように、第2撮像部203のカメラのレンズの向きを設定する。これにより、画像入力装置105の第2撮像部203では、人物検出部202で検出された人物領域の被写体(人物)が略々中央に映っている画像が取得されることになる。なお、広域画像から複数の人物領域が検出された場合、撮像対象選択部208は、各人物領域を順番に選択し、それら順番に選択された人物領域に対応した各人物が、第2撮像部203の画面の略々中央に順番に映るようにレンズの向きを順次設定する。広域画像から複数の人物領域が検出された場合の撮像対象選択部208による人物領域の選択と第2撮像部203の設定の詳細な説明は後述する。ここでは、説明を簡単にするため、一つの人物領域のみが選択される場合を例に挙げる。第2撮像部203により撮影された動画像の各フレーム画像データは、特徴量抽出部204に送られる。
特徴量抽出部204は、第2撮像部203にて撮影された動画像の各フレーム画像から人物領域の画像の特徴量を抽出する。詳細については後述するが、特徴量抽出部204は、一例として、その人物領域のサイズ、色、テクスチャ、人物領域の顔領域内における各パーツ領域の形状と位置等の各種の特徴量を、必要に応じて適宜抽出可能となされている。特徴量抽出部204が人物領域からサイズ、色、テクスチャ、人物領域の顔領域内の各パーツ領域の形状と位置等の各種の特徴量を必要に応じて適宜抽出する処理の詳細については後述する。特徴量抽出部204により人物領域から抽出された特徴量の情報は、特徴量記憶部209と特徴判定部205に送られる。
特徴判定部205は、決定手段であり、特徴量抽出部204で抽出された特徴量に基づき、第2撮像部203が撮像する人物領域の解像度と、その撮像された人物領域から特徴量抽出部204が抽出する特徴量の種別とを決定する。そして、特徴判定部205は、人物領域の解像度及び特徴量の種別を変更すべきか否かを判定する。
なお、本実施形態において、人物領域の解像度の高低は、人物領域の水平方向と垂直方向の画素数(人物領域のサイズ)に対応している。本実施形態では、人物領域の水平,垂直方向の画素数が多いほど(人物領域のサイズが大きいほど)高解像度であると表現され、画素数が少ないほど(人物領域のサイズが小さいほど)低解像度であると表現される。
また、本実施形態において、特徴量の種別とは、例えば前述した人物領域のサイズ、色、テクスチャ、人物領域の顔領域内の各パーツ領域の形状と位置等である。人物領域の解像度と人物領域の特徴量の種別の詳細、特徴判定部205による特徴判定処理の詳細については後述する。
そして、特徴判定部205は、特徴量抽出部204にて抽出された特徴量に基づき、人物領域の解像度を変更する必要があると判定した場合には、解像度変更により設定されるべき解像度を示す判定結果情報を、解像度変更部206に送る。
また、特徴判定部205は、特徴量抽出部204で抽出された特徴量に基づき、人物領域から抽出する特徴量の種別を変更する必要があると判定した場合には、種別変更により設定されるべき種別を示す判定結果情報を、特徴量変更部207に送る。
解像度変更部206は、撮像制御手段であり、特徴判定部205から判定結果情報が供給されると、その判定結果情報により示される設定解像度で人物領域の画像が撮像されるように、第2撮像部203のカメラの例えばズーム倍率を設定する。これにより、第2撮像部203は、前述した撮像対象選択部208で選択された人物領域に対応した被写体(人物)を、解像度変更部206により設定されたズーム倍率で撮影する。例えば、高いズーム倍率に設定された場合、第2撮像部203は、長い焦点距離による狭い画角での撮像が行われて、フレーム画像に対して人物領域のサイズが相対的に大きくなった画像を取得して、その画像データを出力することになる。
特徴量変更部207は、抽出制御手段であり、特徴判定部205から判定結果情報が供給されると、その判定結果情報により示される種別の特徴量を抽出するように、特徴量抽出部204を設定する。これにより、特徴量抽出部204は、第2撮像部203にて撮像された画像の中の人物領域から、設定された種別の特徴量を抽出することになる。特徴判定部205からの判定結果情報に基づいて、特徴量変更部207が特徴量抽出部204に対して設定する特徴量の種別の詳細については後述する。
映像記憶部210は、画像記憶手段であり、図1の2次記憶装置104又はRAM103内の映像記憶用の領域に相当し、第1撮像部201により撮影された動画の広域画像の各フレーム画像データを記憶する。
特徴量記憶部209は、図1のRAM103又は2次記憶装置104内における特徴量情報記憶用の領域に相当し、特徴量抽出部204にて抽出された特徴量の情報を記憶する。特徴量記憶部209に記憶される特徴量は、映像記憶部210に記憶される動画像データの各フレーム画像の各人物領域に関連付けられて記憶される。
<被写体検索機能部の構成>
以下、被写体検索機能部200Bの概略構成について説明する。
被写体検索機能部200Bのクエリ画像入力部211は、例えば、図1の入力装置106を介したユーザからの指示により、画像入力装置105に対し、検索したい対象の人物を撮像させ、その撮像された人物の画像を、検索対象のクエリ画像として取得する。クエリ画像として取得される人物画像は、画像入力装置105の第1撮像部201により撮像される画像でもよいが、PTZ撮像カメラである第2撮像部203において高いズーム倍率で撮像された画像の方がより好ましい。画像入力装置105は、入力装置106を介したユーザからの指示に応じて、例えば第2撮像部203のパン・チルト・ズームが操作された上で、人物の撮影を行う。クエリ画像入力部211は、画像入力装置105にて撮像された人物画像のデータをクエリ画像のデータとして取得する。クエリ画像入力部211にて取得されたクエリ画像のデータは、特徴量抽出部212に送られる。
なお、クエリ画像入力部211は、例えば、画像入力装置105にて撮像されている画像の中の人物領域のうち、入力装置106を介したユーザからの指示により選択された人物領域の画像を、検索対象のクエリ画像として取得してもよい。他の例として、クエリ画像入力部211は、例えば、予め撮像されてメモリ媒体等に記憶されている人物画像や、ネットワーク上の記憶装置等に記憶されている人物画像を、クエリ画像として取得してもよい。
特徴量抽出部212は、クエリ画像から特徴量を抽出する。本実施形態では、クエリ画像入力部211と特徴量抽出部212がクエリ取得手段である。本実施形態において、特徴量抽出部212がクエリ画像から抽出する特徴量の詳細については後述する。特徴量抽出部212によりクエリ画像から抽出された特徴量の情報は、特徴量照合部213に送られる。
特徴量照合部213は、特徴量検索手段であり、クエリ画像から抽出された特徴量を用いて、特徴量記憶部209に記憶されている特徴量を参照し、クエリ画像から抽出された特徴量と類似する特徴量が存在するか否かの照合処理を行う。特徴量照合部213は、特徴量記憶部209に記憶されている特徴量の中に、クエリ画像の特徴量に類似する特徴量が存在した場合、その類似している特徴量の情報を、特徴量記憶部209から読み出して検索結果出力部214に出力する。
検索結果出力部214は、画像検索手段である。検索結果出力部214は、クエリ画像の特徴量に類似するとして特徴量記憶部209から読み出された特徴量に基づき、映像記憶部210に記憶されている広域画像の中から、その特徴量に関連付けられた人物領域の画像が映っているフレーム画像を読み出す。検索結果出力部214により映像記憶部210から読み出された各フレーム画像は、図1の表示装置107に送られて表示される。これにより、表示装置107の画面上には、広域画像の中で、クエリ画像に基づいて検索された人物が映っている区間の動画像が表示されることになる。
<人物画像の解像度と特徴量の種別>
以下、前述した人物領域の解像度と特徴量の種別の関係について、図3(a)〜図3(c)を参照しながら説明する。
図3(a)〜図3(c)は、一人の人物がそれぞれ異なるズーム倍率で撮影されたフレーム画像301,302,303の例を示している。なお、各フレーム画像301,302,303のサイズは同じであり、例えば水平×垂直方向のサイズが画素数で表すと640×480の画像であるとする。図3(a)に示したフレーム画像301内の人物領域304は、水平×垂直方向のサイズが画素数で表すと64×68程度の小サイズの画像であるとする。図3(a)のような小サイズの人物領域304の場合、フレーム画像301に対するサイズは小さく、フレーム画像301内には人物領域304と同サイズの人物画像を10個程度並べることが可能なサイズである。図3(b)に示したフレーム画像302内の人物領域305は、水平×垂直方向のサイズが画素数で表すと210×480程度の中サイズの画像であるとする。図3(b)のような中サイズの人物領域305の場合、フレーム画像302内には人物領域305と同サイズの人物画像を3〜4個程度並べることが可能なサイズである。図3(c)の例は、水平×垂直方向のサイズが画素数で640×480のフレーム画像303内に、人物領域の顔領域306のみが大きく映し出されている。図3(c)の人物領域の顔領域306は、フレーム画像303内の多くの部分を占めるような大サイズの画像である。本実施形態では、前述したように、人物領域等のサイズの大小が解像度の高低と対応している。このため、本実施形態の場合、図3(a)の小サイズの人物領域304は低解像度の画像であり、図3(b)の中サイズの人物領域305は中解像度の画像であり、図3(c)の大サイズの顔領域306は高解像度の画像であると言える。
ここで、図3(a)に示した人物領域304のような小サイズで低解像度の画像の場合、人物の服装の模様などの細かい特徴は殆ど判らないと考えられる。このため、小サイズで低解像度の人物領域304の画像からは、服装の模様などのテクスチャを表す特徴量を抽出するのは難しいと考えられる。一方、人物領域304のようにサイズが小さく解像度が低い場合であっても、人物領域304の全体の色については判別可能であると考えられる。色に関する特徴量としては、人物領域304に含まれる各画素のR(赤)G(緑)B(青)色空間に基づく色ヒストグラムを挙げることができる。なお、色空間は、HSV色空間やYCbCr色空間などであってもよい。また、色に関する特徴量は、例えばRGB,HSV,YCbCrの個々の色空間のヒストグラムの全てを求め、これら各色空間のヒストグラムを連結して一つのヒストグラムとしたものであってもよい。
図3(b)に示した人物領域305のような中サイズで中解像度の画像の場合、図3(a)に示した小サイズの人物領域304とは異なり、人物の服装の模様等のテクスチャも判別可能になると考えられる。図3(a)と図3(b)の例の場合、図3(a)では人物領域304の例えば上着が黒一色に映っていたのに対し、図3(b)では人物領域305の上着の模様が縞模様として映し出されている。テクスチャに関する特徴量は、例えば人物領域305の画像に対してGaborフィルタを施した結果をヒストグラムとしたものを挙げることができる。また、ヒストグラムを求める際には、Schmidフィルタが用いられてもよい。また、テクスチャに関する特徴量は、それら両方のフィルタを使用してヒストグラムを求め、これら両フィルタによるヒストグラムを連結して一つのヒストグラムとしたものであってもよい。GaborフィルタやSchmidフィルタは公知であるため、その説明については省略する。
図3(c)に示したように、人物領域の顔領域306がフレーム画像303の大部分の領域を占めている場合、人物の顔領域306を構成している各パーツ領域についても、それぞれ特徴量の抽出が可能になると考えられる。図3(c)の場合、顔領域306の形状、目や口等の各パーツ領域の形状、顔領域306における各パーツ領域の相対位置関係(例えば両目の幅に対する目と口の距離など)が判別できるため、それらを特徴量として抽出することが可能になると考えられる。顔領域306から各パーツ領域の特徴量を抽出する場合には、例えば、顔領域306から複数の矩形の小領域307〜313を切り出し、これら小領域307〜313から例えばLBP(Local Binary Pattern)特徴量を抽出する。そして、これら各小領域307〜313の特徴量を用い、顔領域306内の各パーツ領域の形状や各パーツ領域の相対位置関係などを求めることで、顔領域306の各パーツ領域の特徴量が抽出可能となる。なお、各小領域307〜313の特徴量は、例えばHOG(Histogram of Gradiation)特徴量であってもよい。これらLBP特徴量やHOG特徴量は公知であるためその詳細な説明については省略する。また、複数の矩形小領域は、ランダムな位置の矩形小領域であってもよいし、前処理として顔の各パーツ(目、口、鼻等の器官)の位置を検出し、それらの各パーツの位置の近傍に配置されてもよい。
以上説明したように、人物領域から抽出可能な特徴量の種別は、その人物領域のサイズ(解像度)に応じて異なっており、また、人物領域のサイズ(解像度)に適した特徴量の種別というものが存在していることが分かる。したがって、人物領域から抽出する特徴量の種別は、人物領域のサイズ(解像度)に応じて設定すればよい。
ただし、例えば一つのフレーム画像内に複数の人物が映っているような場合、人物領域のサイズ(解像度)に応じた種別の特徴量だけを抽出したのでは、それら各人物領域を個々に判別できない場合がある。
<フレーム画像内に複数の人物領域が存在する場合の解像度と特徴量の種別>
以下、一つのフレーム画像内に複数の人物が映っている場合、それら各人物を個々に判別可能にするための人物領域の解像度と特徴量の種別の関係について説明する。
一つのフレーム画像内で複数の人物領域が検出された場合、人物領域の解像度と特徴量の種別をどのように設定すべきかについては、画像入力装置105で撮影されている映像シーン内に映っている各人物(被写体)の特徴の差異を判定することで決定可能である。
本実施形態の画像処理装置は、画像入力装置105で撮影されている映像シーン内に映っている各人物領域(各被写体領域)の特徴の差異に応じて、人物領域(被写体領域)の解像度と特徴量の種別を決定している。以下、本実施形態の画像処理装置において、特徴判定部205が映像シーン内の複数の人物領域の特徴の差異を判定して解像度と特徴量の種別を決定するモードを「高解像度特徴化判定モード」と呼ぶ。
ここで、画像入力装置105で撮影された映像シーンの一例として、一つのフレーム画像内に4人の人物が映っており、4人とも色の違う服装であるようなシーンを想定してみる。このような映像シーンの場合、それら4人の人物の服装の色がそれぞれ違っているため、それら4人の人物領域について色の特徴量のみを抽出すれば、その色の特徴量から、それら4人の人物領域をそれぞれ個々に判別することが可能となる。また、これら4人の人物領域は、例えば解像度が低くても、色の特徴量のみでそれぞれ個々に判別可能となる。
一方、画像入力装置105で撮影された映像シーンの他の例として、例えば映像中に4人の人物が映っており、4人とも服の色は同じであるがそれぞれ模様が異なっているようなシーンを想定してみる。このような映像シーンの場合、それら4人の人物領域は、色に関する特徴は同じであるが、模様のようなテクスチャに関する特徴量が異なっている。このため、それら4人の人物領域についてテクスチャの特徴量を抽出すれば、それらテクスチャの特徴量から4人の人物領域をそれぞれ個々に判別することが可能となる。ただし、この映像シーンの場合、4人の人物領域のテクスチャの特徴量を抽出しなければならないため、人物領域の解像度は、少なくとも中解像度以上にする必要がある。
また、画像入力装置105で撮影された映像シーンの他の例として、例えば映像中に4人の人物が映っており、4人とも服の色と模様が同じであるようなシーンを想定してみる。このような映像シーンの場合、色とテクスチャの両方の特徴量が同じである4人の人物において、異なる特徴量は例えば顔の各パーツ領域の特徴量であると考えられる。したがって、この映像シーンの場合、それら4人の人物の顔領域の各パーツ領域の特徴量を抽出すれば、それら各パーツの特徴量から、それら4人をそれぞれ個々に判別することが可能となる。ただし、この映像シーンの場合、4人の人物の顔領域の各パーツ領域の特徴量を抽出しなければならないため、人物領域の解像度は、高解像度にする必要がある。
そこで、本実施形態の画像処理装置は、高解像度特徴化判定モードでは、先ず各人物領域の色の特徴量を求め、各人物領域の各色の特徴量に差異がある場合には、人物領域の解像度を低解像度に設定し、抽出する特徴量の種別を色の特徴量に設定する。一方、本実施形態の画像処理装置は、色の特徴量に差異がない人物領域の数が所定の閾値より多く存在している場合には、人物領域の解像度を中解像度に設定し、抽出する特徴量の種別をテクスチャの特徴量に設定する。また、本実施形態の画像処理装置は、色及びテクスチャの両特徴量に差異が無い人物領域の数が所定の閾値より多く存在している場合には、人物領域の解像度を高解像度に設定し、抽出する特徴量の種別を顔領域内の各パーツ領域の特徴量に設定する。なお、人物領域の数と比較される所定の閾値の詳細は後述するが、一例として、後の被写体検索の際に各人物領域の画像を例えば目視で判別するのが容易と考えられる数として予め設定される値である。後の被写体検索の際に各人物領域の画像を目視等で確認することを想定しない場合には、人物領域の数に対する所定の閾値は例えば「2」に設定されてもよい。人物領域の数に対する所定の閾値が「2」に設定された場合、特徴量の差異がない人物領域が2以上存在したときに、解像度や特徴量の種別の設定変更がなされることになる。
以上説明したように、本実施形態の画像処理装置は、画像入力装置105で撮影されている映像シーン内に映っている人物の特徴差異に応じて、人物領域(被写体領域)の解像度と抽出する特徴量の種別を設定する。本実施形態の画像処理装置は、起動時に高解像度特徴化判定モードによる解像度と特徴量の種別の設定処理を行う。そして、本実施形態の画像処理装置は、起動時の高解像度特徴化判定モードで設定された解像度で各人物領域の画像データを取得し、また、設定された種別の特徴量を抽出する。このように、高解像度特徴化判定モードで設定された解像度と特徴量の種別により各人物領域の画像データと特徴量を抽出するモードを、以下、「運用モード」と表記する。
ただし、人物領域の特徴の差異は、映像シーンが切り替われば変化する可能性が高いと考えられる。このため、本実施形態の画像処理装置は、運用モードの途中で映像シーンが切り替わったときには、前述した高解像度特徴化判定モードに戻って解像度と特徴量の種別の再設定を行う。また、運用モードにおいて、映像シーンが切り替わっていない場合でも、時間の経過により映像内に映っている人物は変化する(別の人物が映像内に映る)と考えられる。このため本実施形態の画像処理装置は、運用モードになっている場合でも、例えば一定時間ごとに高解像度特徴化判定モードによる解像度と特徴量の種別の再設定を行う。その他にも、例えば映像シーンが切り替わっておらず、また、一定時間も経過していないときに、例えば監視エリア内に新たな人物が進入したことで映像内の人物領域の数が増加する場合も考えられる。このため、本実施形態の画像処理装置は、運用モードにおいて、映像内の人物領域の数が増加した場合にも高解像度特徴化判定モードによる解像度と特徴量の種別の再設定を行う。
<高解像度特徴化判定モードの処理>
図4には、本実施形態の画像処理装置における高解像度特徴化判定モードの際の処理の流れを示す。以下、図4のフローチャートを参照しながら高解像度特徴化判定モードについて説明する。図4は、フレーム画像内で複数の人物領域が検出される場合を想定したフローチャートである。
図4において、画像入力装置105の第1撮像部201は、ステップS401として、監視エリアの全体の動画を撮影しており、所定時間ごとにフレーム画像を取得している。被写体特徴抽出機能部200Aの人物検出部202は、ステップS402として、画像入力装置105の第1撮像部201にて撮影された広域画像の各フレーム画像について、そのフレーム画像内の全ての人物領域を検出する。
ここで、人物検出部202は、例えば予め背景のみを撮像した画像から背景モデルを生成しておき、第1撮像部201で撮影された広域画像と背景モデルとの差分を求めて、背景モデルとの差分領域を人物領域として検出する。このような背景モデルとの差分に基づく人物領域の検出手法は、例えば以下の参考文献1に開示されている。参考文献1"Stauffer C,Grimson W.E.L.Adaptive background mixture models for real―time tracking.In Proceedings.1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition(Cat.No PR00149).IEEE Comput.Soc.Part Vol.2,1999."
また、人物検出部202は、例えば参考文献2"米国特許出願公開2007/0237387号明細書"に記載されている技術を用いて人物領域を検出してもよい。この参考文献2に記載された技術の詳細な説明は省略するが、概要としては以下のような技術である。この参考文献2に記載の技術では、所定の大きさの検出ウィンドウを入力画像上で走査させ、検出ウィンドウ内の画像を切り出したパターン画像に対し、人物であるか否かの2クラス判別を行う。この判別では、アダブースト(AdaBoost:Adaptive Boosting)を使って多くの弱判別器を有効に組み合わせた判別器を構成して、判別精度を向上させている。また、この判別器を直列に繋ぐことで、カスケード型の検出器が構成される。弱判別器は、HOG(Histograms of Oriented Gradints)特徴量で構成されている。カスケード型の検出器は、先ず前段の単純な判別器を使って明らかに被写体でないパターンの候補をその場で除去し、それ以外の候補に対してのみ、より高い判別性能を持つ後段の複雑な判別器を使って人物かどうかの判別を行う。
本実施形態の人物検出部202は、以上説明したような手法により人物領域を検出し、その人物領域を囲む矩形領域の左上と右下のそれぞれ2点の(x,y)座標を、人物領域の位置とその人物領域の範囲を示すデータとして、RAM103に一時記憶させる。
なお、本実施形態では、検出対象となる被写体として人物を例に挙げているが、検出対象の被写体は、他の被写体、一例として車両等の被写体であってもよい。この場合、人物検出部202に代えて、車両検出部を設けることで、広域画像から車両の画像領域を検出可能である。また、車両の画像領域の検出は、前述の人物領域検出の手法を流用することで実現可能である。ステップS402の後、被写体特徴抽出機能部200Aの処理は、特徴量抽出部204で行われるステップS403に移行する。
ステップS403では、特徴量抽出部204は、人物検出部202によって検出された全ての人物領域について、この時点で設定されている種別の特徴量を抽出する。初期設定では、特徴量抽出部204は、色に関する特徴量として前述したヒストグラムの特徴量を抽出する。特徴量抽出部204は、抽出した特徴量を、各人物領域の情報と対応付けて、RAM103又は2次記憶装置104の特徴量記憶部209に記憶させる。ステップS403の後、被写体特徴抽出機能部200Aの処理は、特徴判定部205で行われるステップS404に移行する。
ステップS404では、特徴判定部205は、特徴量抽出部204で抽出された人物領域ごとの特徴量を、その特徴量空間の中でクラスタリングする。
ここで、クラスタリングの手法としては特に限定されるものではないが、本実施形態では、以下の参考文献3にて開示されているMean shiftクラスタリング手法を用いる。参考文献3に開示されているMean shiftクラスタリング手法は、概要としては以下のような手法である。Mean shiftクラスタリング手法は、確率密度分布をガウシアン関数等のカーネル関数で表現して、次のステップの繰り返しにより分布の極大点を求める手法である。Mean shiftクラスタリング手法では、先ず、初期位置を与え、カーネルの一定の幅に含まれるサンプル点の平均を求め、その平均をガウシアンカーネルの中心として、改めてサンプル点の平均を求める。この処理を収束するまで繰り返すことによって見つけた極大点の数がクラスの数となる。ステップS404の後、特徴判定部205は、ステップS405に処理を進める。参考文献3"D.Comaniciu and P.Meer.Mean shift:A robust approach toward Feature space analysis.PAMI,24(5):603−619,2002."
ステップS405では、特徴判定部205は、ステップS404で求めた各クラスに属する特徴量の数(人物領域ごとの特徴であるため人数に相当する)が、所定の閾値以下であるかどうかを判定する。ここで、全てのクラスにおいて、各クラスに属する人数(特徴量の数)が例えば5人以下であった場合、後の被写体検索の際にクエリ画像の人物の特徴量に類似した特徴量として検索される人数は最大で5人ということになる。被写体検索の際に、これを検索結果としてユーザに提示した場合、ユーザは最大5人の中から所望の人物を目視で確認すればよいことになる。このように検索結果の候補数が十分に少なければ、目視で確認するのも容易となる。
なお、ステップS405の判定は1フレーム画像内の人物領域に対して行うものとして説明したが、人物領域の未検出や誤検出による影響を避けるために、数フレーム分の結果をRAM103に一時記憶して使用するようにしてもよい。このとき、使用したフレーム数分の回数だけ、同一の人物を重複してカウントしてしまう可能性がある。そこで、特徴判定部205は、ステップS405で各クラスの人数(特徴量の数)と閾値とを比較する際には、クラスに属する人数をフレーム数分で割り算し、小数点以下を四捨五入して使用する。
一方、ステップS405の判定において各クラスに属する特徴量の数(人数)が所定の閾値以下でない判定される場合には、後の被写体検索の際に検索結果を十分に絞り込めなくなる可能性があるため、より高解像の人物領域から特徴量を取得する必要がある。そこで、特徴判定部205は、ステップS405で所定の閾値以下でないと判定した場合、より高い解像度を示す判定結果情報を解像度変更部206に送り、また、その解像度に応じた特徴量の種別を示す判定結果情報を特徴量変更部207に送る。
本実施形態の場合、前述の図3(a)〜図3(c)で説明したように、解像度は低解像度、中解像度、高解像度の3段階に設定可能となされている。このため、特徴判定部205は、ステップS405で所定の閾値以下でないと判定した場合、現時点の解像度が低解像度ならば中解像度を示す判定結果情報、現時点の解像度が中解像度ならば高解像度を示す判定結果情報を、解像度変更部206に送る。また、本実施形態の場合、前述したように低解像度には色の特徴量、中解像度にはテクスチャの特徴量、高解像度には顔領域の各パーツ領域の特徴量が関連付けられている。本実施形態では、それら各解像度と特徴量の種別の関連付け情報は、解像度別特徴種別リスト220として2次記憶装置104に記憶されている。被写体特徴抽出機能部200Aは、例えば起動時に2次記憶装置104から解像度別特徴種別リスト220を読み出してRAM103に記憶させる。そして、特徴判定部205は、解像度を示す判定結果情報を解像度変更部206に送る場合には、解像度別特徴種別リスト220から、その解像度に応じた特徴量の種別を参照し、その特徴量の種別を示す判定結果情報を特徴量変更部207に送る。ステップS405で特徴判定部205が所定の閾値以下でないと判定して、前述のような判定結果情報の出力が行われた後、被写体特徴抽出機能部200Aの処理は、解像度変更部206で行われるステップS406に移行する。
ステップS406では、解像度変更部206は、特徴判定部205から供給された、より高い解像度を示す判定結果情報に基づいて、第2撮像部203のズーム倍率を設定して、より高い解像度の画像を撮像可能とする。ステップS406の後、被写体特徴抽出機能部200Aの処理は、特徴量変更部207で行われるステップS407に移行する。なお、ステップS407の処理はステップS406と同時に行われてもよい。
ステップS407では、特徴量変更部207は、特徴判定部205から供給された特徴量の種別を示す判定結果情報に基づいて、特徴量抽出部204にて抽出する特徴量の種別を設定する。これにより、その後、特徴量抽出部204では、その設定された種別の特徴量の抽出が可能となる。ステップS407の後、被写体特徴抽出機能部200Aの処理は、撮像対象選択部208で行われるステップS408に移行する。
ステップS408では、撮像対象選択部208は、ステップS402で人物検出部202が検出した複数の人物領域の中から、一つの人物領域を選択する。具体的には、撮像対象選択部208は、フレーム画像の中で、最初に左上端に最も近い人物領域を選択する。ステップS408の後、撮像対象選択部208は、ステップS409に処理を進める。
ステップS409では、撮像対象選択部208は、ステップS408で選択した人物領域に対応した人物が、第2撮像部203の画面の略々中央になるように、第2撮像部203のカメラのレンズの向きを設定して撮像を行わせる。
本実施形態では、第2撮像部203における撮像方向はパン,チルト等により変更される例を挙げているが、例えば第2撮像部203のカメラの撮像素子の読み出し領域を変更するような電子的な読み出し制御により、人物領域の画像を取得してもよい。
また、本実施形態では、第2撮像部203のズーム倍率を高くすることで高解像度の画像を取得する例を挙げているが、例えばいわゆる超解像と呼ばれる手法を用いて高解像度の画像を生成してもよい。例えば、以下の参考文献4に記載されている低解像度の複数のフレーム画像から画素を補間する方法や、以下の参考文献5に記載されている予め人物画像の画像パターンを学習して辞書を作っておき、これを用いて補間する方法などで高解像度の画像を生成してもよい。これら画素補間を用いる場合、それら画素補間処理を行う構成は、第2撮像部203内に設けられているとする。参考文献4"Sean Borman,Robert L.Stevenson:Super―Resolution from Image Sequences―A Review.Circuits and Systems,1998." 参考文献5"Jianchao Yang,John Wright,Thomas Huang,YiMa:Image Super―Resolution as Sparse Representation of Raw Image Patches.Computer Vision and Pattern Recognition,2008."
ステップS409の後、被写体特徴抽出機能部200Aの処理は、特徴量抽出部204にて行われるステップS410に移行する。
ステップS410では、特徴量抽出部204は、ステップS409で第2撮像部203が撮像した人物領域から、ステップS407で設定された種別の特徴量を抽出する。ステップS410の後、被写体特徴抽出機能部200Aの処理は、撮像対象選択部208にて行われるステップS411に移行する。
ステップS411では、撮像対象選択部208は、ステップS402で人物検出部202が検出した全ての人物領域について、前述した人物領域の選択と第2撮像部203での撮像による画像の取得が行われたか否か判定する。撮像対象選択部208は、ステップS411において、全ての人物領域の選択と撮像が行われていないと判定した場合には、ステップS408に処理を戻す。
ステップS408に戻ると、撮像対象選択部208は、フレーム画像の中で未だ選択がなされていない各人物領域の中で、左上端に最も近い人物領域を選択する。これにより、以下のステップS409とステップS410では、その選択された人物領域について第2撮像部203による画像の取得と特徴量抽出部204による特徴量の抽出が行われる。ステップS408〜S410の処理は、ステップS411で全ての人物領域についての処理が行われたと判定されるまで繰り返される。そして、ステップS411において、全ての人物領域についての処理が行われたと判定されると、被写体特徴抽出機能部200Aの処理は、特徴判定部205による前述したステップS404の処理に戻る。
このときのステップS404では、特徴判定部205は、ここまでの処理で得られた人物領域の種別の特徴量について再度クラスタリングを行う。さらに次のステップS405では、特徴判定部205は、各クラスに属する人数が閾値以下になるか判定する。これら、ステップS404とS405、さらにステップS406〜ステップS411を経てステップS404に戻る処理は、ステップS405で各クラスに属する人数が所定の閾値以下になるまで行われる。そして、ステップS405において、各クラスに属する特徴量の数(人数)が閾値以下であると判定されると、特徴判定部205は、ステップS412に処理を進める。
ステップS412では、特徴判定部205は、現在の解像度の設定情報をRAM103の設定情報記憶部221に一時記憶させる。ステップS412の後、特徴判定部205は、ステップS413に処理を進める。ステップS413では、特徴判定部205は、特徴量の種別の設定情報を、RAM103の設定情報記憶部221に一時記憶させる。なお、ステップS412とS413の処理の順序は逆でもよく、同時であってもよい。これらステップS412とS413の処理が終わると、画像処理装置は、高解像度特徴化判定モードの処理を終了する。
<運用モードの処理>
前述したような高解像特徴化判定モードによる解像度の設定と特徴量の種別の設定が完了した後、本実施形態の画像処理装置は、各人物領域と特徴量を関連付けて記憶させる運用モードに移行することになる。以下、図5のフローチャートを参照しながら、運用モードにおける本実施形態の画像処理装置の処理の流れについて説明する。
運用モードに移行した場合、画像入力装置105の第1撮像部201は、ステップS501として、監視エリアの全体を撮像して、所定時間ごとにフレーム画像を取得する。また、ステップS502において、被写体特徴抽出機能部200Aは、第1撮像部201で所定時間ごとに取得された各フレーム画像データを映像記憶部210に記憶させる。ステップS501におけるフレーム画像の取得と、ステップS502におけるフレーム画像データの記憶は、運用モードが停止されるまで続けられる。
また、運用モードにおいて、人物検出部202は、ステップS503において、第1撮像部201により撮影された各フレーム画像から、前述のステップS402で説明したのと同様の手法を用い、全ての人物領域を検出する。ステップS503の後、被写体特徴抽出機能部200Aの処理は、撮像対象選択部208にて行われるステップS504に移行する。
ステップS504では、撮像対象選択部208は、ステップS503で人物検出部202が検出した複数の人物領域の中から、前述のステップS408で説明したのと同様にして一つの人物領域を選択する。ステップS504の後、被写体特徴抽出機能部200Aの処理は、ステップS505に移行する。
ステップS505では、前述のステップS409と同様に、撮像対象選択部208は、ステップS504で選択した人物領域に対応した人物が、第2撮像部203の画面の略々中央になるように第2撮像部203のレンズの向きを制御する。また、ステップS505では、解像度変更部206は、RAM103の設定情報記憶部221から、高解像特徴化判定モードで設定された解像度の設定情報を読み出し、第2撮像部203に対し、設定された解像度に応じたズーム倍率による撮像を行わせる。ステップS505の後、被写体特徴抽出機能部200Aの処理は、特徴量抽出部204にて行われるステップS506に移行する。
ステップS506では、特徴量抽出部204は、RAM103の設定情報記憶部221から、高解像特徴化判定モードで設定された特徴量の種別の設定情報を読み出す。そして、特徴量抽出部204は、ステップS505で取得された画像の人物領域から、設定された種別の特徴量を抽出する。ステップS506の後、特徴量抽出部204は、ステップS507に処理を進める。
ステップS507では、特徴量抽出部204は、ステップS506にて抽出された特徴量の情報を、特徴量記憶部209に記憶させる。この際、特徴量抽出部204は、その特徴量の情報を、第1撮像部201で撮影されて人物検出部202が人物検出を行っている現在のフレーム画像のフレーム番号、特徴量の種別、特徴量を抽出した人物領域を示す情報と関連付けて記憶させる。
なお、ここでは、第1撮像部201のフレーム画像と関連付けて記憶するとしたが、第2撮像部203によるフレーム画像も記憶するようにしておき、第2撮像部203の画像のみ、或いは、第1,第2撮像部201,203による両画像と関連付けてもよい。
ステップS507の後、被写体特徴抽出機能部200Aの処理は、撮像対象選択部208で行われるステップS508に移行する。
ステップS508では、撮像対象選択部208は、ステップS504で人物検出部202が検出した全ての人物領域について、前述した人物領域の選択と第2撮像部203での撮像及び特徴量抽出部204による特徴量の抽出の処理が行われたか否か判定する。撮像対象選択部208は、ステップS508において、全ての人物領域に対するそれらの処理が行われていないと判定した場合には、ステップS504に処理を戻す。
ステップS504に戻ると、撮像対象選択部208は、フレーム画像の中で未だ選択がなされていない各人物領域の中で、左上端に最も近い人物領域を選択する。これにより、以下のステップS505〜S507では、その選択された人物領域について前述した処理が行われる。ステップS504〜S507の処理は、ステップS508で全ての人物領域についての処理が行われたと判定されるまで繰り返される。
運用モードでは、前述したような処理が、第1撮像部201で新しいフレーム画像が取得される度に繰り返されることで、第1撮像部201による各フレーム画像と各フレーム画像中に存在する人物領域に関連付けられた特徴量を記憶することが可能となる。そして、ステップS508において、全ての人物領域についての処理が行われたと判定されると、被写体特徴抽出機能部200Aにおける運用モードでの処理は終了する。
<被写体検索機能部による被写体検索処理の説明>
以下、図6のフローチャートを参照し、被写体検索機能部200Bにおいて、映像記憶部210に記憶されている動画像の中から、クエリ画像に基づいてフレーム画像を検索する際の処理の流れを説明する。被写体検索機能部200Bは、前述したように、クエリ画像から抽出した特徴量を用い、特徴量記憶部209に記憶されている特徴量を照合することにより、映像記憶部210に記憶されている動画像の中からクエリ画像と特徴量の類似するフレーム画像を検索する。
図6のフローチャートにおいて、被写体検索機能部200Bのクエリ画像入力部211は、ステップS601の処理として、検索したい人物の画像をクエリ画像として取得する。本実施形態の場合、ステップS601において、クエリ画像入力部211は、一例として、入力装置106を介したユーザからの指示に基づき、画像入力装置105に検索したい対象の人物を撮像させ、その撮像された人物の画像をクエリ画像として取得する。ステップS601の後、被写体検索機能部200Bの処理は、特徴量抽出部212にて行われるステップS602に移行する。
ステップS602では、特徴量抽出部212は、クエリ画像の人物領域から、その人物領域の解像度に応じて取得可能な全ての種別の特徴量を抽出する。解像度に応じて取得可能な全種別の特徴量を抽出するとは、例えば低解像度画像からは色の特徴量、中解像度画像からはテクスチャの特徴量、高解像度画像からは顔領域の各パーツ領域の特徴量を抽出することである。本実施形態では、前述したように、低解像度には色の特徴量、中解像度にはテクスチャの特徴量、高解像度には顔領域の各パーツ領域の特徴量がそれぞれ関連付けられている解像度別特徴種別リスト220にリスト化されている。このため、特徴量抽出部212は、例えばその解像度別特徴種別リスト220の情報に基づいて、クエリ画像から、解像度に応じて取得可能な全ての種別の特徴量を抽出する。一例として、クエリ画像の人物領域が、前述の図3(b)のフレーム画像302の人物領域305のような中解像度の画像であったとすると、特徴量抽出部212は、テクスチャに関する特徴量を抽出する。また例えば、クエリ画像の人物領域が、図3(c)のフレーム画像303の顔領域306のみである場合、特徴量抽出部212は、顔領域の各パーツ領域に関する特徴量を抽出する。また例えば、特徴量抽出部212は、クエリ画像入力部211が取得したクエリ画像を例えば縮小し、その縮小後の解像度に応じた種別の特徴量を抽出することも可能である。例えば、クエリ画像の人物領域が図3(b)の人物領域305のような中解像度であった場合、特徴量抽出部212は、図3(a)の人物領域304と同程度の低解像度に縮小することで、低解像度に対応した色の特徴量を抽出可能となる。逆に、クエリ画像を前述したような画素補間処理で高解像度化(拡大)して、その高解像度化したクエリ画像から、解像度に応じた種別の特徴量を抽出してもよい。ステップS602の後、被写体検索機能部200Bの処理は、特徴量照合部213にて行われるステップS603に移行する。
ステップS603では、特徴量照合部213は、特徴量記憶部209に記憶されている特徴量の情報を参照し、ステップS602で抽出した特徴量と同じ種別の特徴量の情報を特徴量記憶部209から全て読み出す。ステップS603の後、特徴量照合部213は、ステップS604に処理を進める。
ステップS604では、特徴量照合部213は、ステップS603で読み出した同じ種別の全ての特徴量について、ユークリッド空間として表現された特徴量空間内で、クエリ画像の各特徴量との間のユークリッド距離を特徴量間の距離として算出する。そして、特徴量照合部213は、ステップS603で読み出された各特徴量の中で、クエリ画像の各特徴量との間の距離が閾値以内となっている各特徴量を、それぞれ類似した特徴であるとする。特徴量照合部213は、このようにして、ステップS603で読み出された各特徴量の中から、クエリ画像の特徴量に類似した特徴量を全て求める。ステップS604の後、被写体検索機能部200Bの処理は、検索結果出力部214にて行われるステップS605に移行する。
ステップS605では、検索結果出力部214は、ステップS603で読み出された各特徴量の中に、ステップS604で類似した特徴量を見つけることができたか否かを判定する。検索結果出力部214は、ステップS605において類似した特徴量がないと判定した場合には、被写体検索機能部200Bによる検索処理を終了する。一方、検索結果出力部214は、ステップS605において類似した特徴量があると判定した場合には、ステップS606に処理を進める。
ステップS606では、検索結果出力部214は、その類似した特徴量に関連付けられたフレーム番号を参照する。そして、検索結果出力部214は、そのフレーム番号に対応した動画のフレーム画像(動画区間の各フレーム画像)のデータ全てを、映像記憶部210から読み出す。ステップS606の後、検索結果出力部214は、ステップS607に処理を進める。
ステップS607では、検索結果出力部214は、ステップS606で読み出したフレーム画像を順次、表示装置107に送る。これにより表示装置107には、ステップS606で読み出された各フレーム画像が表示される(動画区間が再生される)。ユーザは、表示装置107の表示により検索結果を見ることができる。ステップS606で読み出されたフレーム画像がステップS607で全て表示されると、被写体検索機能部200Bによる検索処理は終了する。
以上説明した実施形態では、図4のステップS405において、全てのクラスに属する人数が閾値以下とならない場合に、より高解像度の人物領域を取得して、その人物領域の特徴量を取得するようにしていた。これは、比較的単純な映像シーン、例えば、撮像されている人物が全て服の色で判別できたり、服の模様で判別できたり、といった場合に特に有効である。しかしながら、より複雑な映像シーン、例えば、あるクラスに属する人物の数は閾値以下であるが、他のクラスに属する人物の数は閾値よりも大きいといった場合も考えられる。より具体的な例として、黒と白の縦縞の服を着た人物が4人、黒と白の横縞の服を着た人物が4人、赤い服を着た人物が1人であったような映像シーンである。このような映像シーンにおいて人物領域が低解像度であると、縦縞模様も横縞模様もつぶれてしまい、図3(a)のフレーム画像301のように黒一色の服装に見えてしまう可能性がある。この場合、特徴判定部205は、色の特徴量(ヒストグラム)により同じ特徴量であると誤って判定することになり、黒のクラスに属する人物が8人、赤いクラスに属する人物が1人として判定してしまう。そして、特徴判定部205は、黒のクラスに属する人物が8人であるため閾値を超える人数であると判定し、高解像度の人物領域の取得と、特徴量の種別をテクスチャとして判定してしまうことになる。しかしながら、赤い服を着た人物を検索する際は1人に絞り込めるため、本来であれば、より高解像度な画像の特徴は必要ではないと考えられる。そして、この場合、最も高い解像度の人物領域に対応した特徴量を必要とするクラスに合わせてしまうため、このような複雑な映像シーンでは、多少、処理負担が増して処理効率が下がり、また使用メモリ量が増えることになる。
<その他の実施形態>
以下、前述したような複雑な映像シーンにおける処理効率の低下とメモリ使用量の増加を防ぐための他の実施形態について説明する。
この場合の実施形態では、高解像特徴化判定モードの際に、クラスごとに高解像度の画像に対応した特徴量が必要であるかどうかも併せて記憶するようにする。具体的には、より高解像度の画像に対応した特徴量が必要なクラスの情報として、当該クラスに属する特徴量の代表値(クラスの重心の値)を、クラスタリングの際の人物領域の解像度と関連付けて「要高解像化特徴量」としてRAM103に記憶する。前述した例では、低解像度の画像の黒色のクラスの代表値を関連付けたものが、要高解像化特徴量となる。前述の図4のステップS405では、クラス単位で判定を行い、閾値を上回ったクラスに属する種別の特徴量が抽出された人物領域に対して、より高解像度の画像に対応した特徴量の種別を設定する。そして、その人物領域について、「要高解像化特徴量」の情報を更に記憶するようにすればよい。また、前述の実施形態の場合、「運用モード」では、図5のステップS505とステップS506で、一律の解像度と特徴量の種別を使用している。これに対し、本実施形態の場合は、「運用モード」では、人物領域から抽出した特徴量と、RAM103に記憶されている要高解像化特徴量の中の特徴量とを比較して、それらが類似するときのみ、より高解像度な画像を更にステップS505で取得する。そして、ステップS506において特徴量の種別を変更するようにすればよい。前述の例では、低解像度の人物領域から抽出された色の特徴量が黒色のクラスの代表値に近いときのみ、人物領域が中解像度となるような画像を取得し、テクスチャの特徴を抽出する。
この実施形態によれば、より複雑な映像シーンのときの処理効率の低下とメモリ使用量の増加を防ぐことが可能となる。
さらに、他の実施形態として、人物検出部202は、集積回路チップ内に収めて第1撮像部201と一体化して一つの装置となされてもよい。また、特徴量抽出部204、特徴判定部205、特徴判定部205は、集積回路チップ内に納めて、第2撮像部203、撮像対象選択部208、解像度変更部206と一体化して一つの装置となされてもよい。そして、これら2つの装置と特徴量記憶部209、映像記憶部210とが、ネットワークで接続されるような構成であってもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
101 CPU、102 ROM、103 RAM、104 2次記憶装置、105 画像入力装置、106 入力装置、107 表示装置、108 ネットワークI/F、109 バス、201 第1撮像部、202 人物検出部、203 第2撮像部、204 特徴量抽出部、205 特徴判定部、206 解像度変更部、207 特徴量変更部、208 撮像対象選択部、209 特徴量記憶部、210 映像記憶部、211 クエリ画像入力部、212 特徴量抽出部、213 特徴量照合部、214 検索結果出力部、220 解像度別特徴種別リスト、221 設定情報記憶部

Claims (12)

  1. 広域画像を撮像する第1の撮像手段と、
    前記第1の撮像手段の撮影範囲の一部の範囲を撮影可能な第2の撮像手段と、
    前記第1の撮像手段により撮像された画像の中から検出の対象とされている複数の被写体の画像領域を検出する検出手段と、
    前記第2の撮像手段により撮像された画像の中で、前記検出の対象とされている複数の被写体の画像領域ごとに特徴量を抽出する抽出手段と、
    前記複数の被写体の画像領域ごとに前記抽出された特徴量に基づいて、前記複数の被写体のそれぞれを判別可能にする特徴量の種別と、前記種別の特徴量を抽出可能な画像の解像度とを決定する決定手段と、
    前記決定手段により決定された解像度で画像を出力するように、前記第2の撮像手段を制御する撮像制御手段と、
    前記抽出手段に対し、前記第2の撮像手段から出力された前記決定された解像度の画像から、前記決定された種別の特徴量を抽出させる抽出制御手段と
    を有することを特徴とする画像処理装置。
  2. 前記第1の撮像手段により撮像された画像のデータを記憶する画像記憶手段と、
    前記第2の撮像手段より出力された前記複数の被写体の画像領域から前記抽出された特徴量の情報を、前記第1の撮像手段により撮像された画像の中の前記複数の被写体の各画像領域に関連付けて記憶する特徴量記憶手段とを有することを特徴とする請求項に記載の画像処理装置。
  3. 検索対象のクエリ画像を取得して前記クエリ画像から特徴量を抽出するクエリ取得手段と、
    前記特徴量記憶手段に記憶されている各特徴量の中から、前記クエリ画像より抽出された特徴量に類似した特徴量を検索する特徴量検索手段と、
    前記画像記憶手段に記憶されている画像の中から、前記特徴量検索手段により検索された特徴量に関連付けられた被写体の画像領域が映っている画像を、検索する画像検索手段とを有することを特徴とする請求項に記載の画像処理装置。
  4. 前記クエリ取得手段は、前記クエリ画像から取得可能な全ての種別の特徴量を抽出し、
    前記特徴量検索手段は、前記特徴量記憶手段に記憶されている各特徴量の中から、前記クエリ画像から取得した特徴量の全ての種別に対応した特徴量を読み出し、前記クエリ画像から抽出された各特徴量と前記特徴量記憶手段から読み出された各特徴量との間の距離が閾値以内となっている特徴量を、前記クエリ画像から抽出された特徴量に類似した特徴量として検索することを特徴とする請求項に記載の画像処理装置。
  5. 前記クエリ取得手段は、前記クエリ画像を縮小又は拡大して、前記縮小又は拡大されたクエリ画像から前記取得可能な全ての種別の特徴量を抽出することを特徴とする請求項又はに記載の画像処理装置。
  6. 前記決定手段は、前記第2の撮像手段により撮像された画像の前記複数の被写体の画像領域から抽出された前記特徴量をクラスタリングし、前記クラスタリングの結果に基づいて、前記特徴量の種別と解像度を決定することを特徴とする請求項のいずれか1項に記載の画像処理装置。
  7. 前記決定手段は、前記クラスタリングによる少なくとも一つのクラスに含まれる特徴量の数が所定の閾値を超えた場合、前記特徴量の種別を、より高解像度の画像に対応した種別に決定し、
    前記撮像制御手段は、前記決定された種別の特徴量に対応した高解像度の画像を、前記第2の撮像手段から出力させることを特徴とする請求項に記載の画像処理装置。
  8. 前記決定手段は、前記クラスタリングによる各クラスのうち、クラスに含まれる特徴量の数が所定の閾値を超えたクラスに属する種別の特徴量を抽出した被写体に対しては、より高解像度の画像に対応した特徴量の種別に決定し、
    前記撮像制御手段は、前記決定された種別の特徴量に対応した高解像度の画像を、前記第2の撮像手段から出力させることを特徴とする請求項に記載の画像処理装置。
  9. 前記第2の撮像手段は、ズームレンズを有し、
    前記撮像制御手段は、前記決定された解像度で画像を出力するように前記第2の撮像手段を制御することを特徴とする請求項のいずれか1項に記載の画像処理装置。
  10. 前記第2の撮像手段は、撮像した画像の画素を補間する画素補間手段を有し、
    前記撮像制御手段は、前記画素補間手段による画素の補間を行わせることで、前記決定された解像度で画像を出力するように前記第2の撮像手段を制御することを特徴とする請求項のいずれか1項に記載の画像処理装置。
  11. 検出手段が、広域画像を撮像する第1の撮像手段により撮像された画像の中から検出の対象とされている複数の被写体の画像領域を検出するステップと、
    抽出手段が、前記第1の撮像手段の撮影範囲の一部の範囲を撮影可能な第2の撮像手段により撮像された画像の中で、前記検出の対象とされている複数の被写体の画像領域ごとに特徴量を抽出するステップと、
    決定手段が、前記複数の被写体の画像領域ごとに前記抽出された特徴量に基づいて、前記複数の被写体のそれぞれを判別可能にする特徴量の種別と、前記種別の特徴量を抽出可能な画像の解像度とを決定するステップと、
    撮像制御手段が、前記決定手段により決定された解像度で画像を出力するように、前記第2の撮像手段を制御するステップと、
    抽出制御手段が、前記抽出手段に対し、前記第2の撮像手段から出力された前記決定された解像度の画像から、前記決定された種別の特徴量を抽出させるステップと
    を含むことを特徴とする画像処理方法。
  12. コンピュータを、
    広域画像を撮像する第1の撮像手段により撮像された画像の中から検出の対象とされている複数の被写体の画像領域を検出する検出手段と、
    前記第1の撮像手段の撮影範囲の一部の範囲を撮影可能な第2の撮像手段により撮像された画像の中で、前記検出の対象とされている複数の被写体の画像領域ごとに特徴量を抽出する抽出手段と、
    前記複数の被写体の画像領域ごとに前記抽出された特徴量に基づいて、前記複数の被写体のそれぞれを判別可能にする特徴量の種別と、前記種別の特徴量を抽出可能な画像の解像度とを決定する決定手段と、
    前記決定手段により決定された解像度で画像を出力するように、前記第2の撮像手段を制御する撮像制御手段と、
    前記抽出手段に対し、前記第2の撮像手段から出力された前記決定された解解像度の画像から、前記決定された種別の特徴量を抽出させる抽出制御手段と
    して機能させるためのプログラム。
JP2015204049A 2015-10-15 2015-10-15 画像処理装置、画像処理方法、及びプログラム Active JP6624878B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015204049A JP6624878B2 (ja) 2015-10-15 2015-10-15 画像処理装置、画像処理方法、及びプログラム
US15/292,691 US10079974B2 (en) 2015-10-15 2016-10-13 Image processing apparatus, method, and medium for extracting feature amount of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015204049A JP6624878B2 (ja) 2015-10-15 2015-10-15 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017076909A JP2017076909A (ja) 2017-04-20
JP6624878B2 true JP6624878B2 (ja) 2019-12-25

Family

ID=58524474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015204049A Active JP6624878B2 (ja) 2015-10-15 2015-10-15 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10079974B2 (ja)
JP (1) JP6624878B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7130385B2 (ja) * 2018-02-19 2022-09-05 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
KR102108391B1 (ko) * 2018-07-18 2020-05-12 주식회사 영국전자 다수개의 카메라를 활용한 이동물체 연계추적시스템 및 방법
US20200133308A1 (en) * 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US11037328B1 (en) 2019-12-31 2021-06-15 Lyft, Inc. Overhead view image generation
US11288522B2 (en) 2019-12-31 2022-03-29 Woven Planet North America, Inc. Generating training data from overhead view images
US11244500B2 (en) * 2019-12-31 2022-02-08 Woven Planet North America, Inc. Map feature extraction using overhead view images
WO2021205843A1 (ja) * 2020-04-10 2021-10-14 ソニーグループ株式会社 情報処理装置、情報処理方法、撮像システム
US11967138B2 (en) * 2021-03-03 2024-04-23 Nec Corporation Processing apparatus, information processing method and recording medium
CN113923444B (zh) * 2021-10-08 2024-04-30 广州辰达精密光电科技有限公司 一种变焦镜头质量评价方法及装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6812835B2 (en) * 2000-02-28 2004-11-02 Hitachi Kokusai Electric Inc. Intruding object monitoring method and intruding object monitoring system
JP2003219225A (ja) 2002-01-25 2003-07-31 Nippon Micro Systems Kk 動体画像監視装置
US20050104958A1 (en) * 2003-11-13 2005-05-19 Geoffrey Egnal Active camera video-based surveillance systems and methods
US7629995B2 (en) * 2004-08-06 2009-12-08 Sony Corporation System and method for correlating camera views
US7663662B2 (en) * 2005-02-09 2010-02-16 Flir Systems, Inc. High and low resolution camera systems and methods
US7806604B2 (en) * 2005-10-20 2010-10-05 Honeywell International Inc. Face detection and tracking in a wide field of view
US20070237387A1 (en) 2006-04-11 2007-10-11 Shmuel Avidan Method for detecting humans in images
KR100846500B1 (ko) * 2006-11-08 2008-07-17 삼성전자주식회사 확장된 가보 웨이브렛 특징 들을 이용한 얼굴 인식 방법 및장치
JP4434236B2 (ja) * 2007-06-11 2010-03-17 ソニー株式会社 画像処理装置、画像表示装置、撮像装置、これらの処理方法およびプログラム
JP2011029905A (ja) * 2009-07-24 2011-02-10 Fujifilm Corp 撮像装置、方法およびプログラム
US8564667B2 (en) * 2009-08-21 2013-10-22 Empire Technology Development Llc Surveillance system
US9082278B2 (en) * 2010-03-19 2015-07-14 University-Industry Cooperation Group Of Kyung Hee University Surveillance system
JP5615088B2 (ja) * 2010-08-18 2014-10-29 キヤノン株式会社 画像処理装置及びその方法、プログラム、並びに撮像装置
JP6024952B2 (ja) * 2012-07-19 2016-11-16 パナソニックIpマネジメント株式会社 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム
KR101385599B1 (ko) * 2012-09-26 2014-04-16 한국과학기술연구원 몽타주 추론 방법 및 장치
CN103780830B (zh) * 2012-10-17 2017-04-12 晶睿通讯股份有限公司 连动式摄影系统及其多摄影机的控制方法
US20160127657A1 (en) * 2013-06-11 2016-05-05 Sharp Kabushiki Kaisha Imaging system
US20150334299A1 (en) * 2014-05-14 2015-11-19 Panasonic Intellectual Property Management Co., Ltd. Monitoring system

Also Published As

Publication number Publication date
US10079974B2 (en) 2018-09-18
JP2017076909A (ja) 2017-04-20
US20170111576A1 (en) 2017-04-20

Similar Documents

Publication Publication Date Title
JP6624878B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20230013243A (ko) 프레임에서 타겟 오브젝트를 위한 고정된 크기 유지
US8861806B2 (en) Real-time face tracking with reference images
US9922425B2 (en) Video segmentation method
JP5456159B2 (ja) 背景から前景の頭頂部を分離するための方法および装置
JP5675233B2 (ja) 情報処理装置、その認識方法及びプログラム
US10096117B2 (en) Video segmentation method
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP2010500687A (ja) デジタル画像取得装置におけるリアルタイムの顔探知
CN106603968B (zh) 信息处理装置及信息处理方法
JP4764172B2 (ja) 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
WO2008147724A2 (en) Methods, systems and apparatuses for motion detection using auto-focus statistics
US11019251B2 (en) Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program
US10455144B2 (en) Information processing apparatus, information processing method, system, and non-transitory computer-readable storage medium
US9154682B2 (en) Method of detecting predetermined object from image and apparatus therefor
US9842260B2 (en) Image processing apparatus and image processing method of performing image segmentation
JP5965764B2 (ja) 映像領域分割装置及び映像領域分割プログラム
US9392146B2 (en) Apparatus and method for extracting object
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
JP6452738B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2019067377A (ja) 画像処理装置及び方法及び監視システム
JP2005250778A (ja) 画像の天地方向判定
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
Song et al. Object tracking with dual field-of-view switching in aerial videos
KR101636481B1 (ko) 컴파운드뷰 이미지 생성 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191126

R151 Written notification of patent or utility model registration

Ref document number: 6624878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151