JP6624878B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP6624878B2 JP6624878B2 JP2015204049A JP2015204049A JP6624878B2 JP 6624878 B2 JP6624878 B2 JP 6624878B2 JP 2015204049 A JP2015204049 A JP 2015204049A JP 2015204049 A JP2015204049 A JP 2015204049A JP 6624878 B2 JP6624878 B2 JP 6624878B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature amount
- unit
- imaging
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 73
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000003384 imaging method Methods 0.000 claims description 147
- 238000000605 extraction Methods 0.000 claims description 81
- 238000003860 storage Methods 0.000 claims description 56
- 238000001514 detection method Methods 0.000 claims description 34
- 239000000284 extract Substances 0.000 claims description 22
- 230000009467 reduction Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 55
- 230000006870 function Effects 0.000 description 49
- 230000008569 process Effects 0.000 description 32
- 238000012512 characterization method Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/248—Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
- G06V30/2504—Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
例えば、特許文献1には、人物を検出してズームし、合焦度合いやノイズ量で判断して画質のよい画像が得られるまでカメラで人物をトラッキングし、人物領域の高解像度画像を取得する技術が開示されている。また、特許文献2には、背景差分により動体として人物を検出し、その検出領域より肌色領域を検出してズームし、顔の高解像度画像を取得する技術が開示されている。
<概略的なハードウェア構成>
図1は、本実施形態の画像処理装置の概略的なハードウェア構成例を示す図である。
CPU101は、ROM102やRAM103に格納されたプログラムに従って命令を実行する。またCPU101は、画像入力装置105、入力装置106、表示装置107、2次記憶装置104、ネットワークI/F108等を制御する。CPU101による命令実行処理や各部の制御の詳細は後述する。
2次記憶装置104は、ハードディスクドライブやフラッシュメモリーなどの書き換え可能でコンピュータ読み取り可能な各種の記憶媒体110に対して、画像データやその他の各種情報等を記憶する。記憶媒体110は、それら画像データや各種情報の記録だけでなく、本実施形態に係るプログラムが記録されていてもよい。また、2次記憶装置104は、画像データや各種情報、プログラム等をRAM103に転送する。これにより、CPU101は、それらプログラムを実行し、画像データ等を利用する。
本実施形態の画像処理装置は、被写体特徴抽出機能と被写体検索機能とを備えている。以下、本実施形態の画像処理装置において、被写体特徴抽出機能と被写体検索機能がオペレーティングシステムの上で動作するアプリケーションとして実装されている場合を例に挙げて説明を行うこととする。
図2は、本実施形態の画像処理装置が有している被写体特徴抽出機能部200Aと被写体検索機能部200Bとを、機能ブロックとして表した図である。なお、図2には、説明を判り易くするために、図1の画像入力装置105、入力装置106、表示装置107、RAM103、2次記憶装置104等も描いている。また、図2において、画像入力装置105の第1撮像部201は前述した広角撮像カメラに対応し、第2撮像部203は前述したPTZ撮像カメラに対応している。
以下、被写体特徴抽出機能部200Aの概略構成について説明する。
画像入力装置105の第1撮像部201により動画として撮影された広域画像のデータは、被写体特徴抽出機能部200Aの人物検出部202と映像記憶部210に送られる。人物検出部202は、検出手段であり、第1撮像部201にて撮影された広域画像の各フレーム画像の中から、検出対象としての被写体画像として例えば人物の画像領域を検出する。以下、人物の画像領域を「人物領域」と表記する。なお、第1撮像部201の撮影範囲(視野)内に複数の人物等が存在していた場合、人物検出部202は、第1撮像部201で撮影された広域画像からそれら複数の各人物にそれぞれ対応した複数の人物領域を検出することになる。人物検出部202による人物領域の検出処理の詳細については後述する。人物検出部202は、広域画像内における各人物領域の位置と各人物領域の範囲を示す情報を、撮像対象選択部208と特徴量抽出部204に送る。
なお、本実施形態において、人物領域の解像度の高低は、人物領域の水平方向と垂直方向の画素数(人物領域のサイズ)に対応している。本実施形態では、人物領域の水平,垂直方向の画素数が多いほど(人物領域のサイズが大きいほど)高解像度であると表現され、画素数が少ないほど(人物領域のサイズが小さいほど)低解像度であると表現される。
また、本実施形態において、特徴量の種別とは、例えば前述した人物領域のサイズ、色、テクスチャ、人物領域の顔領域内の各パーツ領域の形状と位置等である。人物領域の解像度と人物領域の特徴量の種別の詳細、特徴判定部205による特徴判定処理の詳細については後述する。
そして、特徴判定部205は、特徴量抽出部204にて抽出された特徴量に基づき、人物領域の解像度を変更する必要があると判定した場合には、解像度変更により設定されるべき解像度を示す判定結果情報を、解像度変更部206に送る。
また、特徴判定部205は、特徴量抽出部204で抽出された特徴量に基づき、人物領域から抽出する特徴量の種別を変更する必要があると判定した場合には、種別変更により設定されるべき種別を示す判定結果情報を、特徴量変更部207に送る。
特徴量記憶部209は、図1のRAM103又は2次記憶装置104内における特徴量情報記憶用の領域に相当し、特徴量抽出部204にて抽出された特徴量の情報を記憶する。特徴量記憶部209に記憶される特徴量は、映像記憶部210に記憶される動画像データの各フレーム画像の各人物領域に関連付けられて記憶される。
以下、被写体検索機能部200Bの概略構成について説明する。
被写体検索機能部200Bのクエリ画像入力部211は、例えば、図1の入力装置106を介したユーザからの指示により、画像入力装置105に対し、検索したい対象の人物を撮像させ、その撮像された人物の画像を、検索対象のクエリ画像として取得する。クエリ画像として取得される人物画像は、画像入力装置105の第1撮像部201により撮像される画像でもよいが、PTZ撮像カメラである第2撮像部203において高いズーム倍率で撮像された画像の方がより好ましい。画像入力装置105は、入力装置106を介したユーザからの指示に応じて、例えば第2撮像部203のパン・チルト・ズームが操作された上で、人物の撮影を行う。クエリ画像入力部211は、画像入力装置105にて撮像された人物画像のデータをクエリ画像のデータとして取得する。クエリ画像入力部211にて取得されたクエリ画像のデータは、特徴量抽出部212に送られる。
なお、クエリ画像入力部211は、例えば、画像入力装置105にて撮像されている画像の中の人物領域のうち、入力装置106を介したユーザからの指示により選択された人物領域の画像を、検索対象のクエリ画像として取得してもよい。他の例として、クエリ画像入力部211は、例えば、予め撮像されてメモリ媒体等に記憶されている人物画像や、ネットワーク上の記憶装置等に記憶されている人物画像を、クエリ画像として取得してもよい。
特徴量照合部213は、特徴量検索手段であり、クエリ画像から抽出された特徴量を用いて、特徴量記憶部209に記憶されている特徴量を参照し、クエリ画像から抽出された特徴量と類似する特徴量が存在するか否かの照合処理を行う。特徴量照合部213は、特徴量記憶部209に記憶されている特徴量の中に、クエリ画像の特徴量に類似する特徴量が存在した場合、その類似している特徴量の情報を、特徴量記憶部209から読み出して検索結果出力部214に出力する。
以下、前述した人物領域の解像度と特徴量の種別の関係について、図3(a)〜図3(c)を参照しながら説明する。
図3(a)〜図3(c)は、一人の人物がそれぞれ異なるズーム倍率で撮影されたフレーム画像301,302,303の例を示している。なお、各フレーム画像301,302,303のサイズは同じであり、例えば水平×垂直方向のサイズが画素数で表すと640×480の画像であるとする。図3(a)に示したフレーム画像301内の人物領域304は、水平×垂直方向のサイズが画素数で表すと64×68程度の小サイズの画像であるとする。図3(a)のような小サイズの人物領域304の場合、フレーム画像301に対するサイズは小さく、フレーム画像301内には人物領域304と同サイズの人物画像を10個程度並べることが可能なサイズである。図3(b)に示したフレーム画像302内の人物領域305は、水平×垂直方向のサイズが画素数で表すと210×480程度の中サイズの画像であるとする。図3(b)のような中サイズの人物領域305の場合、フレーム画像302内には人物領域305と同サイズの人物画像を3〜4個程度並べることが可能なサイズである。図3(c)の例は、水平×垂直方向のサイズが画素数で640×480のフレーム画像303内に、人物領域の顔領域306のみが大きく映し出されている。図3(c)の人物領域の顔領域306は、フレーム画像303内の多くの部分を占めるような大サイズの画像である。本実施形態では、前述したように、人物領域等のサイズの大小が解像度の高低と対応している。このため、本実施形態の場合、図3(a)の小サイズの人物領域304は低解像度の画像であり、図3(b)の中サイズの人物領域305は中解像度の画像であり、図3(c)の大サイズの顔領域306は高解像度の画像であると言える。
ただし、例えば一つのフレーム画像内に複数の人物が映っているような場合、人物領域のサイズ(解像度)に応じた種別の特徴量だけを抽出したのでは、それら各人物領域を個々に判別できない場合がある。
以下、一つのフレーム画像内に複数の人物が映っている場合、それら各人物を個々に判別可能にするための人物領域の解像度と特徴量の種別の関係について説明する。
一つのフレーム画像内で複数の人物領域が検出された場合、人物領域の解像度と特徴量の種別をどのように設定すべきかについては、画像入力装置105で撮影されている映像シーン内に映っている各人物(被写体)の特徴の差異を判定することで決定可能である。
本実施形態の画像処理装置は、画像入力装置105で撮影されている映像シーン内に映っている各人物領域(各被写体領域)の特徴の差異に応じて、人物領域(被写体領域)の解像度と特徴量の種別を決定している。以下、本実施形態の画像処理装置において、特徴判定部205が映像シーン内の複数の人物領域の特徴の差異を判定して解像度と特徴量の種別を決定するモードを「高解像度特徴化判定モード」と呼ぶ。
図4には、本実施形態の画像処理装置における高解像度特徴化判定モードの際の処理の流れを示す。以下、図4のフローチャートを参照しながら高解像度特徴化判定モードについて説明する。図4は、フレーム画像内で複数の人物領域が検出される場合を想定したフローチャートである。
図4において、画像入力装置105の第1撮像部201は、ステップS401として、監視エリアの全体の動画を撮影しており、所定時間ごとにフレーム画像を取得している。被写体特徴抽出機能部200Aの人物検出部202は、ステップS402として、画像入力装置105の第1撮像部201にて撮影された広域画像の各フレーム画像について、そのフレーム画像内の全ての人物領域を検出する。
なお、本実施形態では、検出対象となる被写体として人物を例に挙げているが、検出対象の被写体は、他の被写体、一例として車両等の被写体であってもよい。この場合、人物検出部202に代えて、車両検出部を設けることで、広域画像から車両の画像領域を検出可能である。また、車両の画像領域の検出は、前述の人物領域検出の手法を流用することで実現可能である。ステップS402の後、被写体特徴抽出機能部200Aの処理は、特徴量抽出部204で行われるステップS403に移行する。
ここで、クラスタリングの手法としては特に限定されるものではないが、本実施形態では、以下の参考文献3にて開示されているMean shiftクラスタリング手法を用いる。参考文献3に開示されているMean shiftクラスタリング手法は、概要としては以下のような手法である。Mean shiftクラスタリング手法は、確率密度分布をガウシアン関数等のカーネル関数で表現して、次のステップの繰り返しにより分布の極大点を求める手法である。Mean shiftクラスタリング手法では、先ず、初期位置を与え、カーネルの一定の幅に含まれるサンプル点の平均を求め、その平均をガウシアンカーネルの中心として、改めてサンプル点の平均を求める。この処理を収束するまで繰り返すことによって見つけた極大点の数がクラスの数となる。ステップS404の後、特徴判定部205は、ステップS405に処理を進める。参考文献3"D.Comaniciu and P.Meer.Mean shift:A robust approach toward Feature space analysis.PAMI,24(5):603−619,2002."
ステップS409では、撮像対象選択部208は、ステップS408で選択した人物領域に対応した人物が、第2撮像部203の画面の略々中央になるように、第2撮像部203のカメラのレンズの向きを設定して撮像を行わせる。
また、本実施形態では、第2撮像部203のズーム倍率を高くすることで高解像度の画像を取得する例を挙げているが、例えばいわゆる超解像と呼ばれる手法を用いて高解像度の画像を生成してもよい。例えば、以下の参考文献4に記載されている低解像度の複数のフレーム画像から画素を補間する方法や、以下の参考文献5に記載されている予め人物画像の画像パターンを学習して辞書を作っておき、これを用いて補間する方法などで高解像度の画像を生成してもよい。これら画素補間を用いる場合、それら画素補間処理を行う構成は、第2撮像部203内に設けられているとする。参考文献4"Sean Borman,Robert L.Stevenson:Super―Resolution from Image Sequences―A Review.Circuits and Systems,1998." 参考文献5"Jianchao Yang,John Wright,Thomas Huang,YiMa:Image Super―Resolution as Sparse Representation of Raw Image Patches.Computer Vision and Pattern Recognition,2008."
ステップS410では、特徴量抽出部204は、ステップS409で第2撮像部203が撮像した人物領域から、ステップS407で設定された種別の特徴量を抽出する。ステップS410の後、被写体特徴抽出機能部200Aの処理は、撮像対象選択部208にて行われるステップS411に移行する。
ステップS411では、撮像対象選択部208は、ステップS402で人物検出部202が検出した全ての人物領域について、前述した人物領域の選択と第2撮像部203での撮像による画像の取得が行われたか否か判定する。撮像対象選択部208は、ステップS411において、全ての人物領域の選択と撮像が行われていないと判定した場合には、ステップS408に処理を戻す。
前述したような高解像特徴化判定モードによる解像度の設定と特徴量の種別の設定が完了した後、本実施形態の画像処理装置は、各人物領域と特徴量を関連付けて記憶させる運用モードに移行することになる。以下、図5のフローチャートを参照しながら、運用モードにおける本実施形態の画像処理装置の処理の流れについて説明する。
また、運用モードにおいて、人物検出部202は、ステップS503において、第1撮像部201により撮影された各フレーム画像から、前述のステップS402で説明したのと同様の手法を用い、全ての人物領域を検出する。ステップS503の後、被写体特徴抽出機能部200Aの処理は、撮像対象選択部208にて行われるステップS504に移行する。
ステップS505では、前述のステップS409と同様に、撮像対象選択部208は、ステップS504で選択した人物領域に対応した人物が、第2撮像部203の画面の略々中央になるように第2撮像部203のレンズの向きを制御する。また、ステップS505では、解像度変更部206は、RAM103の設定情報記憶部221から、高解像特徴化判定モードで設定された解像度の設定情報を読み出し、第2撮像部203に対し、設定された解像度に応じたズーム倍率による撮像を行わせる。ステップS505の後、被写体特徴抽出機能部200Aの処理は、特徴量抽出部204にて行われるステップS506に移行する。
ステップS507では、特徴量抽出部204は、ステップS506にて抽出された特徴量の情報を、特徴量記憶部209に記憶させる。この際、特徴量抽出部204は、その特徴量の情報を、第1撮像部201で撮影されて人物検出部202が人物検出を行っている現在のフレーム画像のフレーム番号、特徴量の種別、特徴量を抽出した人物領域を示す情報と関連付けて記憶させる。
ステップS507の後、被写体特徴抽出機能部200Aの処理は、撮像対象選択部208で行われるステップS508に移行する。
ステップS504に戻ると、撮像対象選択部208は、フレーム画像の中で未だ選択がなされていない各人物領域の中で、左上端に最も近い人物領域を選択する。これにより、以下のステップS505〜S507では、その選択された人物領域について前述した処理が行われる。ステップS504〜S507の処理は、ステップS508で全ての人物領域についての処理が行われたと判定されるまで繰り返される。
以下、図6のフローチャートを参照し、被写体検索機能部200Bにおいて、映像記憶部210に記憶されている動画像の中から、クエリ画像に基づいてフレーム画像を検索する際の処理の流れを説明する。被写体検索機能部200Bは、前述したように、クエリ画像から抽出した特徴量を用い、特徴量記憶部209に記憶されている特徴量を照合することにより、映像記憶部210に記憶されている動画像の中からクエリ画像と特徴量の類似するフレーム画像を検索する。
ステップS604では、特徴量照合部213は、ステップS603で読み出した同じ種別の全ての特徴量について、ユークリッド空間として表現された特徴量空間内で、クエリ画像の各特徴量との間のユークリッド距離を特徴量間の距離として算出する。そして、特徴量照合部213は、ステップS603で読み出された各特徴量の中で、クエリ画像の各特徴量との間の距離が閾値以内となっている各特徴量を、それぞれ類似した特徴であるとする。特徴量照合部213は、このようにして、ステップS603で読み出された各特徴量の中から、クエリ画像の特徴量に類似した特徴量を全て求める。ステップS604の後、被写体検索機能部200Bの処理は、検索結果出力部214にて行われるステップS605に移行する。
ステップS607では、検索結果出力部214は、ステップS606で読み出したフレーム画像を順次、表示装置107に送る。これにより表示装置107には、ステップS606で読み出された各フレーム画像が表示される(動画区間が再生される)。ユーザは、表示装置107の表示により検索結果を見ることができる。ステップS606で読み出されたフレーム画像がステップS607で全て表示されると、被写体検索機能部200Bによる検索処理は終了する。
以下、前述したような複雑な映像シーンにおける処理効率の低下とメモリ使用量の増加を防ぐための他の実施形態について説明する。
この場合の実施形態では、高解像特徴化判定モードの際に、クラスごとに高解像度の画像に対応した特徴量が必要であるかどうかも併せて記憶するようにする。具体的には、より高解像度の画像に対応した特徴量が必要なクラスの情報として、当該クラスに属する特徴量の代表値(クラスの重心の値)を、クラスタリングの際の人物領域の解像度と関連付けて「要高解像化特徴量」としてRAM103に記憶する。前述した例では、低解像度の画像の黒色のクラスの代表値を関連付けたものが、要高解像化特徴量となる。前述の図4のステップS405では、クラス単位で判定を行い、閾値を上回ったクラスに属する種別の特徴量が抽出された人物領域に対して、より高解像度の画像に対応した特徴量の種別を設定する。そして、その人物領域について、「要高解像化特徴量」の情報を更に記憶するようにすればよい。また、前述の実施形態の場合、「運用モード」では、図5のステップS505とステップS506で、一律の解像度と特徴量の種別を使用している。これに対し、本実施形態の場合は、「運用モード」では、人物領域から抽出した特徴量と、RAM103に記憶されている要高解像化特徴量の中の特徴量とを比較して、それらが類似するときのみ、より高解像度な画像を更にステップS505で取得する。そして、ステップS506において特徴量の種別を変更するようにすればよい。前述の例では、低解像度の人物領域から抽出された色の特徴量が黒色のクラスの代表値に近いときのみ、人物領域が中解像度となるような画像を取得し、テクスチャの特徴を抽出する。
この実施形態によれば、より複雑な映像シーンのときの処理効率の低下とメモリ使用量の増加を防ぐことが可能となる。
Claims (12)
- 広域画像を撮像する第1の撮像手段と、
前記第1の撮像手段の撮影範囲の一部の範囲を撮影可能な第2の撮像手段と、
前記第1の撮像手段により撮像された画像の中から検出の対象とされている複数の被写体の画像領域を検出する検出手段と、
前記第2の撮像手段により撮像された画像の中で、前記検出の対象とされている複数の被写体の画像領域ごとに特徴量を抽出する抽出手段と、
前記複数の被写体の画像領域ごとに前記抽出された特徴量に基づいて、前記複数の被写体のそれぞれを判別可能にする特徴量の種別と、前記種別の特徴量を抽出可能な画像の解像度とを決定する決定手段と、
前記決定手段により決定された解像度で画像を出力するように、前記第2の撮像手段を制御する撮像制御手段と、
前記抽出手段に対し、前記第2の撮像手段から出力された前記決定された解像度の画像から、前記決定された種別の特徴量を抽出させる抽出制御手段と
を有することを特徴とする画像処理装置。 - 前記第1の撮像手段により撮像された画像のデータを記憶する画像記憶手段と、
前記第2の撮像手段より出力された前記複数の被写体の画像領域から前記抽出された特徴量の情報を、前記第1の撮像手段により撮像された画像の中の前記複数の被写体の各画像領域に関連付けて記憶する特徴量記憶手段とを有することを特徴とする請求項1に記載の画像処理装置。 - 検索対象のクエリ画像を取得して前記クエリ画像から特徴量を抽出するクエリ取得手段と、
前記特徴量記憶手段に記憶されている各特徴量の中から、前記クエリ画像より抽出された特徴量に類似した特徴量を検索する特徴量検索手段と、
前記画像記憶手段に記憶されている画像の中から、前記特徴量検索手段により検索された特徴量に関連付けられた被写体の画像領域が映っている画像を、検索する画像検索手段とを有することを特徴とする請求項2に記載の画像処理装置。 - 前記クエリ取得手段は、前記クエリ画像から取得可能な全ての種別の特徴量を抽出し、
前記特徴量検索手段は、前記特徴量記憶手段に記憶されている各特徴量の中から、前記クエリ画像から取得した特徴量の全ての種別に対応した特徴量を読み出し、前記クエリ画像から抽出された各特徴量と前記特徴量記憶手段から読み出された各特徴量との間の距離が閾値以内となっている特徴量を、前記クエリ画像から抽出された特徴量に類似した特徴量として検索することを特徴とする請求項3に記載の画像処理装置。 - 前記クエリ取得手段は、前記クエリ画像を縮小又は拡大して、前記縮小又は拡大されたクエリ画像から前記取得可能な全ての種別の特徴量を抽出することを特徴とする請求項3又は4に記載の画像処理装置。
- 前記決定手段は、前記第2の撮像手段により撮像された画像の前記複数の被写体の画像領域から抽出された前記特徴量をクラスタリングし、前記クラスタリングの結果に基づいて、前記特徴量の種別と解像度を決定することを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。
- 前記決定手段は、前記クラスタリングによる少なくとも一つのクラスに含まれる特徴量の数が所定の閾値を超えた場合、前記特徴量の種別を、より高解像度の画像に対応した種別に決定し、
前記撮像制御手段は、前記決定された種別の特徴量に対応した高解像度の画像を、前記第2の撮像手段から出力させることを特徴とする請求項6に記載の画像処理装置。 - 前記決定手段は、前記クラスタリングによる各クラスのうち、クラスに含まれる特徴量の数が所定の閾値を超えたクラスに属する種別の特徴量を抽出した被写体に対しては、より高解像度の画像に対応した特徴量の種別に決定し、
前記撮像制御手段は、前記決定された種別の特徴量に対応した高解像度の画像を、前記第2の撮像手段から出力させることを特徴とする請求項6に記載の画像処理装置。 - 前記第2の撮像手段は、ズームレンズを有し、
前記撮像制御手段は、前記決定された解像度で画像を出力するように前記第2の撮像手段を制御することを特徴とする請求項1〜8のいずれか1項に記載の画像処理装置。 - 前記第2の撮像手段は、撮像した画像の画素を補間する画素補間手段を有し、
前記撮像制御手段は、前記画素補間手段による画素の補間を行わせることで、前記決定された解像度で画像を出力するように前記第2の撮像手段を制御することを特徴とする請求項1〜8のいずれか1項に記載の画像処理装置。 - 検出手段が、広域画像を撮像する第1の撮像手段により撮像された画像の中から検出の対象とされている複数の被写体の画像領域を検出するステップと、
抽出手段が、前記第1の撮像手段の撮影範囲の一部の範囲を撮影可能な第2の撮像手段により撮像された画像の中で、前記検出の対象とされている複数の被写体の画像領域ごとに特徴量を抽出するステップと、
決定手段が、前記複数の被写体の画像領域ごとに前記抽出された特徴量に基づいて、前記複数の被写体のそれぞれを判別可能にする特徴量の種別と、前記種別の特徴量を抽出可能な画像の解像度とを決定するステップと、
撮像制御手段が、前記決定手段により決定された解像度で画像を出力するように、前記第2の撮像手段を制御するステップと、
抽出制御手段が、前記抽出手段に対し、前記第2の撮像手段から出力された前記決定された解像度の画像から、前記決定された種別の特徴量を抽出させるステップと
を含むことを特徴とする画像処理方法。 - コンピュータを、
広域画像を撮像する第1の撮像手段により撮像された画像の中から検出の対象とされている複数の被写体の画像領域を検出する検出手段と、
前記第1の撮像手段の撮影範囲の一部の範囲を撮影可能な第2の撮像手段により撮像された画像の中で、前記検出の対象とされている複数の被写体の画像領域ごとに特徴量を抽出する抽出手段と、
前記複数の被写体の画像領域ごとに前記抽出された特徴量に基づいて、前記複数の被写体のそれぞれを判別可能にする特徴量の種別と、前記種別の特徴量を抽出可能な画像の解像度とを決定する決定手段と、
前記決定手段により決定された解像度で画像を出力するように、前記第2の撮像手段を制御する撮像制御手段と、
前記抽出手段に対し、前記第2の撮像手段から出力された前記決定された解解像度の画像から、前記決定された種別の特徴量を抽出させる抽出制御手段と
して機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015204049A JP6624878B2 (ja) | 2015-10-15 | 2015-10-15 | 画像処理装置、画像処理方法、及びプログラム |
US15/292,691 US10079974B2 (en) | 2015-10-15 | 2016-10-13 | Image processing apparatus, method, and medium for extracting feature amount of image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015204049A JP6624878B2 (ja) | 2015-10-15 | 2015-10-15 | 画像処理装置、画像処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017076909A JP2017076909A (ja) | 2017-04-20 |
JP6624878B2 true JP6624878B2 (ja) | 2019-12-25 |
Family
ID=58524474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015204049A Active JP6624878B2 (ja) | 2015-10-15 | 2015-10-15 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10079974B2 (ja) |
JP (1) | JP6624878B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7130385B2 (ja) * | 2018-02-19 | 2022-09-05 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
KR102108391B1 (ko) * | 2018-07-18 | 2020-05-12 | 주식회사 영국전자 | 다수개의 카메라를 활용한 이동물체 연계추적시스템 및 방법 |
US20200133308A1 (en) * | 2018-10-18 | 2020-04-30 | Cartica Ai Ltd | Vehicle to vehicle (v2v) communication less truck platooning |
US11037328B1 (en) | 2019-12-31 | 2021-06-15 | Lyft, Inc. | Overhead view image generation |
US11288522B2 (en) | 2019-12-31 | 2022-03-29 | Woven Planet North America, Inc. | Generating training data from overhead view images |
US11244500B2 (en) * | 2019-12-31 | 2022-02-08 | Woven Planet North America, Inc. | Map feature extraction using overhead view images |
WO2021205843A1 (ja) * | 2020-04-10 | 2021-10-14 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、撮像システム |
US11967138B2 (en) * | 2021-03-03 | 2024-04-23 | Nec Corporation | Processing apparatus, information processing method and recording medium |
CN113923444B (zh) * | 2021-10-08 | 2024-04-30 | 广州辰达精密光电科技有限公司 | 一种变焦镜头质量评价方法及装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6812835B2 (en) * | 2000-02-28 | 2004-11-02 | Hitachi Kokusai Electric Inc. | Intruding object monitoring method and intruding object monitoring system |
JP2003219225A (ja) | 2002-01-25 | 2003-07-31 | Nippon Micro Systems Kk | 動体画像監視装置 |
US20050104958A1 (en) * | 2003-11-13 | 2005-05-19 | Geoffrey Egnal | Active camera video-based surveillance systems and methods |
US7629995B2 (en) * | 2004-08-06 | 2009-12-08 | Sony Corporation | System and method for correlating camera views |
US7663662B2 (en) * | 2005-02-09 | 2010-02-16 | Flir Systems, Inc. | High and low resolution camera systems and methods |
US7806604B2 (en) * | 2005-10-20 | 2010-10-05 | Honeywell International Inc. | Face detection and tracking in a wide field of view |
US20070237387A1 (en) | 2006-04-11 | 2007-10-11 | Shmuel Avidan | Method for detecting humans in images |
KR100846500B1 (ko) * | 2006-11-08 | 2008-07-17 | 삼성전자주식회사 | 확장된 가보 웨이브렛 특징 들을 이용한 얼굴 인식 방법 및장치 |
JP4434236B2 (ja) * | 2007-06-11 | 2010-03-17 | ソニー株式会社 | 画像処理装置、画像表示装置、撮像装置、これらの処理方法およびプログラム |
JP2011029905A (ja) * | 2009-07-24 | 2011-02-10 | Fujifilm Corp | 撮像装置、方法およびプログラム |
US8564667B2 (en) * | 2009-08-21 | 2013-10-22 | Empire Technology Development Llc | Surveillance system |
US9082278B2 (en) * | 2010-03-19 | 2015-07-14 | University-Industry Cooperation Group Of Kyung Hee University | Surveillance system |
JP5615088B2 (ja) * | 2010-08-18 | 2014-10-29 | キヤノン株式会社 | 画像処理装置及びその方法、プログラム、並びに撮像装置 |
JP6024952B2 (ja) * | 2012-07-19 | 2016-11-16 | パナソニックIpマネジメント株式会社 | 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム |
KR101385599B1 (ko) * | 2012-09-26 | 2014-04-16 | 한국과학기술연구원 | 몽타주 추론 방법 및 장치 |
CN103780830B (zh) * | 2012-10-17 | 2017-04-12 | 晶睿通讯股份有限公司 | 连动式摄影系统及其多摄影机的控制方法 |
US20160127657A1 (en) * | 2013-06-11 | 2016-05-05 | Sharp Kabushiki Kaisha | Imaging system |
US20150334299A1 (en) * | 2014-05-14 | 2015-11-19 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring system |
-
2015
- 2015-10-15 JP JP2015204049A patent/JP6624878B2/ja active Active
-
2016
- 2016-10-13 US US15/292,691 patent/US10079974B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10079974B2 (en) | 2018-09-18 |
JP2017076909A (ja) | 2017-04-20 |
US20170111576A1 (en) | 2017-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6624878B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR20230013243A (ko) | 프레임에서 타겟 오브젝트를 위한 고정된 크기 유지 | |
US8861806B2 (en) | Real-time face tracking with reference images | |
US9922425B2 (en) | Video segmentation method | |
JP5456159B2 (ja) | 背景から前景の頭頂部を分離するための方法および装置 | |
JP5675233B2 (ja) | 情報処理装置、その認識方法及びプログラム | |
US10096117B2 (en) | Video segmentation method | |
JP4373840B2 (ja) | 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置 | |
JP2010500687A (ja) | デジタル画像取得装置におけるリアルタイムの顔探知 | |
CN106603968B (zh) | 信息处理装置及信息处理方法 | |
JP4764172B2 (ja) | 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム | |
WO2008147724A2 (en) | Methods, systems and apparatuses for motion detection using auto-focus statistics | |
US11019251B2 (en) | Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program | |
US10455144B2 (en) | Information processing apparatus, information processing method, system, and non-transitory computer-readable storage medium | |
US9154682B2 (en) | Method of detecting predetermined object from image and apparatus therefor | |
US9842260B2 (en) | Image processing apparatus and image processing method of performing image segmentation | |
JP5965764B2 (ja) | 映像領域分割装置及び映像領域分割プログラム | |
US9392146B2 (en) | Apparatus and method for extracting object | |
CN116051736A (zh) | 一种三维重建方法、装置、边缘设备和存储介质 | |
JP6452738B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2019067377A (ja) | 画像処理装置及び方法及び監視システム | |
JP2005250778A (ja) | 画像の天地方向判定 | |
JP6776532B2 (ja) | 画像処理装置、撮像装置、電子機器及び画像処理プログラム | |
Song et al. | Object tracking with dual field-of-view switching in aerial videos | |
KR101636481B1 (ko) | 컴파운드뷰 이미지 생성 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191029 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191126 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6624878 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |