JP6468946B2 - 画像処理方法、画像処理装置、及び画像処理プログラム - Google Patents

画像処理方法、画像処理装置、及び画像処理プログラム Download PDF

Info

Publication number
JP6468946B2
JP6468946B2 JP2015106349A JP2015106349A JP6468946B2 JP 6468946 B2 JP6468946 B2 JP 6468946B2 JP 2015106349 A JP2015106349 A JP 2015106349A JP 2015106349 A JP2015106349 A JP 2015106349A JP 6468946 B2 JP6468946 B2 JP 6468946B2
Authority
JP
Japan
Prior art keywords
frame images
sets
area
person
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015106349A
Other languages
English (en)
Other versions
JP2016218953A (ja
Inventor
泳青 孫
泳青 孫
数藤 恭子
恭子 数藤
行信 谷口
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015106349A priority Critical patent/JP6468946B2/ja
Publication of JP2016218953A publication Critical patent/JP2016218953A/ja
Application granted granted Critical
Publication of JP6468946B2 publication Critical patent/JP6468946B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理方法、画像処理装置、及び画像処理プログラムに係り、特に、動画像の時空間特徴量を求める画像処理方法、画像処理装置、及び画像処理プログラムに関する。
従来、動画像から主要な撮影対象を認識するシーン認識、動画像中の人物、物体等の動作等のイベントを検出するイベント検出等、動画像のシーン解析技術は幅広く行われている。このようなシーン認識、イベント検出等において、人物、物体等の被写体の変化及び状態を精度良く表現するために、時空間特徴量が用いられている。この時空間特徴量は、動画像から抽出された視覚的な特徴量及び動きの特徴量を同時に表現することが可能な特徴量である。
時空間特徴量を算出する方法としては、以下のような手法が知られている。
まず、動画像に含まれる複数のフレーム画像から、空間軸及び時間軸で構成される局所立方体(cuboid)を抽出する。例えば、非特許文献1及び2には、空間軸にガウシアンフィルターを適用し、時間軸にガボールフィルタを適用することにより、局所立方体を抽出する手法が開示されている。次に、抽出した局所立方体に対して、視覚的な特徴量をHistgram of Orient Gradient(HoG)で表現し、動きの特徴量をHistogram of Orient Flow(HoF) Histogramで表現することにより時空間特徴量を算出する。
P. Dollar, G. Cottrell, and S. Belongie, "Behavior recognition via sparse spatio-temporal features", In Proc. of Surveillance and Performance Evaluation of Tracking and Surveillance, pp. 65-72, 2005. Ivan Laptev, Tony Lindeberg, "Local descriptors for spatiotemporal recognition", Spatial Coherence for Visual Motion Analysis Lecture Notes in Computer Science Volume 3667, 2006, pp 91-103.
上記の非特許文献1及び2に示すような時空間特徴量の算出方法では、背景及び被写体を含む画像全体から局所立方体を抽出し、その局所立方体を追跡することにより時空間特徴量を算出する。そのため、撮影の制約を設けない自由な環境で撮影された動画像を処理対象とする場合、画質が粗かったり、背景が複雑であったり、様々な被写体が様々な速度及び方向に変化したりすることにより、局所立方体を量子化してサイズを求めることが困難となる。
例えば、上記のような環境で撮影した動画像では、背景が複雑であったり状況によって被写体が遮蔽されてしまったりする場合がある。その場合、画像全体から1つの特徴量を算出するBoW(bag of visual words)等の従来の時空間特徴量の算出手法では、シーン認識、イベント検出等に用いる情報量が不足してしまったり、不要な特徴点(例えば、背景)を追跡してしまったりしていた。それにより、算出された時空間特徴量は、シーン認識、イベント検出等に必要な主要な被写体への対応関係が不明確となり、動画像の被写体の変化や追跡を行うことが困難となっていた。
本発明は、以上のような事情に鑑みてなされたものであり、人物や被写体の動きを精度良く表現した動画像の時空間特徴量を求めることができる画像処理方法、画像処理装置、及び画像処理プログラムを提供することを目的とする。
上記目的を達成するために、本発明の画像処理方法は、抽出部、人物検出部、動き検出部、被写体検出部、生成部、及び算出部を備えた画像処理装置における画像処理方法であって、前記抽出部が、動画像から複数組のフレーム画像の組を抽出するステップと、前記人物検出部が、前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の何れか一方のフレーム画像から人物領域を検出するステップと、前記動き検出部が、前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の各々のフレーム画像を比較することにより動き領域を検出するステップと、前記被写体検出部が、前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の何れか一方のフレーム画像から被写体領域を検出するステップと、前記生成部が、前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の何れか一方のフレーム画像において、前記人物領域及び前記動き領域の少なくとも一方と、前記被写体領域と、が重複する領域をキー領域として生成するステップと、前記算出部が、前記複数組のフレーム画像の組の各々について生成した前記キー領域から前記動画像の時空間特徴量を算出して出力するステップと、を含む。
なお、前記算出部が前記動画像の時間特徴量を算出して出力するステップは、前記算出部が、前記複数組のフレーム画像の組の各々について生成した前記キー領域の局所特徴点を抽出し、抽出した前記局所特徴点を追跡した追跡情報に基づいて前記時空間特徴量を算出して出力するようにしても良い。
また、前記抽出部が前記フレーム画像の組を抽出するステップは、前記抽出部が、前記動画像から一定の時間間隔の2枚の前記フレーム画像を複数組抽出するようにしても良い。
本発明の画像処理装置は、動画像から複数組のフレーム画像の組を抽出する抽出部と、前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の何れか一方のフレーム画像から人物領域を検出するステップ人物検出部と、前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の各々のフレーム画像を比較することにより動き領域を検出する動き検出部と、前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の何れか一方のフレーム画像から被写体領域を検出する被写体検出部と、前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の何れか一方のフレーム画像において、前記人物領域及び前記動き領域の少なくとも一方と、前記被写体領域と、が重複する領域をキー領域として生成する生成部と、前記複数組のフレーム画像の組の各々について生成した前記キー領域から時空間特徴量を算出して出力する算出部と、を備える。
本発明の画像処理プログラムは、コンピュータに、上記画像処理方法の各ステップを実行させるプログラムである。
本発明によれば、人物や被写体の動きを精度良く表現した動画像の時空間特徴量を求めることができる、という効果が得られる。
実施形態に係る画像処理装置の構成を示すブロック図である。 実施形態に係る画像処理においてフレーム画像の組を抽出する方法の一例を示す模式図である。 実施形態に係る画像処理の流れの一例を示す模式図である。 実施形態に係る1組のフレーム画像の一例を示す正面図である。 実施形態に係る1組のフレーム画像の何れか一方のフレーム画像であって、人物が検出された場合のフレーム画像の一例を示す正面図である。 実施形態に係る1組のフレーム画像の何れか一方のフレーム画像であって、動きが検出されたフレーム画像の一例を示す正面図である。 実施形態に係る1組のフレーム画像の何れか一方のフレーム画像であって、人物又は動きが検出されたフレーム画像の一例を示す正面図である。 実施形態に係る1組のフレーム画像の何れか一方のフレーム画像であって、被写体が検出されたフレーム画像の一例を示す正面図である。 実施形態に係る1組のフレーム画像の何れか一方のフレーム画像であって、キー領域が検出されたフレーム画像の一例を示す正面図である。 実施の形態に係る画像処理装置により実行される画像処理の全体の流れを示すフローチャートである。 実施の形態に係る画像処理装置により実行される時空間特徴量の算出処理のサブルーチンの流れを示すフローチャートである。
以下、図面を参照して、本実施形態に係る画像処理装置を説明する。
本実施形態では、動画像から人物及び動きのある主要被写体を検出し、検出した人物及び主要被写体の動きを追跡して時空間特徴量を生成することにより、動画像からシーンを精度よく認識したり、イベントを精度良く検出したりできるようにする。
本実施形態に係る画像処理装置は、動画像から複数組のフレーム画像の組を抽出し、複数組のフレーム画像の組の各々について、フレーム画像の組の何れか一方のフレーム画像から人物領域を検出する。また、本実施形態に係る画像処理装置は、複数組のフレーム画像の組の各々について、フレーム画像の組の各々のフレーム画像を比較することにより動き領域を検出し、複数組のフレーム画像の組の各々について、フレーム画像の組の何れか一方のフレーム画像から被写体領域を検出する。また、本実施形態に係る画像処理装置は、複数組のフレーム画像の組の各々について、フレーム画像の組の何れか一方のフレーム画像において、人物領域及び動き領域の少なくとも一方と、被写体領域と、が重複する領域をキー領域として生成し、複数組のフレーム画像の組の各々について生成したキー領域から時空間特徴量を算出して出力する。
本実施形態に係る画像処理装置10は、図1に示すように、記憶部18、抽出部20、人物検出部22、動き検出部24、統合部26、被写体検出部28、生成部30、及び算出部32を備えている。
記憶部18は、シーン認識、イベント検出等の対象である動画像情報を記憶している。また、記憶部18は、算出部32で生成された時空間特徴量を示す情報を受信した場合、受信した時空間特徴量を示す情報を記憶する。
抽出部20は、画像処理を行う際に記憶部18から動画像情報を読み込む。また、抽出部20は、読み込んだ動画像情報によって示される動画像に含まれる複数のフレーム画像から、複数組のフレーム画像の組を抽出する。
本実施形態では、一例として図2に示すように、動画像に含まれる複数のフレーム画像40から、動画開始時からt1秒後のフレーム画像40Aと、t1+s秒後のフレーム画像40Bとをペアとした1組のフレーム画像を抽出する。また、本実施形態では、動画開始時からt2秒後のフレーム画像40Cと、t2+s秒後のフレーム画像40Dとをペアとした1組のフレーム画像40を抽出する。
このように、本実施形態では、一定の時間間隔s秒(例えば、1秒)の2枚のフレーム画像40を抽出し、抽出した2枚のフレーム画像40をペアとして組み合わせるが、複数組のフレーム画像40の組の組み合わせ方法はこれに限らない。例えば、時間帯毎に抽出する2枚のフレーム画像40の時間間隔を異ならせても良い。
抽出部20は、上記のようにして抽出した複数組のフレーム画像40の組を示すペアフレーム画像情報を人物検出部22に出力する。
人物検出部22は、ペアフレーム画像情報を取得すると、一例として図3に示すように、1組のフレーム画像40毎に、何れか一方のフレーム画像40Aから人物(顔、体等)を表す人物領域42を検出する。
人物領域42の検出方法としては、公知の手法を適用することができ、例えば、オープンソースのコンピュータビジョン向けライブラリであるOpenCVのhuman detectorを適用することができる。また、検出対象は人物の体の領域を検出しても良く、例えばOpenCVのface detectorを用いて人物の顔の領域を検出しても良い。
一例として図4に示すように、フレーム画像40A、40Bは、例えば、人物A、人物B、自動車C、太陽D等が撮影されたフレーム画像40である。一例として図5に示すように、フレーム画像40Aから、人物領域42として、人物Aが撮影されている人物領域42A、及び人物Bが撮影されている人物領域42Bが検出される。
また、人物検出部22は、検出した人物領域42を表す人物領域情報を、ペアフレーム画像情報と共に動き検出部24に出力する。
動き検出部24は、ペアフレーム画像情報及び人物領域情報を取得すると、ペアフレーム画像情報によって示される1組のフレーム画像40毎に、双方のフレーム画像40A、40Bを比較することにより、動きが発生した動き領域44を検出する。
本実施形態では、1組のフレーム画像40に含まれる2つのフレーム画像40に対して追跡手法を用いることにより、フレーム画像40内において動きが発生している領域を動き領域44として求める。追跡手法としては、公知の手法を適用することができ、例えば、下記の参考文献1に開示されたoptical flowを適用することができる。
[参考文献1]"An iterative image registration technique with an application to stereo vision", Bruce D. Lucas , Takeo Kanade, IJCAI'81 Proceedings of the 7th international joint conference on Artificial intelligence - Volume 2 Pages 674-679.
一例として図6に示すように、フレーム画像40Aから、動き領域44として、人物Aが撮影されている動き領域44A、人物Bが撮影されている動き領域44B、自動車Cが撮影されている動き領域44C、及び太陽Dが撮影されている動き領域44Dが検出される。また、動き検出部24は、検出した動き領域44を示す動き領域情報をペアフレーム画像情報及び人物領域情報と共に統合部26に出力する。
統合部26は、ペアフレーム画像情報、人物領域情報及び動き検出情報を取得すると、人物領域情報及び動き領域情報から、1組のフレーム画像40毎に、人物領域42及び動き領域44をOR演算により統合する。また、統合部26は、1組のフレーム画像40毎に、統合により得られたOR画像から、人物領域42及び動き領域44の少なくとも一方に属する領域である人物動き領域を検出する。具体的には、統合部26は、フレーム画像40において、人物領域42に属さない画素を0に置換した画像と、動き領域44に属さない画素を0に置換した画像とでOR演算を行ってOR画像を生成する。そして、OR画像において残った人物領域42及び動き領域44を、フレーム画像40における人物動き領域46として検出する。
本実施形態では、一例として図3に示すように、フレーム画像40Aにおいて、人物動き領域46を示す人物動き情報が生成される。この際、一例として図7に示すように、フレーム画像40Aから、人物動き領域46として、人物Aが撮影されている人物動き領域46A、人物Bが撮影されている人物動き領域46B、自動車Cが撮影されている人物動き領域46C、及び太陽Dが撮影されている人物動き領域46Dが検出される。
また、統合部26は、人物動き領域46を示す人物動き情報を、ペアフレーム画像情報と共に被写体検出部28に出力する。
被写体検出部28は、ペアフレーム画像情報及び人物動き情報を取得すると、一例として図3に示すように、1組のフレーム画像40毎に、何れか一方のフレーム画像40Aから被写体を表す被写体領域48を検出する。背景を除いた主要な被写体領域48の検出手法としては、公知の検出手法を適用することができ、例えば、下記の参考文献2に開示されているselective search、又はその他の公知の手法を適用することができる。
[参考文献2]"Selective Search for Object Recognition", Jasper R. R. Uijlings, Koen E. A. van de Sande, Theo Gevers, Arnold W. M. Smeulders. International Journal of Computer Vision, Volume 104 (2), page 154-171, 2013.
一例として図8に示すように、フレーム画像40Aから、被写体領域48として、人物Aが撮影されている被写体領域48A乃至48C、人物Bが撮影されている被写体領域48D乃至48G、及び自動車Cが撮影されている被写体領域48H乃至48Mが検出される。なお、被写体領域48Aは人物Aの顔の領域であり、被写体領域48Bは人物Aのズボンのベルト部分を含む領域であり、被写体領域48Cは人物Aの全体の領域である。また、被写体領域48Dは人物Bの帽子を含む領域であり、被写体領域48Eは人物Bの眼鏡を含む領域であり、被写体領域48Fは人物Bのズボンのベルト部分を含む領域であり、被写体領域48Gは人物Bの全体の領域である。また、被写体領域48Hは自動車Cの車体の上に付いている表示の領域であり、被写体領域48Iは自動車Cのフロントウィンドウの領域であり、被写体領域48Jは自動車Cの前方右側に設けられた前照灯の領域であり、被写体領域48Kは自動車Cの前方左側に設けられたタイヤの領域であり、被写体領域48Lは自動車Cの前方右側に設けられたタイヤの領域であり、被写体領域48Mは自動車Cの前方左側に設けられた前照灯の領域である。
また、被写体検出部28は、検出した被写体領域48を表す被写体情報を、ペアフレーム画像情報及び人物動き情報と共に生成部30に出力する。
生成部30は、ペアフレーム画像情報、人物動き情報及び被写体情報を取得すると、一例として図3に示すように、人物動き情報及び被写体情報から、1組のフレーム画像40毎に、人物動き領域46及び被写体領域48をAND演算により統合する。また、生成部30は、1組のフレーム画像40毎に、人物動き領域46であって、かつ被写体領域48でもあるキー領域50、すなわち人物動き領域46及び被写体領域48が重複するキー領域50を検出する。具体的には、生成部30は、フレーム画像40において、人物動き領域46に属さない画素を0に置換した画像と、被写体領域48に属さない画素を0に置換したとした画像とでAND演算を行ってAND画像を生成する。そして、AND画像において残った領域を、フレーム画像40におけるキー領域50として検出する。
本実施形態では、一例として図9に示すように、フレーム画像40Aから、キー領域50として、人物Aが撮影されているキー領域50A、人物Bが撮影されているキー領域50B、及び自動車Cが撮影されているキー領域50Cが検出される。なお、太陽Dが撮影されている人物動き領域46Dは、被写体領域48としては検出されなかったため、キー領域50とは認識されない。
また、生成部30は、キー領域50を示すキー領域情報を、ペアフレーム画像情報と共に算出部32に出力する。
算出部32は、ペアフレーム画像情報及びキー領域画像を取得すると、キー領域50を検出したフレーム画像40毎に、キー領域50から局所特徴点を抽出する。本実施形態では、公知の画像処理技術であるSIFT(Scale-Invariant Feature Transform)を用いて局所特徴点を抽出するが、これに限らず、任意の点を局所特徴点としても良い。また、算出部32は、キー領域50を検出したフレーム画像40間で局所特徴点を追跡した追跡情報を量子化して動画像の時空間特徴量を算出する。
なお、動画像の時空間特徴量の算出方法としては、公知の手法を適用することができ、例えば、参考文献3に開示されている手法を用いればよい。
[参考文献3]"Activity recognition using dense long-duration trajectories", Multimedia and Expo (ICME), 2010 IEEE International Conference on, pp.322 - 327.
また、算出部32は、算出した時空間特徴量を出力して、記憶部18に記憶させる。
なお、本実施形態に係る画像処理装置10は、例えばCPU(Central Processing Unit)、RAM(Random Access Memory)、後述する画像処理プログラム等を含む各種プログラムを記憶するROM(Read Only Memory)を備えたコンピュータ装置で構成される。なお、ROMに代えて不揮発性メモリを用いてもよい。また、画像処理装置10を構成するコンピュータは、ハードディスクドライブ又は不揮発性メモリ等の記憶部を備えていてもよい。また、ハードディスクドライブ等の記憶部にCPUが実行するプログラムが記憶されていてもよい。CPUがROMやハードディスク等の記憶部に記憶されているプログラムを読み出して実行することにより、上記のハードウェア資源とプログラムとが協働し、上記で説明する機能が実現される。
次に、図10及び11を参照して、本実施形態に係る画像処理装置10の処理動作を説明する。図10は、例えば実行指示が入力された場合に本実施形態に係る画像処理装置10により実行される画像処理の全体の流れを示すフローチャートである。図11は、本実施形態に係る画像処理装置10により実行される算出処理のサブルーチンの流れを示すフローチャートである。
ステップS101では、抽出部20が、記憶部18から、シーン認識、イベント検出等の対象とする動画像情報を読み込む。
ステップS103では、抽出部20が、読み込んだ動画像情報によって示される動画像に含まれる複数のフレーム画像40から、複数組のフレーム画像40の組を抽出する。
ステップS105では、人物検出部22が、生成した複数組のフレーム画像40の組から、1組のフレーム画像40を選択する。
ステップS107では、人物検出部22が、1組のフレーム画像40のうちの何れか一方のフレーム画像40から、人物領域42を検出する。
ステップS109では、動き検出部24が、1組のフレーム画像40に含まれる2つのフレーム画像40を比較することにより、動き領域44を検出する。
ステップS111では、統合部26が、1組のフレーム画像40から検出された人物領域42及び動き領域44を統合して、人物動き領域46を生成する。
ステップS113では、被写体検出部28が、1組のフレーム画像40のうちの何れか一方のフレーム画像40から、被写体領域48を検出する。
ステップS115では、生成部30が、人物領域42及び動き領域44の少なくとも一方を含む人物動き領域46と、被写体領域48と、が重複する領域をキー領域50として生成する。
ステップS117では、生成部30が、未処理のフレーム画像40の組がないか否か、すなわちステップS103で生成した複数組のフレーム画像40の全てのフレーム画像40の組についてキー領域50を生成したか否かを判定する。ステップS117で全てのフレーム画像40の組についてキー領域50を生成していないと判定した場合(S117,N)は、ステップS105に戻り、ステップS105で未処理のフレーム画像40の組を抽出して、ステップS107乃至S117の処理を行う。ステップS117で全てのフレーム画像40の組についてキー領域50を生成したと判定した場合(S117,Y)は、ステップS119に移行する。
ステップS119では、算出部32が、時空間特徴量の算出処理を行う。ここで、時空間特徴量の算出処理について、図11に示すフローチャートを参照して詳細に説明する。
ステップS201では、算出部32が、全てのフレーム画像40の組のキー領域50を読み込む。ここでは、全てのフレーム画像40の組の組数をJ個とする。
ステップS203では、算出部32が、変数jをj=1とする。
ステップS205では、算出部32が、J個のフレーム画像40の組のうち、j番目のフレーム画像40の組のキー領域50の局所特徴点を抽出する。
ステップS207では、算出部32が、抽出した局所特徴点をj番目のフレーム画像40の局所特徴点とし、j−1番目のフレーム画像40の局所特徴点からj番目のフレーム画像40の局所特徴点を追跡する。なお、j=1である場合は、本ステップS207の処理を行わずにステップS209に移行する。
ステップS209では、算出部32が、jがJより小さいか否か、すなわち全てのフレーム画像40の組についてステップS205及びS207の処理を行ったか否かを判定する。ステップS209で全てのフレーム画像40の組についてステップS205及びS207の処理を行っていないと判定した場合(S209,N)はステップS211に移行し、全てのフレーム画像40の組についてステップS205及びS207の処理を行ったと判定した場合(S209,Y)はステップS213に移行する。
ステップS211では、算出部32が、jに1を加算し、ステップS205に移行する。
ステップS213では、算出部32が、追跡情報を時空間にて量子化したものを、時空間特徴量として記憶部18に記憶して、本算出処理のルーチンプログラム及び本画像処理プログラムの実行を終了する。
このように、本実施形態に係る画像処理装置10では、背景を除いて人物又は動いている被写体の領域を検出して追跡して、時空間特徴量を算出する。これにより、背景が複雑であったり被写体が遮蔽されてしまったりした場合であっても、イベントやシーンの主要な被写体の動きを精度よく捉えることが可能となる。また、これにより、動画像間の時空間特徴量を用いた類似度照合による類似映像検索、時空間特徴量を用いた学習型のシーン認識及びイベント検出等についても精度良く行うことができる。
なお、本実施形態に係る画像処理装置10が備えている各処理部の各構成は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであっても良い。また、これらの各構成は、メモリおよびCPU(中央演算装置)により構成され、各構成の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
また、本実施形態に係る画像処理装置10の各処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、この発明の実施の形態を図面を参照して詳述してきたが、具体的な構成はこの実施の形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
10 画像処理装置
18 記憶部
20 抽出部
22 人物検出部
24 動き検出部
26 統合部
28 被写体検出部
30 生成部
32 算出部

Claims (4)

  1. 抽出部、人物検出部、動き検出部、被写体検出部、生成部、及び算出部を備えた画像処理装置における画像処理方法であって、
    前記抽出部が、動画像から複数組のフレーム画像の組を抽出するステップと、
    前記人物検出部が、前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の何れか一方のフレーム画像から人物領域を検出するステップと、
    前記動き検出部が、前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の各々のフレーム画像を比較することにより動き領域を検出するステップと、
    前記被写体検出部が、前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の何れか一方のフレーム画像から被写体領域を検出するステップと、
    前記生成部が、前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の何れか一方のフレーム画像において、前記人物領域及び前記動き領域のOR演算により統合された領域と、前記被写体領域と、が重複する領域をキー領域として生成するステップと、
    前記算出部が、前記複数組のフレーム画像の組の各々について生成した前記キー領域から前記動画像の時空間特徴量を算出して出力するステップと、
    を含む画像処理方法。
  2. 前記算出部が前記動画像の時間特徴量を算出して出力するステップは、前記算出部が、前記複数組のフレーム画像の組の各々について生成した前記キー領域の局所特徴点を抽出し、抽出した前記局所特徴点を追跡した追跡情報に基づいて前記時空間特徴量を算出して出力する
    請求項1記載の画像処理方法。
  3. 前記抽出部が前記フレーム画像の組を抽出するステップは、前記抽出部が、前記動画像から一定の時間間隔の2枚の前記フレーム画像を複数組抽出する
    請求項1又は2記載の画像処理方法。
  4. 動画像から複数組のフレーム画像の組を抽出する抽出部と、
    前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の何れか一方のフレーム画像から人物領域を検出する人物検出部と、
    前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の各々のフレーム画像を比較することにより動き領域を検出する動き検出部と、
    前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の何れか一方のフレーム画像から被写体領域を検出する被写体検出部と、
    前記複数組のフレーム画像の組の各々について、前記フレーム画像の組の何れか一方のフレーム画像において、前記人物領域及び前記動き領域のOR演算により統合された領域と、前記被写体領域と、が重複する領域をキー領域として生成する生成部と、
    前記複数組のフレーム画像の組の各々について生成した前記キー領域から時空間特徴量を算出して出力する算出部と、
    を備えた画像処理装置。
JP2015106349A 2015-05-26 2015-05-26 画像処理方法、画像処理装置、及び画像処理プログラム Active JP6468946B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015106349A JP6468946B2 (ja) 2015-05-26 2015-05-26 画像処理方法、画像処理装置、及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015106349A JP6468946B2 (ja) 2015-05-26 2015-05-26 画像処理方法、画像処理装置、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2016218953A JP2016218953A (ja) 2016-12-22
JP6468946B2 true JP6468946B2 (ja) 2019-02-13

Family

ID=57579035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015106349A Active JP6468946B2 (ja) 2015-05-26 2015-05-26 画像処理方法、画像処理装置、及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6468946B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3230950B2 (ja) * 1994-06-07 2001-11-19 松下電器産業株式会社 放置物体検出装置
US7982774B2 (en) * 2004-09-13 2011-07-19 Sony Corporation Image processing apparatus and image processing method
JP2007164375A (ja) * 2005-12-12 2007-06-28 Nippon Syst Wear Kk 三次元対象物の検出装置、検出方法、コンピュータ可読媒体及び三次元対象物の管理システム
JP2007199864A (ja) * 2006-01-24 2007-08-09 Matsushita Electric Ind Co Ltd 画像列生成方法および画像列生成装置
JP5402625B2 (ja) * 2009-09-29 2014-01-29 パナソニック株式会社 ステレオ画像処理を用いた車両検出装置
JP6145373B2 (ja) * 2013-09-27 2017-06-14 株式会社京三製作所 人数カウント装置

Also Published As

Publication number Publication date
JP2016218953A (ja) 2016-12-22

Similar Documents

Publication Publication Date Title
Wang et al. Static and moving object detection using flux tensor with split Gaussian models
Charfi et al. Optimized spatio-temporal descriptors for real-time fall detection: comparison of support vector machine and Adaboost-based classification
TW201701187A (zh) 手勢檢測識別方法及系統
KR101872811B1 (ko) 행동 패턴 인식 장치, 행동 패턴 인식 방법 및 행동 패턴 분류기 생성 방법
Panchal et al. A review on object detection and tracking methods
KR20190118619A (ko) 보행자 추적 방법 및 전자 디바이스
CN115294420A (zh) 一种特征提取模型的训练方法、重识别方法及装置
Zhou et al. A study on attention-based LSTM for abnormal behavior recognition with variable pooling
Khan et al. Robust head detection in complex videos using two-stage deep convolution framework
KR101648786B1 (ko) 객체 인식 방법
Khan et al. Review on moving object detection in video surveillance
Shreve Automatic macro-and micro-facial expression spotting and applications
Lobachev et al. Machine learning models and methods for human gait recognition
Hossain et al. A real-time face to camera distance measurement algorithm using object classification
JP6468946B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
Schneider Visual hull
Hammouche et al. Toward a real time view-invariant 3d action recognition
Shao et al. A comparative study of video-based object recognition from an egocentric viewpoint
JP5995943B2 (ja) 映像特徴抽出装置、方法、及びプログラム
Mukhtar et al. RETRACTED: Gait Analysis of Pedestrians with the Aim of Detecting Disabled People
Iosifidis et al. Human action recognition in stereoscopic videos based on bag of features and disparity pyramids
Peng et al. Multi-camera pedestrian detection with multi-view bayesian network model.
Raghavendra et al. Improved face recognition at a distance using light field camera & super resolution schemes
Collins et al. Gait based gender recognition using sparse spatio temporal features
Yang et al. Visual-GPS: ego-downward and ambient video based person location association

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190115

R150 Certificate of patent or registration of utility model

Ref document number: 6468946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150