JP6304473B2 - 画像処理システム、画像処理方法及びプログラム - Google Patents

画像処理システム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6304473B2
JP6304473B2 JP2013090395A JP2013090395A JP6304473B2 JP 6304473 B2 JP6304473 B2 JP 6304473B2 JP 2013090395 A JP2013090395 A JP 2013090395A JP 2013090395 A JP2013090395 A JP 2013090395A JP 6304473 B2 JP6304473 B2 JP 6304473B2
Authority
JP
Japan
Prior art keywords
image
movement
objects
region
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013090395A
Other languages
English (en)
Other versions
JP2014215679A (ja
Inventor
小西 勇介
勇介 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013090395A priority Critical patent/JP6304473B2/ja
Publication of JP2014215679A publication Critical patent/JP2014215679A/ja
Application granted granted Critical
Publication of JP6304473B2 publication Critical patent/JP6304473B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)

Description

本発明に係るいくつかの態様は、画像処理システム、画像処理方法及びプログラムに関する。
近年、ビデオカメラ(撮影装置)で撮影した映像を利用して、映像に映る物体(例えば人物)の動き等を解析するシステムが考えられている。例えば特許文献1には、固定カメラにより撮影された動画像を用いて、撮影範囲の領域における人物の静止・滞留・集合の度合いが高い箇所を検出する滞留検出システムが開示されている。特許文献1記載の滞留検出システムでは、監視カメラで撮影した撮影範囲の動画像データと、フレーム領域を複数のブロックに分割してなるマトリックスデータとを用いて、人物・動線の情報をマトリックス上にマッピングすることにより、人物・動線が重なるスコアの高いブロックを、滞留箇所として検出している。
特開2011−248836号公報
特許文献1記載の手法は、人物の動線を特定する必要がある。人物の動線を特定するためには、映像内の各画像(フレーム)毎の人物の同一性を判断しなければならない。しかしながら、人物同士の重なりや向きの変化等の影響があるため、人物の同一性の検出の精度は必ずしも高くない。このため、人物検出の結果を用いた動き検出の精度は限定的であった。
本発明のいくつかの態様は前述の課題に鑑みてなされたものであり、好適に物体の動きを検出することのできる画像処理システム、画像処理方法及びプログラムを提供することを目的の1つとする。
本発明に係る情報処理システムは、第1の画像と、前記第1の画像とは異なるタイミングで撮影された1以上の第2の画像との入力を受ける入力手段と、前記第1の画像と前記第2の画像との比較に基づき、前記第1の画像内の各領域の動きを検出する第1の検出手段と、前記第1の画像内の物体位置を検出する第2の検出手段と、前記第1の検出手段で検出された前記第1の画像内の各領域の動きと、前記第2の検出手段で検出された物体位置とを照合する照合手段とを備える。
本発明に係る情報処理方法は、第1の画像と、前記第1の画像とは異なるタイミングで撮影された1以上の第2の画像との入力を受けるステップと、前記第1の画像と前記第2の画像との比較に基づき、前記第1の画像内の各領域の動きを検出するステップと、前記第1の画像内の物体位置を検出するステップと、前記第1の画像内の各領域の動きと、物体位置とを照合するステップとを画像処理システムが行う。
本発明に係るプログラムは、第1の画像と、前記第1の画像とは異なるタイミングで撮影された1以上の第2の画像との入力を受ける処理と、前記第1の画像と前記第2の画像との比較に基づき、前記第1の画像内の各領域の動きを検出する処理と、前記第1の画像内の物体位置を検出する処理と、前記第1の画像内の各領域の動きと、物体位置とを照合する処理とをコンピュータに実行させる。
なお、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されても良い。
本発明によれば、好適に物体の動きを検出することのできる画像処理システム、画像処理方法及びプログラムを提供することができる。
入力画像の具体例を示す図である。 入力画像の具体例を示す図である。 画像領域毎の動きの検出結果の具体例を説明するための図である。 物体検出結果の具体例を説明するための図である。 第1実施形態に係る画像処理システムによる照合方法の具体例を説明するための図である。 第1実施形態に係る画像処理システムによる照合方法の具体例を説明するための図である。 第1実施形態に係る画像処理システムの概略構成を示す機能ブロック図である。 図6に示す画像処理システムの処理の流れを示すフローチャートである。 図6に示す画像処理システムを実装可能なハードウェアの構成を示すブロック図である。 第2実施形態に係る画像処理システムの概略構成を示す機能ブロック図である。
以下に本発明の実施形態を説明する。以下の説明及び参照する図面の記載において、同一又は類似の構成には、それぞれ同一又は類似の符号が付されている。
(1 第1実施形態)
図1A乃至図9は、第1実施形態を説明するための図である。以下、これらの図を参照しながら、以下の流れに沿って本実施形態を説明する。まず、「1.1」で本実施形態に係る動き検出の手法の概要を、具体例を示しながら説明する。次に「1.2」でシステムの機能構成の概要を、「1.3」で処理の流れを、「1.4」で本システムを実現可能なハードウェア構成の具体例を示す。最後に「1.5」以降で、本実施形態に係る効果等を説明する。
(1.1 概要)
(1.1.1 総論)
本実施形態は、例えば監視カメラ等の撮影装置の映像を解析することによって物体の動きを検出するシステムに関する。ここで物体の動きには、各物体の移動の速度や向きの他、移動中であるか滞留中であるかといった二値的な情報も含まれる。
監視カメラの映像のうち、1枚の画像(フレーム)のみからでは、物体検出や物体群の検出を行うことはできるが、物体の動きまでは検出することはできない。また、複数時刻の画像で検出された各物体に対して、それぞれの物体の同一性を判別することにより物体の動きを検出する方法では、物体間のすれ違いや物体が混雑している場合など、物体の追跡が難しい(同一性の判別が難しい)場合には、動き検出の精度が低下することがある。
そこで本実施形態に係る画像処理システムでは、物体の動きを検出する際に、画像内における物体の検出結果と、複数の画像を用いた画像内の各領域に対する動きの検出結果とを照合することにより、物体の動きを検出する。つまり、画像間での物体の同一性を利用せずに物体の動きを検出するため、物体の同一性判別精度の確保が困難な場合であっても、好適に物体の動きを検出することが可能となる。
ここで、動き検出の対象となる物体には、移動する可能性のある物体であれば、車や自転車、バイク、電車、動物等様々なものを含むことができるが、以下の説明では、人物である場合を中心に説明する。
(1.1.2 人物の動き検出の具体例)
以下、図1A乃至図5を参照しながら、本実施形態に係る動き検出の具体例を説明する。図1A及び図1Bは、一定時間内の異なる時刻に撮影装置が撮影した画像(典型的には、映像内の異なる時刻のフレーム。)の具体例を示す図である。図1A、図1B及び図2の画像において、破線で示す直線は画像を領域毎に分けるためのものであり、実際の撮影画像に含まれるものではない。以下、画像内の破線で区切られた各領域を、それぞれ左上から右下にかけて、領域1A乃至6H(数字1乃至6は行を示し、アルファベットA乃至Hは列を示す。)と呼ぶ。
なお、図1A、図1B及び図2に示す具体例では、画像を6行×8列の48領域に分割しているがこれに限られるものではなく、例えば8画素×8画素のマクロブロック等のより細かい領域単位に分割することも考えられる。
(1.1.2.1 画像領域の動き検出)
図1A及び図1Bの画像には、人物P1乃至P6の6名の人物が映っている。図1Aと図1Bとを比較すると、人物P4乃至P6は同じ位置で止まっている一方で、人物P1乃至P3は、それぞれ画像の左前方(左下方)に少し動いている。この人物P1乃至P3の移動に伴い、画像領域2E、2G、3D、3E、3G、4D、4E、5C、5D、6C及び6Dがそれぞれ変化している。
このような画像の変化に基づき、領域毎の動きを検出した結果を示したのが図2である。図2では、画像に変化のあった画像領域2E、2G、3D、3E、3G、4D、4E、5C、5D、6C及び6Dに対して、各領域内の画像が変化した方向や動きが、矢印の長さ及び大きさとして表現されている。すなわち、この矢印は各画像領域の動きベクトルを表現している。
このような画像領域の動き(動きベクトル)は、オプティカルフローに基づいて検出することができる。より具体的には、例えば、図1Aの画像内の各画素の集合と類似する画素集合が、図1Bの画像内のどこにあるかを調べる(ブロックマッチング)こと等により特定することができる。この画像の動きは、人物検出等の結果を用いたものではないため、人物検出後に当該人物の特徴量の類似性などを元に人物の動きを検出する場合よりも、高い精度で動きを検出することができる。
(1.1.2.2 人物検出)
本実施形態に係る画像処理システムは、「1.1.2.1」で説明した各画像領域に対する動き検出と並行して、図1Aに示した画像に対する人物検出を行う。人物検出の手法としては種々考えられるが、例えば、人物全身の画像の特徴量(形状、色、配置等)に基づいて検出する方法や、人物の一部(例えば頭部や顔)の特徴量(形状、色、配置等)に基づいて検出する方法等が挙げられる。このような手法では、人物全身や頭部らしさをしめす特徴量を学習した後、当該学習結果のパラメータを用いて人物全身や頭部が検出される。ここでは、画像処理システムが人物の頭部を検出するものとして説明する。特に撮影装置が空間の上部から撮影する場合には、人物の全身に対して検出処理を行う場合よりも、頭部検出を行った方が、人物同士の重なり等の影響を低減することが可能となる。
図3は、図1Aに示した画像に対して人物頭部の検出を行った際の処理結果を示す画像である。図3の例では、人物P1乃至P6の頭部を検出し、検出された頭部を含む領域が破線の矩形で示されている。
(1.1.2.3 照合の具体例1)
本実施形態に係る画像処理システムは、「1.1.2.1」で具体例を説明した各画像領域に対する動き検出結果と、「1.1.2.2」で具体例を説明した人物検出結果とを照合する。図4に、図2に具体例を示した画像領域の動きの検出結果と、図3に具体例を示した人物検出結果との照合した結果の具体例を示す。
図4の例では、図3の画像において頭部として特定された位置に対応する画像領域4D、2E及び2G(それぞれ、人物P1、P2及びP3の頭部に対応する)に対して、図2の画像において検出された各画像領域の動きを、各人物の動きとして特定している。図4において、矢印は人物の動きを向き及び長さで表現している(但し、図2の矢印と向きは同一であるが、長さはスケーリングしている)。
前述の通り、この手法では、図1Aの画像における人物検出結果と図1Bの画像における人物検出結果の同一性を判別せずに人物の動きを検出しているため、同一性を判別する場合よりも好適に人物の動きを検出できる。
このようにして人物の速度を判別した結果、例えば監視カメラの映像内で、周囲の人物よりも突出して速い速度で移動している人物がいれば、その人物を要注意人物として特定する等の用途に用いることができる。
(1.1.2.4 照合の具体例2)
図5の例は、照合結果を用いて滞留領域を判別する場合の具体例を示す図である。図5の例において斜線で示す領域Rは、図2を参照しながら説明した、動きの検出された画像領域2E、2G、3D、3E、3G、4D、4E、5C、5D、6C及び6Dに対応する。
ここで、人物P4、P5、P6の頭部は、動きの検出された領域R以外の位置にある。すなわち、人物P4、P5、P6は滞留していると判別することができる。また、人物P4、P5及びP6の3名は、比較的狭い領域に密集している。
このように、一定範囲内に複数の人物がおり、更に、それらの人物が停止している、或いは閾値以下の遅い速度で動いている場合には、それらの人物がいる領域は、人の流れが滞留した滞留領域として判別することができる。
このような滞留領域を検出することにより、例えば、監視カメラの映像において一定時間以上滞留が起きていれば、その領域で異常が発生している可能性があることを検出できる。また、ある商品の前に一定期間以上滞留が発生していればその商品は人気があると判断できるなど、マーケティング用途に用いることも考えられる。
(1.2 機能構成)
以下、図6を参照しながら、本実施形態に係る画像処理システム100の機能構成を説明する。図6は、画像処理システム100の機能構成を示すブロック図である。
画像処理システム100は、画像入力部601、画像記憶部603、物体検出部605、動き検出部607、及び照合部609を含む。
画像入力部601は、例えば図示しない監視カメラ等の撮影装置が撮影した映像の入力を受ける。なお、以下では撮影装置により撮影されるリアルタイムの映像を元に人物の動きを検出する場合を中心に説明するが、これに限られるものではなく、例えば、ビデオカメラ200により撮影された後、記憶装置(例えば、HDD(Hard Disk Drive)やVCR(Video Casette Recorder)など)に記憶された映像の入力を受けることも考えられる。
画像入力部601から入力された映像を構成する画像フレームは、画像記憶部603に一時記憶されるとともに、物体検出部605及び動き検出部607へと出力される。
物体検出部605は、図3を参照しながら「1.1.2.2」で説明したように、動きを検出する対象となる物体、ここでは人物の頭部等の検出を行う。人物頭部を検出するために、例えば人物頭部に係る大きさや形状、色彩、配置等に関するパラメータを機械学習などにより取得しておき、当該パラメータを用いて、入力を受けた画像フレームの中から、人物頭部に関する領域を検出する物体検出部605が1枚の画像から検出する物体(例えば人物頭部)の数は複数であっても良い。
この時画像入力部601は、物体の検出を行った上で、予め定められた閾値以上の数の物体が一定範囲内に固まって検出される領域を特定しても良い。
動き検出部607は、図1A、図1B、及び図2を参照しながら「1.1.2.1」で説明したように、原画像とその近傍の時刻の画像(例えば過去画像)から求めたオプティカルフロー等に基づいて、画像内の各領域の動きの大きさ及び方向、それらの集計値を検出する。この時、動き検出部607は、原画像から一定時間分の動き検出を行った上で、それらの平均/最頻/中央値を、各画像領域の動きとすることも考えられる。
照合部609は、物体検出部605で検出した人物検出結果(人物頭部の検出結果)と、動き検出部607で検出した各画像領域の動き検出結果とを照合する。この結果、図4で具体例を示した各人物の動きや、図5で具体例を示した画像内の滞留領域や移動領域の特定等を行うことができる。
或いは、照合部609は、物体検出部605が人物頭部を検出した領域のうち、動き検出部607により動きが検出されなかった画像領域を特定することにより、画像内の滞留領域を特定する。或いは、物体検出部605が人物頭部を検出した領域のうち、動き検出部607により動きが検出された画像領域を特定すれば、画像内の人物移動領域を特定することが可能となる。
(1.3 処理の流れ)
次に、画像処理システム100の処理の流れを、図7を参照しながら説明する。図7は、本実施形態に係る画像処理システム100の処理の流れを示すフローチャートである。
なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して若しくは並列に実行することができ、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行することもでき、便宜上複数に分けて記載されているステップを1ステップとして実行することもできる。
まず、画像入力部601は、図示しない監視カメラ等の撮影装置から画像の入力を受ける(S701)。入力を受けた画像は画像記憶部603に順次記憶される。
動き検出部607は、画像入力部601から入力された画像と、画像記憶部603に記憶された1以上の画像を用いて、各画像領域毎の動きを検出する(S703)。この動き検出の手法については、図2等を参照しながら説明したため、ここでは説明を省略する。
一方、物体検出部605は、画像入力部601から入力を受けた画像に対して、動き検出の対象となる物体の検出を行う(S705)。検出対象となる物体は、前述の通り、例えば人物の全身や頭部、顔等であることが考えられる。物体検出部605による物体の検出方法については、図3等を参照しながら説明したため、ここでは説明を省略する。
照合部609は、物体検出部605で検出した物体検出結果と、動き検出部607で検出した各画像領域の動き検出結果とを照合する(S707)。この結果、各物体の動きの向き及び大きさ(速度)や、移動領域か滞留領域か等を特定することが可能となる。
(1.4 ハードウェア構成)
以下、図8を参照しながら、上述してきた画像処理システム100をコンピュータにより実現する場合のハードウェア構成の一例を説明する。なお前述の通り、画像処理システム100の機能は、複数の情報処理装置により実現することも可能である。
図8に示すように、画像処理システム100は、プロセッサ801、メモリ803、記憶装置805、入力インタフェース(I/F)807、データI/F809、通信I/F811、及び表示装置813を含む。
プロセッサ801は、メモリ803に記憶されているプログラムを実行することにより画像処理システム100における様々な処理を制御する。例えば、図6で説明した画像入力部601、物体検出部605、動き検出部607、及び照合部609に係る処理は、メモリ803に一時記憶された上で主にプロセッサ801上で動作するプログラムとして実現可能である。
メモリ803は、例えばRAM(Random Access Memory)等の記憶媒体である。メモリ803は、プロセッサ801によって実行されるプログラムのプログラムコードや、プログラムの実行時に必要となるデータを一時的に記憶する。例えば、メモリ803の記憶領域には、プログラム実行時に必要となるスタック領域が確保される。
記憶装置805は、例えばハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶装置805は、オペレーティングシステムや、画像入力部601、物体検出部605、動き検出部607、及び照合部609を実現するための各種プログラムを記憶する。また記憶装置805は、画像記憶部603として画像フレームを含む各種データ等を記憶する。記憶装置805に記憶されているプログラムやデータは、必要に応じてメモリ803にロードされることにより、プロセッサ801から参照される。
入力I/F807は、ユーザからの入力を受け付けるためのデバイスである。入力I/F807の具体例としては、キーボードやマウス、タッチパネル、各種センサ等が挙げられる。入力I/F807は、例えばUSB(Universal Serial Bus)等のインタフェースを介して画像処理システム100に接続されても良い。
データI/F809は、画像処理システム100の外部からデータを入力するためのデバイスである。データI/F809の具体例としては、各種記憶媒体に記憶されているデータを読み取るためのドライブ装置等がある。データI/F809は、画像処理システム100の外部に設けられることも考えられる。その場合、データI/F809は、例えばUSB等のインタフェースを介して画像処理システム100へと接続される。
通信I/F811は、画像処理システム100の外部の装置、例えば撮影装置等との間で有線又は無線によりデータ通信するためのデバイスである。通信I/F811は画像処理システム100の外部に設けられることも考えられる。その場合、通信I/F811は、例えばUSB等のインタフェースを介して画像処理システム100に接続される。
表示装置813は、各種情報を表示するためのデバイスである。表示装置813の具体例としては、例えば、液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイ等が挙げられる。表示装置813は、画像処理システム100の外部に設けられても良い。その場合、表示装置813は、例えばディスプレイケーブル等を介して画像処理システム100に接続される。
(1.5 本実施形態に係る効果)
以上説明したように、本実施形態に係る画像処理システム100は、2以上の画像を用いて得られる画像内の各領域の動きと、画像内で検出される物体位置とを用いて、画像内に含まれる各物体の動き(移動の向き及び大きさ)を特定する。
物体同士がすれ違ったり向きが変わったりする場合であっても、画像領域毎の動きは高い精度で取ることができる場合が多いため、好適に物体の動きを検出できるようになる。
(2 第2実施形態)
以下、第2実施形態を、図9を参照しながら説明する。図9は、画像処理システム900の機能構成を示すブロック図である。図9に示すように、画像処理システム900は、入力部910と、第1検出部920と、第2検出部930と、照合部940とを含む。
入力部910は、2以上の画像の入力を受ける。ここでは、入力を受ける画像を、第1の画像と、第1の画像とは異なるタイミングで撮影された1以上の第2の画像と呼ぶ。
第1検出部920は、第1の画像と第2の画像との比較に基づき、第1の画像内の各領域の動きを検出する。
一方、第2検出部930は、第1の画像内の物体位置を検出する。
照合部940は、第1検出部920で検出された第1の画像内の各領域の動きと、第2の検出手段で検出された物体位置とを照合する。
このように実装することで、本実施形態に係る画像処理システム100は、好適に物体の動きを検出することができる。
(3 付記事項)
なお、前述の実施形態の構成は、組み合わせたり或いは一部の構成部分を入れ替えたりしてもよい。また、本発明の構成は前述の実施形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えてもよい。
なお、前述の各実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。また、本発明のプログラムは、上記の各実施形態で説明した各動作を、コンピュータに実行させるプログラムであれば良い。
(付記1)
第1の画像と、前記第1の画像とは異なるタイミングで撮影された1以上の第2の画像との入力を受ける入力手段と、前記第1の画像と前記第2の画像との比較に基づき、前記第1の画像内の各領域の動きを検出する第1の検出手段と、前記第1の画像内の物体位置を検出する第2の検出手段と、前記第1の検出手段で検出された前記第1の画像内の各領域の動きと、前記第2の検出手段で検出された物体位置とを照合する照合手段とを備える画像処理システム。
(付記2)
前記照合手段は、前記第1の検出手段で検出された前記第1の画像内の各領域の動きと、前記第2の検出手段で検出された1以上の物体の物体位置との照合により、前記1以上の物体の移動を判定する、付記1記載の画像処理システム。
(付記3)
前記照合手段は、前記第1の検出手段で検出された前記第1の画像内の各領域の動きと、前記第2の検出手段で検出された1以上の物体の物体位置との照合により、第1の画像内の滞留領域又は移動領域の少なくとも一方を特定する、付記1又は付記2記載の画像処理システム。
(付記4)
前記照合手段は、定められた面積内に閾値以上の物体が存在する領域と、前記第1の検出手段で検出された前記第1の画像内の各領域の動きとを照合する、付記3記載の画像処理システム。
(付記5)
前記第2の検出手段は、移動体の一部である物体の位置を検出する、付記1乃至付記4のいずれか1項記載の画像処理システム。
(付記6)
前記照合手段は、前記1以上の物体の移動方向と移動速度とを判定する、付記2記載の画像処理システム。
(付記7)
第1の画像と、前記第1の画像とは異なるタイミングで撮影された1以上の第2の画像との入力を受けるステップと、前記第1の画像と前記第2の画像との比較に基づき、前記第1の画像内の各領域の動きを検出するステップと、前記第1の画像内の物体位置を検出するステップと、前記第1の画像内の各領域の動きと、物体位置とを照合するステップと
を画像処理システが行う画像処理方法。
(付記8)
前記第1の画像内の各領域の動きと、1以上の物体の物体位置との照合により、前記1以上の物体の移動を判定する、付記7記載の画像処理方法。
(付記9)
前記第1の画像内の各領域の動きと、1以上の物体の物体位置との照合により、第1の画像内の滞留領域又は移動領域の少なくとも一方を特定する、付記7又は付記8記載の画像処理方法。
(付記10)
定められた面積内に閾値以上の物体が存在する領域と、前記第1の検出手段で検出された前記第1の画像内の各領域の動きとを照合する、付記9記載の画像処理方法。
(付記11)
移動体の一部である物体の位置を検出する、付記7乃至付記10のいずれか1項記載の画像処理方法。
(付記12)
前記1以上の物体の移動方向と移動速度とを判定する、付記8記載の画像処理方法。
(付記13)
第1の画像と、前記第1の画像とは異なるタイミングで撮影された1以上の第2の画像との入力を受ける処理と、前記第1の画像と前記第2の画像との比較に基づき、前記第1の画像内の各領域の動きを検出する処理と、前記第1の画像内の物体位置を検出する処理と、前記第1の画像内の各領域の動きと、物体位置とを照合する処理とをコンピュータに実行させるプログラム。
(付記14)
前記第1の画像内の各領域の動きと、1以上の物体の物体位置との照合により、前記1以上の物体の移動を判定させる、付記13記載のプログラム。
(付記15)
前記第1の画像内の各領域の動きと、1以上の物体の物体位置との照合により、第1の画像内の滞留領域又は移動領域の少なくとも一方を特定させる、付記13又は付記14記載のプログラム。
(付記16)
定められた面積内に閾値以上の物体が存在する領域と、前記第1の検出手段で検出された前記第1の画像内の各領域の動きとを照合させる、付記15記載のプログラム。
(付記17)
移動体の一部である物体の位置を検出させる、付記13乃至付記16のいずれか1項記載のプログラム。
(付記18)
前記1以上の物体の移動方向と移動速度とを判定させる、付記14記載のプログラム。
100・・・画像処理システム、200・・・ビデオカメラ、601・・・画像入力部、603・・・画像記憶部、605・・・物体検出部、607・・・動き検出部、609・・・照合部、801・・・プロセッサ、803・・・メモリ、805・・・記憶装置、807・・・入力インタフェース、809・・・データインタフェース、811・・・通信インタフェース、813・・・表示装置、900・・・画像処理システム、910・・・入力部、920・・・第1検出部、930・・・第2検出部、940・・・照合部

Claims (7)

  1. 第1の画像と、前記第1の画像とは異なるタイミングで撮影された1以上の第2の画像との入力を受ける入力手段と、
    前記第1の画像と前記第2の画像との比較に基づき、前記第1の画像内の各領域の動きを検出する第1の検出手段と、
    前記第1の画像において1以上の物体を検出することにより、前記第1の画像内における前記1以上の物体の各々の物体位置を検出する第2の検出手段と、
    前記第1の検出手段で検出された前記第1の画像内の各領域の動きと、前記第2の検出手段で検出された前記1以上の物体の各々の物体位置とを照合することにより、前記第1の画像内における前記1以上の物体の各々の移動方向及び移動速度をそれぞれ判定する照合手段と
    を備える画像処理システム。
  2. 前記照合手段は、前記第1の検出手段で検出された前記第1の画像内の各領域の動きと、前記第2の検出手段で検出された前記1以上の物体の物体位置との照合により、前記1以上の物体の移動を判定する、
    請求項1記載の画像処理システム。
  3. 前記照合手段は、前記第1の検出手段で検出された前記第1の画像内の各領域の動きと、前記第2の検出手段で検出された1以上の物体の物体位置との照合により、第1の画像内の滞留領域又は移動領域の少なくとも一方を特定する、
    請求項1又は請求項2記載の画像処理システム。
  4. 前記照合手段は、定められた面積内に閾値以上の物体が存在する領域と、前記第1の検出手段で検出された前記第1の画像内の各領域の動きとを照合する、
    請求項3記載の画像処理システム。
  5. 前記第2の検出手段は、移動体の一部である物体の位置を検出する、
    請求項1乃至請求項4のいずれか1項記載の画像処理システム。
  6. 第1の画像と、前記第1の画像とは異なるタイミングで撮影された1以上の第2の画像との入力を受けるステップと、
    前記第1の画像と前記第2の画像との比較に基づき、前記第1の画像内の各領域の動きを検出するステップと、
    前記第1の画像において1以上の物体を検出することにより、前記第1の画像内における前記1以上の物体の各々の物体位置を検出するステップと、
    前記第1の画像内の各領域の動きと、前記1以上の物体の各々の物体位置とを照合することにより、前記第1の画像内における前記1以上の各々の物体の移動方向及び移動速度をそれぞれ判定するステップと
    を画像処理システムが行う画像処理方法。
  7. 第1の画像と、前記第1の画像とは異なるタイミングで撮影された1以上の第2の画像との入力を受ける処理と、
    前記第1の画像と前記第2の画像との比較に基づき、前記第1の画像内の各領域の動きを検出する処理と、
    前記第1の画像において1以上の物体を検出することにより、前記第1の画像内における前記1以上の物体の各々の物体位置を検出する処理と、
    前記第1の画像内の各領域の動きと、前記1以上の物体の各々の物体位置とを照合することにより、前記第1の画像内における前記1以上の物体の各々の移動方向及び移動速度をそれぞれ判定する処理と
    をコンピュータに実行させるプログラム。
JP2013090395A 2013-04-23 2013-04-23 画像処理システム、画像処理方法及びプログラム Active JP6304473B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013090395A JP6304473B2 (ja) 2013-04-23 2013-04-23 画像処理システム、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013090395A JP6304473B2 (ja) 2013-04-23 2013-04-23 画像処理システム、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014215679A JP2014215679A (ja) 2014-11-17
JP6304473B2 true JP6304473B2 (ja) 2018-04-04

Family

ID=51941411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013090395A Active JP6304473B2 (ja) 2013-04-23 2013-04-23 画像処理システム、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6304473B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9600896B1 (en) * 2015-11-04 2017-03-21 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting pedestrian flows in videos
JP6427650B1 (ja) 2017-11-21 2018-11-21 三菱電機インフォメーションシステムズ株式会社 追跡装置及び追跡プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4966820B2 (ja) * 2007-10-29 2012-07-04 パナソニック株式会社 混雑推定装置および方法
JP2011248836A (ja) * 2010-05-31 2011-12-08 Nomura Research Institute Ltd 滞留検出システム及びプログラム

Also Published As

Publication number Publication date
JP2014215679A (ja) 2014-11-17

Similar Documents

Publication Publication Date Title
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP5885835B2 (ja) ユーザの眼球の動きによって操作可能なコンピュータ装置、およびそのコンピュータ装置を操作する方法
JP7165742B2 (ja) 生体検出方法及び装置、電子機器ならびに記憶媒体
JP6425856B1 (ja) ビデオ録画方法、サーバー、システム及び記憶媒体
US20200241646A1 (en) On-device classification of fingertip motion patterns into gestures in real-time
US10824935B2 (en) System and method for detecting anomalies in video using a similarity function trained by machine learning
CN107944382B (zh) 目标跟踪方法、装置及电子设备
JP7101805B2 (ja) ビデオ異常検出のためのシステム及び方法
US9811755B2 (en) Object monitoring system, object monitoring method, and monitoring target extraction program
JP5703194B2 (ja) ジェスチャ認識装置、その方法、及び、そのプログラム
JP6551226B2 (ja) 情報処理システム、情報処理方法及びプログラム
US11082634B2 (en) Image processing system, image processing method, and program
US20160042246A1 (en) A haar calculation system, an image classification system, associated methods and associated computer program products
JP2013206458A (ja) 画像における外観及びコンテキストに基づく物体分類
JP4564096B2 (ja) 物体との相互作用を含む複合動作の分類
JP6304473B2 (ja) 画像処理システム、画像処理方法及びプログラム
CN111754571A (zh) 一种姿态识别方法、装置及其存储介质
JP2010146522A (ja) 顔画像追跡装置及び顔画像追跡方法並びにプログラム
US10521653B2 (en) Image processing device, image processing method, and storage medium
CN108875467B (zh) 活体检测的方法、装置及计算机存储介质
US10339660B2 (en) Video fingerprint system and method thereof
WO2020217425A1 (ja) 教師データ生成装置
US20230419508A1 (en) Image processing device and method of detecting objects crossing a crossline and a direction the objects crosses the crossline
JP7494130B2 (ja) 情報処理システム、情報処理方法およびプログラム
JP2007007428A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180220

R150 Certificate of patent or registration of utility model

Ref document number: 6304473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150