JP2006098119A - Object detector, object detection method, and object detection program - Google Patents

Object detector, object detection method, and object detection program Download PDF

Info

Publication number
JP2006098119A
JP2006098119A JP2004282099A JP2004282099A JP2006098119A JP 2006098119 A JP2006098119 A JP 2006098119A JP 2004282099 A JP2004282099 A JP 2004282099A JP 2004282099 A JP2004282099 A JP 2004282099A JP 2006098119 A JP2006098119 A JP 2006098119A
Authority
JP
Japan
Prior art keywords
image
peak
frame
maximum value
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004282099A
Other languages
Japanese (ja)
Other versions
JP4298621B2 (en
Inventor
Hiroyuki Arai
啓之 新井
Takahiko Niimura
貴彦 新村
Midori Mizukami
緑 水上
Tsuyoshi Nakagawa
剛志 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East Japan Railway Co
NTT Data Group Corp
Original Assignee
NTT Data Corp
East Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp, East Japan Railway Co filed Critical NTT Data Corp
Priority to JP2004282099A priority Critical patent/JP4298621B2/en
Publication of JP2006098119A publication Critical patent/JP2006098119A/en
Application granted granted Critical
Publication of JP4298621B2 publication Critical patent/JP4298621B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detector capable of stably detecting an object moving in a designated direction even when the number of the objects is large. <P>SOLUTION: A frame image acquisition part 1 acquires a plurality of frame images from picture data. An optical flow calculation part 4 calculates the optical flow of each pixel in the frame images. A background image preparation part 2 generates a background image in which the moving object is removed from the plurality of frame images. An image difference calculation part 3 calculates the difference between the background image and the frame image to generate a background differential image. A peak detection part 6 adds a pixel value of the background differential image for each axis of the designated direction to detect the maximum value. A direction determination part 7 estimates the moving direction of the maximum value. A peak image generation part 8 generates a peak image in which the maximum value on the axis of the designated direction and the moving direction data acquired from the plurality of frame images are recorded in time series. A track determination part 9 detects the track formed by the maximum value having the designated direction in the peak image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、空港や駅などの大規模施設での指定された方向に動く人等の物体を検知する物体検知装置、物体検知方法および物体検知プログラムに関する。   The present invention relates to an object detection apparatus, an object detection method, and an object detection program for detecting an object such as a person moving in a specified direction in a large-scale facility such as an airport or a station.

従来より、空港や駅などの大規模施設においては、安全管理や防犯の観点から、指定された方向に動く人等の物体を検知したいというニーズがある。   Conventionally, in large-scale facilities such as airports and stations, there is a need to detect an object such as a person moving in a specified direction from the viewpoint of safety management and crime prevention.

エリアセンサ(カメラ)やラインセンサ等を真下向きに設置し、信号処理、画像処理技術により人の移動方向と人数をカウントするシステムが実用化されているが、これらは、いずれも新たにセンサを設置する必要があり、初期投資が大きくなるという問題があった。   Systems that count area sensors (cameras), line sensors, etc. directly downward, and count people's movement direction and number of people using signal processing and image processing technologies have been put into practical use. There was a problem that it was necessary to install it and the initial investment was large.

一方、駅や空港等では既に大量の監視カメラが設置されており、これらを活用して指定された方向に動く人等の物体を検知することができれば、安価なシステム構築が可能になる。このため、既設の監視カメラを用いた逆行者検知技術に期待が持たれている。   On the other hand, a large number of surveillance cameras are already installed at stations, airports, and the like, and if an object such as a person moving in a designated direction can be detected by using these cameras, an inexpensive system can be constructed. For this reason, expectation is given to the retrograde person detection technique using the existing surveillance camera.

また、指定された方向に動く人等の物体を検知する方法としては、画像中の物体を追跡する処理(トラッキング)を利用することが考えられる(例えば特許文献1、特許文献2、特許文献3、特許文献4、特許文献5参照)。なお、トラッキングとは、画像の画素位置を(x,y)、時間をtとするときオブジェクトの軌跡((x,y,t)の軌跡)を求める処理である。
特開平11−083530号公報 特開平10−105712号公報 特開平07−160856号公報 特開平06−266840号公報 特開平07−49952号公報
As a method for detecting an object such as a person moving in a specified direction, it is conceivable to use processing (tracking) for tracking an object in an image (for example, Patent Document 1, Patent Document 2, and Patent Document 3). , Patent Document 4 and Patent Document 5). Note that tracking is a process for obtaining a trajectory of an object (a trajectory of (x, y, t)) when the pixel position of the image is (x, y) and the time is t.
Japanese Patent Laid-Open No. 11-083530 Japanese Patent Laid-Open No. 10-105712 Japanese Patent Laid-Open No. 07-160856 Japanese Patent Laid-Open No. 06-266840 JP 07-49952 A

しかしながら、上述した従来技術では、監視カメラが斜め下向きに設置されている場合、このようなカメラ映像では、物体が画像上で重畳(隠蔽)し、トラッキングが極めて不安定となるという問題があった。また、現状では、斜め下向きに設置された状態で、かつ物体が多い場合にも安定して動作するようなカメラは実現されていない。   However, in the above-described conventional technology, when the surveillance camera is installed obliquely downward, in such a camera image, there is a problem that an object is superimposed (hidden) on the image and tracking becomes extremely unstable. . At present, a camera that operates stably even when it is installed obliquely downward and there are many objects has not been realized.

本発明は、このような事情を考慮してなされたものであり、その目的は、斜め下向きに設置された既存の監視カメラにより、物体が多い場合でも安定して指定された方向に動く物体を検知することができる物体検知装置、物体検知方法および物体検知プログラムを提供することにある。   The present invention has been made in view of such circumstances, and its purpose is to use an existing surveillance camera installed obliquely downward to detect an object that moves stably in a specified direction even when there are many objects. An object of the present invention is to provide an object detection device, an object detection method, and an object detection program capable of detection.

上述した課題を解決するために、本発明は、映像データからフレーム画像を取得し、前記フレーム画像に対して画像処理を行うことにより、指定方向へ動く物体を検知する物体検知装置において、前記映像データから複数のフレーム画像を取得するフレーム画像取得手段と、前記フレーム画像における各画素のオプティカルフローを算出するオプティカルフロー算出手段と、前記複数のフレーム画像から動く物体が排除された背景画像を生成する背景画像作成手段と、前記背景画像と前記フレーム画像との差分を算出して背景差分画像を生成する画像差分算出手段と、前記背景差分画像の画素値を前記指定方向の軸ごとに加算して極大値を検出するピーク検出手段と、前記オプティカルフローの前記指定軸方向の成分の値を前記指定方向の軸ごとに加算し、前記極大値の移動方向を推定する方向判定手段と、前記複数のフレーム画像より取得した、前記指定方向軸上での極大値及び移動方向データを時系列で記録したピーク画像を生成するピーク画像生成手段と、前記ピーク画像において前記指定方向を持つ極大値が形成する軌跡を検知する軌跡判定手段と、を有することを特徴とする物体検知装置である。   In order to solve the above-described problem, the present invention provides an object detection device that detects an object moving in a specified direction by acquiring a frame image from video data and performing image processing on the frame image. Frame image acquisition means for acquiring a plurality of frame images from data, optical flow calculation means for calculating the optical flow of each pixel in the frame image, and a background image from which moving objects are excluded from the plurality of frame images A background image creating unit; an image difference calculating unit that calculates a difference between the background image and the frame image to generate a background difference image; and a pixel value of the background difference image is added for each axis in the specified direction. A peak detecting means for detecting a local maximum value, and a value of a component in the designated axis direction of the optical flow as an axis in the designated direction. And a direction determination means for estimating the moving direction of the maximum value, and a peak image obtained by recording the maximum value and moving direction data on the specified direction axis in time series, obtained from the plurality of frame images. An object detection apparatus comprising: a peak image generation unit to generate; and a trajectory determination unit that detects a trajectory formed by a maximum value having the specified direction in the peak image.

本発明は、上記の発明において、前記軌跡判定手段により前記指定された方向へ移動している物体が検知された場合に警報を発する警報発生手段を具備することを特徴とする。   The present invention is characterized in that, in the above-mentioned invention, alarm generation means for issuing an alarm when an object moving in the designated direction is detected by the trajectory determination means.

本発明は、上記の発明において、前記軌跡判定手段は、所定の時間範囲における前記指定方向に基づいて物体の移動軌跡を判定する際に、断片的な点列から直線を検出するハフ変換を利用することを特徴とする。   According to the present invention, in the above invention, the trajectory determination unit uses a Hough transform that detects a straight line from a fragmentary point sequence when determining the trajectory of the object based on the specified direction in a predetermined time range. It is characterized by doing.

本発明は、映像データからフレーム画像を取得し、前記フレーム画像に対して画像処理を行うことにより、指定方向へ動く物体を検知する物体検知方法において、前記映像データから複数のフレーム画像を取得して前記フレーム画像における各画素のオプティカルフローを算出し、前記複数のフレーム画像から動く物体を排除して背景画像を生成し、前記背景画像と前記フレーム画像との差分を算出して背景差分画像を生成し、前記背景差分画像の画素値を前記指定方向の軸ごとに加算して極大値を検出し、前記オプティカルフローの前記指定軸方向の成分の値を前記指定方向の軸ごとに加算し、前記極大値の移動方向を推定し、前記複数のフレーム画像より取得した前記指定方向軸上での極大値及び移動方向データを時系列で記録したピーク画像を生成し、前記ピーク画像において前記指定方向を持つ極大値が形成する軌跡を検知することを特徴とする物体検知方法である。   The present invention obtains a plurality of frame images from the video data in an object detection method for detecting an object moving in a specified direction by acquiring a frame image from the video data and performing image processing on the frame image. Calculating an optical flow of each pixel in the frame image, generating a background image by removing moving objects from the plurality of frame images, calculating a difference between the background image and the frame image, and calculating a background difference image Generating, adding a pixel value of the background difference image for each axis in the designated direction to detect a local maximum value, adding a value of the component in the designated axis direction of the optical flow for each axis in the designated direction, The movement direction of the local maximum value is estimated, and the local maximum value and the movement direction data on the specified direction axis acquired from the plurality of frame images are recorded in time series. Generating an image, an object detection method characterized by detecting a trajectory the maximum value with the given direction is formed in the peak image.

本発明は、映像データからフレーム画像を取得し、前記フレーム画像に対して画像処理を行うことにより、指定方向へ動く物体を検知する物体検知装置のコンピュータに、前記映像データから複数のフレーム画像を取得するステップと、前記フレーム画像における各画素のオプティカルフローを算出するステップと、前記複数のフレーム画像から動く物体を排除して背景画像を生成するステップと前記背景画像と前記フレーム画像との差分を算出して背景差分画像を生成するステップと、前記背景差分画像の画素値を前記指定方向の軸ごとに加算して極大値を検出するステップと、前記オプティカルフローの前記指定軸方向の成分の値を前記指定方向の軸ごとに加算し、前記極大値の移動方向を推定するステップと、前記複数のフレーム画像より取得した、前記指定方向軸上での極大値及び移動方向データを時系列で記録したピーク画像を生成するステップと、前記ピーク画像において前記指定方向を持つ極大値が形成する軌跡を検知するステップと、を実行させることを特徴とする物体検知プログラムである。   The present invention acquires a plurality of frame images from the video data to a computer of an object detection device that detects a moving object in a specified direction by acquiring a frame image from the video data and performing image processing on the frame image. Obtaining a difference between the background image and the frame image; obtaining an optical flow of each pixel in the frame image; generating a background image by removing moving objects from the plurality of frame images; Calculating a background difference image; adding a pixel value of the background difference image for each axis in the specified direction to detect a maximum value; and a value of a component in the specified axis direction of the optical flow For each axis in the designated direction, estimating the moving direction of the maximum value, and the plurality of frame images Generating a peak image obtained by recording time-series local maximum values and movement direction data on the designated direction axis, and detecting a locus formed by the local maximum value having the designated direction in the peak image. And an object detection program characterized in that

この発明によれば、物体検知装置は、映像データから複数のフレーム画像を取得してフレーム画像における各画素のオプティカルフローを算出し、複数のフレーム画像から動く物体を排除して背景画像を生成する。次に、背景画像とフレーム画像との差分を算出して背景差分画像を生成し、背景差分画像の画素値を指定方向の軸ごとに加算して極大値を検出する。また、オプティカルフローの指定軸方向の成分の値を指定方向の軸ごとに加算し、極大値の移動方向を推定し、複数のフレーム画像より取得した指定方向軸上での極大値及び移動方向データを時系列で記録したピーク画像を生成する。そして、ピーク画像において指定方向を持つ極大値が形成する軌跡を検知する構成となっている。そのため、斜め下向きに設置された既存の監視カメラによって撮影された映像データであっても、オプティカルフローを利用することで指定された方向に動く物体を検知することができる。   According to the present invention, the object detection device acquires a plurality of frame images from video data, calculates an optical flow of each pixel in the frame image, and generates a background image by excluding moving objects from the plurality of frame images. . Next, a difference between the background image and the frame image is calculated to generate a background difference image, and the maximum value is detected by adding the pixel values of the background difference image for each axis in the designated direction. In addition, the value of the component in the specified axis direction of the optical flow is added for each axis in the specified direction, the moving direction of the maximum value is estimated, and the maximum value and moving direction data on the specified direction axis acquired from a plurality of frame images Is generated in time series. And it is the structure which detects the locus | trajectory which the maximum value with a designated direction forms in a peak image. Therefore, even if the video data is captured by an existing surveillance camera installed obliquely downward, an object moving in a designated direction can be detected by using the optical flow.

また、本発明によれば、物体検知装置は、軌跡に基づいて、指定方向へ移動している物体があると判断した場合に警報を発する構成となっている。そのため、警報によって指定された方向に動く物体の存在を知ることが可能となる。   Further, according to the present invention, the object detection device is configured to issue an alarm when it is determined that there is an object moving in the specified direction based on the trajectory. Therefore, it is possible to know the presence of an object that moves in the direction specified by the alarm.

また、本発明によれば、物体検知装置は、指定方向に基づいて物体の軌跡を推定する際に、断片的な点列から直線を検出するハフ変換を利用する構成となっている。そのため、点列で構成された移動軌跡から方向を示す直線を抽出することが可能となり、直線の傾きの違いから指定された方向に動く物体の検知を容易に行うことが可能となる。   According to the present invention, the object detection device is configured to use the Hough transform for detecting a straight line from a fragmentary point sequence when estimating the locus of the object based on the specified direction. Therefore, it is possible to extract a straight line indicating the direction from the movement trajectory configured by the point sequence, and it is possible to easily detect an object moving in the designated direction from the difference in the inclination of the straight line.

以下、本発明を実施するための最良の形態について説明する。   Hereinafter, the best mode for carrying out the present invention will be described.

A.実施形態
本発明は、映像信号や映像ファイルなどの映像データから各瞬間毎の画像であるフレーム画像を取得し、取得されたフレーム画像に対して画像処理を施していくことによって実現される。従って本発明を実施するための装置としては、画像入力機能を持つPC、画像処理手順を装置化した専用の画像処理ボードや画像処理装置など様々な装置の適用が可能であるが、ここではその具体的な装置は限定しない。
A. Embodiments The present invention is realized by acquiring a frame image that is an image for each moment from video data such as a video signal or a video file, and performing image processing on the acquired frame image. Accordingly, various apparatuses such as a PC having an image input function and a dedicated image processing board or an image processing apparatus incorporating an image processing procedure can be applied as an apparatus for carrying out the present invention. A specific apparatus is not limited.

本発明は、人や自動車その他の何らかの物体が、予め指定された方向に移動したことを検知するものである。一例として、空港内の通路など移動方向が限定されている場所において逆方向に移動する人物を監視カメラ映像を用いて検知するようなケースが想定される。以下では、理解を容易にするため逆行者検知のケースを例に説明を進める。   The present invention detects that a person, an automobile, or some other object has moved in a predetermined direction. As an example, a case is assumed where a person who moves in the opposite direction in a place where the moving direction is limited, such as a passage in an airport, is detected using a monitoring camera image. In the following, in order to facilitate understanding, the explanation will be made taking the case of retrograde detection as an example.

本発明では、検知する人物の移動が画像上での上下左右方向(斜めでも良い)の動きとして観測されることが前提となる。したがって、実空間において人物がカメラの光軸方向(つまり画像の奥行き方向)へ移動した場合は、画像上でのサイズは変わるものの位置は不変であり動きは観測されないため、このような撮影条件のケースは本発明の適用対象外となる。   In the present invention, it is assumed that the movement of the person to be detected is observed as a movement in the up / down / left / right direction (which may be oblique) on the image. Therefore, when a person moves in the real space in the direction of the optical axis of the camera (that is, in the depth direction of the image), although the size on the image changes, the position remains unchanged and no movement is observed. Cases are not covered by the present invention.

本発明の基本的な手順と考え方を以下に示す。ここでは通路を横から撮影するケース、つまり移動方向は画像の左右(x軸方向)となるケースを例に説明する。おおまかな処理の手順を以下1)〜4)に示し、基本的な考え方をその後に示す。
1)瞬間毎のx軸上での物体の候補位置を推定する。
2)上記候補位置にある物体のx軸方向の移動方向を推定する。
3)各瞬間毎の候補位置と推定移動方向を時系列状に累積した画像において、検出したい方向の候補位置の軌跡(x-t軌跡)を推定する。
4)推定したx-t軌跡において、その軌跡の確からしさを評価し、確からしいと判断された場合に(逆行として)検知する。
The basic procedure and concept of the present invention are shown below. Here, a case where the passage is photographed from the side, that is, a case where the moving direction is the left and right (x-axis direction) of the image will be described as an example. A rough processing procedure is shown in 1) to 4) below, and a basic concept is shown thereafter.
1) Estimate the candidate position of the object on the x-axis for each moment.
2) The movement direction in the x-axis direction of the object at the candidate position is estimated.
3) In the image obtained by accumulating the candidate position and the estimated moving direction for each moment in time series, the locus (xt locus) of the candidate position in the direction to be detected is estimated.
4) For the estimated xt trajectory, the probability of the trajectory is evaluated, and if it is determined to be probable (detected as a retrograde).

1)2)では移動方向を一次元として大雑把に捉えることにより人物の候補位置および移動方向の推定を安定に行うことが可能となる。例えば画像上で人が複数交錯、重畳しているような場合、各人物の画像上の2次元位置(x、y)を安定に求めることは困難であるが、xだけであればy軸上の情報を加算的に利用すること(後述する背景差分の射影など)によりxの値をより安定に推定することができる。ただし1)2)の各瞬候補位置と移動方向の推定結果は必ずしも正しいとは限らず、ある瞬間では検出されなかったり、ある瞬間では誤った検出が行われたりする。この問題は、3)において断片的な点列から軌跡を検出できるアルゴリズムを適用することにより解決される。詳細はA−1、A−2に示す。   In 1) and 2), it is possible to stably estimate the candidate position and the moving direction of the person by roughly grasping the moving direction as one dimension. For example, in the case where a plurality of people cross and overlap each other on the image, it is difficult to stably obtain the two-dimensional position (x, y) on each person's image. The value of x can be estimated more stably by using the above information in an additive manner (projection of background difference, which will be described later). However, the estimation results of each instantaneous candidate position and moving direction in 1) and 2) are not always correct, and may not be detected at a certain moment or erroneously detected at a certain moment. This problem is solved by applying an algorithm that can detect a trajectory from a fragmentary point sequence in 3). Details are shown in A-1 and A-2.

このような手順により、斜め下向きに設置された既存の監視カメラを用いて、人込みにおける逆行者の検知など、指定方向に動く物体を安定に検知することが可能となる。   With such a procedure, it is possible to stably detect an object moving in a specified direction, such as detection of a retrograde person in a crowd, using an existing surveillance camera installed obliquely downward.

A−1.実施形態の構成
図1は、本発明による物体検知装置の一実施形態である逆行者検知装置の構成を示すブロック図である。図1において、フレーム画像取得部1は、映像データからフレーム画像を取得する。背景画像作成部2は、複数のフレーム画像から背景画像を算出する。ここで、背景画像とは、移動物体(この例の場合は人物)が存在しない画像である。画像差分算出部3は、n番目(現時刻)のフレーム画像と背景画像との画素値の差分(または差分の絶対値)を算出する。背景画像と現時刻のフレーム画像の画素値の差分(の絶対値)をとることにより、現時刻において人物が存在しない場所は0または0に近い差分値、人物が存在する場所に大きな差分値が与えられるような画像である背景差分画像が算出される。
A-1. Configuration of Embodiment FIG. 1 is a block diagram showing a configuration of a retrograde person detection device which is an embodiment of an object detection device according to the present invention. In FIG. 1, a frame image acquisition unit 1 acquires a frame image from video data. The background image creation unit 2 calculates a background image from a plurality of frame images. Here, the background image is an image in which no moving object (in this example, a person) exists. The image difference calculation unit 3 calculates a pixel value difference (or an absolute value of the difference) between the nth (current time) frame image and the background image. By taking the difference (absolute value) between the pixel values of the background image and the frame image at the current time, the difference value is 0 or a difference value near 0 at the current time, and the large difference value is at the place where the person is present. A background difference image which is an image as given is calculated.

また、オプティカルフロー算出部4は、フレーム画像からオプティカルフロー(動きベクトル)を算出する。オプティカルフローは、画像上の座標を(x,y)とした場合、速度ベクトル(u(x,y),v(x,y))として算出される。ここで、u(x,y)は、画素(x,y)で観測されたx方向の速度成分であり、v(x,y)は、画素(x,y)で観測されたy方向の速度成分である。この例のように左右方向の動きにのみ注目する場合は、速度ベクトルのy成分v(x,y)は不要であり、x成分u(x,y)のみを利用する。また、オプティカルフローは、オプティカルフローのx成分u(x,y)が正の値を持つ画素に画素値u(x,y)を与えそれ以外の画素の画素値を0とする右向きフロー画像と、オプティカルフローのx成分u(x,y)が負の値を持つ画素に画素値−u(x,y)を与え、それ以外の画素の画素値を0とする左向きフロー画像との2枚の画像にして表現しておく。   Also, the optical flow calculation unit 4 calculates an optical flow (motion vector) from the frame image. The optical flow is calculated as a velocity vector (u (x, y), v (x, y)) where the coordinates on the image are (x, y). Here, u (x, y) is the velocity component in the x direction observed at the pixel (x, y), and v (x, y) is the y direction observed at the pixel (x, y). It is a velocity component. When attention is paid only to the movement in the left-right direction as in this example, the y component v (x, y) of the velocity vector is unnecessary, and only the x component u (x, y) is used. The optical flow includes a rightward flow image in which a pixel value u (x, y) is given to a pixel in which the x component u (x, y) of the optical flow has a positive value, and the pixel values of other pixels are 0. Two pixels of a left-facing flow image in which the pixel value −u (x, y) is given to a pixel having a negative value in the x component u (x, y) of the optical flow and the pixel values of the other pixels are 0 I express it as an image.

このように2枚の画像として表現するのは、後述する画像射影部において背景画像の射影とオプティカルフロー(x成分)の射影とを求める際に、共通の処理で行えるように画像の表現を揃えるためであり、2枚の画像を作成することは本発明における必須の構成ではない。   In this way, the two images are represented by aligning the representation of the images so that they can be performed by a common process when the projection of the background image and the projection of the optical flow (x component) are obtained in the image projection unit described later. Therefore, creating two images is not an essential configuration in the present invention.

画像射影部5は、任意の画像の画素値をx軸に加算することにより、各x座標毎の加算値である射影データを算出する機能を有しており、背景差分画像の画素値をx座標毎に加算することにより背景差分射影データとして出力する。図6はこのようにx座標ごと(縦方向)の画素数をx軸に投射することで作成された背景差分射影データである。また、画像射影部5は、右向きフロー画像および左向きフロー画像をそれぞれx座標毎(縦方向)に加算することによりフロー射影データとして出力する。ピーク検出部6は、背景差分射影データから射影値の極大値(ピーク)の位置をすべて検出する。   The image projection unit 5 has a function of calculating projection data, which is an addition value for each x coordinate, by adding the pixel value of an arbitrary image to the x-axis. By adding for each coordinate, it is output as background difference projection data. FIG. 6 shows background difference projection data created by projecting the number of pixels for each x coordinate (vertical direction) onto the x axis in this way. Further, the image projection unit 5 adds the right flow image and the left flow image for each x coordinate (vertical direction), and outputs the result as flow projection data. The peak detection unit 6 detects all positions of the maximum value (peak) of the projection value from the background difference projection data.

方向判定部7は、上記ピーク検出部6で検出した極大値(ピーク)位置と、フロー射影データとに従って、各極大値(ピーク)位置での方向(左or右)を判定する。ピーク画像生成部8は、極大値(ピーク)位置の方向に従って、ピーク位置をプロットしたピーク画像を生成する。軌跡判定部9は、ピーク画像にプロットされたピーク位置から逆行方向に並んで直線を描いているピーク位置列(複数)をハフ変換などの点列検出アルゴリズムにより検出し、直線候補毎に付近のピーク点数を算出する。警報発生部10は、上記ピーク点数に従って、逆行している人がいるか判断して警報を発する。
なお、背景差分射影データ、フロー射影データに対して、一次元のガウシアンフィルタなどの平滑化フィルタを施すことにより、ピーク検出及び移動方向の推定をより安定にすることが可能である。
The direction determination unit 7 determines the direction (left or right) at each maximum value (peak) position according to the maximum value (peak) position detected by the peak detection unit 6 and the flow projection data. The peak image generation unit 8 generates a peak image in which the peak positions are plotted according to the direction of the maximum value (peak) position. The trajectory determination unit 9 detects a peak position sequence (plural) that draws a straight line from the peak position plotted in the peak image by a point sequence detection algorithm such as a Hough transform, and for each line candidate, Calculate the peak score. The alarm generation unit 10 determines whether there is a person going backward according to the number of peak points and issues an alarm.
Note that peak detection and estimation of the moving direction can be made more stable by applying a smoothing filter such as a one-dimensional Gaussian filter to the background difference projection data and the flow projection data.

なお、上述したフレーム画像取得手段は、フレーム画像取得部1に対応し、オプティカルフロー算出手段は、オプティカルフロー算出部4に対応し、背景画像作成手段は背景画像作成部2に対応し、画像差分算出手段は、画像差分算出部3に対応する。また、ピーク検出手段は、画像射影部5及びピーク検出部6に対応し、方向判定手段は、方向判定部7に対応し、ピーク画像生成手段は、ピーク画像生成部8に対応し、軌跡判定手段は、軌跡判定部9に対応する。   The above-described frame image acquisition unit corresponds to the frame image acquisition unit 1, the optical flow calculation unit corresponds to the optical flow calculation unit 4, the background image generation unit corresponds to the background image generation unit 2, and the image difference The calculation means corresponds to the image difference calculation unit 3. Further, the peak detection means corresponds to the image projection unit 5 and the peak detection unit 6, the direction determination unit corresponds to the direction determination unit 7, and the peak image generation unit corresponds to the peak image generation unit 8, and the locus determination. The means corresponds to the locus determination unit 9.

A−2.実施形態の動作
次に、上述した実施形態の動作について説明する。ここで、図2は、本実施形態による逆行者検知装置の動作を説明するためのフローチャートである。まず、フレーム画像取得部1により、映像データから複数のフレーム画像を取得する。次に、背景画像作成部2により、上記複数のフレーム画像から背景画像を作成する(S1)。図4はS1において作成された背景画像の図である。背景画像の作成は様々な方法が提案されているが、一例としては、複数のフレーム画像を用いて、画素毎に画素値の最頻値(モード)を検出する方法などがある。
A-2. Operation of Embodiment Next, the operation of the above-described embodiment will be described. Here, FIG. 2 is a flowchart for explaining the operation of the retrograde detection device according to the present embodiment. First, the frame image acquisition unit 1 acquires a plurality of frame images from the video data. Next, the background image creation unit 2 creates a background image from the plurality of frame images (S1). FIG. 4 is a diagram of the background image created in S1. Various methods for creating a background image have been proposed. As an example, there is a method of detecting a mode value (mode) of a pixel value for each pixel using a plurality of frame images.

次に、画像差分算出部3により、背景画像と、n番目のフレーム画像とから、現時刻において人物が存在しない場所は0または0に近い差分値、人物が存在する場所に大きな差分値が与えられるような画像である背景差分画像が算出される。なお、背景差分画像を算出するにあたって、n番目のフレーム画像と背景画像との差分または差分の絶対値を算出した後ガウシアンフィルタなどの平滑化フィルタにより平滑化し、その後、一定の閾値で画素を2値化する処理を行ってもよい。このような処理を施すことにより安定な塊として人物の存在する場所が示された背景差分画像を得ることができる。(S2)図5は、S2において作成された背景差分画像の図である。   Next, from the background image and the n-th frame image, the image difference calculation unit 3 gives 0 or a difference value close to 0 at the current time and a large difference value at the position where the person exists. A background difference image that is an image to be obtained is calculated. In calculating the background difference image, the difference between the nth frame image and the background image or the absolute value of the difference is calculated, and then smoothed by a smoothing filter such as a Gaussian filter. You may perform the process which values. By performing such processing, it is possible to obtain a background difference image showing a place where a person exists as a stable lump. (S2) FIG. 5 is a diagram of the background difference image created in S2.

次に、画像射影部5により、背景差分画像の画素値をx座標毎に加算することにより背景差分射影データを生成する(S3)。図6はS3において作成された背景差分射影データの図である。次に、ピーク検出部6により、背景差分射影データから射影値の極大値(ピーク)の位置を検出する(S4)。該ピーク位置を、x1,x2,x3,…,xj,…とする。   Next, background difference projection data is generated by the image projection unit 5 by adding the pixel values of the background difference image for each x coordinate (S3). FIG. 6 is a diagram of the background difference projection data created in S3. Next, the peak detection unit 6 detects the position of the maximum value (peak) of the projection value from the background difference projection data (S4). The peak positions are x1, x2, x3,..., Xj,.

図3は、複数のフレーム画像列からなる映像データのうちn-1番目のフレーム画像とn番目のフレーム画像の一例である。オプティカルフロー算出部4により、n−1番目のフレーム画像とn番目(現時刻)のフレーム画像とからオプティカルフロー(動きベクトル)を算出する(S5)。また、画像射影部5により、オプティカルフローから左右方向のオプティカルフロー画像を作成する(S6)。図7はそれぞれのフロー画像の一例であり、(a)は左方向のフロー画像、(b)は右方向のフロー画像である。x方向の速度ベクトルである、u(x,y)が0より大であるフローが右方向のフロー画像となり、u(x,y)が0より小であるフローが左向きのフロー画像となる。さらに、画像射影部5により、右向きフロー画像および左向きフロー画像をそれぞれx座標毎(縦方向)に加算することにより、左方向および右方向のフロー射影データとして出力する(S7)。ここで、左方向のフロー射影データをL(x)とし、右方向のフロー射影データをR(x)とする。図8はフロー射影データの一例であり、(a)は左方向のフロー射影データ、(b)は右方向のフロー射影データである。   FIG. 3 is an example of the (n−1) th frame image and the nth frame image among the video data composed of a plurality of frame image sequences. The optical flow calculation unit 4 calculates an optical flow (motion vector) from the (n-1) th frame image and the nth (current time) frame image (S5). Further, the image projection unit 5 creates an optical flow image in the left-right direction from the optical flow (S6). FIG. 7 is an example of each flow image. (A) is a flow image in the left direction, and (b) is a flow image in the right direction. A flow in which the velocity vector in the x direction, u (x, y) is greater than 0, is a flow image in the right direction, and a flow in which u (x, y) is less than 0 is a flow image in the left direction. Further, the image projecting unit 5 adds the right flow image and the left flow image for each x coordinate (vertical direction), and outputs the result as left and right flow projection data (S7). Here, the left flow projection data is L (x), and the right flow projection data is R (x). FIG. 8 shows an example of the flow projection data, where (a) is the left flow projection data and (b) is the right flow projection data.

次に、方向判定部7により、上記ピーク検出部6からのピーク位置と、フロー射影データとに従って、各ピーク位置での方向(左or右)を判定する(S8)。判定方法は、L(x)>R(x)であれば、左向きのピークであるとし、L(x)<R(x)であれば、右方向のピークであるとする。次に、ピーク画像生成部8により、上記ピーク位置に、推定された方向に応じて異なる画素値(例えば、右向きのピークは画素値1、左向きのピークは画素値2、ピークでない画素は0など)をプロットしたピーク画像を生成する(S9)。図9は、生成されたピーク画像の一例である。該ピーク画像は、過去のフレームから取得したピーク位置および方向が時系列状に累積されたものであり、図9のピーク画像の例では、n番目が現時刻のフレームから取得されたピーク位置であり、その下の…n−1が過去のフレームから取得したピーク位置である。   Next, the direction determination unit 7 determines the direction (left or right) at each peak position according to the peak position from the peak detection unit 6 and the flow projection data (S8). The determination method is a leftward peak if L (x)> R (x), and a rightward peak if L (x) <R (x). Next, the peak image generation unit 8 changes the pixel value at the peak position depending on the estimated direction (for example, the pixel value is 1 for the peak in the right direction, the pixel value is 2 for the peak in the left direction, 0 for the non-peak pixel, etc. ) Is generated (S9). FIG. 9 is an example of the generated peak image. The peak image is obtained by accumulating the peak position and direction acquired from the past frame in time series. In the example of the peak image in FIG. 9, the nth is the peak position acquired from the frame at the current time. Yes, n-1 below is a peak position acquired from a past frame.

次に、軌跡判定部9により、ピーク画像にプロットされたピーク位置から逆行方向(この場合、右方向を意味する画素値が与えられているピーク)が直線上に並んでいるところを直線候補として検出する(例えば図9の直線L)(S10)。この直線候補の実現手段の1つとしてハフ変換を利用することができる。ハフ変換は、断片的な点列から直線の候補を検出する画像処理アルゴリズムである。次に、得られた直線候補毎に付近に存在している右向きのピーク点の数をカウントする(S11)。そして、そのピーク点数が予め
設定しておいた閾値より多い場合には、その軌跡が人物の逆行による可能性が高いと判断し、警報を発する(S12)。以下、次のフレームへ進み(S13)、上述した処理を繰り返す。
なお、直線候補を検出する際、検出すべき直線の傾きをある程度限定しておくことができる。図9を例に取ると、右向きに移動する人(物体)は、ピーク画像において右上がりの傾きとなるはずなので、右下がりの直線は検出しないようにすればよい。また、現実的に想定される移動速度がある範囲に限定されている場合には、その範囲に対応する傾きの直線だけを検出すればよい。このように直線候補を限定することにより、誤検出を抑制することができる。
Next, the trajectory determination unit 9 sets a line candidate where a retrograde direction (in this case, a peak to which a pixel value indicating the right direction is given) is aligned on a straight line from the peak position plotted in the peak image. It detects (for example, straight line L in FIG. 9) (S10). Hough transform can be used as one of means for realizing this straight line candidate. The Hough transform is an image processing algorithm for detecting straight line candidates from a fragmentary point sequence. Next, the number of rightward peak points existing in the vicinity for each obtained straight line candidate is counted (S11). If the number of peak points is greater than a preset threshold value, it is determined that there is a high possibility that the trajectory is caused by a person's retrograde movement, and an alarm is issued (S12). Thereafter, the process proceeds to the next frame (S13), and the above-described processing is repeated.
In addition, when detecting a straight line candidate, the inclination of the straight line to be detected can be limited to some extent. Taking FIG. 9 as an example, since a person (object) moving to the right should have an upward slope in the peak image, it is only necessary not to detect a downward straight line. Further, when the moving speed that is realistically assumed is limited to a certain range, only a straight line having an inclination corresponding to the range may be detected. By limiting the straight line candidates in this way, erroneous detection can be suppressed.

以上、説明した実施形態では説明の簡単化のため、逆行者検知のケース、特に人の動きが逆行が左右の動きとして観測されるケースを例に説明した。人の移動方向が完全な左右方向でなく、例えば斜め左下に向かうのが正しい移動方向で斜め右上に向かうのが逆行方向であっても、上記説明と全く同様にx軸に射影して処理を行うことにより、逆行の検知が可能である。一方、通路を真っ直ぐ奥に向かって撮影する場合など画像上での動きが上下方向のみで左右方向の動きが意味を持たない場合には、上記説明のx軸とy軸とを入れ替えることにより同様に適用できる。また、「逆行」に限定せず、「指定された方向への移動」に一般化できることは明らかである。   In the above-described embodiment, for the sake of simplification of explanation, the case of detecting the retrograde person, particularly the case where the human movement is observed as the left-right movement is described as an example. Even if the movement direction of the person is not a perfect left-right direction, for example, even if the correct movement direction is toward the lower left and the reverse direction is toward the upper right, the process is performed by projecting to the x axis in the same manner as described above. By doing so, it is possible to detect retrograde. On the other hand, when the movement on the image is only in the vertical direction and the movement in the horizontal direction is not meaningful, such as when photographing the passage straight in the back, the same can be done by switching the x axis and the y axis described above. Applicable to. Further, it is obvious that the present invention can be generalized to “movement in a specified direction” without being limited to “retrograde”.

また、図4、図5、図7においてそれぞれの処理における画像の一例を示したが、これらの画像が表示されることは本発明における必須の構成ではないことは言うまでもない。   Moreover, although examples of images in the respective processes are shown in FIGS. 4, 5, and 7, it goes without saying that displaying these images is not an essential configuration in the present invention.

さらに、画像射影部5において背景差分射影データと左向き及び右向きのフロー射影データを作成し、極大値と極大値における方向の検出を行ったが必ずしもこれら3枚の画像データを作成することに限定されることはなく、最終的に極大値と極大値における方向の検出を行うことができれば射影画像データの作成処理は省略可能であることは明らかである。   Further, the background projection data and the left and right flow projection data are created in the image projection unit 5 and the direction of the maximum value and the maximum value is detected. However, the image projection unit 5 is not necessarily limited to creating these three pieces of image data. It is clear that the projection image data creation process can be omitted if the maximum value and the direction at the maximum value can be finally detected.

なお、本発明が最も良好に動作する条件の1つは、画像上で注目する移動方向が左右(上下)であり、対象物体が縦長(横長)の場合である。例えば、ほぼ横のほうから通路を撮影し、人(画像上では縦長に映る)の左右方向の移動を対象とする場合などである。このような場合には、射影による候補位置(ピーク)検出を精度よく行えるため、より安定な検出が期待できる。もちろんこの条件を満たさなくとも、本発明の適用は可能であり、これに限定されるものではない。   Note that one of the conditions under which the present invention operates best is when the moving direction of interest on the image is left and right (up and down), and the target object is vertically long (landscape). For example, it is a case where a passage is photographed from substantially the side and a movement of a person (which appears vertically long on the image) in the left-right direction is targeted. In such a case, candidate position (peak) detection by projection can be performed with high accuracy, so that more stable detection can be expected. Of course, even if this condition is not satisfied, the present invention can be applied and is not limited to this.

なお、上述した実施形態においては、フレーム画像取得部1、背景画像作成部2、画像差分算出部3、オプティカルフロー算出部4、画像射影部5、ピーク検出部6、方向判定部7、ピーク画像生成部8、軌跡判定部9は、コンピュータシステム内で実行される。そして、上述したフレーム画像取得部1、背景画像作成部2、画像差分算出部3、オプティカルフロー算出部4、画像射影部5、ピーク検出部6、方向判定部7、ピーク画像生成部8、軌跡判定部9による一連の処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。すなわち、フレーム画像取得部1、背景画像作成部2、画像差分算出部3、オプティカルフロー算出部4、画像射影部5、ピーク検出部6、方向判定部7、ピーク画像生成部8、軌跡判定部9は、CPU等の中央演算処理装置がROMやRAM等の主記憶装置に上記プログラムを読み出して、情報の加工・演算処理を実行することにより、実現されるものである。   In the above-described embodiment, the frame image acquisition unit 1, the background image creation unit 2, the image difference calculation unit 3, the optical flow calculation unit 4, the image projection unit 5, the peak detection unit 6, the direction determination unit 7, and the peak image The generation unit 8 and the trajectory determination unit 9 are executed in a computer system. The frame image acquisition unit 1, the background image creation unit 2, the image difference calculation unit 3, the optical flow calculation unit 4, the image projection unit 5, the peak detection unit 6, the direction determination unit 7, the peak image generation unit 8, the locus described above. A series of processing steps by the determination unit 9 is stored in a computer-readable recording medium in the form of a program, and the above-described processing is performed by the computer reading and executing this program. That is, the frame image acquisition unit 1, the background image creation unit 2, the image difference calculation unit 3, the optical flow calculation unit 4, the image projection unit 5, the peak detection unit 6, the direction determination unit 7, the peak image generation unit 8, and the locus determination unit 9 is realized when a central processing unit such as a CPU reads the above program into a main storage device such as a ROM or a RAM, and executes information processing / arithmetic processing.

ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

本実施形態の逆行者検知装置の構成を示すブロック図である。It is a block diagram which shows the structure of the retrograde person detection apparatus of this embodiment. 同実施形態による逆行者検知装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the retrograde person detection apparatus by the embodiment. 同実施形態による複数のフレーム画像列からなる映像データを示した図である。It is the figure which showed the video data which consists of a some frame image sequence by the embodiment. 同実施形態による背景画像を示した図である。It is the figure which showed the background image by the embodiment. 同実施形態による背景差分画像を示した図である。It is the figure which showed the background difference image by the embodiment. 同実施形態による背景差分射影データを示した図である。It is the figure which showed the background difference projection data by the same embodiment. 同実施形態によるフロー画像を示した図である。It is the figure which showed the flow image by the embodiment. 同実施形態によるフロー射影データを示した図である。It is the figure which showed the flow projection data by the embodiment. 同実施形態によるピーク画像を示した図である。It is the figure which showed the peak image by the same embodiment.

符号の説明Explanation of symbols

1…フレーム画像取得部
2…背景画像作成部
3…画像差分算出部
4…オプティカルフロー算出部
5…画像射影部
6…ピーク検出部
7…方向判定部
8…ピーク画像生成部
9…軌跡判定部
10…警報発生部

DESCRIPTION OF SYMBOLS 1 ... Frame image acquisition part 2 ... Background image creation part 3 ... Image difference calculation part 4 ... Optical flow calculation part 5 ... Image projection part 6 ... Peak detection part 7 ... Direction determination part 8 ... Peak image generation part 9 ... Trajectory determination part 10 ... Alarm generator

Claims (5)

映像データからフレーム画像を取得し、前記フレーム画像に対して画像処理を行うことにより、指定方向へ動く物体を検知する物体検知装置において、
前記映像データから複数のフレーム画像を取得するフレーム画像取得手段と、
前記フレーム画像における各画素のオプティカルフローを算出するオプティカルフロー算出手段と、
前記複数のフレーム画像から動く物体が排除された背景画像を生成する背景画像作成手段と、
前記背景画像と前記フレーム画像との差分を算出して背景差分画像を生成する画像差分算出手段と、
前記背景差分画像の画素値を前記指定方向の軸ごとに加算して極大値を検出するピーク検出手段と、
前記オプティカルフローの前記指定方向の成分の値を前記指定方向の軸ごとに加算し、前記極大値の移動方向を推定する方向判定手段と、
前記複数のフレーム画像より取得した、前記指定方向軸上での極大値及び移動方向データを時系列で記録したピーク画像を生成するピーク画像生成手段と、
前記ピーク画像において前記指定方向を持つ極大値が形成する軌跡を検知する軌跡判定手段と、
を有することを特徴とする物体検知装置。
In an object detection device that detects a moving object in a specified direction by acquiring a frame image from video data and performing image processing on the frame image,
Frame image acquisition means for acquiring a plurality of frame images from the video data;
An optical flow calculating means for calculating an optical flow of each pixel in the frame image;
Background image creating means for generating a background image in which moving objects are excluded from the plurality of frame images;
Image difference calculating means for calculating a difference between the background image and the frame image to generate a background difference image;
Peak detection means for detecting the maximum value by adding the pixel values of the background difference image for each axis in the designated direction;
Direction determining means for adding the value of the component in the designated direction of the optical flow for each axis of the designated direction, and estimating the moving direction of the maximum value;
Peak image generation means for generating a peak image obtained by recording time-series local maximum values and movement direction data on the specified direction axis obtained from the plurality of frame images;
Trajectory determination means for detecting a trajectory formed by the maximum value having the specified direction in the peak image;
An object detection device comprising:
前記軌跡判定手段により前記指定された方向へ移動している物体が検知された場合に警報を発する警報発生手段を具備することを特徴とする請求項1記載の物体検知装置。   The object detection apparatus according to claim 1, further comprising: an alarm generation unit that issues an alarm when an object moving in the designated direction is detected by the trajectory determination unit. 前記軌跡判定手段は、所定の時間範囲における前記指定方向に基づいて物体の移動軌跡を判定する際に、断片的な点列から直線を検出するハフ変換を利用することを特徴とする請求項1または2記載の物体検知装置。   The trajectory determination means uses a Hough transform that detects a straight line from a fragmentary point sequence when determining the movement trajectory of an object based on the specified direction in a predetermined time range. Or the object detection apparatus of 2. 映像データからフレーム画像を取得し、前記フレーム画像に対して画像処理を行うことにより、指定方向へ動く物体を検知する物体検知方法において、
前記映像データから複数のフレーム画像を取得して前記フレーム画像における各画素のオプティカルフローを算出し、前記複数のフレーム画像から動く物体を排除して背景画像を生成し、前記背景画像と前記フレーム画像との差分を算出して背景差分画像を生成し、前記背景差分画像の画素値を前記指定方向の軸ごとに加算して極大値を検出し、前記オプティカルフローの前記指定軸方向の成分の値を前記指定方向の軸ごとに加算し、前記極大値の移動方向を推定し、前記複数のフレーム画像より取得した前記指定方向軸上での極大値及び移動方向データを時系列で記録したピーク画像を生成し、前記ピーク画像において前記指定方向を持つ極大値が形成する軌跡を検知することを特徴とする物体検知方法。
In an object detection method for detecting an object moving in a specified direction by acquiring a frame image from video data and performing image processing on the frame image,
Obtaining a plurality of frame images from the video data, calculating an optical flow of each pixel in the frame image, generating a background image by excluding moving objects from the plurality of frame images, the background image and the frame image To calculate a difference between the pixel and the pixel value of the background difference image is added for each axis in the specified direction to detect a maximum value, and the value of the component in the specified axis direction of the optical flow For each axis in the specified direction, estimating the moving direction of the maximum value, and a peak image in which the maximum value and moving direction data on the specified direction axis acquired from the plurality of frame images are recorded in time series. And detecting a locus formed by a maximum value having the specified direction in the peak image.
映像データからフレーム画像を取得し、前記フレーム画像に対して画像処理を行うことにより、指定方向へ動く物体を検知する物体検知装置のコンピュータに、
前記映像データから複数のフレーム画像を取得するステップと、
前記フレーム画像における各画素のオプティカルフローを算出するステップと、
前記複数のフレーム画像から動く物体を排除して背景画像を生成するステップと
前記背景画像と前記フレーム画像との差分を算出して背景差分画像を生成するステップと、
前記背景差分画像の画素値を前記指定方向の軸ごとに加算して極大値を検出するステップと、
前記オプティカルフローの前記指定軸方向の成分の値を前記指定方向の軸ごとに加算し、前記極大値の移動方向を推定するステップと、
前記複数のフレーム画像より取得した、前記指定方向軸上での極大値及び移動方向データを時系列で記録したピーク画像を生成するステップと、
前記ピーク画像において前記指定方向を持つ極大値が形成する軌跡を検知するステップと、
を実行させることを特徴とする物体検知プログラム。

By acquiring a frame image from video data and performing image processing on the frame image, the computer of the object detection device that detects an object moving in a specified direction,
Obtaining a plurality of frame images from the video data;
Calculating an optical flow of each pixel in the frame image;
Generating a background image by removing moving objects from the plurality of frame images; generating a background difference image by calculating a difference between the background image and the frame image;
Adding a pixel value of the background difference image for each axis in the designated direction to detect a maximum value;
Adding a value of the component in the designated axis direction of the optical flow for each axis in the designated direction, and estimating a moving direction of the maximum value;
Generating a peak image in which time-series recorded local maximum values and movement direction data on the specified direction axis obtained from the plurality of frame images;
Detecting a locus formed by a maximum value having the specified direction in the peak image;
An object detection program characterized by causing

JP2004282099A 2004-09-28 2004-09-28 Object detection apparatus, object detection method, and object detection program Expired - Fee Related JP4298621B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004282099A JP4298621B2 (en) 2004-09-28 2004-09-28 Object detection apparatus, object detection method, and object detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004282099A JP4298621B2 (en) 2004-09-28 2004-09-28 Object detection apparatus, object detection method, and object detection program

Publications (2)

Publication Number Publication Date
JP2006098119A true JP2006098119A (en) 2006-04-13
JP4298621B2 JP4298621B2 (en) 2009-07-22

Family

ID=36238103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004282099A Expired - Fee Related JP4298621B2 (en) 2004-09-28 2004-09-28 Object detection apparatus, object detection method, and object detection program

Country Status (1)

Country Link
JP (1) JP4298621B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110235856A1 (en) * 2010-03-24 2011-09-29 Naushirwan Patuck Method and system for composing an image based on multiple captured images
JP2013156855A (en) * 2012-01-30 2013-08-15 Nippon Telegr & Teleph Corp <Ntt> Method for tracking mobile object and computer program
CN107992899A (en) * 2017-12-15 2018-05-04 四川大学 A kind of airdrome scene moving object detection recognition methods
CN111680543A (en) * 2020-04-23 2020-09-18 北京迈格威科技有限公司 Action recognition method and device and electronic equipment

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266840A (en) * 1993-03-11 1994-09-22 Hitachi Ltd Status detector for moving object
JPH0749952A (en) * 1993-08-06 1995-02-21 Hitachi Ltd Device for monitoring mobile object
JPH07160856A (en) * 1993-12-01 1995-06-23 Mitsui Constr Co Ltd Locus acquiring device of moving object
JPH07225841A (en) * 1993-12-13 1995-08-22 Sharp Corp Picture processor
JPH07262355A (en) * 1994-03-18 1995-10-13 Fuji Electric Co Ltd Image monitoring device
JPH08241414A (en) * 1995-03-07 1996-09-17 Matsushita Electric Ind Co Ltd Moving object detection and trace device and threshold decision device
JPH08315149A (en) * 1995-05-17 1996-11-29 Oki Electric Ind Co Ltd Intruding body recognition device
JPH09210893A (en) * 1996-01-31 1997-08-15 Shimadzu Corp Hardness measuring apparatus
JPH10105712A (en) * 1996-09-30 1998-04-24 Mitsubishi Heavy Ind Ltd Moving body tracking device
JPH1183530A (en) * 1997-09-11 1999-03-26 Fuji Heavy Ind Ltd Optical flow detector for image and self-position recognizing system for mobile body
JP2004096557A (en) * 2002-09-02 2004-03-25 Canon Inc Image processor and image processing method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266840A (en) * 1993-03-11 1994-09-22 Hitachi Ltd Status detector for moving object
JPH0749952A (en) * 1993-08-06 1995-02-21 Hitachi Ltd Device for monitoring mobile object
JPH07160856A (en) * 1993-12-01 1995-06-23 Mitsui Constr Co Ltd Locus acquiring device of moving object
JPH07225841A (en) * 1993-12-13 1995-08-22 Sharp Corp Picture processor
JPH07262355A (en) * 1994-03-18 1995-10-13 Fuji Electric Co Ltd Image monitoring device
JPH08241414A (en) * 1995-03-07 1996-09-17 Matsushita Electric Ind Co Ltd Moving object detection and trace device and threshold decision device
JPH08315149A (en) * 1995-05-17 1996-11-29 Oki Electric Ind Co Ltd Intruding body recognition device
JPH09210893A (en) * 1996-01-31 1997-08-15 Shimadzu Corp Hardness measuring apparatus
JPH10105712A (en) * 1996-09-30 1998-04-24 Mitsubishi Heavy Ind Ltd Moving body tracking device
JPH1183530A (en) * 1997-09-11 1999-03-26 Fuji Heavy Ind Ltd Optical flow detector for image and self-position recognizing system for mobile body
JP2004096557A (en) * 2002-09-02 2004-03-25 Canon Inc Image processor and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110235856A1 (en) * 2010-03-24 2011-09-29 Naushirwan Patuck Method and system for composing an image based on multiple captured images
JP2013156855A (en) * 2012-01-30 2013-08-15 Nippon Telegr & Teleph Corp <Ntt> Method for tracking mobile object and computer program
CN107992899A (en) * 2017-12-15 2018-05-04 四川大学 A kind of airdrome scene moving object detection recognition methods
CN111680543A (en) * 2020-04-23 2020-09-18 北京迈格威科技有限公司 Action recognition method and device and electronic equipment
CN111680543B (en) * 2020-04-23 2023-08-29 北京迈格威科技有限公司 Action recognition method and device and electronic equipment

Also Published As

Publication number Publication date
JP4298621B2 (en) 2009-07-22

Similar Documents

Publication Publication Date Title
JP4966820B2 (en) Congestion estimation apparatus and method
EP2858008B1 (en) Target detecting method and system
KR101822185B1 (en) Method and apparatus for poi detection in 3d point clouds
Lee et al. Real-time illegal parking detection in outdoor environments using 1-D transformation
KR101868903B1 (en) Apparatus and method for tracking human hand by using color features
JP5754990B2 (en) Information processing apparatus, information processing method, and program
JP2008046903A (en) Apparatus and method for detecting number of objects
JP2009198445A (en) Device and method for object detection
US20210042935A1 (en) Object tracker, object tracking method, and computer program
KR101375765B1 (en) Apparatus and method for tracking moving objects by using kaman filter
Dhulavvagol et al. Vehical tracking and speed estimation of moving vehicles for traffic surveillance applications
JP6599644B2 (en) Motion determination device, motion determination method, and motion determination program
JP4298621B2 (en) Object detection apparatus, object detection method, and object detection program
KR101492366B1 (en) Car accident detection method and apparatus
KR20150081797A (en) Apparatus and method for tracking object
KR20160108979A (en) Method and apparatus of tracking targets
WO2014112407A1 (en) Information processing system, information processing method, and program
JP5709255B2 (en) Image processing method and monitoring apparatus
JP4918615B2 (en) Object number detection device and object number detection method
CN106023252A (en) Multi-camera human body tracking method based on OAB algorithm
KR101350460B1 (en) Method and apparatus for removing motion blur of image
JP5293429B2 (en) Moving object detection apparatus and moving object detection method
JP2009205695A (en) Apparatus and method for detecting the number of objects
Joshi Vehicle speed determination using image processing
Srijeyanthan et al. Skeletonization in a real-time gesture recognition system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090407

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090415

R150 Certificate of patent or registration of utility model

Ref document number: 4298621

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120424

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120424

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130424

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130424

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140424

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees