JP2014074977A - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2014074977A JP2014074977A JP2012221034A JP2012221034A JP2014074977A JP 2014074977 A JP2014074977 A JP 2014074977A JP 2012221034 A JP2012221034 A JP 2012221034A JP 2012221034 A JP2012221034 A JP 2012221034A JP 2014074977 A JP2014074977 A JP 2014074977A
- Authority
- JP
- Japan
- Prior art keywords
- area
- frame image
- window
- prediction
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
この発明は、人物や物体等のオブジェクトの検出と追跡を行なう画像処理装置及びそのプログラムに関し、高速に検出を行い、少ない特徴量でオブジェクトの追跡を確実に行えるようにすることで、オブジェクトの検出と追跡がリアルタイムで行うことを可能にしたものである。 The present invention relates to an image processing apparatus and its program for detecting and tracking an object such as a person or an object, and detecting the object by performing high-speed detection and reliably tracking the object with a small amount of features. And tracking can be done in real time.
定点カメラで来場者映像を撮影し、人物を検出して追跡するシステムは、来場者の人数を計測し、年齢や性別を調査するために検討されてきている。 A system that captures a visitor's video with a fixed-point camera, detects and tracks a person, has been studied to measure the number of visitors and investigate the age and gender.
撮影したオブジェクト、特に人物検出の手法としては、HOG(Histograms of oriented Gradients)と呼ばれる輝度勾配ヒストグラムを特徴量とした識別手法が広く用いられている。 As a method for detecting a photographed object, particularly a person, an identification method called a HOG (Histograms of oriented Gradients) using a luminance gradient histogram as a feature amount is widely used.
上記のHOG特徴量を用いた人物検出においては、精度高く人物検出が行える一方、計算に時間がかかるという問題があった。また、人物の追跡(トラッキング)においては、プライバシーへの配慮から各クレーム画像を高速にリアルタイムに処理を行って画像を捨てる必要があるため、人物のトラッキングを行う場合に適用することは困難であった。また、人物の追跡についても高速に行う必要がある。 The person detection using the above HOG feature amount has a problem that it can perform person detection with high accuracy, but takes time for calculation. Also, in tracking people, it is difficult to apply to tracking people because it is necessary to process each complaint image in real time at high speed and discard the images in consideration of privacy. It was. In addition, it is necessary to track a person at high speed.
本発明は、人物や物体等のオブジェクト検出及び追跡を高速に行え、検出精度を向上させた画像処理装置に関する。 The present invention relates to an image processing apparatus capable of detecting and tracking an object such as a person or an object at high speed and improving detection accuracy.
本発明の画像処理装置は、入力フレーム画像からオブジェクトが存在するオブジェクトウィンドウを検出するオブジェクト検出部と、オブジェクト検出部で検出された複数の近傍のオブジェクトウィンドウをクラスタリングで統合することで、オブジェクト領域を設定するクラスタリング統合部と、オブジェクト領域をオブジェクト候補領域とし、過去のフレーム画像のオブジェクト領域に基づいて予測される領域をオブジェクト予測領域とし、ウィンドウ幅の差異が所定範囲内であるオブジェクト候補領域であって、かつ前記オブジェクト予測領域から最短距離にあるオブジェクト候補領域について、前記過去のフレーム画像のオブジェクト領域と関連付けて登録するオブジェクトトラッキング部と、を有する画像処理装置を提供する。 The image processing apparatus of the present invention integrates an object detection unit that detects an object window in which an object exists from an input frame image, and a plurality of neighboring object windows detected by the object detection unit by clustering, thereby obtaining an object region. The clustering integration unit to be set, the object region as the object candidate region, the region predicted based on the object region of the past frame image as the object prediction region, and the object candidate region whose window width difference is within the predetermined range. And an object tracking unit that registers an object candidate area that is at the shortest distance from the object prediction area in association with the object area of the past frame image.
上記画像処理装置において、オブジェクトトラッキング部は、複数のオブジェクト候補領域のうち、ウィンドウ幅の差異が所定範囲内であって、オブジェクト予測領域から所定の距離内にあるオブジェクト候補領域を関連オブジェクト候補領域として抽出し、関連オブジェクト候補領域のうち、オブジェクト予測領域から最短距離にある関連オブジェクト候補領域について、前記過去のフレーム画像のオブジェクト領域と関連付けて登録するようにしてもよい。 In the image processing apparatus, the object tracking unit uses, as a related object candidate area, an object candidate area that has a window width difference within a predetermined range and is within a predetermined distance from the object prediction area among the plurality of object candidate areas. The related object candidate area that is the shortest distance from the object prediction area among the related object candidate areas may be extracted and registered in association with the object area of the past frame image.
上記画像処理装置において、オブジェクトトラッキング部は、オブジェクト候補領域が、二以上のオブジェクト予測領域に関連付けられた場合、オブジェクト候補領域から最短距離にあるオブジェクト予測領域に対応する過去のフレーム画像のオブジェクト領域にのみ関連付けて登録するようにしてもよい。 In the above image processing device, the object tracking unit, when the object candidate area is associated with two or more object prediction areas, displays the object area of the past frame image corresponding to the object prediction area at the shortest distance from the object candidate area. May be registered in association with each other.
また、上記画像処理装置において、オブジェクトトラッキング部は、過去のフレーム画像のオブジェクト領域に付与されている識別子と同一の識別子をオブジェクト候補領域に付与することで関連付けて登録するようにしてもよい。 Further, in the image processing apparatus, the object tracking unit may be associated and registered by assigning the same identifier as the identifier assigned to the object region of the past frame image to the object candidate region.
上記画像処理装置において、オブジェクトトラッキング部は、二フレーム前のフレーム画像の第一のオブジェクト領域と、第一のオブジェクト領域と関連付けられた一フレーム前のフレーム画像における第二のオブジェクト領域における座標の変化量に基づいて入力フレーム画像におけるオブジェクト予測領域を決定してもよい。 In the image processing apparatus, the object tracking unit may change the coordinates of the first object area of the frame image two frames before and the second object area of the frame image one frame before associated with the first object area. The object prediction region in the input frame image may be determined based on the amount.
上記画像処理装置において、オブジェクトトラッキング部は、二フレーム前のフレーム画像に関連付けられたオブジェクト領域がない場合には、一フレーム前のフレーム画像におけるオブジェクト領域の座標から所定量変化させることで、入力フレーム画像におけるオブジェクト予測領域を決定してもよい。 In the above image processing apparatus, when there is no object area associated with the frame image two frames before, the object tracking unit changes the input frame by changing a predetermined amount from the coordinates of the object area in the frame image one frame before. The object prediction area in the image may be determined.
上記画像処理装置において、オブジェクト検出部は、入力フレーム画像にウィンドウを設け、ウィンドウ内を所定領域を有するブロックでオーバーラップスキャンすることで、ウィンドウの特徴量を算出し、算出した特徴量に基づいてオブジェクトウィンドウを検出してもよい。 In the image processing apparatus, the object detection unit calculates a feature amount of the window by providing a window in the input frame image and performing an overlap scan in the window with a block having a predetermined area, and based on the calculated feature amount. An object window may be detected.
上記画像処理装置において、オブジェクト検出部は、オーバーラップスキャンする場合に、スキャンレイヤごとに、オーバーラップ領域の特徴量は一度算出した特徴量を再利用することで、ウィンドウの特徴量を算出してもよい。 In the above image processing apparatus, when the overlap detection is performed, the object detection unit calculates the feature amount of the window by reusing the feature amount once calculated as the overlap region feature amount for each scan layer. Also good.
本発明は、入力フレーム画像からオブジェクトが存在するオブジェクトウィンドウを検出するステップ、検出された複数の近傍のオブジェクトウィンドウをクラスタリングで統合することで、オブジェクト領域を設定するステップ、オブジェクト領域をオブジェクト候補領域とし、過去のフレーム画像のオブジェクト領域に基づいて予測される領域をオブジェクト予測領域とし、ウィンドウ幅の差異が所定範囲内であるオブジェクト候補領域であって、かつ前記オブジェクト予測領域から最短距離にあるオブジェクト候補領域について、過去のフレーム画像のオブジェクト領域と関連付けて登録するステップを有する画像処理方法を提供する。 The present invention includes a step of detecting an object window in which an object exists from an input frame image, a step of setting an object region by integrating a plurality of detected object windows in a vicinity, and an object region as an object candidate region. An object predicted area based on an object area of a past frame image is set as an object predicted area, and an object candidate having a window width difference within a predetermined range and having the shortest distance from the object predicted area An image processing method including a step of registering an area in association with an object area of a past frame image is provided.
また、本発明は、コンピュータに、入力フレーム画像からオブジェクトが存在するオブジェクトウィンドウを検出するステップ、検出された複数の近傍のオブジェクトウィンドウをクラスタリングで統合することで、オブジェクト領域を設定するステップ、前記オブジェクト領域をオブジェクト候補領域とし、過去のフレーム画像のオブジェクト領域に基づいて予測される領域をオブジェクト予測領域とし、ウィンドウ幅の差異が所定範囲内であるオブジェクト候補領域であって、かつオブジェクト予測領域から最短距離にあるオブジェクト候補領域について、過去のフレーム画像のオブジェクト領域と関連付けて登録するステップと、を実行させるプログラムを提供する。 Further, the present invention includes a step of detecting an object window in which an object exists from an input frame image in a computer, a step of setting an object region by integrating a plurality of detected object windows in a vicinity by clustering, and the object The area is an object candidate area, the area predicted based on the object area of the past frame image is the object prediction area, the object candidate area has a window width difference within a predetermined range, and is the shortest from the object prediction area There is provided a program for executing a step of registering an object candidate area at a distance in association with an object area of a past frame image.
本発明によれば、入力フレーム画像において、過去フレーム画像に基づいてオブジェクト予測領域を設定し、オブジェクト検出部においてオブジェクトが存在するとして検出されたオブジェクト候補領域であって、所定条件を満たしかつ最短距離にあるオブジェクト候補領域を過去フレーム画像のオブジェクト領域と関連付けて登録することができるため、同一人物をフレーム画像間でトラッキングすることが可能となる。 According to the present invention, in an input frame image, an object prediction region is set based on a past frame image, and is an object candidate region detected by the object detection unit as an object, satisfying a predetermined condition and having the shortest distance Can be registered in association with the object area of the past frame image, so that the same person can be tracked between the frame images.
また、トラッキング処理において、ヒストグラムや色情報などの比較を行うことなく、トラッキングを行うため、リアルタイムでトラッキング処理を行うことができる。さらに、オブジェクト候補領域は、輝度等の特徴量に基づいて検出されているため、少ないパラメータであっても精度高くトラッキングを行うことができる。 Further, since tracking is performed without comparing histograms or color information in the tracking process, the tracking process can be performed in real time. Furthermore, since the object candidate area is detected based on a feature quantity such as luminance, tracking can be performed with high accuracy even with a small number of parameters.
さらに、オブジェクト検出部において、入力フレーム画像にウィンドウを設け、ウィンドウ内の所定領域を有するブロックでオーバーラップスキャンし、オーバーラップスキャンするときに、スキャンレイヤごとに、一度算出した特徴量を再利用することで高速にオブジェクト検出を行うことができる。 Further, in the object detection unit, a window is provided in the input frame image, overlap scan is performed with a block having a predetermined area in the window, and the feature amount calculated once is reused for each scan layer when performing overlap scan. Thus, object detection can be performed at high speed.
この発明を画像内に撮影されている人物の上半身領域を検出し、人物のトラッキングに適用した実施の形態を以下に説明する。この実施の形態では、カメラが所定の位置に設置され、撮影場所を通過する人物を撮影している。撮影された画像から人物を検出し、フレーム画像間でトラッキングを行うことで、一人の人物を動画像において追跡を行う。但し、ここでは人物の上半身領域であるが、検出するオブジェクトは人物の上半身に限らず、他の人物の一部分、目や鼻などであってもよく、また、車や車のナンバープレートなど、物体や物体の一部であってもよい。 An embodiment in which the present invention is applied to person tracking by detecting the upper body area of a person photographed in an image will be described below. In this embodiment, a camera is installed at a predetermined position, and a person passing through a shooting location is shot. A person is detected in the moving image by detecting a person from the captured image and performing tracking between the frame images. However, although it is the upper body area of the person here, the object to be detected is not limited to the upper body of the person, but may be a part of another person, eyes or nose, or an object such as a car or a car license plate. Or part of an object.
図1は、本発明にかかる一つの実施形態における画像処理装置のブロック図の一例である。画像処理装置100は、画像記憶部10、スキャンテーブル記憶部11、オブジェクト検出部12、クラスタリング都合部13、オブジェクトトラッキング部14と、を有する。画像記憶部10は、ネットワークや有線ケーブル等を介して接続されるカメラから入力される画像を記憶する。カメラは、動画像を撮像しており、画像処理装置100には、動画像の時系列データである画像データが、例えば、通信インターフェースを介して、順次入力される。入力される各々の画像データはフレーム画像である。入力されたフレーム画像は、画像記憶部10に順次、一時的又は長期間記憶される。
FIG. 1 is an example of a block diagram of an image processing apparatus according to an embodiment of the present invention. The
スキャンテーブル記憶部11は、フレーム画像をスキャンする際のウィンドウサイズやスキャンストライドの値、ウィンドウの数などを記憶しているテーブルである。フレーム画像からオブジェクト検出処理を行う際に、画像にウィンドウを設定し、ウィンドウ内をオーバーラップさせながらスキャンすることで当該ウィンドウ内の特徴量を算出している。ウィンドウサイズは様々なものが設定可能であり、ウィンドウサイズによってスキャンストライド値や画像データ全体をスキャンするために必要なウィンドウ数が変化するため、ウィンドウサイズに対応づけてテーブルとして記憶しており、オブジェクト検出部12は、スキャンテーブル記憶部11からスキャンテーブルを読み出して、所定のウィンドウサイズでスキャンを行う。
The scan
オブジェクト検出部12は、画像記憶部10に記憶されたフレーム画像を順次読み出して、入力フレーム画像からオブジェクトが存在するオブジェクトウィンドウの検出処理を行う。例えば、オブジェクト検出部12は、スキャンテーブル記憶部11からスキャンテーブルを読み出して、予め決められたスキャンレイヤのウィンドウサイズで、入力フレーム画像全体において探索する。一例として、定められたウィンドウサイズを有するウィンドウ内で所定のスキャンストライド値でオーバーラップスキャンを行うことで、ウィンドウ内の輝度勾配方向ヒストグラムを生成し、HOG特徴量を算出する。
The
例えば、人物の上半身をオブジェクトとして検出する場合、オブジェクト検出部12は、サポート・ベクター・マシン(SVM)などを用いて、輝度勾配方向ヒストグラムの特徴量(HOG特徴量)を予め学習しておき、SVM識別器を得ておく。そして、入力フレーム画像から抽出されたHOG特徴量が人物の上半身かどうかを、SVM識別器によって評価することで、人物の上半身の領域であるオブジェクトウィンドウを検出する。つまりSVM識別器によって、人物の上半身である特徴量を有するウィンドウを、オブジェクトウィンドウとして検出する。
For example, when detecting the upper body of a person as an object, the
また、オブジェクト検出部12は、様々なウィンドウサイズを有するウィンドウで入力フレーム画像内を逐次スキャンを行って、上半身が撮影されている領域であるオブジェクト領域を検出する。
In addition, the
クラスタリング統合部13は、オブジェクト検出部12で検出されたウィンドウであるオブジェクトウィンドウをクラスタリングによって統合する。つまり、様々なウィンドウで入力フレーム画像をスキャンすると、一つの上半身に対して複数の近傍のオブジェクトウィンドウが存在することになる。言い換えれば、複数の位置が異なったウィンドウやサイズが異なったウィンドウが重なりあってオブジェクトウィンドウとして検出される。そこで、これら複数のオブジェクトウィンドウを、例えばMeanshiftクラスタリングを用いて一つのオブジェクト領域として統合して、設定する。
The
クラスタリング統合部13は、例えばMeanshiftクラスタリングを用いる場合、識別されたオブジェクトウィンドウの位置(xi、yi)とスケールscaleiの三次元でのクラスタリング統合を下記式のガウシアン・カーネル関数を用いて、その累積値から位置とスケールのシフト値を算出し、それぞれのシフト値から位置とスケールを修正更新することで収束させ、一つのオブジェクト領域としている。
オブジェクトトラッキング部14は、入力フレーム画像におけるオブジェクト領域をオブジェクト候補領域とし、過去フレーム画像でのオブジェクト領域に基づいて入力フレーム画像においてオブジェクトが存在すると予測される領域をオブジェクト予測領域として、所定条件を満たすオブジェクト候補領域をオブジェクト予測領域に対応する過去フレーム画像のオブジェクト領域に関連付けて登録することで、オブジェクトのトラッキングを行い、その結果を出力する。過去フレーム画像とは、例えば、入力フレーム画像の一フレーム前の画像である。
The
例えば、オブジェクトトラッキング部14は、ウィンドウ幅の差異が所定の範囲内であるオブジェクト候補領域であって、他のオブジェクト候補領域とも比較してオブジェクト予測領域から最短距離であるオブジェクト候補領域を、過去フレーム画像のオブジェクト領域に関連付けて登録する。また、例えば、オブジェクトトラッキング部14は、関連付けて登録する場合に、過去フレーム画像のオブジェクト領域に付与されていた識別子(人物ID)と同じ識別子をオブジェクト候補領域へ付与する。トラッキング方法の詳細については後述する。
For example, the
図2は、本発明の実施の形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図2において、画像処理装置100を構成するコンピュータは、従前から存在する汎用的なハードウェア構成で実現できる。すなわち、画像処理装置100を形成するコンピュータは、図2に示したようにCPU101、ROM102、RAM103、外部記憶装置104、通信インターフェース105、入出力インターフェース106と接続されたマウス107とキーボード108、及び表示装置として設けられたディスプレイ109を、バスに接続して構成される。
FIG. 2 is a block diagram showing an example of a hardware configuration of the
画像処理装置100は、一つの態様では、ハードウェア資源とソフトウェアの協働で実現される。具体的には、画像処理装置100の各種機能は、ROM102や外部記憶装置104等の記録媒体に記録されたプログラムがCPU101によって実行されることで実現される。また、画像処理装置100は、物理的に一つの装置により実現されてもよく、複数の装置により実現されていてもよい。
In one aspect, the
図3は、本発明の画像処理装置において、オブジェクト検出部12が入力フレーム画像からオブジェクトを検出する場合のフローチャートの一例である。オブジェクト検出部12は、画像記憶部10から入力されるフレーム画像を受け付ける(ステップ301)。オブジェクト検出部12は、入力を受け付けたフレーム画像におけるオブジェクトが存在するオブジェクトウィンドウの検出処理を開始する。
FIG. 3 is an example of a flowchart when the
オブジェクト検出部12は、スキャンテーブル記憶部11からスキャンテーブルを読み出し、入力フレーム画像をスキャンする際のウィンドウサイズを決定する(ステップ302)。ウィンドウサイズは、例えば、予め決定されたスキャンレイヤに基づいて決められている。スキャンテーブルに記憶されたスキャンレイヤのうち一又は二のスキャンレイヤのウィンドウサイズで入力フレーム画像のスキャンを行ってもよい。また、スキャンテーブル記憶部11に記憶されているスキャンレイヤ全てのスキャン処理を行ってもよい。
The
次に、オブジェクト検出部12は、決定したウィンドウサイズに基づいて、入力フレーム画像における算出ウィンドウを設定する(ステップ303)。入力フレーム画像全体をスキャンするために必要なウィンドウ数は、ウィンドウサイズによって異なるが、所定のウィンドウサイズに基づいて入力フレーム画像において特徴量を算出するウィンドウの位置を設定する。算出ウィンドウの位置は、ウィンドウサイズと該ウィンドウサイズにおける何番目のスキャンウィンドウかによって決定される。
Next, the
オブジェクト検出部12は、算出対象として設定されたウィンドウ内のブロックでの輝度勾配ヒストグラムを生成する(ステップ304)。ここでは、例えば、上半身であるオブジェクトを検出するためにHOG特徴量を用いる。そのためには、入力フレーム画像内の各画素における近傍4画素から水平垂直方向の輝度勾配をもとめ、輝度勾配強度と方向を算出する。そして各画素に対する輝度勾配強度を輝度勾配方向によって、0度から180度までの20度ごとのビンイメージ数9に割り振る。各ビンイメージをカーネルを利用しながらフィルタする。こちらでは大きさが7×7のカーネルを使っても良い。そして各ビンイメージに関するインテグラルイメージを生成する。一例として、ブロックに対する各セル内の輝度勾配強度累積をヒストグラムとし、ブロック内のセル4個分の輝度勾配方向ヒストグラムを連結し、ブロックごとにノーマライズすることで36次元のブロック内輝度勾配方向ヒストグラムを生成する。なお、スキャンとは、画像の各画素の特徴量を解析することを意味する。
The
さらに、オブジェクト検出部12は、ウィンドウ内をブロックでオーバーラップスキャンする(ステップ305)。スキャンテーブルに記憶されているスキャンレイヤ、セル幅に基づいてオーバーラップスキャンを行う。つまり、ウィンドウ内を定められたセル幅ずつ位置をずらしながらブロック内の輝度勾配ヒストグラムを順次作成していく。つまり、ウィンドウ内を水平方向に7回、垂直方向に7回の計49回のスキャンを行う。この際、オブジェクト検出部12は、オーバーラップ領域の特徴量については、前のブロックをスキャンした際に算出した特徴量を用いる。算出結果を再利用することでオブジェクト検出処理を高速化するためである。
Further, the
そして、オブジェクト検出部12は、算出ウィンドウ内の特徴量を算出する(ステップ306)。一例として、オブジェクト検出部12は、算出ウィンドウ内を49回のスキャンを行うことで、ウィンドウ内において1764次元のHOG特徴量を得る。
Then, the
オブジェクト検出部12は、算出ウィンドウにおける特徴量をSVMで識別する(ステップ307)。ここでは識別器としてサポート・ベクター・マシン(SVM)を用いているが、識別器としてはこれに限らない。予め上半身が含まれている画像と上半身が含まれていない画像とでHOG特徴量を学習しておき、SVM識別器を得ておく。オブジェクト検出部12は、SVM識別器を用いて、人物の上半身である特徴量を有するウィンドウをオブジェクトウィンドウとして検出する。算出ウィンドウがオブジェクトウィンドウであると判定された場合、クラスタリング統合部13への処理へうつる。
The
オブジェクト検出部12は、所定のスキャンレイヤにおける全てのウィンドウで特徴量の算出を行ったか、判定を行う(ステップ308)。全てのウィンドウでの特徴量算出が終わっていない場合、次の算出ウィンドウを設定する(ステップ303)。そして、同様に特徴量の算出を行う。全てのウィンドウでの特徴量算出が終わった場合、オブジェクト検出部12は、そのスキャンレイヤにおけるオブジェクト検出処理を終了する。
The
なお、上記では、一つのスキャンレイヤにおけるオブジェクト検出処理を説明したが、スキャンテーブルに記憶されている全てのスキャンレイヤを行う場合、また2以上のスキャンレイヤの処理を行う場合、図3において説明したフローを所定回数分同様に行う。スキャンレイヤを変えるとウィンドウサイズが変化する。従って、画像に映っている人物の大きさが様々である場合、複数のスキャンレイヤでオブジェクト検出処理を行うことが望ましい。 In the above description, the object detection process in one scan layer has been described. However, in the case where all the scan layers stored in the scan table are performed, or when the process of two or more scan layers is performed, the process described with reference to FIG. The flow is performed in the same manner for a predetermined number of times. Changing the scan layer changes the window size. Therefore, when the size of the person shown in the image is various, it is desirable to perform the object detection process with a plurality of scan layers.
図4は、スキャンテーブル記憶部11に記憶されているスキャンテーブルの一例である。本スキャンテーブルは、入力画像の解像度が640×480画素である場合の一例である。ウィンドウサイズごとにスキャンレイヤの番号が付与されており、スキャンレイヤに対応づけて、ウィンドウサイズ、セルサイズ、スキャンストライド値、ウィンドウ数が記憶されている。ウィンドウサイズは、入力画像のなかでオブジェクトを検出する際に設定するウィンドウである。ここではウィンドウサイズは、ピクセル数で表されている。セルサイズは、上述したようにウィンドウ内において設定されるセルのサイズである。スキャンストライド値は、画像全体をスキャンするためにウィンドウをずらす、画素距離の値である。ウィンドウ数は、画像全体をスキャンするために必要なウィンドウの数をしめしている。オブジェクト検出部12は、スキャンテーブル記憶部11に記憶されているスキャンテーブルを参照しながら、入力フレーム画像のスキャンを行う。
FIG. 4 is an example of a scan table stored in the scan
図5は、セルとブロックの関係を示す概念図である。図3のステップ304において、オブジェクト検出部12はウィンドウ内にブロックを設け、輝度勾配ヒストグラムを生成している。この際に、ブロックの中にセルを設けている。それぞれのセルにおいて水平・垂直方向の輝度勾配をもとめ、セル1、セル2、セル3、セル4の順に連結することで36次元のブロック内輝度勾配方向ヒストグラムを生成している。
FIG. 5 is a conceptual diagram showing the relationship between cells and blocks. In
図6は、ウィンドウとブロックの関係を示す概念図である。一例では、ウィンドウを水平・垂直方向に4等分した各々の領域をブロックとし、さらに水平・垂直方向にそれぞれ2等分した4個の領域をセルとしている。セル幅ずつずらしてオーバーラップスキャンさせるため、点線のブロック領域が次に輝度勾配を求めるブロックとなる。このように、ブロックをオーバーラップスキャンさせた場合、次のブロックのスキャンにおいて、前のブロックと、2つのセルがオーバーラップ(重複)することとなる。このため、オブジェクト検出部12は、2つのセルの特徴量の算出においては、前のブロックの輝度勾配を算出した際のセルの特徴量をそのまま再利用する。ここでは、最初に垂直方向にスキャンをし、次に水平方向にスキャンすることとしている。しかし、これに限らず、水平方向に最初にスキャンをして次に垂直方向にスキャンしてもよい。
FIG. 6 is a conceptual diagram showing the relationship between windows and blocks. In one example, each area obtained by dividing the window into four equal parts in the horizontal and vertical directions is used as a block, and four areas obtained by further dividing the window into two equal parts in the horizontal and vertical directions are used as cells. Since overlap scanning is performed by shifting the cell width, the dotted block area is the next block for obtaining the luminance gradient. In this way, when a block is subjected to overlap scan, in the next block scan, the previous block and two cells overlap (overlap). Therefore, the
図7は、本発明の画像処理装置においてオブジェクトトラッキング部14がフレーム画像間で同一のオブジェクト領域を対応づける場合の処理の一例である。オブジェクトトラッキング部14は、入力フレーム画像においてクラスタリング統合部13でオブジェクト領域として設定された領域をオブジェクト候補領域として設定する(ステップ701)。
FIG. 7 shows an example of processing when the
次に、オブジェクトトラッキング部14は、過去フレーム画像におけるオブジェクト領域に基づいて入力フレーム画像におけるオブジェクト予測領域を設定する(ステップ702)。例えば、オブジェクトトラッキング部14は、画像記憶部10に記憶されている入力フレーム画像から二フレーム前のフレーム画像や一フレーム前のフレーム画像など、過去のフレーム画像を読み出す。そして、二フレーム前のフレーム画像におけるオブジェクト領域と、一フレーム前のフレーム画像におけるオブジェクト領域であって、二フレーム前のフレーム画像におけるオブジェクト領域と関連付けられたオブジェクト領域との間での座標の変化量を計算する。そして、オブジェクトトラッキング部14は、一フレーム前のフレーム画像におけるオブジェクト領域の座標と、算出した座標の変化量に基づいて入力フレーム画像におけるオブジェクト予測領域を算出し、設定する。他の一例として、所定の変化量を設定しておき、一フレーム前にフレーム画像におけるオブジェクト領域に基づいて、入力フレーム画像におけるオブジェクト予測領域を算出してもよい。この場合、人間の歩く速度など、オブジェクト対象の動く速度に基づいて、座標変化量を予め設定しておくことで、二フレーム前にオブジェクトが映っていない場合であっても、オブジェクト予測領域を設定することが可能となる。また、他の一例として、過去のフレーム画像として一フレーム前のフレーム画像ではなく、数フレーム前のフレーム画像を用いて数フレーム前のフレーム画像のオブジェクト領域と所定の座標変化量に基づいてオブジェクト予測領域を設定してもよい。つまり、過去のフレーム画像は、一フレーム前のフレーム画像に限らない。
Next, the
オブジェクトトラッキング部14は、オブジェクト予測領域からの距離、ウィンドウ幅の差異が所定範囲内のオブジェクト候補領域を抽出する(ステップ703)。具体的には、オブジェクト予測領域であるウィンドウの四角形の左上端の座標をP(a(x1),a(y1))としオブジェクト予測領域のウィンドウ幅をWaとし、オブジェクト候補領域のウィンドウの四角形の左上端の座標をP(b(x1),b(y1))としオブジェクト候補領域のウィンドウ幅をWbとした場合、オブジェクトトラッキング部14は、下記の4つの条件を満たすウィンドウ候補領域を抽出する。
上記式の(2)及び(4)は、オブジェクト候補領域のうち、座標値の差異が所定の閾値の範囲内であるオブジェクト領域、つまりオブジェクト予測領域からオブジェクト候補領域まで所定の距離の範囲内にあるオブジェクト候補領域を抽出しようとするものである。また、(3)及び(5)は、オブジェクト候補領域のうち、オブジェクト予測領域のウィンドウ幅との差異が所定の範囲内であるオブジェクト候補領域を抽出しようとするものである。ここで、オブジェクトトラッキング部14は、これら4つの条件を満たすウィンドウ候補領域を抽出し、抽出したオブジェクト領域を関連オブジェクト候補領域とする。
(2) and (4) in the above formulas are the object areas in which the difference in coordinate values is within a predetermined threshold range among the object candidate areas, that is, within a predetermined distance from the object prediction area to the object candidate area. An object candidate area is to be extracted. Further, (3) and (5) are intended to extract object candidate areas whose difference from the window width of the object prediction area is within a predetermined range from the object candidate areas. Here, the
なお、閾値であるTは任意の値に設定可能であるが、一例として下記式に基づいてTを定めてもよい。βは、任意の変数である。
次に、オブジェクトトラッキング部14は、抽出したオブジェクト候補領域、つまり関連オブジェクト候補領域のなかから最短距離であるオブジェクト候補領域を抽出する(ステップ704)。所定条件を満たす関連オブジェクト候補領域のなかでオブジェクト予測領域と最も近い座標値、つまり最短距離を有するオブジェクト候補領域を抽出する。
Next, the
さらに、オブジェクトトラッキング部14は、抽出したオブジェクト候補領域が他のオブジェクト予測領域に関連付けられているか、チェックを行う(ステップ705)。抽出したオブジェクト候補領域が既に他のオブジェクト予測領域に関連づけられている場合があるからである。なお、このチェックは、「オブジェクト予測領域」と関連づけられているかとしているか、「オブジェクト予測領域に対応する過去フレーム画像(例えば一フレーム前のフレーム画像)のオブジェクト領域」と置き換えてもよい。抽出したオブジェクト候補領域が他にも関連付けられている場合(ステップ705でYes)、複数のオブジェクト予測領域のうち、抽出したオブジェクト候補領域から最短距離であるオブジェクト予測領域にのみ関連付け、最短ではないオブジェクト予測領域との関連付けを破棄する(ステップ706)。
Further, the
次に破棄されたオブジェクト予測領域について、そのオブジェクト予測領域について抽出されている関連オブジェクト候補領域のうち、残りのオブジェクト候補領域のなかで最短距離のオブジェクト候補領域を抽出する(ステップ707)。破棄されたオブジェクト予測領域については、対応するオブジェクト候補領域がなくなってしまうため、再度算出をし直すのである。再度の抽出にあたっては、予め抽出していた関連オブジェクト候補領域のなかで、最短距離の関連オブジェクト候補領域を抽出することで行う。 Next, for the discarded object prediction area, an object candidate area having the shortest distance is extracted from the remaining object candidate areas among the related object candidate areas extracted for the object prediction area (step 707). The discarded object prediction area is recalculated because the corresponding object candidate area disappears. The re-extraction is performed by extracting the related object candidate region with the shortest distance from the related object candidate regions extracted in advance.
抽出したオブジェクト領域が他のオブジェクト予測領域に関連付けられていない場合(ステップ705でNo)、オブジェクト予測領域に対応付けられた人物IDを付与する(ステップ708)。つまり、オブジェクト予測領域に対応する過去のフレーム画像(例えば一フレーム前のフレーム画像)におけるオブジェクト領域に付与されている識別子である人物IDを付与する。同じ識別子を付与することで、フレーム間でのオブジェクトトラッキングが可能となる。付与された人物IDは、オブジェクト領域の近傍に表示部で表示されるようにしてもよい。 If the extracted object area is not associated with another object prediction area (No in step 705), a person ID associated with the object prediction area is assigned (step 708). That is, a person ID that is an identifier assigned to the object area in the past frame image (for example, the frame image one frame before) corresponding to the object prediction area is assigned. By assigning the same identifier, object tracking can be performed between frames. The assigned person ID may be displayed on the display unit in the vicinity of the object area.
図8は、フレーム画像間におけるオブジェクト領域の関連付けのイメージ図である。フレーム画像I1、I2、I3は時系列的に取得されたフレーム画像であり、例えば、I3を入力フレーム画像とすると、I1は二フレーム前のフレーム画像、I2は一フレーム前のフレーム画像である。それぞれに検出されたオブジェクト領域が存在しており、オブジェクトが人間などの動体である場合は、図8のように同じオブジェクトであったとしても、それぞれのフレーム画像での検出位置が異なる。そこで、これらのオブジェクトを関連付けるために、オブジェクトトラッキング部14は、図7で示したようなフローに従って、フレーム画像間のオブジェクトの関連付けを行って、オブジェクトトラッキングを実現している。
FIG. 8 is an image diagram of association of object areas between frame images. The frame images I 1 , I 2 , and I 3 are frame images acquired in time series. For example, when I 3 is an input frame image, I 1 is a frame image two frames before and I 2 is one frame previous It is a frame image. When each detected object area exists and the object is a moving object such as a human, even if the object is the same object as shown in FIG. 8, the detection position in each frame image is different. Therefore, in order to associate these objects, the
図9は、図7のステップ703におけるオブジェクト予測領域とオブジェクト候補領域の関係を示す図である。Aがオブジェクト予測領域であるオブジェクトウィンドウであり、Bがオブジェクト候補領域のウィンドウの一例である。前述したようにオブジェクト予測領域の左上端の座標Pの位置及びウィンドウ幅Wの差異が閾値内であるかどうか4つの式に基づいて判定を行い、条件を満たすオブジェクト候補領域を抽出する。
FIG. 9 is a diagram showing the relationship between the object prediction area and the object candidate area in
図10は、本発明の画像処理装置においてオブジェクト検出を行った場合の実験結果を示すテーブルである。それぞれのスキャンレイヤ及びウィンドウサイズにおける特徴量の計算にかかった時間を示している。本発明においては、オブジェクト検出において、オーバーラップスキャンを行ってウィンドウの特徴量を算出している。その際に、スキャンレイヤごとに、オーバーラップ領域の特徴量について過去の算出結果を再利用することで、オブジェクト検出処理の高速化を図っている。その結果、HOG特徴量のような計算数が多く、精度高く検出が行える特徴量を採用した場合であっても、図に示すようにきわめて短時間でオブジェクト検出を行うことが可能となる。そのため、フレーム画像が次々と入力される場合であっても、リアルタイムでオブジェクト検出を行うことができる。
FIG. 10 is a table showing experimental results when object detection is performed in the image processing apparatus of the present invention. It shows the time taken to calculate the feature values for each scan layer and window size. In the present invention, in the object detection, overlap scanning is performed to calculate the window feature amount. At this time, the object detection processing is speeded up by reusing the past calculation result for the feature amount of the overlap region for each scan layer. As a result, even when a feature amount that can be detected with high accuracy such as a HOG feature amount is employed, object detection can be performed in a very short time as shown in the figure. Therefore, even when frame images are input one after another, object detection can be performed in real time.
Claims (10)
前記オブジェクト検出部で検出された複数の近傍のオブジェクトウィンドウをクラスタリングで統合することで、オブジェクト領域を設定するクラスタリング統合部と、
前記オブジェクト領域をオブジェクト候補領域とし、過去のフレーム画像のオブジェクト領域に基づいて予測される領域をオブジェクト予測領域とし、ウィンドウ幅の差異が所定範囲内であるオブジェクト候補領域であって、かつ前記オブジェクト予測領域から最短距離にあるオブジェクト候補領域について、前記過去のフレーム画像のオブジェクト領域と関連付けて登録するオブジェクトトラッキング部と、を有する画像処理装置。 An object detection unit for detecting an object window in which an object exists from an input frame image;
A clustering integration unit for setting an object region by integrating a plurality of neighboring object windows detected by the object detection unit by clustering; and
The object area is an object candidate area, an area predicted based on an object area of a past frame image is an object prediction area, and the object prediction area has a window width difference within a predetermined range, and the object prediction An object tracking unit that registers an object candidate area that is at the shortest distance from an area in association with an object area of the past frame image.
検出された複数の近傍のオブジェクトウィンドウをクラスタリングで統合することで、オブジェクト領域を設定するステップ、
前記オブジェクト領域をオブジェクト候補領域とし、過去のフレーム画像のオブジェクト領域に基づいて予測される領域をオブジェクト予測領域とし、ウィンドウ幅の差異が所定範囲内であるオブジェクト候補領域であって、かつ前記オブジェクト予測領域から最短距離にあるオブジェクト候補領域について、前記過去のフレーム画像のオブジェクト領域と関連付けて登録するステップを有する画像処理方法。 Detecting an object window in which an object exists from an input frame image;
A step of setting an object region by integrating a plurality of detected object windows in a cluster by clustering;
The object area is an object candidate area, an area predicted based on an object area of a past frame image is an object prediction area, and the object prediction area has a window width difference within a predetermined range, and the object prediction An image processing method comprising a step of registering an object candidate area at a shortest distance from an area in association with an object area of the past frame image.
入力フレーム画像からオブジェクトが存在するオブジェクトウィンドウを検出するステップ、
検出された複数の近傍のオブジェクトウィンドウをクラスタリングで統合することで、オブジェクト領域を設定するステップ、
前記オブジェクト領域をオブジェクト候補領域とし、過去のフレーム画像のオブジェクト領域に基づいて予測される領域をオブジェクト予測領域とし、ウィンドウ幅の差異が所定範囲内であるオブジェクト候補領域であって、かつ前記オブジェクト予測領域から最短距離にあるオブジェクト候補領域について、前記過去のフレーム画像のオブジェクト領域と関連付けて登録するステップと、
を実行させるプログラム。
On the computer,
Detecting an object window in which an object exists from an input frame image;
A step of setting an object region by integrating a plurality of detected object windows in a cluster by clustering;
The object area is an object candidate area, an area predicted based on an object area of a past frame image is an object prediction area, and the object prediction area has a window width difference within a predetermined range, and the object prediction Registering the object candidate area at the shortest distance from the area in association with the object area of the past frame image;
A program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012221034A JP6028972B2 (en) | 2012-10-03 | 2012-10-03 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012221034A JP6028972B2 (en) | 2012-10-03 | 2012-10-03 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014074977A true JP2014074977A (en) | 2014-04-24 |
JP6028972B2 JP6028972B2 (en) | 2016-11-24 |
Family
ID=50749104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012221034A Active JP6028972B2 (en) | 2012-10-03 | 2012-10-03 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6028972B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018032078A (en) * | 2016-08-22 | 2018-03-01 | Kddi株式会社 | Device for tracking object in consideration for image area of other object, program therefor and method therefor |
JP2018112551A (en) * | 2017-01-12 | 2018-07-19 | 同方威視技術股▲分▼有限公司 | Inspection device, and method of inspecting containers |
JP2018120277A (en) * | 2017-01-23 | 2018-08-02 | コニカミノルタ株式会社 | Image processing device, object detection method and object detection program |
KR20210052844A (en) * | 2019-11-01 | 2021-05-11 | 에스케이텔레콤 주식회사 | Method and Apparatus for Unsupervised Video Object Segmentation Using Object Segmentation Based on Saliency |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06207909A (en) * | 1993-01-12 | 1994-07-26 | Ricoh Co Ltd | Inspection apparatus for surface defect |
JP2005055744A (en) * | 2003-08-06 | 2005-03-03 | Minolta Co Ltd | Imaging apparatus and program |
JP2005063309A (en) * | 2003-08-19 | 2005-03-10 | Fuji Photo Film Co Ltd | Object identification method and device, and program |
JP2005190142A (en) * | 2003-12-25 | 2005-07-14 | Foundation For The Promotion Of Industrial Science | Intersection traffic measuring system and intersection traffic measurement method |
JP2006195525A (en) * | 2005-01-11 | 2006-07-27 | Nippon Hoso Kyokai <Nhk> | Apparatus and program for adding video object locus |
JP2008158984A (en) * | 2006-12-26 | 2008-07-10 | Toshiba Teli Corp | Image processor and area tracing program |
JP2012181710A (en) * | 2011-03-02 | 2012-09-20 | Fujifilm Corp | Object tracking device, method and program |
-
2012
- 2012-10-03 JP JP2012221034A patent/JP6028972B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06207909A (en) * | 1993-01-12 | 1994-07-26 | Ricoh Co Ltd | Inspection apparatus for surface defect |
JP2005055744A (en) * | 2003-08-06 | 2005-03-03 | Minolta Co Ltd | Imaging apparatus and program |
JP2005063309A (en) * | 2003-08-19 | 2005-03-10 | Fuji Photo Film Co Ltd | Object identification method and device, and program |
JP2005190142A (en) * | 2003-12-25 | 2005-07-14 | Foundation For The Promotion Of Industrial Science | Intersection traffic measuring system and intersection traffic measurement method |
JP2006195525A (en) * | 2005-01-11 | 2006-07-27 | Nippon Hoso Kyokai <Nhk> | Apparatus and program for adding video object locus |
JP2008158984A (en) * | 2006-12-26 | 2008-07-10 | Toshiba Teli Corp | Image processor and area tracing program |
JP2012181710A (en) * | 2011-03-02 | 2012-09-20 | Fujifilm Corp | Object tracking device, method and program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018032078A (en) * | 2016-08-22 | 2018-03-01 | Kddi株式会社 | Device for tracking object in consideration for image area of other object, program therefor and method therefor |
JP2018112551A (en) * | 2017-01-12 | 2018-07-19 | 同方威視技術股▲分▼有限公司 | Inspection device, and method of inspecting containers |
JP2018120277A (en) * | 2017-01-23 | 2018-08-02 | コニカミノルタ株式会社 | Image processing device, object detection method and object detection program |
KR20210052844A (en) * | 2019-11-01 | 2021-05-11 | 에스케이텔레콤 주식회사 | Method and Apparatus for Unsupervised Video Object Segmentation Using Object Segmentation Based on Saliency |
KR102424326B1 (en) * | 2019-11-01 | 2022-07-21 | 에스케이텔레콤 주식회사 | Method and Apparatus for Unsupervised Video Object Segmentation Using Object Segmentation Based on Saliency |
Also Published As
Publication number | Publication date |
---|---|
JP6028972B2 (en) | 2016-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200167554A1 (en) | Gesture Recognition Method, Apparatus, And Device | |
US10192107B2 (en) | Object detection method and object detection apparatus | |
JP6655878B2 (en) | Image recognition method and apparatus, program | |
CN109644255B (en) | Method and apparatus for annotating a video stream comprising a set of frames | |
US8818028B2 (en) | Systems and methods for accurate user foreground video extraction | |
EP2450832A1 (en) | Image processing apparatus and image processing method | |
KR20130066438A (en) | Image processing apparatus and image processing method | |
US8675917B2 (en) | Abandoned object recognition using pedestrian detection | |
CN109271848B (en) | Face detection method, face detection device and storage medium | |
JP2012038318A (en) | Target detection method and device | |
JP5936561B2 (en) | Object classification based on appearance and context in images | |
US9349207B2 (en) | Apparatus and method for parsing human body image | |
CN110930434A (en) | Target object tracking method and device, storage medium and computer equipment | |
CN111783665A (en) | Action recognition method and device, storage medium and electronic equipment | |
JP6028972B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN111382637A (en) | Pedestrian detection tracking method, device, terminal equipment and medium | |
US20170103536A1 (en) | Counting apparatus and method for moving objects | |
US20170053172A1 (en) | Image processing apparatus, and image processing method | |
KR101690050B1 (en) | Intelligent video security system | |
JP6811244B2 (en) | Image processing device, stereo camera device and image processing method | |
KR101313879B1 (en) | Detecting and Tracing System of Human Using Gradient Histogram and Method of The Same | |
KR20110139864A (en) | System and method for face detection | |
CN111027482A (en) | Behavior analysis method and device based on motion vector segmentation analysis | |
JP2019075051A (en) | Image processor | |
KR102085034B1 (en) | Method and Apparatus for Detecting Foregroud Image with Separating Foregroud and Background in Image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150713 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161005 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6028972 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |