JP2006107060A - Room entering and leaving detector - Google Patents
Room entering and leaving detector Download PDFInfo
- Publication number
- JP2006107060A JP2006107060A JP2004291848A JP2004291848A JP2006107060A JP 2006107060 A JP2006107060 A JP 2006107060A JP 2004291848 A JP2004291848 A JP 2004291848A JP 2004291848 A JP2004291848 A JP 2004291848A JP 2006107060 A JP2006107060 A JP 2006107060A
- Authority
- JP
- Japan
- Prior art keywords
- data
- entrance
- exit
- image data
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は 人間を含む動物体の動きを検出して動物体の入退室を検出する入退室検知装置に関する。 The present invention relates to an entry / exit detection device for detecting the entry / exit of an animal body by detecting the movement of an animal body including a human being.
動物体の動きを認識する技術として、下記の特許文献1に開示されたものがある。この特許文献1に開示された従来技術においては、動物体(特に、人物)の認識に濃度投影アルゴリズムを使用し、人物の顔位置を検出するものである。
As a technique for recognizing the movement of an animal body, there is one disclosed in
図5に、上記従来技術における人物認識装置のシステム構成図を、図6に、その認識処理動作のフロー図を、夫々示す。 FIG. 5 shows a system configuration diagram of the person recognition apparatus in the prior art, and FIG. 6 shows a flowchart of the recognition processing operation.
図5の人物認識装置は、人物を撮像して画像信号1を出力するCCDカメラ、与えられる1フレーム分の画像信号1を記憶する画像メモリ2、nフレーム後に入力された画像信号1と画像メモリ2に予め記録してあった画像信号とに基づいて両画像の絶対差分、すなわち両画像での動き領域を求めてその差分値を出力する絶対差分部3、画像信号1に基づいて画像信号1を2値化するための閾値を決定する閾値決定部4、絶対差分部3から差分値を入力して決定部4により決定された閾値を用いて2値化処理する比較部5を備えて構成される。
5 is a CCD camera that captures a person and outputs an
更に、該人物認識装置は、X軸濃度投影部6、最大X軸投影座標抽出部7、Y軸濃度投影部8、最大Y軸投影座標抽出部9、顔特徴抽出/判定部11、エッジ検出部12、出力発生部14、頭幅抽出部19、動物体面積算出部31、前フレームの動物体面積算出/メモリ部41、比較部42を含む。これらの各部について、図6を参照しながら説明する。
Further, the person recognition apparatus includes an X-axis
頭幅抽出部19は、後述する比較部42から比較結果信号20が与えられたことに応じてのみ能動化されて、検出された動物体領域内における人体の頭幅のX座標(Xa2,Xb2)を求める。動物体面積算出部31は、動き物体の投影面積を算出する部分である。
The head
前フレームの動物体面積算出/メモリ部41は、得られた座標Xa1,Xb1及びYtopに基づいてフレーム毎に動物体面積を算出して、算出された面積値を逐次記憶する。比較部42は、算出部31から出力される今回フレームの動物体面積とメモリ部41に記憶されている前回フレームの動物体面積とを大小比較して、今回フレームのそれが前回フレームのそれ以上であることに応じて比較結果信号20を出力し、頭幅抽出部19を能動化する。尚、前フレームの動物体面積算出/メモリ部41は記憶された前回フレームの動物体面積の読み出し完了(比較部42による比較完了)毎に、メモリ部41の前回フレームの面積をクリアし、新たに今回の算出面積を記憶することを繰り返す。
The moving object area calculation /
次に、図5の人物認識装置の動作について図6を参照しながら説明する。CCDカメラ等により撮像して得られた画像信号1を用いて、画像メモリ2〜最大Y軸投影座標抽出部9により、前述と同様にして座標Xa1,Xb1およびYtopが求められる(図6のS1〜S6参照)。次に、動物体面積算出部31、前フレームの動物体面積算出/メモリ部41及び比較部42により、今回フレームの動物体画像面積が前回フレームのそれ以上であるかが検出され、その結果に応じて比較結果信号20が出力されて頭幅抽出部19が能動化される。頭幅抽出部19は比較結果信号20により今回フレームの動物体画像面積が前回フレームのそれ以上であるときのみ能動化されて、前述と同様にして頭幅を抽出し、座標Xa2,Xb2を顔特徴抽出/判定部11に出力する。顔特徴抽出/判定部11は頭幅抽出部19から出力される座標Xa2,Xb2を用いて動物体頭幅部に顔面特徴が十分に抽出されるかを判定し、顔判定結果信号13を出力し、出力発生部14の出力発生を制御する。
Next, the operation of the person recognition apparatus in FIG. 5 will be described with reference to FIG. Using the
このように、図5の人物認識装置によれば、動物体面積算出部31、前フレームの動物体面積算出/メモリ部41および比較部42により、認識対象をカメラに近づいてくる動き物体に限定でき、また近づいてくるということは顔面がほぼ正面を向いていることとなって、該人物認識装置における検知精度を高めることが可能となる。
しかし、上記従来技術の人物認識装置では、顔位置を検出するため、X軸濃度投影、Y軸濃度投影、更には、面積まで求める必要があり、動物体の入退室のみを扱う場合であれば処理量が多すぎる欠点がある。また、入退室においては、一旦、入室した動物体がUターンして退室する場合が存在するため、新たなアルゴリズムが必要と考えられる。 However, in the above-described conventional person recognition device, in order to detect the face position, it is necessary to obtain the X-axis density projection, the Y-axis density projection, and even the area. There is a drawback of too much throughput. In addition, in entering and leaving the room, there is a case where the moving object that has entered the room once makes a U-turn and leaves the room, so a new algorithm is considered necessary.
本発明は、上記問題点に鑑みてなされたもので、その目的は、入退室の検出対象の動物体の面積算出等の処理量の大きいデータ処理を伴わずに簡便且つ高速に動物体の入退室を正確に実行可能な入退室検知装置を提供することにある。 The present invention has been made in view of the above-described problems, and its object is to easily and rapidly enter an animal without involving a large amount of data processing such as calculating the area of the object to be detected in entry / exit. An object of the present invention is to provide an entrance / exit detection device capable of accurately executing exit.
上記目的を達成するための本発明に係る入退室検知装置は、人を含む動物体の動きを検出して前記動物体の入退室を検出する入退室検知装置であって、画像入力装置から入力された処理画像データと、前記処理画像データの入力より前に入力され保持されていた基準画像データとの差分データを求める差分検出部と、前記差分データを基に所定のデータ解析処理を実行し、解析データを抽出する画像処理部と、前記解析データに基づいて前記動物体の位置検出を行う位置検出部と、時間的に相前後して処理された前記処理画像データの前記解析データまたは位置情報に基づいて前記動物体の動きを検出する動き検出部と、前記動物体の前記位置検出部で検出された位置情報と前記動き検出部で検出された動き情報に基づいて、前記画像入力装置の撮像範囲内における入室方向の移動、退室方向の移動、及び、入室及び退室方向間のUターン移動を区別して前記動物体の入退室を判定する入退室判定部と、を備えてなることを特徴とする。 In order to achieve the above object, an entrance / exit detection device according to the present invention is an entrance / exit detection device that detects the entrance / exit of an animal body by detecting the movement of an animal including a person, and is input from an image input device. A difference detection unit that obtains difference data between the processed image data and the reference image data that was input and held before the input of the processed image data, and a predetermined data analysis process is executed based on the difference data An image processing unit for extracting analysis data; a position detection unit for detecting the position of the moving object based on the analysis data; and the analysis data or the position of the processed image data processed in tandem with each other A motion detection unit that detects a movement of the moving object based on the information; a position information detected by the position detection unit of the moving object; and a motion information detected by the motion detection unit. An entry / exit determination unit that distinguishes between movement in the entry direction, movement in the exit direction within the imaging range, and U-turn movement between the entry and exit directions, and determining entry / exit of the moving object. Features.
また、上記特徴構成の入退室検知装置は、前記画像処理部が、前記データ解析処理を実行する前に、前記差分データに対する膨張処理または収縮処理によるノイズ除去を行うのも好ましい。 In the entrance / exit detection device having the above-described characteristic configuration, it is also preferable that the image processing unit performs noise removal by expansion processing or contraction processing on the differential data before executing the data analysis processing.
また、上記特徴構成の入退室検知装置は、前記画像処理部は、前記データ解析処理として、前記差分データに対して濃度投影を行うことにより前記解析データを抽出するのも好ましい。更に、前記画像処理部が、前記差分データに対して濃度投影を行う前に、前記差分データを2値化処理するのも好ましい。また、前記画像処理部が、前記差分データに対して濃度投影を行う際に、前記差分データの一部領域に対して濃度投影を行うようにしても構わない。 In the entrance / exit detection device having the above-described characteristic configuration, the image processing unit preferably extracts the analysis data by performing density projection on the difference data as the data analysis processing. Furthermore, it is also preferable that the image processing unit binarizes the difference data before performing density projection on the difference data. The image processing unit may perform density projection on a partial area of the difference data when performing density projection on the difference data.
また、上記特徴構成の入退室検知装置は、前記画像処理部が、前記データ解析処理として、前記差分データに対してラベリング処理を行うことにより前記解析データを抽出するのも好ましい。 In the entrance / exit detection device having the above-described characteristic configuration, the image processing unit preferably extracts the analysis data by performing a labeling process on the difference data as the data analysis process.
また、上記特徴構成の入退室検知装置は、前記動き検出部は、直前に処理された前記処理画像データの前記解析データの内の前記動物体の位置及び長さに関する情報のみを保持するのも好ましい。 In the entrance / exit detection device having the above-described characteristic configuration, the motion detection unit holds only information on the position and length of the moving object in the analysis data of the processed image data processed immediately before. preferable.
また、上記特徴構成の入退室検知装置は、前記位置検出部が、前記解析データから得られる或る物体の長さが所定の閾値以下の場合、当該物体を前記動物体と認識しないようにしてもよい。 Further, the entrance / exit detection device having the above-described characteristic configuration is configured so that the position detection unit does not recognize the object as the moving object when the length of a certain object obtained from the analysis data is equal to or less than a predetermined threshold. Also good.
また、上記特徴構成の入退室検知装置は、前記位置検出部が、前記解析データから得られる或る物体の長さが所定の閾値以上の場合、当該物体を前記動物体の集合体と認識するようにしてもよい。 In the entrance / exit detection device having the above-described characteristic configuration, when the length of a certain object obtained from the analysis data is equal to or greater than a predetermined threshold, the position detection unit recognizes the object as a collection of moving objects. You may do it.
また、上記特徴構成の入退室検知装置は、前記画像入力装置から入力される前記処理画像データ及び前記基準画像データが、入退出の検出対象区域の底面に対して平行な方向に撮影した画像データであり、前記入室及び退室方向が、前記底面に対して平行な方向である構成でもよい。 The entrance / exit detection device having the above-described characteristic configuration may be configured such that the processed image data and the reference image data input from the image input device are captured in a direction parallel to the bottom surface of the entry / exit detection target area. The entry and exit directions may be parallel to the bottom surface.
また、上記特徴構成の入退室検知装置は、前記画像入力装置から入力される前記処理画像データ及び前記基準画像データは、入退出の検出対象区域の底面に向って垂直方向に撮影した画像データであり、前記入室及び退室方向が、画面上の上下方向、左右方向、または、斜め方向の何れかである構成でもよい。 Further, in the entrance / exit detection device having the above-described characteristic configuration, the processed image data and the reference image data input from the image input device are image data taken in a vertical direction toward the bottom surface of the entry / exit detection target area. There may be a configuration in which the entry and exit directions are any one of a vertical direction, a horizontal direction, and an oblique direction on the screen.
また、上記特徴構成の入退室検知装置は、前記差分検出部が、前記基準画像データとして、画面内に前記動物体が存在しない画像データを使用するのも好ましい。 In the entrance / exit detection device having the above-described characteristic configuration, it is also preferable that the difference detection unit uses image data in which the moving object does not exist in the screen as the reference image data.
また、上記特徴構成の入退室検知装置は、前記差分検出部が、前記基準画像データとして、直前に入力された前記処理画像データを使用するのも好ましい。 In the entrance / exit detection device having the above-described characteristic configuration, it is preferable that the difference detection unit uses the processed image data input immediately before as the reference image data.
また、上記特徴構成の入退室検知装置は、画像入力装置から入力される画像がRGBのカラー画像の場合、前記処理画像データと前記基準画像データとして、前記カラー画像の内の特に輝度変化の大きいG成分を使用するようにしてもよい。 In addition, when the image input from the image input device is an RGB color image, the entrance / exit detection device having the above characteristic configuration has a particularly large luminance change in the color image as the processed image data and the reference image data. You may make it use G component.
また、上記特徴構成の入退室検知装置は、前記入退室判定部が、前記Uターン移動する前記動物体は、入室または退室として判定しないのが好ましい。 In the entry / exit detection device having the above-described characteristic configuration, it is preferable that the entry / exit determination unit does not determine that the moving object moving in the U-turn is entering or leaving the room.
上記特徴構成の本発明に係る入退室検知装置によれば、面積算出等の2次元的なデータ処理の必要がなく、濃度投影やラベリング処理等の1次元的な処理量の小さいデータ解析処理のみで入退室検知するため、高速に動物体の入退室を検知することができる。また、動物体がUターン移動する場合でも、進行方向を検知することにより、入室あるいは退室から除外または区別することができるようになる。 According to the entrance / exit detection device according to the present invention having the above-described characteristic configuration, there is no need for two-dimensional data processing such as area calculation, and only data analysis processing with a small one-dimensional processing amount such as density projection and labeling processing is performed. Because the entry / exit detection is performed at the, entry / exit of the moving object can be detected at high speed. Even when the moving object moves U-turns, it can be excluded or distinguished from entering or leaving the room by detecting the direction of travel.
次に、本発明に係る入退室検知装置(以下、適宜「本発明装置」と称す。)の一実施形態につき図面に基づいて説明する。 Next, an embodiment of the entrance / exit detection device according to the present invention (hereinafter, appropriately referred to as “the present invention device”) will be described with reference to the drawings.
図1は、本発明装置100の一構成例を示すシステム構成図である。図1に示すように、本発明装置は、差分検出部101、画像処理部102、位置検出部103、動き検出部104、及び、入退室判定部105を備えて構成される。
FIG. 1 is a system configuration diagram showing a configuration example of the
尚、本実施形態においては、ビデオカメラ等の画像入力装置106が、人等の動物体の移動を検出する検出対象区域を当該区域の底面(床面或いは地面)に対して平行な方向(水平方向)に撮影し、該動物体は、当該区域の底面上を水平方向(撮像された画面上では左右方向)に移動する場合を想定し、更に、条件として、動物体が撮像範囲内に左右両方向から同時に入室しない(鉢合わせ状態とならない)ものとし、また、撮像範囲内では、カメラに対して、入退室時に複数の動物体が重ならないもとする。但し、撮像範囲内おいて、複数の動物体が同じ方向から入室すること、一の動物体が他の動物体を追い抜くこと、追い抜き後にUターンすること、撮像範囲内に左右の一方側から入室した後Uターンして退室することは構わないものとする。
In this embodiment, the
差分検出部101は、画像入力装置106から入力された画像データを保持するとともに、入力された画像データの内の最新に入力された処理画像データと、それより前に入力され保持されていた基準画像データとの差分データを生成する。基準画像データは、「初期画像入力モード」において、画像入力装置106で撮像され、差分検出部101に入力され、差分検出部101内の画像メモリに保存された初期画像が使用される。「初期画像入力モード」においては、基準画像データ取得後の動作は行わない。「初期画像入力モード」から「動作モード」にモード変更の後、差分検出部101に、「初期画像入力モード」時に取得した基準画像データと最新の入力された処理画像データとの間で絶対差分の値を計算により求めた差分データを生成し、画像処理部102へ出力する。
The
画像処理部102は、差分データを基に所定のデータ解析処理を実行し、解析データを抽出し、位置検出部103へ出力する。具体的には、例えば、濃度投影を行うことにより、解析データを抽出する。より具体的には、例えば、画像入力装置106が検出対象区域を床面等に対して水平方向に撮影し、当該検出対象区域を動物体が水平に移動する場合に、水平方向をX軸方向とした場合、X軸への濃度投影を解析データとして抽出する。
The
位置検出部103は、抽出された解析データに基づいて、動物体の位置検出を行う。濃度投影の場合、例えば、X軸上に濃度投影値がある一定幅以上連続して存在する場合、該当するX座標範囲に動物体があると判定する。この様子を図2に示す。図2に示すように、濃度投影値が所定の閾値以上となる幅が一定値以上の場合、動物体と認識され、その幅が一定値以上でない場合は、動物体と認識されない。動物体と認識された場合の位置情報(X座標)を動き検出部104へ出力する。
The
動き検出部104は、時間的に相前後して処理された処理画像データの解析データに基づく動物体の位置情報を保存し、当該時間的に相前位置情報から動物体の動きを検出する。具体的には、動物体と認識されるX座標範囲の左端と右端のX座標が逐次保存される。直前の処理時のフレーム番号を(n−1)とし、現在処理中のフレーム番号をnとし、フレーム(n−1)とフレーム(n)の2つの処理画像データ間で、動物体の幅(左端と右端のX座標の差)が増加したか、減少したかを検出し、入退室判定部105へ出力する。
The
入退室判定部105は、動物体の位置検出部103で検出された位置情報(X座標)と動き検出部104で検出された動き情報(幅の増減)に基づいて、画像入力装置106の撮像範囲内における入室方向の移動、退室方向の移動、及び、入室及び退室方向間のUターン移動を区別して動物体の入退室を判定し、動物体が、撮像範囲内を右から左へ通過した場合と、左から右へ通過した場合を、一方を入室、他方と退室としてカウントする。
The entrance /
次に、図3を参照して、位置検出部103、動き検出部104、及び、入退室判定部105における本発明装置の入退室検知動作について、より詳細に説明する。図3に、当該入退室検知動作のフロー図を示す。
Next, with reference to FIG. 3, the entrance / exit detection operation of the apparatus of the present invention in the
動物体位置検出ステップ(#10)において、動物体が撮像範囲の左端にいるか、右端にいるか、或いは、中央部にいるかを検出する。検出方法は、例えば、図4に示すように、動物体の左側のX座標をXs、右側のX座標をXeとし、左端の閾値をXLth、右端の閾値をXRthとし、数1に示す不等式が成立する場合は、動物体が左端にいると定義し、数2に示す不等式が成立する場合は、動物体が右端にいると定義し、それ以外を動物体が中央部にいると定義する。
In the moving object position detection step (# 10), it is detected whether the moving object is at the left end, the right end, or the center of the imaging range. For example, as shown in FIG. 4, the X coordinate on the left side of the moving object is Xs, the X coordinate on the right side is Xe, the threshold value on the left end is XLth, the threshold value on the right end is XRth, and the inequality shown in
(数1)
Xs < XLth
(Equation 1)
Xs <XLth
(数2)
Xe > XRth
(Equation 2)
Xe> XRth
尚、上記数1と数2の両不等式が成立する場合も想定し得るが、その場合は撮像範囲全体に動物体が存在するケースであり、本実施形態では当該ケースは除外するものとする。
In addition, although the case where both the said inequality of the said
次に、ステップ#20において、上記定義により決定した動物体の3通りの存在位置によって、後続の処理を分岐する。左端と右端の何れでもない中央部に存在する場合は、後続の動き検出及び入退室の判定は処理しない。動物体が左端にいる場合は、ステップ#30以降の処理へ進み、動物体が右端にいる場合は、ステップ#40以降の処理へ進む。
Next, in
先ず、ステップ#20の判定において、動物体が左端にいる場合について説明する。ステップ#30において、記憶している1フレーム前の検出幅の変化を判定し、この値が変化なしであった場合は、ステップ#31へ処理を移す。それ以外の増加また減少であった場合は、1フレーム前に処理済であるので処理しない。
First, the case where the moving object is at the left end in the determination of
ステップ#31において、動物体の幅の変化を計算し、幅が増加する場合はステップ#32へ、減少する場合はステップ#33へ処理を移す。また、幅の変化がない場合は、動きが無いか、または、動物体が左端に至っていないと判断して処理を中止して終了する。
In
ステップ#32へ進んだ場合は、動物体の位置が左端で、且つ、動物体の幅が増加しているため、動物体が入室したと判断し、「左から入室」モードにセットする。 When the process proceeds to step # 32, since the position of the moving object is at the left end and the width of the moving object has increased, it is determined that the moving object has entered the room, and the “enter from left” mode is set.
ステップ#33へ進んだ場合は、位置が左端でかつ、動物体の幅が減少しているため、動物体が左へ退室したと判断する。この場合、更に、ステップ#34へ処理を移す。 When the process proceeds to step # 33, it is determined that the moving object has left to the left because the position is at the left end and the width of the moving object has decreased. In this case, the process further proceeds to step # 34.
ステップ#34において、判定対象の動物体に対して、「右から入室」モードがセットされている場合は、ステップ#35へ処理を移し、そうでない場合(「左から入室」モードがセットされている場合)は、ステップ#36へ処理を移す。
In
ステップ#35では、右から入室し、且つ、左へ退室しているので、「右から左への通過カウント」を行う。また、ステップ#36では、動物体は、左から入室し、且つ、左へ退室している「Uターン」と判断し、カウントしない。
In
次に、ステップ#20の判定において、動物体が右端にいる場合について説明する。ステップ#40において、記憶している1フレーム前の検出幅の変化を判定し、この値が変化なしであった場合は、ステップ#41へ処理を移す。それ以外の増加また減少であった場合は、1フレーム前に処理済であるので処理しない。
Next, the case where the moving object is at the right end in the determination of
ステップ#41において、動物体の幅の変化を計算し、幅が増加する場合はステップ#42へ、減少する場合はステップ#43へ処理を移す。また、幅の変化がない場合は、動きが無いか、または、動物体が右端に至っていないと判断して処理を中止して終了する。
In
ステップ#42へ進んだ場合は、動物体の位置が右端で、且つ、動物体の幅が増加しているため、動物体が入室したと判断し、「右から入室」モードにセットする。 When the process proceeds to step # 42, since the position of the moving object is at the right end and the width of the moving object has increased, it is determined that the moving object has entered the room, and the "enter from right" mode is set.
ステップ#43へ進んだ場合は、位置が右端でかつ、動物体の幅が減少しているため、動物体が右へ退室したと判断する。この場合、更に、ステップ#44へ処理を移す。 When the process proceeds to step # 43, it is determined that the moving object has left the room because the position is at the right end and the width of the moving object has decreased. In this case, the processing is further moved to step # 44.
ステップ#44において、判定対象の動物体に対して、「左から入室」モードがセットされている場合は、ステップ#45へ処理を移し、そうでない場合(「右から入室」モードがセットされている場合)は、ステップ#46へ処理を移す。
In
ステップ#45では、左から入室し、且つ、右へ退室しているので、「左から右への通過カウント」を行う。また、ステップ#46では、動物体は、右から入室し、且つ、右へ退室している「Uターン」と判断し、カウントしない。
In
以上の処理によって、「右から左への通過」、「左から右への通過」、及び、「Uターン」を区別して入退室を判定することができる。例えば、「右から左への通過」を入室方向の移動、「左から右への通過」を退室方向の移動とすれば、夫々のカウントによって、入退室を区別してカウントできる。 With the above processing, the entry / exit can be determined by distinguishing “passing from right to left”, “passing from left to right”, and “U-turn”. For example, if “passing from right to left” is a movement in the entry direction and “passing from left to right” is a movement in the exit direction, entry / exit can be distinguished and counted by each count.
以上の図3のフロー図で説明した操作は、入力される処理画像データのフレーム毎に実施される。 The operation described with reference to the flowchart of FIG. 3 is performed for each frame of input processed image data.
次に、本発明装置の別実施形態について説明する。 Next, another embodiment of the device of the present invention will be described.
〈1〉上記実施形態において、画像処理部102が、差分データを基に濃度投影等のデータ解析処理を実行する前に、差分データに対して、収縮処理を数回行い微小なノイズを除去し、更に、膨張処理によって、動物体に穴等が開いている場合にそれを埋めて、動物体の形を確実なものにする前処理を施すのも好ましい。
<1> In the above embodiment, before the
〈2〉上記実施形態では、画像処理部102によるデータ解析処理の一例として、濃度投影による動物体の位置検出と幅の検出を説明したが、濃度投影に代えて、差分データに対してラベリング処理を施し、所定のラベル値の画素集合のX軸方向の幅によって、動物体の位置検出と幅の検出を行い、当該の幅の変化によって、動物体の入退室を判定するようにしても構わない。
<2> In the above embodiment, the position detection and width detection of the moving object by density projection have been described as an example of the data analysis process by the
〈3〉上記実施形態において、画像処理部102が、差分データを基に濃度投影等のデータ解析処理を実行する前に、差分データを、一旦、二値化するようにしても構わない。かかる前処理により、差分データが微小な場合であっても、濃度投影等のデータ解析処理において、正確に動物体の位置検出が行える。
<3> In the above embodiment, before the
〈4〉上記実施形態において、画像処理部102が濃度投影等のデータ解析処理を行う差分データが、撮像範囲全体ではなく、その一部の領域を対象としても構わない。例えば、撮像範囲の底面(床面或いは地面)や上面(天井等)の近傍域のデータをデータ解析処理の対象から除外する。この結果、動物体の位置検出に不要なデータ成分を除去することが可能となる。
<4> In the above-described embodiment, the difference data for which the
〈5〉上記実施形態のステップ#31及びステップ#41において、現フレームの処理画像データにおける検出幅の変化を判定するに当たり、1フレーム前の濃度投影等の解析データを記憶しておき、1フレーム前の解析データと現フレームの処理画像データにおける解析データとに基づいて、検出幅の変化の判定をする場合において、1フレーム前の解析データとして、濃度投影等の画像データ全体に対する情報ではなく、動物体の位置及び幅(長さ)の情報のみを記憶し、次フレームの処理に利用するようにしても構わない。
<5> In
〈6〉上記実施形態では、位置検出部103によって認識された動物体として、単体の動物体を想定して説明したが、濃度投影値がある一定幅以上連続して存在し、且つ、その長さが、所定の閾値以上の場合は、動物体が複数重なった集合体と判断し、入退室判定部105が、入退室をカウントする際に、上記濃度投影値がある一定幅以上連続して存在している長さを、上記所定の閾値で除した値を当該集合体の個数と見做して、当該個数をカウントするようにするのも好ましい実施の形態である。
<6> In the above embodiment, the description has been made assuming that the moving object recognized by the
〈7〉上記実施形態では、動物体が、撮像範囲内を右から左へ通過した場合と左から右へ通過した場合に、夫々、入室と退室のカウントを各別に行い、Uターンの場合は、カウントを行わない場合を説明したが、Uターンの場合も、他と区別して独自にカウントするようにしても構わない。 <7> In the above embodiment, when the moving object passes from the right to the left and from the left to the right within the imaging range, the entrance and the exit are counted separately. Although the case where the count is not performed has been described, in the case of the U-turn, the count may be independently made distinct from the others.
〈8〉上記実施形態では、画像入力装置106が、検出対象区域を当該区域の底面(床面或いは地面)に対して平行な方向(水平方向)に撮影し、該動物体は、当該区域の底面上を水平方向(撮像された画面上では左右方向)に移動する場合を想定したが、画像入力装置106が検出対象区域の高い位置(天井等)に設置され、底面に向かって当該区域を下方向に撮影した画像データを、処理画像データ及び基準画像データとして用いても構わない。この場合、動物体の移動方向(入室及び退室方向)は、画面上の上下方向、左右方向、または、斜め方向の何れであっても構わない。
<8> In the above embodiment, the
動物体が画面上を上下方向に移動する場合は、差分データに対する濃度投影は、その移動方向に平行なY軸に濃度投影を実施する。また、動物体が画面上を左右方向に移動する場合は、差分データに対する濃度投影は、その移動方向に平行なX軸に濃度投影を実施する。更に、動物体が画面上を斜め方向に移動する場合は、差分データに対する濃度投影は、斜め方向に移動する動物体の移動ベクトルの成分が大きい方の軸に濃度投影を実施する。 When the moving object moves in the vertical direction on the screen, the density projection for the difference data is performed on the Y axis parallel to the moving direction. When the moving object moves in the left-right direction on the screen, the density projection for the difference data is performed on the X axis parallel to the moving direction. Further, when the moving object moves diagonally on the screen, the density projection for the difference data is performed on the axis having the larger component of the moving vector of the moving object moving in the diagonal direction.
〈9〉上記実施形態では、差分検出部101が画像入力装置106から画像データの入力を受け付ける場合に、「初期画像入力モード」と「動作モード」の2つのモードを設け、「初期画像入力モード」において、基準画像データを入力するようにしたが、画像データの入力のモードを区別することなく、つまり、「初期画像入力モード」や「動作モード」を設けることなく、常に、1フレーム前に入力された処理画像データを基準画像データとして扱うようにしても構わない。この場合、例えば、画面上を動物体が左右方向に移動する場合に、動物体の左右のエッジが強調された差分データが生成されるため、画像処理部102は、当該差分データの特性に合ったデータ解析処理を実行するようにすればよい。
<9> In the above embodiment, when the
〈10〉上記実施形態では、画像入力装置106で撮像され差分検出部101に入力される画像データは、その信号強度がデータ処理の対象となるため、画像データはモノクロ画像で十分であるが、画像入力装置106が撮像する画像がRGBのカラー画像である場合には、RGB信号の内の特に輝度変化の大きいG成分を使用して、濃度投影等のデータ解析処理を実施するようにするのが好ましい。
<10> In the above embodiment, the image data captured by the
100: 本発明に係る入退室検知装置
101: 差分検出部
102: 画像処理部
103: 位置検出部
104; 動き検出部
105: 入退室判定部
106: 画像入力装置
DESCRIPTION OF SYMBOLS 100: Entrance / exit detection apparatus concerning this invention 101: Difference detection part 102: Image processing part 103:
Claims (15)
画像入力装置から入力された処理画像データと、前記処理画像データの入力より前に入力され保持されていた基準画像データとの差分データを求める差分検出部と、
前記差分データを基に所定のデータ解析処理を実行し、解析データを抽出する画像処理部と、
前記解析データに基づいて前記動物体の位置検出を行う位置検出部と、
時間的に相前後して処理された前記処理画像データの前記解析データまたは位置情報に基づいて前記動物体の動きを検出する動き検出部と、
前記動物体の前記位置検出部で検出された位置情報と前記動き検出部で検出された動き情報に基づいて、前記画像入力装置の撮像範囲内における入室方向の移動、退室方向の移動、及び、入室及び退室方向間のUターン移動を区別して前記動物体の入退室を判定する入退室判定部と、
を備えてなることを特徴とする入退室検知装置。 An entry / exit detection device for detecting the entry / exit of the moving object by detecting the movement of the moving object including a human,
A difference detection unit for obtaining difference data between the processed image data input from the image input device and the reference image data input and held before the input of the processed image data;
An image processing unit that executes predetermined data analysis processing based on the difference data and extracts analysis data;
A position detector that detects the position of the moving object based on the analysis data;
A motion detection unit that detects the motion of the moving object based on the analysis data or the position information of the processed image data processed before and after in time;
Based on the position information detected by the position detection unit of the moving object and the movement information detected by the motion detection unit, movement in the entrance direction, movement in the exit direction within the imaging range of the image input device, and An entrance / exit determination unit that distinguishes U-turn movement between the entrance and exit directions and determines entrance / exit of the moving object,
An entrance / exit detection device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004291848A JP2006107060A (en) | 2004-10-04 | 2004-10-04 | Room entering and leaving detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004291848A JP2006107060A (en) | 2004-10-04 | 2004-10-04 | Room entering and leaving detector |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006107060A true JP2006107060A (en) | 2006-04-20 |
Family
ID=36376736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004291848A Pending JP2006107060A (en) | 2004-10-04 | 2004-10-04 | Room entering and leaving detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006107060A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018507448A (en) * | 2015-12-31 | 2018-03-15 | 禾視控股(北京)有限公司 | Method, system and smart device for realizing sensation control based on smart device |
US11044424B2 (en) | 2019-09-17 | 2021-06-22 | Kabushiki Kaisha Toshiba | Image processing device |
-
2004
- 2004-10-04 JP JP2004291848A patent/JP2006107060A/en active Pending
Non-Patent Citations (2)
Title |
---|
CSNG200500375008, 目加田 慶人 Yoshito MEKADA, "2003年PRMUアルゴリズムコンテスト「そこにいるのは何人?」実施報告とその入賞アルゴリズムの紹介", 電子情報通信学会技術研究報告 Vol.103 No.516 IEICE Technical Report, 第103巻, JP, 社団法人電子情報通信学会 The Institute of Electro * |
JPN6010014270, 目加田 慶人 Yoshito MEKADA, "2003年PRMUアルゴリズムコンテスト「そこにいるのは何人?」実施報告とその入賞アルゴリズムの紹介", 電子情報通信学会技術研究報告 Vol.103 No.516 IEICE Technical Report, 第103巻, JP, 社団法人電子情報通信学会 The Institute of Electro * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018507448A (en) * | 2015-12-31 | 2018-03-15 | 禾視控股(北京)有限公司 | Method, system and smart device for realizing sensation control based on smart device |
US11044424B2 (en) | 2019-09-17 | 2021-06-22 | Kabushiki Kaisha Toshiba | Image processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11360571B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
JP6655878B2 (en) | Image recognition method and apparatus, program | |
US10941019B2 (en) | User detection system and image processing device | |
EP3029604B1 (en) | Area information estimating device, area information estimating method, and air conditioning apparatus | |
JP5675229B2 (en) | Image processing apparatus and image processing method | |
US10506174B2 (en) | Information processing apparatus and method for identifying objects and instructing a capturing apparatus, and storage medium for performing the processes | |
US8923553B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JPH10320562A (en) | Detection system and detection method for face of person | |
JP4667508B2 (en) | Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program | |
JP2004301607A (en) | Moving object detection device, moving object detection method, and moving object detection program | |
KR101290517B1 (en) | Photographing apparatus for tracking object and method thereof | |
JP2006107060A (en) | Room entering and leaving detector | |
JP6603123B2 (en) | Animal body detection apparatus, detection method, and program | |
JP6866182B2 (en) | Bed positioning device | |
JPH08153187A (en) | Image recognizing method | |
EP2528019A1 (en) | Apparatus and method for detecting objects in moving images | |
KR101958927B1 (en) | Method And Apparatus for Providing Adaptive Counting People | |
CN112597800B (en) | Method and system for detecting sitting-up actions of students in recording and broadcasting system | |
Nugroho et al. | Detecting human face from monocular image sequences by genetic algorithms | |
JP2002170096A (en) | Passing object count device and count method | |
Suresh et al. | Patch based frame work for occlusion detection in multi human tracking | |
JP3629164B2 (en) | Face image processing device | |
Zawistowski et al. | Multi-object tracking system | |
Khatri | Intelligent video surveillance using soft biometrics | |
Kadim et al. | Ghost removal for background subtraction using color similarity comparison |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100316 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100706 |