JP2006107060A - Room entering and leaving detector - Google Patents

Room entering and leaving detector Download PDF

Info

Publication number
JP2006107060A
JP2006107060A JP2004291848A JP2004291848A JP2006107060A JP 2006107060 A JP2006107060 A JP 2006107060A JP 2004291848 A JP2004291848 A JP 2004291848A JP 2004291848 A JP2004291848 A JP 2004291848A JP 2006107060 A JP2006107060 A JP 2006107060A
Authority
JP
Japan
Prior art keywords
data
entrance
exit
image data
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004291848A
Other languages
Japanese (ja)
Inventor
Koichi Hatakeyama
耕一 畠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004291848A priority Critical patent/JP2006107060A/en
Publication of JP2006107060A publication Critical patent/JP2006107060A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a room entering and leaving detector capable of accurately and easily carrying out the detection of the entering and leaving a moving body to and from a room at high speed without being accompanied by the data processing of a large processing amount such as the area calculation of the moving body to be detected when entering and leaving the room. <P>SOLUTION: The room entering and leaving detector is provided with: a difference detection part 101 for obtaining difference data of processing image data inputted from an image input device 106 and reference image data inputted and held beforehand; an image processing part 102 for carrying out a prescribed data analysis on the basis of the difference data and extracting analysis data; a position detection part 103 for detecting the position of the moving body on the basis of the analysis data; a motion detection part 104 for detecting the motion of the moving body on the basis of the analysis data of the processing image data processed almost simultaneously, or position information; and a room entering and leaving determination part 105 for determining movement in an entry direction, movement in an exit direction and U-turn movement between the room entering and leaving directions within the imaging range of the image input device 106 on the basis of the position information and movement information of the moving body and determining the room entering and leaving of the moving body. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は 人間を含む動物体の動きを検出して動物体の入退室を検出する入退室検知装置に関する。   The present invention relates to an entry / exit detection device for detecting the entry / exit of an animal body by detecting the movement of an animal body including a human being.

動物体の動きを認識する技術として、下記の特許文献1に開示されたものがある。この特許文献1に開示された従来技術においては、動物体(特に、人物)の認識に濃度投影アルゴリズムを使用し、人物の顔位置を検出するものである。   As a technique for recognizing the movement of an animal body, there is one disclosed in Patent Document 1 below. In the prior art disclosed in this patent document 1, a density projection algorithm is used for recognition of an animal body (particularly, a person), and the face position of the person is detected.

図5に、上記従来技術における人物認識装置のシステム構成図を、図6に、その認識処理動作のフロー図を、夫々示す。   FIG. 5 shows a system configuration diagram of the person recognition apparatus in the prior art, and FIG. 6 shows a flowchart of the recognition processing operation.

図5の人物認識装置は、人物を撮像して画像信号1を出力するCCDカメラ、与えられる1フレーム分の画像信号1を記憶する画像メモリ2、nフレーム後に入力された画像信号1と画像メモリ2に予め記録してあった画像信号とに基づいて両画像の絶対差分、すなわち両画像での動き領域を求めてその差分値を出力する絶対差分部3、画像信号1に基づいて画像信号1を2値化するための閾値を決定する閾値決定部4、絶対差分部3から差分値を入力して決定部4により決定された閾値を用いて2値化処理する比較部5を備えて構成される。   5 is a CCD camera that captures a person and outputs an image signal 1, an image memory 2 that stores the image signal 1 for a given frame, an image signal 1 and an image memory that are input after n frames. 2 based on the image signal recorded in advance 2, that is, an absolute difference unit 3 that obtains an absolute difference between the two images, that is, a motion region in both images and outputs the difference value, and an image signal 1 based on the image signal 1. A threshold value determination unit 4 for determining a threshold value for binarizing, and a comparison unit 5 that inputs a difference value from the absolute difference unit 3 and performs binarization processing using the threshold value determined by the determination unit 4 Is done.

更に、該人物認識装置は、X軸濃度投影部6、最大X軸投影座標抽出部7、Y軸濃度投影部8、最大Y軸投影座標抽出部9、顔特徴抽出/判定部11、エッジ検出部12、出力発生部14、頭幅抽出部19、動物体面積算出部31、前フレームの動物体面積算出/メモリ部41、比較部42を含む。これらの各部について、図6を参照しながら説明する。   Further, the person recognition apparatus includes an X-axis density projection unit 6, a maximum X-axis projection coordinate extraction unit 7, a Y-axis density projection unit 8, a maximum Y-axis projection coordinate extraction unit 9, a face feature extraction / determination unit 11, and edge detection. Unit 12, output generation unit 14, head width extraction unit 19, moving object area calculation unit 31, moving object area calculation / memory unit 41 of the previous frame, and comparison unit 42. Each of these parts will be described with reference to FIG.

頭幅抽出部19は、後述する比較部42から比較結果信号20が与えられたことに応じてのみ能動化されて、検出された動物体領域内における人体の頭幅のX座標(Xa2,Xb2)を求める。動物体面積算出部31は、動き物体の投影面積を算出する部分である。   The head width extraction unit 19 is activated only in response to the comparison result signal 20 given from the comparison unit 42 described later, and the X coordinate (Xa2, Xb2) of the head width of the human body in the detected moving body region. ) The moving object area calculation unit 31 is a part that calculates the projected area of the moving object.

前フレームの動物体面積算出/メモリ部41は、得られた座標Xa1,Xb1及びYtopに基づいてフレーム毎に動物体面積を算出して、算出された面積値を逐次記憶する。比較部42は、算出部31から出力される今回フレームの動物体面積とメモリ部41に記憶されている前回フレームの動物体面積とを大小比較して、今回フレームのそれが前回フレームのそれ以上であることに応じて比較結果信号20を出力し、頭幅抽出部19を能動化する。尚、前フレームの動物体面積算出/メモリ部41は記憶された前回フレームの動物体面積の読み出し完了(比較部42による比較完了)毎に、メモリ部41の前回フレームの面積をクリアし、新たに今回の算出面積を記憶することを繰り返す。   The moving object area calculation / memory unit 41 of the previous frame calculates the moving object area for each frame based on the obtained coordinates Xa1, Xb1, and Ytop, and sequentially stores the calculated area values. The comparison unit 42 compares the moving object area of the current frame output from the calculation unit 31 with the moving object area of the previous frame stored in the memory unit 41, and the current frame is greater than the previous frame. In response to this, the comparison result signal 20 is output, and the head width extraction unit 19 is activated. Note that the moving body area calculation / memory unit 41 of the previous frame clears the area of the previous frame of the memory unit 41 each time the stored moving body area of the previous frame is read (comparison completion by the comparison unit 42), Repeat the process of storing the current calculated area.

次に、図5の人物認識装置の動作について図6を参照しながら説明する。CCDカメラ等により撮像して得られた画像信号1を用いて、画像メモリ2〜最大Y軸投影座標抽出部9により、前述と同様にして座標Xa1,Xb1およびYtopが求められる(図6のS1〜S6参照)。次に、動物体面積算出部31、前フレームの動物体面積算出/メモリ部41及び比較部42により、今回フレームの動物体画像面積が前回フレームのそれ以上であるかが検出され、その結果に応じて比較結果信号20が出力されて頭幅抽出部19が能動化される。頭幅抽出部19は比較結果信号20により今回フレームの動物体画像面積が前回フレームのそれ以上であるときのみ能動化されて、前述と同様にして頭幅を抽出し、座標Xa2,Xb2を顔特徴抽出/判定部11に出力する。顔特徴抽出/判定部11は頭幅抽出部19から出力される座標Xa2,Xb2を用いて動物体頭幅部に顔面特徴が十分に抽出されるかを判定し、顔判定結果信号13を出力し、出力発生部14の出力発生を制御する。   Next, the operation of the person recognition apparatus in FIG. 5 will be described with reference to FIG. Using the image signal 1 obtained by imaging with a CCD camera or the like, the coordinates Xa1, Xb1 and Ytop are obtained in the same manner as described above by the image memory 2 to the maximum Y-axis projected coordinate extraction unit 9 (S1 in FIG. 6). To S6). Next, the moving object area calculation unit 31, the moving object area calculation / memory unit 41 of the previous frame, and the comparison unit 42 detect whether the moving object image area of the current frame is larger than that of the previous frame. In response, the comparison result signal 20 is output and the head width extraction unit 19 is activated. The head width extraction unit 19 is activated by the comparison result signal 20 only when the moving object image area of the current frame is larger than that of the previous frame, and extracts the head width in the same manner as described above, Output to the feature extraction / determination unit 11. The face feature extraction / determination unit 11 uses the coordinates Xa2 and Xb2 output from the head width extraction unit 19 to determine whether facial features are sufficiently extracted in the head width of the animal body, and outputs a face determination result signal 13 The output generation of the output generation unit 14 is controlled.

このように、図5の人物認識装置によれば、動物体面積算出部31、前フレームの動物体面積算出/メモリ部41および比較部42により、認識対象をカメラに近づいてくる動き物体に限定でき、また近づいてくるということは顔面がほぼ正面を向いていることとなって、該人物認識装置における検知精度を高めることが可能となる。
特開平7−73298号公報
As described above, according to the person recognition apparatus of FIG. 5, the moving object approaching the camera is limited by the moving object area calculating unit 31, the moving object area calculating / memory unit 41 of the previous frame, and the comparing unit 42. It can be done, and approaching means that the face is almost facing the front, so that the detection accuracy in the person recognition device can be improved.
JP-A-7-73298

しかし、上記従来技術の人物認識装置では、顔位置を検出するため、X軸濃度投影、Y軸濃度投影、更には、面積まで求める必要があり、動物体の入退室のみを扱う場合であれば処理量が多すぎる欠点がある。また、入退室においては、一旦、入室した動物体がUターンして退室する場合が存在するため、新たなアルゴリズムが必要と考えられる。   However, in the above-described conventional person recognition device, in order to detect the face position, it is necessary to obtain the X-axis density projection, the Y-axis density projection, and even the area. There is a drawback of too much throughput. In addition, in entering and leaving the room, there is a case where the moving object that has entered the room once makes a U-turn and leaves the room, so a new algorithm is considered necessary.

本発明は、上記問題点に鑑みてなされたもので、その目的は、入退室の検出対象の動物体の面積算出等の処理量の大きいデータ処理を伴わずに簡便且つ高速に動物体の入退室を正確に実行可能な入退室検知装置を提供することにある。   The present invention has been made in view of the above-described problems, and its object is to easily and rapidly enter an animal without involving a large amount of data processing such as calculating the area of the object to be detected in entry / exit. An object of the present invention is to provide an entrance / exit detection device capable of accurately executing exit.

上記目的を達成するための本発明に係る入退室検知装置は、人を含む動物体の動きを検出して前記動物体の入退室を検出する入退室検知装置であって、画像入力装置から入力された処理画像データと、前記処理画像データの入力より前に入力され保持されていた基準画像データとの差分データを求める差分検出部と、前記差分データを基に所定のデータ解析処理を実行し、解析データを抽出する画像処理部と、前記解析データに基づいて前記動物体の位置検出を行う位置検出部と、時間的に相前後して処理された前記処理画像データの前記解析データまたは位置情報に基づいて前記動物体の動きを検出する動き検出部と、前記動物体の前記位置検出部で検出された位置情報と前記動き検出部で検出された動き情報に基づいて、前記画像入力装置の撮像範囲内における入室方向の移動、退室方向の移動、及び、入室及び退室方向間のUターン移動を区別して前記動物体の入退室を判定する入退室判定部と、を備えてなることを特徴とする。   In order to achieve the above object, an entrance / exit detection device according to the present invention is an entrance / exit detection device that detects the entrance / exit of an animal body by detecting the movement of an animal including a person, and is input from an image input device. A difference detection unit that obtains difference data between the processed image data and the reference image data that was input and held before the input of the processed image data, and a predetermined data analysis process is executed based on the difference data An image processing unit for extracting analysis data; a position detection unit for detecting the position of the moving object based on the analysis data; and the analysis data or the position of the processed image data processed in tandem with each other A motion detection unit that detects a movement of the moving object based on the information; a position information detected by the position detection unit of the moving object; and a motion information detected by the motion detection unit. An entry / exit determination unit that distinguishes between movement in the entry direction, movement in the exit direction within the imaging range, and U-turn movement between the entry and exit directions, and determining entry / exit of the moving object. Features.

また、上記特徴構成の入退室検知装置は、前記画像処理部が、前記データ解析処理を実行する前に、前記差分データに対する膨張処理または収縮処理によるノイズ除去を行うのも好ましい。   In the entrance / exit detection device having the above-described characteristic configuration, it is also preferable that the image processing unit performs noise removal by expansion processing or contraction processing on the differential data before executing the data analysis processing.

また、上記特徴構成の入退室検知装置は、前記画像処理部は、前記データ解析処理として、前記差分データに対して濃度投影を行うことにより前記解析データを抽出するのも好ましい。更に、前記画像処理部が、前記差分データに対して濃度投影を行う前に、前記差分データを2値化処理するのも好ましい。また、前記画像処理部が、前記差分データに対して濃度投影を行う際に、前記差分データの一部領域に対して濃度投影を行うようにしても構わない。   In the entrance / exit detection device having the above-described characteristic configuration, the image processing unit preferably extracts the analysis data by performing density projection on the difference data as the data analysis processing. Furthermore, it is also preferable that the image processing unit binarizes the difference data before performing density projection on the difference data. The image processing unit may perform density projection on a partial area of the difference data when performing density projection on the difference data.

また、上記特徴構成の入退室検知装置は、前記画像処理部が、前記データ解析処理として、前記差分データに対してラベリング処理を行うことにより前記解析データを抽出するのも好ましい。   In the entrance / exit detection device having the above-described characteristic configuration, the image processing unit preferably extracts the analysis data by performing a labeling process on the difference data as the data analysis process.

また、上記特徴構成の入退室検知装置は、前記動き検出部は、直前に処理された前記処理画像データの前記解析データの内の前記動物体の位置及び長さに関する情報のみを保持するのも好ましい。   In the entrance / exit detection device having the above-described characteristic configuration, the motion detection unit holds only information on the position and length of the moving object in the analysis data of the processed image data processed immediately before. preferable.

また、上記特徴構成の入退室検知装置は、前記位置検出部が、前記解析データから得られる或る物体の長さが所定の閾値以下の場合、当該物体を前記動物体と認識しないようにしてもよい。   Further, the entrance / exit detection device having the above-described characteristic configuration is configured so that the position detection unit does not recognize the object as the moving object when the length of a certain object obtained from the analysis data is equal to or less than a predetermined threshold. Also good.

また、上記特徴構成の入退室検知装置は、前記位置検出部が、前記解析データから得られる或る物体の長さが所定の閾値以上の場合、当該物体を前記動物体の集合体と認識するようにしてもよい。   In the entrance / exit detection device having the above-described characteristic configuration, when the length of a certain object obtained from the analysis data is equal to or greater than a predetermined threshold, the position detection unit recognizes the object as a collection of moving objects. You may do it.

また、上記特徴構成の入退室検知装置は、前記画像入力装置から入力される前記処理画像データ及び前記基準画像データが、入退出の検出対象区域の底面に対して平行な方向に撮影した画像データであり、前記入室及び退室方向が、前記底面に対して平行な方向である構成でもよい。   The entrance / exit detection device having the above-described characteristic configuration may be configured such that the processed image data and the reference image data input from the image input device are captured in a direction parallel to the bottom surface of the entry / exit detection target area. The entry and exit directions may be parallel to the bottom surface.

また、上記特徴構成の入退室検知装置は、前記画像入力装置から入力される前記処理画像データ及び前記基準画像データは、入退出の検出対象区域の底面に向って垂直方向に撮影した画像データであり、前記入室及び退室方向が、画面上の上下方向、左右方向、または、斜め方向の何れかである構成でもよい。   Further, in the entrance / exit detection device having the above-described characteristic configuration, the processed image data and the reference image data input from the image input device are image data taken in a vertical direction toward the bottom surface of the entry / exit detection target area. There may be a configuration in which the entry and exit directions are any one of a vertical direction, a horizontal direction, and an oblique direction on the screen.

また、上記特徴構成の入退室検知装置は、前記差分検出部が、前記基準画像データとして、画面内に前記動物体が存在しない画像データを使用するのも好ましい。   In the entrance / exit detection device having the above-described characteristic configuration, it is also preferable that the difference detection unit uses image data in which the moving object does not exist in the screen as the reference image data.

また、上記特徴構成の入退室検知装置は、前記差分検出部が、前記基準画像データとして、直前に入力された前記処理画像データを使用するのも好ましい。   In the entrance / exit detection device having the above-described characteristic configuration, it is preferable that the difference detection unit uses the processed image data input immediately before as the reference image data.

また、上記特徴構成の入退室検知装置は、画像入力装置から入力される画像がRGBのカラー画像の場合、前記処理画像データと前記基準画像データとして、前記カラー画像の内の特に輝度変化の大きいG成分を使用するようにしてもよい。   In addition, when the image input from the image input device is an RGB color image, the entrance / exit detection device having the above characteristic configuration has a particularly large luminance change in the color image as the processed image data and the reference image data. You may make it use G component.

また、上記特徴構成の入退室検知装置は、前記入退室判定部が、前記Uターン移動する前記動物体は、入室または退室として判定しないのが好ましい。   In the entry / exit detection device having the above-described characteristic configuration, it is preferable that the entry / exit determination unit does not determine that the moving object moving in the U-turn is entering or leaving the room.

上記特徴構成の本発明に係る入退室検知装置によれば、面積算出等の2次元的なデータ処理の必要がなく、濃度投影やラベリング処理等の1次元的な処理量の小さいデータ解析処理のみで入退室検知するため、高速に動物体の入退室を検知することができる。また、動物体がUターン移動する場合でも、進行方向を検知することにより、入室あるいは退室から除外または区別することができるようになる。   According to the entrance / exit detection device according to the present invention having the above-described characteristic configuration, there is no need for two-dimensional data processing such as area calculation, and only data analysis processing with a small one-dimensional processing amount such as density projection and labeling processing is performed. Because the entry / exit detection is performed at the, entry / exit of the moving object can be detected at high speed. Even when the moving object moves U-turns, it can be excluded or distinguished from entering or leaving the room by detecting the direction of travel.

次に、本発明に係る入退室検知装置(以下、適宜「本発明装置」と称す。)の一実施形態につき図面に基づいて説明する。   Next, an embodiment of the entrance / exit detection device according to the present invention (hereinafter, appropriately referred to as “the present invention device”) will be described with reference to the drawings.

図1は、本発明装置100の一構成例を示すシステム構成図である。図1に示すように、本発明装置は、差分検出部101、画像処理部102、位置検出部103、動き検出部104、及び、入退室判定部105を備えて構成される。   FIG. 1 is a system configuration diagram showing a configuration example of the device 100 of the present invention. As shown in FIG. 1, the apparatus of the present invention includes a difference detection unit 101, an image processing unit 102, a position detection unit 103, a motion detection unit 104, and an entrance / exit determination unit 105.

尚、本実施形態においては、ビデオカメラ等の画像入力装置106が、人等の動物体の移動を検出する検出対象区域を当該区域の底面(床面或いは地面)に対して平行な方向(水平方向)に撮影し、該動物体は、当該区域の底面上を水平方向(撮像された画面上では左右方向)に移動する場合を想定し、更に、条件として、動物体が撮像範囲内に左右両方向から同時に入室しない(鉢合わせ状態とならない)ものとし、また、撮像範囲内では、カメラに対して、入退室時に複数の動物体が重ならないもとする。但し、撮像範囲内おいて、複数の動物体が同じ方向から入室すること、一の動物体が他の動物体を追い抜くこと、追い抜き後にUターンすること、撮像範囲内に左右の一方側から入室した後Uターンして退室することは構わないものとする。   In this embodiment, the image input device 106 such as a video camera sets the detection target area for detecting the movement of a moving object such as a person in a direction (horizontal) parallel to the bottom surface (floor surface or ground) of the area. The moving object is assumed to move in the horizontal direction (left and right direction on the imaged screen) on the bottom surface of the area, and as a condition, the moving object is left and right within the imaging range. It is assumed that the room does not enter from both directions at the same time (not in a matching state), and that within the imaging range, a plurality of moving objects do not overlap with the camera when entering or leaving the room. However, within the imaging range, multiple moving objects enter the same direction, one moving object overtakes another moving object, makes a U-turn after passing, and enters the imaging area from the left and right sides. After that, it is okay to make a U-turn and leave the room.

差分検出部101は、画像入力装置106から入力された画像データを保持するとともに、入力された画像データの内の最新に入力された処理画像データと、それより前に入力され保持されていた基準画像データとの差分データを生成する。基準画像データは、「初期画像入力モード」において、画像入力装置106で撮像され、差分検出部101に入力され、差分検出部101内の画像メモリに保存された初期画像が使用される。「初期画像入力モード」においては、基準画像データ取得後の動作は行わない。「初期画像入力モード」から「動作モード」にモード変更の後、差分検出部101に、「初期画像入力モード」時に取得した基準画像データと最新の入力された処理画像データとの間で絶対差分の値を計算により求めた差分データを生成し、画像処理部102へ出力する。   The difference detection unit 101 holds the image data input from the image input device 106, the most recently input processed image data of the input image data, and the reference that has been input and held before that. Difference data with image data is generated. In the “initial image input mode”, the reference image data is captured by the image input device 106, input to the difference detection unit 101, and the initial image stored in the image memory in the difference detection unit 101 is used. In the “initial image input mode”, the operation after obtaining the reference image data is not performed. After changing the mode from the “initial image input mode” to the “operation mode”, the difference detection unit 101 makes an absolute difference between the reference image data acquired in the “initial image input mode” and the latest input processed image data. Difference data obtained by calculation is generated and output to the image processing unit 102.

画像処理部102は、差分データを基に所定のデータ解析処理を実行し、解析データを抽出し、位置検出部103へ出力する。具体的には、例えば、濃度投影を行うことにより、解析データを抽出する。より具体的には、例えば、画像入力装置106が検出対象区域を床面等に対して水平方向に撮影し、当該検出対象区域を動物体が水平に移動する場合に、水平方向をX軸方向とした場合、X軸への濃度投影を解析データとして抽出する。   The image processing unit 102 executes predetermined data analysis processing based on the difference data, extracts the analysis data, and outputs it to the position detection unit 103. Specifically, for example, analysis data is extracted by performing density projection. More specifically, for example, when the image input device 106 images the detection target area in the horizontal direction with respect to the floor surface, and the moving object moves horizontally in the detection target area, the horizontal direction is the X-axis direction. In this case, the density projection on the X axis is extracted as analysis data.

位置検出部103は、抽出された解析データに基づいて、動物体の位置検出を行う。濃度投影の場合、例えば、X軸上に濃度投影値がある一定幅以上連続して存在する場合、該当するX座標範囲に動物体があると判定する。この様子を図2に示す。図2に示すように、濃度投影値が所定の閾値以上となる幅が一定値以上の場合、動物体と認識され、その幅が一定値以上でない場合は、動物体と認識されない。動物体と認識された場合の位置情報(X座標)を動き検出部104へ出力する。   The position detection unit 103 detects the position of the moving object based on the extracted analysis data. In the case of density projection, for example, when the density projection value continuously exists over a certain width on the X axis, it is determined that there is an animal in the corresponding X coordinate range. This is shown in FIG. As shown in FIG. 2, when the width at which the density projection value is equal to or greater than a predetermined threshold is equal to or greater than a certain value, the object is recognized as an animal body. Position information (X coordinate) when recognized as a moving object is output to the motion detection unit 104.

動き検出部104は、時間的に相前後して処理された処理画像データの解析データに基づく動物体の位置情報を保存し、当該時間的に相前位置情報から動物体の動きを検出する。具体的には、動物体と認識されるX座標範囲の左端と右端のX座標が逐次保存される。直前の処理時のフレーム番号を(n−1)とし、現在処理中のフレーム番号をnとし、フレーム(n−1)とフレーム(n)の2つの処理画像データ間で、動物体の幅(左端と右端のX座標の差)が増加したか、減少したかを検出し、入退室判定部105へ出力する。   The motion detection unit 104 stores the position information of the moving object based on the analysis data of the processed image data processed before and after the time, and detects the movement of the moving object from the previous position information. Specifically, the left and right X coordinates of the X coordinate range recognized as a moving object are sequentially stored. The frame number at the time of the immediately previous processing is (n-1), the frame number currently being processed is n, and the width of the moving object between the two processed image data of frame (n-1) and frame (n) ( Whether the left end and the right end (X coordinate difference) has increased or decreased is detected and output to the entrance / exit determination unit 105.

入退室判定部105は、動物体の位置検出部103で検出された位置情報(X座標)と動き検出部104で検出された動き情報(幅の増減)に基づいて、画像入力装置106の撮像範囲内における入室方向の移動、退室方向の移動、及び、入室及び退室方向間のUターン移動を区別して動物体の入退室を判定し、動物体が、撮像範囲内を右から左へ通過した場合と、左から右へ通過した場合を、一方を入室、他方と退室としてカウントする。   The entrance / exit determination unit 105 captures an image of the image input device 106 based on the position information (X coordinate) detected by the position detection unit 103 of the moving object and the motion information (width increase / decrease) detected by the motion detection unit 104. The movement of the entry direction within the range, the movement in the exit direction, and the U-turn movement between the entry and exit directions are distinguished, and the entry and exit of the moving object is determined, and the moving object passes through the imaging range from right to left. The case and the case of passing from left to right are counted as one entering the room and leaving the other.

次に、図3を参照して、位置検出部103、動き検出部104、及び、入退室判定部105における本発明装置の入退室検知動作について、より詳細に説明する。図3に、当該入退室検知動作のフロー図を示す。   Next, with reference to FIG. 3, the entrance / exit detection operation of the apparatus of the present invention in the position detection unit 103, the motion detection unit 104, and the entrance / exit determination unit 105 will be described in more detail. FIG. 3 shows a flowchart of the entry / exit detection operation.

動物体位置検出ステップ(#10)において、動物体が撮像範囲の左端にいるか、右端にいるか、或いは、中央部にいるかを検出する。検出方法は、例えば、図4に示すように、動物体の左側のX座標をXs、右側のX座標をXeとし、左端の閾値をXLth、右端の閾値をXRthとし、数1に示す不等式が成立する場合は、動物体が左端にいると定義し、数2に示す不等式が成立する場合は、動物体が右端にいると定義し、それ以外を動物体が中央部にいると定義する。   In the moving object position detection step (# 10), it is detected whether the moving object is at the left end, the right end, or the center of the imaging range. For example, as shown in FIG. 4, the X coordinate on the left side of the moving object is Xs, the X coordinate on the right side is Xe, the threshold value on the left end is XLth, the threshold value on the right end is XRth, and the inequality shown in Equation 1 is When it is established, it is defined that the moving object is at the left end, and when the inequality shown in Equation 2 is satisfied, it is defined that the moving object is at the right end, and other than that, the moving object is defined at the center.

(数1)
Xs < XLth
(Equation 1)
Xs <XLth

(数2)
Xe > XRth
(Equation 2)
Xe> XRth

尚、上記数1と数2の両不等式が成立する場合も想定し得るが、その場合は撮像範囲全体に動物体が存在するケースであり、本実施形態では当該ケースは除外するものとする。   In addition, although the case where both the said inequality of the said number 1 and number 2 is materialized can also be assumed, it is a case where a moving body exists in the whole imaging range, and this case shall be excluded in this embodiment.

次に、ステップ#20において、上記定義により決定した動物体の3通りの存在位置によって、後続の処理を分岐する。左端と右端の何れでもない中央部に存在する場合は、後続の動き検出及び入退室の判定は処理しない。動物体が左端にいる場合は、ステップ#30以降の処理へ進み、動物体が右端にいる場合は、ステップ#40以降の処理へ進む。   Next, in step # 20, the subsequent processing is branched depending on the three existing positions of the moving object determined by the above definition. If it exists in the central portion that is neither the left end nor the right end, the subsequent motion detection and entry / exit determination are not processed. If the moving object is at the left end, the process proceeds to step # 30 and subsequent steps. If the moving object is at the right end, the process proceeds to step # 40 and subsequent steps.

先ず、ステップ#20の判定において、動物体が左端にいる場合について説明する。ステップ#30において、記憶している1フレーム前の検出幅の変化を判定し、この値が変化なしであった場合は、ステップ#31へ処理を移す。それ以外の増加また減少であった場合は、1フレーム前に処理済であるので処理しない。   First, the case where the moving object is at the left end in the determination of step # 20 will be described. In step # 30, a change in the stored detection width one frame before is determined. If this value is unchanged, the process proceeds to step # 31. Any other increase or decrease is not processed because it has been processed one frame before.

ステップ#31において、動物体の幅の変化を計算し、幅が増加する場合はステップ#32へ、減少する場合はステップ#33へ処理を移す。また、幅の変化がない場合は、動きが無いか、または、動物体が左端に至っていないと判断して処理を中止して終了する。   In step # 31, the change in the width of the moving object is calculated. If the width increases, the process proceeds to step # 32. If the width decreases, the process proceeds to step # 33. If there is no change in width, it is determined that there is no movement or that the moving object has not reached the left end, and the process is terminated and the process ends.

ステップ#32へ進んだ場合は、動物体の位置が左端で、且つ、動物体の幅が増加しているため、動物体が入室したと判断し、「左から入室」モードにセットする。   When the process proceeds to step # 32, since the position of the moving object is at the left end and the width of the moving object has increased, it is determined that the moving object has entered the room, and the “enter from left” mode is set.

ステップ#33へ進んだ場合は、位置が左端でかつ、動物体の幅が減少しているため、動物体が左へ退室したと判断する。この場合、更に、ステップ#34へ処理を移す。   When the process proceeds to step # 33, it is determined that the moving object has left to the left because the position is at the left end and the width of the moving object has decreased. In this case, the process further proceeds to step # 34.

ステップ#34において、判定対象の動物体に対して、「右から入室」モードがセットされている場合は、ステップ#35へ処理を移し、そうでない場合(「左から入室」モードがセットされている場合)は、ステップ#36へ処理を移す。   In step # 34, if the “entry from right” mode is set for the moving object to be determined, the process proceeds to step # 35, and if not (the “entry from left” mode is set). If YES, the process proceeds to step # 36.

ステップ#35では、右から入室し、且つ、左へ退室しているので、「右から左への通過カウント」を行う。また、ステップ#36では、動物体は、左から入室し、且つ、左へ退室している「Uターン」と判断し、カウントしない。   In Step # 35, since entering the room from the right and leaving the room to the left, "passing counting from the right to the left" is performed. In Step # 36, it is determined that the moving object enters the room from the left and leaves the room to the left, and does not count.

次に、ステップ#20の判定において、動物体が右端にいる場合について説明する。ステップ#40において、記憶している1フレーム前の検出幅の変化を判定し、この値が変化なしであった場合は、ステップ#41へ処理を移す。それ以外の増加また減少であった場合は、1フレーム前に処理済であるので処理しない。   Next, the case where the moving object is at the right end in the determination of step # 20 will be described. In step # 40, a change in the stored detection width one frame before is determined. If this value is unchanged, the process proceeds to step # 41. Any other increase or decrease is not processed because it has been processed one frame before.

ステップ#41において、動物体の幅の変化を計算し、幅が増加する場合はステップ#42へ、減少する場合はステップ#43へ処理を移す。また、幅の変化がない場合は、動きが無いか、または、動物体が右端に至っていないと判断して処理を中止して終了する。   In step # 41, the change in the width of the moving object is calculated. If the width increases, the process proceeds to step # 42, and if it decreases, the process proceeds to step # 43. On the other hand, if there is no change in width, it is determined that there is no movement or the moving object has not reached the right end, and the process is terminated and the process is terminated.

ステップ#42へ進んだ場合は、動物体の位置が右端で、且つ、動物体の幅が増加しているため、動物体が入室したと判断し、「右から入室」モードにセットする。   When the process proceeds to step # 42, since the position of the moving object is at the right end and the width of the moving object has increased, it is determined that the moving object has entered the room, and the "enter from right" mode is set.

ステップ#43へ進んだ場合は、位置が右端でかつ、動物体の幅が減少しているため、動物体が右へ退室したと判断する。この場合、更に、ステップ#44へ処理を移す。   When the process proceeds to step # 43, it is determined that the moving object has left the room because the position is at the right end and the width of the moving object has decreased. In this case, the processing is further moved to step # 44.

ステップ#44において、判定対象の動物体に対して、「左から入室」モードがセットされている場合は、ステップ#45へ処理を移し、そうでない場合(「右から入室」モードがセットされている場合)は、ステップ#46へ処理を移す。   In step # 44, if the “entry from left” mode is set for the object to be determined, the process proceeds to step # 45, and if not (the “entry from right” mode is set. If YES, the process proceeds to step # 46.

ステップ#45では、左から入室し、且つ、右へ退室しているので、「左から右への通過カウント」を行う。また、ステップ#46では、動物体は、右から入室し、且つ、右へ退室している「Uターン」と判断し、カウントしない。   In step # 45, since entering the room from the left and leaving the room to the right, “passing counting from the left to the right” is performed. In Step # 46, it is determined that the moving object enters the room from the right and leaves the room to the right, and does not count.

以上の処理によって、「右から左への通過」、「左から右への通過」、及び、「Uターン」を区別して入退室を判定することができる。例えば、「右から左への通過」を入室方向の移動、「左から右への通過」を退室方向の移動とすれば、夫々のカウントによって、入退室を区別してカウントできる。   With the above processing, the entry / exit can be determined by distinguishing “passing from right to left”, “passing from left to right”, and “U-turn”. For example, if “passing from right to left” is a movement in the entry direction and “passing from left to right” is a movement in the exit direction, entry / exit can be distinguished and counted by each count.

以上の図3のフロー図で説明した操作は、入力される処理画像データのフレーム毎に実施される。   The operation described with reference to the flowchart of FIG. 3 is performed for each frame of input processed image data.

次に、本発明装置の別実施形態について説明する。   Next, another embodiment of the device of the present invention will be described.

〈1〉上記実施形態において、画像処理部102が、差分データを基に濃度投影等のデータ解析処理を実行する前に、差分データに対して、収縮処理を数回行い微小なノイズを除去し、更に、膨張処理によって、動物体に穴等が開いている場合にそれを埋めて、動物体の形を確実なものにする前処理を施すのも好ましい。   <1> In the above embodiment, before the image processing unit 102 executes data analysis processing such as density projection based on the difference data, the difference data is subjected to contraction processing several times to remove minute noise. Furthermore, it is also preferable to perform a pretreatment to fill the hole or the like when the animal body is opened by the expansion process so as to ensure the shape of the animal body.

〈2〉上記実施形態では、画像処理部102によるデータ解析処理の一例として、濃度投影による動物体の位置検出と幅の検出を説明したが、濃度投影に代えて、差分データに対してラベリング処理を施し、所定のラベル値の画素集合のX軸方向の幅によって、動物体の位置検出と幅の検出を行い、当該の幅の変化によって、動物体の入退室を判定するようにしても構わない。   <2> In the above embodiment, the position detection and width detection of the moving object by density projection have been described as an example of the data analysis process by the image processing unit 102. However, instead of density projection, labeling processing is performed on difference data. The position of the moving object and the width are detected based on the width of the pixel set having a predetermined label value in the X-axis direction, and the entrance / exit of the moving object may be determined based on the change in the width. Absent.

〈3〉上記実施形態において、画像処理部102が、差分データを基に濃度投影等のデータ解析処理を実行する前に、差分データを、一旦、二値化するようにしても構わない。かかる前処理により、差分データが微小な場合であっても、濃度投影等のデータ解析処理において、正確に動物体の位置検出が行える。   <3> In the above embodiment, before the image processing unit 102 executes data analysis processing such as density projection based on the difference data, the difference data may be binarized once. By such preprocessing, even when the difference data is very small, the position of the moving object can be accurately detected in data analysis processing such as density projection.

〈4〉上記実施形態において、画像処理部102が濃度投影等のデータ解析処理を行う差分データが、撮像範囲全体ではなく、その一部の領域を対象としても構わない。例えば、撮像範囲の底面(床面或いは地面)や上面(天井等)の近傍域のデータをデータ解析処理の対象から除外する。この結果、動物体の位置検出に不要なデータ成分を除去することが可能となる。   <4> In the above-described embodiment, the difference data for which the image processing unit 102 performs data analysis processing such as density projection may target not only the entire imaging range but also a partial area thereof. For example, data in the vicinity of the bottom surface (floor surface or ground) or top surface (ceiling, etc.) of the imaging range is excluded from the data analysis processing targets. As a result, it is possible to remove data components unnecessary for detecting the position of the moving object.

〈5〉上記実施形態のステップ#31及びステップ#41において、現フレームの処理画像データにおける検出幅の変化を判定するに当たり、1フレーム前の濃度投影等の解析データを記憶しておき、1フレーム前の解析データと現フレームの処理画像データにおける解析データとに基づいて、検出幅の変化の判定をする場合において、1フレーム前の解析データとして、濃度投影等の画像データ全体に対する情報ではなく、動物体の位置及び幅(長さ)の情報のみを記憶し、次フレームの処理に利用するようにしても構わない。   <5> In step # 31 and step # 41 of the above embodiment, analysis data such as density projection one frame before is stored in order to determine a change in detection width in the processed image data of the current frame. When determining the change in detection width based on the previous analysis data and the analysis data in the processed image data of the current frame, the analysis data of the previous frame is not information on the entire image data such as density projection, Only the information on the position and width (length) of the moving object may be stored and used for processing the next frame.

〈6〉上記実施形態では、位置検出部103によって認識された動物体として、単体の動物体を想定して説明したが、濃度投影値がある一定幅以上連続して存在し、且つ、その長さが、所定の閾値以上の場合は、動物体が複数重なった集合体と判断し、入退室判定部105が、入退室をカウントする際に、上記濃度投影値がある一定幅以上連続して存在している長さを、上記所定の閾値で除した値を当該集合体の個数と見做して、当該個数をカウントするようにするのも好ましい実施の形態である。   <6> In the above embodiment, the description has been made assuming that the moving object recognized by the position detection unit 103 is a single moving object. However, the density projection value exists continuously over a certain width, and the length is long. Is greater than or equal to a predetermined threshold value, it is determined as an assembly of a plurality of moving objects, and when the entrance / exit determination unit 105 counts entrance / exit, the concentration projection value continuously exceeds a certain width. In another preferred embodiment, the value obtained by dividing the existing length by the predetermined threshold value is regarded as the number of the aggregates, and the number is counted.

〈7〉上記実施形態では、動物体が、撮像範囲内を右から左へ通過した場合と左から右へ通過した場合に、夫々、入室と退室のカウントを各別に行い、Uターンの場合は、カウントを行わない場合を説明したが、Uターンの場合も、他と区別して独自にカウントするようにしても構わない。   <7> In the above embodiment, when the moving object passes from the right to the left and from the left to the right within the imaging range, the entrance and the exit are counted separately. Although the case where the count is not performed has been described, in the case of the U-turn, the count may be independently made distinct from the others.

〈8〉上記実施形態では、画像入力装置106が、検出対象区域を当該区域の底面(床面或いは地面)に対して平行な方向(水平方向)に撮影し、該動物体は、当該区域の底面上を水平方向(撮像された画面上では左右方向)に移動する場合を想定したが、画像入力装置106が検出対象区域の高い位置(天井等)に設置され、底面に向かって当該区域を下方向に撮影した画像データを、処理画像データ及び基準画像データとして用いても構わない。この場合、動物体の移動方向(入室及び退室方向)は、画面上の上下方向、左右方向、または、斜め方向の何れであっても構わない。   <8> In the above embodiment, the image input device 106 images the detection target area in a direction (horizontal direction) parallel to the bottom surface (floor surface or ground surface) of the area, and the moving object Although it is assumed that the image moves on the bottom surface in the horizontal direction (left and right on the imaged screen), the image input device 106 is installed at a high position (such as the ceiling) of the detection target area, and the area is moved toward the bottom surface. The image data photographed in the downward direction may be used as the processed image data and the reference image data. In this case, the moving direction (entrance and exit directions) of the moving object may be any of an up-down direction, a left-right direction, and an oblique direction on the screen.

動物体が画面上を上下方向に移動する場合は、差分データに対する濃度投影は、その移動方向に平行なY軸に濃度投影を実施する。また、動物体が画面上を左右方向に移動する場合は、差分データに対する濃度投影は、その移動方向に平行なX軸に濃度投影を実施する。更に、動物体が画面上を斜め方向に移動する場合は、差分データに対する濃度投影は、斜め方向に移動する動物体の移動ベクトルの成分が大きい方の軸に濃度投影を実施する。   When the moving object moves in the vertical direction on the screen, the density projection for the difference data is performed on the Y axis parallel to the moving direction. When the moving object moves in the left-right direction on the screen, the density projection for the difference data is performed on the X axis parallel to the moving direction. Further, when the moving object moves diagonally on the screen, the density projection for the difference data is performed on the axis having the larger component of the moving vector of the moving object moving in the diagonal direction.

〈9〉上記実施形態では、差分検出部101が画像入力装置106から画像データの入力を受け付ける場合に、「初期画像入力モード」と「動作モード」の2つのモードを設け、「初期画像入力モード」において、基準画像データを入力するようにしたが、画像データの入力のモードを区別することなく、つまり、「初期画像入力モード」や「動作モード」を設けることなく、常に、1フレーム前に入力された処理画像データを基準画像データとして扱うようにしても構わない。この場合、例えば、画面上を動物体が左右方向に移動する場合に、動物体の左右のエッジが強調された差分データが生成されるため、画像処理部102は、当該差分データの特性に合ったデータ解析処理を実行するようにすればよい。   <9> In the above embodiment, when the difference detection unit 101 receives input of image data from the image input device 106, two modes of “initial image input mode” and “operation mode” are provided. ”, The reference image data is input, but the image data input mode is not distinguished, that is, the“ initial image input mode ”and the“ operation mode ”are not provided, and always one frame before. The input processed image data may be handled as reference image data. In this case, for example, when the moving object moves in the left-right direction on the screen, difference data in which the left and right edges of the moving object are emphasized is generated, so the image processing unit 102 matches the characteristics of the difference data. Data analysis processing may be executed.

〈10〉上記実施形態では、画像入力装置106で撮像され差分検出部101に入力される画像データは、その信号強度がデータ処理の対象となるため、画像データはモノクロ画像で十分であるが、画像入力装置106が撮像する画像がRGBのカラー画像である場合には、RGB信号の内の特に輝度変化の大きいG成分を使用して、濃度投影等のデータ解析処理を実施するようにするのが好ましい。   <10> In the above embodiment, the image data captured by the image input device 106 and input to the difference detection unit 101 is subject to data processing, so that the image data is sufficient as a monochrome image. When the image captured by the image input device 106 is an RGB color image, data analysis processing such as density projection is performed using a G component having a particularly large luminance change in the RGB signal. Is preferred.

本発明に係る入退室検知装置の一実施形態におけるシステム構成例を示すブロック構成図The block block diagram which shows the system structural example in one Embodiment of the entrance / exit detection apparatus which concerns on this invention 本発明に係る入退室検知装置の一実施形態における濃度投影による動物体の位置検出の様子を示した図The figure which showed the mode of the position detection of the moving body by density | concentration projection in one Embodiment of the entrance / exit detection apparatus which concerns on this invention 本発明に係る入退室検知装置の一実施形態における入退室検知動作を示すフロー図である。It is a flowchart which shows the entrance / exit detection operation in one Embodiment of the entrance / exit detection apparatus which concerns on this invention. 本発明に係る入退室検知装置の一実施形態における撮像範囲内における動物体の位置の判定手法を説明する図The figure explaining the determination method of the position of the moving object in the imaging range in one Embodiment of the entrance / exit detection apparatus which concerns on this invention 従来の人物認識装置のシステム構成を示すブロック図The block diagram which shows the system configuration | structure of the conventional person recognition apparatus 図5に示す従来の人物認識装置の認識処理動作を示すフロー図The flowchart which shows the recognition processing operation | movement of the conventional person recognition apparatus shown in FIG.

符号の説明Explanation of symbols

100: 本発明に係る入退室検知装置
101: 差分検出部
102: 画像処理部
103: 位置検出部
104; 動き検出部
105: 入退室判定部
106: 画像入力装置
DESCRIPTION OF SYMBOLS 100: Entrance / exit detection apparatus concerning this invention 101: Difference detection part 102: Image processing part 103: Position detection part 104; Motion detection part 105: Entrance / exit determination part 106: Image input device

Claims (15)

人を含む動物体の動きを検出して前記動物体の入退室を検出する入退室検知装置であって、
画像入力装置から入力された処理画像データと、前記処理画像データの入力より前に入力され保持されていた基準画像データとの差分データを求める差分検出部と、
前記差分データを基に所定のデータ解析処理を実行し、解析データを抽出する画像処理部と、
前記解析データに基づいて前記動物体の位置検出を行う位置検出部と、
時間的に相前後して処理された前記処理画像データの前記解析データまたは位置情報に基づいて前記動物体の動きを検出する動き検出部と、
前記動物体の前記位置検出部で検出された位置情報と前記動き検出部で検出された動き情報に基づいて、前記画像入力装置の撮像範囲内における入室方向の移動、退室方向の移動、及び、入室及び退室方向間のUターン移動を区別して前記動物体の入退室を判定する入退室判定部と、
を備えてなることを特徴とする入退室検知装置。
An entry / exit detection device for detecting the entry / exit of the moving object by detecting the movement of the moving object including a human,
A difference detection unit for obtaining difference data between the processed image data input from the image input device and the reference image data input and held before the input of the processed image data;
An image processing unit that executes predetermined data analysis processing based on the difference data and extracts analysis data;
A position detector that detects the position of the moving object based on the analysis data;
A motion detection unit that detects the motion of the moving object based on the analysis data or the position information of the processed image data processed before and after in time;
Based on the position information detected by the position detection unit of the moving object and the movement information detected by the motion detection unit, movement in the entrance direction, movement in the exit direction within the imaging range of the image input device, and An entrance / exit determination unit that distinguishes U-turn movement between the entrance and exit directions and determines entrance / exit of the moving object,
An entrance / exit detection device comprising:
前記画像処理部は、前記データ解析処理を実行する前に、前記差分データに対する膨張処理または収縮処理によるノイズ除去を行うことを特徴とする請求項1に記載の入退室検知装置。   The entrance / exit detection device according to claim 1, wherein the image processing unit performs noise removal by an expansion process or a contraction process on the difference data before executing the data analysis process. 前記画像処理部は、前記データ解析処理として、前記差分データに対して濃度投影を行うことにより前記解析データを抽出することを特徴とする請求項1または2に記載の入退室検知装置。   The entrance / exit detection device according to claim 1, wherein the image processing unit extracts the analysis data by performing density projection on the difference data as the data analysis processing. 前記画像処理部は、前記差分データに対して濃度投影を行う前に、前記差分データを2値化処理することを特徴とする請求項3に記載の入退室検知装置。   The entrance / exit detection device according to claim 3, wherein the image processing unit binarizes the difference data before performing density projection on the difference data. 前記画像処理部は、前記差分データに対して濃度投影を行う際に、前記差分データの一部領域に対して濃度投影を行うことを特徴とする請求項3または4に記載の入退室検知装置。   The entrance / exit detection device according to claim 3 or 4, wherein the image processing unit performs density projection on a partial region of the difference data when performing density projection on the difference data. . 前記画像処理部は、前記データ解析処理として、前記差分データに対してラベリング処理を行うことにより前記解析データを抽出することを特徴とする請求項1または2に記載の入退室検知装置。   The entrance / exit detection device according to claim 1, wherein the image processing unit extracts the analysis data by performing a labeling process on the difference data as the data analysis process. 前記動き検出部は、直前に処理された前記処理画像データの前記解析データの内の前記動物体の位置及び長さに関する情報のみを保持することを特徴とする請求項1〜6の何れか1項に記載の入退室検知装置。   The said motion detection part hold | maintains only the information regarding the position and length of the said moving body in the said analysis data of the said process image data processed immediately before, The any one of Claims 1-6 characterized by the above-mentioned. The entry / exit detection device according to the item. 前記位置検出部は、前記解析データから得られる或る物体の長さが所定の閾値以下の場合、当該物体を前記動物体と認識しないことを特徴とする請求項1〜7の何れか1項に記載の入退室検知装置。   The said position detection part does not recognize the said object as the said moving body, when the length of a certain object obtained from the said analysis data is below a predetermined threshold value, The any one of Claims 1-7 characterized by the above-mentioned. The entrance / exit detection device described in 1. 前記位置検出部は、前記解析データから得られる或る物体の長さが所定の閾値以上の場合、当該物体を前記動物体の集合体と認識することを特徴とする請求項1〜8の何れか1項に記載の入退室検知装置。   The position detection unit recognizes the object as a collection of moving objects when the length of a certain object obtained from the analysis data is equal to or greater than a predetermined threshold. The entrance / exit detection apparatus of Claim 1. 前記画像入力装置から入力される前記処理画像データ及び前記基準画像データは、入退出の検出対象区域の底面に対して平行な方向に撮影した画像データであり、前記入室及び退室方向が、前記底面に対して平行な方向であることを特徴とする請求項1〜9の何れか1項に記載の入退室検知装置。   The processed image data and the reference image data input from the image input device are image data photographed in a direction parallel to the bottom surface of the entrance / exit detection target area, and the entrance and exit directions are the The entrance / exit detection device according to claim 1, wherein the entrance / exit detection device is in a direction parallel to the bottom surface. 前記画像入力装置から入力される前記処理画像データ及び前記基準画像データは、入退出の検出対象区域の底面に向って垂直方向に撮影した画像データであり、前記入室及び退室方向が、画面上の上下方向、左右方向、または、斜め方向の何れかであることを特徴とする請求項1〜9の何れか1項に記載の入退室検知装置。   The processed image data and the reference image data input from the image input device are image data photographed in a vertical direction toward the bottom surface of the entry / exit detection target area, and the entrance and exit directions are on the screen. The entrance / exit detection device according to any one of claims 1 to 9, wherein the entry / exit detection device is any one of a vertical direction, a horizontal direction, and an oblique direction. 前記差分検出部は、前記基準画像データとして、画面内に前記動物体が存在しない画像データを使用することを特徴とする請求項1〜11の何れか1項に記載の入退室検知装置。   The entrance / exit detection device according to any one of claims 1 to 11, wherein the difference detection unit uses image data in which the moving object does not exist in a screen as the reference image data. 前記差分検出部は、前記基準画像データとして、直前に入力された前記処理画像データを使用することを特徴とする請求項1〜11の何れか1項に記載の入退室検知装置。   The entrance / exit detection device according to claim 1, wherein the difference detection unit uses the processed image data input immediately before as the reference image data. 画像入力装置から入力される画像がRGBのカラー画像の場合、前記処理画像データと前記基準画像データとして、前記カラー画像の内のG成分を使用することを特徴とする請求項1〜13の何れか1項に記載の入退室検知装置。   The G component of the color image is used as the processed image data and the reference image data when the image input from the image input device is an RGB color image. The entrance / exit detection apparatus of Claim 1. 前記入退室判定部は、前記Uターン移動する前記動物体は、入室または退室として判定しないことを特徴とする請求項1〜14の何れか1項に記載の入退室検知装置。   The entrance / exit detection unit according to any one of claims 1 to 14, wherein the entrance / exit determination unit does not determine that the moving object moving in the U-turn is entering or exiting.
JP2004291848A 2004-10-04 2004-10-04 Room entering and leaving detector Pending JP2006107060A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004291848A JP2006107060A (en) 2004-10-04 2004-10-04 Room entering and leaving detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004291848A JP2006107060A (en) 2004-10-04 2004-10-04 Room entering and leaving detector

Publications (1)

Publication Number Publication Date
JP2006107060A true JP2006107060A (en) 2006-04-20

Family

ID=36376736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004291848A Pending JP2006107060A (en) 2004-10-04 2004-10-04 Room entering and leaving detector

Country Status (1)

Country Link
JP (1) JP2006107060A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018507448A (en) * 2015-12-31 2018-03-15 禾視控股(北京)有限公司 Method, system and smart device for realizing sensation control based on smart device
US11044424B2 (en) 2019-09-17 2021-06-22 Kabushiki Kaisha Toshiba Image processing device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200500375008, 目加田 慶人 Yoshito MEKADA, "2003年PRMUアルゴリズムコンテスト「そこにいるのは何人?」実施報告とその入賞アルゴリズムの紹介", 電子情報通信学会技術研究報告 Vol.103 No.516 IEICE Technical Report, 第103巻, JP, 社団法人電子情報通信学会 The Institute of Electro *
JPN6010014270, 目加田 慶人 Yoshito MEKADA, "2003年PRMUアルゴリズムコンテスト「そこにいるのは何人?」実施報告とその入賞アルゴリズムの紹介", 電子情報通信学会技術研究報告 Vol.103 No.516 IEICE Technical Report, 第103巻, JP, 社団法人電子情報通信学会 The Institute of Electro *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018507448A (en) * 2015-12-31 2018-03-15 禾視控股(北京)有限公司 Method, system and smart device for realizing sensation control based on smart device
US11044424B2 (en) 2019-09-17 2021-06-22 Kabushiki Kaisha Toshiba Image processing device

Similar Documents

Publication Publication Date Title
US11360571B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP6655878B2 (en) Image recognition method and apparatus, program
US10941019B2 (en) User detection system and image processing device
EP3029604B1 (en) Area information estimating device, area information estimating method, and air conditioning apparatus
JP5675229B2 (en) Image processing apparatus and image processing method
US10506174B2 (en) Information processing apparatus and method for identifying objects and instructing a capturing apparatus, and storage medium for performing the processes
US8923553B2 (en) Image processing apparatus, image processing method, and storage medium
JPH10320562A (en) Detection system and detection method for face of person
JP4667508B2 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
JP2004301607A (en) Moving object detection device, moving object detection method, and moving object detection program
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
JP2006107060A (en) Room entering and leaving detector
JP6603123B2 (en) Animal body detection apparatus, detection method, and program
JP6866182B2 (en) Bed positioning device
JPH08153187A (en) Image recognizing method
EP2528019A1 (en) Apparatus and method for detecting objects in moving images
KR101958927B1 (en) Method And Apparatus for Providing Adaptive Counting People
CN112597800B (en) Method and system for detecting sitting-up actions of students in recording and broadcasting system
Nugroho et al. Detecting human face from monocular image sequences by genetic algorithms
JP2002170096A (en) Passing object count device and count method
Suresh et al. Patch based frame work for occlusion detection in multi human tracking
JP3629164B2 (en) Face image processing device
Zawistowski et al. Multi-object tracking system
Khatri Intelligent video surveillance using soft biometrics
Kadim et al. Ghost removal for background subtraction using color similarity comparison

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100706