JP2009086748A - Monitoring device and program - Google Patents

Monitoring device and program Download PDF

Info

Publication number
JP2009086748A
JP2009086748A JP2007252294A JP2007252294A JP2009086748A JP 2009086748 A JP2009086748 A JP 2009086748A JP 2007252294 A JP2007252294 A JP 2007252294A JP 2007252294 A JP2007252294 A JP 2007252294A JP 2009086748 A JP2009086748 A JP 2009086748A
Authority
JP
Japan
Prior art keywords
monitoring
blocks
optical flow
block
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007252294A
Other languages
Japanese (ja)
Other versions
JP4883415B2 (en
Inventor
Ryoko Toyoda
諒子 豊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saxa Inc
Original Assignee
Saxa Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saxa Inc filed Critical Saxa Inc
Priority to JP2007252294A priority Critical patent/JP4883415B2/en
Publication of JP2009086748A publication Critical patent/JP2009086748A/en
Application granted granted Critical
Publication of JP4883415B2 publication Critical patent/JP4883415B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a processing load by reducing computational complexity by easily and precisely monitoring a traveling object on a moving object by a monitoring device. <P>SOLUTION: An acquired photographic image G of an escalator ES is divided into a plurality of blocks B, and an optical flow is extracted from the reference photographic image, and an optical flow table T for a plurality of blocks B is preset. In monitoring, the blocks B to be compared are determined from the plurality of blocks of the photographic image G with a time difference on the basis of the vector W of each block B of the optical flow table T, and the degree of similarity between the blocks B is calculated. The number of the blocks B whose degree of similarity is lower than a prescribed threshold is counted, and the count value is compared with a prescribed threshold, so that the movement of a person P on the escalator ES is detected. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、移動物体上を移動する人等の移動体の動きを検出して監視する監視装置及びプログラムに関する。   The present invention relates to a monitoring device and a program for detecting and monitoring the movement of a moving body such as a person moving on a moving object.

エスカレータや動く歩道等の移動物体上を移動する人等の移動体を、それらに向けて設置した監視カメラにより撮影し、その動きを監視して危険行為や違反行為等を検出する監視装置が広く普及している。また、このような監視装置として、従来、乗客コンベアを監視カメラにより撮影し、その撮影画像を解析処理等して、それを利用する乗客等の安全性を高めた乗客コンベアの安全装置が知られている(特許文献1参照)。   Wide range of monitoring devices that detect moving objects such as people moving on escalators and moving walkways, etc., with a surveillance camera that faces them, and monitor their movements to detect dangerous or violations It is popular. As such a monitoring device, a passenger conveyor safety device has been conventionally known in which a passenger conveyor is photographed by a surveillance camera, the photographed image is analyzed, and the safety of passengers who use it is improved. (See Patent Document 1).

この従来の安全装置では、撮影画像を画像処理して乗客コンベアへの搭乗者数を検知し、かつ搭乗者が多いか少ないかを区別して監視し、搭乗者に音声で最適な搭乗案内を行う等して安全性を高めている。しかしながら、この従来の装置は、監視カメラの撮影画像に基づき具体的に搭乗者の危険行為を認識する手段を備えておらず、乗客コンベア上での危険行為等を認識できずに見逃す恐れがあり、監視精度が充分でないという問題がある。   In this conventional safety device, the number of passengers on the passenger conveyor is detected by processing the captured image, and whether the number of passengers is large or small is monitored, and optimal boarding guidance is given to the passengers by voice. Etc. to improve safety. However, this conventional device does not have means for specifically identifying the dangerous behavior of the passenger based on the image taken by the surveillance camera, and may not be able to recognize the dangerous behavior on the passenger conveyor and overlook it. There is a problem that the monitoring accuracy is not sufficient.

また、従来、カメラによる撮影画像と基準画像とを比較して撮影画像から人物を切り出すとともに、その人物の移動方向から次のフレームに現れる人物の移動位置を予測し、出現が予測された領域に対してフレーム間の対応付けを行う等して、人物の追跡を行う追跡装置も知られている(特許文献2参照)。   Also, conventionally, a photographed image by a camera is compared with a reference image, and a person is cut out from the photographed image, and the movement position of the person appearing in the next frame is predicted from the movement direction of the person, and the appearance is predicted in the region. On the other hand, a tracking device that tracks a person by associating frames with each other is also known (see Patent Document 2).

ところが、この従来の追跡装置では、エスカレータを監視するときのように、移動物体上の移動体を監視する場合には、それら両方を切り出し処理してしまう等、移動物体上の移動体を切り出すのが困難であり、追跡(監視)精度が低くなる恐れがある。また、この従来の追跡装置では、撮影画面の全体に生じる移動物体や移動体の個々動きに対して、移動予測領域をフレーム毎に求めるための処理が必要であり、計算量が増加して処理負荷が大きくなる、という問題もある。   However, in this conventional tracking device, when monitoring a moving object on a moving object, such as when monitoring an escalator, the moving object on the moving object is cut out, for example, both of them are cut out. Is difficult, and the tracking (monitoring) accuracy may be lowered. In addition, this conventional tracking device requires processing for obtaining a movement prediction area for each frame with respect to moving objects and individual movements of the moving body that occur on the entire shooting screen, and the processing amount increases. There is also a problem that the load becomes large.

これらに対し、従来、自動車に搭載したカメラにより車両の周辺を撮影して、その所定領域の所定のオプティカルフローを抽出し、その方向を監視する等して車両の周辺状況を検知及び監視等する車両用の監視装置も知られている(特許文献3参照)。   On the other hand, conventionally, the surroundings of the vehicle are detected and monitored by, for example, photographing the periphery of the vehicle with a camera mounted on the automobile, extracting a predetermined optical flow in the predetermined region, and monitoring the direction thereof. A vehicle monitoring device is also known (see Patent Document 3).

しかしながら、この従来の監視装置では、車両周辺という限定された状況での検知であるため、画面内に映る監視領域と監視領域内の監視ベクトルを既知の情報として予め入力できるが、どのような条件下で撮影されるか分からない監視装置においては、予め監視領域や監視ベクトルの情報を入力できない。そのため、この従来の監視装置では、その適用可能範囲が狭く、一般的な監視装置のおかれる各状況には対応できず、オプティカルフロー抽出による監視を適切に実行できない、という問題がある。   However, in this conventional monitoring device, since the detection is performed in a limited situation around the vehicle, the monitoring area displayed in the screen and the monitoring vector in the monitoring area can be input in advance as known information. In the monitoring device that does not know whether the image is captured below, information on the monitoring area and the monitoring vector cannot be input in advance. Therefore, this conventional monitoring device has a problem that its applicable range is narrow, it cannot cope with each situation where a general monitoring device is placed, and monitoring by optical flow extraction cannot be performed properly.

ところで、オプティカルフローは、画像中の輝度情報等から移動体の動きを検出し、対象とする移動体の移動の方向や程度等の動きや運動を速度ベクトル(動きベクトル)により表したものである。このオプティカルフローの抽出方法としては、勾配法とブロックマッチング法があり、従来、これらを利用して撮影画像を解析処理し、移動物体上における移動体の動き、例えばエスカレータに搭乗した人の動きに関するオプティカルフローを抽出し、抽出したオプティカルフローに基づいて、エスカレータ上の人の動きを検出して危険行為や違反行為を監視等することも行われている。   By the way, the optical flow is to detect the movement of a moving body from luminance information in an image or the like, and to express the movement and motion such as the direction and degree of movement of the target moving body by a velocity vector (motion vector). . As an optical flow extraction method, there are a gradient method and a block matching method. Conventionally, a captured image is analyzed by using these, and the movement of a moving object on a moving object, for example, the movement of a person on an escalator is related. An optical flow is extracted, and based on the extracted optical flow, a person's movement on the escalator is detected and a dangerous action or a violation is monitored.

図11は、この従来のオプティカルフローによるエスカレータ上の人の監視方法について説明するための模式図であり、図11Aは監視カメラにより撮影した画像を、図11Bはオプティカルフロー処理した画像を、それぞれ概略的に示している。
なお、図11では、上階に向かって移動(図では上方向に移動)する昇りのエスカレータESの全体を、前方から監視カメラにより撮影した画像例を示している。また、ここでは、エスカレータESのステップS上に複数の人Pが搭乗するとともに、その中の一人(図11Aでは格子状のハッチングで示す)がステップS上を上に向かって昇る歩行者P1(図11Aでは、その移動を人影を重ねて表す)である例を示している。
11A and 11B are schematic diagrams for explaining a conventional method for monitoring a person on an escalator by optical flow. FIG. 11A schematically shows an image taken by a monitoring camera, and FIG. 11B schematically shows an image obtained by optical flow processing. Is shown.
In addition, in FIG. 11, the example of the image which image | photographed the whole ascending escalator ES which moves toward the upper floor (it moves upward in the figure) with the monitoring camera from the front is shown. Here, a plurality of people P board the step S of the escalator ES, and one of them (indicated by lattice hatching in FIG. 11A) walks up on the step S toward the pedestrian P1 ( FIG. 11A shows an example in which the movement is represented with a figure superimposed.

このような撮影画像(監視画像)(図11A参照)をオプティカルフロー処理して移動体のオプティカルフローを抽出すると、図11Bに示すように、ステップSや人P及び歩行者P1の動きがベクトルV、V1(図の矢印)で表されたオプティカルフロー処理画像が得られる。即ち、このオプティカルフロー処理画像では、エスカレータESのステップSや、その上を歩行していない通常の状態の人Pに対しては、主にステップSの移動に対応する上向きの一定のベクトルV(図の黒矢印)が現れる。ただし、その全体が一定値になるわけではなく、監視カメラに近い下側(搭乗口側)では、画像内での各移動量が相対的に大きくなるためベクトルVも大きくなり、逆に、監視カメラから遠い上側(降り口)側ではベクトルVが小さくなる。また、人Pが多少動くことでノイズのようなベクトルVも現れるが、周囲のベクトルVに比べて大きな差は発生しない。   When such a photographed image (monitoring image) (see FIG. 11A) is subjected to optical flow processing to extract the optical flow of the moving body, as shown in FIG. 11B, the motions of step S, person P, and pedestrian P1 are represented by vector V. , V1 (arrow in the figure), an optical flow processed image is obtained. That is, in this optical flow processed image, for the step S of the escalator ES and a normal person P who is not walking on the escalator ES, the upward fixed vector V ( The black arrow in the figure appears. However, the whole does not become a constant value, and on the lower side (boarding gate side) close to the monitoring camera, each movement amount in the image becomes relatively large, so the vector V also becomes large. The vector V becomes smaller on the upper side (the exit) side far from the camera. In addition, a noise-like vector V also appears when the person P moves slightly, but a great difference does not occur compared to the surrounding vector V.

一方、歩行者P1の部分には、その移動量や速度に応じた、周囲に比べて大きなベクトルV1(図の白抜き矢印)が現れる。そのため、この撮影画像のオプティカルフローと、予め取得した人Pが搭乗していない状態のステップS等の動きに関するオプティカルフロー処理データ(背景データ)とを比較すれば、歩行者P1に対応するベクトルV1が判別でき、これにより、歩行者P1の動き(ここでは歩行)を検出することができる。このようにして、エスカレータES上の人の動き等を検出し、危険行為や違反行為を判定等して監視する。   On the other hand, in the part of the pedestrian P1, a vector V1 (open arrow in the figure) that is larger than the surroundings appears according to the movement amount and speed. Therefore, if the optical flow of the photographed image is compared with the optical flow processing data (background data) relating to the movement in step S or the like in a state where the person P is not on board, the vector V1 corresponding to the pedestrian P1 is compared. Thus, it is possible to detect the movement of the pedestrian P1 (here, walking). In this manner, the movement of a person on the escalator ES is detected, and a dangerous action or a violation is determined and monitored.

また、図12は、従来のオプティカルフローによるエスカレータ上の人の監視方法の他の例について説明するための模式図であり、図12Aは監視カメラにより撮影した画像を、図12Bはオプティカルフロー処理した画像を、それぞれ概略的に示している。
なお、図12は、上記した図11と同様に、複数の人Pが搭乗した昇りのエスカレータESの全体を監視カメラにより撮影した画像例を示している。また、ここでは、ステップS上の一人(図12Aでは格子状のハッチングで示す)がエスカレータESの手すりHから外側(図12Aでは右側)に身を乗り出した危険行為者P2である例を示している。
FIG. 12 is a schematic diagram for explaining another example of a method for monitoring a person on an escalator by a conventional optical flow. FIG. 12A is an image taken by a monitoring camera, and FIG. 12B is an optical flow process. Each image is shown schematically.
Note that FIG. 12 shows an example of an image obtained by photographing the entire ascending escalator ES on which a plurality of people P are boarded, with the monitoring camera, similarly to FIG. 11 described above. In addition, here, an example is shown in which one person on the step S (indicated by grid-like hatching in FIG. 12A) is a dangerous actor P2 who leans outward from the handrail H of the escalator ES (right side in FIG. 12A). Yes.

このような撮影画像(図12A参照)のオプティカルフロー処理画像には、図12Bに示すように、通常の状態のベクトルVに加えて、背景データではベクトルが現れない手すりHの外側領域J10に、危険行為者P2に対応するベクトルV2(図の白抜き矢印)が現れる。このように、オプティカルフローの背景データではベクトルが零である領域にベクトルV2が現れたと判定されたときに、その動き(ここでは身の乗り出し行為)を検出することで、上記と同様に、エスカレータES上の人の動き等を検出し、危険行為や違反行為を判定等して監視する。   In the optical flow processed image of such a captured image (see FIG. 12A), as shown in FIG. 12B, in addition to the vector V in the normal state, an outer region J10 of the handrail H where no vector appears in the background data, A vector V2 (open arrow in the figure) corresponding to the dangerous actor P2 appears. As described above, when it is determined that the vector V2 appears in a region where the vector is zero in the background data of the optical flow, the escalator is detected in the same manner as described above by detecting the movement (in this case, the embarking action). It detects the movement of people on the ES, and monitors and monitors dangerous acts and violations.

ここで、以上説明したオプティカルフローの抽出を、上記したブロックマッチング法で行う場合には、人等の移動体の大きな動きや回転も検出できる等、移動体の動きに対する検出精度を高めることができる。しかしながら、この方法では、撮影画像を縦横複数のブロックに分割し、所定の時間差をおいて撮影した一方の画像の各ブロックを、それぞれ他方の画像の全てのブロックと比較する等して全探索する必要がある。そのため、ブロックマッチング法による場合には、画像毎のオプティカルフローを抽出するための計算量が非常に多くなり、処理負荷が増加するという問題が発生する。これに対し、オプティカルフローの抽出を上記した勾配法で行う場合には、抽出に必要な計算量を比較的少なくできるものの、移動体の大きな動きに対する精度が低くなる、という問題がある。   Here, when the above-described optical flow extraction is performed by the above-described block matching method, it is possible to increase the detection accuracy with respect to the movement of the moving body, such as detecting a large movement or rotation of a moving body such as a person. . However, in this method, the captured image is divided into a plurality of vertical and horizontal blocks, and each block of one image captured with a predetermined time difference is searched for, for example, by comparing with all the blocks of the other image. There is a need. Therefore, in the case of the block matching method, there is a problem that the amount of calculation for extracting the optical flow for each image becomes very large and the processing load increases. On the other hand, when the optical flow is extracted by the gradient method described above, there is a problem that the calculation amount necessary for the extraction can be relatively reduced, but the accuracy with respect to a large movement of the moving body is lowered.

特開平9−301664号公報JP-A-9-301664 特開2003−346159号公報JP 2003-346159 A 特開平6−314340号公報JP-A-6-314340

本発明は、前記従来の問題に鑑みなされたものであって、その目的は、監視装置により移動物体上の移動体を簡易かつ精度よく監視できるようにし、その際の計算量を減少させて処理負荷を軽減させることである。   The present invention has been made in view of the above-described conventional problems, and an object of the present invention is to enable a monitoring device to monitor a moving object on a moving object easily and accurately, and to reduce the amount of calculation at that time. It is to reduce the load.

請求項1の発明は、移動物体上の移動体を監視する監視装置であって、監視カメラで撮影された監視領域の撮影画像を複数のブロックに分割する手段と、前記移動物体又は前記移動物体と移動体の基準撮影画像からオプティカルフローを抽出する手段と、該抽出したオプティカルフローから前記複数のブロック毎のオプティカルフローテーブルを設定する手段と、前記オプティカルフローテーブルに基づいて、時間差をおいた前記撮影画像の複数のブロックから比較すべきブロック同士を決定する手段と、該決定された前記ブロック同士の類似度を算出する手段と、前記複数のブロック毎の前記算出された類似度に基づいて、前記移動物体上における前記移動体の動きを監視する手段と、を備えたことを特徴とする。
請求項2の発明は、請求項1に記載された監視装置において、前記監視する手段は、前記算出された類似度と予め定められた該類似度の閾値とを比較する手段と、前記算出された類似度が前記閾値よりも低いブロックの数をカウントする手段と、該ブロックのカウント数と予め定められた該カウント数の閾値とを比較する手段と、該カウント数の比較結果に基づいて、前記移動物体上における前記移動体の動きを検出する手段と、を有することを特徴とする。
請求項3の発明は、請求項1又は2に記載された監視装置において、前記撮影画像に対して複数のエリアを設定する手段を備え、前記監視する手段が前記複数のエリア毎に前記移動物体上における前記移動体の動きを監視することを特徴とする。
請求項4の発明は、請求項3に記載された監視装置において、前記カウントする手段が前記複数のエリア毎に前記算出された類似度が前記閾値よりも低いブロックの数をカウントし、前記カウント数を比較する手段が前記複数のエリア毎の前記ブロックのカウント数と予め定められた該エリアのカウント数の閾値とを比較することを特徴とする。
請求項5の発明は、監視装置のコンピュータを請求項1ないし4のいずれかに記載された監視装置の各手段として機能させるためのプログラム。
The invention according to claim 1 is a monitoring device for monitoring a moving body on a moving object, the means for dividing a captured image of a monitoring area captured by a monitoring camera into a plurality of blocks, and the moving object or the moving object And a means for extracting an optical flow from a reference photographed image of a moving body, a means for setting an optical flow table for each of the plurality of blocks from the extracted optical flow, and a time difference based on the optical flow table. Based on the means for determining the blocks to be compared from the plurality of blocks of the captured image, the means for calculating the similarity between the determined blocks, and the calculated similarity for each of the plurality of blocks, Means for monitoring the movement of the moving body on the moving object.
According to a second aspect of the present invention, in the monitoring apparatus according to the first aspect, the monitoring means includes the means for comparing the calculated similarity with a predetermined threshold value of the similarity. Based on the result of comparing the count number, means for counting the number of blocks whose similarity is lower than the threshold value, means for comparing the count number of the block with a predetermined threshold value of the count number, Means for detecting movement of the moving body on the moving object.
A third aspect of the present invention is the monitoring apparatus according to the first or second aspect, further comprising means for setting a plurality of areas for the captured image, and the means for monitoring is the moving object for each of the plurality of areas. The movement of the moving body is monitored.
According to a fourth aspect of the present invention, in the monitoring device according to the third aspect, the counting means counts the number of blocks having the calculated similarity lower than the threshold value for each of the plurality of areas, and the counting The means for comparing numbers compares the count number of the block for each of the plurality of areas with a predetermined threshold value of the count number of the area.
The invention according to claim 5 is a program for causing a computer of a monitoring device to function as each means of the monitoring device according to any one of claims 1 to 4.

本発明によれば、監視装置により移動物体上の移動体を簡易かつ精度よく監視でき、その際の計算量を減少させて処理負荷を軽減させることができる。   According to the present invention, a moving body on a moving object can be easily and accurately monitored by the monitoring device, and the processing load can be reduced by reducing the amount of calculation at that time.

以下、本発明の監視装置の一実施形態について、図面を参照して説明する。
この監視装置は、例えば所定速度で移動するエスカレータや動く歩道等の移動物体上の人や動物等の移動体を監視するための装置であり、移動物体上における移動体の動きを監視して、その危険行為や違反行為を検出等する。
なお、本実施形態では、上記した従来例(図11、図12参照)と同様に、移動物体である昇りのエスカレータ上に搭乗する1又は複数(ここでは複数)の移動体である人を監視する監視装置を例に採り説明する。
Hereinafter, an embodiment of a monitoring device of the present invention will be described with reference to the drawings.
This monitoring device is a device for monitoring a moving body such as a person or an animal on a moving object such as an escalator moving at a predetermined speed or a moving sidewalk, and monitors the movement of the moving body on the moving object. Detecting dangerous acts and violations.
In this embodiment, similarly to the above-described conventional example (see FIGS. 11 and 12), a person who is one or a plurality (here, a plurality) of moving bodies that rides on an ascending escalator that is a moving object is monitored. The monitoring apparatus will be described as an example.

図1は、本実施形態の監視装置を含む監視システムの概略構成を示す模式図であり、監視対象であるエスカレータへの設置状態も模式的に示している。
この監視システム1は、図示のように、システム全体の制御装置を兼ねる監視装置10と、監視装置10にインターフェース等を介して接続された監視カメラ2、及び警告装置3とを備えている。
FIG. 1 is a schematic diagram illustrating a schematic configuration of a monitoring system including the monitoring device of the present embodiment, and also schematically illustrates an installation state on an escalator that is a monitoring target.
As shown in the figure, the monitoring system 1 includes a monitoring device 10 that also serves as a control device for the entire system, a monitoring camera 2 that is connected to the monitoring device 10 via an interface or the like, and a warning device 3.

監視カメラ2は、監視対象の撮影手段であり、昇り用のエスカレータESの全体を撮影可能な斜め上方に設置され、監視対象であるエスカレータESとその周辺、及びエスカレータESに搭乗した人Pを含む監視領域の画像を前方側から撮影する。この監視カメラ2は、市販のデジタルカメラやデジタルビデオカメラ等の監視に使用されるカメラであり、監視装置10により制御されてエスカレータES等の画像を所定の間隔やタイミング等で撮影し、監視領域の撮影画像を監視装置10に出力して送信する。   The monitoring camera 2 is an imaging means for monitoring, and is installed obliquely above the entire ascending escalator ES, and includes the escalator ES that is the monitoring target and its surroundings, and a person P who has boarded the escalator ES. Take an image of the surveillance area from the front. The surveillance camera 2 is a camera used for surveillance of a commercially available digital camera, digital video camera, etc., and is controlled by the surveillance device 10 to take an image of the escalator ES at a predetermined interval, timing, etc. Are output to the monitoring apparatus 10 and transmitted.

警告装置3は、監視装置10により制御されて、後述するエスカレータESに搭乗する人Pの危険行為や違反行為を検出等したときに、エスカレータES上の人Pやその周囲に対して、例えばアラームや音声、又は警告灯等の可聴又は可視警報を発生して警告するためのものである。ここでは、警告装置3は、エスカレータESに向かって配置されたアラーム発生装置であり、監視装置10からの制御信号(警告発生指令)を受信したときに、エスカレータESに向かって警告アラームを発生する。   The warning device 3 is controlled by the monitoring device 10 to detect, for example, an alarm for the person P on the escalator ES and its surroundings when a dangerous action or violation of the person P boarding the escalator ES described later is detected. Or sound, or an audible or visual alarm such as a warning light to warn. Here, the warning device 3 is an alarm generation device arranged toward the escalator ES, and generates a warning alarm toward the escalator ES when a control signal (warning generation command) is received from the monitoring device 10. .

監視装置10は、CPU(Central Processing Unit)11と、CPU11の処理のためのプログラムやデータ等を一時的に記憶しておくためのRAM(Random Access Memory)12及び、CPU11を駆動して演算や処理等を実行させるためのプログラム等を格納したROM(Read Only Memory)13等の各種メモリを備えたコンピュータ等から構成され、接続された装置各部を制御して監視のための動作等を実行させる。また、監視装置10は、監視プログラム等の所定のプログラムや予め設定された条件等に基づいて、監視カメラ2から受信した撮影画像を画像処理や解析等し、監視に必要な各種処理を実行する画像処理装置や監視処理装置でもある。   The monitoring apparatus 10 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12 for temporarily storing a program, data, and the like for processing of the CPU 11, and driving the CPU 11 to perform calculations. It is composed of a computer having various memories such as a ROM (Read Only Memory) 13 storing a program for executing processing and the like, and controls each part of the connected device to execute an operation for monitoring and the like. . The monitoring apparatus 10 performs various processes necessary for monitoring by performing image processing and analysis on the captured image received from the monitoring camera 2 based on a predetermined program such as a monitoring program and preset conditions. It is also an image processing device and a monitoring processing device.

図2は、この監視装置10の概略構成を示す機能ブロック図である。
監視装置10は、図示のように、監視カメラ2や警告装置3等の外部機器が接続されるインターフェース部21と、システム全体の制御を行う制御部22に加えて、入力部23、表示部24、背景データ設定部25、画像処理部26及び、上記した制御(監視)処理や画像処理等に必要な各種プログラムの他に、撮影画像や処理画像等の画像データ27Aを含む各種データを記憶する記憶部27を備え、これら各部(手段)21〜27を互いにバス29を介して接続している。
FIG. 2 is a functional block diagram showing a schematic configuration of the monitoring device 10.
As shown in the figure, the monitoring device 10 includes an input unit 23 and a display unit 24 in addition to an interface unit 21 to which external devices such as a monitoring camera 2 and a warning device 3 are connected, and a control unit 22 that controls the entire system. In addition to the background data setting unit 25, the image processing unit 26, and various programs necessary for the control (monitoring) processing and image processing described above, various data including image data 27A such as captured images and processed images are stored. A storage unit 27 is provided, and these units (means) 21 to 27 are connected to each other via a bus 29.

入力部23は、監視装置10に対する指示や操作、或いは後述する各種閾値の設定や更新等、画像処理や監視に必要な設定データを含む各種データ等を入力するための、例えばマウスやキーボード又はタッチパネル等である。表示部24は、入力部23を介して入力されたデータや監視カメラ2による撮影画像、又は各種処理後の処理画像等を表示するためのモニタ等の表示手段であり、エスカレータESの監視や設定データの入力時等に使用される。   The input unit 23 is, for example, a mouse, a keyboard, or a touch panel for inputting various data including setting data necessary for image processing and monitoring, such as instructions and operations for the monitoring device 10, and setting and updating of various thresholds described later. Etc. The display unit 24 is a display unit such as a monitor for displaying data input via the input unit 23, an image taken by the monitoring camera 2, or a processed image after various processes, and monitoring and setting of the escalator ES. Used when entering data.

背景データ設定部25は、後述するエスカレータES上の人Pの動きを検出等する監視処理に必要な基準となる背景データを設定するための手段であり、オプティカルフロー抽出部25Aとオプティカルフローテーブル設定部25Bとからなり、これらにより、比較する撮影画像同士の比較すべき領域(ここではブロック)を決定等するための背景データを作成する。   The background data setting unit 25 is a means for setting background data as a reference necessary for monitoring processing for detecting the movement of the person P on the escalator ES, which will be described later, and an optical flow extraction unit 25A and an optical flow table setting. The background data for determining a region (here, a block) to be compared between the captured images to be compared is created.

図3は、この背景データの設定について説明するための模式図であり、上記した図11と同様に、図3Aは監視カメラ2(図1参照)により撮影された画像を、図3Bはオプティカルフロー処理した画像を、それぞれ概略的に示している。
ここで、移動するエスカレータES上の人Pの動きを検出して監視等する場合には、個々の人Pの厳密な動きベクトルを検出して把握する必要はなく、所定速度及び方向に移動するエスカレータESのステップSや手すりH等の背景の動きを考慮し、それ以外の動きを検出すればよい。そのため、本実施形態では、予め基準となるエスカレータES等のオプティカルフローを取得して、オプティカルフローの背景データテーブルであるオプティカルフローテーブルを作成し、これを基に推定されるフロー位置でのみブロックマッチングを行うようにしている。
FIG. 3 is a schematic diagram for explaining the setting of the background data. Like FIG. 11 described above, FIG. 3A shows an image taken by the surveillance camera 2 (see FIG. 1), and FIG. 3B shows an optical flow. Each processed image is shown schematically.
Here, when detecting and monitoring the movement of the person P on the moving escalator ES, it is not necessary to detect and grasp the strict movement vector of each person P, and the movement moves at a predetermined speed and direction. It is only necessary to detect other movements in consideration of background movements such as step S and handrail H of the escalator ES. Therefore, in this embodiment, an optical flow such as an escalator ES as a reference is acquired in advance, an optical flow table that is a background data table of the optical flow is created, and block matching is performed only at a flow position estimated based on this. Like to do.

具体的には、予め基準画像として、エスカレータESに人Pがいない状態、又は人Pが歩行や危険行為、或いは違反行為等なく乗っている通常状態の画像を、監視カメラ2により所定の時間差をおいて複数撮影する。このようにエスカレータES、又はエスカレータESと人Pの基準撮影画像を取得するが、ここでは、図3Aに示すように、複数の人PがエスカレータESに搭乗した状態の基準撮影画像を取得する。   Specifically, as a reference image, an image in a normal state where no person P is on the escalator ES or in a normal state where the person P is riding without walking, dangerous acts, or violations, a predetermined time difference is obtained by the monitoring camera 2. Take multiple shots. As described above, the reference photographic image of the escalator ES or the escalator ES and the person P is acquired. Here, as shown in FIG. 3A, a reference photographic image in a state where a plurality of persons P are on the escalator ES is acquired.

この基準撮影画像から、オプティカルフロー抽出部25Aにより、画像内の各部の動きベクトルV(図3B参照)をブロックマッチング法等により求めて基準となるオプティカルフローを抽出する。また、抽出したオプティカルフローから、オプティカルフローテーブル設定部25Bにより、オプティカルフローの背景データテーブル(オプティカルフローテーブル)を作成する。その際、この監視装置10では、画像処理部26のブロック分割部26Aにより、監視カメラ2で撮影された撮影画像を複数のブロックに分割し、これら複数のブロック毎のオプティカルフローテーブルを設定する。   From this reference photographed image, the optical flow extraction unit 25A obtains the motion vector V (see FIG. 3B) of each part in the image by the block matching method or the like, and extracts the optical flow as a reference. Also, an optical flow background data table (optical flow table) is created from the extracted optical flow by the optical flow table setting unit 25B. At this time, in the monitoring apparatus 10, the captured image captured by the monitoring camera 2 is divided into a plurality of blocks by the block dividing unit 26A of the image processing unit 26, and an optical flow table is set for each of the plurality of blocks.

図4は、このオプティカルフローテーブルの設定について説明するための模式図である。
ブロック分割部26Aは、図4Aに示すように、監視領域の撮影画像Gを縦横(X−Y方向)に所定数ずつの画素からなるブロックBに分割して、撮影画像Gの全体を複数のブロックBに区画する。このように分割した複数のブロックBに、前記抽出したオプティカルフローのベクトルV(図3B参照)を対応させ、ブロックB毎の各ベクトルを算出して、図4Bに示すように、オプティカルフローテーブルTを設定する。
FIG. 4 is a schematic diagram for explaining the setting of the optical flow table.
As shown in FIG. 4A, the block dividing unit 26A divides the captured image G in the monitoring area into blocks B each including a predetermined number of pixels in the vertical and horizontal directions (XY directions), and the entire captured image G is divided into a plurality of blocks. Partition into blocks B. The extracted optical flow vector V (see FIG. 3B) is made to correspond to the plurality of blocks B divided in this way, and each vector for each block B is calculated. As shown in FIG. 4B, the optical flow table T Set.

なお、図4Bでは、撮影画像GのオプティカルフローテーブルTの一部を抜き出して、かつ、各ブロックB毎に設定したベクトルWの方向や長さを模式的に示している。また、ここでは、オプティカルフローテーブルTを、説明のため視覚的に示すが、実際には、設定されるオプティカルフローテーブルTは、ブロックBに対応したベクトルに関するデータであり、それぞれブロックBと対応付けられて記憶部27のオプティカルフローテーブル27Bに記憶される。更に、図示の例では、オプティカルフローは、現在の撮影画像G(フレーム)から所定の時間差をつけて撮影された一つ前の撮影画像Gへのベクトル方向を表しており、実際の移動方向を示すベクトルV(図3B参照)とは逆向きのベクトルWになっている。   In FIG. 4B, a part of the optical flow table T of the captured image G is extracted, and the direction and length of the vector W set for each block B are schematically shown. In addition, here, the optical flow table T is visually shown for explanation, but actually, the optical flow table T to be set is data related to a vector corresponding to the block B, and is associated with the block B, respectively. And stored in the optical flow table 27B of the storage unit 27. Furthermore, in the illustrated example, the optical flow represents the vector direction from the current captured image G (frame) to the previous captured image G that is captured with a predetermined time difference, and the actual moving direction is indicated. It is a vector W in the opposite direction to the vector V shown (see FIG. 3B).

図5は、このように設定されたオプティカルフローテーブルTについて説明するための模式図である。
このオプティカルフローテーブルTは、図示のように、現在の撮影画像の各ブロックBが一つ前の撮影画像では、どの方向及び位置にあるブロックBに対応するかを、それぞれX方向及びY方向の成分からなるベクトルWにより表している。
FIG. 5 is a schematic diagram for explaining the optical flow table T set as described above.
As shown in the figure, the optical flow table T indicates in which direction and position the block B of the current captured image corresponds to the block B in the previous captured image in the X and Y directions, respectively. It is represented by a vector W composed of components.

具体的には、オプティカルフローテーブルTの一箇所のブロックB1(図の格子状のハッチング領域)に着目すると、同位置のベクトルWは左斜め下方向を向いている。従って、現在の撮影画像G1の同位置のブロックB1は、一つ前の撮影画像G2では、ベクトルWが示す方向及び長さ等に応じて、左斜め下方向に隣接するブロックB2に対応する。即ち、この撮影画像G2のブロックB2内のものは、一つ後の撮影画像G1のブロックB1に移動すると推測され、それら各ブロックB1、B2には、基本的に同じか又は対応するものが撮影されることになる。これを利用して、本実施形態の監視装置10は、このように予め設定したオプティカルフローテーブルTに基づいて、画像処理部26(図2参照)により、両画像G1、G2のブロックBの比較を所定の対応するブロックB1、B2同士のみで各々行う等して画像処理負荷の軽減等を図っている。次に、この画像処理部26について、詳細に説明する。   Specifically, when attention is paid to one block B1 (lattice hatching area in the figure) of the optical flow table T, the vector W at the same position is directed diagonally downward to the left. Therefore, the block B1 at the same position in the current photographed image G1 corresponds to the block B2 adjacent in the diagonally lower left direction in the previous photographed image G2 according to the direction and length indicated by the vector W. That is, it is assumed that the captured image G2 in the block B2 moves to the block B1 of the next captured image G1, and those blocks B1 and B2 are basically the same or corresponding ones. Will be. Using this, the monitoring apparatus 10 of the present embodiment compares the blocks B of the two images G1 and G2 by the image processing unit 26 (see FIG. 2) based on the optical flow table T set in advance as described above. The image processing load or the like is reduced by performing each of the predetermined blocks B1 and B2 only. Next, the image processing unit 26 will be described in detail.

画像処理部26は、上記したブロック分割部26Aに加えて、比較ブロック決定部26B、類似度算出部26C、類似度比較部26D、カウント部26E、カウント数比較部26F、及び判定・検出部26Gを有する。   In addition to the block division unit 26A described above, the image processing unit 26 includes a comparison block determination unit 26B, a similarity calculation unit 26C, a similarity comparison unit 26D, a count unit 26E, a count number comparison unit 26F, and a determination / detection unit 26G. Have

比較ブロック決定部26Bは、オプティカルフローテーブルTに基づいて、所定の時間差をおいて撮影された撮影画像Gの複数のブロックBから比較すべきブロックB同士を決定する。その際、比較ブロック決定部26Bは、上記した記憶部27のオプティカルフローテーブル27Bに記憶されたデータから、予め設定された所定のオプティカルフローテーブルTを読み出し、そのベクトルWに関するデータ等に基づき、両画像Gの比較すべきブロックB同士を推測して決定する。   Based on the optical flow table T, the comparison block determination unit 26B determines the blocks B to be compared from the plurality of blocks B of the captured image G captured with a predetermined time difference. At that time, the comparison block determination unit 26B reads a predetermined optical flow table T set in advance from the data stored in the optical flow table 27B of the storage unit 27, and based on the data related to the vector W, etc. The blocks B to be compared in the image G are estimated and determined.

図6は、この比較すべきブロックB同士の決定について説明するための模式図であり、上から順に新しい撮影画像Gを示している。また、図では、各撮影画像Gを模式的に複数のブロックBで表し、各ブロックB内にオプティカルフローテーブルTから取得した各ブロックBのベクトルWも示している。
比較ブロック決定部26Bは、上記した図5を用いて説明したのと同様にして、ブロック分割部26Aにより複数のブロックB(図4A参照)に分割された2つの撮影画像Gの比較すべきブロックB同士を推定する。
FIG. 6 is a schematic diagram for explaining the determination of the blocks B to be compared, and shows new photographed images G in order from the top. In the figure, each captured image G is schematically represented by a plurality of blocks B, and a vector W of each block B acquired from the optical flow table T is also shown in each block B.
In the same manner as described with reference to FIG. 5, the comparison block determination unit 26B is a block to be compared between the two captured images G divided into a plurality of blocks B (see FIG. 4A) by the block division unit 26A. B is estimated.

具体的には、図示のように、例えば時刻tにおける撮影画像G(t)でブロックB10にいた人P等の物体は、その位置のベクトルW10から、一つ前の時刻t−1では、そのときの撮影画像G(t−1)内でブロックB11の位置にあったと推測される。同様に、撮影画像G(t)でのブロックB20に対応するのは、その位置のベクトルW20から、時刻t−1の撮影画像G(t−1)でのブロックB21となる。なお、以上と同様に、時刻t−1における撮影画像G(t−1)でのブロックB11及びブロックB21に対応するのは、それぞれ一つ前の時刻t−2の撮影画像G(t−2)でのブロックB12及びブロックB22となる。また、時刻t−2における撮影画像G(t−2)でのブロックB12及びブロック22に対応するのは、それぞれ更に一つ前の時刻t−3の撮影画像でのブロックB13及びブロックB23となる。   Specifically, as shown in the drawing, for example, an object such as a person P who was in the block B10 in the captured image G (t) at the time t from the position vector W10 at the previous time t−1. It is presumed that the position was in the position of the block B11 in the captured image G (t-1) at that time. Similarly, the block B20 in the photographed image G (t) corresponds to the block B21 in the photographed image G (t-1) at time t-1 from the position vector W20. In the same manner as described above, the blocks B11 and B21 in the captured image G (t-1) at time t-1 correspond to the captured image G (t-2 at the previous time t-2, respectively. ) In block B12 and block B22. Further, the blocks B12 and B22 in the captured image G (t-2) at the time t-2 correspond to the blocks B13 and B23 in the captured image at the previous time t-3, respectively. .

比較ブロック決定部26Bは、このようにして、オプティカルフローテーブルTのブロックB毎のベクトルWから、所定の時間差を有する撮影画像Gの複数のブロックB全体を対象に、それぞれ対応するブロック位置(フロー位置)を推測して両画像Gの比較すべきブロックB同士を決定する。画像処理部26(図2参照)は、この比較ブロック決定部26Bの決定に基づき、類似度算出部26Cにより、取得した現在の撮影画像G(t)と、その一つ前の撮影画像G(t−1)から、それぞれ決定されたブロックB同士の類似度を算出する。   In this way, the comparison block determination unit 26B, from the vector W for each block B of the optical flow table T, for each of the plurality of blocks B of the captured image G having a predetermined time difference, each corresponding block position (flow The position B) is estimated and the blocks B to be compared between the two images G are determined. Based on the determination by the comparison block determination unit 26B, the image processing unit 26 (see FIG. 2) uses the similarity calculation unit 26C to acquire the current captured image G (t) acquired and the previous captured image G ( From t−1), the degree of similarity between the determined blocks B is calculated.

類似度算出部26Cは、一方の撮影画像G(t)の各ブロックBを、それぞれ他方の撮影画像G(t−1)の対応するブロックBと比較等して類似度を算出する手段であり、撮影画像G(t)の複数のブロックBの全体に亘って各類似度を順次算出する。即ち、類似度算出部26Cは、現在のブロックBと、そのブロック位置のオプティカルフローテーブルTのデータより、そのブロックB内のものが一つ前の撮影画像G(t−1)内で存在したであろう位置のブロックBとを探索する。このように、ブロックB同士の類似度を、それぞれオプティカルフローテーブルTをもとに推測されるフロー位置でのみ各々算出する。その際、ここでは、比較すべき両ブロックBでブロックマッチングを行い、その類似度を算出して取得する。   The similarity calculation unit 26C is a means for calculating the similarity by comparing each block B of one captured image G (t) with the corresponding block B of the other captured image G (t-1). Then, the respective similarities are sequentially calculated over a plurality of blocks B of the captured image G (t). That is, the similarity calculation unit 26C indicates that the current block B and the data in the optical flow table T at the block position exist in the previous captured image G (t-1). Search for block B at the position where it would be. In this way, the similarity between the blocks B is calculated only at the flow position estimated based on the optical flow table T, respectively. At this time, here, block matching is performed on both blocks B to be compared, and the similarity is calculated and acquired.

ここで、ブロックB同士の類似度の算出方法について、一般的な画素値の差分絶対値の和を算出するSAD(Sum of Absolute Difference)を例に説明する。まず、撮影画像Gの画面全体の画素数をM×N画素、抽出する各ブロックBをm×n画素とすると、画面全体ではM/m×N/n個のブロックBができる。これら各ブロックBに対してブロックマッチングを行う場合に、時刻tと、それよりも所定時間前の時刻t−1の撮影画像Gの対応するブロックB同士のマッチング係数Rは、次の式(数1)で表される。   Here, a method of calculating the similarity between the blocks B will be described by taking, as an example, SAD (Sum of Absolute Difference) for calculating the sum of the absolute difference values of general pixel values. First, if the number of pixels of the entire screen of the captured image G is M × N pixels and each block B to be extracted is m × n pixels, M / m × N / n blocks B are formed on the entire screen. When block matching is performed on each of these blocks B, the matching coefficient R between the corresponding blocks B of the captured image G at time t and time t−1 that is a predetermined time before that is expressed by the following equation (several 1).

Figure 2009086748
Figure 2009086748

この式で、Iは時刻tでの各画素の階調値(例えば輝度値)、It−1は時刻t−1での各画素の階調値であり、x,yは、対象とするブロックB内にある各画素の同ブロック内での座標である。このように表されるマッチング係数Rは、小さいほどブロックB間の類似度が高く、逆に大きいほどブロックB間の類似度が低くなる。 In this formula, the tone value of each pixel in I t is time t (e.g., luminance values), a gradation value of each pixel in I t-1 at time t-1, x i, y j is This is the coordinates of each pixel in the target block B within the same block. The smaller the matching coefficient R expressed in this way, the higher the similarity between the blocks B, and the larger the matching coefficient R, the lower the similarity between the blocks B.

本実施形態の画像処理部26は、このように複数のブロックB毎の算出された類似度に基づいて、その全体的な高低や撮影画像G内での高低の分布等から、移動するエスカレータES上における人Pの動きを監視する。具体的には、ここでは、この監視するための手段を、上記した類似度比較部26D、カウント部26E、カウント数比較部26F、及び判定・検出部26Gにより構成している。   The image processing unit 26 according to the present embodiment, based on the similarity calculated for each of the plurality of blocks B as described above, determines the moving escalator ES based on the overall height, the height distribution in the captured image G, and the like. The movement of the person P above is monitored. Specifically, here, the means for monitoring includes the above-described similarity comparison unit 26D, count unit 26E, count number comparison unit 26F, and determination / detection unit 26G.

類似度比較部26Dは、類似度算出部26Cにより算出されたブロックB間の各類似度を閾値処理するための手段であり、算出された類似度と予め定められた類似度の閾値とを順次比較する。これにより、類似度比較部26Dは、現在の撮影画像Gの複数のブロックBから、所定時間前の対応するブロックBと同一とみなせないブロックBを判別し、エスカレータESによる動き以外のイレギュラーな動きを示すブロックBを抽出する。   The similarity comparison unit 26D is a means for thresholding each similarity between the blocks B calculated by the similarity calculation unit 26C, and sequentially calculates the calculated similarity and a predetermined similarity threshold. Compare. Thereby, the similarity comparison unit 26D determines the block B that cannot be regarded as the same as the corresponding block B before a predetermined time from the plurality of blocks B of the current photographed image G, and is irregular except for the movement by the escalator ES. A block B indicating motion is extracted.

図7は、このブロックBの類似度の閾値処理によるブロックBの抽出について説明するための模式図であり、各撮影画像G等を上記した図6に対応して同様に示している。
また、図では、時刻tにおける撮影画像G(t)の1つのブロックB11と、それに対応する時刻t−1における撮影画像G(t−1)のブロックB12とでブロックマッチングを行う例を示している。
FIG. 7 is a schematic diagram for explaining the extraction of the block B by the threshold value processing of the similarity of the block B, and similarly shows each captured image G and the like corresponding to FIG. 6 described above.
Also, the figure shows an example in which block matching is performed with one block B11 of the captured image G (t) at time t and the corresponding block B12 of the captured image G (t-1) at time t-1. Yes.

類似度比較部26Dは、図示のように、両ブロックB11、B12間の類似度の閾値処理を行い、類似度が所定の閾値よりも低く2つのブロックB11、B12が似ていないと判断されたときには、撮影画像G(t)のブロックB11を、違反行為や危険行為がなされたブロック候補として抽出する。同様にして、類似度比較部26Dは、撮影画像G(t)の全てのブロックBに対して閾値処理により抽出するか否かの判定を行う。   As shown in the figure, the similarity comparing unit 26D performs the threshold processing of the similarity between both the blocks B11 and B12, and the similarity is determined to be lower than the predetermined threshold and the two blocks B11 and B12 are not similar. Sometimes, the block B11 of the photographed image G (t) is extracted as a block candidate in which a violation or a dangerous action has been made. Similarly, the similarity comparison unit 26D determines whether to extract all blocks B of the captured image G (t) by threshold processing.

なお、この類似度の閾値は、監視開始前に、ユーザ等により入力部23(図2参照)を介して入力されて予め設定され、記憶部27の設定データ27Cに記憶されて、監視時に、類似度比較部26Dにより読み出されて使用される。また、この閾値は、監視領域の各状況等に応じて適宜設定される。その際、例えばブロックBが4×4画素の計16画素からなるときに、その階調値が0〜255までの値をとる場合には、上記したマッチング係数Rは0〜4080までの値をとり得る。通常、各階調値の差が20以上あると同一色とみなせないときには、ブロックB内の合計値は20×16=320となるので、マッチング係数Rの閾値を320と設定する。この場合には、類似度を示すマッチング係数Rが320以上になったときに、そのブロックBの類似度が所定の類似度の閾値よりも低いとして抽出される。   Note that this similarity threshold value is input and set in advance by the user or the like via the input unit 23 (see FIG. 2) before monitoring, and is stored in the setting data 27C of the storage unit 27. It is read and used by the similarity comparison unit 26D. Further, this threshold value is appropriately set according to each situation of the monitoring area. In this case, for example, when the block B is composed of a total of 16 pixels of 4 × 4 pixels, and the gradation value takes a value from 0 to 255, the matching coefficient R described above has a value from 0 to 4080. It can take. Normally, when the difference between the gradation values is 20 or more, the same color cannot be considered, and the total value in the block B is 20 × 16 = 320, so the threshold value of the matching coefficient R is set to 320. In this case, when the matching coefficient R indicating the similarity is 320 or more, the similarity of the block B is extracted as being lower than a predetermined similarity threshold.

図8は、以上のようにして類似度が低いブロックBを抽出した画像の例を示す模式図であり、上記した図11に示すエスカレータESのステップS上を昇る歩行者P1がいる状態の撮影画像Gから、類似度が閾値よりも低いブロックBを抽出した例を示している。
この撮影画像Gでは、図示のように、歩行者P1が位置する領域J1(図の斜線で示す領域)内で画像の変化が大きくなるため、その中のブロックBの類似度が低くなり、違反行為や危険行為等の動きがあるブロックBとして判定されて抽出される。
FIG. 8 is a schematic diagram illustrating an example of an image obtained by extracting the block B having a low degree of similarity as described above, and photographing in a state where there is a pedestrian P1 ascending on the step S of the escalator ES illustrated in FIG. 11 described above. The example which extracted the block B from which the similarity degree is lower than a threshold value from the image G is shown.
In the photographed image G, as shown in the figure, since the change in the image is large in the region J1 (the region indicated by the oblique lines in the figure) where the pedestrian P1 is located, the similarity of the block B in the region becomes low, and the It is determined and extracted as a block B having a movement such as an action or a dangerous action.

画像処理部26は、この類似度比較部26Dによる比較結果から、算出された類似度が所定の閾値よりも低いブロックBの数をカウント部26E(図2参照)によりカウントし、撮影画像G内のイレギュラーなベクトルをもつブロックBの数を集計する。また、画像処理部26は、カウント数比較部26Fにより、カウント部26EによるブロックBのカウント数(類似度が低いブロックBの数)と予め定められたカウント数の閾値とを比較する。更に、画像処理部26は、このカウント数の比較結果に基づいて、判定・検出部26Gにより、エスカレータES上における人Pの動きを検出し、カウント数が閾値を超えた場合に、エスカレータES上で違反行為や危険行為が起きている等と判定する。加えて、判定・検出部26Gの判定結果に応じて、例えばインターフェース部21を介して警告装置3を作動させ、エスカレータESに向かって警告アラームを発生等させる。   From the comparison result by the similarity comparison unit 26D, the image processing unit 26 counts the number of blocks B whose calculated similarity is lower than a predetermined threshold by the counting unit 26E (see FIG. 2). The number of blocks B having the irregular vector of Further, the image processing unit 26 compares the count number of the block B (the number of blocks B having low similarity) by the count unit 26E with a threshold value of a predetermined count number by the count number comparison unit 26F. Further, the image processing unit 26 detects the movement of the person P on the escalator ES by the determination / detection unit 26G based on the comparison result of the count number, and when the count number exceeds the threshold, It is determined that violations or dangerous acts have occurred. In addition, according to the determination result of the determination / detection unit 26G, for example, the warning device 3 is operated via the interface unit 21 to generate a warning alarm toward the escalator ES.

その際、判定・検出部26Gは、抽出されたブロックB(図8参照)のカウント数から、警告が必要な行為が行われているか否かを判定するが、単純にカウント数が撮影画像G全体のブロックBの数の所定割合(例えば50%)以上であるときに警告したり、或いは監視時刻等に応じて異なる基準(閾値)で判定して警告等してもよい。このように、カウント数の閾値は、監視状況等に応じて適宜設定され、予め記憶部27の設定データ27Cに記憶される。ただし、実際には、エスカレータES上で人Pは多少動き、それらに対応するブロックBがノイズのように抽出されるため、カウント数の閾値は、予め通常動作時におけるノイズ分に相当するブロック数をノイズ量として検出し、それらを含めてノイズ量以上に設定する。   At that time, the determination / detection unit 26G determines whether an action requiring a warning is performed based on the count number of the extracted block B (see FIG. 8). You may warn when it is more than the predetermined ratio (for example, 50%) of the number of the whole blocks B, or you may judge by a different standard (threshold) according to monitoring time etc., and may warn. As described above, the threshold value of the count number is appropriately set according to the monitoring situation and the like, and is stored in advance in the setting data 27C of the storage unit 27. However, in actuality, the person P moves slightly on the escalator ES, and the corresponding block B is extracted like noise. Therefore, the threshold value of the count number is the number of blocks corresponding to the noise during normal operation in advance. Are detected as a noise amount, and the noise amount including them is set to be equal to or greater than the noise amount.

次に、以上説明した監視システム1及び監視装置10(図1参照)によりエスカレータES上の人P等を監視する手順や動作等について説明する。
図9は、この監視システム1及び監視装置10の監視処理や動作に関する手順を示すフローチャートである。
Next, procedures and operations for monitoring the person P on the escalator ES by the monitoring system 1 and the monitoring device 10 (see FIG. 1) described above will be described.
FIG. 9 is a flowchart showing a procedure related to the monitoring process and operation of the monitoring system 1 and the monitoring device 10.

監視開始に先だち、図示のように、まず、監視カメラ2によりエスカレータES等の基準画像を撮影して取得し、この基準撮影画像から、背景データ設定部25のオプティカルフロー抽出部25Aによりオプティカルフロー(図3参照)を抽出する(S101)。続いて、オプティカルフローテーブル設定部25Bにより、抽出したオプティカルフローから、ブロック分割部26Aにより分割された複数のブロックB毎のオプティカルフローテーブルT(図4参照)を作成し(S102)、背景データとして設定して、記憶部27のオプティカルフローテーブル27Bに記憶する。また、エスカレータESの通常動作時の撮影画像Gを、画像処理部26により画像処理又は解析処理して、その状態における上記したノイズ量等を検出するとともに、それらを基にして決定及び設定されたブロックBの類似度(ここではマッチング係数R)の閾値TH1及び、前記カウント数の閾値TH2を設定データ27Cに記憶する(S103)。   Prior to the start of monitoring, as shown in the figure, first, a reference image such as an escalator ES is captured and acquired by the monitoring camera 2, and an optical flow (from the reference captured image is extracted by an optical flow extraction unit 25A of the background data setting unit 25). (See FIG. 3) is extracted (S101). Subsequently, the optical flow table setting unit 25B creates an optical flow table T (see FIG. 4) for each of the plurality of blocks B divided by the block dividing unit 26A from the extracted optical flow (S102), and as background data It is set and stored in the optical flow table 27B of the storage unit 27. Further, the captured image G during normal operation of the escalator ES is subjected to image processing or analysis processing by the image processing unit 26, and the above-described noise amount and the like in that state are detected, and determined and set based on them. The threshold TH1 of the similarity of the block B (here, the matching coefficient R) and the threshold TH2 of the count number are stored in the setting data 27C (S103).

監視開始後は、まず、監視カメラ2により所定時間毎にエスカレータESを含む画像を撮影する等して、監視領域の所定の時間差をおいた撮影画像Gを順次取得し(S104)、画像データ27Aに記憶する。次に、これら撮影画像Gから、オプティカルフローテーブルTを使用した比較ブロック決定部26Bの決定に基づき、類似度算出部26Cにより、現在の撮影画像Gの各ブロックBに対して、それぞれ一つ前の撮影画像Gの比較すべきブロックBとのブロックマッチング(図7参照)を行う。これにより、ここでは、現在の撮影画像Gの各ブロックBの類似度としてマッチング係数Rを算出し(S105)、各ブロックBのマッチング係数Rを取得して、それらに基づいてエスカレータES上における人Pの動きを監視等する。   After the start of monitoring, first, captured images G with a predetermined time difference in the monitoring area are sequentially acquired by, for example, capturing images including the escalator ES by the monitoring camera 2 at predetermined intervals (S104), and image data 27A. To remember. Next, based on the determination of the comparison block determination unit 26B using the optical flow table T from these captured images G, the similarity calculation unit 26C performs the previous one for each block B of the current captured image G. Block matching (see FIG. 7) with the block B to be compared is performed. Thereby, here, the matching coefficient R is calculated as the similarity of each block B of the current photographed image G (S105), the matching coefficient R of each block B is acquired, and the person on the escalator ES is based on them. The movement of P is monitored.

具体的には、本実施形態では、まず、各ブロックBの類似度を表す算出されたマッチング係数Rを、類似度比較部26Dにより、予め設定された閾値TH1と比較し、マッチング係数Rが閾値TH1以上か否かを判定する(S106)。その結果、マッチング係数Rが閾値TH1よりも小さいときには(S106、NO)、撮影画像Gの全てのブロックBに対する処理が終了したか否かを判定し(S109)、未終了の場合(S109、NO)には次のブロックBに移り(S112)、そのブロックBのマッチング係数Rを算出する(S105)。一方、マッチング係数Rが閾値TH1以上であり、ブロックBの類似度が所定の閾値よりも低いときには(S106、YES)、そのブロックBを、ここでは違反行為ブロック候補としてカウント部26Eによりカウントする(S107)。   Specifically, in the present embodiment, first, the calculated matching coefficient R representing the similarity of each block B is compared with a preset threshold TH1 by the similarity comparing unit 26D, and the matching coefficient R is set to the threshold. It is determined whether or not it is greater than TH1 (S106). As a result, when the matching coefficient R is smaller than the threshold value TH1 (S106, NO), it is determined whether or not the processing for all the blocks B of the captured image G has been completed (S109). ) Shifts to the next block B (S112), and calculates a matching coefficient R of the block B (S105). On the other hand, when the matching coefficient R is equal to or higher than the threshold TH1 and the similarity of the block B is lower than the predetermined threshold (S106, YES), the block B is counted by the counting unit 26E as a violation act block candidate here ( S107).

次に、このブロックBのカウント数を、カウント数比較部26Fが、予め定められたカウント数の閾値TH2と比較する。その結果、ここでは違反行為ブロックBの割合が閾値TH2以上であるときに(S108、YES)、判定・検出部26Gにより、エスカレータES上で違反行為がなされていると判定する等して人Pの動きを検出し(図8参照)、警告装置3により警告アラームを発する(S111)。これに対し、違反行為ブロックBの割合が閾値TH2よりも小さいときには(S108、NO)、全てのブロックBの処理が終了したか否かを判定し(S109)、未終了の場合(S109、NO)には次のブロックBに移り(S112)、以上の各処理等を、全てのブロックBの処理が終了(S109、YES)するまで繰り返す。このように、1つの撮影画像Gの全ブロックBの処理が終了したら(S109、YES)、次の時刻の撮影画像の処理に進み(S110)、その画像を取得(S104)して上記各手順を繰り返し、エスカレータES上の人Pの監視を連続して、又は所定時間間隔等で行う。   Next, the count number comparison unit 26F compares the count number of the block B with a threshold value TH2 of a predetermined count number. As a result, when the ratio of the violation block B is equal to or greater than the threshold value TH2 (S108, YES), the determination / detection unit 26G determines that a violation has been made on the escalator ES, etc. Is detected (see FIG. 8), and a warning alarm is issued by the warning device 3 (S111). On the other hand, when the ratio of the violation block B is smaller than the threshold value TH2 (S108, NO), it is determined whether or not all the blocks B have been processed (S109). ) Move to the next block B (S112), and repeat the above-described processes and the like until the processes of all the blocks B are completed (S109, YES). As described above, when the processing of all the blocks B of one photographed image G is completed (S109, YES), the process proceeds to the process of the photographed image at the next time (S110), and the image is acquired (S104). And monitoring the person P on the escalator ES continuously or at predetermined time intervals.

以上説明した監視処理時に、この監視装置10では、撮影画像G毎にオプティカルフローを都度算出せずに、予め設定されたオプティカルフローテーブルTに基づいて、それにより推測されるフロー位置でのみブロックマッチングを行う等して各ブロックBの類似度を算出し、それを基に監視処理を実行する。そのため、この監視装置10では、監視精度を維持しつつ、少ない計算量でエスカレータES上での人Pの動き等を比較的正確に検出することができる。これに伴い、エスカレータES上で設定された速度以上の速度で歩く人P等の歩行者や、手すりから外側に身を乗り出す人Pがいるとき等、エスカレータES上での違反行為や危険行為等を、簡易かつ処理負荷の小さい画像処理により検出でき、エスカレータESの安全性を向上させることもできる。従って、本実施形態によれば、監視装置10により移動物体上の移動体を簡易かつ精度よく監視でき、その際の計算量を減少させて監視のための処理負荷を軽減させることができる。   At the time of the monitoring process described above, the monitoring apparatus 10 does not calculate the optical flow for each captured image G each time, but based on the preset optical flow table T, and performs block matching only at the estimated flow position. The similarity of each block B is calculated, for example, and monitoring processing is executed based on the similarity. Therefore, the monitoring device 10 can relatively accurately detect the movement of the person P on the escalator ES with a small amount of calculation while maintaining the monitoring accuracy. In connection with this, when there are pedestrians such as a person P walking at a speed higher than the speed set on the escalator ES, or when there is a person P who leans outside from the handrail, violations or dangerous actions on the escalator ES, etc. Can be detected by simple image processing with a small processing load, and the safety of the escalator ES can be improved. Therefore, according to this embodiment, the moving body on the moving object can be easily and accurately monitored by the monitoring device 10, and the amount of calculation at that time can be reduced to reduce the processing load for monitoring.

ここで、本実施形態では、撮影画像Gの全体をブロックBに分割して類似度等を算出したが、撮影画像Gの設定された一部のエリアをブロックBに分割して、そのエリアのみを監視する等、撮影画像Gの一部を監視等するようにしてもよい。また、上記した所定の閾値よりも類似度が低いブロックBのカウントは、撮影画像G全体で行ってもよく、撮影画像Gを複数のエリアに区画してエリア毎にカウントし、各エリアに対して設定された各々の異なるカウント数の閾値と比較等するようにしてもよい。   Here, in the present embodiment, the entire captured image G is divided into blocks B to calculate the similarity and the like. However, a part of the set area of the captured image G is divided into blocks B, and only that area is calculated. For example, a part of the captured image G may be monitored. The block B having a similarity lower than the predetermined threshold may be counted for the entire captured image G. The captured image G is divided into a plurality of areas and counted for each area. It may be compared with the threshold value of each different count number set.

図10は、この撮影画像Gに対するエリアの設定例を示す模式図である。
ここでは、図示のように、撮影画像Gを、エスカレータESの全体とその周辺(手すりH付近)を含む中央側エリアK1及び、その両外側に位置する外側エリアK2に区画して分割し、撮影画像Gに複数のエリアK1、K2を設定している。
FIG. 10 is a schematic diagram showing an example of setting areas for the captured image G.
Here, as shown in the figure, the photographed image G is divided into a central area K1 including the entire escalator ES and its periphery (near the handrail H) and an outer area K2 located on both sides thereof, and photographed. A plurality of areas K1 and K2 are set in the image G.

これにより、各エリアK1、K2の状況に応じて、人Pの動きによりノイズが発生しやすい中央側エリアK1ではブロックBのカウント数の閾値を高く設定し、逆に、通常は動きのない領域である外側エリアK2では閾値を低く設定する等して、エリアK1、K2毎に適切な監視を行うことができる。その際、例えば通常動作で生じるカウント数のノイズ量が、中央側エリアK1では、その中のブロックBの数の25%程度、外側エリアK2では、その中のブロックBの数の8%程度である場合には、各カウント数の閾値を、中央側エリアK1ではエリア内のブロック数の30%、外側エリアK2ではエリア内のブロック数の10%等と設定する。このようにすることで、手すりHから身を乗り出して外側エリアK2内に人P(図12参照)が入ったとき等、想定外の又は危険度の大きい行為や動き等を正確かつ確実に検出でき、検出精度を高めることができる。   Thereby, according to the situation of each area K1, K2, in the central area K1 where noise is likely to be generated by the movement of the person P, the threshold value of the count number of the block B is set high. In the outer area K2, it is possible to perform appropriate monitoring for each of the areas K1 and K2, for example, by setting the threshold value low. At that time, for example, the noise amount of the count number generated in the normal operation is about 25% of the number of blocks B in the central area K1, and about 8% of the number of blocks B in the outer area K2. In some cases, the threshold value for each count number is set to 30% of the number of blocks in the area in the central area K1, 10% of the number of blocks in the area in the outer area K2, and the like. In this way, when a person P (see FIG. 12) enters the outside area K2 after getting out of the handrail H, an unexpected or high-risk action or movement is accurately and reliably detected. And detection accuracy can be increased.

なお、この場合には、監視装置10の画像処理部26(図2参照)等に、撮影画像Gに対して複数のエリアを設定する手段を設け、これにより予め設定された複数のエリア毎にエスカレータES上における人Pの動きを監視等する。また、カウント部26Eにより、算出された類似度が閾値よりも低いブロックBの数を複数のエリア毎にカウントし、カウント数比較部26Fにより、複数のエリア毎のブロックBのカウント数と、エリア毎に予め定められたカウント数の閾値のうち、対応するエリアのカウント数の閾値とを比較する。   In this case, the image processing unit 26 (see FIG. 2) of the monitoring apparatus 10 is provided with a means for setting a plurality of areas for the captured image G, and thereby for each of the plurality of areas set in advance. The movement of the person P on the escalator ES is monitored. In addition, the count unit 26E counts the number of blocks B whose calculated similarity is lower than the threshold value for each of a plurality of areas, and the count number comparison unit 26F calculates the count number of blocks B for each of the plurality of areas and the area. The threshold value of the count number of the corresponding area is compared among the threshold values of the count number determined in advance.

以上、エスカレータESを監視する装置を例に採り説明したが、本発明は、動く歩道やコンベア等、オプティカルフローテーブルTを設定可能な他の移動物体上の移動体を監視する装置に適用することもできる。また、本発明は、監視装置10のコンピュータを、上記した監視装置10の各手段として機能させるためのプログラムとしても実現することができる。   As described above, the apparatus for monitoring the escalator ES has been described as an example. However, the present invention is applied to an apparatus for monitoring a moving body on another moving object capable of setting the optical flow table T, such as a moving sidewalk or a conveyor. You can also. The present invention can also be realized as a program for causing the computer of the monitoring apparatus 10 to function as each unit of the monitoring apparatus 10 described above.

本実施形態の監視装置を含む監視システムの概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of the monitoring system containing the monitoring apparatus of this embodiment. 本実施形態の監視装置の概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the monitoring apparatus of this embodiment. 背景データの設定について説明するための模式図である。It is a schematic diagram for demonstrating the setting of background data. オプティカルフローテーブルの設定について説明するための模式図である。It is a schematic diagram for demonstrating the setting of an optical flow table. オプティカルフローテーブルについて説明するための模式図である。It is a schematic diagram for demonstrating an optical flow table. 比較すべきブロック同士の決定について説明するための模式図である。It is a schematic diagram for demonstrating determination of the blocks which should be compared. ブロックの類似度の閾値処理によるブロックの抽出について説明するための模式図である。It is a schematic diagram for demonstrating extraction of the block by the threshold value process of a block similarity. 類似度が低いブロックを抽出した画像の例を示す模式図である。It is a schematic diagram which shows the example of the image which extracted the block with low similarity. 本実施形態の監視システム及び監視装置の監視処理や動作に関する手順を示すフローチャートである。It is a flowchart which shows the procedure regarding the monitoring process and operation | movement of the monitoring system and monitoring apparatus of this embodiment. 撮影画像に対するエリアの設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the area with respect to a picked-up image. 従来のオプティカルフローによるエスカレータ上の人の監視方法について説明するための模式図である。It is a schematic diagram for demonstrating the monitoring method of the person on the escalator by the conventional optical flow. 従来のオプティカルフローによるエスカレータ上の人の監視方法の他の例について説明するための模式図である。It is a schematic diagram for demonstrating the other example of the monitoring method of the person on the escalator by the conventional optical flow.

符号の説明Explanation of symbols

1・・・監視システム、2・・・監視カメラ、3・・・警告装置、10・・・監視装置、11・・・CPU、12・・・RAM、13・・・ROM、21・・・インターフェース部、22・・・制御部、23・・・入力部、24・・・表示部、25・・・背景データ設定部、25A・・・オプティカルフロー抽出部、25B・・・オプティカルフローテーブル設定部、26・・・画像処理部、26A・・・ブロック分割部、26B・・・比較ブロック決定部、26C・・・類似度算出部、26D・・・類似度比較部、26E・・・カウント部、26F・・・カウント数比較部、26G・・・判定・検出部、27・・・記憶部、27A・・・画像データ、27B・・・オプティカルフローテーブル、27C・・・設定データ、29・・・バス、B・・・ブロック、G・・・撮影画像、ES・・・エスカレータ、P・・・人、S・・・ステップ、T・・・オプティカルフローテーブル、H・・・手すり、V・・・ベクトル。   DESCRIPTION OF SYMBOLS 1 ... Surveillance system, 2 ... Surveillance camera, 3 ... Warning device, 10 ... Surveillance device, 11 ... CPU, 12 ... RAM, 13 ... ROM, 21 ... Interface unit, 22 ... control unit, 23 ... input unit, 24 ... display unit, 25 ... background data setting unit, 25A ... optical flow extraction unit, 25B ... optical flow table setting , 26... Image processing unit, 26 A... Block division unit, 26 B... Comparison block determination unit, 26 C .. similarity calculation unit, 26 D .. similarity comparison unit, 26 E. , 26F... Count number comparison unit, 26G... Determination / detection unit, 27... Storage unit, 27A... Image data, 27B. ···bus, ... Block, G ... captured image, ES ... escalator, P ... man, S ... step, T ... optical flow table, H ... handrail, V ... vector.

Claims (5)

移動物体上の移動体を監視する監視装置であって、
監視カメラで撮影された監視領域の撮影画像を複数のブロックに分割する手段と、
前記移動物体又は前記移動物体と移動体の基準撮影画像からオプティカルフローを抽出する手段と、
該抽出したオプティカルフローから前記複数のブロック毎のオプティカルフローテーブルを設定する手段と、
前記オプティカルフローテーブルに基づいて、時間差をおいた前記撮影画像の複数のブロックから比較すべきブロック同士を決定する手段と、
該決定された前記ブロック同士の類似度を算出する手段と、
前記複数のブロック毎の前記算出された類似度に基づいて、前記移動物体上における前記移動体の動きを監視する手段と、
を備えたことを特徴とする監視装置。
A monitoring device for monitoring a moving object on a moving object,
Means for dividing the captured image of the surveillance area captured by the surveillance camera into a plurality of blocks;
Means for extracting an optical flow from a reference captured image of the moving object or the moving object and the moving object;
Means for setting an optical flow table for each of the plurality of blocks from the extracted optical flow;
Means for determining blocks to be compared from a plurality of blocks of the captured image with a time difference based on the optical flow table;
Means for calculating the degree of similarity between the determined blocks;
Means for monitoring the movement of the moving object on the moving object based on the calculated similarity for each of the plurality of blocks;
A monitoring device comprising:
請求項1に記載された監視装置において、
前記監視する手段は、前記算出された類似度と予め定められた該類似度の閾値とを比較する手段と、前記算出された類似度が前記閾値よりも低いブロックの数をカウントする手段と、該ブロックのカウント数と予め定められた該カウント数の閾値とを比較する手段と、該カウント数の比較結果に基づいて、前記移動物体上における前記移動体の動きを検出する手段と、を有することを特徴とする監視装置。
The monitoring device according to claim 1,
The monitoring means compares the calculated similarity with a predetermined threshold of the similarity; and counts the number of blocks with the calculated similarity lower than the threshold; Means for comparing the count number of the block with a predetermined threshold value of the count number, and means for detecting movement of the moving body on the moving object based on the comparison result of the count number A monitoring device characterized by that.
請求項1又は2に記載された監視装置において、
前記撮影画像に対して複数のエリアを設定する手段を備え、
前記監視する手段が前記複数のエリア毎に前記移動物体上における前記移動体の動きを監視することを特徴とする監視装置。
In the monitoring device according to claim 1 or 2,
Means for setting a plurality of areas for the captured image;
The monitoring device, wherein the monitoring means monitors the movement of the moving body on the moving object for each of the plurality of areas.
請求項3に記載された監視装置において、
前記カウントする手段が前記複数のエリア毎に前記算出された類似度が前記閾値よりも低いブロックの数をカウントし、前記カウント数を比較する手段が前記複数のエリア毎の前記ブロックのカウント数と予め定められた該エリアのカウント数の閾値とを比較することを特徴とする監視装置。
The monitoring device according to claim 3, wherein
The means for counting counts the number of blocks whose calculated similarity is lower than the threshold value for each of the plurality of areas, and the means for comparing the number of counts counts the number of blocks for each of the plurality of areas. A monitoring apparatus that compares a predetermined threshold value of the count number of the area.
監視装置のコンピュータを請求項1ないし4のいずれかに記載された監視装置の各手段として機能させるためのプログラム。   The program for functioning the computer of a monitoring apparatus as each means of the monitoring apparatus as described in any one of Claim 1 thru | or 4.
JP2007252294A 2007-09-27 2007-09-27 Monitoring device and program Active JP4883415B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007252294A JP4883415B2 (en) 2007-09-27 2007-09-27 Monitoring device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007252294A JP4883415B2 (en) 2007-09-27 2007-09-27 Monitoring device and program

Publications (2)

Publication Number Publication Date
JP2009086748A true JP2009086748A (en) 2009-04-23
JP4883415B2 JP4883415B2 (en) 2012-02-22

Family

ID=40660141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007252294A Active JP4883415B2 (en) 2007-09-27 2007-09-27 Monitoring device and program

Country Status (1)

Country Link
JP (1) JP4883415B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022370A (en) * 2010-07-12 2012-02-02 Hitachi Kokusai Electric Inc Monitoring system and monitoring method
KR101219407B1 (en) * 2010-03-19 2013-01-11 한국철도기술연구원 escalator monitoring system using image processing technology
KR101394270B1 (en) * 2012-11-14 2014-05-13 한국과학기술연구원 System and method for image monitoring
KR101407952B1 (en) * 2012-11-09 2014-06-17 전창현 Elevator crime prvent system and method of controlling the same
JP2015176441A (en) * 2014-03-17 2015-10-05 キヤノン株式会社 Image processor, and control method and control program thereof
JP6472035B1 (en) * 2018-01-30 2019-02-20 株式会社タクマ Combustion control system with a function to estimate the amount of waste in an incinerator
JP2019175112A (en) * 2018-03-28 2019-10-10 キヤノン株式会社 Image processing device, photographing device, image processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203161A (en) * 1993-01-05 1994-07-22 Fujitsu Ltd Extracting method for object from animation image and device therefor
JPH10265163A (en) * 1997-03-25 1998-10-06 Hitachi Ltd Escalator controller
JP2003312408A (en) * 2002-04-17 2003-11-06 Toshiba Corp Image diagnosing device, image diagnosing system of on- vehicle image monitoring device and passing vehicle monitoring device
JP2004056763A (en) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd Monitoring apparatus, monitoring method, and program for monitor
JP2007078358A (en) * 2005-09-09 2007-03-29 Sumitomo Electric Ind Ltd Measurement device for mobile body, signal control system, measurement method of mobile body, and computer program
JP2007172540A (en) * 2005-12-26 2007-07-05 Sumitomo Electric Ind Ltd Moving object discrimination system, moving object discrimination method, and computer program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203161A (en) * 1993-01-05 1994-07-22 Fujitsu Ltd Extracting method for object from animation image and device therefor
JPH10265163A (en) * 1997-03-25 1998-10-06 Hitachi Ltd Escalator controller
JP2003312408A (en) * 2002-04-17 2003-11-06 Toshiba Corp Image diagnosing device, image diagnosing system of on- vehicle image monitoring device and passing vehicle monitoring device
JP2004056763A (en) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd Monitoring apparatus, monitoring method, and program for monitor
JP2007078358A (en) * 2005-09-09 2007-03-29 Sumitomo Electric Ind Ltd Measurement device for mobile body, signal control system, measurement method of mobile body, and computer program
JP2007172540A (en) * 2005-12-26 2007-07-05 Sumitomo Electric Ind Ltd Moving object discrimination system, moving object discrimination method, and computer program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101219407B1 (en) * 2010-03-19 2013-01-11 한국철도기술연구원 escalator monitoring system using image processing technology
JP2012022370A (en) * 2010-07-12 2012-02-02 Hitachi Kokusai Electric Inc Monitoring system and monitoring method
US9420236B2 (en) 2010-07-12 2016-08-16 Hitachi Kokusai Electric Inc. Monitoring system and monitoring method
KR101407952B1 (en) * 2012-11-09 2014-06-17 전창현 Elevator crime prvent system and method of controlling the same
KR101394270B1 (en) * 2012-11-14 2014-05-13 한국과학기술연구원 System and method for image monitoring
JP2015176441A (en) * 2014-03-17 2015-10-05 キヤノン株式会社 Image processor, and control method and control program thereof
JP6472035B1 (en) * 2018-01-30 2019-02-20 株式会社タクマ Combustion control system with a function to estimate the amount of waste in an incinerator
JP2019132485A (en) * 2018-01-30 2019-08-08 株式会社タクマ Combustion-controlling system with function of estimating waste volume in incinerator
JP2019175112A (en) * 2018-03-28 2019-10-10 キヤノン株式会社 Image processing device, photographing device, image processing method, and program
JP7117872B2 (en) 2018-03-28 2022-08-15 キヤノン株式会社 IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM

Also Published As

Publication number Publication date
JP4883415B2 (en) 2012-02-22

Similar Documents

Publication Publication Date Title
JP4883415B2 (en) Monitoring device and program
US8660700B2 (en) Video-based system and method of elevator door detection
CN107665326B (en) Monitoring system for passenger conveyor, passenger conveyor and monitoring method thereof
JP5925068B2 (en) Video processing apparatus, video processing method, and program
JP2020191646A (en) Information processing system, information processing method and program
JP2008217602A (en) Suspicious behavior detection system and method
JP6233624B2 (en) Information processing system, information processing method, and program
CN108363953B (en) Pedestrian detection method and binocular monitoring equipment
JP6779410B2 (en) Video analyzer, video analysis method, and program
WO2018179202A1 (en) Information processing device, control method, and program
CN110713082B (en) Elevator control method, system, device and storage medium
JPH08127476A (en) Method of detecting number of waiting passenger for elevator
JP5626099B2 (en) Pedestrian detection device
Nguyen et al. Extracting silhouette-based characteristics for human gait analysis using one camera
CN112561967A (en) Control method and device for vehicle door lock
JP6028972B2 (en) Image processing apparatus, image processing method, and image processing program
CN109726750B (en) Passenger fall detection device, passenger fall detection method and passenger conveying device
JP7214437B2 (en) Information processing device, information processing method and program
JP2000053361A (en) Passenger monitoring device for man-conveyer
JP2017019351A (en) Fallen person detection device, fallen person detection system, fallen person detection method, and fallen person detection program
JP2005284652A (en) Video monitoring method and apparatus using moving vector
JP6046559B2 (en) Specific motion detection device
JP2014071482A (en) Object detection device
JP4697761B2 (en) Queue detection method and queue detection apparatus
JP5864231B2 (en) Moving direction identification device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110810

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4883415

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150