JP2009086748A - Monitoring device and program - Google Patents
Monitoring device and program Download PDFInfo
- Publication number
- JP2009086748A JP2009086748A JP2007252294A JP2007252294A JP2009086748A JP 2009086748 A JP2009086748 A JP 2009086748A JP 2007252294 A JP2007252294 A JP 2007252294A JP 2007252294 A JP2007252294 A JP 2007252294A JP 2009086748 A JP2009086748 A JP 2009086748A
- Authority
- JP
- Japan
- Prior art keywords
- monitoring
- blocks
- optical flow
- block
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、移動物体上を移動する人等の移動体の動きを検出して監視する監視装置及びプログラムに関する。 The present invention relates to a monitoring device and a program for detecting and monitoring the movement of a moving body such as a person moving on a moving object.
エスカレータや動く歩道等の移動物体上を移動する人等の移動体を、それらに向けて設置した監視カメラにより撮影し、その動きを監視して危険行為や違反行為等を検出する監視装置が広く普及している。また、このような監視装置として、従来、乗客コンベアを監視カメラにより撮影し、その撮影画像を解析処理等して、それを利用する乗客等の安全性を高めた乗客コンベアの安全装置が知られている(特許文献1参照)。 Wide range of monitoring devices that detect moving objects such as people moving on escalators and moving walkways, etc., with a surveillance camera that faces them, and monitor their movements to detect dangerous or violations It is popular. As such a monitoring device, a passenger conveyor safety device has been conventionally known in which a passenger conveyor is photographed by a surveillance camera, the photographed image is analyzed, and the safety of passengers who use it is improved. (See Patent Document 1).
この従来の安全装置では、撮影画像を画像処理して乗客コンベアへの搭乗者数を検知し、かつ搭乗者が多いか少ないかを区別して監視し、搭乗者に音声で最適な搭乗案内を行う等して安全性を高めている。しかしながら、この従来の装置は、監視カメラの撮影画像に基づき具体的に搭乗者の危険行為を認識する手段を備えておらず、乗客コンベア上での危険行為等を認識できずに見逃す恐れがあり、監視精度が充分でないという問題がある。 In this conventional safety device, the number of passengers on the passenger conveyor is detected by processing the captured image, and whether the number of passengers is large or small is monitored, and optimal boarding guidance is given to the passengers by voice. Etc. to improve safety. However, this conventional device does not have means for specifically identifying the dangerous behavior of the passenger based on the image taken by the surveillance camera, and may not be able to recognize the dangerous behavior on the passenger conveyor and overlook it. There is a problem that the monitoring accuracy is not sufficient.
また、従来、カメラによる撮影画像と基準画像とを比較して撮影画像から人物を切り出すとともに、その人物の移動方向から次のフレームに現れる人物の移動位置を予測し、出現が予測された領域に対してフレーム間の対応付けを行う等して、人物の追跡を行う追跡装置も知られている(特許文献2参照)。 Also, conventionally, a photographed image by a camera is compared with a reference image, and a person is cut out from the photographed image, and the movement position of the person appearing in the next frame is predicted from the movement direction of the person, and the appearance is predicted in the region. On the other hand, a tracking device that tracks a person by associating frames with each other is also known (see Patent Document 2).
ところが、この従来の追跡装置では、エスカレータを監視するときのように、移動物体上の移動体を監視する場合には、それら両方を切り出し処理してしまう等、移動物体上の移動体を切り出すのが困難であり、追跡(監視)精度が低くなる恐れがある。また、この従来の追跡装置では、撮影画面の全体に生じる移動物体や移動体の個々動きに対して、移動予測領域をフレーム毎に求めるための処理が必要であり、計算量が増加して処理負荷が大きくなる、という問題もある。 However, in this conventional tracking device, when monitoring a moving object on a moving object, such as when monitoring an escalator, the moving object on the moving object is cut out, for example, both of them are cut out. Is difficult, and the tracking (monitoring) accuracy may be lowered. In addition, this conventional tracking device requires processing for obtaining a movement prediction area for each frame with respect to moving objects and individual movements of the moving body that occur on the entire shooting screen, and the processing amount increases. There is also a problem that the load becomes large.
これらに対し、従来、自動車に搭載したカメラにより車両の周辺を撮影して、その所定領域の所定のオプティカルフローを抽出し、その方向を監視する等して車両の周辺状況を検知及び監視等する車両用の監視装置も知られている(特許文献3参照)。 On the other hand, conventionally, the surroundings of the vehicle are detected and monitored by, for example, photographing the periphery of the vehicle with a camera mounted on the automobile, extracting a predetermined optical flow in the predetermined region, and monitoring the direction thereof. A vehicle monitoring device is also known (see Patent Document 3).
しかしながら、この従来の監視装置では、車両周辺という限定された状況での検知であるため、画面内に映る監視領域と監視領域内の監視ベクトルを既知の情報として予め入力できるが、どのような条件下で撮影されるか分からない監視装置においては、予め監視領域や監視ベクトルの情報を入力できない。そのため、この従来の監視装置では、その適用可能範囲が狭く、一般的な監視装置のおかれる各状況には対応できず、オプティカルフロー抽出による監視を適切に実行できない、という問題がある。 However, in this conventional monitoring device, since the detection is performed in a limited situation around the vehicle, the monitoring area displayed in the screen and the monitoring vector in the monitoring area can be input in advance as known information. In the monitoring device that does not know whether the image is captured below, information on the monitoring area and the monitoring vector cannot be input in advance. Therefore, this conventional monitoring device has a problem that its applicable range is narrow, it cannot cope with each situation where a general monitoring device is placed, and monitoring by optical flow extraction cannot be performed properly.
ところで、オプティカルフローは、画像中の輝度情報等から移動体の動きを検出し、対象とする移動体の移動の方向や程度等の動きや運動を速度ベクトル(動きベクトル)により表したものである。このオプティカルフローの抽出方法としては、勾配法とブロックマッチング法があり、従来、これらを利用して撮影画像を解析処理し、移動物体上における移動体の動き、例えばエスカレータに搭乗した人の動きに関するオプティカルフローを抽出し、抽出したオプティカルフローに基づいて、エスカレータ上の人の動きを検出して危険行為や違反行為を監視等することも行われている。 By the way, the optical flow is to detect the movement of a moving body from luminance information in an image or the like, and to express the movement and motion such as the direction and degree of movement of the target moving body by a velocity vector (motion vector). . As an optical flow extraction method, there are a gradient method and a block matching method. Conventionally, a captured image is analyzed by using these, and the movement of a moving object on a moving object, for example, the movement of a person on an escalator is related. An optical flow is extracted, and based on the extracted optical flow, a person's movement on the escalator is detected and a dangerous action or a violation is monitored.
図11は、この従来のオプティカルフローによるエスカレータ上の人の監視方法について説明するための模式図であり、図11Aは監視カメラにより撮影した画像を、図11Bはオプティカルフロー処理した画像を、それぞれ概略的に示している。
なお、図11では、上階に向かって移動(図では上方向に移動)する昇りのエスカレータESの全体を、前方から監視カメラにより撮影した画像例を示している。また、ここでは、エスカレータESのステップS上に複数の人Pが搭乗するとともに、その中の一人(図11Aでは格子状のハッチングで示す)がステップS上を上に向かって昇る歩行者P1(図11Aでは、その移動を人影を重ねて表す)である例を示している。
11A and 11B are schematic diagrams for explaining a conventional method for monitoring a person on an escalator by optical flow. FIG. 11A schematically shows an image taken by a monitoring camera, and FIG. 11B schematically shows an image obtained by optical flow processing. Is shown.
In addition, in FIG. 11, the example of the image which image | photographed the whole ascending escalator ES which moves toward the upper floor (it moves upward in the figure) with the monitoring camera from the front is shown. Here, a plurality of people P board the step S of the escalator ES, and one of them (indicated by lattice hatching in FIG. 11A) walks up on the step S toward the pedestrian P1 ( FIG. 11A shows an example in which the movement is represented with a figure superimposed.
このような撮影画像(監視画像)(図11A参照)をオプティカルフロー処理して移動体のオプティカルフローを抽出すると、図11Bに示すように、ステップSや人P及び歩行者P1の動きがベクトルV、V1(図の矢印)で表されたオプティカルフロー処理画像が得られる。即ち、このオプティカルフロー処理画像では、エスカレータESのステップSや、その上を歩行していない通常の状態の人Pに対しては、主にステップSの移動に対応する上向きの一定のベクトルV(図の黒矢印)が現れる。ただし、その全体が一定値になるわけではなく、監視カメラに近い下側(搭乗口側)では、画像内での各移動量が相対的に大きくなるためベクトルVも大きくなり、逆に、監視カメラから遠い上側(降り口)側ではベクトルVが小さくなる。また、人Pが多少動くことでノイズのようなベクトルVも現れるが、周囲のベクトルVに比べて大きな差は発生しない。 When such a photographed image (monitoring image) (see FIG. 11A) is subjected to optical flow processing to extract the optical flow of the moving body, as shown in FIG. 11B, the motions of step S, person P, and pedestrian P1 are represented by vector V. , V1 (arrow in the figure), an optical flow processed image is obtained. That is, in this optical flow processed image, for the step S of the escalator ES and a normal person P who is not walking on the escalator ES, the upward fixed vector V ( The black arrow in the figure appears. However, the whole does not become a constant value, and on the lower side (boarding gate side) close to the monitoring camera, each movement amount in the image becomes relatively large, so the vector V also becomes large. The vector V becomes smaller on the upper side (the exit) side far from the camera. In addition, a noise-like vector V also appears when the person P moves slightly, but a great difference does not occur compared to the surrounding vector V.
一方、歩行者P1の部分には、その移動量や速度に応じた、周囲に比べて大きなベクトルV1(図の白抜き矢印)が現れる。そのため、この撮影画像のオプティカルフローと、予め取得した人Pが搭乗していない状態のステップS等の動きに関するオプティカルフロー処理データ(背景データ)とを比較すれば、歩行者P1に対応するベクトルV1が判別でき、これにより、歩行者P1の動き(ここでは歩行)を検出することができる。このようにして、エスカレータES上の人の動き等を検出し、危険行為や違反行為を判定等して監視する。 On the other hand, in the part of the pedestrian P1, a vector V1 (open arrow in the figure) that is larger than the surroundings appears according to the movement amount and speed. Therefore, if the optical flow of the photographed image is compared with the optical flow processing data (background data) relating to the movement in step S or the like in a state where the person P is not on board, the vector V1 corresponding to the pedestrian P1 is compared. Thus, it is possible to detect the movement of the pedestrian P1 (here, walking). In this manner, the movement of a person on the escalator ES is detected, and a dangerous action or a violation is determined and monitored.
また、図12は、従来のオプティカルフローによるエスカレータ上の人の監視方法の他の例について説明するための模式図であり、図12Aは監視カメラにより撮影した画像を、図12Bはオプティカルフロー処理した画像を、それぞれ概略的に示している。
なお、図12は、上記した図11と同様に、複数の人Pが搭乗した昇りのエスカレータESの全体を監視カメラにより撮影した画像例を示している。また、ここでは、ステップS上の一人(図12Aでは格子状のハッチングで示す)がエスカレータESの手すりHから外側(図12Aでは右側)に身を乗り出した危険行為者P2である例を示している。
FIG. 12 is a schematic diagram for explaining another example of a method for monitoring a person on an escalator by a conventional optical flow. FIG. 12A is an image taken by a monitoring camera, and FIG. 12B is an optical flow process. Each image is shown schematically.
Note that FIG. 12 shows an example of an image obtained by photographing the entire ascending escalator ES on which a plurality of people P are boarded, with the monitoring camera, similarly to FIG. 11 described above. In addition, here, an example is shown in which one person on the step S (indicated by grid-like hatching in FIG. 12A) is a dangerous actor P2 who leans outward from the handrail H of the escalator ES (right side in FIG. 12A). Yes.
このような撮影画像(図12A参照)のオプティカルフロー処理画像には、図12Bに示すように、通常の状態のベクトルVに加えて、背景データではベクトルが現れない手すりHの外側領域J10に、危険行為者P2に対応するベクトルV2(図の白抜き矢印)が現れる。このように、オプティカルフローの背景データではベクトルが零である領域にベクトルV2が現れたと判定されたときに、その動き(ここでは身の乗り出し行為)を検出することで、上記と同様に、エスカレータES上の人の動き等を検出し、危険行為や違反行為を判定等して監視する。 In the optical flow processed image of such a captured image (see FIG. 12A), as shown in FIG. 12B, in addition to the vector V in the normal state, an outer region J10 of the handrail H where no vector appears in the background data, A vector V2 (open arrow in the figure) corresponding to the dangerous actor P2 appears. As described above, when it is determined that the vector V2 appears in a region where the vector is zero in the background data of the optical flow, the escalator is detected in the same manner as described above by detecting the movement (in this case, the embarking action). It detects the movement of people on the ES, and monitors and monitors dangerous acts and violations.
ここで、以上説明したオプティカルフローの抽出を、上記したブロックマッチング法で行う場合には、人等の移動体の大きな動きや回転も検出できる等、移動体の動きに対する検出精度を高めることができる。しかしながら、この方法では、撮影画像を縦横複数のブロックに分割し、所定の時間差をおいて撮影した一方の画像の各ブロックを、それぞれ他方の画像の全てのブロックと比較する等して全探索する必要がある。そのため、ブロックマッチング法による場合には、画像毎のオプティカルフローを抽出するための計算量が非常に多くなり、処理負荷が増加するという問題が発生する。これに対し、オプティカルフローの抽出を上記した勾配法で行う場合には、抽出に必要な計算量を比較的少なくできるものの、移動体の大きな動きに対する精度が低くなる、という問題がある。 Here, when the above-described optical flow extraction is performed by the above-described block matching method, it is possible to increase the detection accuracy with respect to the movement of the moving body, such as detecting a large movement or rotation of a moving body such as a person. . However, in this method, the captured image is divided into a plurality of vertical and horizontal blocks, and each block of one image captured with a predetermined time difference is searched for, for example, by comparing with all the blocks of the other image. There is a need. Therefore, in the case of the block matching method, there is a problem that the amount of calculation for extracting the optical flow for each image becomes very large and the processing load increases. On the other hand, when the optical flow is extracted by the gradient method described above, there is a problem that the calculation amount necessary for the extraction can be relatively reduced, but the accuracy with respect to a large movement of the moving body is lowered.
本発明は、前記従来の問題に鑑みなされたものであって、その目的は、監視装置により移動物体上の移動体を簡易かつ精度よく監視できるようにし、その際の計算量を減少させて処理負荷を軽減させることである。 The present invention has been made in view of the above-described conventional problems, and an object of the present invention is to enable a monitoring device to monitor a moving object on a moving object easily and accurately, and to reduce the amount of calculation at that time. It is to reduce the load.
請求項1の発明は、移動物体上の移動体を監視する監視装置であって、監視カメラで撮影された監視領域の撮影画像を複数のブロックに分割する手段と、前記移動物体又は前記移動物体と移動体の基準撮影画像からオプティカルフローを抽出する手段と、該抽出したオプティカルフローから前記複数のブロック毎のオプティカルフローテーブルを設定する手段と、前記オプティカルフローテーブルに基づいて、時間差をおいた前記撮影画像の複数のブロックから比較すべきブロック同士を決定する手段と、該決定された前記ブロック同士の類似度を算出する手段と、前記複数のブロック毎の前記算出された類似度に基づいて、前記移動物体上における前記移動体の動きを監視する手段と、を備えたことを特徴とする。
請求項2の発明は、請求項1に記載された監視装置において、前記監視する手段は、前記算出された類似度と予め定められた該類似度の閾値とを比較する手段と、前記算出された類似度が前記閾値よりも低いブロックの数をカウントする手段と、該ブロックのカウント数と予め定められた該カウント数の閾値とを比較する手段と、該カウント数の比較結果に基づいて、前記移動物体上における前記移動体の動きを検出する手段と、を有することを特徴とする。
請求項3の発明は、請求項1又は2に記載された監視装置において、前記撮影画像に対して複数のエリアを設定する手段を備え、前記監視する手段が前記複数のエリア毎に前記移動物体上における前記移動体の動きを監視することを特徴とする。
請求項4の発明は、請求項3に記載された監視装置において、前記カウントする手段が前記複数のエリア毎に前記算出された類似度が前記閾値よりも低いブロックの数をカウントし、前記カウント数を比較する手段が前記複数のエリア毎の前記ブロックのカウント数と予め定められた該エリアのカウント数の閾値とを比較することを特徴とする。
請求項5の発明は、監視装置のコンピュータを請求項1ないし4のいずれかに記載された監視装置の各手段として機能させるためのプログラム。
The invention according to
According to a second aspect of the present invention, in the monitoring apparatus according to the first aspect, the monitoring means includes the means for comparing the calculated similarity with a predetermined threshold value of the similarity. Based on the result of comparing the count number, means for counting the number of blocks whose similarity is lower than the threshold value, means for comparing the count number of the block with a predetermined threshold value of the count number, Means for detecting movement of the moving body on the moving object.
A third aspect of the present invention is the monitoring apparatus according to the first or second aspect, further comprising means for setting a plurality of areas for the captured image, and the means for monitoring is the moving object for each of the plurality of areas. The movement of the moving body is monitored.
According to a fourth aspect of the present invention, in the monitoring device according to the third aspect, the counting means counts the number of blocks having the calculated similarity lower than the threshold value for each of the plurality of areas, and the counting The means for comparing numbers compares the count number of the block for each of the plurality of areas with a predetermined threshold value of the count number of the area.
The invention according to claim 5 is a program for causing a computer of a monitoring device to function as each means of the monitoring device according to any one of
本発明によれば、監視装置により移動物体上の移動体を簡易かつ精度よく監視でき、その際の計算量を減少させて処理負荷を軽減させることができる。 According to the present invention, a moving body on a moving object can be easily and accurately monitored by the monitoring device, and the processing load can be reduced by reducing the amount of calculation at that time.
以下、本発明の監視装置の一実施形態について、図面を参照して説明する。
この監視装置は、例えば所定速度で移動するエスカレータや動く歩道等の移動物体上の人や動物等の移動体を監視するための装置であり、移動物体上における移動体の動きを監視して、その危険行為や違反行為を検出等する。
なお、本実施形態では、上記した従来例(図11、図12参照)と同様に、移動物体である昇りのエスカレータ上に搭乗する1又は複数(ここでは複数)の移動体である人を監視する監視装置を例に採り説明する。
Hereinafter, an embodiment of a monitoring device of the present invention will be described with reference to the drawings.
This monitoring device is a device for monitoring a moving body such as a person or an animal on a moving object such as an escalator moving at a predetermined speed or a moving sidewalk, and monitors the movement of the moving body on the moving object. Detecting dangerous acts and violations.
In this embodiment, similarly to the above-described conventional example (see FIGS. 11 and 12), a person who is one or a plurality (here, a plurality) of moving bodies that rides on an ascending escalator that is a moving object is monitored. The monitoring apparatus will be described as an example.
図1は、本実施形態の監視装置を含む監視システムの概略構成を示す模式図であり、監視対象であるエスカレータへの設置状態も模式的に示している。
この監視システム1は、図示のように、システム全体の制御装置を兼ねる監視装置10と、監視装置10にインターフェース等を介して接続された監視カメラ2、及び警告装置3とを備えている。
FIG. 1 is a schematic diagram illustrating a schematic configuration of a monitoring system including the monitoring device of the present embodiment, and also schematically illustrates an installation state on an escalator that is a monitoring target.
As shown in the figure, the
監視カメラ2は、監視対象の撮影手段であり、昇り用のエスカレータESの全体を撮影可能な斜め上方に設置され、監視対象であるエスカレータESとその周辺、及びエスカレータESに搭乗した人Pを含む監視領域の画像を前方側から撮影する。この監視カメラ2は、市販のデジタルカメラやデジタルビデオカメラ等の監視に使用されるカメラであり、監視装置10により制御されてエスカレータES等の画像を所定の間隔やタイミング等で撮影し、監視領域の撮影画像を監視装置10に出力して送信する。
The
警告装置3は、監視装置10により制御されて、後述するエスカレータESに搭乗する人Pの危険行為や違反行為を検出等したときに、エスカレータES上の人Pやその周囲に対して、例えばアラームや音声、又は警告灯等の可聴又は可視警報を発生して警告するためのものである。ここでは、警告装置3は、エスカレータESに向かって配置されたアラーム発生装置であり、監視装置10からの制御信号(警告発生指令)を受信したときに、エスカレータESに向かって警告アラームを発生する。
The warning device 3 is controlled by the
監視装置10は、CPU(Central Processing Unit)11と、CPU11の処理のためのプログラムやデータ等を一時的に記憶しておくためのRAM(Random Access Memory)12及び、CPU11を駆動して演算や処理等を実行させるためのプログラム等を格納したROM(Read Only Memory)13等の各種メモリを備えたコンピュータ等から構成され、接続された装置各部を制御して監視のための動作等を実行させる。また、監視装置10は、監視プログラム等の所定のプログラムや予め設定された条件等に基づいて、監視カメラ2から受信した撮影画像を画像処理や解析等し、監視に必要な各種処理を実行する画像処理装置や監視処理装置でもある。
The
図2は、この監視装置10の概略構成を示す機能ブロック図である。
監視装置10は、図示のように、監視カメラ2や警告装置3等の外部機器が接続されるインターフェース部21と、システム全体の制御を行う制御部22に加えて、入力部23、表示部24、背景データ設定部25、画像処理部26及び、上記した制御(監視)処理や画像処理等に必要な各種プログラムの他に、撮影画像や処理画像等の画像データ27Aを含む各種データを記憶する記憶部27を備え、これら各部(手段)21〜27を互いにバス29を介して接続している。
FIG. 2 is a functional block diagram showing a schematic configuration of the
As shown in the figure, the
入力部23は、監視装置10に対する指示や操作、或いは後述する各種閾値の設定や更新等、画像処理や監視に必要な設定データを含む各種データ等を入力するための、例えばマウスやキーボード又はタッチパネル等である。表示部24は、入力部23を介して入力されたデータや監視カメラ2による撮影画像、又は各種処理後の処理画像等を表示するためのモニタ等の表示手段であり、エスカレータESの監視や設定データの入力時等に使用される。
The
背景データ設定部25は、後述するエスカレータES上の人Pの動きを検出等する監視処理に必要な基準となる背景データを設定するための手段であり、オプティカルフロー抽出部25Aとオプティカルフローテーブル設定部25Bとからなり、これらにより、比較する撮影画像同士の比較すべき領域(ここではブロック)を決定等するための背景データを作成する。
The background
図3は、この背景データの設定について説明するための模式図であり、上記した図11と同様に、図3Aは監視カメラ2(図1参照)により撮影された画像を、図3Bはオプティカルフロー処理した画像を、それぞれ概略的に示している。
ここで、移動するエスカレータES上の人Pの動きを検出して監視等する場合には、個々の人Pの厳密な動きベクトルを検出して把握する必要はなく、所定速度及び方向に移動するエスカレータESのステップSや手すりH等の背景の動きを考慮し、それ以外の動きを検出すればよい。そのため、本実施形態では、予め基準となるエスカレータES等のオプティカルフローを取得して、オプティカルフローの背景データテーブルであるオプティカルフローテーブルを作成し、これを基に推定されるフロー位置でのみブロックマッチングを行うようにしている。
FIG. 3 is a schematic diagram for explaining the setting of the background data. Like FIG. 11 described above, FIG. 3A shows an image taken by the surveillance camera 2 (see FIG. 1), and FIG. 3B shows an optical flow. Each processed image is shown schematically.
Here, when detecting and monitoring the movement of the person P on the moving escalator ES, it is not necessary to detect and grasp the strict movement vector of each person P, and the movement moves at a predetermined speed and direction. It is only necessary to detect other movements in consideration of background movements such as step S and handrail H of the escalator ES. Therefore, in this embodiment, an optical flow such as an escalator ES as a reference is acquired in advance, an optical flow table that is a background data table of the optical flow is created, and block matching is performed only at a flow position estimated based on this. Like to do.
具体的には、予め基準画像として、エスカレータESに人Pがいない状態、又は人Pが歩行や危険行為、或いは違反行為等なく乗っている通常状態の画像を、監視カメラ2により所定の時間差をおいて複数撮影する。このようにエスカレータES、又はエスカレータESと人Pの基準撮影画像を取得するが、ここでは、図3Aに示すように、複数の人PがエスカレータESに搭乗した状態の基準撮影画像を取得する。
Specifically, as a reference image, an image in a normal state where no person P is on the escalator ES or in a normal state where the person P is riding without walking, dangerous acts, or violations, a predetermined time difference is obtained by the
この基準撮影画像から、オプティカルフロー抽出部25Aにより、画像内の各部の動きベクトルV(図3B参照)をブロックマッチング法等により求めて基準となるオプティカルフローを抽出する。また、抽出したオプティカルフローから、オプティカルフローテーブル設定部25Bにより、オプティカルフローの背景データテーブル(オプティカルフローテーブル)を作成する。その際、この監視装置10では、画像処理部26のブロック分割部26Aにより、監視カメラ2で撮影された撮影画像を複数のブロックに分割し、これら複数のブロック毎のオプティカルフローテーブルを設定する。
From this reference photographed image, the optical
図4は、このオプティカルフローテーブルの設定について説明するための模式図である。
ブロック分割部26Aは、図4Aに示すように、監視領域の撮影画像Gを縦横(X−Y方向)に所定数ずつの画素からなるブロックBに分割して、撮影画像Gの全体を複数のブロックBに区画する。このように分割した複数のブロックBに、前記抽出したオプティカルフローのベクトルV(図3B参照)を対応させ、ブロックB毎の各ベクトルを算出して、図4Bに示すように、オプティカルフローテーブルTを設定する。
FIG. 4 is a schematic diagram for explaining the setting of the optical flow table.
As shown in FIG. 4A, the
なお、図4Bでは、撮影画像GのオプティカルフローテーブルTの一部を抜き出して、かつ、各ブロックB毎に設定したベクトルWの方向や長さを模式的に示している。また、ここでは、オプティカルフローテーブルTを、説明のため視覚的に示すが、実際には、設定されるオプティカルフローテーブルTは、ブロックBに対応したベクトルに関するデータであり、それぞれブロックBと対応付けられて記憶部27のオプティカルフローテーブル27Bに記憶される。更に、図示の例では、オプティカルフローは、現在の撮影画像G(フレーム)から所定の時間差をつけて撮影された一つ前の撮影画像Gへのベクトル方向を表しており、実際の移動方向を示すベクトルV(図3B参照)とは逆向きのベクトルWになっている。
In FIG. 4B, a part of the optical flow table T of the captured image G is extracted, and the direction and length of the vector W set for each block B are schematically shown. In addition, here, the optical flow table T is visually shown for explanation, but actually, the optical flow table T to be set is data related to a vector corresponding to the block B, and is associated with the block B, respectively. And stored in the optical flow table 27B of the
図5は、このように設定されたオプティカルフローテーブルTについて説明するための模式図である。
このオプティカルフローテーブルTは、図示のように、現在の撮影画像の各ブロックBが一つ前の撮影画像では、どの方向及び位置にあるブロックBに対応するかを、それぞれX方向及びY方向の成分からなるベクトルWにより表している。
FIG. 5 is a schematic diagram for explaining the optical flow table T set as described above.
As shown in the figure, the optical flow table T indicates in which direction and position the block B of the current captured image corresponds to the block B in the previous captured image in the X and Y directions, respectively. It is represented by a vector W composed of components.
具体的には、オプティカルフローテーブルTの一箇所のブロックB1(図の格子状のハッチング領域)に着目すると、同位置のベクトルWは左斜め下方向を向いている。従って、現在の撮影画像G1の同位置のブロックB1は、一つ前の撮影画像G2では、ベクトルWが示す方向及び長さ等に応じて、左斜め下方向に隣接するブロックB2に対応する。即ち、この撮影画像G2のブロックB2内のものは、一つ後の撮影画像G1のブロックB1に移動すると推測され、それら各ブロックB1、B2には、基本的に同じか又は対応するものが撮影されることになる。これを利用して、本実施形態の監視装置10は、このように予め設定したオプティカルフローテーブルTに基づいて、画像処理部26(図2参照)により、両画像G1、G2のブロックBの比較を所定の対応するブロックB1、B2同士のみで各々行う等して画像処理負荷の軽減等を図っている。次に、この画像処理部26について、詳細に説明する。
Specifically, when attention is paid to one block B1 (lattice hatching area in the figure) of the optical flow table T, the vector W at the same position is directed diagonally downward to the left. Therefore, the block B1 at the same position in the current photographed image G1 corresponds to the block B2 adjacent in the diagonally lower left direction in the previous photographed image G2 according to the direction and length indicated by the vector W. That is, it is assumed that the captured image G2 in the block B2 moves to the block B1 of the next captured image G1, and those blocks B1 and B2 are basically the same or corresponding ones. Will be. Using this, the
画像処理部26は、上記したブロック分割部26Aに加えて、比較ブロック決定部26B、類似度算出部26C、類似度比較部26D、カウント部26E、カウント数比較部26F、及び判定・検出部26Gを有する。
In addition to the
比較ブロック決定部26Bは、オプティカルフローテーブルTに基づいて、所定の時間差をおいて撮影された撮影画像Gの複数のブロックBから比較すべきブロックB同士を決定する。その際、比較ブロック決定部26Bは、上記した記憶部27のオプティカルフローテーブル27Bに記憶されたデータから、予め設定された所定のオプティカルフローテーブルTを読み出し、そのベクトルWに関するデータ等に基づき、両画像Gの比較すべきブロックB同士を推測して決定する。
Based on the optical flow table T, the comparison
図6は、この比較すべきブロックB同士の決定について説明するための模式図であり、上から順に新しい撮影画像Gを示している。また、図では、各撮影画像Gを模式的に複数のブロックBで表し、各ブロックB内にオプティカルフローテーブルTから取得した各ブロックBのベクトルWも示している。
比較ブロック決定部26Bは、上記した図5を用いて説明したのと同様にして、ブロック分割部26Aにより複数のブロックB(図4A参照)に分割された2つの撮影画像Gの比較すべきブロックB同士を推定する。
FIG. 6 is a schematic diagram for explaining the determination of the blocks B to be compared, and shows new photographed images G in order from the top. In the figure, each captured image G is schematically represented by a plurality of blocks B, and a vector W of each block B acquired from the optical flow table T is also shown in each block B.
In the same manner as described with reference to FIG. 5, the comparison
具体的には、図示のように、例えば時刻tにおける撮影画像G(t)でブロックB10にいた人P等の物体は、その位置のベクトルW10から、一つ前の時刻t−1では、そのときの撮影画像G(t−1)内でブロックB11の位置にあったと推測される。同様に、撮影画像G(t)でのブロックB20に対応するのは、その位置のベクトルW20から、時刻t−1の撮影画像G(t−1)でのブロックB21となる。なお、以上と同様に、時刻t−1における撮影画像G(t−1)でのブロックB11及びブロックB21に対応するのは、それぞれ一つ前の時刻t−2の撮影画像G(t−2)でのブロックB12及びブロックB22となる。また、時刻t−2における撮影画像G(t−2)でのブロックB12及びブロック22に対応するのは、それぞれ更に一つ前の時刻t−3の撮影画像でのブロックB13及びブロックB23となる。 Specifically, as shown in the drawing, for example, an object such as a person P who was in the block B10 in the captured image G (t) at the time t from the position vector W10 at the previous time t−1. It is presumed that the position was in the position of the block B11 in the captured image G (t-1) at that time. Similarly, the block B20 in the photographed image G (t) corresponds to the block B21 in the photographed image G (t-1) at time t-1 from the position vector W20. In the same manner as described above, the blocks B11 and B21 in the captured image G (t-1) at time t-1 correspond to the captured image G (t-2 at the previous time t-2, respectively. ) In block B12 and block B22. Further, the blocks B12 and B22 in the captured image G (t-2) at the time t-2 correspond to the blocks B13 and B23 in the captured image at the previous time t-3, respectively. .
比較ブロック決定部26Bは、このようにして、オプティカルフローテーブルTのブロックB毎のベクトルWから、所定の時間差を有する撮影画像Gの複数のブロックB全体を対象に、それぞれ対応するブロック位置(フロー位置)を推測して両画像Gの比較すべきブロックB同士を決定する。画像処理部26(図2参照)は、この比較ブロック決定部26Bの決定に基づき、類似度算出部26Cにより、取得した現在の撮影画像G(t)と、その一つ前の撮影画像G(t−1)から、それぞれ決定されたブロックB同士の類似度を算出する。
In this way, the comparison
類似度算出部26Cは、一方の撮影画像G(t)の各ブロックBを、それぞれ他方の撮影画像G(t−1)の対応するブロックBと比較等して類似度を算出する手段であり、撮影画像G(t)の複数のブロックBの全体に亘って各類似度を順次算出する。即ち、類似度算出部26Cは、現在のブロックBと、そのブロック位置のオプティカルフローテーブルTのデータより、そのブロックB内のものが一つ前の撮影画像G(t−1)内で存在したであろう位置のブロックBとを探索する。このように、ブロックB同士の類似度を、それぞれオプティカルフローテーブルTをもとに推測されるフロー位置でのみ各々算出する。その際、ここでは、比較すべき両ブロックBでブロックマッチングを行い、その類似度を算出して取得する。
The
ここで、ブロックB同士の類似度の算出方法について、一般的な画素値の差分絶対値の和を算出するSAD(Sum of Absolute Difference)を例に説明する。まず、撮影画像Gの画面全体の画素数をM×N画素、抽出する各ブロックBをm×n画素とすると、画面全体ではM/m×N/n個のブロックBができる。これら各ブロックBに対してブロックマッチングを行う場合に、時刻tと、それよりも所定時間前の時刻t−1の撮影画像Gの対応するブロックB同士のマッチング係数Rは、次の式(数1)で表される。 Here, a method of calculating the similarity between the blocks B will be described by taking, as an example, SAD (Sum of Absolute Difference) for calculating the sum of the absolute difference values of general pixel values. First, if the number of pixels of the entire screen of the captured image G is M × N pixels and each block B to be extracted is m × n pixels, M / m × N / n blocks B are formed on the entire screen. When block matching is performed on each of these blocks B, the matching coefficient R between the corresponding blocks B of the captured image G at time t and time t−1 that is a predetermined time before that is expressed by the following equation (several 1).
この式で、Itは時刻tでの各画素の階調値(例えば輝度値)、It−1は時刻t−1での各画素の階調値であり、xi,yjは、対象とするブロックB内にある各画素の同ブロック内での座標である。このように表されるマッチング係数Rは、小さいほどブロックB間の類似度が高く、逆に大きいほどブロックB間の類似度が低くなる。 In this formula, the tone value of each pixel in I t is time t (e.g., luminance values), a gradation value of each pixel in I t-1 at time t-1, x i, y j is This is the coordinates of each pixel in the target block B within the same block. The smaller the matching coefficient R expressed in this way, the higher the similarity between the blocks B, and the larger the matching coefficient R, the lower the similarity between the blocks B.
本実施形態の画像処理部26は、このように複数のブロックB毎の算出された類似度に基づいて、その全体的な高低や撮影画像G内での高低の分布等から、移動するエスカレータES上における人Pの動きを監視する。具体的には、ここでは、この監視するための手段を、上記した類似度比較部26D、カウント部26E、カウント数比較部26F、及び判定・検出部26Gにより構成している。
The
類似度比較部26Dは、類似度算出部26Cにより算出されたブロックB間の各類似度を閾値処理するための手段であり、算出された類似度と予め定められた類似度の閾値とを順次比較する。これにより、類似度比較部26Dは、現在の撮影画像Gの複数のブロックBから、所定時間前の対応するブロックBと同一とみなせないブロックBを判別し、エスカレータESによる動き以外のイレギュラーな動きを示すブロックBを抽出する。
The
図7は、このブロックBの類似度の閾値処理によるブロックBの抽出について説明するための模式図であり、各撮影画像G等を上記した図6に対応して同様に示している。
また、図では、時刻tにおける撮影画像G(t)の1つのブロックB11と、それに対応する時刻t−1における撮影画像G(t−1)のブロックB12とでブロックマッチングを行う例を示している。
FIG. 7 is a schematic diagram for explaining the extraction of the block B by the threshold value processing of the similarity of the block B, and similarly shows each captured image G and the like corresponding to FIG. 6 described above.
Also, the figure shows an example in which block matching is performed with one block B11 of the captured image G (t) at time t and the corresponding block B12 of the captured image G (t-1) at time t-1. Yes.
類似度比較部26Dは、図示のように、両ブロックB11、B12間の類似度の閾値処理を行い、類似度が所定の閾値よりも低く2つのブロックB11、B12が似ていないと判断されたときには、撮影画像G(t)のブロックB11を、違反行為や危険行為がなされたブロック候補として抽出する。同様にして、類似度比較部26Dは、撮影画像G(t)の全てのブロックBに対して閾値処理により抽出するか否かの判定を行う。
As shown in the figure, the
なお、この類似度の閾値は、監視開始前に、ユーザ等により入力部23(図2参照)を介して入力されて予め設定され、記憶部27の設定データ27Cに記憶されて、監視時に、類似度比較部26Dにより読み出されて使用される。また、この閾値は、監視領域の各状況等に応じて適宜設定される。その際、例えばブロックBが4×4画素の計16画素からなるときに、その階調値が0〜255までの値をとる場合には、上記したマッチング係数Rは0〜4080までの値をとり得る。通常、各階調値の差が20以上あると同一色とみなせないときには、ブロックB内の合計値は20×16=320となるので、マッチング係数Rの閾値を320と設定する。この場合には、類似度を示すマッチング係数Rが320以上になったときに、そのブロックBの類似度が所定の類似度の閾値よりも低いとして抽出される。
Note that this similarity threshold value is input and set in advance by the user or the like via the input unit 23 (see FIG. 2) before monitoring, and is stored in the setting
図8は、以上のようにして類似度が低いブロックBを抽出した画像の例を示す模式図であり、上記した図11に示すエスカレータESのステップS上を昇る歩行者P1がいる状態の撮影画像Gから、類似度が閾値よりも低いブロックBを抽出した例を示している。
この撮影画像Gでは、図示のように、歩行者P1が位置する領域J1(図の斜線で示す領域)内で画像の変化が大きくなるため、その中のブロックBの類似度が低くなり、違反行為や危険行為等の動きがあるブロックBとして判定されて抽出される。
FIG. 8 is a schematic diagram illustrating an example of an image obtained by extracting the block B having a low degree of similarity as described above, and photographing in a state where there is a pedestrian P1 ascending on the step S of the escalator ES illustrated in FIG. 11 described above. The example which extracted the block B from which the similarity degree is lower than a threshold value from the image G is shown.
In the photographed image G, as shown in the figure, since the change in the image is large in the region J1 (the region indicated by the oblique lines in the figure) where the pedestrian P1 is located, the similarity of the block B in the region becomes low, and the It is determined and extracted as a block B having a movement such as an action or a dangerous action.
画像処理部26は、この類似度比較部26Dによる比較結果から、算出された類似度が所定の閾値よりも低いブロックBの数をカウント部26E(図2参照)によりカウントし、撮影画像G内のイレギュラーなベクトルをもつブロックBの数を集計する。また、画像処理部26は、カウント数比較部26Fにより、カウント部26EによるブロックBのカウント数(類似度が低いブロックBの数)と予め定められたカウント数の閾値とを比較する。更に、画像処理部26は、このカウント数の比較結果に基づいて、判定・検出部26Gにより、エスカレータES上における人Pの動きを検出し、カウント数が閾値を超えた場合に、エスカレータES上で違反行為や危険行為が起きている等と判定する。加えて、判定・検出部26Gの判定結果に応じて、例えばインターフェース部21を介して警告装置3を作動させ、エスカレータESに向かって警告アラームを発生等させる。
From the comparison result by the
その際、判定・検出部26Gは、抽出されたブロックB(図8参照)のカウント数から、警告が必要な行為が行われているか否かを判定するが、単純にカウント数が撮影画像G全体のブロックBの数の所定割合(例えば50%)以上であるときに警告したり、或いは監視時刻等に応じて異なる基準(閾値)で判定して警告等してもよい。このように、カウント数の閾値は、監視状況等に応じて適宜設定され、予め記憶部27の設定データ27Cに記憶される。ただし、実際には、エスカレータES上で人Pは多少動き、それらに対応するブロックBがノイズのように抽出されるため、カウント数の閾値は、予め通常動作時におけるノイズ分に相当するブロック数をノイズ量として検出し、それらを含めてノイズ量以上に設定する。
At that time, the determination /
次に、以上説明した監視システム1及び監視装置10(図1参照)によりエスカレータES上の人P等を監視する手順や動作等について説明する。
図9は、この監視システム1及び監視装置10の監視処理や動作に関する手順を示すフローチャートである。
Next, procedures and operations for monitoring the person P on the escalator ES by the
FIG. 9 is a flowchart showing a procedure related to the monitoring process and operation of the
監視開始に先だち、図示のように、まず、監視カメラ2によりエスカレータES等の基準画像を撮影して取得し、この基準撮影画像から、背景データ設定部25のオプティカルフロー抽出部25Aによりオプティカルフロー(図3参照)を抽出する(S101)。続いて、オプティカルフローテーブル設定部25Bにより、抽出したオプティカルフローから、ブロック分割部26Aにより分割された複数のブロックB毎のオプティカルフローテーブルT(図4参照)を作成し(S102)、背景データとして設定して、記憶部27のオプティカルフローテーブル27Bに記憶する。また、エスカレータESの通常動作時の撮影画像Gを、画像処理部26により画像処理又は解析処理して、その状態における上記したノイズ量等を検出するとともに、それらを基にして決定及び設定されたブロックBの類似度(ここではマッチング係数R)の閾値TH1及び、前記カウント数の閾値TH2を設定データ27Cに記憶する(S103)。
Prior to the start of monitoring, as shown in the figure, first, a reference image such as an escalator ES is captured and acquired by the
監視開始後は、まず、監視カメラ2により所定時間毎にエスカレータESを含む画像を撮影する等して、監視領域の所定の時間差をおいた撮影画像Gを順次取得し(S104)、画像データ27Aに記憶する。次に、これら撮影画像Gから、オプティカルフローテーブルTを使用した比較ブロック決定部26Bの決定に基づき、類似度算出部26Cにより、現在の撮影画像Gの各ブロックBに対して、それぞれ一つ前の撮影画像Gの比較すべきブロックBとのブロックマッチング(図7参照)を行う。これにより、ここでは、現在の撮影画像Gの各ブロックBの類似度としてマッチング係数Rを算出し(S105)、各ブロックBのマッチング係数Rを取得して、それらに基づいてエスカレータES上における人Pの動きを監視等する。
After the start of monitoring, first, captured images G with a predetermined time difference in the monitoring area are sequentially acquired by, for example, capturing images including the escalator ES by the
具体的には、本実施形態では、まず、各ブロックBの類似度を表す算出されたマッチング係数Rを、類似度比較部26Dにより、予め設定された閾値TH1と比較し、マッチング係数Rが閾値TH1以上か否かを判定する(S106)。その結果、マッチング係数Rが閾値TH1よりも小さいときには(S106、NO)、撮影画像Gの全てのブロックBに対する処理が終了したか否かを判定し(S109)、未終了の場合(S109、NO)には次のブロックBに移り(S112)、そのブロックBのマッチング係数Rを算出する(S105)。一方、マッチング係数Rが閾値TH1以上であり、ブロックBの類似度が所定の閾値よりも低いときには(S106、YES)、そのブロックBを、ここでは違反行為ブロック候補としてカウント部26Eによりカウントする(S107)。
Specifically, in the present embodiment, first, the calculated matching coefficient R representing the similarity of each block B is compared with a preset threshold TH1 by the
次に、このブロックBのカウント数を、カウント数比較部26Fが、予め定められたカウント数の閾値TH2と比較する。その結果、ここでは違反行為ブロックBの割合が閾値TH2以上であるときに(S108、YES)、判定・検出部26Gにより、エスカレータES上で違反行為がなされていると判定する等して人Pの動きを検出し(図8参照)、警告装置3により警告アラームを発する(S111)。これに対し、違反行為ブロックBの割合が閾値TH2よりも小さいときには(S108、NO)、全てのブロックBの処理が終了したか否かを判定し(S109)、未終了の場合(S109、NO)には次のブロックBに移り(S112)、以上の各処理等を、全てのブロックBの処理が終了(S109、YES)するまで繰り返す。このように、1つの撮影画像Gの全ブロックBの処理が終了したら(S109、YES)、次の時刻の撮影画像の処理に進み(S110)、その画像を取得(S104)して上記各手順を繰り返し、エスカレータES上の人Pの監視を連続して、又は所定時間間隔等で行う。
Next, the count
以上説明した監視処理時に、この監視装置10では、撮影画像G毎にオプティカルフローを都度算出せずに、予め設定されたオプティカルフローテーブルTに基づいて、それにより推測されるフロー位置でのみブロックマッチングを行う等して各ブロックBの類似度を算出し、それを基に監視処理を実行する。そのため、この監視装置10では、監視精度を維持しつつ、少ない計算量でエスカレータES上での人Pの動き等を比較的正確に検出することができる。これに伴い、エスカレータES上で設定された速度以上の速度で歩く人P等の歩行者や、手すりから外側に身を乗り出す人Pがいるとき等、エスカレータES上での違反行為や危険行為等を、簡易かつ処理負荷の小さい画像処理により検出でき、エスカレータESの安全性を向上させることもできる。従って、本実施形態によれば、監視装置10により移動物体上の移動体を簡易かつ精度よく監視でき、その際の計算量を減少させて監視のための処理負荷を軽減させることができる。
At the time of the monitoring process described above, the
ここで、本実施形態では、撮影画像Gの全体をブロックBに分割して類似度等を算出したが、撮影画像Gの設定された一部のエリアをブロックBに分割して、そのエリアのみを監視する等、撮影画像Gの一部を監視等するようにしてもよい。また、上記した所定の閾値よりも類似度が低いブロックBのカウントは、撮影画像G全体で行ってもよく、撮影画像Gを複数のエリアに区画してエリア毎にカウントし、各エリアに対して設定された各々の異なるカウント数の閾値と比較等するようにしてもよい。 Here, in the present embodiment, the entire captured image G is divided into blocks B to calculate the similarity and the like. However, a part of the set area of the captured image G is divided into blocks B, and only that area is calculated. For example, a part of the captured image G may be monitored. The block B having a similarity lower than the predetermined threshold may be counted for the entire captured image G. The captured image G is divided into a plurality of areas and counted for each area. It may be compared with the threshold value of each different count number set.
図10は、この撮影画像Gに対するエリアの設定例を示す模式図である。
ここでは、図示のように、撮影画像Gを、エスカレータESの全体とその周辺(手すりH付近)を含む中央側エリアK1及び、その両外側に位置する外側エリアK2に区画して分割し、撮影画像Gに複数のエリアK1、K2を設定している。
FIG. 10 is a schematic diagram showing an example of setting areas for the captured image G.
Here, as shown in the figure, the photographed image G is divided into a central area K1 including the entire escalator ES and its periphery (near the handrail H) and an outer area K2 located on both sides thereof, and photographed. A plurality of areas K1 and K2 are set in the image G.
これにより、各エリアK1、K2の状況に応じて、人Pの動きによりノイズが発生しやすい中央側エリアK1ではブロックBのカウント数の閾値を高く設定し、逆に、通常は動きのない領域である外側エリアK2では閾値を低く設定する等して、エリアK1、K2毎に適切な監視を行うことができる。その際、例えば通常動作で生じるカウント数のノイズ量が、中央側エリアK1では、その中のブロックBの数の25%程度、外側エリアK2では、その中のブロックBの数の8%程度である場合には、各カウント数の閾値を、中央側エリアK1ではエリア内のブロック数の30%、外側エリアK2ではエリア内のブロック数の10%等と設定する。このようにすることで、手すりHから身を乗り出して外側エリアK2内に人P(図12参照)が入ったとき等、想定外の又は危険度の大きい行為や動き等を正確かつ確実に検出でき、検出精度を高めることができる。 Thereby, according to the situation of each area K1, K2, in the central area K1 where noise is likely to be generated by the movement of the person P, the threshold value of the count number of the block B is set high. In the outer area K2, it is possible to perform appropriate monitoring for each of the areas K1 and K2, for example, by setting the threshold value low. At that time, for example, the noise amount of the count number generated in the normal operation is about 25% of the number of blocks B in the central area K1, and about 8% of the number of blocks B in the outer area K2. In some cases, the threshold value for each count number is set to 30% of the number of blocks in the area in the central area K1, 10% of the number of blocks in the area in the outer area K2, and the like. In this way, when a person P (see FIG. 12) enters the outside area K2 after getting out of the handrail H, an unexpected or high-risk action or movement is accurately and reliably detected. And detection accuracy can be increased.
なお、この場合には、監視装置10の画像処理部26(図2参照)等に、撮影画像Gに対して複数のエリアを設定する手段を設け、これにより予め設定された複数のエリア毎にエスカレータES上における人Pの動きを監視等する。また、カウント部26Eにより、算出された類似度が閾値よりも低いブロックBの数を複数のエリア毎にカウントし、カウント数比較部26Fにより、複数のエリア毎のブロックBのカウント数と、エリア毎に予め定められたカウント数の閾値のうち、対応するエリアのカウント数の閾値とを比較する。
In this case, the image processing unit 26 (see FIG. 2) of the
以上、エスカレータESを監視する装置を例に採り説明したが、本発明は、動く歩道やコンベア等、オプティカルフローテーブルTを設定可能な他の移動物体上の移動体を監視する装置に適用することもできる。また、本発明は、監視装置10のコンピュータを、上記した監視装置10の各手段として機能させるためのプログラムとしても実現することができる。
As described above, the apparatus for monitoring the escalator ES has been described as an example. However, the present invention is applied to an apparatus for monitoring a moving body on another moving object capable of setting the optical flow table T, such as a moving sidewalk or a conveyor. You can also. The present invention can also be realized as a program for causing the computer of the
1・・・監視システム、2・・・監視カメラ、3・・・警告装置、10・・・監視装置、11・・・CPU、12・・・RAM、13・・・ROM、21・・・インターフェース部、22・・・制御部、23・・・入力部、24・・・表示部、25・・・背景データ設定部、25A・・・オプティカルフロー抽出部、25B・・・オプティカルフローテーブル設定部、26・・・画像処理部、26A・・・ブロック分割部、26B・・・比較ブロック決定部、26C・・・類似度算出部、26D・・・類似度比較部、26E・・・カウント部、26F・・・カウント数比較部、26G・・・判定・検出部、27・・・記憶部、27A・・・画像データ、27B・・・オプティカルフローテーブル、27C・・・設定データ、29・・・バス、B・・・ブロック、G・・・撮影画像、ES・・・エスカレータ、P・・・人、S・・・ステップ、T・・・オプティカルフローテーブル、H・・・手すり、V・・・ベクトル。
DESCRIPTION OF
Claims (5)
監視カメラで撮影された監視領域の撮影画像を複数のブロックに分割する手段と、
前記移動物体又は前記移動物体と移動体の基準撮影画像からオプティカルフローを抽出する手段と、
該抽出したオプティカルフローから前記複数のブロック毎のオプティカルフローテーブルを設定する手段と、
前記オプティカルフローテーブルに基づいて、時間差をおいた前記撮影画像の複数のブロックから比較すべきブロック同士を決定する手段と、
該決定された前記ブロック同士の類似度を算出する手段と、
前記複数のブロック毎の前記算出された類似度に基づいて、前記移動物体上における前記移動体の動きを監視する手段と、
を備えたことを特徴とする監視装置。 A monitoring device for monitoring a moving object on a moving object,
Means for dividing the captured image of the surveillance area captured by the surveillance camera into a plurality of blocks;
Means for extracting an optical flow from a reference captured image of the moving object or the moving object and the moving object;
Means for setting an optical flow table for each of the plurality of blocks from the extracted optical flow;
Means for determining blocks to be compared from a plurality of blocks of the captured image with a time difference based on the optical flow table;
Means for calculating the degree of similarity between the determined blocks;
Means for monitoring the movement of the moving object on the moving object based on the calculated similarity for each of the plurality of blocks;
A monitoring device comprising:
前記監視する手段は、前記算出された類似度と予め定められた該類似度の閾値とを比較する手段と、前記算出された類似度が前記閾値よりも低いブロックの数をカウントする手段と、該ブロックのカウント数と予め定められた該カウント数の閾値とを比較する手段と、該カウント数の比較結果に基づいて、前記移動物体上における前記移動体の動きを検出する手段と、を有することを特徴とする監視装置。 The monitoring device according to claim 1,
The monitoring means compares the calculated similarity with a predetermined threshold of the similarity; and counts the number of blocks with the calculated similarity lower than the threshold; Means for comparing the count number of the block with a predetermined threshold value of the count number, and means for detecting movement of the moving body on the moving object based on the comparison result of the count number A monitoring device characterized by that.
前記撮影画像に対して複数のエリアを設定する手段を備え、
前記監視する手段が前記複数のエリア毎に前記移動物体上における前記移動体の動きを監視することを特徴とする監視装置。 In the monitoring device according to claim 1 or 2,
Means for setting a plurality of areas for the captured image;
The monitoring device, wherein the monitoring means monitors the movement of the moving body on the moving object for each of the plurality of areas.
前記カウントする手段が前記複数のエリア毎に前記算出された類似度が前記閾値よりも低いブロックの数をカウントし、前記カウント数を比較する手段が前記複数のエリア毎の前記ブロックのカウント数と予め定められた該エリアのカウント数の閾値とを比較することを特徴とする監視装置。 The monitoring device according to claim 3, wherein
The means for counting counts the number of blocks whose calculated similarity is lower than the threshold value for each of the plurality of areas, and the means for comparing the number of counts counts the number of blocks for each of the plurality of areas. A monitoring apparatus that compares a predetermined threshold value of the count number of the area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007252294A JP4883415B2 (en) | 2007-09-27 | 2007-09-27 | Monitoring device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007252294A JP4883415B2 (en) | 2007-09-27 | 2007-09-27 | Monitoring device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009086748A true JP2009086748A (en) | 2009-04-23 |
JP4883415B2 JP4883415B2 (en) | 2012-02-22 |
Family
ID=40660141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007252294A Active JP4883415B2 (en) | 2007-09-27 | 2007-09-27 | Monitoring device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4883415B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012022370A (en) * | 2010-07-12 | 2012-02-02 | Hitachi Kokusai Electric Inc | Monitoring system and monitoring method |
KR101219407B1 (en) * | 2010-03-19 | 2013-01-11 | 한국철도기술연구원 | escalator monitoring system using image processing technology |
KR101394270B1 (en) * | 2012-11-14 | 2014-05-13 | 한국과학기술연구원 | System and method for image monitoring |
KR101407952B1 (en) * | 2012-11-09 | 2014-06-17 | 전창현 | Elevator crime prvent system and method of controlling the same |
JP2015176441A (en) * | 2014-03-17 | 2015-10-05 | キヤノン株式会社 | Image processor, and control method and control program thereof |
JP6472035B1 (en) * | 2018-01-30 | 2019-02-20 | 株式会社タクマ | Combustion control system with a function to estimate the amount of waste in an incinerator |
JP2019175112A (en) * | 2018-03-28 | 2019-10-10 | キヤノン株式会社 | Image processing device, photographing device, image processing method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06203161A (en) * | 1993-01-05 | 1994-07-22 | Fujitsu Ltd | Extracting method for object from animation image and device therefor |
JPH10265163A (en) * | 1997-03-25 | 1998-10-06 | Hitachi Ltd | Escalator controller |
JP2003312408A (en) * | 2002-04-17 | 2003-11-06 | Toshiba Corp | Image diagnosing device, image diagnosing system of on- vehicle image monitoring device and passing vehicle monitoring device |
JP2004056763A (en) * | 2002-05-09 | 2004-02-19 | Matsushita Electric Ind Co Ltd | Monitoring apparatus, monitoring method, and program for monitor |
JP2007078358A (en) * | 2005-09-09 | 2007-03-29 | Sumitomo Electric Ind Ltd | Measurement device for mobile body, signal control system, measurement method of mobile body, and computer program |
JP2007172540A (en) * | 2005-12-26 | 2007-07-05 | Sumitomo Electric Ind Ltd | Moving object discrimination system, moving object discrimination method, and computer program |
-
2007
- 2007-09-27 JP JP2007252294A patent/JP4883415B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06203161A (en) * | 1993-01-05 | 1994-07-22 | Fujitsu Ltd | Extracting method for object from animation image and device therefor |
JPH10265163A (en) * | 1997-03-25 | 1998-10-06 | Hitachi Ltd | Escalator controller |
JP2003312408A (en) * | 2002-04-17 | 2003-11-06 | Toshiba Corp | Image diagnosing device, image diagnosing system of on- vehicle image monitoring device and passing vehicle monitoring device |
JP2004056763A (en) * | 2002-05-09 | 2004-02-19 | Matsushita Electric Ind Co Ltd | Monitoring apparatus, monitoring method, and program for monitor |
JP2007078358A (en) * | 2005-09-09 | 2007-03-29 | Sumitomo Electric Ind Ltd | Measurement device for mobile body, signal control system, measurement method of mobile body, and computer program |
JP2007172540A (en) * | 2005-12-26 | 2007-07-05 | Sumitomo Electric Ind Ltd | Moving object discrimination system, moving object discrimination method, and computer program |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101219407B1 (en) * | 2010-03-19 | 2013-01-11 | 한국철도기술연구원 | escalator monitoring system using image processing technology |
JP2012022370A (en) * | 2010-07-12 | 2012-02-02 | Hitachi Kokusai Electric Inc | Monitoring system and monitoring method |
US9420236B2 (en) | 2010-07-12 | 2016-08-16 | Hitachi Kokusai Electric Inc. | Monitoring system and monitoring method |
KR101407952B1 (en) * | 2012-11-09 | 2014-06-17 | 전창현 | Elevator crime prvent system and method of controlling the same |
KR101394270B1 (en) * | 2012-11-14 | 2014-05-13 | 한국과학기술연구원 | System and method for image monitoring |
JP2015176441A (en) * | 2014-03-17 | 2015-10-05 | キヤノン株式会社 | Image processor, and control method and control program thereof |
JP6472035B1 (en) * | 2018-01-30 | 2019-02-20 | 株式会社タクマ | Combustion control system with a function to estimate the amount of waste in an incinerator |
JP2019132485A (en) * | 2018-01-30 | 2019-08-08 | 株式会社タクマ | Combustion-controlling system with function of estimating waste volume in incinerator |
JP2019175112A (en) * | 2018-03-28 | 2019-10-10 | キヤノン株式会社 | Image processing device, photographing device, image processing method, and program |
JP7117872B2 (en) | 2018-03-28 | 2022-08-15 | キヤノン株式会社 | IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM |
Also Published As
Publication number | Publication date |
---|---|
JP4883415B2 (en) | 2012-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4883415B2 (en) | Monitoring device and program | |
US8660700B2 (en) | Video-based system and method of elevator door detection | |
CN107665326B (en) | Monitoring system for passenger conveyor, passenger conveyor and monitoring method thereof | |
JP5925068B2 (en) | Video processing apparatus, video processing method, and program | |
JP2020191646A (en) | Information processing system, information processing method and program | |
JP2008217602A (en) | Suspicious behavior detection system and method | |
JP6233624B2 (en) | Information processing system, information processing method, and program | |
CN108363953B (en) | Pedestrian detection method and binocular monitoring equipment | |
JP6779410B2 (en) | Video analyzer, video analysis method, and program | |
WO2018179202A1 (en) | Information processing device, control method, and program | |
CN110713082B (en) | Elevator control method, system, device and storage medium | |
JPH08127476A (en) | Method of detecting number of waiting passenger for elevator | |
JP5626099B2 (en) | Pedestrian detection device | |
Nguyen et al. | Extracting silhouette-based characteristics for human gait analysis using one camera | |
CN112561967A (en) | Control method and device for vehicle door lock | |
JP6028972B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN109726750B (en) | Passenger fall detection device, passenger fall detection method and passenger conveying device | |
JP7214437B2 (en) | Information processing device, information processing method and program | |
JP2000053361A (en) | Passenger monitoring device for man-conveyer | |
JP2017019351A (en) | Fallen person detection device, fallen person detection system, fallen person detection method, and fallen person detection program | |
JP2005284652A (en) | Video monitoring method and apparatus using moving vector | |
JP6046559B2 (en) | Specific motion detection device | |
JP2014071482A (en) | Object detection device | |
JP4697761B2 (en) | Queue detection method and queue detection apparatus | |
JP5864231B2 (en) | Moving direction identification device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110810 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111124 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141216 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4883415 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |