JP2006082618A - Fallen article detection device - Google Patents

Fallen article detection device Download PDF

Info

Publication number
JP2006082618A
JP2006082618A JP2004267420A JP2004267420A JP2006082618A JP 2006082618 A JP2006082618 A JP 2006082618A JP 2004267420 A JP2004267420 A JP 2004267420A JP 2004267420 A JP2004267420 A JP 2004267420A JP 2006082618 A JP2006082618 A JP 2006082618A
Authority
JP
Japan
Prior art keywords
optical flow
fallen
falling
falling object
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004267420A
Other languages
Japanese (ja)
Other versions
JP4561266B2 (en
Inventor
Atsushi Shiraishi
篤史 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2004267420A priority Critical patent/JP4561266B2/en
Publication of JP2006082618A publication Critical patent/JP2006082618A/en
Application granted granted Critical
Publication of JP4561266B2 publication Critical patent/JP4561266B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Platform Screen Doors And Railroad Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a fallen article detection device capable of monitoring the entire platform by cameras of the minimum number, and suppressing improper reaction caused by a fallen article other than a person. <P>SOLUTION: The fallen article detection device to detect a fallen article based on a screen image-picked up by an image pickup means to pick up an image of a predetermined place comprises an optical flow measurement point setting means to set a plurality of optical flow measurement points, an optical flow detection means to detect the optical flow of the fallen article based on the set measurement point, a fallen article detection means to detect a lump of the fallen article based on the detected optical flow, a falling locus tracing means to trace the falling locus of the identified lump, and a fallen article determination means to determine whether or not the fallen article is a predetermined one based on the lump of the fallen article and the falling locus of the fallen article, which are provided in a predetermined area on the image picked-up screen. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、駅のプラットホームなどから線路面などへ意図的に降下したり非意図的に落下したりする人物などを、TVカメラによって得られた画面から自動的に検出する装置に関する。   The present invention relates to an apparatus for automatically detecting from a screen obtained by a TV camera a person who intentionally descends or unintentionally falls on a track surface or the like from a station platform or the like.

鉄道の一般乗客が駅のプラットホームから線路に降りることは法律で禁止されている。それにもかかわらず誤って転落する、あるいは意図的に線路に降りる乗客が後を絶たない。人身の安全確保のため、駅員は可能な限りそのような事態の発生を知り、状況によっては電車の即時停止指令をも含む措置をとらねばならない。   It is forbidden by law that passengers on railways get off the railway platform from the station platform. Nevertheless, there are no endless passengers who accidentally fall down or deliberately get off the track. In order to ensure the safety of personnel, station staff must be aware of the occurrence of such a situation as much as possible, and depending on the situation, must take measures including an immediate stop of the train.

しかし少数の駅員によって長いプラットホームの全長を常時監視し続けることは困難であるという問題がある。   However, there is a problem that it is difficult to constantly monitor the entire length of a long platform by a small number of station staff.

そこで転落者の自動検出装置が開発されてきた。例えば転落者の重量によって検知するスイッチマットがある。これはスイッチの堅さの設定次第で小動物など軽いものから人間を区別できる点において他の方式に比較して優れているが、設置およびメンテナンスの要するリソースの問題でプラットホームの全長すべてに渡って敷設することができず、現状では電車の乗降口に対応する付近のみに点状に設置されるに留まる。結果、あまり普及していない。   Therefore, an automatic detection device for fallers has been developed. For example, there is a switch mat that detects the weight of a fallen person. This is superior to other methods in that humans can be distinguished from light animals such as small animals depending on the firmness of the switch, but it is installed over the entire length of the platform due to resource issues that require installation and maintenance. It is not possible to do so, and at present, it is only installed in the form of dots in the vicinity corresponding to the entrance / exit of the train. As a result, it is not so popular.

このため、駅ホーム全長を少数のセンサでカバーできるものとして、カメラによって撮影された画面情報の利用も研究されている。プラットホーム屋根の下側にぶら下がるように取り付けた双眼ステレオカメラによって線路上の異物を「線路より高い物体」として検出するシステムが発表されている。(例えば特許文献1)
特開2003−246268号公報(第3頁、図3)
For this reason, the use of screen information photographed by a camera has been studied as being capable of covering the entire length of the station platform with a small number of sensors. A system has been announced that detects a foreign object on a track as "an object higher than the track" by using a binocular stereo camera mounted so as to hang under the platform roof. (For example, Patent Document 1)
JP 2003-246268 A (page 3, FIG. 3)

しかしこれも、落下後に平たく伸びてしまった人体の検出において充分な検知性能が得られない可能性が考えられる。また、双眼ステレオカメラを使うためにカメラ本体のコストが増大するという問題もある。さらに重要なことには、立体視を確実に機能させるためにはひとつの双眼カメラによって警戒できるプラットホームの長さ範囲をあまり広くとれないという問題が存在する。   However, there is also a possibility that sufficient detection performance cannot be obtained in detecting a human body that has been flattened after dropping. In addition, since a binocular stereo camera is used, the cost of the camera body increases. More importantly, there is a problem that the length range of the platform that can be guarded by one binocular camera cannot be taken so wide as to make stereoscopic viewing function reliably.

本発明はこのような観点からなされたものであり、なるべく少ない台数のカメラによってプラットホーム全体を監視し、かつ人物以外の落下物(たとえばゴミなど)による誤反応を極力抑制する落下物検知装置を提供することを目的とする。   The present invention has been made from such a point of view, and provides a fallen object detection apparatus that monitors the entire platform with as few cameras as possible and suppresses erroneous reactions caused by fallen objects other than people (such as dust) as much as possible. The purpose is to do.

本発明は、所定場所を撮影する撮影手段により撮影された画面を基に、落下物を検知する落下物検知装置であって、画面上の所定領域内に、複数のオプティカルフロー測定点を設定するオプティカルフロー測定点設定手段と、設定された測定点を基に、撮影された落下物のオプティカルフローを検出するオプティカルフロー検出手段と、検出されたオプティカルフローを基に、落下物を検出する落下物検出手段と、検出された落下物の落下の軌跡を追跡する落下軌跡追跡手段と、
検出された落下物及び落下物の落下の軌跡を基に所定の落下物か否かを判別する落下物判別手段とを有する構成である。
The present invention is a falling object detection device for detecting a falling object based on a screen imaged by an imaging means for imaging a predetermined place, and sets a plurality of optical flow measurement points in a predetermined area on the screen. Optical flow measurement point setting means, optical flow detection means for detecting the optical flow of the photographed falling object based on the set measurement point, and falling object for detecting the falling object based on the detected optical flow Detection means, and a fall trajectory tracking means for tracking the fall trajectory of the detected fallen object;
It has a configuration including falling object discriminating means for discriminating whether or not the object is a predetermined falling object based on the detected falling object and the locus of falling object falling.

この構成により、測定点におけるオプティカルフローを基に、落下物の軌跡を追跡することで、落下物が所定の落下物であるか否かを判別することができる。   With this configuration, it is possible to determine whether or not the falling object is a predetermined falling object by tracking the locus of the falling object based on the optical flow at the measurement point.

また、オプティカルフロー測定点設定手段は、画面上の各測定点におけるオプティカルフローの大きさに対する感度を、撮影手段から遠方の風景に対しては密かつ高感度に、撮影手段に近い風景に対しては疎かつ低感度に、設定する構成である。   Also, the optical flow measurement point setting means is sensitive to the magnitude of the optical flow at each measurement point on the screen, dense and highly sensitive to a landscape far from the photographing means, and close to the photographing means. Is a sparse and low sensitivity setting.

この構成により、1台の撮影手段により、より精度高く広い範囲をカバーして、オプティカルフローを測定できる。   With this configuration, the optical flow can be measured with a single photographing unit with higher accuracy and covering a wide range.

また、落下物検出手段は、測定点にて検知されたオプティカルフローを水平方向に近いものと垂直方向に近いものとに分類し、各方向の落下物の塊について、所定の大きさか否かを判断し、所定の大きさのときには、落下物が人物の落下なのかそれ以外の物体の通過なのかを判定する構成である。   Moreover, the falling object detection means classifies the optical flow detected at the measurement point into those close to the horizontal direction and those close to the vertical direction, and determines whether or not the lump of falling objects in each direction has a predetermined size. When it is determined and the size is a predetermined size, it is determined whether the fallen object is a fall of a person or an object other than that.

この構成により、垂直方向については人物の落下を、水平方向については、例えば電車の通過を識別できる。   With this configuration, it is possible to identify a person falling in the vertical direction and, for example, passing a train in the horizontal direction.

また、落下物検出手段は、測定点にて検知されたオプティカルフローの画面全域における分布が所定の大きさのときには、撮影手段の振動によって起こった偽りのオプティカルフローと判定する構成である。   Further, the falling object detection means is configured to determine a false optical flow caused by the vibration of the imaging means when the distribution of the optical flow detected at the measurement point in the entire area of the screen has a predetermined size.

この構成により、撮影手段の振動による偽りのオプティカルフローの発生を除外できる。   With this configuration, it is possible to exclude the occurrence of a false optical flow due to the vibration of the imaging unit.

本発明は、ステレオ視やスイッチマットなどの従来手法に比較して、より少ないカメラの個数にて、より広い範囲の駅ホーム等における人物転落等の落下物を、より確実に検出することが可能となる。   The present invention can more reliably detect falling objects such as people falling on a wider range of station platforms, etc., with a smaller number of cameras than conventional methods such as stereo vision and switch mats. It becomes.

本発明では、単眼視画面からの落下物の「運動」情報の抽出に着目することにより、より少ない数のカメラで転落者検知を実現し、さらに落下物体が人物であるか非人物であるかの判定をも可能とした。概要は次の通りである。
(1)プラットホームの縁を越えて何かが下方向に移動するのを待ち続け、
(2)そのような移動が検知されたらその移動物の軌跡を追跡し、
(3)得られた落下物と落下軌跡の特徴からその落下物が人間かそうでないかを判定する。
In the present invention, by focusing on the extraction of “motion” information of falling objects from a monocular screen, it is possible to detect a fallen person with a smaller number of cameras, and whether the falling object is a person or a non-person. Judgment was also possible. The outline is as follows.
(1) Continue to wait for something to move down across the edge of the platform,
(2) When such movement is detected, the trajectory of the moving object is tracked,
(3) Determine whether the fallen object is human or not from the characteristics of the fallen object and the fall trajectory.

(1)は監視画面に多数配置した測定点にてオプティカルフローをモニタし続け、発生したフローの分布や個々のフローの性質について一定の条件が満たされた場合に「落下物体を検知」と判断することによって実現している。   (1) continues to monitor the optical flow at a large number of measurement points arranged on the monitoring screen, and when a certain condition is satisfied regarding the distribution of the generated flow and the characteristics of each flow, it is judged as `` detecting a falling object '' It is realized by doing.

(2)は検出した落下物体が引き起こすオプティカルフロー全体の和として落下軌跡を得ることによって実現している。   (2) is realized by obtaining the falling trajectory as the sum of the entire optical flow caused by the detected falling object.

(3)の判定は、落下軌跡の時空間的な特性およびその基となるオプティカルフロー群の諸性質をデータマイニング処理によってあらかじめ作成しておいた判別器にて処理することによって実現した。   The determination in (3) was realized by processing the spatio-temporal characteristics of the fall trajectory and the properties of the optical flow group that is the basis of the characteristics with a discriminator created in advance by data mining processing.

図1に実施例の落下物検知装置の構成図を示す。   The block diagram of the falling object detection apparatus of an Example is shown in FIG.

落下物検知装置1は、撮影部2と画面処理部3と落下物検出処理部4と落下物追跡処理部5と落下物判別処理部6と警報処理部7と表示部8と入力部9と警報部10とを有する。   The falling object detection device 1 includes an imaging unit 2, a screen processing unit 3, a falling object detection processing unit 4, a falling object tracking processing unit 5, a falling object discrimination processing unit 6, an alarm processing unit 7, a display unit 8, and an input unit 9. And an alarm unit 10.

撮影部2は、駅ホームを監視するTVカメラ等である。   The imaging unit 2 is a TV camera or the like that monitors a station platform.

画面処理部3は、撮影された画面を表示部8に表示する表示処理部、フレーム毎に画面を記憶する記憶部などを有する。   The screen processing unit 3 includes a display processing unit that displays a captured screen on the display unit 8, a storage unit that stores the screen for each frame, and the like.

落下物検出処理部4は、表示部8の画面上に多数配置した測定点にてオプティカルフローをモニタし続け、発生したフローの分布や個々のフローの性質について一定の条件が満たされた場合に落下物検知と判断する。   The falling object detection processing unit 4 continues to monitor the optical flow at a large number of measurement points arranged on the screen of the display unit 8, and when certain conditions are satisfied with respect to the distribution of the generated flow and the properties of the individual flows. Judged as falling object detection.

落下物追跡処理部5は、検出した落下物体が引き起こすオプティカルフローの落下軌跡を得る。   The falling object tracking processing unit 5 obtains a falling locus of the optical flow caused by the detected falling object.

落下物判別処理部6は、得られた落下物と落下軌跡の特徴からその落下物が人物か否かを判別器にて判別する。   The fallen object discrimination processing unit 6 discriminates whether or not the fallen object is a person from the characteristics of the obtained fallen object and the fall trajectory.

警報処理部7は、落下物の存在をユーザに表示部8および警報部10により通知する。   The alarm processing unit 7 notifies the user of the presence of a fallen object through the display unit 8 and the alarm unit 10.

表示部8は、撮影された画面、測定点、落下の軌跡、警報などを表示する。   The display unit 8 displays a captured screen, a measurement point, a fall locus, an alarm, and the like.

入力部9は、ホーム境界線などの測定点の設定情報などを入力する。   The input unit 9 inputs measurement point setting information such as a home boundary line.

警報部10は、音声や音で駅員に危険を通知する。   The alarm unit 10 notifies the station staff of the danger by voice or sound.

図2に、実施例の落下物検知装置の処理の流れ図を示す。   FIG. 2 shows a flowchart of processing of the falling object detection device of the embodiment.

まず、カメラが設置される(S1ステップ)。   First, a camera is installed (step S1).

人物であれゴミであれ「プラットホームから線路への転落」をその運動を用いて確実に検知するために、本システムのカメラは図5に示すようにホームから線路を挟んで反対側に設置する。   In order to reliably detect “falling from the platform to the track”, whether it is a person or garbage, using the movement, the camera of the present system is installed on the opposite side across the track as shown in FIG.

図5にカメラの配置図を示す。   FIG. 5 shows a camera layout.

図5の (1)〜(3)、(1’)〜(3’)はカメラとそれぞれの視野角を示す。   In FIG. 5, (1) to (3) and (1 ') to (3') indicate the camera and the respective viewing angles.

カメラ配置は模式的に示されている。   The camera arrangement is shown schematically.

プラットホームが直線上の場合、ひとつのカメラで70m遠〜140m遠をカバーすることにより、計算上は200メートル長のプラットホームひとつを3台のカメラでカバーできる。   When the platform is in a straight line, one camera can cover a distance of 70m to 140m, so that one 200 meter long platform can be covered with three cameras.

カメラに取り付けるレンズの焦点距離の選択性が高いことにより、ここで重要なのは実距離ではなくカメラ視野内でのホームの構図となる。すなわち、画面に映ずるプラットホームの像が近景では画面の上下いっぱいに、遠景ではそのちょうど1/2の上下長に、広がりさえすればその実距離は問題ではなく、設置にあたってはホームの曲がり具合によってカメラ視野に映ずるホーム画面がそのようになるように適切な焦点距離のレンズを選択するだけの問題となるので前述の70mという値は大きな任意性を持つ。   Due to the high selectivity of the focal length of the lens attached to the camera, what is important here is not the actual distance but the composition of the home in the camera field of view. In other words, if the image of the platform on the screen is full up and down the screen in the foreground, just half of the top and bottom in the distant view, the actual distance is not a problem as long as it spreads. The value of 70 m described above has a large degree of arbitraryness because it becomes a problem only to select a lens having an appropriate focal length so that the home screen reflected in the field of view is like that.

次に、プラットホーム縁ラインおよび線路位置が指定される(S2ステップ)。   Next, the platform edge line and the track position are specified (step S2).

次に、全測定点位置を決定し、測定点毎の「速さ感度」を決定する(S3ステップ)。
「測定点」の設定は、画面上のプラットホームの映像の遠近法に合わせて、オプティカルフローの測定点(以下「測定点」と称する)を配置する。
Next, all measurement point positions are determined, and “speed sensitivity” for each measurement point is determined (step S3).
The “measurement point” is set by arranging optical flow measurement points (hereinafter referred to as “measurement points”) in accordance with the perspective of the platform image on the screen.

図6に画面上の測定点の配置の説明図を示す。   FIG. 6 is an explanatory diagram of the arrangement of measurement points on the screen.

この図は、模式図であり、測定点数は実際の値に一致しない。実際の画面では、測定点や境界線を非表示にすることも可能である。   This figure is a schematic diagram, and the number of measurement points does not match the actual value. It is also possible to hide the measurement points and boundary lines on the actual screen.

ユーザは横倒しの台形状をなすこの測定点分布範囲の内、プラットホーム縁の線(以下、この線を便宜上「境界線」と称する。)及び下端のほぼ線路に沿った線の2つとこの両者の水平方向の端位置を指定する。   The user falls within the trapezoidal trapezoidal measurement point distribution range, the platform edge line (hereinafter referred to as “boundary line” for the sake of convenience) and the lower end of the line substantially along the line and both of them. Specifies the horizontal end position.

これらの情報を基に測定点分布範囲の上端の辺と各測定点の位置、および測定点毎の「速さ感度」等を自動的に決める。   Based on these pieces of information, the top edge of the measurement point distribution range, the position of each measurement point, the “speed sensitivity” for each measurement point, and the like are automatically determined.

このように各測定点は画面上の座標の他に、その点でオプティカルフローを計測したり、その点から落下物追跡を開始する時に適用する「速さ感度」が決められている。   As described above, in addition to the coordinates on the screen, each measurement point has a “speed sensitivity” that is applied when the optical flow is measured at that point or when falling object tracking is started from that point.

遠方では、より小さな動きに敏感に、近景では充分に大きな動きだけがオプティカルフローを発生させる。   In the distance, only small movements are sensitive to small movements, and in the foreground, only sufficiently large movements generate optical flow.

また、ユーザが指定した境界線(プラットホーム縁の線)よりも上にあるか下にあるかという情報も各測定点には含まれる。   Each measurement point also includes information on whether it is above or below the boundary line (platform edge line) designated by the user.

次に、落下警戒処理を行なう(図2のS4ステップ)。   Next, drop alert processing is performed (step S4 in FIG. 2).

図3に落下警戒処理の流れ図を示す。   FIG. 3 shows a flowchart of the drop alert process.

まず、状態を「落下物検出モード」として、落下物検出処理を行なう(S11ステップ)。   First, the state is set to the “falling object detection mode” and the falling object detection process is performed (step S11).

図4に、落下物検出処理の流れ図を示す。   FIG. 4 shows a flowchart of the falling object detection process.

落下物検出処理は、オプティカルフローの測定を2〜3フレーム毎に行う。以後、これを1サイクルと称する。   In the falling object detection process, the optical flow is measured every two to three frames. Hereinafter, this is referred to as one cycle.

計測されたオプティカルフローの分布状況から、落下物を抽出する。   Falling objects are extracted from the distribution of the measured optical flow.

すなわち、オプティカルフローのベクトル方向、集まり具合等の特徴を使い、人の落下の可能性のある落下事象を識別する。   That is, using the features such as the vector direction of the optical flow and the degree of gathering, a fall event that may cause a person to fall is identified.

まず、全測定点にてオプティカルフローを計算する(S21ステップ)。   First, the optical flow is calculated at all measurement points (step S21).

次に、オプティカルフローの発生の有無を確認する(S22ステップ)。   Next, it is confirmed whether or not an optical flow has occurred (step S22).

オプティカルフローが発生していなければ、S21ステップに戻る。   If no optical flow has occurred, the process returns to step S21.

一方、ある程度以上の大きさの下向きに近い方向のオプティカルフローを示した場合にはその測定点を「落下物候補的動き」と識別する。   On the other hand, when an optical flow in a direction close to the downward direction with a certain size or more is shown, the measurement point is identified as “falling object candidate movement”.

それ以外の0でない動きを示した測定点は、「電車候補的動き」と識別する。   The other measurement points indicating non-zero movement are identified as “train candidate movement”.

以降「電車候補的動き」を示した点と「落下物候補的動き」を示した測定点に対して、並行に同様の処理を行っていく。   Thereafter, the same processing is performed in parallel on the points indicating “train candidate motion” and the measurement points indicating “falling object candidate motion”.

ある閾値を超える大きさの動きを示した測定点から、ベクトルの大きさの情報を除いて、動きのあった点を1、なかった点を0とする2値マトリックス(その1)を作る(S23ステップ)。   By removing the vector magnitude information from the measurement points that show a motion exceeding a certain threshold, a binary matrix (part 1) is created in which the motion points are 1 and the non-motion points are 0 ( S23 step).

オプティカルフローの計測結果は元来不安定なものなので、このマトリックスを用いて空間的な「穴埋め」を行う。   Since the measurement result of optical flow is inherently unstable, spatial “hole filling” is performed using this matrix.

具体的には、ある測定点が「動きあり」だった場合にその周囲の隣接測定点も「動きあり」だったとしてしまうことによってこれを実現する。   Specifically, when a certain measurement point is “with movement”, this is realized by assuming that adjacent measurement points around it are also “with movement”.

空間的「穴埋め」を行った2値マトリックス(その1)を、適当な時定数を乗じて減衰させるようにして、さらに時間的にも拡張する(S24ステップ)。   The binary matrix (part 1) subjected to spatial “hole filling” is further multiplied in time by being attenuated by multiplying by an appropriate time constant (step S24).

「電車候補的動き」および「落下物候補的動き」のそれぞれについて、以上のように空間的、時間的に拡張したものを適当な閾値で切ることによって、ある測定点の位置に横向きの動きあるいは下向きの動きが存在するかどうかを決め、二値マトリックス(その2)を作製する(S25ステップ)。   For each of “candidate train movement” and “candidate object fallen”, the lateral and temporal movements at the position of a measurement point or It is determined whether or not there is downward motion, and a binary matrix (part 2) is created (step S25).

「電車候補的動き」および「落下物候補的動き」それぞれの二値化マトリックスに対して、近傍ラベリングを行う。   Neighborhood labeling is performed on each of the binarization matrices of “train candidate motion” and “falling object candidate motion”.

ラベリングによって得られるのは「電車候補的動きの塊」と「落下物候補的動きの塊」の分布状況である(S26ステップ)。   What is obtained by the labeling is the distribution status of the “candidate motion block of train” and the “candidate block of falling object motion” (step S26).

これらの各塊の分布状況を基に、「落下物検出」、「電車進入検出」、「カメラ振動性検出」を識別する。   Based on the distribution status of each of these blocks, “falling object detection”, “train entry detection”, and “camera vibration detection” are identified.

具体的には、「落下物候補的動きの塊」の内、以下の条件を満たすものをプラットホームからの「落下物検出」として識別する(S27ステップ)。   Specifically, among “falling object candidate motion blocks”, those that satisfy the following conditions are identified as “falling object detection” from the platform (step S27).

これらの条件の目的は、その「落下物候補的動きの塊」が電車やカメラ振動によるノイズでも小鳥のような小さな物体の動きでもないことを確実にすることにある。
(a)水平方向、上下方向にある程度以上の広がりがある。
(b)水平方向の広がりが、ある限界値を超えない。
(c)「境界線(プラットホームの縁)」よりも下に食い込んでいる。
(d)「境界線」よりも上にもはみ出している。
(e)条件(a)とは別に、ある程度以上の個数の「測定点」が構成要素となっている。
(f)この「落下物候補的動きの塊」の重心の近傍に、「電車候補的動きの塊」が存在しない。
The purpose of these conditions is to ensure that the “falling object candidate motion mass” is not a noise caused by train or camera vibrations or a small object such as a bird.
(a) There is a certain extent in the horizontal and vertical directions.
(b) The horizontal spread does not exceed a certain limit value.
(c) Cutting below the “borderline (platform edge)”.
(d) It protrudes above the “boundary line”.
(e) Apart from the condition (a), a certain number of “measurement points” are constituent elements.
(f) There is no “train candidate motion lump” in the vicinity of the center of gravity of the “falling object candidate motion lump”.

条件(a)および(e)は「あまりにも小さな落下物は人間ではありえない」、という事実を反映する。   Conditions (a) and (e) reflect the fact that “too small fallen objects cannot be humans”.

条件(b)はあまりにも空間的広がりの大きな「落下物候補的動きの塊」が観測された場合、それはカメラ自体の上下振動によって視野全体が動いている可能性が高いことによる。   Condition (b) is that when a “falling object candidate motion lump” having a large spatial extent is observed, it is highly likely that the entire field of view is moving due to vertical vibration of the camera itself.

また、人物の場合は、ある広がりより大きくならないためである。   In the case of a person, it is not larger than a certain spread.

条件(c)と(d)は合わせて、その「落下物候補的動きの塊」がプラットホームのエッジを越えてまさに落ちつつあることを要求する。   Conditions (c) and (d) together require that the “falling object candidate motion mass” is just falling across the edge of the platform.

条件(f)は、その「落下物候補的動きの塊」が、視野内の電車の横方向の動きによって偶然現れた偽の下向きの動きではないことをより確実にするためのものである。   The condition (f) is to make sure that the “falling object candidate movement lump” is not a false downward movement that appears by chance due to the lateral movement of the train in the field of view.

また、ラベリングによって得られた「電車候補的動きの塊」の内、ある程度以上の広がりのあるものの分布のORをとった物の画面内の幅と高さを求める。これがある決まった値を超えた時、画面内で電車が動いている「電車進入検出」として識別する。   Also, the width and height in the screen of an object obtained by ORing the distribution of “the train of candidate trains” obtained by the labeling that has a certain extent or more are obtained. When this exceeds a certain value, it is identified as “train entry detection” where the train is moving on the screen.

また「電車的候補の動きの塊」と「落下物候補的動きの塊」の両者を併せて同じ処理を行った結果の幅と高さがある値を超えた場合、カメラ全体が振動した「カメラ振動性検出」として識別する。   In addition, when the width and height of the result of performing the same processing for both the “candidate of movement of train candidates” and “the lump of candidate movement of falling objects” exceed a certain value, the entire camera vibrates. It is identified as “camera vibration detection”.

いずれの場合も、電車進入事象およびカメラ振動事象としてその発生の記録を一定期間保持し、後に人物落下警報発令の可否の判断の材料のひとつとして使う。   In either case, records of the occurrence of train entry events and camera vibration events are retained for a certain period of time and used later as one of the materials for determining whether or not a person drop warning can be issued.

こうして「落下物」が検出されると、状態を「落下物追跡モード」に変更し、次の処理からはその落下軌跡の追跡を行う。   When the “falling object” is detected in this way, the state is changed to the “falling object tracking mode”, and the falling locus is traced from the next processing.

まず、落下物の追跡開始処理を行なう(図3のS12ステップ)。   First, the fall object tracking start process is performed (step S12 in FIG. 3).

検出された「落下物」について、軌跡の追跡が開始される。   Trajectory tracking is started for the detected “falling object”.

落下物が検出された直後にその「塊」を中心とするある程度広い範囲の測定点すべての中から下向きのフローが明瞭に読みとれるものをリストアップし、リストアップされた測定点を落下物の軌跡追跡に用いる「追跡点」の初期位置とし、追跡処理に移る。   Immediately after a fallen object is detected, list all the measurement points in a fairly wide range centered on the “lumps” that can clearly read the downward flow, and list the measured points of the fallen object. The initial position of the “tracking point” used for the trajectory tracking is set, and the tracking process is started.

また、落下物の位置の初期値として「落下物」を構成する測定点の重心を用いるが、これは本質的ではない。なぜなら、落下物の判別においては軌跡の位置よりもむしろそれ以外のさまざまな属性に注目するからである。   Further, although the center of gravity of the measurement points constituting the “falling object” is used as the initial value of the position of the falling object, this is not essential. This is because, in the fallen object discrimination, attention is paid to various other attributes rather than the locus position.

次に、落下物の追跡処理を行なう(S13ステップ)。   Next, a fallen object tracking process is performed (step S13).

追跡は、動きがはっきりと検出される「追跡点」すべての平均的なフローによって行う。   Tracking is done by an average flow of all “tracking points” where motion is clearly detected.

以降、「追跡点」の平均的な動きを求め、その結果に合わせて全「追跡点」の位置をずらすことによって落下物の位置を推定し続ける。「追跡点」は、落下物追跡が続く限り、落下物の現在の重心の近傍で下向きの動きのある測定点をピックアップすることによってサイクル毎に新たに追加していく。   Thereafter, the average movement of the “tracking points” is obtained, and the positions of the falling objects are continuously estimated by shifting the positions of all the “tracking points” according to the result. As long as falling object tracking continues, a “tracking point” is newly added for each cycle by picking up a measurement point having a downward movement in the vicinity of the current center of gravity of the falling object.

「追跡点」の数が0になるか、あるいは15サイクルの追跡を全うした時点で追跡を終了する。   The tracking ends when the number of “tracking points” reaches 0 or when 15 cycles have been tracked.

追跡の結果、最大15サイクル分の落下物軌跡情報が得られる。   As a result of the tracking, falling object trajectory information for a maximum of 15 cycles is obtained.

落下物軌跡情報は、各サイクル毎に以下の情報を含む。   Falling object trajectory information includes the following information for each cycle.

落下物の位置、落下物の1サイクルあたりの移動量、落下物の追跡に使用することのできた追跡点の数、落下物の追跡に使用した各追跡点毎の動きベクトルである。   The position of the falling object, the amount of movement of the falling object per cycle, the number of tracking points that could be used for tracking the falling object, and the motion vector for each tracking point used for tracking the falling object.

追跡処理が正常に終了したか否かをチェックする(S14ステップ)。   It is checked whether or not the tracking process has been completed normally (step S14).

具体的には、少なくとも5サイクルの追跡完遂を待たずして追跡点の数が0になってしまった場合は、この落下物の追跡に失敗したかあるいはこの落下物は追跡できるほどしっかりと落下し続けるものではないノイズのようなものである、として落下物検出処理に戻る。   Specifically, if the number of tracking points reaches 0 without waiting for at least 5 cycles to be tracked, tracking of the falling object has failed or the falling object has fallen firmly enough to be tracked. Returning to the fallen object detection process, it is like noise that does not continue.

落下物の軌跡追跡に成功した場合、状態を「落下物判別モード」として、落下物判別処理に移り、落下物判別処理を行なう(S15ステップ)。   If the tracking of the falling object is successful, the state is set to the “falling object discrimination mode”, the process proceeds to the falling object discrimination process, and the falling object discrimination process is performed (step S15).

落下軌跡からの落下物の種類の判別である。   It is discrimination of the type of fallen object from the fall trajectory.

落下物判別処理において、得られた落下物軌跡情報を以下に述べる手順で分析し、その落下物が「人物」であるか「非人物」であるかを判別する。   In the fallen object discriminating process, the obtained fallen object trajectory information is analyzed according to the procedure described below, and it is discriminated whether the fallen object is “person” or “non-person”.

図7に、落下軌跡の説明図を示す。   FIG. 7 shows an explanatory diagram of the fall trajectory.

まず、軌跡をその開始時点から走査し、図7に示すような比較的直線的に動いている部分を切り出す。そこを便宜的に「直線期間」と呼ぶ。多くの落下物においてこの期間の落下軌跡はほぼ下を向いたきれいな直線状を呈する。   First, the trajectory is scanned from the start point, and a portion moving relatively linearly as shown in FIG. 7 is cut out. This is called a “straight period” for convenience. In many fallen objects, the fall trajectory during this period exhibits a clean straight line facing downward.

落下物の軌跡の走査が完了すると、落下軌跡、落下の直線期間、および落下の全追跡点の移動履歴を画面に表示する。   When the trajectory scan of the fallen object is completed, the fall trajectory, the straight line period of the fall, and the movement history of all the tracking points of the fall are displayed on the screen.

また、落下軌跡情報および軌跡追跡開始直前の落下物を構成した測定点のオプティカルフローの情報から、落下物の判別に使用する属性を取り出す。   Further, the attribute used for discrimination of the fallen object is extracted from the fall trajectory information and the optical flow information of the measurement points constituting the fallen object immediately before the start of the trace tracking.

属性の一例を次に示す。
(a)垂直方向を0とした時の、直線期間の軌跡の傾きの絶対値[deg]。
(b)直線期間の落下軌跡の、その部分に当てはめた回帰直線からの水平方向ばらつき具合。
(c)直線期間の軌跡の上下長。
(d)直線期間中に含まれる、上向き運動の割合。
(e)直線期間中の下向きの動きの平均値。
(f)その他
落下物およびその落下軌跡についての様々な属性を判別器に入力し、その出力としてこの落下物が「人物」「非人物」のいずれに該当する可能性が最も高いか、というクラス判別結果を得る。
An example of the attribute is shown below.
(a) Absolute value [deg] of the inclination of the locus of the straight line period when the vertical direction is 0.
(b) The degree of variation in the horizontal direction from the regression line fitted to that part of the fall trajectory during the straight line period.
(c) Vertical length of the trajectory during the straight period.
(d) The percentage of upward movement included in the straight line period.
(e) The average value of downward movement during the straight line period.
(f) Others The various attributes of the fallen object and its fall trajectory are input to the discriminator, and the class of whether the fallen object is most likely to fall under “person” or “non-person” as its output. Get the discrimination result.

判別器として、データマイニング手法のひとつとして広く知られる「決定表」を用いる。   As a discriminator, a “decision table” that is widely known as one of data mining methods is used.

あらかじめ多数の教師データを用いて製作した決定表を、プログラム内部に組み込むことによって判別器の実装を行う。   A discriminator is implemented by incorporating a decision table produced in advance using a large number of teacher data into the program.

また、人物と判定する能力の低い他の判別手法、たとえばマハラノビス汎距離による判定などを並行して行い、判定結果をユーザの参考とするために出力する。   In addition, another determination method having a low ability to determine a person, for example, determination based on Mahalanobis general distance is performed in parallel, and the determination result is output for reference to the user.

この場合は、安全のため、判別できなかったものは、人物として出力する。   In this case, those that could not be identified for safety are output as a person.

判別の結果、落下物が「人物」と判断された場合、直前および直後に電車侵入あるいはカメラ振動と思われる事象の発生がなかったことを確認した後、警報を表示部8に表示するとともに、警報部10により音声または音で、駅員に通知する。   As a result of the determination, when it is determined that the fallen object is “person”, after confirming that there is no occurrence of an event that seems to be a train intrusion or camera vibration immediately before and after, an alarm is displayed on the display unit 8, The alarm unit 10 notifies the station staff by voice or sound.

以上により、ステレオ視やスイッチマットなどの従来手法に比較して、より少ないカメラの個数にて、より広い範囲の駅ホーム等における人物転落等の落下物を、より確実に検出することが可能となる。   As described above, compared to conventional methods such as stereo vision and switch mats, it is possible to more reliably detect falling objects such as people falling on a wider range of station platforms with a smaller number of cameras. Become.

以上の実施例1を含む実施形態に関し、更に以下の付記を開示する。
(付記1)所定場所を撮影する撮影手段により撮影された画面を基に、落下物を検知する落下物検知装置であって、画面上の所定領域内に、複数のオプティカルフロー測定点を設定するオプティカルフロー測定点設定手段と、設定された測定点を基に、撮影された落下物のオプティカルフローを検出するオプティカルフロー検出手段と、検出されたオプティカルフローを基に、落下物を検出する落下物検出手段と、検出された落下物の落下の軌跡を追跡する落下軌跡追跡手段と、検出された落下物及び落下物の落下の軌跡を基に所定の落下物か否かを判別する落下物判別手段とを有することを特徴とする落下物検知装置。
(付記2)オプティカルフロー測定点設定手段は、画面上の各測定点におけるオプティカルフローの大きさに対する感度を、撮影手段から遠方の風景に対しては密かつ高感度に、撮影手段に近い風景に対しては疎かつ低感度に、設定することを特徴とする付記1記載の落下物検知装置。
(付記3)落下物検出手段は、測定点にて検知されたオプティカルフローを水平方向に近いものと垂直方向に近いものとに分類し、各方向の落下物の塊について、所定の大きさか否かを判断し、所定の大きさのときには、落下物が人物の落下なのかそれ以外の物体の通過なのかを判定する付記1記載の落下物検知装置。
(付記4)落下物検出手段は、測定点にて検知されたオプティカルフローの画面全域における分布が所定の大きさのときには、撮影手段の振動によって起こった偽りのオプティカルフローと判定する付記1記載の落下物検知装置。
(付記5)所定場所を撮影する撮影手段により撮影された画面を基に、落下物を検知する落下物検知方法であって、画面上の所定領域内に、複数のオプティカルフロー測定点を設定するオプティカルフロー測定点設定ステップと、設定された測定点を基に、撮影された落下物のオプティカルフローを検出するオプティカルフロー検出ステップと、検出されたオプティカルフローを基に、落下物を検出する落下物検出ステップと、検出された落下物の落下の軌跡を追跡する落下軌跡追跡ステップと、検出された落下物及び落下物の落下の軌跡を基に所定の落下物か否かを判別する落下物判別ステップとを有することを特徴とする落下物検知方法。
(付記6)所定場所を撮影する撮影手段により撮影された画面を基に、落下物を検知する落下物検知プログラムであって、画面上の所定領域内に、複数のオプティカルフロー測定点を設定するオプティカルフロー測定点設定ステップと、設定された測定点を基に、撮影された落下物のオプティカルフローを検出するオプティカルフロー検出ステップと、検出されたオプティカルフローを基に、落下物を検出する落下物検出ステップと、検出された落下物の落下の軌跡を追跡する落下軌跡追跡ステップと、検出された落下物及び落下物の落下の軌跡を基に所定の落下物か否かを判別する落下物判別ステップとをコンピュータに実行させるための落下物検知プログラム。
(付記7)落下物判別手段は、直線期間の軌跡の傾きの絶対値、直線期間の落下軌跡のその部分に当てはめた回帰直線からの水平方向ばらつき具合、直線期間の軌跡の上下長、直線期間中に含まれる上向き運動の割合、直線期間中の下向きの動きの平均値を基に判別することを特徴とする付記1記載の落下物検知装置。
Regarding the embodiment including the first example, the following additional notes are disclosed.
(Appendix 1) A falling object detection device for detecting a falling object based on a screen imaged by an imaging means for imaging a predetermined place, wherein a plurality of optical flow measurement points are set in a predetermined area on the screen. Optical flow measurement point setting means, optical flow detection means for detecting the optical flow of the photographed falling object based on the set measurement point, and falling object for detecting the falling object based on the detected optical flow Detection means, fall trajectory tracking means for tracking the fall trajectory of the detected fallen object, and fallen object discrimination for discriminating whether the object is a predetermined fallen object based on the detected fallen object and the fall trajectory of the fallen object And a falling object detecting device.
(Supplementary note 2) The optical flow measurement point setting means is sensitive to the magnitude of the optical flow at each measurement point on the screen, close to the scenery far from the photographing means, and close to the photographing means. The fallen object detection device according to appendix 1, wherein the falling object detection device is set to be sparse and low sensitivity.
(Supplementary note 3) The fallen object detection means classifies the optical flow detected at the measurement point into those close to the horizontal direction and those close to the vertical direction, and whether or not the lump of fallen objects in each direction has a predetermined size. The fallen object detection device according to appendix 1, wherein the fallen object is determined to be whether the fallen object is a fall of a person or the passage of another object when the size is a predetermined size.
(Supplementary note 4) The fallen object detecting means determines that the optical flow detected at the measurement point is a false optical flow caused by the vibration of the photographing means when the distribution of the optical flow in the entire area of the screen is a predetermined size. Falling object detection device.
(Appendix 5) A falling object detection method for detecting a falling object on the basis of a screen imaged by an imaging means for imaging a predetermined place, wherein a plurality of optical flow measurement points are set in a predetermined area on the screen. Optical flow measurement point setting step, optical flow detection step for detecting the optical flow of the captured fallen object based on the set measurement point, and fallen object for detecting the fallen object based on the detected optical flow A detection step, a fall trajectory tracking step for tracking the fall trajectory of the detected fallen object, and a fallen object discrimination for discriminating whether or not the fallen object is a predetermined fallen object based on the detected fallen object and the fall trajectory of the fallen object And a fallen object detection method.
(Appendix 6) A falling object detection program for detecting a falling object on the basis of a screen imaged by an imaging means for imaging a predetermined place, wherein a plurality of optical flow measurement points are set in a predetermined area on the screen. Optical flow measurement point setting step, optical flow detection step for detecting the optical flow of the captured fallen object based on the set measurement point, and fallen object for detecting the fallen object based on the detected optical flow A detection step, a fall trajectory tracking step for tracking the fall trajectory of the detected fallen object, and a fallen object discrimination for discriminating whether or not the fallen object is a predetermined fallen object based on the detected fallen object and the fall trajectory of the fallen object Falling object detection program for causing a computer to execute steps.
(Supplementary note 7) The fallen object discriminating means includes the absolute value of the slope of the trajectory in the straight line period, the horizontal variation from the regression line applied to that part of the fall trajectory in the straight line period, the vertical length of the straight line period, the straight line period The fallen object detection device according to appendix 1, wherein the fallen object detection device is determined based on a ratio of upward motion included therein and an average value of downward motion during a linear period.

本発明は、駅ホームにおける転落者を検出する落下物検知装置を提供する用途に適用できる。   INDUSTRIAL APPLICABILITY The present invention can be applied to a use for providing a falling object detection device that detects a fallen person in a station platform.

実施例の落下物検知装置の構成図Configuration diagram of falling object detection device of the embodiment 実施例の落下物検知装置の処理の流れ図Flow chart of processing of the falling object detection device of the embodiment 落下警戒処理の流れ図Flow chart of fall alert processing 落下物検出処理の流れ図Flow chart of falling object detection process カメラの配置図Camera layout 画面上の測定点の配置の説明図Illustration of measurement point arrangement on the screen 落下軌跡の説明図Illustration of the fall trajectory

符号の説明Explanation of symbols

1 落下物検知装置
2 撮影部
3 画面処理部
4 落下物検出処理部
5 落下物追跡処理部
6 落下物判別処理部
7 警報処理部
8 表示部
9 入力部
10 警報部
DESCRIPTION OF SYMBOLS 1 Falling object detection apparatus 2 Imaging | photography part 3 Screen processing part 4 Falling object detection processing part 5 Falling object tracking processing part 6 Falling object discrimination | determination processing part 7 Alarm processing part 8 Display part 9 Input part 10 Alarm part

Claims (5)

所定場所を撮影する撮影手段により撮影された画面を基に、落下物を検知する落下物検知装置であって、
画面上の所定領域内に、複数のオプティカルフロー測定点を設定するオプティカルフロー測定点設定手段と、
設定された測定点を基に、撮影された画面の中からオプティカルフローを検出するオプティカルフロー検出手段と、
検出されたオプティカルフローを基に、落下物を検出する落下物検出手段と、
検出された落下物の落下の軌跡を追跡する落下軌跡追跡手段と、
検出された落下物及び落下の軌跡を基に所定の落下物か否かを判別する落下物判別手段とを有することを特徴とする落下物検知装置。
A falling object detection device that detects a falling object based on a screen imaged by an imaging means for imaging a predetermined place,
Optical flow measurement point setting means for setting a plurality of optical flow measurement points within a predetermined area on the screen,
An optical flow detection means for detecting an optical flow from the captured screen based on the set measurement points;
Falling object detection means for detecting a falling object based on the detected optical flow;
A fall trajectory tracking means for tracking the fall trajectory of the detected fallen object;
A falling object detection device comprising: a falling object determining means for determining whether or not the object is a predetermined falling object based on the detected falling object and the locus of the falling.
オプティカルフロー測定点設定手段は、画面上の各測定点におけるオプティカルフローの大きさに対する感度を、撮影手段から遠方の風景に対しては密かつ高感度に、撮影手段に近い風景に対しては疎かつ低感度に、設定することを特徴とする請求項1記載の落下物検知装置。   The optical flow measurement point setting means is sensitive to the magnitude of the optical flow at each measurement point on the screen, dense and sensitive to scenery far from the photographing means, and sparse to scenery close to the photographing means. 2. The falling object detection device according to claim 1, wherein the sensitivity is set to low sensitivity. 落下物検出手段は、測定点にて検知されたオプティカルフローを水平方向に近いものと垂直方向に近いものとに分類し、各方向の落下物の塊について、所定の大きさか否かを判断し、所定の大きさのときには、落下物が人物の落下なのかそれ以外の物体の通過なのかを判定する請求項1記載の落下物検知装置。   The fallen object detection means classifies the optical flow detected at the measurement point into those that are close to the horizontal direction and those that are close to the vertical direction, and determines whether or not the lump of fallen objects in each direction has a predetermined size. 2. The falling object detection device according to claim 1, wherein when it is a predetermined size, it is determined whether the falling object is a fall of a person or an object other than that. 落下物検出手段は、測定点にて検知されたオプティカルフローの画面全域における分布が所定の大きさのときには、撮影手段の振動によって起こった偽りのオプティカルフローと判定する請求項1記載の落下物検知装置。   2. The falling object detection unit according to claim 1, wherein the falling object detection unit determines that the optical flow detected at the measurement point in the entire area of the screen has a predetermined size as a false optical flow caused by vibration of the imaging unit. apparatus. 所定場所を撮影する撮影手段により撮影された画面を基に、落下物を検知する落下物検知方法であって、
画面上の所定領域内に、複数のオプティカルフロー測定点を設定するオプティカルフロー測定点設定ステップと、
設定された測定点を基に、撮影された落下物のオプティカルフローを検出するオプティカルフロー検出ステップと、
検出されたオプティカルフローを基に、落下物を検出する落下物検出ステップと、
検出された落下物の落下の軌跡を追跡する落下軌跡追跡ステップと、
検出された落下物及び落下物の落下の軌跡を基に所定の落下物か否かを判別する落下物判別ステップとを有することを特徴とする落下物検知方法。
A fallen object detection method for detecting a fallen object based on a screen shot by a shooting means for shooting a predetermined place,
An optical flow measurement point setting step for setting a plurality of optical flow measurement points in a predetermined area on the screen;
An optical flow detection step for detecting the optical flow of the captured fallen object based on the set measurement points;
Based on the detected optical flow, a falling object detection step for detecting a falling object,
A fall trajectory tracking step for tracking the fall trajectory of the detected fallen object;
A fallen object detection method comprising: a fallen object discrimination step for discriminating whether or not a fallen object is a predetermined fallen object based on the detected fallen object and a fall trajectory of the fallen object.
JP2004267420A 2004-09-14 2004-09-14 Falling object detector Expired - Fee Related JP4561266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004267420A JP4561266B2 (en) 2004-09-14 2004-09-14 Falling object detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004267420A JP4561266B2 (en) 2004-09-14 2004-09-14 Falling object detector

Publications (2)

Publication Number Publication Date
JP2006082618A true JP2006082618A (en) 2006-03-30
JP4561266B2 JP4561266B2 (en) 2010-10-13

Family

ID=36161474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004267420A Expired - Fee Related JP4561266B2 (en) 2004-09-14 2004-09-14 Falling object detector

Country Status (1)

Country Link
JP (1) JP4561266B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336243A (en) * 2006-06-15 2007-12-27 Casio Comput Co Ltd Image pickup device and program thereof
JP2011166243A (en) * 2010-02-05 2011-08-25 Hitachi Kokusai Electric Inc Monitoring system
JP2016212657A (en) * 2015-05-11 2016-12-15 オムロン株式会社 Transfer detection device, transfer detection method and transfer detection program
WO2020188972A1 (en) * 2019-03-19 2020-09-24 パナソニック株式会社 Accident detection device and accident detection method
CN112258551A (en) * 2020-03-18 2021-01-22 北京京东振世信息技术有限公司 Article falling detection method, device, equipment and storage medium
US11256932B2 (en) 2018-02-02 2022-02-22 Mitsubishi Electric Corporation Falling object detection apparatus, in-vehicle system, vehicle, and computer readable medium
JP2023038090A (en) * 2021-09-06 2023-03-16 ソフトバンク株式会社 Information processing device, program, determination method, and system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001352537A (en) * 2000-06-08 2001-12-21 Ntt Data Corp Supervisory system by moving picture
JP2002197445A (en) * 2000-12-26 2002-07-12 Railway Technical Res Inst Detector for abnormality in front of train utilizing optical flow
JP2003209735A (en) * 2002-01-15 2003-07-25 Hitachi Ltd Monitoring apparatus and storage camera with blur correction function

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001352537A (en) * 2000-06-08 2001-12-21 Ntt Data Corp Supervisory system by moving picture
JP2002197445A (en) * 2000-12-26 2002-07-12 Railway Technical Res Inst Detector for abnormality in front of train utilizing optical flow
JP2003209735A (en) * 2002-01-15 2003-07-25 Hitachi Ltd Monitoring apparatus and storage camera with blur correction function

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336243A (en) * 2006-06-15 2007-12-27 Casio Comput Co Ltd Image pickup device and program thereof
JP2011166243A (en) * 2010-02-05 2011-08-25 Hitachi Kokusai Electric Inc Monitoring system
JP2016212657A (en) * 2015-05-11 2016-12-15 オムロン株式会社 Transfer detection device, transfer detection method and transfer detection program
US11256932B2 (en) 2018-02-02 2022-02-22 Mitsubishi Electric Corporation Falling object detection apparatus, in-vehicle system, vehicle, and computer readable medium
WO2020188972A1 (en) * 2019-03-19 2020-09-24 パナソニック株式会社 Accident detection device and accident detection method
CN112258551A (en) * 2020-03-18 2021-01-22 北京京东振世信息技术有限公司 Article falling detection method, device, equipment and storage medium
CN112258551B (en) * 2020-03-18 2023-09-05 北京京东振世信息技术有限公司 Article drop detection method, device, equipment and storage medium
JP2023038090A (en) * 2021-09-06 2023-03-16 ソフトバンク株式会社 Information processing device, program, determination method, and system
JP7321221B2 (en) 2021-09-06 2023-08-04 ソフトバンク株式会社 Information processing device, program, determination method, and system

Also Published As

Publication number Publication date
JP4561266B2 (en) 2010-10-13

Similar Documents

Publication Publication Date Title
JP7168052B2 (en) Monitoring system and monitoring method
JP5121258B2 (en) Suspicious behavior detection system and method
KR101846537B1 (en) Monitoring system for automatically selecting cctv, monitoring managing server for automatically selecting cctv and managing method thereof
JP6205234B2 (en) Elevator long object catch detection device
JP2007233919A (en) Intruder detection apparatus by imaging processing
JP7122157B2 (en) Rockfall detector and rockfall detection system
JP4561266B2 (en) Falling object detector
JP2010015258A (en) Monitoring system, information processing apparatus, information processing method, and program
KR100690279B1 (en) Multipurpose video image detection system
JP6070306B2 (en) Image processing apparatus, object detection method, and object detection program
JP2013042386A (en) Monitoring system
JP5691764B2 (en) Abandoned or removed detection system
JP7128577B2 (en) monitoring device
JP5032072B2 (en) Monitoring device
JP6699179B2 (en) Image processing device
JP4415870B2 (en) Fall / fall detection system and program
JP6570906B2 (en) Monitoring system and monitoring method
JP5597057B2 (en) Passenger drag detection system at home
JP5887194B2 (en) Collection monitoring device and collection monitoring program
JP6544031B2 (en) Movement detection apparatus, movement detection method, and movement detection program
JP6632757B1 (en) Environmental abnormality detection device
KR20220147925A (en) Image detection system
JP7204356B2 (en) monitoring device
KR101192300B1 (en) Water level detection method using k-means clustering
KR100897914B1 (en) Stereo vision based monitoring system in railway station and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees