JP2004058737A - 駅ホームにおける安全監視装置 - Google Patents

駅ホームにおける安全監視装置 Download PDF

Info

Publication number
JP2004058737A
JP2004058737A JP2002217222A JP2002217222A JP2004058737A JP 2004058737 A JP2004058737 A JP 2004058737A JP 2002217222 A JP2002217222 A JP 2002217222A JP 2002217222 A JP2002217222 A JP 2002217222A JP 2004058737 A JP2004058737 A JP 2004058737A
Authority
JP
Japan
Prior art keywords
information
image
platform
person
distance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002217222A
Other languages
English (en)
Other versions
JP3785456B2 (ja
Inventor
Ikushi Yoda
依田 育士
Katsuhiko Sakagami
坂上 勝彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2002217222A priority Critical patent/JP3785456B2/ja
Priority to AU2003281690A priority patent/AU2003281690A1/en
Priority to PCT/JP2003/009378 priority patent/WO2004011314A1/ja
Priority to US10/522,164 priority patent/US7460686B2/en
Publication of JP2004058737A publication Critical patent/JP2004058737A/ja
Application granted granted Critical
Publication of JP3785456B2 publication Critical patent/JP3785456B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • B61L23/04Control, warning or like safety means along the route or between vehicles or trains for monitoring the mechanical state of the route
    • B61L23/041Obstacle detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Abstract

【課題】本発明は、線路側ホーム端における人の線路転落の確実な検知、および複数の人の識別とその全行動ログの取得する駅ホームにおける、より確実な安全監視装置を提供することを目的としている。
【解決手段】本発明は、ホーム端にいる人を距離情報とテクスチャ情報によって識別しながらホーム端上の位置を特定する。同時に人が線路上に落下した場合を確実に検知し、自動的に停止信号などを送出すると同時に対応するカメラの映像を送出する。またホーム端上で行動する全ての人間の全行動を記録する。
【選択図】   図1

Description

【0001】
【発明の属する技術分野】
この発明は駅ホームにおける安全監視装置に関し、特に、距離情報と画像(テクスチャ)情報に基づく、線路側駅ホーム端における安全監視装置に関する。
【0002】
【従来の技術】
従来、駅ホームの安全監視装置に関しては、種々提案されている(特開平10−304346号公報、特開2001−341642公報、特開2001−26266公報、特開2001−39303公報、特開平10−341727号公報等参照。)。
【0003】
例えば、特開平10−304346号公報に記載されているように、図2に示されるような駅のホーム端を監視するカメラシステムは公知であるが、それらは1台のカメラで40mのような長い距離を横方向に捉えるように水平に近い角度に設置されており、数台のカメラ画像を1つの画面の画像内に表示して、人が視認するようなシステム構成となっている。
【0004】
それゆえ、視認する画像対象領域は長く(深く)、多くの乗降客が出入りする場合は、乗客の陰に乗客が隠れ、全ての乗客を見渡すことができないといった問題点がある。かつ、カメラの設置角度が水平に近いため、朝日、夕日、さらにその他光の反射の影響を受けやすく、画像そのものが適切に撮れない場合も生じ易い設置となっている。
【0005】
また、図3に示すような落下検知マットは、線路に人が落下した場合、その圧力を検知することで人の落下を検知している。しかし、構造的に線路とホームの内側の一部分にしか施設することができないので、検知マットを飛び越えて人が落下した場合は全く無力なものである。
これらを改善するものとして、ホームの屋根の下に下向きにカメラを複数台設置し、障害物を監視するものが特開平13−341642号公報に記載されている。
【0006】
このシステムは、障害物の無い状態の画像と現在画像の差分を取り、差分の出力があると障害物ありと検知するものである。また、同様の目的で物体の動きベクトルを検出する構成が特開平10−311427号公報に開示されている。
【0007】
しかし、これらの障害物検知には特に光や影の変化による誤動作が多く、監視システムとしては不十分なものである。
【0008】
【発明が解決しようとする課題】
本発明は、線路側ホーム端における人の線路転落の確実な検知、および複数の人の識別とその全行動ログを取得することのできる駅ホームにおける安全監視装置を提供することを目的としている。
【0009】
【課題を解決するための手段】
本発明においては、複数のステレオカメラによりホーム端を撮影することで、ホーム端にいる人を距離情報とテクスチャ情報によって識別しながらホーム端上の位置を特定する。同時に人が線路上に落下した場合を確実に検知し、自動的に停止信号などを送出すると同時に対応するカメラの映像を送出する。また、ホーム端上で行動する全ての人間の全行動を記録する。
【0010】
また、本発明においては、ホーム端上の人の位置、動きなどから、予め注意を呼びかける状況、そのアナウンス、および映像を転送する状況を予め登録する手段を与え、さらに、カメラ装置に音声合成機能を付加することで、その状況に応じたアナウンスを予め登録された合成音声によってカメラ単位で乗客に伝える。
【0011】
すなわち、本発明の駅ホームにおける安全監視装置は、駅の線路側ホーム端において複数のステレオカメラにより該ホーム端を撮像し、各ステレオカメラ単位で視野内の撮像画像とホームの座標系に基づいた距離画像を生成する画像処理手段と、前記各ステレオカメラからの距離情報と画像情報に基づき対象を認識する手段と、該抽出された認識対象の状態から安全を確認する手段とからなることを特徴とする。
【0012】
また、上記構成において、さらに人間のホームなどの空間における動線のログを取得して保存する手段を備えることを特徴とする。
また、さらに前記各ステレオカメラからの画像情報に基づき認識対象を抽出する手段が、高次局所自己相関特徴を用いた認識を行うことを特徴とする。
【0013】
また、上記構成において、前記距離情報と画像情報両方から対象を認識する手段が、高さの異なる複数のマスク上の重心情報から人と他のものを識別することを特徴とする。
【0014】
また、上記構成において安全を確認する手段が、ホーム端の前記距離情報と画像情報を取得し、線路範囲上方における画像情報の検知および該画像情報の距離情報から、人の落下もしくは人等のホーム外への突出を識別し、警報を出すことを特徴とする。
【0015】
また、前記高次局所自己相関特徴が所定の範囲の所定の箇所に存在する前後の時系列の距離情報を同一人と同定するために用いられることを特徴とする。
さらに、前記所定の箇所は所定の範囲内を複数のブロックに分けたものであり、前記時系列の次の距離情報の探索が上記複数のブロックの内の複数個を単位として前記高次局所自己相関特徴を計算することにより行われることを特徴とする。
【0016】
【発明の実施の形態】
図1はこの発明の一実施例のシステム構成の概略を説明する図であり、図4は図1で説明する情報統合認識装置の全体フローチャートを示す図である。
【0017】
図1に示すように、複数のステレオカメラ1−1から1−nによってホーム端上に死角がないように撮影され、ホーム端上を移動する乗客2を監視している。各ステレオカメラ1は2台以上のカメラの撮像素子が平行に固定されていて、ステレオカメラ1−1から1−nの撮像出力は各カメラ内の画像処理装置に与えられる。ステレオカメラ自体は既に公知のものであり、たとえばポイントグレイ社のデジクロップスやサーノフ研究所のアケーディアのようなものが用いられる。
【0018】
本発明においては、線路側ホーム端における人の線路転落の確実な検知、および複数の人の識別とその全行動ログを取得するものである。行動ログは、動線を管理することで構内の改善やより安全な乗客の誘導を行うため、取得される。
【0019】
以上のように、本発明においては、ホーム端にいる人を距離情報と画像(テクスチャ)情報(以下、単にテクスチャという。)によって識別しながらホーム端上の位置を特定する。同時に人が線路上に落下した場合を確実に検知し、自動的に停止信号などを送出すると同時に対応するカメラの映像を送出する。また、ホーム端上で行動する全ての人間の全行動を記録する。図4に示すように、その全体の処理では、まず人中心特定・カウント処理21として、距離情報から人の存在をカウントする処理と、ライン・トラッキング処理22として、上記人の存在点を時系列で結び、動線を出す処理とを行う。
【0020】
[人中心特定・カウント処理]
図5に、上記本発明に用いる人カウント・アルゴリズムの概念図を示す。また、図6に人カウント・アルゴリズムのフローを示す。
【0021】
人数カウント・動線計測プログラムのアルゴリズムは、以下のとおりである。
[1]z軸の距離を取得し、それを使って、高さ別のマスク画像(図5の5,6,7)等を作成する(図6の31)。なお、平面をx−y軸とし、z軸を高さ方向とする。また、図5では、簡略化して3段階のマスクしか図示されていないが、好適な実施例では8段階である。
【0022】
撮影するカメラは、ステレオカメラであり、距離情報も得られるので、その距離情報から2値画像を作成することができる。すなわち、図5において3つのマスクを上から順番にマスク5,6,7とすると、マスク5は例えば150〜160cmの高さ、マスク6は120〜130cmの高さ、マスク7は80〜90cmの高さを距離情報から検出して2値画像が作成される。図5のマスク内の黒色部分(数値は1)は、その部分に何かが存在し、白色の部分(数値は0)は何もないことを意味している。
【0023】
カメラは上から見ているので、これらマスクにおける10,11,12、あるいは13,14,12は人の存在を示している。例えば、10が頭に相当し、同じx−y座標上の各マスク上に画像データ11,12が存在する。同じく13が頭に相当し、同じx−y座標上の各マスク上に画像データ14、12が存在する。15は、例えば荷物であり、人とは認識されない。犬とか、ハトは、複数の画像にデータを持たないので排除される。17,16は背の低い子供と認識される。結局、図5のマスク上には子供を含む3人がいると認識され、以下の処理が行われる。
【0024】
[2]カメラ毎のノイズに合わせて、マスクにモルフォロジー処理を行う(図6の32)。なお、モルフォロジー処理とは、数理形態学に基づく2値画像での画像処理の1種であるが、公知であり、本発明に直接関係しないので、その詳細な説明は省略する。
【0025】
[3]最上位(最上段)のマスク5をラベリング(図6の33)し、それぞれの重心を出す(図6の35)。同様に、最下位のマスク7まで重心を出す。このとき、それぞれの段階よりも上位の段階で決定した重心を含む領域は、既に数えられたものとして重心を出す処理は行わない。この例では、レベルn(マスク5)で2人、レベル2(マスク6)で1人、レベル1(マスク7)で0人、合計3人の人がいることを認識する。
【0026】
ここでラベリング及び重心を出す処理を説明すると、以下のようになる。
図5に示すように、距離情報から高さ方向でスライスを複数作り、それを2値画像にする。この2値画像をラベリング(分別)をして重心を計算する。ラベリングは、画像処理の一般的な手法で、塊がいくつあるかを数える。そして、その塊単位で重心を計算する。上記重心を出す処理とラベリングの具体的方法を、図7〜図9を用いて説明する。
【0027】
図7,図8は、ラベリング処理の説明図である。図7のように、まず所定距離の画像からスライスした各段階(レベル)において2値画像を作成し、その2値図形に対して、連結成分を1つの領域としてラベル付けをする。
【0028】
ラベリングの方法は、全画素を左下から右上に走査する。図8に示されるように、その走査が1の画素に出会ったならば、その画素に1番目のラベルを貼り付ける。引き続き走査を実行し、その際の画素が1番目のラベルに連結しているならば、これらの画素にも1番目のラベルを貼り付ける。また、1 の画素ではあるが、その領域が先の領域とは別の場合は、新しいラベルを貼り付ける。図7では2値画像で1と0の領域に分かれていたが、ラベリング後は、図8のように背景である0の領域と各塊単位でラベリングが行われ、同時にこの場合は3個の塊があることが分かる。
【0029】
図9は、重心を出すときの説明図であり、ラベリング後に得られた、各領域(塊)単位で重心の計算を行う。計算方法は、図9に表示されているように、その領域のx座標,y座標をそれぞれすべて足し合わせ、その画素数(面積)で割る。その平均値(平均座標)がその塊の重心座標となる。
【0030】
実験では、混雑時にステレオカメラ1台の視野の範囲で、15人位が距離情報だけで識別できた。また、階段のような密集状態でも距離情報だけで、9割以上が取得できる。なお、上記重心の高さが一定範囲にあることにより人間であると認識すること自体は、例えば特開5−328355号公報に示されるように公知である。
【0031】
[4]最終的に出そろった重心を人としてカウントし、人数とする。
[ライントラッキング処理]
次に、これら人の重心の移動を追尾し、動線を作成する。図10に、このライントラッキング処理のフローを示す。
【0032】
上記のようにして、人を重心情報(距離情報)から認識するが、特にホーム上が混雑していたりして複数の重心情報が存在する場合、重心情報だけでは動線を結ぶ場合に前の点と次の点が同一人物かどうかの識別が正確にはできない(ただし、前フレームと次のフレームを比較して、どちらの可動探索範囲にも1人しかいないときは、その両点を結んで動線とすることができる。)。
【0033】
そこで、後述する高次局所自己相関特徴(テクスチャ情報)を用いて人の同一性を判定する。
以降の処理を説明すると、
[5]1つのカメラのカバー範囲の画面上で、z軸の値が正確に出る範囲を3×5の領域に区切り(混雑状況マップ)、それぞれに存在する人数をカウントする(図16の81)。なお、上記一つのカメラのカバー範囲を「フレーム」という。
【0034】
[6]次に、前フレームまでのライン(軌跡)と、これらの人とのつながりを検査し、以下の如く同じ人の中心をつなぐ(図10の42)。
[7]それぞれのラインは、出現してからのフレーム毎の「x座標」・「y座標」・「z軸の値」の他に、「出現してからのフレーム数」、「終端の高さレベル(マスク画像の4段階)」、「終端周辺のテクスチャから導いた平行移動不変かつ回転不変の局所特徴ベクトル」、「進行方向(上下左右)」、「探索範囲の半径の長さ」、の属性データ(これについては後述する)を持つ。
【0035】
[8]検査は生きているラインの内で、古いラインから行う(図10の41)。
[9]「探索範囲の一辺の長さ」、「進行方向」から探索領域を決定する(「出現してからのフレーム数」が1の場合は「探索範囲の一辺の長さ」だけで決定する)。
【0036】
[10]つなぐ人を決定する基準は、
(ア) 「終端の高さレベル」とのレベル差が1以内である。
(イ) 「ある程度の移動量がありながら90度以上の急激なターンを行っている」に当てはまらない。
(ウ) 上2つを満たす中で直線距離が最短のもの。
である。
【0037】
[11]ラインにつなぐ相手が見つかった場合、「出現してからのフレーム数」をインクリメントし、新たな「x座標」・「y座標」・「z軸の値」を追加し、「終端の高さレベル」を変更する(図10の46)。次に、ラインのある程度前の段階での座標と、新たな「x座標」・「y座標」とを比べて、新たな「進行方向」を決定する(図10の43)。次に、混雑状況マップに於いて、自分を中心とする9領域の内、「進行方向」から判断して背後の3領域を省いた領域に存在する人数により、「探索範囲の半径の長さ」を決定する。そして、新たな「終端周辺のテクスチャから導いた平行移動不変かつ回転不変の局所特徴ベクトル」を導く。
【0038】
[12]生きているラインすべてを検査した後、つなぐ相手が見つからなかったラインの内、出現してからのフレーム数がある程度短いものはゴミとして削除する(図10の45)。
【0039】
[13]一定以上の長さがあり、かつ終端が画面端ではないものについては、テクスチャで補完する。探索領域を細かい領域に区切り、それぞれの領域のテクスチャから局所特徴ベクトルを導く。それらと「終端周辺のテクスチャから導いた平行移動不変かつ回転不変の局所特徴ベクトル」との距離を測り、基準以下の距離を持つものの中で、最も近い距離を持つ領域の中心を使い、[11]を行う。基準以下の距離を持つ領域がない場合はつながない。
【0040】
すなわち、距離情報が何らかの理由で取れなかった場合、例えば、図20の拡大図(72)において、現フレームの探索範囲の15ヶ所の特徴点を計算し、その中から最も近い特徴をもつ点が新たな人のいる場所として特定する。
【0041】
この場合、進行方向、速度、混雑状況で決定された探索領域内に何もなければ、繋ぐ相手がいないものとして動線が途切れることになる。
[14]一定の長さはあるが、つなぐ先が見つからないラインは死んだラインとする(図10の44)。なお、死んだラインは、ログ(動線の全記録)として保存する。
【0042】
[15]すべてのラインの処理が終了した後に残った、どのラインにもつながらなかった人は、新たなラインの始まりとする(図10の47)。属性のうち、「探索範囲の半径の長さ」は、原則として混雑状況マップに於ける自分の周辺領域の人数から決定する(図16の92〜94)。すなわち、混雑していると識別性が落ちるので、次の探索範囲も細かくしていくことになる。混雑状況は、基本的に(距離情報がとれない場合以外)距離情報から得られる人数で決定する。この時、距離情報が団子状態になったとしても、人は肩幅があるので人数をカウントできる。
【0043】
[高次局所自己相関特徴]
次に、本発明の特徴の一つでもある前記「高次局所自己相関特徴を用いた認識」について、説明する。なお、「高次局所自己相関特徴を用いた認識」の原理は、詳しくは「パターン認識 理論と応用」(大津展之他著、朝倉書店1996年初版発行。)に記載されている。この発明は、上記「高次局所自己相関を用いた認識手法」を回転移動不変に拡張してからホーム上の監視システムに適用した点に特徴がある。
【0044】
高次局所自己相関特徴は、後述するように局所特徴故の平行移動不変や加法性の特性を有する。さらにそれを回転移動不変になるようにして利用している。すなわち、同じ人が歩く方向を変え(上から見て回転)しても、上記高次局所自己相関特徴は変わらないので同一人物と認識できる。なお、高次局所自己相関特徴は、加法性の特性を利用して高速に計算するために各ブロック単位に計算し、ブロック毎に保持する。
【0045】
こうして、あるブロックにいた人が、他のブロックに移動した場合。前記重心情報が両ブロックに存在することになるが、上記最初のブロックの高次局所自己相関特徴が次のブロックの高次局所自己相関特徴と同じであるかどうかを認識することにより、両ブロックに存在する前記重心情報(人情報)が同一人物のものかどうかが判定できるのである。このようにして、同一人物の前後の動線を結ぶことができる。動線は重心点を結ぶことにより作成される。このテクスチャ利用の探索処理のフローを図17に示す。
【0046】
以下、高次局所自己相関特徴による認識について図11〜図14を用いて説明する。
・高次局所自己相関特徴による認識
まず画像(テクスチャ)情報から対象の特徴を抽出する。
【0047】
ここで用いる高次局所自己相関関数は、以下のように定義する。画面内の対象画像をf(r)とすると、N次自己相関関数は、変位方向(a1 ,a2 ,a3 ,…aN )に対して
【0048】
【数1】
Figure 2004058737
【0049】
で定義される。ここでは、高次自己相関係数の次数Nを2とする。また、変位方向を参照点rの周りの局所的な3×3画素の領域に限定する。平行移動による等価な特徴を除くと、2値画像に対して特徴の数は全部で25個になる(図11の左側)。このときの各特徴の計算は、局所パターンの対応する画素の値の積を全画素に対して足し合わせ、1枚の画像の特徴量とする。
【0050】
この特徴は平行移動パターンに対して不変であるという大きな利点がある。一方、ここで前処理として利用しているステレオカメラからの距離情報を使った対象領域のみを取り出す手法は、対象を確実に切り出せるが、切り出す領域が不安定という欠点がある。そこで、認識のためにこの平行移動不変の特徴を用いることで、切り出しの変化に対するロバスト性を確保した。すなわち、小領域内の対象位置の変動に対して、この特徴の持つ平行移動に対する不変性の利点が最大限に発揮される。
【0051】
図11に25個+10個=35個の高次局所自己相関特徴を示した。サイズ3×3のマスクの中心は参照点rを示している。“1”で示された画素は加算され、“*”で示された画素は加算されない。次数を2とした場合は図の左側に示した25個のパターンが創出されるが、0次と1次の場合の積和の値域が大きく異なることを補正する(正規化する)意味で、0次と1次の場合のみ同じ点を積和するパターンを付け加え全部で35個のパターンする。しかし、このままでは平行移動には不変であるが、回転には不変でない。そこで、図14に示したように、回転して同等となるパターンを足し合わせて1つの要素となるようにパターンをまとめた。結果として、ベクトルの要素は11個となるものを利用した。また値の正規化のために4つのパターンを1つの要素とする場合には4で割った値を利用した。
【0052】
具体的には、この3×3のマスクが対象画像を1画素づつシフトして全体をスキャンする。すなわち、3×3マスクを全画素上で動かし、そのときに1とマークのある画素の値同士を掛け合わせた値を3×3のマスクを画素単位に動かすたびに足し合わせて行く。つまり積和となる。2とあるのはその画素の値を2回掛けること(2乗)を意味し、3とあるのはその画素を3回掛けること(3乗)を意味する。
【0053】
この操作が35種の全てマスクについて実行された上で、(8bit)×(x画素数)×(y画素数)の情報量を持つ画像が11次元のベクトルに変換される。
そして、最も特徴的な点として、これらの特徴は局所領域で計算されるため平行移動および回転移動に対して不変である。よって、ステレオカメラからの切り出しは不安定であるが、たとえ対象に対する切り出し領域はずれても、各次元の特徴量は近似する。図12の画像と図13の表はその例である。この場合は25次元でグレー画像に対するベクトル要素の上位2桁を示した例である。顔の切り出し画像が3枚の各図でずれているが、表で示した各ベクトルの上位2桁の要素は完全に近似している。もしテンプレートマッチングによる手法を単純に用いた場合は、距離情報による切り出しのずれが認識率に決定的な影響を及ぼす。つまり、この特徴は切り出しの不正確さに対してロバストである。このことが高次局所自己相関特徴とステレオカメラによる切り出しを組合せた最大の利点である。
【0054】
また、ここでは画像の画素の値は基本を8bit のグレー画像を基本と考えるが、カラー画像を使って、RGB(またはYIQ)などの3次元の値に対して個々に特徴を取り、11次元の場合は33次元の1次元ベクトルとすることで、より精度を高めることも可能である。
【0055】
[動的探索領域決定処理]
ここで、前記探索範囲の動的制御について図15,図16,図18,図19を用いて説明をする。
【0056】
[1]まず、一つの画面上で、距離データが正確に出せる領域を、複数に区切る(図15の51,図16の81)。
[2]人中心特定・カウント処理によって人の中心(と思われる)点が得られているので、それぞれの区域に何人が存在するかカウントする(図15の52,図16の81)。
【0057】
[3]新たにラインの最後尾となった点に関して、ラインログを用いて次のフレームでの進行方向を特定する(図15の53,図18の61〜65)。
[4]図18に示すように、点の存在する区域の周囲の内、進行方向を優先させ、また図16に示すように、選び出した区域の人数をカウントし、その人数にあらかじめ定めておいた定数を積算し、探索範囲の領域を決定する(図15の54)。具体的には、図19に示したように、停止状態から始まって、混雑度合いと速度に応じてその探索範囲を動的に多段階に変更して、動線を繋ぎ合わせたり探索したりする。探索範囲において、進行方向の正反対に関しては、あらかじめ定めておいた適当に小さい値を探索範囲の半径とする。
【0058】
[5]既出のラインに繋がらず、初めて現れたと思われる人物の点に関しては、周囲の区域を等しく扱い、人数をカウントし、あらかじめ定めておいた定数を積算し、探索範囲の半径とする。
【0059】
[テクスチャー高速探索処理]
次に、この発明におけるテクスチャー探索処理を高速に行うための工夫を図20を用いて説明する。
【0060】
図19の1段階の探索範囲(図20の71)を例にとると、例えば、図20の72に示すように、上記探索範囲を24のブロックに分けて計算し、高次局所
自己相関特徴を各ブロック毎に保持する。
【0061】
そして、まず前フレームにおける対象の人のいた領域を図20の73の4ブロック単位で保持する。上記ブロックを4つを1単位として高次局所自己相関特徴を比較し、次の移動先を探索する。なお、該4ブロックの大きさは、人が一人入る程度の大きさである。したがって、4ブロックに複数の人が入ることは殆どない。仮に、複数の人の重心情報があっても、距離が近い方、次いでテクスチャの類似度から識別される。
【0062】
4ブロックを図20の下方に示した[1]〜[15]のように15ヶ所のみを疎に探索することにより、計算量を大幅に削減できる。高次局所自己相関特徴は、平行移動不変、回転不変の特徴があるので、正確に人が上記4ブロックの範囲内に入っていなくても、7割程度の対象が上記4ブロックの範囲内に入っていれば近似したベクトルが得られるので、疎な検索は十分可能である。なお、通常の画像検索と異なり、上記高次局所自己相関特徴は加法性があるので、[1]のベクトルの計算は、a+b+g+hとなり、一次元ベクトルの加算でよい。この加法性を利用した上記疎検索により、計算量が半分以下となる。すなわち、現フレームの探索範囲内の上記図20の[1]〜[15]の15ヶ所の特徴点を計算し、その中で最も近い特徴点を持つ点が新たに同じ人がある領域と判定する。図20の72のように、24ブロック(a,・・・,x)に分けて予め特徴を計算したのは、
15ヶ所×4ブロック=60ブロックの計算量を24ブロックの計算量にとどめるための工夫である。
【0063】
これらをまとめると、以下のようになる。
・探索範囲における動線の決定方法
1.距離情報から得られた人の重心を探索範囲内でつなげる。
【0064】
2.探索範囲内において距離情報から求められなかった場合、テクスチャ情報を使って回転フリーの情報(高次局所自己相関特徴)で探索をする。
3.距離情報+テクスチャ情報を使って動線の精度を高める。
【0065】
すなわち、基本は、まず距離情報から動線を求め、高次局所自己相関特徴は探索範囲内に人がいない場合に使われるのである。
・テクスチャの高速探索方法
1.高次局所自己相関特徴自身は一回の操作で探索範囲内において24ブロックに分けて保持する。
【0066】
2.直前の操作で記憶した対象の特徴量を探索範囲内において、ベクトルのユークリッド距離で比較する。
直前にブロック別に特徴を保持することで、各場所における特徴量は4つの足し算で高速に求められる。
【0067】
なお、ここで上記ユークリッド距離について説明する。
直前の人がいたエリアから得られた局所特徴(以下、「高次局所自己相関特徴」を簡略化して「局所特徴」という。)と、現フレームのその人が移動したと思われる候補のエリアの局所特徴とを比較し、人の動線を出す場合、まず距離画像から得られた人のいるホームのxy2次元座標で考えて近い方に繋げる。ここまでは、一般的な2次元座標上での距離のことである。しかし、繋ごうとする候補がホーム上の距離で同距離にあったり、不明の場合、テクスチャから得られた局所特徴のベクトルで計算して信頼性を高めることになる。ここからは得られた領域同士が同じ対象(模様)であるかを判断するために前記局所特徴を使うことになる(ホームの上の座標と全く別の座標である。)。
【0068】
自分の直前位置のエリアの局所特徴(テクスチャ)と距離から得られた候補点のエリアの局所特徴=2つのベクトル
A=(a1,a2,a3,・・・,an)
B=(b1,b2,b3,・・・,bn)
があるこのときのユークリッド距離は2乗平均をとり
√((a1−b1)2乗+(a2−b2)2乗+(a3−b3)2乗+・・・+(an−bn)2乗)
となる。もし全く同じテクスチャならば距離は0になる。計算方法の基本は一般の3次元までの直線距離算出手法と変わらない。
【0069】
上記全体動線管理アルゴリズムの具体例を図21に示す。
・各カメラ単位で人の動線を特定する。
・各カメラは時間同期が取れており、かつ隣り合うカメラ同士は共有領域(のりしろ)をもって連続2次元座標が設定できるように配置されている。そして、各カメラの動線情報を集積することで、全体管理マップ上で全カメラ視野内の動線を作成することができる。
【0070】
・図21の場合、各カメラ単独で人を特定し、その動線を繋ぐ。ここでカメラ1の6番目のポントとカメラ2の1番目のポイントは2次元座標と時間が一致するので、連続した動線として全体動線管理マップでは管理される。こうすることにより、複数のカメラから作られる2次元座標内の全動線を管理できる。
【0071】
・動線を繋ぐ際には、時間、2次元座標だけでなく、高さ(慎重)、テクスチャ情報(頭や服の色)を使って信頼度を高くすることも可能である。
[領域監視・警告処理]
次に、領域監視・警告処理フローを図22に示す。
【0072】
図22に示す領域監視・警告処理フロー(落下判定等のアルゴリズム)は、以下の通りである。
[1]線路上の領域に人がいるとき、高さがホーム(例えば、1.5m )よりも高ければ(例えば、手だけホーム外にある場合)衝突注意処理を、低ければ落ちたと判断し、落下警報処理を行う。
【0073】
[2]ホーム上の危険領域に人がいるとき、ライントラックを行っていない場合、即、退避勧告処理を行う。また、ライントラックを行っている場合、ログから判断して、危険領域に留まり続けているならば、退避勧告処理を行う。
【0074】
このようにして、この発明のシステムは、ホーム端上の人の位置、動きなどから、予め注意を呼びかける状況、そのアナウンス、および映像を転送する状況を予め登録する手段を与える。さらに、カメラ装置に音声合成機能を付加することで、その状況に応じたアナウンスを予め登録された合成音声によってカメラ単位で乗客に伝える。
【0075】
以上まとめると、以下の如くなる。
1.落下の自動検知:距離情報を静止画と動的な変化を見て判断する。
距離情報を用いるので朝日や夕日が射し込んだり、影が激しく変化したりする状況でも確実に落下を検知できる。また、新聞、ダンボール、鳩・カラス、荷物などを無視できる。
【0076】
・判断結果は3段階などで伝える。
a.確実に落下→停止信号の送信、警報の発生。
b.何かあるかも→その画像をスタッフルームに転送。
c.確実に鳩やゴミなど→無視。
【0077】
・線路に人がいる状況判断も以下の2種類を判断できる。
a.ホームから落ちた。
b.線路側から歩いてきた。
【0078】
・危険地域(ホーム端ギリギリ)にいるものに対して警告できる。
a.人には音声で警告。動かなかったら画像を転送。
b.荷物の場合も画像を転送。
【0079】
ここで使う情報はグレー画像から得られる時系列距離情報のみ。
2.人の動きの追跡:距離情報を静止画で、また同時にテクスチャ情報(カラー画像)を利用して追跡する。
【0080】
・人が混雑している状況でも間違えないでリアルタイムで動線管理できる。
・テクスチャを位置、回転に対して対応できる高次局所自己相関特徴でも追跡するので、距離とテクスチャ両方でより正確にできる。
【0081】
・人を追いかける範囲を混雑状況に応じて動的に変化させるので、ビデオレートで実現できる。
・距離情報とテクスチャ情報を両方使うので、人が交差したときに正確に人の軌跡を判断する交差判定もより正確にできる。
【0082】
【発明の効果】
以上述べたように、本発明の装置によれば、駅の線路側ホーム端において複数のステレオカメラにより該ホーム端を撮像し、ホーム端にいる人を距離情報とテクスチャ情報によって識別しながらホーム端上の位置を特定することにより、線路側ホーム端における人の線路転落の確実な検知、および複数の人の識別とその全行動ログの取得する駅ホームにおける、より確実な安全監視装置を提供できる。
【0083】
また、上記構成において、人間のホームなどの空間における動線のログを取得して保存する手段を備えること、またさらに、前記各ステレオカメラからの画像情報に基づき認識対象を抽出する手段が、高次局所自己相関を用いた高解像度画像での認識を行うことを用いることにより、上記識別を確実なものとすることができる。
【0084】
また、上記構成において、前記距離情報と画像情報両方から対象を認識する手段が、高さの異なる複数のマスク上の重心情報から人と他のものを識別すること、および、上記構成において、ホーム端の前記距離情報と画像情報を取得し、線路範囲上方における画像情報の検知および該画像情報の距離情報から、人の落下もしくは人等のホーム外への突出を識別し、警報を出すことにより、より安全度の高い、確実な駅ホームにおける安全監視装置が提供できる。
【図面の簡単な説明】
【図1】本発明の安全監視装置の概念図である。
【図2】従来の監視カメラの配置を示す図である。
【図3】従来の転落検知マットの説明図である。
【図4】本発明の全体のフローチャートである。
【図5】本発明の人カウントアルゴリズムの説明図である。
【図6】本発明の人中心特定・カウント処理のフローチャートである。
【図7】距離画像からスライスした2値画像の例を示す図である。
【図8】図7のラベリング結果を示す図である。
【図9】重心計算の説明図である。
【図10】本発明のライン・トラッキング処理のフローチャートである。
【図11】平行移動不変の高次局所自己相関特徴の説明図である。
【図12】近似するベクトル例を示す図である。
【図13】切り出しがずれた同じ顔画像の例を示す図である。
【図14】本発明に用いる平行移動不変、かつ回転移動不変の高次局所自己相関特徴の説明図である。
【図15】本発明の探索範囲動的決定処理のフローチャートである。
【図16】本発明の混雑状況マップを示す図である。
【図17】本発明のテクスチャ利用の探索処理のフローチャートである。
【図18】本発明の動的探索領域決定アルゴリズムの説明図である。
【図19】本発明の動的探索領域の混雑度合いによる変化を示す図である。
【図20】本発明に用いる高次局所自己相関特徴による高速探索アルゴリズムの説明図である。
【図21】本発明の全体動線管理アルゴリズムを示す図である。
【図22】本発明の領域監視・警告処理のフローチャートである。
【符号の説明】
1   カメラ
2   人
5,6,7   マスク画像
10,11,12   人の画像
13,14   人の画像
16,17   子供の画像

Claims (7)

  1. 駅の線路側ホーム端において複数のステレオカメラにより該ホーム端を撮像し、各ステレオカメラ単位で視野内の撮像画像とホームの座標系に基づいた距離情報に基づく画像情報を生成する画像処理手段と、前記各ステレオカメラからの距離情報と画像情報に基づき対象を認識する手段と、認識された対象の状態から安全を確認する手段とからなることを特徴とする駅ホームにおける安全監視装置。
  2. さらに、人間のホームなどの空間における動線のログを取得して保存する手段を備えることを特徴とする請求項1記載の駅ホームにおける安全監視装置。
  3. 前記各ステレオカメラからの距離情報と画像情報に基づき対象を認識する手段が、高次局所自己相関特徴を用いた認識を行うことを特徴とする請求項1または2記載の駅ホームにおける安全監視装置。
  4. 前記距離情報と画像情報から対象を認識する手段が、高さの異なる複数のマスク上の重心情報から人と他のものを識別することを特徴とする請求項1〜3のいずれかに記載の駅ホームにおける安全監視装置。
  5. 安全を確認する手段がホーム端の前記距離情報と画像情報を取得し、線路範囲情報における画像情報の検知および該画像情報の距離情報から、人の落下もしくは人等のホーム外への突出を識別し、警報を出すことを特徴とする請求項1〜4のいずれかに記載の駅ホームにおける安全監視装置。
  6. 前記高次局所自己相関特徴が所定の範囲の所定の箇所に存在する前後の時系列の距離情報を同一人と同定するために用いられることを特徴とする請求項1〜5のいずれかに記載の駅ホームにおける安全監視装置。
  7. 前記所定の箇所は所定の範囲内を複数のブロックに分けたものであり、前記時系列の次の距離情報の探索が上記複数のブロックの内の複数個を単位として前記高次局所自己相関特徴を計算することにより行われることを特徴とする請求項6記載の駅ホームにおける安全監視装置。
JP2002217222A 2002-07-25 2002-07-25 駅ホームにおける安全監視装置 Expired - Lifetime JP3785456B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002217222A JP3785456B2 (ja) 2002-07-25 2002-07-25 駅ホームにおける安全監視装置
AU2003281690A AU2003281690A1 (en) 2002-07-25 2003-07-24 Security monitor device at station platform
PCT/JP2003/009378 WO2004011314A1 (ja) 2002-07-25 2003-07-24 駅ホームにおける安全監視装置
US10/522,164 US7460686B2 (en) 2002-07-25 2003-07-24 Security monitor device at station platform

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002217222A JP3785456B2 (ja) 2002-07-25 2002-07-25 駅ホームにおける安全監視装置

Publications (2)

Publication Number Publication Date
JP2004058737A true JP2004058737A (ja) 2004-02-26
JP3785456B2 JP3785456B2 (ja) 2006-06-14

Family

ID=31184602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002217222A Expired - Lifetime JP3785456B2 (ja) 2002-07-25 2002-07-25 駅ホームにおける安全監視装置

Country Status (4)

Country Link
US (1) US7460686B2 (ja)
JP (1) JP3785456B2 (ja)
AU (1) AU2003281690A1 (ja)
WO (1) WO2004011314A1 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006088963A (ja) * 2004-09-27 2006-04-06 Mitsubishi Electric Corp 可動式ホーム柵システム
JP2006205970A (ja) * 2005-01-31 2006-08-10 Mitsubishi Electric Corp プラットホームドア状態監視システム
WO2007037350A1 (ja) * 2005-09-29 2007-04-05 Plusmic Corporation 馬位置情報解析並びに表示方法
JP2007267294A (ja) * 2006-03-30 2007-10-11 Hitachi Ltd 複数カメラを用いた移動物体監視装置
JP2007274234A (ja) * 2006-03-30 2007-10-18 National Institute Of Advanced Industrial & Technology ステレオカメラを用いた白杖使用者検出システム
JP2009093644A (ja) * 2007-10-03 2009-04-30 Mitsubishi Electric Research Laboratories Inc コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法
JP2009211311A (ja) * 2008-03-03 2009-09-17 Canon Inc 画像処理装置及び方法
JP2010140515A (ja) * 2010-03-23 2010-06-24 Toshiba Tec Corp 動線認識システム
JP2011170564A (ja) * 2010-02-17 2011-09-01 Toshiba Tec Corp 動線連結方法,装置及び動線連結プログラム
JP2011170563A (ja) * 2010-02-17 2011-09-01 Toshiba Tec Corp 動線連結方法,装置及び動線連結プログラム
JP2012011989A (ja) * 2010-07-05 2012-01-19 Saxa Inc 駅ホームの監視カメラシステム
WO2012011579A1 (ja) * 2010-07-23 2012-01-26 独立行政法人産業技術総合研究所 病理組織画像の領域分割画像データ作成システム及び病理組織画像の特徴抽出システム
JP2012035762A (ja) * 2010-08-06 2012-02-23 Nippon Signal Co Ltd:The ホーム転落検知システム
JP2012046062A (ja) * 2010-08-26 2012-03-08 Central Japan Railway Co 物体検知システム及び方法
JP2014120167A (ja) * 2012-12-12 2014-06-30 Ricoh Co Ltd 視差図による視差方向連続型物体検知方法及び装置
JP2016144993A (ja) * 2015-02-09 2016-08-12 サクサ株式会社 画像処理装置
JP2016162408A (ja) * 2015-03-05 2016-09-05 サクサ株式会社 画像処理装置
JP2016181181A (ja) * 2015-03-24 2016-10-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017001462A (ja) * 2015-06-08 2017-01-05 京王電鉄株式会社 ホーム安全柵組み込み式監視台装置
JP6400260B1 (ja) * 2017-10-20 2018-10-03 三菱電機株式会社 データ処理装置、プログラマブル表示器およびデータ処理方法
JP2019041207A (ja) * 2017-08-24 2019-03-14 株式会社日立国際電気 監視システム及び監視方法
WO2019244576A1 (ja) * 2018-06-20 2019-12-26 株式会社東芝 通知制御装置
WO2020188972A1 (ja) * 2019-03-19 2020-09-24 パナソニック株式会社 事故検出装置、及び、事故検出方法
JPWO2021059385A1 (ja) * 2019-09-25 2021-04-01

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3785456B2 (ja) * 2002-07-25 2006-06-14 独立行政法人産業技術総合研究所 駅ホームにおける安全監視装置
US7613324B2 (en) * 2005-06-24 2009-11-03 ObjectVideo, Inc Detection of change in posture in video
ITRM20050381A1 (it) * 2005-07-18 2007-01-19 Consiglio Nazionale Ricerche Metodo e sistema automatico di ispezione visuale di una infrastruttura.
US8189962B2 (en) * 2006-12-19 2012-05-29 Hitachi Kokusai Electric Inc. Image processing apparatus
US20080273754A1 (en) * 2007-05-04 2008-11-06 Leviton Manufacturing Co., Inc. Apparatus and method for defining an area of interest for image sensing
KR100998339B1 (ko) 2009-06-30 2010-12-03 (주)에이알텍 선로 감시 시스템
DE102009057583A1 (de) * 2009-09-04 2011-03-10 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Erzeugung einer zielgerichteten realitätsnahen Bewegung von Teilchen entlang kürzester Wege bezüglich beliebiger Abstandsgewichtungen für Personen- und Objektstromsimulationen
JP5597057B2 (ja) * 2010-08-06 2014-10-01 日本信号株式会社 ホームでの旅客引きずり検知システム
US9204823B2 (en) 2010-09-23 2015-12-08 Stryker Corporation Video monitoring system
EP2541506A1 (en) * 2011-06-27 2013-01-02 Siemens S.A.S. Method and system for managing a flow of passengers on a platform
US9600744B2 (en) * 2012-04-24 2017-03-21 Stmicroelectronics S.R.L. Adaptive interest rate control for visual search
DE102016216320A1 (de) * 2016-08-30 2018-03-01 Siemens Aktiengesellschaft Überwachung von streckengebundenen Transportsystemen
EP3523176A1 (de) * 2016-12-07 2019-08-14 Siemens Mobility GmbH Verfahren, vorrichtung und bahnfahrzeug, insbesondere schienenfahrzeug, zur gefahrensituationserkennung im bahnverkehr, insbesondere im schienenverkehr
CN107144887B (zh) * 2017-03-14 2018-12-25 浙江大学 一种基于机器视觉的轨道异物入侵监测方法
TWI684960B (zh) * 2018-12-27 2020-02-11 高雄捷運股份有限公司 月台軌道區侵入警報系統
DE102020201309A1 (de) * 2020-02-04 2021-08-05 Siemens Mobility GmbH Verfahren und System zur Überwachung eines Transportmittelumfelds
CN114842560B (zh) * 2022-07-04 2022-09-20 广东瑞恩科技有限公司 基于计算机视觉的建筑工地人员危险行为识别方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0773388A (ja) * 1993-05-03 1995-03-17 Philips Electron Nv 監視システム及び監視システム用回路装置
JPH07228250A (ja) * 1994-02-21 1995-08-29 Teito Kousokudo Kotsu Eidan 軌道内監視装置及びプラットホーム監視装置
JPH0993565A (ja) * 1995-09-20 1997-04-04 Fujitsu General Ltd 乗降客の安全監視装置
JPH0997337A (ja) * 1995-09-29 1997-04-08 Fuji Heavy Ind Ltd 侵入物監視装置
JPH09193803A (ja) * 1996-01-19 1997-07-29 Furukawa Electric Co Ltd:The プラットホーム付近の安全監視方法
JPH10304346A (ja) * 1997-04-24 1998-11-13 East Japan Railway Co 安全確認用itvシステム
JPH10341427A (ja) * 1997-06-05 1998-12-22 Sanyo Electric Co Ltd 自動警報システム
JP2000184359A (ja) * 1998-12-11 2000-06-30 Mega Chips Corp 監視装置及び監視システム
JP2001134761A (ja) * 1999-11-04 2001-05-18 Nippon Telegr & Teleph Corp <Ntt> 動画像内被写体の関連アクション提供方法および装置並びにこの方法のプログラムを記録した記録媒体
JP2001143184A (ja) * 1999-11-09 2001-05-25 Katsuyoshi Hirano 移動体の移動履歴を解析集計するシステム
JP2003246268A (ja) * 2002-02-22 2003-09-02 East Japan Railway Co ホーム転落者検知方法及び装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4695959A (en) * 1984-04-06 1987-09-22 Honeywell Inc. Passive range measurement apparatus and method
US4924506A (en) * 1986-07-22 1990-05-08 Schlumberger Systems & Services, Inc. Method for directly measuring area and volume using binocular stereo vision
US4893183A (en) * 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
US5176082A (en) * 1991-04-18 1993-01-05 Chun Joong H Subway passenger loading control system
EP0532052B1 (en) * 1991-09-12 2008-02-13 FUJIFILM Corporation Method for extracting object images and method for detecting movements thereof
US5592228A (en) * 1993-03-04 1997-01-07 Kabushiki Kaisha Toshiba Video encoder using global motion estimation and polygonal patch motion estimation
US6167143A (en) * 1993-05-03 2000-12-26 U.S. Philips Corporation Monitoring system
US5933082A (en) * 1995-09-26 1999-08-03 The Johns Hopkins University Passive alarm system for blind and visually impaired individuals
US5838238A (en) * 1996-03-13 1998-11-17 The Johns Hopkins University Alarm system for blind and visually impaired individuals
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
JP4861574B2 (ja) * 2001-03-28 2012-01-25 パナソニック株式会社 運転支援装置
JP3785456B2 (ja) * 2002-07-25 2006-06-14 独立行政法人産業技術総合研究所 駅ホームにおける安全監視装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0773388A (ja) * 1993-05-03 1995-03-17 Philips Electron Nv 監視システム及び監視システム用回路装置
JPH07228250A (ja) * 1994-02-21 1995-08-29 Teito Kousokudo Kotsu Eidan 軌道内監視装置及びプラットホーム監視装置
JPH0993565A (ja) * 1995-09-20 1997-04-04 Fujitsu General Ltd 乗降客の安全監視装置
JPH0997337A (ja) * 1995-09-29 1997-04-08 Fuji Heavy Ind Ltd 侵入物監視装置
JPH09193803A (ja) * 1996-01-19 1997-07-29 Furukawa Electric Co Ltd:The プラットホーム付近の安全監視方法
JPH10304346A (ja) * 1997-04-24 1998-11-13 East Japan Railway Co 安全確認用itvシステム
JPH10341427A (ja) * 1997-06-05 1998-12-22 Sanyo Electric Co Ltd 自動警報システム
JP2000184359A (ja) * 1998-12-11 2000-06-30 Mega Chips Corp 監視装置及び監視システム
JP2001134761A (ja) * 1999-11-04 2001-05-18 Nippon Telegr & Teleph Corp <Ntt> 動画像内被写体の関連アクション提供方法および装置並びにこの方法のプログラムを記録した記録媒体
JP2001143184A (ja) * 1999-11-09 2001-05-25 Katsuyoshi Hirano 移動体の移動履歴を解析集計するシステム
JP2003246268A (ja) * 2002-02-22 2003-09-02 East Japan Railway Co ホーム転落者検知方法及び装置

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4574307B2 (ja) * 2004-09-27 2010-11-04 三菱電機株式会社 可動式ホーム柵システム
JP2006088963A (ja) * 2004-09-27 2006-04-06 Mitsubishi Electric Corp 可動式ホーム柵システム
JP2006205970A (ja) * 2005-01-31 2006-08-10 Mitsubishi Electric Corp プラットホームドア状態監視システム
JP4606891B2 (ja) * 2005-01-31 2011-01-05 三菱電機株式会社 プラットホームドア状態監視システム
WO2007037350A1 (ja) * 2005-09-29 2007-04-05 Plusmic Corporation 馬位置情報解析並びに表示方法
US8107679B2 (en) 2005-09-29 2012-01-31 Yamaguchi Cinema Co., Ltd. Horse position information analyzing and displaying method
JPWO2007037350A1 (ja) * 2005-09-29 2009-04-09 株式会社プラスミック 馬位置情報解析並びに表示方法
JP4658266B2 (ja) * 2005-09-29 2011-03-23 株式会社山口シネマ 馬位置情報解析並びに表示方法
JP4691708B2 (ja) * 2006-03-30 2011-06-01 独立行政法人産業技術総合研究所 ステレオカメラを用いた白杖使用者検出システム
JP2007274234A (ja) * 2006-03-30 2007-10-18 National Institute Of Advanced Industrial & Technology ステレオカメラを用いた白杖使用者検出システム
JP4706535B2 (ja) * 2006-03-30 2011-06-22 株式会社日立製作所 複数カメラを用いた移動物体監視装置
JP2007267294A (ja) * 2006-03-30 2007-10-11 Hitachi Ltd 複数カメラを用いた移動物体監視装置
JP2009093644A (ja) * 2007-10-03 2009-04-30 Mitsubishi Electric Research Laboratories Inc コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法
JP2009211311A (ja) * 2008-03-03 2009-09-17 Canon Inc 画像処理装置及び方法
JP2011170564A (ja) * 2010-02-17 2011-09-01 Toshiba Tec Corp 動線連結方法,装置及び動線連結プログラム
JP2011170563A (ja) * 2010-02-17 2011-09-01 Toshiba Tec Corp 動線連結方法,装置及び動線連結プログラム
JP2010140515A (ja) * 2010-03-23 2010-06-24 Toshiba Tec Corp 動線認識システム
JP2012011989A (ja) * 2010-07-05 2012-01-19 Saxa Inc 駅ホームの監視カメラシステム
WO2012011579A1 (ja) * 2010-07-23 2012-01-26 独立行政法人産業技術総合研究所 病理組織画像の領域分割画像データ作成システム及び病理組織画像の特徴抽出システム
US9031294B2 (en) 2010-07-23 2015-05-12 National Institute Of Advanced Industrial Science And Technology Region segmented image data creating system and feature extracting system for histopathological images
JP2012035762A (ja) * 2010-08-06 2012-02-23 Nippon Signal Co Ltd:The ホーム転落検知システム
JP2012046062A (ja) * 2010-08-26 2012-03-08 Central Japan Railway Co 物体検知システム及び方法
JP2014120167A (ja) * 2012-12-12 2014-06-30 Ricoh Co Ltd 視差図による視差方向連続型物体検知方法及び装置
JP2016144993A (ja) * 2015-02-09 2016-08-12 サクサ株式会社 画像処理装置
JP2016162408A (ja) * 2015-03-05 2016-09-05 サクサ株式会社 画像処理装置
JP2016181181A (ja) * 2015-03-24 2016-10-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017001462A (ja) * 2015-06-08 2017-01-05 京王電鉄株式会社 ホーム安全柵組み込み式監視台装置
JP2019041207A (ja) * 2017-08-24 2019-03-14 株式会社日立国際電気 監視システム及び監視方法
JP6400260B1 (ja) * 2017-10-20 2018-10-03 三菱電機株式会社 データ処理装置、プログラマブル表示器およびデータ処理方法
WO2019077750A1 (ja) * 2017-10-20 2019-04-25 三菱電機株式会社 データ処理装置、プログラマブル表示器およびデータ処理方法
WO2019244576A1 (ja) * 2018-06-20 2019-12-26 株式会社東芝 通知制御装置
WO2020188972A1 (ja) * 2019-03-19 2020-09-24 パナソニック株式会社 事故検出装置、及び、事故検出方法
JPWO2021059385A1 (ja) * 2019-09-25 2021-04-01
WO2021059385A1 (ja) * 2019-09-25 2021-04-01 株式会社日立国際電気 空間検知システム、および空間検知方法
JP7219820B2 (ja) 2019-09-25 2023-02-08 株式会社日立国際電気 空間検知システム、および空間検知方法

Also Published As

Publication number Publication date
US20060056654A1 (en) 2006-03-16
US7460686B2 (en) 2008-12-02
WO2004011314A1 (ja) 2004-02-05
AU2003281690A1 (en) 2004-02-16
JP3785456B2 (ja) 2006-06-14

Similar Documents

Publication Publication Date Title
JP3785456B2 (ja) 駅ホームにおける安全監視装置
JP4970195B2 (ja) 人物追跡システム、人物追跡装置および人物追跡プログラム
KR101808587B1 (ko) 객체인식과 추적감시 및 이상상황 감지기술을 이용한 지능형 통합감시관제시스템
US8655078B2 (en) Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus
CN104303193B (zh) 基于聚类的目标分类
ES2305930T3 (es) Dispositivo y procedimiento para la deteccion y el seguimiento de personas en una zona de inspeccion.
US7787656B2 (en) Method for counting people passing through a gate
KR101839827B1 (ko) 원거리 동적 객체에 대한 얼굴 특징정보(연령, 성별, 착용된 도구, 얼굴안면식별)의 인식 기법이 적용된 지능형 감시시스템
JP2021513690A (ja) 物品識別方法及びシステム、電子機器
CA3094424A1 (en) Safety monitoring and early-warning method for man-machine interaction behavior of underground conveyor belt operator
CN112396658A (zh) 一种基于视频的室内人员定位方法及定位系统
WO2021114765A1 (zh) 一种基于深度图像的自助通道防尾随检测方法和系统
CN112200841B (zh) 一种基于行人体态的跨域多摄像头跟踪方法和装置
Volkhardt et al. Fallen person detection for mobile robots using 3D depth data
JPH11282999A (ja) 移動物体計測装置
CN111091057A (zh) 一种信息处理方法、装置及计算机可读存储介质
CN111259718A (zh) 一种基于高斯混合模型的扶梯滞留检测方法及系统
Albukhary et al. Real-time human activity recognition
Jalalat et al. Vehicle detection and speed estimation using cascade classifier and sub-pixel stereo matching
JPH11257931A (ja) 物体認識装置
Hassan et al. Enhanced people counting system based head-shoulder detection in dense crowd scenario
Lee et al. independent object detection based on two-dimensional contours and three-dimensional sizes
KR101560810B1 (ko) 템플릿 영상을 이용한 공간 관리 방법 및 장치
JP6851246B2 (ja) 物体検出装置
KR100590841B1 (ko) 기준차량정보의 추가를 수반하는 영상기반의 교통량 분석시스템 및 그 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060221

R150 Certificate of patent or registration of utility model

Ref document number: 3785456

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term