JP5597057B2 - Passenger drag detection system at home - Google Patents

Passenger drag detection system at home Download PDF

Info

Publication number
JP5597057B2
JP5597057B2 JP2010177767A JP2010177767A JP5597057B2 JP 5597057 B2 JP5597057 B2 JP 5597057B2 JP 2010177767 A JP2010177767 A JP 2010177767A JP 2010177767 A JP2010177767 A JP 2010177767A JP 5597057 B2 JP5597057 B2 JP 5597057B2
Authority
JP
Japan
Prior art keywords
passenger
image
detection
train
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010177767A
Other languages
Japanese (ja)
Other versions
JP2012035763A (en
Inventor
亮 佐藤
利宏 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Signal Co Ltd
Original Assignee
Nippon Signal Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Signal Co Ltd filed Critical Nippon Signal Co Ltd
Priority to JP2010177767A priority Critical patent/JP5597057B2/en
Publication of JP2012035763A publication Critical patent/JP2012035763A/en
Application granted granted Critical
Publication of JP5597057B2 publication Critical patent/JP5597057B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Train Traffic Observation, Control, And Security (AREA)

Description

本発明はホームでの旅客引きずり検知システムに関し、特に、それぞれで設定された検知エリアについて距離センサとして機能する複数のMEMSセンサ(エリア型距離センサ)をホーム縁に沿った上方領域に一列状に配置し、当該複数のMEMSセンサの検知動作特性を利用して旅客の引きずり事故を検知するホームでの旅客引きずり検知システムに関する。 The present invention relates to a passenger dragging detection system at a home, and in particular, a plurality of MEMS sensors ( area type distance sensors ) that function as distance sensors for the detection areas set in each are arranged in a row in an upper region along the home edge. In addition, the present invention relates to a passenger dragging detection system at a home that detects a passenger dragging accident using the detection operation characteristics of the plurality of MEMS sensors.

ホームからの転落を検知する従来の技術として特許文献1,2に記載される技術が存在
する。
As conventional techniques for detecting a fall from a home, there are techniques described in Patent Documents 1 and 2.

特許文献1に開示されるホーム転落検知装置では、その図1に示されるように線路軌道
に沿って所定の間隔で配置され、かつその図2に示されるようにホームから線路軌道に向
かって線路軌道側を斜めに覗き込むような配置姿勢で上方位置に設けられた複数の画像撮
像手段によって各々の転落検知エリアの撮像画像を取得する。複数の画像撮像手段によっ
て取得した各々の転落検知エリアに関する撮像画像に係る画像データに基づき、最初に転
落検知標本データを設定し、その後、現時点の画像データを取得し、当該現時点の画像デ
ータと転落検知標本データとの差分画像を得て、当該差分画像の差分領域の画素数に基づ
いて物体の転落を検知する。画像撮像手段はいわゆる撮像用カメラである。
The home fall detection device disclosed in Patent Document 1 is arranged at predetermined intervals along the track as shown in FIG. 1, and the track from the home toward the track as shown in FIG. A captured image of each fall detection area is acquired by a plurality of image capturing means provided at an upper position in such an arrangement posture as to look into the track side obliquely. Based on the image data related to the captured image relating to each fall detection area acquired by the plurality of image pickup means, first set the fall detection sample data, and then acquire the current image data, and the current image data and the fall A difference image with the detected sample data is obtained, and the fall of the object is detected based on the number of pixels in the difference area of the difference image. The image imaging means is a so-called imaging camera.

特許文献2に開示されるホーム転落者検知方法等では、複数台のステレオカメラをホー
ムの縁部に沿って所定の間隔で配置し、複数台のステレオカメラの各々の検知エリアを撮
像し、撮像で得られた画像信号を用いた画像処理で、ホームからの落下物を検知し、落下
物の大きさを求め、その大きさから落下物が人であるか否かを判定するようにしている。
このときには画像処理では、ホーム上面より下側に設定された所定の高さよりも低くなっ
たことを条件に落下物の存在を判定し、かつステレオカメラから落下物までの距離を求め
、当該距離に基づいて落下物の高さを求めると共に落下物の占有画面数を求めるようにし
ている。
In the home fallen person detection method disclosed in Patent Document 2, a plurality of stereo cameras are arranged at predetermined intervals along the edge of the home, and each detection area of the plurality of stereo cameras is imaged. In the image processing using the image signal obtained in step 1, the falling object from the home is detected, the size of the falling object is obtained, and whether the falling object is a person is determined from the size. .
At this time, in the image processing, the presence of a falling object is determined on the condition that the height is lower than a predetermined height set below the top surface of the home, and the distance from the stereo camera to the falling object is obtained, and the distance is calculated. Based on this, the height of the fallen object is obtained and the number of screens occupied by the fallen object is obtained.

特開2003−276605号公報(図1と図2)JP 2003-276605 A (FIGS. 1 and 2) 特開2003−246268号公報JP 2003-246268 A

上記の特許文献1,2に基づくホーム転落検知装置では、検知手段として撮像用カメラ
(ステレオカメラを含む)を利用して撮像画像に基づいてホーム上で起きる転落等の事故
を検知するようしている。カメラによる撮像画像に係る情報を用いてその撮像画像上での
画素数に基づいて転落事故の判定を行っているため、線路軌道上に転落した人や物を検知
し、転落したという事実を検知することのみであり、旅客が列車の乗降ドアに挟まれる等
して列車の進行動作と共に引きずられるという事故を高い精度で迅速に検知することはで
きなかった。
またカメラの撮像で得られる画像データでは、外乱光の影響を受け、引きずられる可能
性のある旅客を検知することが容易ではないという問題もあった。
列車発車時における旅客の引きずり事故の自動検知は、従来の転落検知装置では技術的
に難しい状態にあり、専ら目視確認作業に基づいて人為的に行っていた。
In the home fall detection device based on the above Patent Documents 1 and 2, an imaging camera (including a stereo camera) is used as detection means to detect an accident such as a fall that occurs on the home based on a captured image. Yes. Since the fall accident is determined based on the number of pixels on the captured image using information related to the image captured by the camera, the person or object that falls on the track is detected, and the fact that it has fallen is detected. However, it was not possible to quickly and accurately detect an accident in which a passenger was dragged with the traveling operation of a train, for example, by being caught in a train door.
In addition, image data obtained by imaging with a camera has a problem that it is not easy to detect a passenger who is affected by disturbance light and may be dragged.
Automatic detection of passenger drag accidents at the time of departure from a train is technically difficult with conventional fall detection devices, and has been performed artificially based exclusively on visual confirmation work.

本発明の目的は、上記の課題に鑑み、駅ホーム上でホーム縁に沿って旅客が列車に引き
ずられる事故が生じた時に、これを高い精度で迅速かつ確実に自動的に検知することがで
きるホームでの旅客引きずり検知システムを提供することにある。
In view of the above-described problems, an object of the present invention is to detect an accident in which a passenger is dragged by a train along a platform edge on a station platform and can automatically and accurately detect this. It is to provide a passenger drag detection system at home.

本発明に係るホームでの旅客引きずり検知システムは、上記の目的を達成するため、次
のように構成される。
In order to achieve the above object, a passenger dragging detection system at home according to the present invention is configured as follows.

第1のホームでの旅客引きずり検知システム(請求項1に対応)は、
列車が入線する駅ホーム縁に沿って設置され、計測時刻毎に、設定された検知エリアに係る検知画像を出力する複数のエリア型距離センサと、
エリア型距離センサが出力する検知画像に基づき旅客像に係るデータを記憶する記憶手段と、
旅客像に係るデータに基づき異なるエリア型距離センサの時刻の経過に伴う旅客像の移動に係る変化データを取得し、判定用データと比較して変化データが駅ホーム縁に沿った移動変化を示すとき旅客引きずり状態が発生したと判定する処理手段と、
を備えることを特徴としている。
The passenger drag detection system at the first home (corresponding to claim 1)
Train is Installation along the station home edge of the incoming lines, for each meter measurement time, a plurality of area type distance sensor for outputting a detection image of the detection area is set,
And that SL憶means to store data relating to passenger image based on the detection image area type distance sensor outputs,
Change data related to the movement of the passenger image with the passage of time of different area type distance sensors based on the data related to the passenger image is obtained, and the change data indicates the movement change along the station platform edge compared to the determination data and determining the processing means and the passenger dragging state occurs when,
It is characterized by having.

上記のホームでの旅客引きずり検知システムでは、駅ホームにおける列車が入線・停車するホーム縁の所定の箇所にそれぞれ検知エリアが設定された複数のMEMSセンサ等のエリア型距離センサを配置し、当該エリア型距離センサによって得られる検知エリアの高さ情報に基づいて当該検知エリアでの旅客の移動を検出し、旅客引きずりに特有の移動パターンを判定用データ(駅ホーム縁に沿った移動変化パターン)として用意して、比較を行い、正確かつ迅速に旅客引きずり状態を検知することが可能となる。 In the above-mentioned passenger drag detection system at the platform, an area type distance sensor such as a plurality of MEMS sensors each having a detection area set at a predetermined location on the edge of the platform where a train enters or stops at the station platform is arranged. Based on the height information of the detection area obtained by the mold distance sensor, the movement of the passenger in the detection area is detected, and a movement pattern peculiar to passenger dragging is used as judgment data (movement change pattern along the station platform edge) It is possible to prepare, compare, and detect the passenger drag state accurately and quickly.

第2のホームでの旅客引きずり検知システム(請求項2に対応)は、上記の構成において、好ましくは、複数のエリア型距離センサにおける隣り合う2つのエリア型距離センサの検知画像で、列車の並走方向に移動する旅客像に係るデータに基づき旅客像の変化データを取得することを特徴とする。旅客の引きずり状態では、列車の並走方向への移動が生じるので、隣り合う2つのエリア型距離センサでの検知を利用することにより、より適した旅客引きずり状態の移動パターンを検知することができる。 The passenger dragging detection system at the second home (corresponding to claim 2) is preferably configured such that, in the above-described configuration, trains are arranged in parallel with the detection images of two adjacent area-type distance sensors in the plurality of area-type distance sensors. The change data of the passenger image is acquired based on the data related to the passenger image moving in the running direction. Since the movement of the train in the parallel running direction occurs in the passenger dragging state, it is possible to detect a movement pattern in a more suitable passenger dragging state by using detection by two adjacent area type distance sensors. .

第3のホームでの旅客引きずり検知システム(請求項3に対応)は、上記の構成において、好ましくは、記憶手段は、複数のエリア型距離センサの各々が出力する検知画像に基づき列車像に係るデータを記憶、処理手段は旅客像に係るデータに基づき旅客像の移動に係る変化データを取得し、旅客像の変化データ列車像に係るデータとに基づいて旅客像と列車像との位置関係データを取得し、位置関係データと判定用データとを比較して駅ホーム縁に沿った移動変化を示すときに旅客引きずり状態が発生したと判定することを特徴とする。旅客像の移動と、列車像の移動との位置的な関連性に基づいて検知を行うことにより、より検知精度の高い旅客の引きずり状態を検知することが可能となる。 In the passenger drag detection system at the third home (corresponding to claim 3), the storage unit preferably relates to the train image based on the detection image output from each of the plurality of area type distance sensors. storing data, processing means obtains the changed data according to the movement of passengers image based on data relating to passenger image, the passenger image and trains image based on the data relating to the change data and train image passenger image The positional relationship data is acquired, and it is determined that a passenger dragging state has occurred when the positional relationship data and the determination data are compared to indicate a movement change along the station platform edge . By detecting based on the positional relationship between the movement of the passenger image and the movement of the train image, it is possible to detect the drag state of the passenger with higher detection accuracy.

第4のホームでの旅客引きずり検知システム(請求項4に対応)は、上記の構成において、好ましくは、複数のエリア型距離センサにおける隣り合う2つのエリア型距離センサの各々の検知エリアの境界部は接している、または重なり部分を有することを特徴とする。隣り合う2つのエリア型距離センサの各々の検知エリアの設定において、境界部を接するまたは重なり合わせることにより、判定アルゴリズムの作成を容易化することができる。 Fourth home Passenger drag detection system (corresponding to claim 4), in the above configuration, preferably, the boundary of the detection area of each of the two area type distance sensor adjacent in the plurality of area type distance sensors Are in contact with each other or have an overlapping portion. In setting the detection areas of two adjacent area type distance sensors , the determination algorithm can be easily created by touching or overlapping the boundary portion.

第5のホームでの旅客引きずり検知システム(請求項5に対応)は、上記の構成におい
て、好ましくは、判定用データは、検知画像における危険エリア像内での列車の並走方向
への旅客移動画像に係るデータであることを特徴とする。
The passenger dragging detection system at the fifth home (corresponding to claim 5) is preferably configured as described above, wherein the determination data is the passenger movement in the parallel running direction of the train in the danger area image in the detection image. It is the data concerning an image, It is characterized by the above-mentioned.

本発明によれば、複数のMEMSセンサ等のエリア型距離センサを利用して駅ホームのホーム縁を含む領域をレーザ光で2次元走査して当該ホーム縁における高さ情報を取得し、当該高さ情報の変化から旅客像を特定し、列車の移動情報と関連させることにより、当該旅客像の移動のパターンから旅客引きずり状態の発生を正確にかつ迅速に自動検知することができる。このため、駅ホーム上でホーム縁に沿って旅客が列車に引きずられる事故が生じた時に、これを高い精度で迅速かつ確実に自動的に検知することができる。 According to the present invention, the area including the platform edge of the station platform is two-dimensionally scanned with a laser beam using area type distance sensors such as a plurality of MEMS sensors, and the height information at the platform edge is obtained. By identifying the passenger image from the change in information and associating it with the movement information of the train, the occurrence of the passenger drag state can be automatically and accurately detected from the movement pattern of the passenger image. For this reason, when an accident occurs in which a passenger is dragged by a train along a platform edge on a station platform, this can be automatically and quickly detected with high accuracy.

本発明に係るホームでの旅客引きずり検知システムで用いられるセンサシステムのホームにおける具体的な配置構成を示す平面図である。It is a top view which shows the concrete arrangement configuration in the home of the sensor system used with the passenger dragging detection system in the home which concerns on this invention. センサシステムのホームにおける具体的な配置構成を示す正面図である。It is a front view which shows the specific arrangement configuration in the home of a sensor system. 1つのMEMSセンサの計測で得られた検知画像の一例を示す図である。It is a figure which shows an example of the detection image obtained by the measurement of one MEMS sensor. 本発明に係るホームでの旅客引きずり検知システムの検知・判定システムの構成を示すブロック図である。It is a block diagram which shows the structure of the detection and determination system of the passenger dragging detection system in the home which concerns on this invention. 各MEMSセンサの計測動作で得られる検知画像の3つの例(A)安全エリアにいる場合、(B)危険領域にいる場合、(C)危険エリアから急に安全エリアに移動する場合を示す図である。Three examples of detection images obtained by measurement operation of each MEMS sensor (A) When in a safety area, (B) When in a danger area, (C) A case of suddenly moving from the danger area to the safety area It is. ホームに入線・停車した列車が再び発車し動き出した時において、当該列車の近傍で旅客が留まっている状況を示す平面図である。It is a top view which shows the condition where the passenger has stayed in the vicinity of the said train when the train which entered and stopped at the platform starts again and starts moving. 時間軸(t)での計測時刻t1,t2,t3の経過に伴う2つのMEMSセンサ(SE1,SE2)の検知画像の変化状態を示す図である。It is a figure which shows the change state of the detection image of two MEMS sensors (SE1, SE2) with progress of measurement time t1, t2, t3 in a time axis (t). ホームでの旅客引きずり検知システムの旅客引きずり状態の検知動作と判定動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the detection operation and determination operation | movement of a passenger drag state of the passenger drag detection system in a home. ステイタスメモリ(41)に保存される或る計測時刻での保存テーブルの一例を示す図である。It is a figure which shows an example of the preservation | save table at a certain measurement time preserve | saved at a status memory (41). ステイタスメモリ(42)に保存される或る計測時刻での保存テーブルの一例を示す図である。It is a figure which shows an example of the preservation | save table at a certain measurement time preserve | saved at a status memory (42).

以下に、本発明の好適な実施形態(実施例)を添付図面に基づいて説明する。   DESCRIPTION OF EMBODIMENTS Preferred embodiments (examples) of the present invention will be described below with reference to the accompanying drawings.

本発明に係るホームでの旅客引きずり検知システムは、旅客引きずり事故を起こす可能
性のある旅客を検知するためのセンサシステムと、検知した旅客に関して引きずり状態が
発生しているか否かを正確かつ迅速に自動検知する事故判定に係る判定アルゴリズムを有
する判定システムとから構成されている。
A passenger drag detection system at a home according to the present invention is a sensor system for detecting a passenger that may cause a passenger drag accident, and whether or not a drag state has occurred with respect to the detected passenger accurately and quickly. And a determination system having a determination algorithm related to accident detection that is automatically detected.

図1と図2を参照して、センサシステムのホームにおける具体的な配置に関する構成を
説明する。図1は平面図を示し、図2は正面図を示している。
With reference to FIG. 1 and FIG. 2, the structure regarding the specific arrangement | positioning in the home of a sensor system is demonstrated. FIG. 1 shows a plan view and FIG. 2 shows a front view.

図1および図2において、11は駅のホームにおいて当該ホームを上方から見たものであり、12はこのホーム11に矢印方向に入線した列車を上方から見たものである。11Aは、列車12が入線した線路軌道に沿った位置に形成されるホーム縁である。ホーム縁11Aはホーム11と線路軌道との間の境界になる。このホーム縁11Aに沿って、好ましくはホーム縁11Aの内側の位置にて、その上方の位置に一列状に複数(例えばn個)のセンサSE1,SE2,…,SEnが所定の等間隔の配置関係に基づいて設置されている。図1と図2では便宜上7個のセンサが図示されている。n個のセンサSE1,SE2,…,SEnはMEMSセンサである。以下、「MEMSセンサSE1,SE2,…,SEn」と記す。ここで「MEMS」とは、よく知られた「Micro Electro Mechanical System」の意味である。また「MEMSセンサ」とは、レーザ光を2次元走査する検知部の構成と、光パルス飛行時間計測法による距離計測装置の構成とから成り、割り当てられた特定の検知エリア(2次元領域)における3次元情報(この実施形態では「高さ情報」)を測距機能に基づいて取得することができるエリアセンサである。換言すれば「MEMSセンサ」はエリア型距離センサである。本実施形態では、エリア型距離センサとして代表的にMEMSセンサを用いた例で説明するが、本発明で用いられるエリア型距離センサはMEMSセンサに限定されず、各種タイプのエリア型距離センサを用いることができる。 In FIG. 1 and FIG. 2, reference numeral 11 is a station platform viewed from above, and 12 is a train entering the platform 11 in the direction of the arrow as viewed from above. 11A is a home edge formed at a position along the track along which the train 12 enters. The home edge 11A is a boundary between the home 11 and the track. A plurality of (for example, n) sensors SE1, SE2,..., SEn are arranged at predetermined equal intervals in a line along the home edge 11A, preferably at a position inside the home edge 11A. Installed based on relationships. In FIG. 1 and FIG. 2, seven sensors are shown for convenience. The n sensors SE1, SE2,..., SEn are MEMS sensors. Hereinafter, it is described as “MEMS sensors SE1, SE2,..., SEn”. Here, “MEMS” means the well-known “Micro Electro Mechanical System”. In addition, the “MEMS sensor” includes a configuration of a detection unit that two-dimensionally scans laser light and a configuration of a distance measurement device based on an optical pulse time-of-flight measurement method, and in a specific detection area (two-dimensional region) that is allocated. This is an area sensor that can acquire three-dimensional information ("height information" in this embodiment) based on a distance measuring function. In other words, the “MEMS sensor” is an area type distance sensor. In this embodiment, an example using a MEMS sensor as a typical area type distance sensor will be described. However, the area type distance sensor used in the present invention is not limited to the MEMS sensor, and various types of area type distance sensors are used. be able to.

複数のMEMSセンサはホーム縁11Aに沿って上方に設けられた取付けフレーム13
において等間隔で設置されている。取付けフレーム13に設置された各MEMSセンサS
E1,SE2,…,SEnは、その検知部を下方(または斜め下方)に向けて配置され、
下方に矩形の検知エリア14が設定される。検知エリア14は、ホーム11の床面から所
望の高さ位置に設定されている。複数のMEMSセンサSE1,SE2,…,SEnの各
々は、ホーム11に入線し停車する列車12の各車両の乗降ドア12Aに対応して配置さ
れている。従って各MEMSセンサSE1,SE2,…,SEnに対応する検知エリア1
4は、通常的には、列車12の各車両の各乗降ドア12Aの出入り口(乗降口)の領域を
含むようにして設定されている。乗降ドア12Aの出入り口領域は、旅客の乗降時におい
て、旅客のドアによる衣服やカバン等の挟み込みで引きずり事故が起きやすい領域である
。そこで、当該出入り口領域を含むように検知エリア14が設定される。複数のMEMS
センサSE1,SE2,…,SEnは、対応する検知エリア14の高さ情報(2次元距離
情報)を得るためのエリアセンサとしての機能する。
A plurality of MEMS sensors are mounted on a mounting frame 13 provided upward along the home edge 11A.
Are installed at regular intervals. Each MEMS sensor S installed on the mounting frame 13
E1, SE2,..., SEn are arranged with their detection parts facing downward (or obliquely downward),
A rectangular detection area 14 is set below. The detection area 14 is set at a desired height position from the floor surface of the home 11. Each of the plurality of MEMS sensors SE1, SE2,..., SEn is arranged corresponding to the entrance door 12A of each vehicle of the train 12 which enters the platform 11 and stops. Therefore, the detection area 1 corresponding to each MEMS sensor SE1, SE2,.
4 is normally set so as to include the area of the entrance / exit of each entrance / exit door 12 </ b> A of each vehicle of the train 12. The entrance / exit area of the entrance / exit door 12A is an area in which a drag accident is likely to occur due to the clothes, bags, or the like being caught by the passenger's door when the passenger gets in / out. Therefore, the detection area 14 is set so as to include the entrance / exit area. Multiple MEMS
The sensors SE1, SE2,..., SEn function as area sensors for obtaining height information (two-dimensional distance information) of the corresponding detection areas 14.

図2では、複数のMEMSセンサSE1,SE2,…,SEnで隣りあう2つのMEM
Sセンサの各検知エリア14の間の関係を示している。この図示例では、隣り合う2つの
検知エリア14の境界部は接するように設定されている。検知エリア14の境界部は共通
する重なり合う領域を有するように重なって設定することもできる。図2では、14Aは
最外側のレーザ光のスキャンプロフィール(スキャン輪郭)を示している。隣り合う2つ
の検知エリア14の位置関係では、境界部の共通領域をほぼゼロにする(接するようにす
る)、或いは検知エリア14を間をあけて離すように設定することもできる。隣り合う2
つのMEMSセンサの検知エリアを離すように設定する場合には、後述する高さ情報に基
づく判定アルゴリズムで予測処理が必要とされる。
In FIG. 2, two MEMs adjacent to each other by a plurality of MEMS sensors SE1, SE2,.
The relationship between each detection area 14 of S sensor is shown. In this illustrated example, the boundary portion between two adjacent detection areas 14 is set to contact. The boundary part of the detection area 14 can also be set so as to have a common overlapping area. In FIG. 2, 14A shows the scan profile (scan contour) of the outermost laser beam. With respect to the positional relationship between two adjacent detection areas 14, the common area of the boundary portion can be set to almost zero (contact), or the detection areas 14 can be set apart from each other. 2 adjacent
When setting so that the detection areas of two MEMS sensors are separated from each other, a prediction process is required by a determination algorithm based on height information described later.

上記のように設置されたn個のMEMSセンサSE1,SE2,…,SEnの各々は、
所定の時間間隔で設定された検知時刻(計測時刻)において、対応する検知エリア14に
ついて測距センサ装置として個別に高さ情報に関する検知動作を行う。各MEMSセンサ
によって各検知時刻での検知動作で得られた対応する検知エリア14内についての高さ情
報は処理コンピュータに送られ、当該処理コンピュータで検知時刻毎に検知エリア14に
おける高さ情報に基づいて検知エリア14毎の検知物情報を取得する。取得した高さ情報
に基づいて、閾値に利用して、検知エリア14内の旅客の存在、および列車12の客車の
存在等を検知することができる。上記検知物情報は旅客等の存在情報である。取得した高
さ情報、検知物情報は、検知時刻毎に、n個のMEMSセンサSE1〜SEnの各々につ
いての検知情報としてテーブル形式でメモリに保存される。
Each of the n MEMS sensors SE1, SE2,..., SEn installed as described above
At a detection time (measurement time) set at a predetermined time interval, a detection operation related to height information is individually performed as a distance measuring sensor device for the corresponding detection area 14. The height information about the corresponding detection area 14 obtained by the detection operation at each detection time by each MEMS sensor is sent to the processing computer, and based on the height information in the detection area 14 at each detection time by the processing computer. The detected object information for each detection area 14 is acquired. Based on the acquired height information, it is possible to detect the presence of a passenger in the detection area 14, the presence of a passenger car of the train 12, and the like using a threshold value. The detected object information is presence information such as passengers. The acquired height information and detected object information are stored in the memory in a table format as detection information for each of the n MEMS sensors SE1 to SEn for each detection time.

また、n個のMEMSセンサSE1,SE2,…,SEnの各々で得られる検知情報に
(検知画像)よれば、処理コンピュータ側において、対応する検知エリア14に関して、
上記の旅客の存在情報と共に、設置位置に関する予めの位置情報に基づいて、ホーム縁1
1Aの位置、およびホーム縁11Aの近傍の危険エリアの位置、それ以外の安全エリアの
位置が知られている。
Further, according to the detection information obtained by each of the n MEMS sensors SE1, SE2,..., SEn (detection image), on the processing computer side, regarding the corresponding detection area 14,
Based on the above-mentioned passenger presence information and the pre-position information regarding the installation position, the home edge 1
The position of 1A, the position of the dangerous area near the home edge 11A, and the positions of other safety areas are known.

図3に、1つのMEMSセンサによる計測で得られた検知画像の一例を示す。21は、
対応する検知エリア14を2次元矩形領域として示した検知画像である。この検知画像2
1において、22はホーム縁11Aの位置を示すライン像であり、23は危険エリア像で
あり、24は安全エリア像であり、25は検知エリア14内に存在する旅客像である。
図3で、ライン像22の上側が、実際には線路軌道側の領域になる。危険エリア像23は
、実際には、通常的にホーム縁11Aから接近危険ラインの間の領域である。
FIG. 3 shows an example of a detected image obtained by measurement with one MEMS sensor. 21
It is the detection image which showed the corresponding detection area 14 as a two-dimensional rectangular area. This detected image 2
1, 22 is a line image showing the position of the home edge 11 </ b> A, 23 is a danger area image, 24 is a safety area image, and 25 is a passenger image existing in the detection area 14.
In FIG. 3, the upper side of the line image 22 is actually an area on the track track side. In practice, the danger area image 23 is usually an area between the home edge 11A and the approach danger line.

次に、図4を参照して、本発明に係るホームでの旅客引きずり検知システムの検知・判
定システムの構成を説明する。
Next, with reference to FIG. 4, the structure of the detection / judgment system of the passenger dragging detection system in the home which concerns on this invention is demonstrated.

ホームでの旅客引きずり検知システムでは、n個のMEMSセンサSE1,SE2,…
,SEnの各々から時系列の画像データを取得し、列車12の到着・発車時における時間
経過に伴うこれらの画像データの画像内容の変化に基づいて、自動的に旅客の引きずり状
態の有無を検知し判定する検知・判定システムの機能部を有している。
In the passenger dragging detection system at home, n MEMS sensors SE1, SE2, ...
, SEn time series image data is acquired, and the presence or absence of a passenger's drag state is automatically detected based on changes in the image content of these image data as time elapses when the train 12 arrives and departs It has a functional part of a detection / determination system.

当該検知・判定システムは、上記のセンサシステムで検知した旅客や列車の存在情報等
を取り出して記憶するメモリと、この記憶情報に基づいて旅客について引きずり状態が発
生したか否かを正確かつ迅速に自動的に検知し判定する事故判定に係る判定アルゴリズム
を実行する演算処理部(CPU)とから構成されている。
The detection / judgment system accurately and promptly determines whether or not a dragged state has occurred for a passenger based on the memory and the memory that extracts and stores the passenger and train presence information detected by the sensor system. It is comprised from the arithmetic processing part (CPU) which performs the determination algorithm which concerns on the accident determination automatically detected and determined.

図4に示した構成では、一例として便宜的に7個のMEMSセンサSE1〜SE7が示
されている。実際には、n個のMEMSセンサSE1〜SEnの各出力線がスイッチ部3
1に接続されている。n個のMEMSセンサSE1〜SEnの各々から出力される各検知
エリア14の高さ情報に係る信号は、入力選択式スイッチ機能を有したスイッチ部31に
入力される。スイッチ部31に入力された複数のMEMSセンサの出力信号は、スイッチ
部31によって演算処理装置32側に適宜なタイミングで選択的に取り込まれる。演算処
理装置32は、3種類のメモリ41,42,43と、CPUで所定のプログラムを実行す
ることにより実現される5つの機能部、すなわち、旅客追尾部51、列車ホーム進入検知
部52、列車停車検知部53、列車発車検知部54、旅客引きずり検知開始部55、旅客
引きずり判定部56とを備えている。さらに演算処理装置32の出力側には出力装置61
が備えられている。
In the configuration shown in FIG. 4, as an example, seven MEMS sensors SE1 to SE7 are shown for convenience. Actually, the output lines of the n MEMS sensors SE1 to SEn are connected to the switch unit 3.
1 is connected. A signal related to the height information of each detection area 14 output from each of the n MEMS sensors SE1 to SEn is input to the switch unit 31 having an input selection type switch function. Output signals of the plurality of MEMS sensors input to the switch unit 31 are selectively captured by the switch unit 31 to the arithmetic processing device 32 side at an appropriate timing. The arithmetic processing unit 32 has three types of memories 41, 42, and 43 and five functional units realized by executing a predetermined program by the CPU, that is, a passenger tracking unit 51, a train home approach detection unit 52, and a train. A stop detection unit 53, a train departure detection unit 54, a passenger drag detection start unit 55, and a passenger drag determination unit 56 are provided. Further, an output device 61 is provided on the output side of the arithmetic processing device 32.
Is provided.

各メモリ41〜43はステイタスメモリ(状態記憶用メモリ)である。ステイタスメモ
リ41は、旅客(人)の存在および移動に関する状態を記憶するメモリである。ステイタ
スメモリ42は、列車の存在および移動に関する状態を記憶するメモリである。ステイタ
スメモリ43は、ステイタスメモリ41,42の記憶内容を合成した状態を記憶するもの
で、さらに列車と特定の旅客との間の位置的関係性を有する動き(時間的な状態変化また
は状態推移)を記憶するメモリである。この関係を有する動きに係る記憶データは、その
後における旅客引きずりの判定の基礎的なデータとして利用される。
Each of the memories 41 to 43 is a status memory (state storage memory). The status memory 41 is a memory for storing a state relating to the presence and movement of a passenger (person). The status memory 42 is a memory that stores a state relating to the presence and movement of a train. The status memory 43 stores the combined state of the storage contents of the status memories 41 and 42, and further has a positional relationship between the train and a specific passenger (temporal state change or state transition). Is a memory for storing. The stored data relating to the movement having this relationship is used as basic data for subsequent passenger drag determination.

また上記の5つの機能部(51〜56)の機能内容(処理内容)は次の通りである。   The function contents (processing contents) of the five function units (51 to 56) are as follows.

旅客追尾部51は、検知時刻毎にn個のMEMSセンサSE1〜SEnの各々が出力す
る検知画像21を取り込み、複数の当該検知画像21に現れる旅客像25に基づいて、旅
客像25の同一性を特定し、旅客像25の位置の変化に基づき当該旅客の移動を追尾する
機能を有している。旅客追尾部51で追尾された旅客に係る状態情報(各旅客の特定情報
、位置情報、位置の変化情報等)は、上記ステイタスメモリ41に保存される。
The passenger tracking unit 51 takes in the detection image 21 output from each of the n MEMS sensors SE1 to SEn at each detection time, and based on the passenger image 25 appearing in the plurality of detection images 21, the passenger image 25 is identical. And tracking the movement of the passenger based on the change in the position of the passenger image 25. Status information relating to the passenger tracked by the passenger tracking unit 51 (specific information of each passenger, position information, position change information, etc.) is stored in the status memory 41.

列車ホーム進入検知部52は、検知時刻毎に、n個のMEMSセンサSE1〜SEnの
各々が出力する検知画像21を取り込み、列車進入側に位置する複数の当該検知画像21
においてライン像22の線路軌道側に現れる列車像に基づいて、列車12のホーム進入を
検知する機能を有している。通常的には、列車12の先端車両の前部の高さ情報の移動に
基づいて列車12のホーム進入を検知する。列車ホーム進入検知部52で検知された列車
ホーム進入に係る状態情報は、上記ステイタスメモリ42に保存される。
The train home entry detection unit 52 captures the detection images 21 output from each of the n MEMS sensors SE1 to SEn at each detection time, and a plurality of the detection images 21 located on the train entry side.
2 has a function of detecting the home approach of the train 12 based on the train image appearing on the track side of the line image 22. Normally, the home approach of the train 12 is detected based on the movement of the height information of the front part of the front vehicle of the train 12. The status information related to the train platform approach detected by the train platform entry detector 52 is stored in the status memory 42.

列車停車検知部53は、検知時刻毎に、n個のMEMSセンサSE1〜SEnの各々が
出力する検知画像21を取り込み、例えば列車の先頭に対応する位置に存する複数の当該
検知画像21においてライン像22の線路軌道側に現れる列車像の停車動作状態に基づい
て、列車12の停車を検知する機能を有している。通常的には、列車12の先端車両の前
部の高さ情報での停止動作状態に基づいて列車12の停車を検知する。列車停車検知部5
3で検知された列車の停車に係る状態情報は、上記ステイタスメモリ42に保存される。
The train stop detection unit 53 captures the detection image 21 output from each of the n MEMS sensors SE1 to SEn at each detection time, and for example, a line image in the plurality of detection images 21 existing at positions corresponding to the head of the train. It has a function of detecting the stop of the train 12 based on the stop operation state of the train image appearing on the 22 track tracks side. Normally, the stop of the train 12 is detected based on the stop operation state based on the height information of the front portion of the front vehicle of the train 12. Train stop detection part 5
The state information relating to the stop of the train detected in 3 is stored in the status memory 42.

列車発車検知部54、検知時刻毎に、n個のMEMSセンサSE1〜SEnの各々が出
力する検知画像21を取り込み、例えば列車の先頭に対応する位置に存する複数の当該検
知画像21においてライン像22の線路軌道側に現れる列車像の発車動作状態に基づいて
、列車12の発車を検知する機能を有している。通常的には、列車12の先端車両の前部
の高さ情報での動作開始状態に基づいて列車12の発車を検知する。列車発車検知部54
で検知された列車の発車に係る状態情報は、上記ステイタスメモリ42に保存される。
The train departure detection unit 54 captures a detection image 21 output from each of the n MEMS sensors SE1 to SEn for each detection time, and for example, a line image 22 in a plurality of the detection images 21 existing at positions corresponding to the head of the train. The train 12 has a function of detecting the departure of the train 12 based on the departure operation state of the train image appearing on the track track side. Usually, the departure of the train 12 is detected based on the operation start state based on the height information of the front portion of the front vehicle of the train 12. Train departure detection unit 54
The status information relating to the departure of the train detected in (1) is stored in the status memory 42.

旅客引きずり検知開始部55は、ステイタスメモリ41に保存されている追尾対象の旅
客に係る状態情報(状態データ)と、ステイタスメモリ42に保存されている列車12の
ホーム進入、停車、発車の状態情報(状態データ)とを取り込んで、ホーム11における
旅客の状態・動きと線路軌道における列車の状態・動きとを関係づける処理を実行する。
旅客引きずり検知開始部55による当該関係づけの処理は、列車12の発車に係る出発信
号SI1が入力されたことを条件にして実行される。旅客引きずり検知開始部55による
当該関係づけの処理が、旅客が引きずられた状態の検知を開始することの前提条件になる
。旅客引きずり検知開始部55による関係づけ処理によって作成された旅客および列車1
2の関係状態情報は、上記ステイタスメモリ43に保存される。
The passenger dragging detection start unit 55 includes state information (state data) relating to the tracking target passenger stored in the status memory 41, and state information of the train 12 entering the platform, stopping, and starting, stored in the status memory 42. (State data) is taken in, and processing for associating the state / motion of the passenger on the platform 11 with the state / motion of the train on the track is executed.
The association process by the passenger dragging detection start unit 55 is executed on condition that the departure signal SI1 related to the departure of the train 12 is input. The process of the association by the passenger dragging detection start unit 55 is a precondition for starting detection of a state in which the passenger is dragged. Passenger and train 1 created by the association process by the passenger dragging detection start unit 55
The two related state information is stored in the status memory 43.

旅客引きずり判定部56は、ステイタスメモリ43に保存された旅客および列車の関係
状態情報を、判定用データ(危険パターンデータ)71と対比することによって、列車1
2による旅客の引きずり状態が生じているか否かを判定し、当該判定用データ71と一致
するときには旅客の引きずり状態が発生したという検知・判定を行う。旅客の引きずり状
態を検知した時には、旅客引きずり判定部56は、出力装置61に対して検知信号を出力
する。出力装置61は、例えばアラーム信号発生器や停止信号発生器である。アラーム信
号発生器は、アラーム信号を出力して、関係部署或いは関係する周辺領域等にアラーム音
、アラーム光を発生させる。停止信号発生器は、列車運行制御システムに対して、ホーム
11での発車を開始した列車12を緊急に停止させる等の停止信号を出力する。
The passenger dragging determination unit 56 compares the passenger and train relation state information stored in the status memory 43 with the determination data (danger pattern data) 71, so that the train 1
It is determined whether or not a passenger dragging state according to No. 2 has occurred, and when it matches the determination data 71, detection / determination that a passenger dragging state has occurred is performed. When the passenger dragging state is detected, the passenger dragging determination unit 56 outputs a detection signal to the output device 61. The output device 61 is, for example, an alarm signal generator or a stop signal generator. The alarm signal generator outputs an alarm signal and generates an alarm sound and an alarm light in a related department or a related peripheral area. The stop signal generator outputs a stop signal such as urgently stopping the train 12 that has started departure at the platform 11 to the train operation control system.

なお、本実施形態の説明では、構成上、旅客引きずりの検知・判定は、上記のごとく、
記憶手段に記憶された旅客および列車の関係状態情報(各々の位置と動き(位置変化)の
情報、および関係性)を利用して行われるが、他方、検知画像21の危険エリア像23内
における旅客の位置と動き(位置変化)の情報のみを利用して旅客引きずりの検知・判定
を行うように構成することもできる。
In the description of the present embodiment, because of the configuration, detection / determination of passenger dragging is as described above.
This is performed by using the passenger and train related state information (information of each position and movement (position change) and relationship) stored in the storage means. On the other hand, in the danger area image 23 of the detected image 21 It can also be configured to detect / determine passenger drag by using only the information on passenger position and movement (position change).

次に、図5〜図10を参照して、本発明に係るホームでの旅客引きずり検知システムの
検知・判定システムの動作を説明する。
Next, the operation of the detection / determination system of the passenger dragging detection system at the home according to the present invention will be described with reference to FIGS.

図3で説明したように、n個のMEMSセンサSE1〜SEnの各々の計測動作によれ
ば、その出力される情報では、それらの対応する各検知エリア14に旅客12が存在する
という前提の下で、図3に示した通りの検知画像21を得ることができる。この際、検知
エリア14に列車が存在する場合には列車像も併せて表示される。
As described in FIG. 3, according to the measurement operation of each of the n MEMS sensors SE <b> 1 to SEn, the output information is based on the assumption that the passenger 12 exists in each corresponding detection area 14. Thus, the detection image 21 as shown in FIG. 3 can be obtained. At this time, if a train is present in the detection area 14, a train image is also displayed.

n個のMEMSセンサSE1〜SEnの各々の計測動作に基づいて得られる検知画像の
例を、図5において再び示す。
An example of a detection image obtained based on the measurement operation of each of the n MEMS sensors SE1 to SEn is shown again in FIG.

図5において(A)に示した検知画像21は、図3で説明した検知画像と全く同じ内容
である。この場合、旅客像25は安全エリア像24内に存在しているので、ホーム11に
入線してくる列車12との位置的な関係において、旅客は安全な状態にあると判断するこ
とができる。
The detected image 21 shown in FIG. 5A has exactly the same contents as the detected image described in FIG. In this case, since the passenger image 25 exists in the safety area image 24, it can be determined that the passenger is in a safe state in the positional relationship with the train 12 entering the home 11.

図5の(B)に示した検知画像21では、旅客像25は危険エリア像23内に一定時間
以上留まって存在し、かつ列車12が動き出したにも拘わらず、旅客像25に関して危険
エリア像23内での留まり状態が継続している。このような検知画像21は、ホーム11
上に居る旅客に関して実際に危険状態が発生している可能性が高いことを意味している。
この場合において、特に、旅客が列車と同じ方向に並走した状態(矢印72でその動きを
示す)が検知画像21で生じると、実質的に危険状態(旅客引きずり状態)が発生してい
ると判断される。
In the detection image 21 shown in FIG. 5B, the passenger image 25 remains in the danger area image 23 for a certain period of time and the danger image is associated with the passenger image 25 even though the train 12 starts moving. The stay state in 23 continues. Such a detected image 21 is displayed on the home 11.
This means that there is a high possibility that a dangerous situation has actually occurred with respect to the passenger on the top.
In this case, in particular, when a state in which the passenger runs in the same direction as the train (indicated by the arrow 72) is generated in the detection image 21, a dangerous state (passenger dragging state) has occurred. To be judged.

他方、図5の(C)の検知画像21に示されるように、危険エリア像23内に存在した
旅客像25が安全エリア像24の方へ移動する場合(矢印73でその動きを示す)には、
例えば、列車12から降車した旅客が普通に列車12の乗降口近傍の危険エリアから安全
エリアに移動したと判断され、安全な移動と判断されることになる。
On the other hand, as shown in the detection image 21 in FIG. 5C, when the passenger image 25 existing in the danger area image 23 moves toward the safety area image 24 (the movement is indicated by an arrow 73). Is
For example, it is determined that a passenger getting off from the train 12 has normally moved from a dangerous area near the entrance of the train 12 to the safety area, and is determined to be safe.

図5の(A)〜(C)に示した3つの検知画像21は、それぞれ単体のMEMSセンサ
に基づく計測で得られる検知画像を示している。(A)は或る1つの計測時刻での1枚の
検知画像である。(C)は旅客像25が危険エリア像23から安全エリア像24に移動し
た状態(矢印73)に基づいて判断を行うので、少なくとも2つの計測時刻での検知画像
を比較することで行われる判断である。(B)の場合には、(C)と同様に、旅客像25
の移動(矢印72)が検知されることが条件になるから、少なくとも2つの計測時刻での
検知画像を比較することが必要となる。但し、(C)の場合の移動(矢印73)では、旅
客はホーム縁11Aから離れる方向への移動であるので、単体のMEMSセンサの計測で
得られる検知画像で判断することが可能となる。これに対して、(B)の場合の移動(矢
印71)では、旅客は列車に並走する方向へ移動するので、必ずしも単体のMEMSセン
サの計測で得られる検知画像では判断できず、移動先の隣接する他のMEMSセンサの計
測で得られる検知画像との組合せ、および対比で判断することが必要となる。
The three detection images 21 shown in FIGS. 5A to 5C show detection images obtained by measurement based on a single MEMS sensor. (A) is one detected image at a certain measurement time. (C) makes a determination based on a state (arrow 73) in which the passenger image 25 has moved from the danger area image 23 to the safety area image 24, so that the determination is made by comparing the detected images at at least two measurement times. It is. In the case of (B), as in (C), the passenger image 25
Therefore, it is necessary to compare the detected images at at least two measurement times. However, in the movement (arrow 73) in the case of (C), since the passenger is moving in a direction away from the home edge 11A, it can be determined from a detection image obtained by measurement of a single MEMS sensor. On the other hand, in the movement (arrow 71) in the case of (B), since the passenger moves in the direction parallel to the train, it cannot always be determined by the detection image obtained by the measurement of the single MEMS sensor, and the movement destination It is necessary to make a judgment based on a combination with a detected image obtained by measurement of another adjacent MEMS sensor and a comparison.

n個のMEMSセンサSE1〜SEnから構成されるセンサシステムに基づく上記の計
測動作を前提にして、本発明に係るホームでの旅客引きずり検知システムの検知・判定シ
ステムの動作が実行される。
On the premise of the above measurement operation based on a sensor system composed of n MEMS sensors SE1 to SEn, the operation of the detection / determination system of the passenger dragging detection system at home according to the present invention is executed.

図6は、ホーム11に入線・停車した列車12が再び発車し動き出した時において、当
該列車12の近傍に旅客74で留まっている状況を示している。図6では、列車12と旅
客74の検知に関して、一例として3つの計測時刻(検知時刻)t1,t2,t3が示さ
れている。この状況は、列車12による旅客74の引きずり状態が発生しているものとす
る。この旅客引きずりの発生状態を、本発明に係るホームでの旅客引きずり検知システム
によれば、次の通り検知し判定する。
FIG. 6 shows a situation in which the passenger 74 stays in the vicinity of the train 12 when the train 12 that has entered or stopped the platform 11 starts again and starts moving. In FIG. 6, three measurement times (detection times) t1, t2, and t3 are shown as an example regarding the detection of the train 12 and the passenger 74. In this situation, it is assumed that the passenger 74 is dragged by the train 12. According to the passenger drag detection system at the home according to the present invention, the occurrence state of the passenger drag is detected and determined as follows.

図6で示した例における旅客引きずりの検知・判定の場合には、計測時刻t1〜t3で
のn個のMEMSセンサSE1〜SEnの検知動作において、旅客74の移動位置(場所
74A,74B,74C)の関係で、特に隣り合う2つのMEMSセンサSE1,SE2
の計測による検知画像に係るデータが使用される。
In the case of detection / determination of passenger dragging in the example shown in FIG. 6, in the detection operation of the n MEMS sensors SE1 to SEn at the measurement times t1 to t3, the movement position of the passenger 74 (locations 74A, 74B, 74C). ), Especially two adjacent MEMS sensors SE1, SE2
The data related to the detected image by the measurement is used.

図7に、時間軸(t)での計測時刻t1,t2,t3の経過に伴う2つのMEMSセン
サSE1,SE2の検知画像の変化状態を示す。
FIG. 7 shows how the detected images of the two MEMS sensors SE1, SE2 change with the passage of the measurement times t1, t2, t3 on the time axis (t).

計測時刻t1では、旅客74は場所74Aに居るので、MEMSセンサSE1の検知エ
リア14内に存在するが、MEMSセンサSE2の検知エリア14内には存在しない。計
測時刻t1において、MEMSセンサSE1の検知画像21は旅客像25を含む画像81
のごとくなり、MEMSセンサSE2の検知画像21は旅客像を含まない画像91のごと
くなる。画像81では旅客像25は危険エリア像23内に存在する。
At the measurement time t1, since the passenger 74 is at the location 74A, the passenger 74 exists in the detection area 14 of the MEMS sensor SE1, but does not exist in the detection area 14 of the MEMS sensor SE2. At the measurement time t1, the detection image 21 of the MEMS sensor SE1 is an image 81 including a passenger image 25.
The detected image 21 of the MEMS sensor SE2 becomes an image 91 that does not include a passenger image. In the image 81, the passenger image 25 exists in the danger area image 23.

計測時刻t2では、旅客74は次の場所74Bに居るので、依然とMEMSセンサSE
1の検知エリア14内に存在するが、MEMSセンサSE1の検知エリア14内には未だ
存在しない。計測時刻t2において、MEMSセンサSE1の検知画像21は旅客像25
を含む画像82のごとくなり、MEMSセンサSE2の検知画像21は変化を生ぜず、旅
客像を含まない画像92のごとくなる。画像82では旅客像25は危険エリア像23内に
存在するが、先の画像81に比較するとライン像22に沿った矢印72の方向に移動して
いる。
At the measurement time t2, since the passenger 74 is in the next place 74B, the MEMS sensor SE still remains.
1 exists in the detection area 14, but does not yet exist in the detection area 14 of the MEMS sensor SE1. At the measurement time t2, the detection image 21 of the MEMS sensor SE1 is a passenger image 25.
And the detected image 21 of the MEMS sensor SE2 does not change and becomes an image 92 that does not include a passenger image. In the image 82, the passenger image 25 exists in the danger area image 23, but has moved in the direction of the arrow 72 along the line image 22 as compared with the previous image 81.

計測時刻t3では、旅客74はさらに次の場所74Cに居るので、MEMSセンサSE
1の検知エリア14内での存在状態はなくなり、他方、MEMSセンサSE2の検知エリ
ア14内に存在するようになる。計測時刻t3において、MEMSセンサSE1の検知画
像21は旅客像25を含まない画像83のごとくなり、他方、MEMSセンサSE2の検
知画像21は旅客像25を含む画像93のごとくなる。画像93では旅客像25は危険エ
リア像23内に存在する。
At the measurement time t3, since the passenger 74 is further in the next place 74C, the MEMS sensor SE
The existence state in one detection area 14 disappears, and on the other hand, it exists in the detection area 14 of the MEMS sensor SE2. At the measurement time t3, the detection image 21 of the MEMS sensor SE1 is as an image 83 that does not include the passenger image 25, and the detection image 21 of the MEMS sensor SE2 is as an image 93 that includes the passenger image 25. In the image 93, the passenger image 25 exists in the danger area image 23.

上記のように、時刻t1,t2,t3の経過において2つのMEMSセンサSE1,S
E2によって得られる検知画像21において変化の状態が生じるので、2つのMEMSセ
ンサSE1,SE2の検知画像21の変化状態をモニタし、その特徴変化を検知すること
で、旅客引きずり状態の発生の有無を判定することができる。すなわち、この場合、危険
エリア像23に旅客像25を含む検知画像21を有するMEMSセンサSE1の検知デー
タを基礎にして、当該MEMSセンサSE1に隣り合うMEMSセンサSE2での検知画
像21の変化状態を見て、旅客引きずり状態の発生の有無を判定する。より具体的には、
MEMSセンサSE1の時刻t1,t2の検知画像(画像81,82)の危険エリア像2
3で並走方向(矢印72)に移動する旅客像25が存在すると共に時刻t3の検知画像(
画像83)の危険エリア像23で旅客像25が消え、かつ、MEMSセンサSE2の時刻
t1,t2の検知画像(画像91,92)で旅客像25が存在しないと共に時刻t3の検
知画像(画像93)の危険エリア像23で旅客像25が生じる、という特徴的変化状態を
基準として、「旅客引きずり状態の発生」であると判定する。
As described above, the two MEMS sensors SE1, S in the lapse of time t1, t2, t3.
Since a change state occurs in the detection image 21 obtained by E2, the change state of the detection image 21 of the two MEMS sensors SE1 and SE2 is monitored, and the presence or absence of the passenger dragging state is detected by detecting the characteristic change. Can be determined. That is, in this case, based on the detection data of the MEMS sensor SE1 having the detection image 21 including the passenger image 25 in the danger area image 23, the change state of the detection image 21 in the MEMS sensor SE2 adjacent to the MEMS sensor SE1 is shown. See if there is a passenger dragging state. More specifically,
Hazardous area image 2 of detected images (images 81 and 82) at times t1 and t2 of the MEMS sensor SE1
3 and there is a passenger image 25 moving in the parallel running direction (arrow 72) and the detected image at time t3 (
The passenger image 25 disappears in the danger area image 23 of the image 83), the passenger image 25 does not exist in the detection images (images 91 and 92) of the MEMS sensor SE2 at the times t1 and t2, and the detection image (image 93) of the time t3. ) Is determined as “occurrence of passenger dragging state” on the basis of the characteristic change state that the passenger image 25 is generated in the danger area image 23 of FIG.

上記の特徴的変化状態の基準の内容が、図4で説明した判定用データ71となる。   The contents of the reference for the characteristic change state are the determination data 71 described with reference to FIG.

図8に示したフローチャートを参照して、ホームでの旅客引きずり検知システムの旅客
引きずり状態の検知動作と判定動作の流れを説明する。
With reference to the flowchart shown in FIG. 8, the flow of the detection operation and determination operation | movement of the passenger drag state of the passenger drag detection system in a home is demonstrated.

ステップS11,S12によって、n個のMEMSセンサSE1,SE2,…,SEn
で検出された信号が取り込まれる。検出信号の取り込みは、ステップS11において所定
の時間間隔で設定された計測時刻毎に繰り返して行われる。
By the steps S11 and S12, n MEMS sensors SE1, SE2,.
The signal detected in is captured. The detection signal is taken in repeatedly at every measurement time set at a predetermined time interval in step S11.

ステップS13では、n個のMEMSセンサSE1〜SEnの各々で得られた検知エリ
ア14毎の高さ情報に基づいて検出対象物として旅客を検出し、当該旅客に係る状態情報
(各旅客の特定情報、位置情報、位置の変化情報等)をステイタスメモリ41にテーブル
形式で保存する。図9にステイタスメモリ41に保存される或る計測時刻での保存テーブ
ル101の一例を示す。この保存テーブル101では、n個のMEMSセンサSE1〜S
Enの各々について、例えば、検知エリア14における「位置」と、「検出物」と、「高
さ情報」とが記録されている。ここで、「位置」とは、検知エリア14内における危険エ
リア、安全エリア、またはホーム縁の外側(線路軌道側)のいずれかである。「検出物」
とは旅客像の有無である。「高さ情報」とは「検出物」の高さ情報であり、例えば成人ま
たは子供の判断に使用される。当該保存テーブル101は、計測時刻毎に作成される。
In step S13, a passenger is detected as a detection object based on the height information for each detection area 14 obtained by each of the n MEMS sensors SE1 to SEn, and the state information (specific information of each passenger) related to the passenger is detected. , Position information, position change information, etc.) are stored in the status memory 41 in a table format. FIG. 9 shows an example of a storage table 101 stored in the status memory 41 at a certain measurement time. In this storage table 101, n MEMS sensors SE1 to S1.
For each En, for example, “position”, “detected object”, and “height information” in the detection area 14 are recorded. Here, the “position” is any one of the dangerous area, the safety area, and the outside of the home edge (track track side) in the detection area 14. "Detected object"
Is the presence or absence of a passenger image. “Height information” is height information of the “detected object”, and is used, for example, for determination of an adult or a child. The storage table 101 is created for each measurement time.

ステップS11,S12,S13に基づき、上記のn個のMEMSセンサSE1,SE
2,…,SEnによってホーム11のホーム縁11Aの近傍で設定された危険エリア等で
の旅客の追尾を行うための上記の旅客追尾部51が実現される。
Based on the steps S11, S12, S13, the n MEMS sensors SE1, SE
2,..., SEn realizes the above passenger tracking unit 51 for tracking a passenger in a dangerous area or the like set in the vicinity of the home edge 11 </ b> A of the home 11.

上記のステップS13に対して、並列的な処理関係で、ステップS14〜S18が実行
される。これらのステップS14〜S18は、n個のMEMSセンサSE1〜SEnの各
々で得られた検知エリア14毎の高さ情報を取り込み、n個のMEMSセンサSE1〜S
Enの各々の検知エリア14での時間経過に伴う当該高さ情報の変化に基づいて列車12
の有無(存在)および列車12の移動を検知する。列車12の存在の検出については、前
述した検知エリア14に関する検知画像21において、ライン像22の外側の線路軌道側
の領域に存在する高さ変化を検出することによって行われる。n個のMEMSセンサSE
1〜SEnの各々で得られた検知エリア14毎の高さ情報は、継続する所定数の複数の計
測時刻で得られた検知画像21に関して、一時的な保存メモリに保存され(ステップS1
4)、当該保存メモリに保存された高さ画像に係る情報に基づいて、列車12のホーム進
入動作の検知(ステップS15)、停車動作の検知(ステップS16)、発車動作の検知
(ステップS17)が実行される。検知された列車12に関するホーム進入動作、停車動
作、発車動作に係る情報は、n個のMEMSセンサSE1〜SEnの各々に対して位置的
関係として対応づけてステイタスメモリ42にテーブル形式で保存する(ステップS18
)。図10にステイタスメモリ42に保存される或る計測時刻での保存テーブル102の
一例を示す。
Steps S14 to S18 are executed in a parallel processing relationship with respect to step S13. These steps S14 to S18 take in height information for each detection area 14 obtained by each of the n MEMS sensors SE1 to SEn, and n MEMS sensors SE1 to S18.
The train 12 based on the change in the height information with the passage of time in each detection area 14 of En.
Presence / absence (presence) and movement of the train 12 are detected. The detection of the presence of the train 12 is performed by detecting a change in height existing in the region on the track track side outside the line image 22 in the detection image 21 related to the detection area 14 described above. n MEMS sensors SE
The height information for each detection area 14 obtained in each of 1 to SEn is stored in a temporary storage memory for the detected images 21 obtained at a predetermined number of continuous measurement times (step S1).
4) Based on the information related to the height image stored in the storage memory, detection of the home approach operation of the train 12 (step S15), detection of the stop operation (step S16), detection of the departure operation (step S17) Is executed. Information on the detected home approach operation, stop operation, and departure operation relating to the train 12 is stored in a table format in the status memory 42 in association with each of the n MEMS sensors SE1 to SEn as a positional relationship ( Step S18
). FIG. 10 shows an example of the storage table 102 stored at a certain measurement time stored in the status memory 42.

上記において、ステップS15によって前述した列車ホーム進入検知部52が実現され
、ステップS16によって前述した列車停車検知部53が実現され、ステップS17によ
って前述した列車発車検知部54が実現される。こうしてステイタスメモリ42には、列
車ホーム進入に係る状態情報、列車の停車に係る状態情報、および列車の発車に係る状態
情報が、時間の経過に関連づけて、かつn個のMEMSセンサSE1〜SEnの各々の検
知領域の各位置に関連づけて、テーブル形式で保存される
In the above, the train platform approach detection unit 52 described above is realized in step S15, the train stop detection unit 53 described above is realized in step S16, and the train departure detection unit 54 described above is realized in step S17. Thus, in the status memory 42, the status information related to the train platform approach, the status information related to the stop of the train, and the status information related to the departure of the train are associated with the passage of time, and the n MEMS sensors SE1 to SEn. It is stored in a table format in association with each position of each detection area.

次に、列車の出発信号が発生することを条件にして、旅客引きずられ状態が発生してい
るか否かが判断される。
Next, it is determined whether a passenger dragged state has occurred on the condition that a departure signal for the train is generated.

ステップS19では列車12の出発信号が発生したか否かが判断される。ステップS1
9でYESの場合には、次のステップS20で旅客引きずられ検知の処理が開始される。
このステップS20では、上記の2つのステイタスメモリ41,42に記憶された前述の
第1および第2の2つの保存テーブル101,102を合成する処理を行って第3の保存
テーブルを形成し、当該第3の保存テーブルをステイタスメモリ43に記憶する。ステイ
タスメモリ43に記憶される第3の保存テーブルでは、n個のMEMSセンサSE1〜S
Enの少なくとも1つの検知画像において旅客像25と列車像との間の位置的変化の関係
性に係る情報が含まれる。このため、次のステップS21ではステイタスメモリ43に記
憶された第3の保存テーブルの記録情報に基づいて旅客像と列車像との間の位置的変化の
関係情報が抽出される。
In step S19, it is determined whether or not a departure signal for the train 12 has been generated. Step S1
In the case of YES at 9, the passenger dragging detection process is started in the next step S <b> 20.
In this step S20, a process for synthesizing the first and second storage tables 101 and 102 stored in the two status memories 41 and 42 is performed to form a third storage table. The third storage table is stored in the status memory 43. In the third storage table stored in the status memory 43, n MEMS sensors SE1 to S1.
Information related to the positional change relationship between the passenger image 25 and the train image is included in at least one detection image of En. For this reason, in the next step S21, the positional change relationship information between the passenger image and the train image is extracted based on the record information of the third storage table stored in the status memory 43.

次の判定ステップS22では、抽出された上記の位置的変化の関係情報と前述した判定
用データ71が対比され、一致するか否かが判定される。判定ステップS22でNOであ
れば、旅客引きずりは生じていないとして検知処理を終了する。判定ステップS22でY
ESであるときには、外部の装置に対してアラーム信号と停止信号が出力される(ステッ
プS23)。その後、検知処理が終了する。
In the next determination step S22, the extracted positional change relation information is compared with the above-described determination data 71 to determine whether or not they match. If NO in the determination step S22, it is determined that no passenger dragging has occurred, and the detection process is terminated. Y in determination step S22
If it is ES, an alarm signal and a stop signal are output to an external device (step S23). Thereafter, the detection process ends.

上記において、ステップS20によって旅客引きずり検知開始部55が実現され、かつ
ステップS21,S22によって前述した旅客引きずり判定部56が実現される。
In the above, the passenger drag detection start unit 55 is realized by step S20, and the passenger drag determination unit 56 described above is realized by steps S21 and S22.

以上によれば、ホーム転落検知システムにおいて、ホーム11のホーム縁11Aに対応
して所定の上方位置に配置された所要数のMEMSセンサSE1,SE2,…,SEnの
検知画像情報を利用して旅客像と列車像を取得し、さらに旅客像と列車像との関係性に係
る情報を取得し、これを判定用データ(図7に示す関係性)と対比することにより正確か
つ迅速な旅客引きずりの自動的な検知を可能し、緊急安全化動作を行うことによって事故
発生の未然防止を可能することができる。
According to the above, in the home fall detection system, passengers are detected using the detected image information of the required number of MEMS sensors SE1, SE2,..., SEn arranged at a predetermined upper position corresponding to the home edge 11A of the home 11. Image and train image, and information related to the relationship between passenger image and train image is acquired, and this is compared with judgment data (the relationship shown in FIG. 7) for accurate and rapid passenger dragging. Automatic detection is possible, and the occurrence of an accident can be prevented by performing an emergency safety operation.

なお、前述した通り、検知画像21の危険エリア像23内における旅客の位置と動き(
位置変化)の情報のみを利用して旅客引きずりの検知・判定を行うこともできる。
As described above, the position and movement of the passenger in the danger area image 23 of the detection image 21 (
It is also possible to detect / determine passenger drag using only information on (position change).

以上の実施形態で説明された構成、形状、大きさおよび配置関係については本発明が
理解・実施できる程度に概略的に示したものにすぎない。従って本発明は、説明された
実施形態に限定されるものではなく、特許請求の範囲に示される技術的思想の範囲を逸
脱しない限り様々な形態に変更することができる。
The configurations, shapes, sizes, and arrangement relationships described in the above embodiments are merely schematically shown to the extent that the present invention can be understood and implemented. Therefore, the present invention is not limited to the described embodiments, and can be variously modified without departing from the scope of the technical idea shown in the claims.

本発明に係るホームでの旅客引きずり検知システムは、駅の列車が入線するホームのホ
ーム縁に沿った検知エリアに対して所要の配置位置で複数のMEMSセンサを設置し、当
該MEMSセンサの測距機能を利用して対応する検知エリアの高さ情報を取得し、高さ情
報に基づき旅客の移動に係る情報を得て旅客引きずり状態を検知する。このホームでの旅
客引きずり検知システムは、2次元領域センサのMEMSセンサを利用して検知エリアに
おける高さ情報に基づいて対象物を検知するようにしたため、ホーム上でホーム縁に沿っ
て旅客が列車に引きずられる事故が生じた時に、これを高い精度で迅速かつ確実に自動的
に検知することに利用される。
A passenger dragging detection system at a home according to the present invention is configured such that a plurality of MEMS sensors are installed at a required arrangement position with respect to a detection area along a home edge of a platform where a train at a station enters, and ranging of the MEMS sensors is performed. The height information of the corresponding detection area is acquired using the function, and information related to passenger movement is obtained based on the height information to detect the passenger drag state. Since the passenger dragging detection system at the home uses the MEMS sensor of the two-dimensional area sensor to detect the object based on the height information in the detection area, the passenger trains along the edge of the platform on the platform. This is used to automatically and quickly detect an accident that is dragged by a high accuracy.

11 ホーム
11A ホーム縁
SE1〜SEn MEMSセンサ
12 列車
13 取付けフレーム
14 検知エリア
14A スキャンプロフィール
21 検知画像
22 ライン像
23 危険エリア像
24 安全エリア像
25 旅客像
31 スイッチ部
32 演算処理部
41,42,43 ステイタスメモリ
51 旅客追尾部
52 列車ホーム進入検知部
53 列車停車検知部
54 列車発車検知部
55 旅客引きずり検知開始部
56 旅客引きずり検知部
61 出力装置
71 判定用データ
74 旅客
81,82,83 画像(MEMSセンサSE1の検知画像)
91,92,93 画像(MEMSセンサSE2の検知画像)
101 保存テーブル
102 保存テーブル
DESCRIPTION OF SYMBOLS 11 Home 11A Home edge SE1-SEn MEMS sensor 12 Train 13 Mounting frame 14 Detection area 14A Scan profile 21 Detection image 22 Line image 23 Hazardous area image 24 Safety area image 25 Passenger image 31 Switch part 32 Calculation processing part 41,42,43 Status memory 51 Passenger tracking section 52 Train platform approach detection section 53 Train stop detection section 54 Train departure detection section 55 Passenger drag detection start section 56 Passenger drag detection section 61 Output device 71 Data for determination 74 Passenger 81, 82, 83 Image (MEMS) Detection image of sensor SE1)
91, 92, 93 images (detected images of MEMS sensor SE2)
101 Storage table 102 Storage table

Claims (5)

列車が入線する駅ホーム縁に沿って設置され、計測時刻毎に、設定された検知エリアに係る検知画像を出力する複数のエリア型距離センサと、
前記エリア型距離センサが出力する前記検知画像に基づき旅客像に係るデータを記憶する記憶手段と、
記旅客像に係るデータに基づき異なる前記エリア型距離センサの時刻の経過に伴う前記旅客像の移動に係る変化データを取得し、判定用データと比較して前記変化データが前記駅ホーム縁に沿った移動変化を示すとき旅客引きずり状態が発生したと判定する処理手段と、
を備えることを特徴とするホームでの旅客引きずり検知システム。
Train is Installation along the station home edge of the incoming lines, for each meter measurement time, a plurality of area type distance sensor for outputting a detection image of the detection area is set,
Said area type distance sensor is the detection to that Symbol憶means stores data related to passenger image based on the image to be output,
Acquires the change data according to the movement of the passenger image with the passage of time of said different area type distance sensor based on data relating to prior Symbol passenger image, the change data by comparing the verification data is the station platform edge Processing means for determining that a passenger dragging state has occurred when indicating a movement change along ;
A passenger dragging detection system at home characterized by comprising:
前記複数のエリア型距離センサにおける隣り合う2つの前記エリア型距離センサの検知画像で、前記列車の並走方向に移動する前記旅客像に係るデータに基づき前記旅客像の前記変化データを取得することを特徴とする請求項1記載のホームでの旅客引きずり検知システム。 Obtaining the change data of the passenger image based on the data relating to the passenger image moving in the parallel running direction of the train, with detection images of two adjacent area type distance sensors in the plurality of area type distance sensors. The passenger dragging detection system at home according to claim 1. 前記記憶手段は、前記複数のエリア型距離センサの各々が出力する前記検知画像に基づき列車像に係るデータを記憶
前記処理手段は、前記旅客像に係るデータに基づき前記旅客像の移動に係る変化データを取得し、前記旅客像の前記変化データと前記列車像に係るデータとに基づいて前記旅客像と前記列車像との位置関係データを取得し、前記位置関係データと前記判定用データとを比較して前記駅ホーム縁に沿った移動変化を示すときに旅客引きずり状態が発生したと判定することを特徴とする請求項1または2記載のホームでの旅客引きずり検知システム。
The storage means may store data relating to train image based on the detection image, each of said plurality of area type distance sensor outputs,
Said processing means obtains the changed data according to the movement of the passenger image based on data relating to prior Symbol passenger image, and the passenger image on the basis of the data relating to the change data and the previous SL train image of the passenger image Acquiring positional relationship data with the train image, and comparing the positional relationship data with the determination data to determine that a passenger dragging state has occurred when a movement change along the station platform edge is indicated. 3. The passenger dragging detection system at a home according to claim 1 or 2.
前記複数のエリア型距離センサにおける隣り合う2つの前記エリア型距離センサの各々の前記検知エリアの境界部は接している、または重なり部分を有することを特徴とする請求項1〜3のいずれか1項に記載のホームでの旅客引きずり検知システム。   The boundary part of the detection area of each of the two adjacent area-type distance sensors in the plurality of area-type distance sensors is in contact with each other or has an overlapping portion. The passenger drag detection system at the home described in the section. 前記判定用データは、前記検知画像における危険エリア像内での前記列車の並走方向への旅客移動画像に係るデータであることを特徴とする請求項1〜4のいずれか1項に記載のホームでの旅客引きずり検知システム。   5. The determination data according to claim 1, wherein the determination data is data related to a passenger movement image in a parallel running direction of the train in a danger area image in the detection image. 6. Passenger drag detection system at home.
JP2010177767A 2010-08-06 2010-08-06 Passenger drag detection system at home Active JP5597057B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010177767A JP5597057B2 (en) 2010-08-06 2010-08-06 Passenger drag detection system at home

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010177767A JP5597057B2 (en) 2010-08-06 2010-08-06 Passenger drag detection system at home

Publications (2)

Publication Number Publication Date
JP2012035763A JP2012035763A (en) 2012-02-23
JP5597057B2 true JP5597057B2 (en) 2014-10-01

Family

ID=45848250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010177767A Active JP5597057B2 (en) 2010-08-06 2010-08-06 Passenger drag detection system at home

Country Status (1)

Country Link
JP (1) JP5597057B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7107513B1 (en) 2022-03-14 2022-07-27 株式会社豊明 How to install meter box and door for meter box

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103105176B (en) * 2012-10-24 2015-08-05 清华大学深圳研究生院 A kind of motion tracking system based on MEMS sensor and method
US20220415053A1 (en) * 2020-01-10 2022-12-29 Nec Corporation Station monitoring apparatus, station monitoring method, and non-transitory computer readable medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2901571B2 (en) * 1997-04-28 1999-06-07 日本電気移動通信株式会社 Train personal injury prevention system
JP4553450B2 (en) * 2000-06-01 2010-09-29 日本信号株式会社 Platform monitoring system
JP2003058884A (en) * 2001-08-13 2003-02-28 Nippon Signal Co Ltd:The Object presence density measuring instrument
JP3785456B2 (en) * 2002-07-25 2006-06-14 独立行政法人産業技術総合研究所 Safety monitoring device at station platform

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7107513B1 (en) 2022-03-14 2022-07-27 株式会社豊明 How to install meter box and door for meter box

Also Published As

Publication number Publication date
JP2012035763A (en) 2012-02-23

Similar Documents

Publication Publication Date Title
JP5917327B2 (en) Escalator monitoring system
JP4753320B2 (en) Escalator monitoring system
JP6134641B2 (en) Elevator with image recognition function
JP6127659B2 (en) Driving support device and driving support method
JP5480925B2 (en) Vehicle periphery monitoring device
JP5932521B2 (en) Elevator monitoring device and monitoring method
JP5619129B2 (en) Escalator control device and escalator control method
JPWO2017158648A1 (en) Passenger number measuring device, system, method and program
JP5597057B2 (en) Passenger drag detection system at home
JP5898921B2 (en) Vehicle door opening / closing detection device and detection method
JP2012243128A (en) Monitoring device, monitoring method and monitoring program
JP6089576B2 (en) Vehicle window detection system, vehicle window detection method and program
JP6031908B2 (en) Image processing apparatus, object detection method, and object detection program
JP4056813B2 (en) Obstacle detection device
JP5165540B2 (en) Height detection system and automatic ticket gate using the same
JP2012056535A (en) Platform accident detection system
JP5647458B2 (en) Home fall detection system
JP2009194711A (en) Region user management system and management method of the same
KR20100010734A (en) Monitoring system in railway station stereo camera and thermal camera and method thereof
JP2017019351A (en) Fallen person detection device, fallen person detection system, fallen person detection method, and fallen person detection program
JP6015296B2 (en) Image processing apparatus, ambient environment estimation method, and ambient environment estimation program
JP5583511B2 (en) Passenger entrainment detection system at home
JP2008201509A (en) Person behavior discriminating system
JP4561266B2 (en) Falling object detector
JP7087161B2 (en) Judgment device

Legal Events

Date Code Title Description
A521 Written amendment

Effective date: 20120427

Free format text: JAPANESE INTERMEDIATE CODE: A523

A621 Written request for application examination

Effective date: 20130806

Free format text: JAPANESE INTERMEDIATE CODE: A621

A131 Notification of reasons for refusal

Effective date: 20140415

Free format text: JAPANESE INTERMEDIATE CODE: A131

A977 Report on retrieval

Effective date: 20140416

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140808

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Country of ref document: JP

Ref document number: 5597057