JP2017019380A - Method, device, system and program for generating detection area - Google Patents

Method, device, system and program for generating detection area Download PDF

Info

Publication number
JP2017019380A
JP2017019380A JP2015138097A JP2015138097A JP2017019380A JP 2017019380 A JP2017019380 A JP 2017019380A JP 2015138097 A JP2015138097 A JP 2015138097A JP 2015138097 A JP2015138097 A JP 2015138097A JP 2017019380 A JP2017019380 A JP 2017019380A
Authority
JP
Japan
Prior art keywords
detection area
distance image
boundary
dimensional distance
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015138097A
Other languages
Japanese (ja)
Other versions
JP6587442B2 (en
Inventor
哲也 畑内
Tetsuya Hatauchi
哲也 畑内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JR East Mechatronics Co Ltd
Original Assignee
JR East Mechatronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JR East Mechatronics Co Ltd filed Critical JR East Mechatronics Co Ltd
Priority to JP2015138097A priority Critical patent/JP6587442B2/en
Publication of JP2017019380A publication Critical patent/JP2017019380A/en
Application granted granted Critical
Publication of JP6587442B2 publication Critical patent/JP6587442B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Platform Screen Doors And Railroad Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method for generating a detection area by reducing a workload in a detection area of an obstacle detector.SOLUTION: In a method for generating a detection area of an obstacle detector having a three-dimensional distance image sensor and installed in a platform door of a platform where a vehicle is stopped, the three-dimensional distance image sensor makes a three-dimensional distance image acquired in such a manner as to include a boundary of the detection area, and the detection area is generated on the basis of the acquired three-dimensional distance image.SELECTED DRAWING: Figure 8

Description

本発明は、検知エリアを生成する方法、装置、システム及びプログラムに関する。   The present invention relates to a method, an apparatus, a system, and a program for generating a detection area.

従来、鉄道等の車両の乗降場所であるプラットホームには、車両軌道への利用客の進入を防止するホームドアが設けられている。ホームドアは開閉するドアパネルを有しており、ドアパネルは、車両のドアの位置と対応するように配置される。   2. Description of the Related Art Conventionally, a platform, which is a place where a vehicle such as a railroad gets on and off, is provided with a home door that prevents a user from entering the vehicle track. The home door has a door panel that opens and closes, and the door panel is arranged to correspond to the position of the door of the vehicle.

ホームドアは、車両がプラットホームに停車して、利用客が車両へ乗降する時には、ドアパネルが開き、車両の走行中又は車両がプラットホームに停車していない時には、ドアパネルが閉じる。   When the vehicle stops on the platform and the user gets on and off the vehicle, the door panel is opened. When the vehicle is running or when the vehicle is not stopped on the platform, the door panel is closed.

ホームドアには、ホームドア近傍の利用客又は障害物等の支障物を検知するセンサが配置される。センサの検知結果に基づいて、ホームドアの動作又は車両の運行が制御されて、利用客の安全を確保するようになされている。   A sensor for detecting an obstacle such as a customer or an obstacle near the home door is disposed on the home door. Based on the detection result of the sensor, the operation of the home door or the operation of the vehicle is controlled to ensure the safety of the user.

ホームドアのセンサとして、三次元距離センサが用いられており、センサが検知エリアを走査することにより所定の画素数を有する三次元距離画像が取得されて、支障物の有無が判断される。   A three-dimensional distance sensor is used as a home door sensor. When the sensor scans a detection area, a three-dimensional distance image having a predetermined number of pixels is acquired, and the presence or absence of an obstacle is determined.

検知エリアは、ホームドアと車両との間の空間を含むように生成される。ここで、検知エリアは、利用客の安全を確保すると共に、過剰な検知を行わないように領域が設定される。例えば、検知エリアは、ホームドアの上側の部分に利用客が手を乗せている場合、又は、ホームドアの下側の部分に利用客が足先を置いている場合には、このような状況を検知しないように生成される。   The detection area is generated so as to include a space between the platform door and the vehicle. Here, the detection area is set so that the safety of the customer is ensured and excessive detection is not performed. For example, the detection area is such a situation when the user puts his hand on the upper part of the platform door or when the user puts his foot on the lower part of the platform door. It is generated so that it is not detected.

図1は、従来のホームドアの検知エリアを示す図である。   FIG. 1 is a diagram illustrating a detection area of a conventional platform door.

ホーム2上に配置されるホームドア3では、検知エリア140は、ドアパネル33と車両6との間に位置するように生成される。ホームドア3と車両6との間の空間の形状に対応させて、検知エリア140は、扁平なほぼ直方体形状の4つの領域141〜144が重ねて形成される。各領域141〜144の形状は、予め定められている。なお図1では、検知エリア140の断面が示されているので、各領域141〜144の高さ方向の断面が示されている。検知エリア140の境界は、センサが取得する三次元距離画像の各画素の距離の範囲を設定することにより決定される。   In the home door 3 disposed on the home 2, the detection area 140 is generated so as to be positioned between the door panel 33 and the vehicle 6. Corresponding to the shape of the space between the home door 3 and the vehicle 6, the detection area 140 is formed by overlapping four flat, substantially rectangular parallelepiped regions 141 to 144. The shape of each area | region 141-144 is predetermined. In addition, in FIG. 1, since the cross section of the detection area 140 is shown, the cross section of the height direction of each area | region 141-144 is shown. The boundary of the detection area 140 is determined by setting the distance range of each pixel of the three-dimensional distance image acquired by the sensor.

特開2011−16421号公報JP 2011-16421 A

ホームドアの形状若しくは寸法、又はホームドアと車両との間の距離は、ホームドア毎に異なる場合があるので、検知エリアの境界は、ホームドア毎に異なり得る。そこで、検知エリアの境界を生成する作業は、ホームドア毎に行われる。例えば、ホームドアのセンサが動作している状態で、ドアパネルの軌道側の面上に丸棒を転がし移動させて、検知エリアにおいてドアパネル側に配置される領域142の縦又は横を調整して、領域142の境界が決定されていた。他の領域143,144に対しても、車両等を軌道上に走行させて、縦、横又は床からの高さを調整して、領域143,144の境界が決定されていた。   Since the shape or size of the home door or the distance between the home door and the vehicle may be different for each home door, the boundary of the detection area may be different for each home door. Therefore, the operation of generating the boundary of the detection area is performed for each platform door. For example, in a state where the home door sensor is operating, a round bar is rolled and moved on the track side surface of the door panel, and the vertical or horizontal direction of the region 142 arranged on the door panel side in the detection area is adjusted, The boundary of region 142 has been determined. For the other regions 143 and 144, the boundaries of the regions 143 and 144 were determined by moving a vehicle or the like on the track and adjusting the height from the vertical, horizontal, or floor.

従って、一カ所のホームドアの検知エリアの境界を生成する作業には、所定の人手と時間とが求められていた。   Therefore, a predetermined manpower and time are required for the operation of generating the boundary of the detection area of one platform door.

また、1つのホームには、例えば片側に44個のホームドアが配置されており、両側を合わせると計88個のホームドアそれぞれに対して、検知エリアを設定する作業が行われていた。   In addition, for example, 44 home doors are arranged on one side of one platform, and when both sides are combined, work for setting a detection area is performed for each of the 88 home doors.

従って、1つホームに配置される多数のホームドアの検知エリアを生成する作業には、1カ所に要する手間とホームドアの個数との積とからなる作業量が必要であった。   Therefore, an operation for generating a detection area for a large number of home doors arranged in one home requires a work amount that is the product of the labor required at one place and the number of home doors.

そこで、本発明では、作業量を低減して、ホームドアの検知エリアを生成する方法、装置、システム及びプログラムを提供することを課題とする。   Therefore, an object of the present invention is to provide a method, an apparatus, a system, and a program for reducing a work amount and generating a detection area of a platform door.

本発明が開示する方法の一形態によれば、三次元距離画像センサを有し、車両が停車するホームのホームドアに設置される支障物検知装置の検知エリアを生成する方法であって、上記三次元距離画像センサを用いて、上記検知エリアの境界を含むように三次元距離画像を取得し、取得された上記三次元距離画像に基づいて、上記検知エリアを生成する。   According to an embodiment of the method disclosed by the present invention, there is provided a method for generating a detection area of an obstacle detection device that has a three-dimensional distance image sensor and is installed on a platform door of a platform where a vehicle stops. A three-dimensional distance image is acquired using a three-dimensional distance image sensor so as to include the boundary of the detection area, and the detection area is generated based on the acquired three-dimensional distance image.

また、本発明が開示する他の方法の一形態によれば、三次元距離画像センサを有し、車両が停車するホームの複数のホームドアそれぞれに設置される支障物検知装置の検知エリアを生成する方法であって、各上記三次元距離画像センサを用いて、各上記検知エリアの境界を含むように三次元距離画像を取得し、取得された各上記三次元距離画像に基づいて、各上記検知エリアを生成する。   Moreover, according to one form of the other method which this invention discloses, it has a three-dimensional distance image sensor, and produces | generates the detection area of the obstruction detection apparatus installed in each of several platform doors of the platform where a vehicle stops. Each of the three-dimensional distance image sensors to obtain a three-dimensional distance image so as to include the boundary of each of the detection areas, and based on each of the acquired three-dimensional distance images, Generate a detection area.

また、本発明が開示する装置の一形態によれば、三次元距離画像センサを有し、車両が停車するホームのホームドアに設置される支障物検知装置の検知エリアを生成する装置であって、上記三次元距離画像センサを用いて、上記検知エリアの境界を含むように取得された上記三次元距離画像を記憶する記憶部と、上記記憶部に記憶された上記三次元距離画像に基づいて、上記検知エリアを生成する演算部と、を備える。   Moreover, according to one form of the apparatus which this invention discloses, it is an apparatus which has a three-dimensional distance image sensor and produces | generates the detection area of the obstacle detection apparatus installed in the platform door of the platform where a vehicle stops. Based on the storage unit storing the 3D distance image acquired so as to include the boundary of the detection area using the 3D distance image sensor, and the 3D distance image stored in the storage unit And an arithmetic unit for generating the detection area.

また、本発明が開示するシステムの一形態によれば、三次元距離画像センサを有し、車両が停車するホームのホームドアに設置される支障物検知装置の検知エリアを生成するシステムであって、上記支障物検知装置に配置され、上記検知エリアの境界を含むように三次元距離画像を取得可能な上記三次元距離画像センサと、上記三次元距離画像を記憶する記憶部と、上記記憶部に記憶された上記三次元距離画像に基づいて、上記検知エリアを生成する演算部と、を備える。   Moreover, according to one form of the system which this invention discloses, it is a system which has a three-dimensional distance image sensor and produces | generates the detection area of the obstacle detection apparatus installed in the platform door of the platform where a vehicle stops. The three-dimensional distance image sensor that is arranged in the obstacle detection device and can acquire a three-dimensional distance image so as to include the boundary of the detection area, a storage unit that stores the three-dimensional distance image, and the storage unit And a calculation unit that generates the detection area based on the three-dimensional distance image stored in the screen.

また、本発明が開示する他のシステムの一形態によれば、三次元距離画像センサを有し、車両が停車するホームの複数のホームドアそれぞれに設置される支障物検知装置の検知エリアを生成するシステムであって、各上記支障物検知装置に配置され、各上記検知エリアの境界を含むように三次元距離画像を取得可能な上記三次元距離画像センサと、各上記三次元距離画像を記憶する記憶部と、上記記憶部に記憶された各上記三次元距離画像に基づいて、各上記検知エリアを生成する演算部と、を備える。   Moreover, according to one form of the other system which this invention discloses, it has a three-dimensional distance image sensor and produces | generates the detection area of the obstruction detection apparatus installed in each of several platform doors of the platform where a vehicle stops. A three-dimensional distance image sensor arranged in each obstacle detection device and capable of acquiring a three-dimensional distance image so as to include a boundary of each detection area, and storing each of the three-dimensional distance images. And a calculation unit that generates each detection area based on each three-dimensional distance image stored in the storage unit.

更に、本発明が開示するプログラムの一形態によれば、三次元距離画像センサを有し、車両が停車するホームのホームドアに設置される支障物検知装置の検知エリアを生成することをコンピュータに実行させるプログラムであって、上記三次元距離画像センサを用いて、上記検知エリアの境界を含むように取得された三次元距離画像に基づいて、上記検知エリアを生成することをコンピュータに実行させる。   Furthermore, according to one form of the program disclosed by the present invention, the computer has a three-dimensional distance image sensor and generates a detection area of the obstacle detection device installed at the platform door of the platform where the vehicle stops. A program to be executed, which causes the computer to generate the detection area based on a three-dimensional distance image acquired so as to include a boundary of the detection area using the three-dimensional distance image sensor.

本発明が開示する方法の一形態によれば、検知エリアを生成する作業量を低減できる。   According to an embodiment of the method disclosed by the present invention, the amount of work for generating a detection area can be reduced.

また、本発明が開示する他の方法の一形態によれば、多数の検知エリアを生成する作業量を低減できる。   Moreover, according to one form of the other method which this invention discloses, the work amount which produces | generates many detection areas can be reduced.

また、本発明が開示する装置の一形態によれば、検知エリアを生成する作業量を低減できる。   Moreover, according to one form of the apparatus which this invention discloses, the work amount which produces | generates a detection area can be reduced.

また、本発明が開示するシステムの一形態によれば、検知エリアを生成する作業量を低減できる。   Moreover, according to one form of the system which this invention discloses, the work amount which produces | generates a detection area can be reduced.

また、本発明が開示する他のシステムの一形態によれば、多数の検知エリアを生成する作業量を低減できる。   Moreover, according to one form of the other system which this invention discloses, the work amount which produces | generates many detection areas can be reduced.

更に、本発明が開示するプログラムの一形態によれば、検知エリアを生成する作業量を低減できる。   Furthermore, according to one form of the program disclosed by the present invention, the amount of work for generating a detection area can be reduced.

従来のホームドアの検知エリアを示す図である。It is a figure which shows the detection area of the conventional platform door. 本明細書に開示するシステムの一実施形態を示す図である。FIG. 1 illustrates one embodiment of a system disclosed herein. ホームドア及び支障物検知装置の要部を示す図である。It is a figure which shows the principal part of a platform door and an obstacle detection apparatus. ホームドア及び支障物検知装置の外観を示す斜視図である。It is a perspective view which shows the external appearance of a home door and an obstacle detection apparatus. 検知エリア示す上面図である。It is a top view which shows a detection area. 検知エリア示す断面図である。It is sectional drawing which shows a detection area. 三次元距離画像における検知エリアを説明する図である。It is a figure explaining the detection area in a three-dimensional distance image. 本明細書に開示するシステムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the system disclosed to this specification. 車両治具を用いて軌道側の境界を含む三次元距離画像を取得することを示す図である。It is a figure which shows acquiring the three-dimensional distance image containing the boundary of a track | orbit side using a vehicle jig | tool. 検知エリアを生成する処理を説明する図(その1)である。It is FIG. (1) explaining the process which produces | generates a detection area. 検知エリアを生成する処理を説明する図(その2)である。It is FIG. (2) explaining the process which produces | generates a detection area. 検知エリアを生成する処理を説明する図(その3)である。It is FIG. (3) explaining the process which produces | generates a detection area. 検知エリアを生成する処理を説明する図(その4)である。It is FIG. (4) explaining the process which produces | generates a detection area. 検知エリアを生成する処理を説明する図(その5)である。It is FIG. (5) explaining the process which produces | generates a detection area. 検知エリアを生成する処理を説明する図(その6)である。It is FIG. (6) explaining the process which produces | generates a detection area. 検知エリアを検証する処理を説明する図(その1)である。It is FIG. (1) explaining the process which verifies a detection area. 検知エリアを検証する処理を説明する図(その2)である。It is FIG. (2) explaining the process which verifies a detection area.

以下、本明細書で開示する検知エリアを生成するシステムの好ましい一実施形態を、図を参照して説明する。但し、本発明の技術範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶものである。   Hereinafter, a preferred embodiment of a system for generating a detection area disclosed in the present specification will be described with reference to the drawings. However, the technical scope of the present invention is not limited to these embodiments, but extends to the invention described in the claims and equivalents thereof.

図2は、本明細書に開示するシステムの一実施形態を示す図である。図3は、図2に示すシステムのホームドア及び支障物検知装置の要部を示す図である。図4は、ホームドア及び支障物検知装置の外観を示す斜視図である。   FIG. 2 is a diagram illustrating one embodiment of a system disclosed herein. FIG. 3 is a diagram showing the main part of the platform door and obstacle detection device of the system shown in FIG. FIG. 4 is a perspective view showing the appearance of the platform door and the obstacle detection device.

本実施形態のシステム1は、鉄道のプラットホーム2に配置された複数のホームドア3の検知エリアを生成する。システム1は、各ホームドア3に配置された三次元距離画像センサを用いて、各ホームドア3における検知エリアの境界を含むように三次元距離画像を取得し、取得された三次元距離画像に基づいて、検知エリアを生成する。検知エリアを生成する装置10は、ネットワークNを介して、各三次元距離画像センサ22と接続されており、各ホームドア3の検知エリアを一括して生成する。例えば、1つのプラットホーム2に44個のホームドア3が配置されている場合でも、一晩で各ホームドア3の検知エリアを生成することが可能である。ホームドア3は開閉するドアパネル33を有しており、検知エリアは、具体的には、ドアパネル33近傍の利用客又は障害物等の支障物が検知される領域である。   The system 1 of the present embodiment generates detection areas for a plurality of platform doors 3 arranged on a railway platform 2. The system 1 acquires a three-dimensional distance image so as to include the boundary of the detection area in each home door 3 using the three-dimensional distance image sensor arranged in each home door 3, and converts the acquired three-dimensional distance image into the acquired three-dimensional distance image. Based on this, a detection area is generated. The detection area generating apparatus 10 is connected to each three-dimensional distance image sensor 22 via the network N, and generates the detection area of each home door 3 at once. For example, even when 44 platform doors 3 are arranged on one platform 2, it is possible to generate a detection area for each platform door 3 overnight. The home door 3 has a door panel 33 that opens and closes. Specifically, the detection area is an area in which obstacles such as a customer or an obstacle near the door panel 33 are detected.

図2に示すように、プラットホーム2の長手方向の両側には軌道5が敷設されており、軌道5上を車両が走行する。プラットホーム2の軌道側それぞれには、複数のホームドア3が長手方向に配置される。各ドアパネル33は、車両のドアの位置と対応するように配置される。隣接するホームドア3は隙間ができないように隣接して配置される。   As shown in FIG. 2, a track 5 is laid on both sides of the platform 2 in the longitudinal direction, and the vehicle travels on the track 5. On each track side of the platform 2, a plurality of home doors 3 are arranged in the longitudinal direction. Each door panel 33 is arranged to correspond to the position of the door of the vehicle. Adjacent home doors 3 are arranged adjacent to each other so that there is no gap.

図3に示すように、ホームドア3は、ドアパネル33を駆動して開閉する駆動部32と、後述する支障物検知装置20と通信する通信部34と、これらを制御する制御部31を有する。   As shown in FIG. 3, the home door 3 includes a drive unit 32 that drives the door panel 33 to open and close, a communication unit 34 that communicates with the obstacle detection device 20 described later, and a control unit 31 that controls them.

また、図4に示すように、ホームドア3は、ドアパネル33を収納する2つの戸袋パネル35と、戸袋パネル35を支持する防護支柱36を有する。支障物検知装置20は、一の戸袋パネル35の軌道側の面に配置される。 As shown in FIG. 4, the home door 3 includes two door pocket panels 35 that house the door panel 33, and protective columns 36 that support the door pocket panel 35. The obstacle detection device 20 is disposed on the track-side surface of one door pocket panel 35.

車両がプラットホーム2に停車して、利用客が車両へ乗降する時を除いて、ホームドア3のドアパネル33は閉じており、プラットホーム2上の利用客が軌道へ進入することを防止するようになされている。   The door panel 33 of the platform door 3 is closed except when the vehicle stops on the platform 2 and the passenger gets on and off the vehicle, thereby preventing the passenger on the platform 2 from entering the track. ing.

支障物検知装置20は、ホームドア近傍の利用客又は障害物等の支障物を検知する。支障物検知装置20の検知結果に基づいて、ホームドア3の動作又は車両の運行が制御されて、利用客の安全を確保するようになされている。   The obstacle detection device 20 detects an obstacle such as a customer near the platform door or an obstacle. Based on the detection result of the obstacle detection device 20, the operation of the platform door 3 or the operation of the vehicle is controlled to ensure the safety of the user.

図3は、支障物検知装置20の要部を示すブロック図を示す。   FIG. 3 is a block diagram showing a main part of the obstacle detection device 20.

支障物検知装置20は、三次元距離画像を取得する三次元距離画像センサ(以下、単にセンサともいう)22と、ホームドア3等と通信する通信部23と、これらを制御する制御部21を有する。図4に示すように、センサ22は、ホームドア3と車両6との間の空間を走査して、三次元距離画像を取得する。センサ22は、例えば、画角の範囲内で、パルス状のレーザ光を照射して走査し、反射した光が戻るのに要する時間を計測することにより、画素毎の距離を測定して、三次元距離画像を取得する。制御部21は、検知エリア40を記憶する設定ファイルに基づいて、センサ22を制御する。検知エリア40は、センサ22が取得する三次元距離画像に含まれるように生成される。   The obstacle detection device 20 includes a three-dimensional distance image sensor (hereinafter also simply referred to as a sensor) 22 that acquires a three-dimensional distance image, a communication unit 23 that communicates with the home door 3 and the like, and a control unit 21 that controls these. Have. As shown in FIG. 4, the sensor 22 scans the space between the platform door 3 and the vehicle 6 and acquires a three-dimensional distance image. For example, the sensor 22 scans by irradiating a pulsed laser beam within the range of the angle of view, and measures the time required for the reflected light to return, thereby measuring the distance for each pixel. Get the original distance image. The control unit 21 controls the sensor 22 based on a setting file that stores the detection area 40. The detection area 40 is generated so as to be included in the three-dimensional distance image acquired by the sensor 22.

支障物検知装置20は、支障物を検知する検知モード及び検知エリアを生成するための学習モードを有している。検知モードでは、支障物検知装置20は、検知エリアにおける支障物の有無を判断して、支障物が有る場合には、検知信号をホームドア3に出力する。ホームドア3は、検知信号に基づいて、ドアパネル33の開閉動作を行う。支障物検知装置20の学習モードの動作については、後述する。なお、支障物検知装置20は、ホームドア3の一部であってもよい。   The obstacle detection device 20 has a detection mode for detecting an obstacle and a learning mode for generating a detection area. In the detection mode, the obstacle detection device 20 determines the presence or absence of an obstacle in the detection area, and outputs a detection signal to the home door 3 when there is an obstacle. The home door 3 opens and closes the door panel 33 based on the detection signal. The operation in the learning mode of the obstacle detection device 20 will be described later. The obstacle detection device 20 may be a part of the platform door 3.

また、システム1は、各支障物検知装置20の検知エリアを生成する検知エリア生成装置(以下、単に装置ともいう)10を備える。   The system 1 also includes a detection area generation device (hereinafter also simply referred to as a device) 10 that generates a detection area for each obstacle detection device 20.

装置10は、演算部11と、記憶部12と、入力部13と、表示部14と、通信部15を有する。   The apparatus 10 includes a calculation unit 11, a storage unit 12, an input unit 13, a display unit 14, and a communication unit 15.

演算部11は、記憶部12に記憶された所定のプログラムを実行することにより、支障物検知装置20のセンサ22が取得する三次元距離画像に基づいて、検知エリアを生成するための各処理を行う。また、演算部11は、記憶部12、入力部13、表示部14及び通信部15の動作を制御する。   The calculation unit 11 executes each process for generating a detection area based on a three-dimensional distance image acquired by the sensor 22 of the obstacle detection device 20 by executing a predetermined program stored in the storage unit 12. Do. In addition, the calculation unit 11 controls operations of the storage unit 12, the input unit 13, the display unit 14, and the communication unit 15.

記憶部12は、検知エリアを生成するための所定のプログラム及び生成した各検知エリアを記録する設定ファイルを記憶する。また、記憶部12は、各ホームドアの構成に関する情報を有する構成情報ファイルを記憶する。構成情報ファイルは、各ホームドアの開口幅及び設置の向き等の情報を有する。   The storage unit 12 stores a predetermined program for generating a detection area and a setting file for recording each generated detection area. The storage unit 12 stores a configuration information file having information related to the configuration of each platform door. The configuration information file has information such as the opening width and installation direction of each home door.

入力部13は、ユーザに操作されて、検知エリアを生成するために必要な情報等を入力する。   The input unit 13 is operated by the user to input information necessary for generating a detection area.

表示部14は、演算部11により生成された検知エリア等の情報を表示する。   The display unit 14 displays information such as the detection area generated by the calculation unit 11.

通信部15は、各支障物検知装置等と通信を行う。   The communication unit 15 communicates with each obstacle detection device and the like.

本実施形態では、装置10の通信部15は、ローカルエリアネットワーク(LAN)Nを介して、各支障物検知装置20と通信可能に接続される。   In the present embodiment, the communication unit 15 of the device 10 is connected to each obstacle detection device 20 via a local area network (LAN) N so as to be communicable.

本実施形態のシステム1は、少なくとも、上述したセンサ22を有する各支障物検知装置20と、装置10とを備える。   The system 1 of this embodiment includes at least each obstacle detection device 20 having the above-described sensor 22 and the device 10.

図4は、検知エリア示す斜視図であり、図5は、検知エリア示す上面図であり、図6は、検知エリア示す断面図である。   4 is a perspective view showing the detection area, FIG. 5 is a top view showing the detection area, and FIG. 6 is a cross-sectional view showing the detection area.

図4〜6に示すように、検知エリア40は、ホームドア3と車両6との間の所定の三次元領域である。各支障物検知装置20は、検知エリア40内の支障物を検知する。図4〜6に示すホームドア3は、プラットホーム2の長手方向の端に位置しており、センサ22は、プラットホーム2の外側の空間に向かって検知エリアを走査するようにされている。   As shown in FIGS. 4 to 6, the detection area 40 is a predetermined three-dimensional area between the home door 3 and the vehicle 6. Each obstacle detection device 20 detects an obstacle in the detection area 40. The platform door 3 shown in FIGS. 4 to 6 is located at the longitudinal end of the platform 2, and the sensor 22 scans the detection area toward the space outside the platform 2.

検知エリア40は、全体として、ホームドア3と車両6との間の空間の形状に対応した扁平な形状を有し、軌道側の領域である第1エリア41と、ホームドア3側の領域である第2エリア42を有する。   The detection area 40 has a flat shape corresponding to the shape of the space between the platform door 3 and the vehicle 6 as a whole, and is a first area 41 that is a track side region and a region on the platform door 3 side. It has a second area 42.

第1エリア41は、扁平なほぼ直方体形状を有し、第2エリア42も、同様に扁平なほぼ直方体形状を有する。第2エリア42の高さ(プラットホーム2の床面に対して垂直な方向)は、第1エリア41よりも短い。第2エリア42の高さは、ドアパネル33の上側の部分に利用客が手を乗せている場合、又は、ドアパネル33の下側の部分に利用客が足先を置いている場合には、このような状況を検知しないように決定されている。   The first area 41 has a flat and substantially rectangular parallelepiped shape, and the second area 42 similarly has a flat and substantially rectangular parallelepiped shape. The height of the second area 42 (direction perpendicular to the floor surface of the platform 2) is shorter than that of the first area 41. The height of the second area 42 is determined when the user puts his / her hand on the upper part of the door panel 33 or when the user puts his / her foot on the lower part of the door panel 33. It has been decided not to detect such a situation.

第1エリア41の軌道側の形状は、車両の輪郭と対応するように決定される。同様に、第2エリア42のホームドア3側の形状は、ドアパネル33等の形状と対応するように決定される。そのため、検知エリア40の形状と、ホームドア3と車両6との間の空間の形状との一致度が高められるので、支障物の検知精度が向上する。   The shape of the first area 41 on the track side is determined so as to correspond to the contour of the vehicle. Similarly, the shape of the second area 42 on the home door 3 side is determined so as to correspond to the shape of the door panel 33 and the like. Therefore, since the degree of coincidence between the shape of the detection area 40 and the shape of the space between the platform door 3 and the vehicle 6 is increased, the obstacle detection accuracy is improved.

なお、検知エリア40を、第1エリア41と第2エリア42とに分けているのは、後述する本実施形態の検知エリアの生成方法によるものであり、必ずしも、検知エリア40を、第1エリアと第2エリア42とに分けなくてもよい。   The detection area 40 is divided into the first area 41 and the second area 42 according to the detection area generation method of the present embodiment described later. The detection area 40 is not necessarily the first area. And the second area 42 may not be divided.

検知エリア40は、各画素に対して、センサ22に近い方の境界と、センサ22から遠い方の境界を有する。支障物検知装置20は、各画素から得られた距離が、検知エリア40内に存在すること、即ち、センサ22に近い方の境界と、センサ22から遠い方の境界との間に存在することを判断する。以下に説明する検知エリアを生成する方法は、センサ22から遠い方の境界を設定することを説明する。一方、センサ22に近い方の境界は、各画素に対して、予め定められている。   The detection area 40 has a boundary closer to the sensor 22 and a boundary farther from the sensor 22 for each pixel. The obstacle detection device 20 has a distance obtained from each pixel within the detection area 40, that is, between a boundary closer to the sensor 22 and a boundary far from the sensor 22. Judging. A method for generating a detection area, which will be described below, describes setting a boundary far from the sensor 22. On the other hand, the boundary closer to the sensor 22 is predetermined for each pixel.

図7は、三次元距離画像における検知エリアを説明する図である。図7は、図4〜6に示す支障物検知装置20のセンサ22によって取得される三次元距離画像と検知エリアとの関係を示す。   FIG. 7 is a diagram illustrating a detection area in a three-dimensional distance image. FIG. 7 shows the relationship between the three-dimensional distance image acquired by the sensor 22 of the obstacle detection device 20 shown in FIGS.

支障物検知装置20のセンサ22によって、三次元距離画像の画素毎に情報として距離が得られる。例えば、センサ22が横方向にxm個、縦方向にym個の画素を有する場合、三次元距離画像は、xm×ymの画素を有する距離画像となる。   A distance is obtained as information for each pixel of the three-dimensional distance image by the sensor 22 of the obstacle detection device 20. For example, when the sensor 22 has xm pixels in the horizontal direction and ym pixels in the vertical direction, the three-dimensional distance image is a distance image having xm × ym pixels.

三次元距離画像の各画素に対して、検知エリアの境界が距離として設定されることにより、検知エリアが生成される。図4〜6に示す検知エリア40の輪郭は、検知エリアの境界を示している。   A detection area is generated by setting a boundary of the detection area as a distance for each pixel of the three-dimensional distance image. The outline of the detection area 40 shown in FIGS. 4-6 has shown the boundary of the detection area.

即ち、検知エリアを生成することは、三次元距離画像の各画素に対して、検知エリアの境界を示す境界距離を決定することを意味する。センサ22が検知エリアを走査して、検知エリア内の距離が得られた時には、検知エリア内に支障物があると判断され得る。   That is, generating the detection area means determining a boundary distance indicating the boundary of the detection area for each pixel of the three-dimensional distance image. When the sensor 22 scans the detection area and the distance in the detection area is obtained, it can be determined that there is an obstacle in the detection area.

図5に示すように、支障物検知装置20のセンサ22によって、所定の画角θで取得される三次元距離画像は、図7に示すように、横方向に0〜xm個の画素を有し、縦方向に0〜ym個の画素を有し、総画素数はxm×ym個となる。   As shown in FIG. 5, the three-dimensional distance image acquired at a predetermined angle of view θ by the sensor 22 of the obstacle detection device 20 has 0 to xm pixels in the horizontal direction as shown in FIG. In addition, 0 to ym pixels are provided in the vertical direction, and the total number of pixels is xm × ym.

図7に示す例では、第1エリア41と第2エリア42とに対応して、三次元距離画像が分割される。本実施形態では、センサ22の画角の中心の位置を、第1エリア41と第2エリア42との境界と対応させた。図5に示すように、センサ22は、プラットホームよりも軌道側に広い範囲を走査するので、センサ22の画角の中心の位置は、三次元距離画像の横方向の中央とは一致していない。ここで、三次元距離画像の内、ホームドア側の除外領域42eは、検知エリアから除かれる。この理由は、センサ22の取り付け精度よる誤差の影響を除くためである。除外領域42eとして、例えば、画素1列とすることができる。   In the example illustrated in FIG. 7, the three-dimensional distance image is divided corresponding to the first area 41 and the second area 42. In the present embodiment, the position of the center of the angle of view of the sensor 22 is made to correspond to the boundary between the first area 41 and the second area 42. As shown in FIG. 5, the sensor 22 scans a wider range on the track side than the platform, so the position of the center of the field angle of the sensor 22 does not coincide with the lateral center of the three-dimensional distance image. . Here, in the three-dimensional distance image, the exclusion area 42e on the platform door side is excluded from the detection area. The reason for this is to eliminate the influence of errors due to the mounting accuracy of the sensor 22. As the exclusion region 42e, for example, one pixel column can be used.

図7に示すように、三次元距離画像の第1エリア41は、プラットホームの床面側の境界41aと、軌道側の境界41bと、その他の境界41cとに分割される。その他の境界41cは、プラットホームの端部から外側の空間が走査された時の画素の領域である。第1エリア41を3つの領域に分割する理由は、取得した三次元距離画像により得られる各画素の距離に対して調整するオフセット量が異なるためである。オフセットの調整に関しては、後述する。   As shown in FIG. 7, the first area 41 of the three-dimensional distance image is divided into a platform floor-side boundary 41a, a track-side boundary 41b, and other boundaries 41c. The other boundary 41c is a pixel region when the outer space is scanned from the end of the platform. The reason for dividing the first area 41 into three regions is that the offset amount to be adjusted is different with respect to the distance of each pixel obtained from the acquired three-dimensional distance image. The offset adjustment will be described later.

また、三次元距離画像の第2エリア42は、ドアパネル側の境界42aと、奥面側の境界42bと、上方の境界42cと、下方の境界42dとに分割される。第2エリア42を4つの領域に分割する理由は、取得した三次元距離画像により得られる各画素の距離に対して調整するオフセット量が異なるためである。オフセットの調整に関しては、後述する。   The second area 42 of the three-dimensional distance image is divided into a door panel side boundary 42a, a back surface side boundary 42b, an upper boundary 42c, and a lower boundary 42d. The reason for dividing the second area 42 into four regions is that the amount of offset to be adjusted is different with respect to the distance of each pixel obtained from the acquired three-dimensional distance image. The offset adjustment will be described later.

上述した各境界は、具体的には、図4〜図6に示す検知エリア40の輪郭を形成する各面に対応する。   Specifically, each boundary described above corresponds to each surface forming the contour of the detection area 40 shown in FIGS.

次に、装置10が支障物検知装置20の検知エリア40を生成する動作を、図8に示すフローチャートを参照しながら、以下に説明する。   Next, the operation in which the device 10 generates the detection area 40 of the obstacle detection device 20 will be described below with reference to the flowchart shown in FIG.

まず、ステップS10において、各支障物検知装置20が、ネットワークNを介して、装置10と接続される。装置10は、ネットワークNを介して、各支障物検知装置20と通信を開始する。   First, in step S <b> 10, each obstacle detection device 20 is connected to the device 10 via the network N. The device 10 starts communication with each obstacle detection device 20 via the network N.

次に、ステップS12において、装置10は、各支障物検知装置20を、検知モードから学習モードに切り替える。学習モードでは、各支障物検知装置20は、検知エリア内の支障物を検知する動作を行わない。   Next, in step S12, the device 10 switches each obstacle detection device 20 from the detection mode to the learning mode. In the learning mode, each obstacle detection device 20 does not perform an operation of detecting an obstacle in the detection area.

次に、ステップS14において、装置10は、各支障物検知装置20のセンサ22を用いて、検知エリアの境界を含む三次元距離画像を取得する。各支障物検知装置20は、取得した三次元距離画像を、ネットワークNを介して、装置10へ送信する。装置10では、受信した三次元距離画像は、記憶部12に記憶される。各支障物検知装置20は、取得した三次元距離画像を、装置10へ送信した後、削除する。   Next, in step S <b> 14, the device 10 acquires a three-dimensional distance image including the boundary of the detection area using the sensor 22 of each obstacle detection device 20. Each obstacle detection device 20 transmits the acquired three-dimensional distance image to the device 10 via the network N. In the device 10, the received three-dimensional distance image is stored in the storage unit 12. Each obstacle detection device 20 deletes the acquired three-dimensional distance image after transmitting it to the device 10.

本実施形態では、装置10は、各支障物検知装置20において、3種類の三次元距離画像を取得する。1つめは、プラットホームの床面側の検知エリアの境界を含むように、三次元距離画像を取得する。2つめは、車両が走行する軌道側の検知エリアの境界を含むように、三次元距離画像を取得する。3つめは、ホームドア側の検知エリアの境界を含むように、三次元距離画像を取得する。3種類の三次元距離画像を取得する時のセンサ22の画角は同じである。以下、それぞれの三次元距離画像を取得する方法について説明する。   In the present embodiment, the device 10 acquires three types of three-dimensional distance images in each obstacle detection device 20. First, a three-dimensional distance image is acquired so as to include the boundary of the detection area on the floor side of the platform. Second, a three-dimensional distance image is acquired so as to include the boundary of the detection area on the track side where the vehicle travels. Third, a three-dimensional distance image is acquired so as to include the boundary of the detection area on the platform door side. The angle of view of the sensor 22 when acquiring three types of three-dimensional distance images is the same. Hereinafter, a method for acquiring each three-dimensional distance image will be described.

まず、プラットホームの床面側の検知エリアの境界を含むように三次元距離画像を取得する時には、三次元距離画像は、ドアパネル33が開の状態且つ軌道側に車両のない状態で取得される。取得された三次元距離画像の距離に基づいて、床面側の境界41aの境界距離が決定される。図7に示すように、床面側の境界41aは、第1エリア41の下方の領域である。取得された三次元距離画像では、第1エリア41における軌道側の境界41bに対応する領域の画素は、大きな距離を有するか又は距離が測定不能となる。同様に、第1エリア41bにおけるその他の境界41cに対応する領域の画素も、大きな距離を有するか又は距離が測定不能となる。センサ22が取得する有効な距離は、例えば1mm〜2500mmというように、予め定められており、有効な距離以外の距離が得られた画素には、測定不能としてND値が距離の代わりに与えられる。従って、取得された三次元距離画像から、床面側の境界41aの領域に対応する画素に対してだけ、有効な距離が得られる。この有効な距離が、床面側の境界41aの各画素に対して境界距離として与えられる。   First, when acquiring a three-dimensional distance image so as to include the boundary of the detection area on the floor side of the platform, the three-dimensional distance image is acquired with the door panel 33 open and no vehicle on the track side. Based on the distance of the acquired three-dimensional distance image, the boundary distance of the boundary 41a on the floor surface side is determined. As shown in FIG. 7, the floor side boundary 41 a is a region below the first area 41. In the acquired three-dimensional distance image, the pixels in the region corresponding to the orbit side boundary 41b in the first area 41 have a large distance or the distance cannot be measured. Similarly, the pixels in the region corresponding to the other boundary 41c in the first area 41b also have a large distance or the distance cannot be measured. The effective distance acquired by the sensor 22 is predetermined, for example, 1 mm to 2500 mm, and an ND value is given instead of the distance as non-measurable to a pixel that has obtained a distance other than the effective distance. . Accordingly, an effective distance can be obtained from the acquired three-dimensional distance image only for pixels corresponding to the area of the boundary 41a on the floor surface side. This effective distance is given as a boundary distance to each pixel of the boundary 41a on the floor surface side.

次に、車両が走行する軌道側の検知エリアの境界を含むように三次元距離画像を取得する時には、複数の三次元距離画像が、車両6が軌道5上を走行している時に取得される。軌道側の検知エリアの境界は、軌道上を走行する車両6とセンサ22との間の距離に基づいて決定される。装置10は、車両6が軌道5を走行している時間帯(例えば昼間)に、センサ22を用いて、三次元距離画像を取得する。装置10は、支障物検知装置20から受信した各三次元距離画像に対して、距離画像の軌道側の領域の画素の所定の割合以上が測定不能である場合には、車両が不在であると判断する。また、装置10は、支障物検知装置20から受信した各三次元距離画像に対して、距離画像の軌道側の領域の画素の所定の割合未満が測定不能である場合には、車両が存在すると判断する。プラットホームへの車両の進入時の三次元距離画像として、車両が存在すると判断された時点から所定の時間が経過するまでに取得された複数の距離画像を用いる。また、プラットホームから出発時の車両の三次元距離画像として、車両が不在と判断された時点から所定の時間を遡って取得された複数の距離画像を用いる。ここで、三次元距離画像における軌道側の領域の画素は、支障物検知装置20が配置されるホームドア3の構成情報ファイルの情報に基づいて、装置10が判断する。   Next, when acquiring the three-dimensional distance image so as to include the boundary of the detection area on the track side where the vehicle travels, a plurality of three-dimensional distance images are acquired when the vehicle 6 is traveling on the track 5. . The boundary of the detection area on the track side is determined based on the distance between the vehicle 6 traveling on the track and the sensor 22. The apparatus 10 acquires a three-dimensional distance image using the sensor 22 in a time zone (for example, daytime) when the vehicle 6 is traveling on the track 5. The apparatus 10 indicates that the vehicle is absent when a predetermined ratio or more of the pixels in the region on the trajectory side of the distance image cannot be measured with respect to each three-dimensional distance image received from the obstacle detection apparatus 20. to decide. In addition, the device 10 has a vehicle in the case where less than a predetermined ratio of the pixels in the region on the trajectory side of the distance image is not measurable with respect to each three-dimensional distance image received from the obstacle detection device 20. to decide. As the three-dimensional distance image when the vehicle enters the platform, a plurality of distance images acquired until a predetermined time elapses from the time when it is determined that the vehicle exists is used. Further, as the three-dimensional distance image of the vehicle at the time of departure from the platform, a plurality of distance images acquired by tracing back a predetermined time from the time when the vehicle is determined to be absent is used. Here, the pixels of the region on the orbit side in the three-dimensional distance image are determined by the device 10 based on the information in the configuration information file of the platform door 3 where the obstacle detection device 20 is arranged.

取得された複数の三次元距離画像の距離に基づいて、第1エリア41における軌道側の境界41bの境界距離が決定される。ここで、車両の走行中に取得された三次元距離画像では、画素の距離は、一定ではなく変化する。そこで、まず、車両が存在する時に取得された複数の三次元距離画像の画素の内、車両が不在の時には距離が測定不能であった画素が、軌道側の境界41bの領域に対応する画素であると決定する。次に、軌道側の境界41bの領域に対応する画素であると決定された各画素に対して、変化する距離の内の最小値を、その画素の境界距離として決定する。   Based on the distances of the acquired three-dimensional distance images, the boundary distance of the track-side boundary 41b in the first area 41 is determined. Here, in the three-dimensional distance image acquired while the vehicle is traveling, the pixel distance is not constant but changes. Therefore, first, among the pixels of the plurality of three-dimensional distance images acquired when the vehicle is present, the pixels whose distance cannot be measured when the vehicle is absent are pixels corresponding to the region on the track side boundary 41b. Determine that there is. Next, for each pixel determined to be a pixel corresponding to the region on the orbit side boundary 41b, the minimum value among the changing distances is determined as the boundary distance of the pixel.

上述した説明では、実際の車両を用いて、軌道側の検知エリアの境界を含むように三次元距離画像を取得したが、図9に示すように、車両の輪郭を模擬した車両治具50を軌道5上に走行させて、軌道側の境界を含むように三次元距離画像を取得してもよい。車両の表面は、塗装等の表面の状態によって、センサ22が照射するレーザ光が十分に反射して戻らないために距離が測定できない場合がある。そのような場合には、車両治具50を用いて、軌道側の検知エリアの境界を含むように三次元距離画像を取得される。   In the above description, a three-dimensional distance image is acquired using an actual vehicle so as to include the boundary of the detection area on the track side. However, as shown in FIG. A three-dimensional distance image may be acquired by running on the track 5 so as to include the boundary on the track side. Depending on the state of the surface of the vehicle such as paint, the surface of the vehicle may not be able to measure the distance because the laser light emitted by the sensor 22 is not sufficiently reflected and returned. In such a case, a three-dimensional distance image is acquired using the vehicle jig 50 so as to include the boundary of the detection area on the track side.

最後に、ホームドア側の検知エリアの境界を含むように三次元距離画像を取得する時には、複数の三次元距離画像が、ドアパネル33が開閉している状態で取得される。取得された三次元距離画像の距離に基づいて、ドアパネル側の境界42a(ドアパネルの部分の境界)の境界距離が、以下のように決定される。ここで、ドアパネル33が開閉している間に取得された三次元距離画像では、複数の三次元距離画像の画素の内、画素の距離が変化している画素が、ドアパネル側の境界42aの領域に対応する画素であると決定する。次に、ドアパネル側の境界42aの領域に対応する画素であると決定された各画素に対して、変化する距離の内の最小値を、その画素の境界距離として与えられて、ドアパネル側の境界42aの境界距離が決定される。   Finally, when acquiring a three-dimensional distance image so as to include the boundary of the detection area on the home door side, a plurality of three-dimensional distance images are acquired in a state where the door panel 33 is opened and closed. Based on the distance of the acquired three-dimensional distance image, the boundary distance of the door panel side boundary 42a (the boundary of the door panel portion) is determined as follows. Here, in the three-dimensional distance image acquired while the door panel 33 is opened and closed, the pixel whose pixel distance is changing among the pixels of the plurality of three-dimensional distance images is the region of the boundary 42a on the door panel side. Is determined to be a pixel corresponding to. Next, for each pixel determined to be a pixel corresponding to the region of the boundary 42a on the door panel side, the minimum value among the changing distances is given as the boundary distance of the pixel, and the boundary on the door panel side The boundary distance 42a is determined.

次に、ステップS16において、装置10は、各支障物検知装置20を、学習モードから検知モードに切り替える。各支障物検知装置20は、検知エリア内の支障物の検知を開始する。   Next, in step S16, the device 10 switches each obstacle detection device 20 from the learning mode to the detection mode. Each obstacle detection device 20 starts detecting obstacles in the detection area.

次に、ステップS18において、装置10は、各支障物検知装置20のセンサ22が取得した三次元距離画像を処理して、検知エリア40を生成する。検知エリアを生成する処理の具体的な説明を、図10〜図15を参照して、以下に説明する。   Next, in step S <b> 18, the device 10 generates a detection area 40 by processing the three-dimensional distance image acquired by the sensor 22 of each obstacle detection device 20. A specific description of the process for generating the detection area will be described below with reference to FIGS.

まず、図10に示すように、検知エリアを生成するための三次元距離画像は、軌道側の領域である第1エリア41と、ホームドア3側の領域である第2エリア42に分割される。そして、ホームドア側の除外領域42eが、例えば、右側の縦一列の画素が、検知エリアから除かれる。図10〜図14に示す三次元距離画像は、支障物検知装置20のセンサ22により取得される距離画像と同じ画素数を有しており、この検知エリアを生成する三次元距離画像の各画素に対して決定された境界距離が、支障物検知装置の検知エリアの境界を決定する。図10〜図15を参照して説明する処理は、各支障物検知装置の検知エリアの生成処理に対して適用される。   First, as shown in FIG. 10, the three-dimensional distance image for generating the detection area is divided into a first area 41 that is a region on the track side and a second area 42 that is a region on the platform door 3 side. . Then, the exclusion area 42e on the platform door side, for example, the right vertical row of pixels is excluded from the detection area. 10 to 14 has the same number of pixels as the distance image acquired by the sensor 22 of the obstacle detection device 20, and each pixel of the three-dimensional distance image that generates this detection area. The boundary distance determined for determines the boundary of the detection area of the obstacle detection device. The process described with reference to FIGS. 10 to 15 is applied to the detection area generation process of each obstacle detection device.

次に、図11に示すように、装置10は第2エリア42を、ドアパネル側の境界42aと、奥面側の境界42bと、上方の境界42cと、下方の境界42dとに分割する。ここで、検知エリアを生成するための三次元距離画像において、奥面側の境界42bと、上方の境界42cと、下方の境界42dは、ホームドア毎に、予め定められている。第2エリア42において、奥面側の境界42bと、上方の境界42cと、下方の境界42dを除いた領域が、ドアパネル側の境界42aとなる。ホームドア側の検知エリアの境界を含むように取得された三次元距離画像を用いて、ドアパネル側の境界42aと、奥面側の境界42bと、上方の境界42cと、下方の境界42dそれぞれの境界距離が、検知エリアを生成するための三次元距離画像に読み込まれる。   Next, as shown in FIG. 11, the apparatus 10 divides the second area 42 into a door panel side boundary 42a, a back surface side boundary 42b, an upper boundary 42c, and a lower boundary 42d. Here, in the three-dimensional distance image for generating the detection area, the boundary 42b on the back surface side, the upper boundary 42c, and the lower boundary 42d are predetermined for each platform door. In the second area 42, a region excluding the rear boundary 42b, the upper boundary 42c, and the lower boundary 42d is the door panel side boundary 42a. Using the three-dimensional distance image acquired so as to include the boundary of the detection area on the home door side, each of the boundary 42a on the door panel side, the boundary 42b on the back surface side, the upper boundary 42c, and the lower boundary 42d The boundary distance is read into a three-dimensional distance image for generating a detection area.

次に、図12に示すように、第1エリア41に対して、プラットホームの床面側の検知エリアの境界を含むように取得された三次元距離画像を用いて、床面側の境界41a及び境界41aの各画素の境界距離が、検知エリアを生成するための三次元距離画像に読み込まれる。   Next, as shown in FIG. 12, the floor-side boundary 41a and the first-area 41 are obtained using a three-dimensional distance image acquired so as to include the boundary of the detection area on the floor surface side of the platform. The boundary distance of each pixel of the boundary 41a is read into a three-dimensional distance image for generating a detection area.

次に、図13に示すように、車両が走行する軌道側の検知エリアの境界を含むように取得された三次元距離画像を用いて、軌道側の境界41b及び境界41bの各画素の境界距離が、検知エリアを生成するための三次元距離画像に読み込まれる。そして、軌道側の境界41bの各画素の境界距離に対して、オフセットが調整される。本実施形態では、各画素の境界距離に対して、所定の距離だけ短くなるようにオフセットがなされる。このオフセット量は、軌道側の境界41bに対して、ホームドア毎に、予め定められている。   Next, as shown in FIG. 13, using the three-dimensional distance image acquired so as to include the boundary of the detection area on the track side where the vehicle travels, the boundary distance between the track side boundary 41b and each pixel of the boundary 41b Are read into a three-dimensional distance image for generating a detection area. Then, the offset is adjusted with respect to the boundary distance between the pixels on the orbit side boundary 41b. In the present embodiment, the offset is made to be shorter than the boundary distance of each pixel by a predetermined distance. This offset amount is predetermined for each platform door with respect to the track-side boundary 41b.

次に、図14に示すように、床面側の境界41aの各画素の境界距離に対して、オフセットが調整される。本実施形態では、各画素の境界距離に対して、所定の距離だけ短くなるようにオフセットがなされる。このオフセット量は、床面側の境界41aに対して、ホームドア毎に、予め定められている。図14では、床面側の境界41aに対してオフセットを調整する前の境界を鎖線で示す。各画素の境界距離に対して、所定の距離だけ短くなるようにオフセットした結果、床面側の境界41aの位置の高さが上昇するように変化する。   Next, as shown in FIG. 14, the offset is adjusted with respect to the boundary distance of each pixel of the boundary 41a on the floor surface side. In the present embodiment, the offset is made to be shorter than the boundary distance of each pixel by a predetermined distance. This offset amount is predetermined for each platform door with respect to the boundary 41a on the floor surface side. In FIG. 14, the boundary before adjusting the offset with respect to the floor-side boundary 41a is indicated by a chain line. As a result of being offset with respect to the boundary distance of each pixel so as to be shortened by a predetermined distance, the height of the position of the boundary 41a on the floor surface side changes.

上述した説明では、第1エリア41において、検知エリアを生成するための三次元距離画像に対して、床面側の境界41aを読み込んだ後、軌道側の境界41bを読み込んでいたが、この順番は逆であってもよい。ただし、境界のオフセットを調整する順番は、軌道側の境界41bのオフセットを調整した後、床面側の境界41aのオフセットを調整することが好ましい。   In the above description, in the first area 41, the floor-side boundary 41a is read and then the track-side boundary 41b is read for the three-dimensional distance image for generating the detection area. May be reversed. However, the order of adjusting the offset of the boundary is preferably adjusted after adjusting the offset of the track-side boundary 41b and then adjusting the offset of the floor-side boundary 41a.

また、車両の輪郭を模擬した車両治具50を軌道5上に走行させて、軌道側の境界を含むように三次元距離画像を取得した時には、プラットホームが長手方向において湾曲している場合には、車両の内軌道の補正を境界41bの各画素の境界距離に対して行うことが好ましい。プラットホームが長手方向において湾曲している場合には、車両の側面の一部は、軌道上に位置する車輪よりもプラットホーム側に張り出すような軌道を有するためである。   Further, when the vehicle jig 50 simulating the contour of the vehicle travels on the track 5 and a three-dimensional distance image is acquired so as to include the boundary on the track side, the platform is curved in the longitudinal direction. It is preferable to correct the inner track of the vehicle with respect to the boundary distance of each pixel of the boundary 41b. This is because, when the platform is curved in the longitudinal direction, a part of the side surface of the vehicle has a track that protrudes to the platform side from the wheels located on the track.

次に、図15に示すように、ドアパネル側の境界42aの各画素の境界距離に対して、オフセットが調整される。本実施形態では、各画素の境界距離に対して、所定の距離だけ短くなるようにオフセットがなされる。このオフセット量は、ドアパネル側の境界42aに対して、ホームドア毎に、予め定められている。   Next, as shown in FIG. 15, the offset is adjusted with respect to the boundary distance of each pixel of the door panel side boundary 42a. In the present embodiment, the offset is made to be shorter than the boundary distance of each pixel by a predetermined distance. This offset amount is predetermined for each home door with respect to the boundary 42a on the door panel side.

次に、第2エリア42における奥面側の境界42bの各画素の境界距離に対して、オフセットが調整される。本実施形態では、各画素の境界距離に対して、所定の距離だけ短くなるようにオフセットがなされる。このオフセット量は、奥面側の境界42bに対して、ホームドア毎に、予め定められている。ここで、奥面側の境界42bの画素の境界距離が、測定不能の場合には、予め定められている数値が、画素の境界距離として与えられる。   Next, the offset is adjusted with respect to the boundary distance of each pixel of the boundary 42 b on the back surface side in the second area 42. In the present embodiment, the offset is made to be shorter than the boundary distance of each pixel by a predetermined distance. This offset amount is determined in advance for each platform door with respect to the boundary 42b on the back surface side. Here, when the boundary distance between the pixels of the boundary 42b on the back surface side is not measurable, a predetermined numerical value is given as the boundary distance between the pixels.

次に、検知エリアの境界を含むように取得された三次元距離画像を用いて、第1エリア41におけるその他の境界41cの各画素の境界距離が、検知エリアを生成するための三次元距離画像に読み込まれる。そして、第1エリア41におけるその他の境界41cの各画素の境界距離に対して、オフセットが調整される。本実施形態では、各画素の境界距離に対して、所定の距離だけ短くなるようにオフセットがなされる。このオフセット量は、その他の境界41cに対して、ホームドア毎に、予め定められている。ここで、その他の境界41cの画素の境界距離が、測定不能の場合には、予め定められている数値が、画素の境界距離として与えられる。そして、オフセットが調整された後、その他の境界41cの各画素の境界距離と、所定の第1閾値とを比較し、その他の境界41cの各画素の境界距離が、所定の第1閾値よりも大きければ、所定の第1閾値がその画素の境界距離として与えられる。この処理は、例えば、センサ22から照射された光の反射角度が低い場合には、正確な境界距離が得られない場合があり、そのような誤差を補正するためである。   Next, using the three-dimensional distance image acquired so as to include the boundary of the detection area, the boundary distance of each pixel of the other boundary 41c in the first area 41 is a three-dimensional distance image for generating the detection area. Is read. Then, the offset is adjusted with respect to the boundary distance of each pixel of the other boundary 41 c in the first area 41. In the present embodiment, the offset is made to be shorter than the boundary distance of each pixel by a predetermined distance. This offset amount is predetermined for each platform door with respect to the other boundary 41c. Here, when the boundary distance of the pixel of the other boundary 41c cannot be measured, a predetermined numerical value is given as the boundary distance of the pixel. Then, after the offset is adjusted, the boundary distance of each pixel of the other boundary 41c is compared with a predetermined first threshold value, and the boundary distance of each pixel of the other boundary 41c is larger than the predetermined first threshold value. If it is larger, a predetermined first threshold is given as the boundary distance of the pixel. This process is intended to correct such an error, for example, when the reflection angle of light emitted from the sensor 22 is low, an accurate boundary distance may not be obtained.

次に、第1エリア41における上方の境界42c及び下方の境界42dの各画素の境界距離に対して、オフセットが調整される。本実施形態では、各画素の境界距離に対して、所定の距離だけ短くなるようにオフセットがなされる。このオフセット量は、上方の境界42c及び下方の境界42dに対して、ホームドア毎に、予め定められている。ここで、上方の境界42c及び下方の境界42dの画素の境界距離が、測定不能の場合には、予め定められている数値が、画素の境界距離として与えられる。そして、オフセットが調整された後、上方の境界42c及び下方の境界42dの各画素の境界距離と、所定の第2閾値とを比較して、上方の境界42c及び下方の境界42dの各画素の境界距離が、所定の第2閾値よりも大きければ、所定の第2閾値がその画素の境界距離として与えられる。この処理は、例えば、センサ22から照射された光の反射角度が低い場合には、正確な境界距離が得られない場合があり、そのような誤差を補正するためである。   Next, the offset is adjusted with respect to the boundary distance of each pixel of the upper boundary 42 c and the lower boundary 42 d in the first area 41. In the present embodiment, the offset is made to be shorter than the boundary distance of each pixel by a predetermined distance. This offset amount is predetermined for each platform door with respect to the upper boundary 42c and the lower boundary 42d. Here, when the boundary distance between the pixels of the upper boundary 42c and the lower boundary 42d cannot be measured, a predetermined numerical value is given as the pixel boundary distance. Then, after the offset is adjusted, the boundary distance of each pixel of the upper boundary 42c and the lower boundary 42d is compared with a predetermined second threshold value, and each pixel of the upper boundary 42c and the lower boundary 42d is compared. If the boundary distance is larger than the predetermined second threshold value, the predetermined second threshold value is given as the boundary distance of the pixel. This process is intended to correct such an error, for example, when the reflection angle of light emitted from the sensor 22 is low, an accurate boundary distance may not be obtained.

以上が、ステップS18の処理の説明である。   The above is description of the process of step S18.

次に、ステップS20において、装置10は、各検知エリアの断面積が、所定の閾値よりも大きいか否かを判断する。この処理は、生成された検知エリアが、小さすぎないことを検証するものである。以下、この処理を具体的に、図16を参照して説明する。   Next, in step S20, the apparatus 10 determines whether the cross-sectional area of each detection area is larger than a predetermined threshold value. This process verifies that the generated detection area is not too small. Hereinafter, this process will be specifically described with reference to FIG.

図16に示すように、まず、ステップS20までに生成された検知エリア40内に、複数の仮想断面40a、40b、40c、40d・・・が設けられる。各断面40a、40b、40c、40d・・・は、走査角度を異ならせて、センサ22から検知エリア40の境界まで延びるように形成される。次に、各断面40a、40b、40c、40d・・・の断面積Sa、Sb、Sc、Sd・・・が求められる。ここで、断面積Sa、Sb、Sc、Sd・・・は、各断面においてセンサ22から照射された光の走査線の検知範囲の距離として求められる。次に、各断面における走査線の検知範囲の距離の累計が求められる。次に、走査線の距離の累計と、所定の基準値とが比較される。走査線の距離の累計が、所定の基準値に対して所定の割合以上大きければ、その走査線の距離の累計は正常であると判断される。即ち、検知エリアの断面積が、所定の閾値よりも大きいと判断される。一方、走査線の距離の累計が、所定の基準値に対して所定の割合未満であれば、その走査線の距離の累計は正常ではないと判断される。即ち、検知エリアの断面積が、所定の閾値よりも小さいと判断される。所定の基準値は、ホームドア、ドアパネルの寸法、センサの照射角度等に基づいて、経験上得られた値を用いることができる。全ての走査線の距離の累計が正常であると判断された検知エリアは、正常に設定されたと判断される。   As shown in FIG. 16, first, a plurality of virtual cross sections 40a, 40b, 40c, 40d,... Are provided in the detection area 40 generated up to step S20. Each of the cross sections 40a, 40b, 40c, 40d,... Is formed to extend from the sensor 22 to the boundary of the detection area 40 with different scanning angles. Next, cross-sectional areas Sa, Sb, Sc, Sd... Of the respective cross-sections 40a, 40b, 40c, 40d. Here, the cross-sectional areas Sa, Sb, Sc, Sd,... Are obtained as distances in the detection range of the scanning line of the light emitted from the sensor 22 in each cross section. Next, the total distance of the scanning line detection range in each cross section is obtained. Next, the accumulated distance of the scanning lines is compared with a predetermined reference value. If the total distance of scanning lines is greater than a predetermined ratio with respect to a predetermined reference value, it is determined that the total distance of scanning lines is normal. That is, it is determined that the cross-sectional area of the detection area is larger than a predetermined threshold value. On the other hand, if the total distance of the scanning lines is less than a predetermined ratio with respect to the predetermined reference value, it is determined that the total distance of the scanning lines is not normal. That is, it is determined that the cross-sectional area of the detection area is smaller than a predetermined threshold value. As the predetermined reference value, a value obtained from experience can be used based on the dimensions of the platform door, the door panel, the irradiation angle of the sensor, and the like. A detection area in which the total of the distances of all the scanning lines is determined to be normal is determined to be set normally.

一方、走査線の距離の累計が正常ではないと判断された検知エリアは正常ではないので、検知エリアを生成するための三次元距離画像の画素の境界距離の修正が、装置10のユーザによって行われる。   On the other hand, since the detection area in which the accumulated distance of the scanning lines is determined to be not normal is not normal, the correction of the boundary distance between the pixels of the three-dimensional distance image for generating the detection area is performed by the user of the apparatus 10. Is called.

次に、ステップS22において、装置10は、検知エリアの境界を含むように取得された3つの三次元距離画像における画素の距離から所定の値を減算した値が、対応する画素の境界距離よりも大きいか否かを判断する。以下、この処理を具体的に、図17を参照して説明する。この処理は、生成された検知エリアが、大きすぎないことを検証するものである。   Next, in step S22, the apparatus 10 determines that the value obtained by subtracting a predetermined value from the pixel distance in the three three-dimensional distance images acquired so as to include the boundary of the detection area is greater than the boundary distance of the corresponding pixel. Judge whether it is large or not. Hereinafter, this process will be specifically described with reference to FIG. This process verifies that the generated detection area is not too large.

図17に示すように、検知エリアを生成するための三次元距離画像の各画素に対して、検知エリアの境界を含むように取得された三次元距離画像における対応する画素の距離Xから所定のオフセット距離aを減算した値Yを求める。次に、値Yが、ステップS20までに、検知エリアを生成するための三次元距離画像の各画素に対して求められた境界距離Zよりも大きいか否かを判断する。値Yが、境界距離Zよりも大きければ、その画素の境界距離Yは正常であると判断される。全ての画素に対して、境界距離Yが正常であると判断された検知エリアは、正常に設定されたと判断される。所定のオフセット距離aは、ホームドア、ドアパネルの寸法、センサの照射角度等に基づいて、経験上得られた値を用いることができる。   As shown in FIG. 17, for each pixel of the three-dimensional distance image for generating the detection area, a predetermined distance from the corresponding pixel distance X in the three-dimensional distance image acquired so as to include the boundary of the detection area is determined. A value Y obtained by subtracting the offset distance a is obtained. Next, it is determined whether or not the value Y is larger than the boundary distance Z obtained for each pixel of the three-dimensional distance image for generating the detection area by step S20. If the value Y is larger than the boundary distance Z, it is determined that the boundary distance Y of the pixel is normal. A detection area in which the boundary distance Y is determined to be normal for all pixels is determined to be set normally. As the predetermined offset distance a, an empirically obtained value can be used based on the dimensions of the platform door, the door panel, the irradiation angle of the sensor, and the like.

一方、値Yが、境界距離Z以下である画素を含む検知エリアは、正常ではないので、検知エリアを生成するための三次元距離画像の画素の境界距離の修正が、装置10のユーザによって行われる。   On the other hand, since a detection area including a pixel whose value Y is equal to or smaller than the boundary distance Z is not normal, the boundary distance between the pixels of the three-dimensional distance image for generating the detection area is corrected by the user of the apparatus 10. Is called.

次に、ステップS24において、装置10は、生成した検知エリアを有する設定ファイルを用いて、各支障物検知装置20の設定ファイルを書き換える。各支障物検知装置20は、書き換えられた設定ファイルに基づいて、新しく生成された検知エリアを用いて、支障物の検知を行う。そして、装置10と、各支障物検知装置20との間のネットワークNを介した接続を切断する。   Next, in step S <b> 24, the device 10 rewrites the setting file of each obstacle detecting device 20 using the setting file having the generated detection area. Each obstacle detection device 20 detects an obstacle using a newly generated detection area based on the rewritten setting file. And the connection via the network N between the apparatus 10 and each obstacle detection apparatus 20 is cut | disconnected.

上述した本実施形態のシステムによれば、検知エリアの境界を含むように取得された三次元距離画像に基づいて検知エリアを生成できるので、従来の検知エリアを生成する作業と比べて、作業量を低減できる。特に、プラットホーム2上に配置された複数のホームドア3の検知エリアを生成する時には、ネットワークNを介して接続された装置10を用いて、一括して各検知エリアを生成できるので、従来の検知エリアを生成する作業と比べて、作業量を大きく低減できる。また、本実施形態のシステムによれば、車両側面の湾曲した形状、又は、ドアパネルの湾曲した形状に対応するように、検知エリアを生成できるので、支障物を検知する精度が向上する。   According to the system of the present embodiment described above, the detection area can be generated based on the three-dimensional distance image acquired so as to include the boundary of the detection area, and therefore, the workload is larger than the operation of generating the conventional detection area. Can be reduced. In particular, when generating detection areas for a plurality of home doors 3 arranged on the platform 2, each detection area can be generated in a batch using the device 10 connected via the network N, so that conventional detection is possible. The amount of work can be greatly reduced compared to the work of generating an area. Moreover, according to the system of this embodiment, since the detection area can be generated so as to correspond to the curved shape of the vehicle side surface or the curved shape of the door panel, the accuracy of detecting the obstacle is improved.

本発明では、上述した実施形態の検知エリアを生成する方法、装置、システム及びプログラムは、本発明の趣旨を逸脱しない限り適宜変更が可能である。   In the present invention, the method, apparatus, system, and program for generating the detection area of the above-described embodiment can be appropriately changed without departing from the gist of the present invention.

例えば、上述した実施形態では、装置10と、各支障物検知装置20とは、LANを介して接続されていたが、他のネットワークを用いて接続してもよい。また、ここで用いるネットワークは、有線でも無線のネットワークでもよい。   For example, in the above-described embodiment, the device 10 and each obstacle detection device 20 are connected via a LAN, but may be connected using another network. The network used here may be a wired or wireless network.

また、上述した実施形態では、鉄道の車両が停車するプラットホームのホームドアの検知エリアを生成することを説明していたが、検知エリアは、鉄道以外の車両、例えば路面電車、が停車するホームのホームドアのものであってもよい。   Moreover, although embodiment mentioned above demonstrated producing | generating the detection area of the platform door of the platform where a train vehicle stops, a detection area is a platform other than a railway, for example, a streetcar. It may be a home door.

1 システム
2 プラットホーム
3 ホームドア
5 軌道
6 車両
10 検知エリア生成装置
11 演算部
12 記憶部
13 入力部
14 表示部
15 通信部
N ネットワーク
20 支障物検知装置
21 制御部
22 三次元距離画像センサ
23 通信部
31 制御部
32 駆動部
33 ドアパネル
34 通信部
35 戸袋パネル
36 防護支柱
40 検知エリア
40a、40b、40c 断面
Sa、Sb、Sc 断面積
41 第1エリア
41a 床面側の境界
41b 軌道側の境界
41c その他の境界
42 第2エリア
42a ドアパネル側の境界
42b 奥面側の境界
42c 上方の境界
42d 下方の境界
42e 除外領域
50 車両治具
DESCRIPTION OF SYMBOLS 1 System 2 Platform 3 Home door 5 Track 6 Vehicle 10 Detection area production | generation apparatus 11 Calculation part 12 Memory | storage part 13 Input part 14 Display part 15 Communication part N Network 20 Obstacle detection apparatus 21 Control part 22 Three-dimensional distance image sensor 23 Communication part 31 Control Unit 32 Drive Unit 33 Door Panel 34 Communication Unit 35 Doorbag Panel 36 Protective Strut 40 Detection Area 40a, 40b, 40c Cross Section Sa, Sb, Sc Cross Section 41 First Area 41a Floor Side Boundary 41b Track Side Boundary 41c Others Boundary 42 second area 42a door panel side boundary 42b back surface side boundary 42c upper boundary 42d lower boundary 42e exclusion area 50 vehicle jig

Claims (14)

三次元距離画像センサを有し、車両が停車するホームのホームドアに設置される支障物検知装置の検知エリアを生成する方法であって、
前記三次元距離画像センサを用いて、前記検知エリアの境界を含むように三次元距離画像を取得し、
取得された前記三次元距離画像に基づいて、前記検知エリアを生成する方法。
A method of generating a detection area of an obstacle detection device that has a three-dimensional distance image sensor and is installed at a home door of a platform where a vehicle stops,
Using the three-dimensional distance image sensor, obtain a three-dimensional distance image so as to include the boundary of the detection area,
A method for generating the detection area based on the acquired three-dimensional distance image.
取得した前記三次元距離画像における各画素の距離に対してオフセットを調整して、検知エリアの境界を生成する請求項1に記載の方法。   The method according to claim 1, wherein a boundary of a detection area is generated by adjusting an offset with respect to a distance of each pixel in the acquired three-dimensional distance image. 車両が走行する軌道側の前記検知エリアの境界を含むように、前記三次元距離画像を取得する請求項1又は2に記載の方法。   The method according to claim 1, wherein the three-dimensional distance image is acquired so as to include a boundary of the detection area on a track side on which the vehicle travels. 車両が軌道上を走行している時に、前記軌道側の境界を含むように、前記三次元距離画像を取得する請求項3に記載の方法。   The method according to claim 3, wherein the three-dimensional distance image is acquired so as to include a boundary on the track side when the vehicle is traveling on a track. 車両の輪郭を模擬した車両治具を軌道上に走行させて、前記軌道側の境界を含むように、前記三次元距離画像を取得する請求項3に記載の方法。   The method according to claim 3, wherein the three-dimensional distance image is acquired so as to include a boundary on the track side by running a vehicle jig simulating the contour of the vehicle on the track. ホームの床面側の前記検知エリアの境界を含むように、前記三次元距離画像を取得する請求項1〜5の何れか一項に記載の方法。   The method according to claim 1, wherein the three-dimensional distance image is acquired so as to include a boundary of the detection area on the floor surface side of the home. ホームドア側の前記検知エリアの境界を含むように、前記三次元距離画像を取得する請求項1〜6の何れか一項に記載の方法。   The method according to claim 1, wherein the three-dimensional distance image is acquired so as to include a boundary of the detection area on a home door side. 生成された前記検知エリアの断面積が、所定の閾値よりも大きいか否かを判断する請求項1〜7の何れか一項に記載の方法。   The method according to claim 1, wherein it is determined whether a cross-sectional area of the generated detection area is larger than a predetermined threshold value. 生成された前記検知エリアは、前記三次元距離画像センサにより取得される各画素の境界距離に対応しており、
前記検知エリアの境界を含むように取得された前記三次元距離画像における対応する画素の距離から所定の値を減算した値が、前記境界距離よりも大きいか否かを判断する請求項1〜8の何れか一項に記載の方法。
The generated detection area corresponds to the boundary distance of each pixel acquired by the three-dimensional distance image sensor,
It is determined whether or not a value obtained by subtracting a predetermined value from the distance of a corresponding pixel in the three-dimensional distance image acquired so as to include the boundary of the detection area is larger than the boundary distance. The method according to any one of the above.
三次元距離画像センサを有し、車両が停車するホームの複数のホームドアそれぞれに設置される支障物検知装置の検知エリアを生成する方法であって、
各前記三次元距離画像センサを用いて、各前記検知エリアの境界を含むように三次元距離画像を取得し、
取得された各前記三次元距離画像に基づいて、各前記検知エリアを生成する方法。
A method of generating a detection area of an obstacle detection device having a three-dimensional distance image sensor and installed on each of a plurality of platform doors of a platform where a vehicle stops,
Using each of the three-dimensional distance image sensors, obtain a three-dimensional distance image so as to include the boundary of each of the detection areas,
A method for generating each detection area based on each acquired three-dimensional distance image.
三次元距離画像センサを有し、車両が停車するホームのホームドアに設置される支障物検知装置の検知エリアを生成する装置であって、
前記三次元距離画像センサを用いて、前記検知エリアの境界を含むように取得された前記三次元距離画像を記憶する記憶部と、
前記記憶部に記憶された前記三次元距離画像に基づいて、前記検知エリアを生成する演算部と、
を備える装置。
A device having a three-dimensional distance image sensor and generating a detection area of an obstacle detection device installed at a platform door of a platform where the vehicle stops,
A storage unit that stores the three-dimensional distance image acquired so as to include the boundary of the detection area using the three-dimensional distance image sensor;
A calculation unit that generates the detection area based on the three-dimensional distance image stored in the storage unit;
A device comprising:
三次元距離画像センサを有し、車両が停車するホームのホームドアに設置される支障物検知装置の検知エリアを生成するシステムであって、
前記支障物検知装置に配置され、前記検知エリアの境界を含むように三次元距離画像を取得可能な前記三次元距離画像センサと、
前記三次元距離画像を記憶する記憶部と、
前記記憶部に記憶された前記三次元距離画像に基づいて、前記検知エリアを生成する演算部と、
を備えるシステム。
A system that has a three-dimensional distance image sensor and generates a detection area of an obstacle detection device installed at a home door of a platform where a vehicle stops,
The three-dimensional distance image sensor arranged in the obstacle detection device and capable of acquiring a three-dimensional distance image so as to include a boundary of the detection area;
A storage unit for storing the three-dimensional distance image;
A calculation unit that generates the detection area based on the three-dimensional distance image stored in the storage unit;
A system comprising:
三次元距離画像センサを有し、車両が停車するホームの複数のホームドアそれぞれに設置される支障物検知装置の検知エリアを生成するシステムであって、
各前記支障物検知装置に配置され、各前記検知エリアの境界を含むように三次元距離画像を取得可能な前記三次元距離画像センサと、
各前記三次元距離画像を記憶する記憶部と、
前記記憶部に記憶された各前記三次元距離画像に基づいて、各前記検知エリアを生成する演算部と、
を備えるシステム。
A system that has a three-dimensional distance image sensor and generates a detection area of an obstacle detection device installed at each of a plurality of platform doors of a platform where a vehicle stops,
The three-dimensional distance image sensor that is arranged in each obstacle detection device and can acquire a three-dimensional distance image so as to include a boundary of each detection area;
A storage unit for storing each of the three-dimensional distance images;
A calculation unit that generates each of the detection areas based on each of the three-dimensional distance images stored in the storage unit;
A system comprising:
三次元距離画像センサを有し、車両が停車するホームのホームドアに設置される支障物検知装置の検知エリアを生成することをコンピュータに実行させるプログラムであって、
前記三次元距離画像センサを用いて、前記検知エリアの境界を含むように取得された三次元距離画像に基づいて、前記検知エリアを生成することをコンピュータに実行させるプログラム。
A program having a three-dimensional distance image sensor and causing a computer to generate a detection area of an obstacle detection device installed at a home door of a platform where a vehicle stops,
A program that causes a computer to generate the detection area based on a three-dimensional distance image acquired so as to include a boundary of the detection area using the three-dimensional distance image sensor.
JP2015138097A 2015-07-09 2015-07-09 Method, apparatus, system and program for generating detection area Active JP6587442B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015138097A JP6587442B2 (en) 2015-07-09 2015-07-09 Method, apparatus, system and program for generating detection area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015138097A JP6587442B2 (en) 2015-07-09 2015-07-09 Method, apparatus, system and program for generating detection area

Publications (2)

Publication Number Publication Date
JP2017019380A true JP2017019380A (en) 2017-01-26
JP6587442B2 JP6587442B2 (en) 2019-10-09

Family

ID=57889428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015138097A Active JP6587442B2 (en) 2015-07-09 2015-07-09 Method, apparatus, system and program for generating detection area

Country Status (1)

Country Link
JP (1) JP6587442B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018069918A (en) * 2016-10-28 2018-05-10 三菱電機プラントエンジニアリング株式会社 Sensing area adjustment tool
JP2018199434A (en) * 2017-05-29 2018-12-20 三菱電機株式会社 Movable platform fence and row of movable platform fence
CN109649411A (en) * 2019-01-02 2019-04-19 中铁第四勘察设计院集团有限公司 A kind of gate linkage being applicable in intelligence rail and method
KR20200021911A (en) * 2017-06-28 2020-03-02 비.이.에이. 일렉트로닉스 (베이징) 씨오., 엘티디. Safety protection for all solid platform screen doors
JP2021011224A (en) * 2019-07-09 2021-02-04 Jr東日本メカトロニクス株式会社 Obstacle detection device and obstacle detection system
JP2021014214A (en) * 2019-07-12 2021-02-12 ナブテスコ株式会社 Sensor, platform separation device and method and program for determination
CN114312853A (en) * 2021-12-03 2022-04-12 武汉万集光电技术有限公司 System, method, apparatus and storage medium for object detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011093514A (en) * 2009-09-29 2011-05-12 Nabtesco Corp Safety device for platform door
US20120188346A1 (en) * 2009-08-27 2012-07-26 Knorr-Bremse Systeme für Schienenfahrzeuge GmbH Monitoring device and method for monitoring an entry or exit area of an access opening of a vehicle to a building component
JP2013203118A (en) * 2012-03-27 2013-10-07 Japan Transport Engineering Co Movable platform gate apparatus and controlling method of the same
JP2014196963A (en) * 2013-03-29 2014-10-16 日本信号株式会社 Distance image processing system
JP2014196961A (en) * 2013-03-29 2014-10-16 日本信号株式会社 Object detection system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120188346A1 (en) * 2009-08-27 2012-07-26 Knorr-Bremse Systeme für Schienenfahrzeuge GmbH Monitoring device and method for monitoring an entry or exit area of an access opening of a vehicle to a building component
JP2011093514A (en) * 2009-09-29 2011-05-12 Nabtesco Corp Safety device for platform door
JP2013203118A (en) * 2012-03-27 2013-10-07 Japan Transport Engineering Co Movable platform gate apparatus and controlling method of the same
JP2014196963A (en) * 2013-03-29 2014-10-16 日本信号株式会社 Distance image processing system
JP2014196961A (en) * 2013-03-29 2014-10-16 日本信号株式会社 Object detection system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018069918A (en) * 2016-10-28 2018-05-10 三菱電機プラントエンジニアリング株式会社 Sensing area adjustment tool
JP2018199434A (en) * 2017-05-29 2018-12-20 三菱電機株式会社 Movable platform fence and row of movable platform fence
JP6999292B2 (en) 2017-05-29 2022-01-18 三菱電機株式会社 Movable home fence and movable home fence row
KR20200021911A (en) * 2017-06-28 2020-03-02 비.이.에이. 일렉트로닉스 (베이징) 씨오., 엘티디. Safety protection for all solid platform screen doors
JP2020527496A (en) * 2017-06-28 2020-09-10 比業電子(北京)有限公司B.E.A. Electronics(Beijing)Co.,Ltd. Safety protection device for use with full screen doors
JP6995119B2 (en) 2017-06-28 2022-01-14 比業電子(北京)有限公司 Safety protection device for full screen doors on rail transport platforms
KR102463674B1 (en) * 2017-06-28 2022-11-07 비.이.에이. 일렉트로닉스 (베이징) 씨오., 엘티디. Safety guards for all-solid platform screen doors
CN109649411A (en) * 2019-01-02 2019-04-19 中铁第四勘察设计院集团有限公司 A kind of gate linkage being applicable in intelligence rail and method
CN109649411B (en) * 2019-01-02 2023-12-15 中铁第四勘察设计院集团有限公司 Platform door linkage device and method suitable for intelligent rail
JP7285714B2 (en) 2019-07-09 2023-06-02 Jr東日本メカトロニクス株式会社 Obstacle detection device and obstacle detection system
JP2021011224A (en) * 2019-07-09 2021-02-04 Jr東日本メカトロニクス株式会社 Obstacle detection device and obstacle detection system
JP2021014214A (en) * 2019-07-12 2021-02-12 ナブテスコ株式会社 Sensor, platform separation device and method and program for determination
CN114312853B (en) * 2021-12-03 2023-11-14 武汉万集光电技术有限公司 System, method, device and storage medium for target detection
CN114312853A (en) * 2021-12-03 2022-04-12 武汉万集光电技术有限公司 System, method, apparatus and storage medium for object detection

Also Published As

Publication number Publication date
JP6587442B2 (en) 2019-10-09

Similar Documents

Publication Publication Date Title
JP6587442B2 (en) Method, apparatus, system and program for generating detection area
US10169674B2 (en) Vehicle type recognition method and fast vehicle checking system using the same method
JP4788722B2 (en) Autonomous mobile robot, self-position estimation method, environmental map generation method, environmental map generation device, and environmental map data structure
JP4165524B2 (en) Passing number detection device and method
TWI510756B (en) A shape measuring device, a shape measuring method, a manufacturing method and a program for a structure
KR101427364B1 (en) Scanning system for producing indoor map using LIDAR
TWI705230B (en) Vehicle size measuring device and vehicle size measuring method
JP5218479B2 (en) Mobile system
US20210223363A1 (en) Object detection on a path of travel and obstacle detection on railway tracks using free space information
JP6081549B1 (en) Vehicle type identification device, train fixed position stop detection device, and platform door control device
JP5414465B2 (en) Simulation system
JP4247720B2 (en) Passing number detection device and method
JP2017218151A (en) Platform door control device and platform door control method
CN105303887A (en) Method and device for monitoring a setpoint trajectory of a vehicle
JP6883995B2 (en) Congestion level notification system, congestion level detection method, and program
JP2010136563A (en) Device and method for inspecting pantograph type current collector
JP2019190909A (en) Contamination inspection system
JP6045483B2 (en) Train fixed position stop support system
JP6502107B2 (en) Home door control device and home door control method
KR20200111008A (en) Vehicle detection system using distance sensor and method of the same
JPH0618224A (en) Method and apparatus for measuring accuracy in assemblage
JP5426503B2 (en) Transport vehicle and driving support device
JP6645768B2 (en) Vehicle type identification device
JP7020324B2 (en) Line curvature estimation device and method
JP6404985B1 (en) Imaging device for detecting abnormality of range image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190910

R150 Certificate of patent or registration of utility model

Ref document number: 6587442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250