JP5653093B2 - Railway vehicle door safety confirmation device - Google Patents

Railway vehicle door safety confirmation device Download PDF

Info

Publication number
JP5653093B2
JP5653093B2 JP2010153443A JP2010153443A JP5653093B2 JP 5653093 B2 JP5653093 B2 JP 5653093B2 JP 2010153443 A JP2010153443 A JP 2010153443A JP 2010153443 A JP2010153443 A JP 2010153443A JP 5653093 B2 JP5653093 B2 JP 5653093B2
Authority
JP
Japan
Prior art keywords
image
distance image
distance
shape
safety confirmation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010153443A
Other languages
Japanese (ja)
Other versions
JP2012011987A (en
Inventor
登 梨木
登 梨木
浩孝 矢島
浩孝 矢島
英二 川村
英二 川村
浩幸 槇
浩幸 槇
美和 小山田
美和 小山田
神谷 登
登 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East Japan Railway Co
JR East Mechatronics Co Ltd
Original Assignee
East Japan Railway Co
JR East Mechatronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East Japan Railway Co, JR East Mechatronics Co Ltd filed Critical East Japan Railway Co
Priority to JP2010153443A priority Critical patent/JP5653093B2/en
Publication of JP2012011987A publication Critical patent/JP2012011987A/en
Application granted granted Critical
Publication of JP5653093B2 publication Critical patent/JP5653093B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Train Traffic Observation, Control, And Security (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、鉄道車両用ドアの安全確認装置に関し、特に、鉄道車両のドアが閉じたときに挟まれた物の立体形状から安全を確認する鉄道車両用ドアの安全確認装置に関する。   The present invention relates to a railway vehicle door safety confirmation apparatus, and more particularly to a railway vehicle door safety confirmation apparatus that confirms safety from the three-dimensional shape of an object sandwiched when the railway vehicle door is closed.

従来より、鉄道車両のドアに物が挟まれたことを検知する技術が広く実用化されている。電車ではドアに物が挟まった状態が検知されると運転手等に知らされ、電車の安全運行が図られている。電車の乗降口のドアに物が挟まれると、ドアが完全に閉まらないことはセンサ等により検知される。エレベータ装置も、ドアに物が挟まれると、センサにより検出されて、ドアが閉じないような機構になっている。   2. Description of the Related Art Conventionally, a technique for detecting that an object has been caught between railcar doors has been widely put into practical use. When a state where an object is caught in a door is detected on the train, the driver is notified and the train is operated safely. When an object is caught in the door of the train entrance / exit, it is detected by a sensor or the like that the door is not completely closed. The elevator apparatus also has a mechanism in which when an object is caught in the door, it is detected by a sensor and the door does not close.

また、近年、鉄道駅のホームでは、電車・列車に乗降する旅客の安全性を高めるため、主に左右ドアの両開き構造を備えたホームドア装置の設置も進んでいる。例えば特開2010−7456号公報には、ホームドア装置においても、いわゆる戸挟み状態は、電気的なセンサにより、例えば過電流検知センサにより検知して、戸挟み状態を回避する技術が開示されている。   In recent years, in order to increase the safety of trains and passengers getting on and off trains at homes at railway stations, installation of home door devices mainly having double doors for the left and right doors is also proceeding. For example, Japanese Patent Application Laid-Open No. 2010-7456 discloses a technique for avoiding a door pinching state by detecting the so-called door pinching state with an electrical sensor, for example, an overcurrent detection sensor, even in a home door device. Yes.

特開2010−7456号公報(段落番号0003)JP 2010-7456 A (paragraph number 0003)

しかし、従来の戸挟み状態の検知は、物が挟まれていることを、電気的なセンサにより検出しているので、たとえ挟まれている物が電車の運行に支障の無いような物であっても、戸挟み状態として検知されてしまう、という問題があった。逆に、挟まれている物が、電車の運行に支障があるものであっても、電気的なセンサにより検出できない場合もあった。 そこで、本発明は、挟まれている物を画像処理により認識して、ドアが閉じた時の安全を確認することができる鉄道車両用ドアの安全確認装置を提供することを目的とする。   However, the detection of the conventional door pinching state uses an electric sensor to detect that an object is being pinched, so that the pinched object does not interfere with train operation. However, there was a problem that it was detected as a door pinched state. On the other hand, even if the sandwiched object has a hindrance to the train operation, it may not be detected by an electrical sensor. SUMMARY OF THE INVENTION An object of the present invention is to provide a railroad vehicle door safety confirmation device that can recognize an object sandwiched by image processing and confirm safety when the door is closed.

本発明の一態様によれば、少なくとも2以上の撮像素子によって撮像して得られた少なくとも2つの画像信号に基づいて生成され、各画素が距離あるいは3次元空間内の位置を示す値である距離画像を生成する距離画像生成部と、前記距離画像生成部で生成された距離画像と、予め記憶された鉄道車両のドアを含む所定の背景画像の距離画像とを比較することにより、前記生成された距離画像から前記所定の背景画像の部分を分離する背景画像分離部と、前記背景画像分離部において前記所定の背景画像の部分が分離されて残った距離画像から、前記ドアに挟まれている物の距離画像を抽出する物距離画像抽出部と、前記物距離画像抽出部において抽出された前記物の距離画像中の最も大きな距離値の断面の形状の時系列的な変化から、所定の時間の間における前記物の変形度合いを判定する変形度合い判定部と、前記物距離画像抽出部において抽出された前記物の距離画像から得られた前記物についての体積、形状分類、及び前記変形度合い判定部において判定された前記変形度合いのパラメータを含むパラメータ情報と、前記体積、前記形状分類及び前記変形度合いを含む情報に基づいて規定されたルールとに基づいて、前記ドアに関する安全の確認の判定を行う安全確認判定部と、を有する鉄道車両用ドアの安全確認装置を提供することができる。 According to one aspect of the present invention, a distance that is generated based on at least two image signals obtained by imaging with at least two or more image sensors and each pixel is a value indicating a distance or a position in a three-dimensional space. The distance image generation unit that generates an image, the distance image generated by the distance image generation unit, and the distance image of a predetermined background image including a door of a railcar stored in advance are generated by the comparison. A background image separating unit that separates the predetermined background image portion from the distance image , and a distance image that is left after the predetermined background image portion is separated by the background image separation unit. a distance image extracting unit extracts a range image of the object, from the time series changes in the cross-sectional shape of the largest distance value of the object distance image extracting unit distance in the image of the extracted the product in a predetermined And determining the deformation degree determining section deformation degree of the product during the time, the volume of the said product range image extracting unit the product obtained from the distance image of the extracted the product in, shape classification, and the degree of deformation and parameter information including a parameter of the degree of deformation which is determined in the determination section, the volume, the shape classification and, based on the based have been defined rule information including the deformation degree, the safety confirmation regarding said door It is possible to provide a safety confirmation device for a railway vehicle door having a safety confirmation determination unit that performs the determination.

本発明によれば、挟まれている物を画像処理により認識して、鉄道車両のドアが閉じた時の安全を確認することができる。   According to the present invention, it is possible to recognize an object sandwiched by image processing and confirm safety when the door of the railway vehicle is closed.

本発明の実施の形態に係る、ステレオカメラにより駅のホームを撮影している監視システム1を説明するための図である。It is a figure for demonstrating the monitoring system 1 which image | photographs the platform of a station with the stereo camera based on embodiment of this invention. 本発明の実施の形態に係るステレオカメラの外観図である。1 is an external view of a stereo camera according to an embodiment of the present invention. 本発明の実施の形態に係るステレオカメラSCの構成を示すブロック図である。It is a block diagram which shows the structure of the stereo camera SC which concerns on embodiment of this invention. 本発明の実施の形態に係るステレオカメラSCにより得られた距離画像の例を説明するための図である。It is a figure for demonstrating the example of the distance image obtained by stereo camera SC which concerns on embodiment of this invention. 本発明の実施の形態に係る、各ステレオカメラSCの認識処理部34における処理の内容を示すフローチャートであるIt is a flowchart which shows the content of the process in the recognition process part 34 of each stereo camera SC based on embodiment of this invention. 本発明の実施の形態に係る体積演算処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the volume calculation process which concerns on embodiment of this invention. 本発明の実施の形態に係る体積演算を説明するための図である。It is a figure for demonstrating the volume calculation which concerns on embodiment of this invention. 本発明の実施の形態に係る形状カテゴリーの分類処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the classification process of the shape category which concerns on embodiment of this invention. 本発明の実施の形態に係る予め決められた形状カテゴリーの分類の例を示す図である。It is a figure which shows the example of the classification | category of the predetermined shape category which concerns on embodiment of this invention. 本発明の実施の形態に係る変形度合い判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the deformation | transformation degree determination process which concerns on embodiment of this invention. 本発明の実施の形態に係る、物の変形を説明するための図である。It is a figure for demonstrating the deformation | transformation of the thing based on embodiment of this invention.

以下、図面を参照して本発明の実施の形態を説明する。ここでは、鉄道の駅のホーム端上に設置されたステレオカメラを用いて鉄道車両のドアの閉まったときの安全を確認する装置を例に挙げて説明する。
図1は、ステレオカメラにより、駅のホームを撮影している監視システム1を説明するための図である。図1は、ホームを電車の進行方向から見た図である。図1では、1つのステレオカメラSCのみが示されているが、複数のステレオカメラが、鉄道の線路が敷かれる地面G上の長いホームHの縁に沿って天井に設置され、電車とホームの全体を鉛直方向から監視している。各ステレオカメラは、電車Tが停止したときに、電車のドアに挟まれた物を撮像可能な位置に設置される。
Embodiments of the present invention will be described below with reference to the drawings. Here, an apparatus for confirming safety when a door of a railway vehicle is closed using a stereo camera installed on the platform end of a railway station will be described as an example.
FIG. 1 is a diagram for explaining a monitoring system 1 that photographs a station platform with a stereo camera. FIG. 1 is a view of the platform viewed from the direction of travel of the train. In FIG. 1, only one stereo camera SC is shown, but a plurality of stereo cameras are installed on the ceiling along the edge of the long home H on the ground G where the railroad tracks are laid. The whole is monitored from the vertical direction. Each stereo camera is installed at a position where an object captured by the train door can be imaged when the train T stops.

ホームHの端を監視する監視用カメラであるステレオカメラSCは、2つの撮像素子を有しており、各撮像素子の光学系は、所定の間隔を開けて光軸が互いに平行になるように配置されている。ステレオカメラSCは、図1に示すように、その撮像方向がホームHの線路側の端の床面に対して直交する方向となるように、固定されて設置されている。   The stereo camera SC, which is a monitoring camera that monitors the edge of the home H, has two image sensors, and the optical system of each image sensor is arranged so that the optical axes are parallel to each other with a predetermined interval. Has been placed. As shown in FIG. 1, the stereo camera SC is fixedly installed so that the imaging direction thereof is a direction orthogonal to the floor surface at the end of the platform H on the track side.

監視システム1は、複数のステレオカメラSC(図1では1台のステレオカメラのみ示している)と、ステレオカメラSCと通信ケーブルCBにより接続されたパーソナルコンピュータ(以下、PCと略す)11と、駅あるいは電車の制御装置12とを含んで構成されている。   The surveillance system 1 includes a plurality of stereo cameras SC (only one stereo camera is shown in FIG. 1), a personal computer (hereinafter abbreviated as PC) 11 connected to the stereo camera SC and a communication cable CB, a station, Or it is comprised including the control apparatus 12 of a train.

PC11及び制御装置12は、例えば、駅の監視室に配置され、駅員等の監視者は、PC11あるいは制御装置12に接続されたモニタに、各ステレオカメラSCにおいて取得された動画像を表示させて、駅ホームの様子を見ることができる。
PC11は、各ステレオカメラSCと通信を行い、各ステレオカメラSCへ、安全確認の処理の実行を指示し、各ステレオカメラSCからの検知信号を受信して制御装置12へ出力する。
For example, the PC 11 and the control device 12 are arranged in a monitoring room of a station, and a monitor such as a station staff displays a moving image acquired by each stereo camera SC on a monitor connected to the PC 11 or the control device 12. You can see the station platform.
The PC 11 communicates with each stereo camera SC, instructs each stereo camera SC to execute safety confirmation processing, receives a detection signal from each stereo camera SC, and outputs it to the control device 12.

制御装置12は、駅員等による指示が入力され、その指示をPC11へ伝える装置である。以下の例では、電車のドアが閉じたときに、安全確認の実行を指示する安全確認指示信号がPC11へ出力される。PC11は、その安全確認指示信号を受信すると、各ステレオカメラSCへ安全確認の処理を実行するように指示する所定のコマンドを出力する。なお、PC11は、安全確認指示信号をそのまま各ステレオカメラSCへ転送して安全確認の処理の実行をさせるようにしてもよい。   The control device 12 is a device that receives an instruction from a station staff or the like and transmits the instruction to the PC 11. In the following example, when a train door is closed, a safety confirmation instruction signal instructing execution of safety confirmation is output to the PC 11. When receiving the safety confirmation instruction signal, the PC 11 outputs a predetermined command instructing each stereo camera SC to execute the safety confirmation process. Note that the PC 11 may transfer the safety confirmation instruction signal to each stereo camera SC as it is to execute the safety confirmation process.

ステレオカメラSCは、そのコマンドを受信すると安全確認の処理を実行し、画像処理により所定の立体形状の物がドアに挟まれているかを判定し、その判定結果を検知信号としてPC11へ出力する。制御装置12は、その検知信号を受信すると、モニタ表示、音声出力等により監視者に所定の立体形状の物がドアに挟まれているあるいは挟まれていないことを告知する。   When the stereo camera SC receives the command, the stereo camera SC executes safety confirmation processing, determines whether an object having a predetermined three-dimensional shape is sandwiched between doors by image processing, and outputs the determination result to the PC 11 as a detection signal. When the control device 12 receives the detection signal, it notifies the monitor that a predetermined three-dimensional object is or is not sandwiched between the doors by monitor display, audio output, or the like.

(ステレオカメラSCの構成)
図2は、ステレオカメラの外観図である。ステレオカメラSCの筐体21の一側面には、例えば、2つの対物光学系22が所定の距離だけ離れて光軸が互いに平行になるように設けられている。2つの対物光学系22は、対物レンズであり、筐体21内の各対物レンズの後ろ側には、CMOSセンサ等の撮像素子が設けられている。2つの対物光学系22の設けられた面が、ホームHの床面に対向するように、ステレオカメラSCは、駅のホームH上に設置される。
(Configuration of stereo camera SC)
FIG. 2 is an external view of the stereo camera. On one side surface of the case 21 of the stereo camera SC, for example, two objective optical systems 22 are provided so that their optical axes are parallel to each other by a predetermined distance. The two objective optical systems 22 are objective lenses, and an imaging element such as a CMOS sensor is provided behind each objective lens in the housing 21. The stereo camera SC is installed on the platform H of the station so that the surface on which the two objective optical systems 22 are provided faces the floor of the platform H.

なお、ここでは、各ステレオカメラSCは、ステレオ撮像のために2つの撮像素子を有している例で説明するが、ステレオ撮像のために3つ以上の撮像素子を有していてもよく、少なくとも2つの撮像素子を有していればよい。   Here, each stereo camera SC will be described as an example having two image sensors for stereo imaging, but may have three or more image sensors for stereo imaging, It suffices to have at least two image sensors.

また、ステレオカメラSCには、PC11と接続するための通信ケーブルCBが接続されている。
図3は、ステレオカメラSCの構成を示すブロック図である。ステレオカメラSCは、カメラとしての2つのCMOSセンサ31、2つの画像取込部32、ステレオ処理部33、認識処理部34、通信部35を有しており、筐体21内の図示しない基板上に設けられている。本実施の形態では、2つの画像取込部32、ステレオ処理部33及び認識処理部34は、DSPにより構成される。
Further, a communication cable CB for connecting to the PC 11 is connected to the stereo camera SC.
FIG. 3 is a block diagram showing the configuration of the stereo camera SC. The stereo camera SC has two CMOS sensors 31, two image capturing units 32, a stereo processing unit 33, a recognition processing unit 34, and a communication unit 35 as cameras, and is mounted on a substrate (not shown) in the housing 21. Is provided. In the present embodiment, the two image capturing units 32, the stereo processing unit 33, and the recognition processing unit 34 are configured by a DSP.

各CMOSセンサ31は、対物光学系22からの光を受けて撮像信号を、対応する画像取込部32に出力する。   Each CMOS sensor 31 receives light from the objective optical system 22 and outputs an imaging signal to the corresponding image capturing unit 32.

各画像取込部32は、CMOSセンサ31からの撮像信号を取り込み、その撮像素子から画像信号を生成して、ステレオ処理部33に供給する処理部である。   Each image capturing unit 32 is a processing unit that captures an imaging signal from the CMOS sensor 31, generates an image signal from the imaging element, and supplies the image signal to the stereo processing unit 33.

ステレオ処理部33は、入力された2つの動画像の画像信号に基づき、立体形状に関する情報としての距離画像を生成する処理部である。距離画像は、各画素値が距離値である画像情報である。なお、距離画像は、画素値が3次元空間内の位置を示す情報であってもよい。すなわち、ステレオ処理部33は、2つの撮像素子によって撮像して得られた2つの画像信号に基づいて立体形状に関する情報を生成する立体形状情報生成部を構成する。   The stereo processing unit 33 is a processing unit that generates a distance image as information regarding a three-dimensional shape based on the input image signals of two moving images. The distance image is image information in which each pixel value is a distance value. The distance image may be information indicating the position of the pixel value in the three-dimensional space. That is, the stereo processing unit 33 configures a three-dimensional shape information generation unit that generates information regarding a three-dimensional shape based on two image signals obtained by imaging with two imaging elements.

認識処理部34は、ステレオ処理部33で得られた距離画像の情報に基づいて、立体形状を認識し、ドアが閉じたときの安全が確認されたことを示す、あるいは安全でないことを示す検知信号を出力する処理部である。   The recognition processing unit 34 recognizes the three-dimensional shape based on the information of the distance image obtained by the stereo processing unit 33, and indicates that the safety when the door is closed is confirmed or indicates that it is not safe. A processing unit that outputs a signal.

すなわち、認識処理部34は、ステレオ処理部33で生成された距離画像の情報に基づいて、画像中の、閉じたドアに挟まれている物の立体形状を認識し、その立体形状が所定の条件に合致しない場合あるいは合致した場合に、安全であるあるいは安全でないことを示す検知信号を出力する処理部である。   That is, the recognition processing unit 34 recognizes the three-dimensional shape of the object sandwiched between the closed doors in the image based on the information of the distance image generated by the stereo processing unit 33, and the three-dimensional shape is predetermined. This is a processing unit that outputs a detection signal indicating that it is safe or unsafe when the conditions are not met or met.

通信部35は、PC11からの所定のコマンドを受信すると認識処理部34に対して安全確認の処理を実行する指示を与え、認識処理部34から検知信号を受信すると、安全確認の判定情報としての検知信号をPC11へ送信する処理部である。通信部35は、図示しないインターフェース回路及びコネクタを介して、通信ケーブルCBに接続されている。   When the communication unit 35 receives a predetermined command from the PC 11, the communication unit 35 gives an instruction to execute a safety confirmation process to the recognition processing unit 34, and when receiving a detection signal from the recognition processing unit 34, It is a processing unit that transmits a detection signal to the PC 11. The communication unit 35 is connected to the communication cable CB via an interface circuit and a connector (not shown).

さらに、通信部35は、画像取込部32にも接続されており、CMOSセンサ31の両方あるいは一方から得られた動画像の画像信号を、所定のタイミングでPC11へ送信することができるようになっている。よって、PC11では、各ステレオカメラSCからの画像信号をモニタ上に表示することができる。   Further, the communication unit 35 is also connected to the image capturing unit 32 so that a moving image image signal obtained from both or one of the CMOS sensors 31 can be transmitted to the PC 11 at a predetermined timing. It has become. Therefore, the PC 11 can display the image signal from each stereo camera SC on the monitor.

図4は、ステレオカメラSCにより得られた距離画像の例を説明するための図である。
電車Tが駅において停車し乗客の乗降が済んで、電車の全ての乗降用のドアが閉じられると、上記のコマンドに基づいて、各ステレオカメラSCは、得られた画像に基づいて、安全確認の処理を実行する。
FIG. 4 is a diagram for explaining an example of a distance image obtained by the stereo camera SC.
When the train T stops at the station, passengers get on and off, and all the doors for getting on and off the train are closed, each stereo camera SC confirms safety based on the obtained image based on the above command. Execute the process.

ステレオカメラSCは固定されており、かつ電車T及びホームHの位置も動かないので、生成された距離画面IR中、電車T及びホームHの領域は固定である。図4は、ステレオカメラSCによる撮像され各画素の距離値が生成された領域の画像である。図4の距離画像IR中、斜線で示された、所定の領域、すなわち電車Tの領域TR、地面Gの領域GR、及びホームHの領域HRの各領域は、その距離値及び範囲が予め判っている領域である。電車Tの領域TRには、ドアが含まれる。   Since the stereo camera SC is fixed and the positions of the train T and the home H do not move, the areas of the train T and the home H are fixed in the generated distance screen IR. FIG. 4 is an image of an area captured by the stereo camera SC and the distance value of each pixel is generated. In the distance image IR of FIG. 4, the distance values and ranges of predetermined areas indicated by diagonal lines, that is, the area T of the train T, the area GR of the ground G, and the area HR of the home H are known in advance. It is an area. The area TR of the train T includes a door.

すなわち、これら3つの領域TR,GR,HRの範囲と距離の値は、予め判っており、一定である。よって、これらの領域において、所定の距離値の画素の領域は、背景画像の部分の画素領域であり、これらの領域において、所定の距離値でない画素の領域は、ドアに挟まっている物の立体形状の画素領域となる。   That is, the ranges and distance values of these three regions TR, GR, and HR are known in advance and are constant. Accordingly, in these areas, the pixel area having a predetermined distance value is a pixel area of the background image portion, and in these areas, the pixel area not having the predetermined distance value is a three-dimensional object sandwiched between doors. It becomes a pixel region of shape.

図4は、人Mと物SBが、画像IR中に存在することを示している。距離画像IR中、立っている人Mは、頭の部分の距離値は、頭頂までの距離が最も短く、頭頂から周囲にかけて徐々に長くなっていく。さらに肩の部分の距離値は、頭頂から所定の距離の範囲の中に、頭頂から所定の範囲内で肩の高さに相当する距離値となる。よって、このような距離値が得られれば、距離画像IR中、立っている人Mを認識することができる。
また、2つのドアに挟まれた物は、ホームHの端及びその近傍領域に存在し、かつ領域TR,GR,HRの距離値と異なる距離の物体として、認識することができる。
FIG. 4 shows that the person M and the object SB exist in the image IR. In the distance image IR, the standing person M has the shortest distance to the top of the head, and the distance from the top to the periphery gradually increases. Furthermore, the distance value of the shoulder portion is a distance value corresponding to the height of the shoulder within a predetermined range from the top of the head and within a predetermined range from the top of the head. Therefore, if such a distance value is obtained, the standing person M can be recognized in the distance image IR.
In addition, an object sandwiched between two doors can be recognized as an object that exists at the edge of the home H and in the vicinity thereof and has a distance different from the distance values of the areas TR, GR, and HR.

図4は、ホームHに人Mが存在し、棒状の物である物SBが、ホームHの端及びその近傍領域に存在していることが示されている。図4において、2点鎖線で示された建築限界内(ここではホームHの端及びその近傍)には、通常、物は存在していない。電車のドアが閉じたときに、ホームHの端及びその近傍領域に物が存在する場合、ドアに挟まれた物SBが存在する可能性がある。   FIG. 4 shows that there is a person M in the home H, and a bar-like object SB is present at the end of the home H and in the vicinity thereof. In FIG. 4, there is normally no object within the construction limit indicated by the two-dot chain line (here, the end of the home H and its vicinity). When there is an object at the edge of the platform H and in the vicinity thereof when the train door is closed, there may be an object SB sandwiched between the doors.

図4において、点線で示す領域41が、安全確認の処理の対象領域として予め設定される。領域41は、電車のドアが閉まったときに物が挟まれて電車の外に飛び出した部分が存在する可能性のある領域である。電車の停止位置は、予め決まっているので、その停止する可能性のある範囲内を含み、かつ挟まれた物の電車の外に飛び出した部分が存在する可能性のある領域が、ステレオカメラSCに領域41として設定される。   In FIG. 4, a region 41 indicated by a dotted line is set in advance as a target region for the safety confirmation process. The region 41 is a region where there is a possibility that there is a portion where objects are caught and jumped out of the train when the train door is closed. Since the stop position of the train is determined in advance, the area that includes the range where the train may stop and the part that has jumped out of the train of the sandwiched object may exist. Is set as area 41.

電車T、地面G及びホームHの領域及び距離は予め判っているので、その領域41内における電車T、地面G及びホームHの各領域TR,GR,HRの画素の情報が、DSP中の記憶領域に予め記憶されている。よって、後述するように、認識処理部34は、その領域41の距離画像と、予め記憶されている各領域TR,GR,HRの画素の情報とを比較することによって、背景分離処理が行われる。背景分離されて抽出された物の立体形状に基づき、安全確認の判定処理が行われる。   Since the areas and distances of the train T, the ground G, and the home H are known in advance, the pixel information of the areas TR, GR, and HR of the train T, the ground G, and the home H in the area 41 is stored in the DSP. Pre-stored in the area. Therefore, as will be described later, the recognition processing unit 34 performs the background separation process by comparing the distance image of the region 41 with the pixel information of each region TR, GR, HR stored in advance. . A safety confirmation determination process is performed based on the three-dimensional shape of the object separated and extracted.

認識処理部34は、ステレオ処理部33において距離画像が生成された距離画像に基づいて、ホームHの端及びその近傍に物が存在するか否か、そして、その物が電車の運行に支障があるか否かの判定を行い、判定結果として検知信号を出力する。 Based on the distance image generated by the stereo processing unit 33, the recognition processing unit 34 determines whether or not there is an object at the end of the home H and in the vicinity thereof, and that the object hinders the train operation. It is determined whether or not there is , and a detection signal is output as a determination result.

(処理の内容)
図5は、各ステレオカメラSCの認識処理部34における処理の内容を示すフローチャートである。
(Content of processing)
FIG. 5 is a flowchart showing the contents of processing in the recognition processing unit 34 of each stereo camera SC.

電車のドアが閉じて、発車する前に、ドアに物が挟まれていないか、あるいは挟まれていても、電車の運行等に支障のない物であるか、の安全確認が行われる。その安全確認は、各ステレオカメラSCにおいて、実行される。すなわち、各ステレオカメラSCが、鉄道車両用ドアの安全確認装置である。全てのドアについて、安全が確認されなければ電車は発車することができない。その安全確認のための指示は、安全確認指示信号によって行われる。   Before the train door closes and departs, a safety check is performed to confirm that no object is caught in the door, or that even if it is caught, there is no obstacle to train operation. The safety check is executed in each stereo camera SC. That is, each stereo camera SC is a safety confirmation device for a railcar door. Trains cannot be started unless safety is confirmed for all doors. The instruction for the safety confirmation is performed by a safety confirmation instruction signal.

安全確認指示信号は、例えば、駅に設置されたボタンが押されると制御装置12に入力されるようにしてもよいし、駅の監視室に設置されたボタンが押されると制御装置12に入力されるようにしてもよい。制御装置12は、安全確認指示信号が入力されると、その安全確認指示信号をPC11へ転送する。PC11は、その安全確認指示信号を受信すると、コマンドを各ステレオカメラSCへ転送する。   For example, the safety confirmation instruction signal may be input to the control device 12 when a button installed in the station is pressed, or input to the control device 12 when a button installed in the monitoring room of the station is pressed. You may be made to do. When the safety confirmation instruction signal is input, the control device 12 transfers the safety confirmation instruction signal to the PC 11. When receiving the safety confirmation instruction signal, the PC 11 transfers the command to each stereo camera SC.

PC11からの所定のコマンドが受信されると、通信部35は、安全確認の処理を実行するように認識処理部34に所定の信号を出力する。認識処理部34は、その所定の信号を受信すると、所定の時間の間、図5の処理を実行する。すなわち、認識処理は、所定の信号を受信した後に、一定時間の間実行される。   When a predetermined command is received from the PC 11, the communication unit 35 outputs a predetermined signal to the recognition processing unit 34 so as to execute a safety confirmation process. When the recognition processing unit 34 receives the predetermined signal, the recognition processing unit 34 performs the process of FIG. 5 for a predetermined time. That is, the recognition process is executed for a certain time after receiving a predetermined signal.

図5の処理は、DSPに含まれる認識処理部34によって実行される。まず、得られた距離画像中の所定の領域41内について、背景分離処理が実行される(ステップ(以下、Sと略す)1)。背景分離処理は、上述したように、電車T、地面G及びホームHの各領域及び距離は予め判っているので、その各領域及びその対応する距離の情報に合致する画素を背景画素の部分として、距離画像IRから分離する処理である。電車T、地面G及びホームHの各領域TR,GR,HRの画素の情報が、DSP中の記憶領域に予め記憶されている。背景分離処理では、その予め記憶されている各領域TR,GR,HRの画素の情報と、生成された距離画像の各画素を比較することによって、背景を分離することができる。その結果、領域41内において、背景でない画像のみの距離画像が抽出される。   The processing in FIG. 5 is executed by the recognition processing unit 34 included in the DSP. First, a background separation process is executed within a predetermined area 41 in the obtained distance image (step (hereinafter abbreviated as S) 1). As described above, in the background separation process, since the areas and distances of the train T, the ground G, and the home H are known in advance, the pixels that match the information on the areas and the corresponding distances are used as background pixel portions. This is a process of separating from the distance image IR. Information on the pixels in each of the areas TR, GR, and HR of the train T, the ground G, and the home H is stored in advance in a storage area in the DSP. In the background separation process, the background can be separated by comparing the pixel information of each of the regions TR, GR, and HR stored in advance with each pixel of the generated distance image. As a result, a distance image of only an image that is not a background is extracted in the region 41.

よって、S1は、生成された立体形状に関する情報である距離画像から、ドアを含む所定の背景画像の部分を分離する背景画像分離部を構成すると共に、所定の背景画像の部分が分離されて残った立体形状に関する情報である距離画像から、ドアに挟まれている物の立体形状に関する情報を抽出する立体形状物抽出部を構成する。   Therefore, S1 constitutes a background image separation unit that separates a part of a predetermined background image including a door from a distance image that is information on the generated three-dimensional shape, and a part of the predetermined background image is separated and remains The three-dimensional object extraction unit is configured to extract information regarding the three-dimensional shape of the object sandwiched between the doors from the distance image that is information regarding the three-dimensional shape.

次に、体積演算処理が実行される(S2)。体積演算の処理を、図6と図7を用いて説明する。図6は、体積演算処理の流れを示すフローチャートである。図7は、体積演算を説明するための図である。
図5においては、S1により物SBについての立体形状に関する情報である距離画像が抽出されるので、まず、その物SBの距離画像の各距離値に対応する断面積が演算される(S11)。図7に示すように、物SBは、ホームHの上から撮像されているので、物SBの下側の形状は、不明である。図7は、物SBの例として、傘を示している。図7は、傘がドアから水平方向に飛び出ている例を示す。物SBが傘である場合、その物は略円錐形状を有しているので、距離画像は上側の表面の距離値からなるデータである。
Next, a volume calculation process is executed (S2). The volume calculation process will be described with reference to FIGS. FIG. 6 is a flowchart showing the flow of the volume calculation process. FIG. 7 is a diagram for explaining the volume calculation.
In FIG. 5 , a distance image, which is information relating to the three-dimensional shape of the object SB, is extracted by S1, and first, a cross-sectional area corresponding to each distance value of the distance image of the object SB is calculated (S11). As shown in FIG. 7, since the object SB is imaged from above the home H, the shape of the lower side of the object SB is unknown. FIG. 7 shows an umbrella as an example of the object SB. FIG. 7 shows an example in which an umbrella protrudes horizontally from a door. When the object SB is an umbrella, since the object has a substantially conical shape, the distance image is data composed of distance values of the upper surface.

よって、体積演算では、物SBの下側の形状(2点鎖線で示す)を考慮せず、上側の距離画像のデータから、各距離値の断面積が演算される。まず、例えば、図7に示すように、抽出された物SBの最も外周側の距離値を有する画素PR1によって囲まれた領域(斜線で示す)の面積S1が演算される。図7において矢印Aで示す方向が、ステレオカメラSCの視線方向である。画素PR1の外縁の画素値は、すなわち距離値は、同じである。但し、ここでは、図4及び図7に示すように、物SBのドア側の部分の画素値は得られないので、ここでは、同じ距離値を有する画素PR1の描く曲線の端点を結んだ線で囲まれた領域の内側の面積が、断面積SS1とする。図7では、同じ距離値を有する画素PR1により形成される曲線(あるいは直線)と、その曲線の2つの端点Tを結んだ線TLとによって、囲まれた領域の面積が、画素PR1に対応する断面積となる。   Therefore, in the volume calculation, the cross-sectional area of each distance value is calculated from the upper distance image data without considering the lower shape (indicated by a two-dot chain line) of the object SB. First, for example, as shown in FIG. 7, the area S1 of a region (shown by hatching) surrounded by the pixel PR1 having the distance value on the outermost peripheral side of the extracted object SB is calculated. In FIG. 7, the direction indicated by the arrow A is the viewing direction of the stereo camera SC. The pixel value at the outer edge of the pixel PR1, that is, the distance value is the same. However, here, as shown in FIGS. 4 and 7, since the pixel value of the door side portion of the object SB cannot be obtained, here, the line connecting the end points of the curve drawn by the pixel PR1 having the same distance value The area inside the region surrounded by is the cross-sectional area SS1. In FIG. 7, the area surrounded by the curve (or straight line) formed by the pixels PR1 having the same distance value and the line TL connecting the two end points T of the curve corresponds to the pixel PR1. Cross-sectional area.

次に、最も外周側の距離値よりも次に距離値が大きい画素PR2によって囲まれた領域の面積SS2が、同様に演算される。さらに、続いて、面積SS2に対応する距離値PR2よりも次に距離値が大きい画素PR3によって囲まれた領域の面積SS3が演算される。このような断面積の演算が、物SBに関わる全ての距離値について行われる。S11の結果として、物SBの各距離値に応じた断面積が得られる。   Next, the area SS2 of the region surrounded by the pixel PR2 having the next largest distance value than the outermost distance value is calculated in the same manner. Subsequently, the area SS3 of the region surrounded by the pixel PR3 having the next largest distance value than the distance value PR2 corresponding to the area SS2 is calculated. Such calculation of the cross-sectional area is performed for all distance values related to the object SB. As a result of S11, a cross-sectional area corresponding to each distance value of the object SB is obtained.

次に、S11で得られた各断面積を距離値に基づいて正規化し、物SBの体積を演算して推定する(S12)。
S11で得られた各断面積は、ステレオカメラSCから物SBまでの距離に応じて、異なる。そこで、物SBまでの距離に応じた断面積の正規化が必要となる。ステレオカメラSCから物SBまでの距離は、例えば、物SBの距離画像における最小の距離値、あるいは、物SBの距離画像における距離値の平均値とする。S11で得られた各断面積に、ステレオカメラSCから物SBまでの距離値の二乗を乗算することによって、その断面積の正規化が行われる。なお、ステレオカメラSCから物SBまでの距離の決める方法は、別の方法でもよい。
Next, each cross-sectional area obtained in S11 is normalized based on the distance value, and the volume of the object SB is calculated and estimated (S12).
Each cross-sectional area obtained in S11 differs depending on the distance from the stereo camera SC to the object SB. Therefore, it is necessary to normalize the cross-sectional area according to the distance to the object SB. The distance from the stereo camera SC to the object SB is, for example, the minimum distance value in the distance image of the object SB or the average value of the distance values in the distance image of the object SB. The cross-sectional area is normalized by multiplying each cross-sectional area obtained in S11 by the square of the distance value from the stereo camera SC to the object SB. Note that another method may be used to determine the distance from the stereo camera SC to the object SB.

そして、正規化された各断面積から、物SBの体積Lを演算して求める(S12)。体積Lは、各断面積の和をとることにより得ることができる。 Then, the volume L of the object SB is calculated from each normalized cross-sectional area (S12). The volume L can be obtained by taking the sum of the cross-sectional areas.

図5に戻り、S2の次に、形状カテゴリーの分類処理が実行される(S3)。図8は、形状カテゴリーの分類処理の流れを示すフローチャートである。形状カテゴリーの分類処理を、図7と図8を用いて説明する。   Returning to FIG. 5, after S2, the shape category classification processing is executed (S3). FIG. 8 is a flowchart showing the flow of shape category classification processing. The shape category classification processing will be described with reference to FIGS.

まず、距離画像の断面の縦横比を演算して求める(S21)。この縦横比は、物SBの縦の長さと横の長さの比であり、図4と図7においては、例えば、ドアの表面に直交する方向を横方向としたときに、物SBのその横方向の長さと、その横方向に直交する縦方向の長さを求めて、その縦と横の長さの比が求められる。   First, the aspect ratio of the cross section of the distance image is calculated and obtained (S21). This aspect ratio is the ratio of the vertical length to the horizontal length of the object SB. In FIGS. 4 and 7, for example, when the direction orthogonal to the surface of the door is the horizontal direction, The length in the horizontal direction and the length in the vertical direction perpendicular to the horizontal direction are obtained, and the ratio between the vertical and horizontal lengths is obtained.

図7の場合、物SBは傘であるので、距離画像中の最も大きな距離値の断面積(SS1)の形状において、横方の長さLRと縦方向の長さLLから求めた縦横比(縦/横)は、小さくなる。また、バッグのような物の場合は、縦横比は、傘に比べて大きくなる。 For Figure 7, the object since SB is a umbrella, the shape of the cross-sectional area (SS1) of the largest distance value in the distance image, the aspect ratio obtained from the sideways direction length LR and the longitudinal length LL (Vertical / Horizontal) becomes smaller. Moreover, in the case of a thing like a bag, an aspect ratio becomes large compared with an umbrella.

そして、得られた縦横比から、形状カテゴリーの分類を決定する(S22)。形状カテゴリーは、縦横比に応じて、予め複数に分類されている。図9は、その予め決められた形状カテゴリーの分類の例を示す図である。図9のテーブルデータが、DSP内の所定の記憶領域に予め記憶される。
図9の場合、形状カテゴリーは、縦横比に応じて、10個に分類される。図9の場合、縦横比が1の物は、形状カテゴリーの中の分類C1に分類される。縦横比が0.5の物は、形状カテゴリーの中の分類C2に分類される。また、縦横比が0.1の物は、形状カテゴリーの中の分類C10に分類される。分類C1に属する物は、距離画像における物の形状が、正方形に近い、あるいは円形に近いものである。分類C10に属する物は、距離画像における物の形状が、棒状、あるいは棒状に近いものである。
Then, the classification of the shape category is determined from the obtained aspect ratio (S22). The shape category is previously classified into a plurality according to the aspect ratio. FIG. 9 is a diagram showing an example of classification of the predetermined shape category. The table data of FIG. 9 is stored in advance in a predetermined storage area in the DSP.
In the case of FIG. 9, the shape category is classified into 10 according to the aspect ratio. In the case of FIG. 9, an object having an aspect ratio of 1 is classified into a classification C1 in the shape category. A thing with an aspect ratio of 0.5 is classified into classification C2 in the shape category. A product having an aspect ratio of 0.1 is classified into classification C10 in the shape category. An object belonging to the classification C1 has an object shape in the distance image that is close to a square or close to a circle. An object belonging to the classification C10 has a bar shape or a bar-like shape in the distance image.

認識処理部34は、S21で得られた縦横比が、DSP内の所定の記憶領域に記憶された図9の形状カテゴリー情報に基づいて、図9のいずれの縦横比に近いかによって、形状カテゴリーの分類を決定する。すなわち、S22により、物SBの縦横比から形状分類の情報が得られる。例えば、S21で得られた縦横比の小数点2位以下を四捨五入することによって縦横比を決定し、その決定された縦横比と、図9の縦横比を比較して、分類が決定される。例えば、図7の場合、物SBの縦横比が0.1であれば、物SBは、分類C10に分類される。   Based on the shape category information of FIG. 9 stored in a predetermined storage area in the DSP, the recognition processing unit 34 determines the shape category based on which aspect ratio of FIG. Determine the classification. In other words, shape classification information is obtained from the aspect ratio of the object SB through S22. For example, the aspect ratio is determined by rounding off the second decimal place of the aspect ratio obtained in S21, and the classification is determined by comparing the determined aspect ratio with the aspect ratio of FIG. For example, in the case of FIG. 7, if the aspect ratio of the object SB is 0.1, the object SB is classified into the classification C10.

図5に戻り、S3の次に、変形度合い判定処理が実行される(S4)。図10は、変形度合い判定処理の流れを示すフローチャートである。図11は、物の変形を説明するための図である。変形度合い判定処理を、図10と図11を用いて説明する。   Returning to FIG. 5, after S3, a deformation degree determination process is executed (S4). FIG. 10 is a flowchart showing the flow of the deformation degree determination process. FIG. 11 is a diagram for explaining the deformation of an object. The deformation degree determination process will be described with reference to FIGS.

まず、認識処理部34は、距離画像の断面の時系列変換を検出する(S31)。距離画像中の最も大きな距離値の断面の形状が所定の時間内に、例えば1秒以内において、どの程度変化したかが検出される。例えば、あるタイミングにおけるその断面を構成する全画素と、所定の時間経過後の全画素とが比較される。その比較の結果、変化した画素が、全画素のどの程度の割合なのか、が求められる。   First, the recognition processing unit 34 detects time-series conversion of the cross section of the distance image (S31). It is detected how much the cross-sectional shape having the largest distance value in the distance image has changed within a predetermined time, for example, within one second. For example, all the pixels constituting the cross section at a certain timing are compared with all the pixels after a predetermined time has elapsed. As a result of the comparison, the ratio of the changed pixels to the total pixels is obtained.

図11は、領域41内の物SBの断面形状が、所定の時間の間に実線で示す形状から破線で示す形状に変化したとことを示している。図11では、斜線で示す領域が変化した画素の部分である。   FIG. 11 shows that the cross-sectional shape of the object SB in the region 41 has changed from the shape indicated by the solid line to the shape indicated by the broken line during a predetermined time. In FIG. 11, the hatched area is the changed pixel portion.

従って、認識処理部34は、その画素の変化した部分の割合に基づいて、物SBの変形度合いを判定し得る(S32)。   Accordingly, the recognition processing unit 34 can determine the degree of deformation of the object SB based on the ratio of the changed portion of the pixel (S32).

例えば、変化前の物SBの全画素に対する、斜線で示す変化した画素の割合が、50%以上であれば、物SBは、布等の柔らかい物であると判定される。その割合が、50%未満であれば、物SBは、硬い物であると判定される。よって、この変形度合い判定処理によって、物SBの変形度合いに応じて、物SBが「硬い」あるいは「柔らかい」に判定される。   For example, if the ratio of the changed pixels indicated by diagonal lines to all the pixels of the object SB before the change is 50% or more, the object SB is determined to be a soft object such as a cloth. If the ratio is less than 50%, the object SB is determined to be a hard object. Therefore, according to the deformation degree determination process, the object SB is determined to be “hard” or “soft” according to the deformation degree of the object SB.

なお、この変形度合いは、上述した例は、硬い」あるいは「柔らかい」の2段階に判定されるが、3段階以上細かく判定されるようにしてもよい。 Note that the degree of deformation is determined in two stages of hard” or “soft” in the above-described example, but may be determined in more than three stages.

図5に戻り、S4の次に、安全判定処理が実行される(S5)。この安全判定処理は、S2,S3,S4で得られた結果に基づいて、ルールベース処理によって行われる。よって、この判定処理は、認識処理部34内の推論エンジン部が、DSP内の記憶領域に予め記憶されたルールを用いて行う。ここでは、ルールは、上述した立体形状に関する情報である距離画像から得られた、物SBの体積、形状分類及び変形度合いの3つのパラメータ情報に基づいて規定される。   Returning to FIG. 5, next to S4, a safety determination process is executed (S5). This safety determination processing is performed by rule-based processing based on the results obtained in S2, S3, and S4. Therefore, this determination processing is performed by the inference engine unit in the recognition processing unit 34 using rules stored in advance in a storage area in the DSP. Here, the rule is defined based on the three parameter information of the volume, shape classification, and deformation degree of the object SB obtained from the distance image that is information on the above-described three-dimensional shape.

この所定のルールに基づく判定は、ここでは、電車のドアに挟まれた物が電車の運行に支障があるものであるか否かを基準に行われる。例えば、抽出された物SBが、その体積Lが所定の体積Lth以下であれば非常に小さいものであるので、形状カテゴリーの分類及び変形度合いに拘わらず、電車の運行に支障がない。よって、そのような場合、S5の安全判定処理は、距離画像から得られた各パラメータ情報とそのパラメータ情報に基づく所定のルールに従って、物SBは運行に問題ない物であることを示す検知信号(問題なしを示す信号)を生成する。 Here, the determination based on the predetermined rule is performed based on whether or not an object sandwiched between the train doors is an obstacle to train operation. For example, since the extracted object SB is very small if its volume L is equal to or less than a predetermined volume Lth, there is no problem in train operation regardless of the classification and deformation degree of the shape category. Therefore, in such a case, the safety determination process in S5 is performed by detecting the parameter SB obtained from the distance image and a predetermined signal based on the parameter information. Signal indicating no problem).

また、例えば、抽出された物SBの体積Lが所定の体積Lth以上であるが、縦横比も0.1で分類がC10であり、かつ変形度合いも50%以上を超えている場合は、物SBは、細長くかつ柔らかい物であるので、S5の安全判定処理は、物SBは運行に問題ない物であることを示す検知信号(問題なしを示す信号)を生成するように、ルールが設定される。 Also, for example, if the volume L of the extracted object SB is equal to or greater than the predetermined volume Lth, the aspect ratio is 0.1, the classification is C10, and the degree of deformation exceeds 50%, Since SB is a long and soft object, the rules are set so that the safety judgment process of S5 generates a detection signal (a signal indicating no problem) indicating that the object SB is an object that does not have a problem with operation. The

さらにまた、例えば、抽出された物SBの体積Lが所定の体積Lth以上であるが、縦横比も1.0で分類がC1であって、変形度合いが50%未満の場合は、物SBは、ある体積以上の大きさを有するバルク状の物であるので、S5の安全判定処理は、物SBは運行に支障がある物であることを示す検知信号(問題ありを示す信号)を生成するように、ルールが設定される。 Furthermore, for example, when the volume L of the extracted object SB is equal to or larger than the predetermined volume Lth, the aspect ratio is 1.0, the classification is C1, and the degree of deformation is less than 50%, the object SB is Since it is a bulky object having a size larger than a certain volume, the safety judgment process of S5 generates a detection signal (signal indicating that there is a problem) that the object SB is an obstacle to operation. As such, the rules are set.

さらにまた、例えば、抽出された物SBの体積Lが所定の体積Lth以上であるが、縦横比も0.1で分類がC10であり、かつ変形度合いが50%未満の場合は、物SBは、細長いが、硬い物であるので、S5の安全判定処理は、物SBは運行に支障がある物であることを示す検知信号(問題ありを示す信号)を生成するように、ルールが設定される。 Furthermore, for example, when the volume L of the extracted object SB is equal to or greater than the predetermined volume Lth, the aspect ratio is 0.1, the classification is C10, and the degree of deformation is less than 50%, the object SB is Since the object is slender but hard, the rule is set so that the safety judgment process of S5 generates a detection signal (signal indicating that there is a problem) that indicates that the object SB is an obstacle to operation. The

このように、安全判定処理は、電車の運行に支障があるか否かを基準に設定されたルールに基づいて行われる。以上に挙げた例以外にも各種のルールを設定して、ルールベース処理において用いられるルールとして予め設定しておくことによって、安全の確認の判定処理を、所望の目的に沿って行うことができる。   As described above, the safety determination process is performed based on a rule set based on whether or not there is an obstacle to train operation. By setting various rules in addition to the examples given above and setting them in advance as rules used in rule-based processing, the safety confirmation determination process can be performed in accordance with a desired purpose. .

以上のように、S5は、抽出された物SBの立体形状に関する情報である距離画像から得られた複数の所定のパラメータ情報と、所定のパラメータ情報に基づく所定のルールとに基づいて、ドアに関する安全の確認の判定を行う判定部を構成する。   As described above, S5 relates to the door based on a plurality of predetermined parameter information obtained from the distance image that is information regarding the three-dimensional shape of the extracted object SB and a predetermined rule based on the predetermined parameter information. A determination unit for determining safety confirmation is configured.

ルールは、過去の事故事例に基づいて作成し、問題のある場合の検知精度を上げることができる。例えば、ルールは、時間帯に応じて変更するようにしてもよい。
なお、ルールは、DSP内の書き換え可能な記憶領域に記憶させることによって、追加及び変更が可能である。
Rules can be created based on past accident cases to improve detection accuracy when there is a problem. For example, the rule may be changed according to the time zone.
Rules can be added and changed by storing them in a rewritable storage area in the DSP.

さらになお、上述した例では、判定の基準となるルールに用いられるパラメータ情報は、体積、形状分類及び変形度合いの3つであるが、これら3つの全てを用いていないルールを用いてもよい。さらに、これら3つ以外の他のパラメータを、ルールに関する所定のパラメータとして、使用し、あるいは上記3つのパラメータに追加して使用するようにしてもよい。   Furthermore, in the above-described example, the parameter information used for the rule serving as a determination criterion is three, that is, volume, shape classification, and deformation degree, but a rule that does not use all three may be used. Further, parameters other than these three may be used as predetermined parameters relating to the rule, or may be used in addition to the above three parameters.

上述したように、ルールベースで安全の確認処理を行うので、各種の物の形状等を検出するためのパラメータあるいはルールを作成して追加することによって、所望の物の判定をすることができる。   As described above, since safety confirmation processing is performed on a rule basis, a desired object can be determined by creating and adding parameters or rules for detecting the shape of various objects.

認識処理部34は、S5の判定結果通信部に出力する出力処理を実行する(S6)。よって、認識処理部34による判定結果は、PC11及び制御装置12に通信により伝達される。PC11あるいは制御装置12は、受信した判定結果に基づいて、必要な音声による警報を行う、あるいは電車のドアが開くように制御信号を出力する等を行うことができるので、ドアに挟まれた物が電車の運行等に支障がある場合に、電車を発車しないようにすることができる。 The recognition processing unit 34 executes output processing for outputting the determination result of S5 to the communication unit (S6). Therefore, the determination result by the recognition processing unit 34 is transmitted to the PC 11 and the control device 12 by communication. The PC 11 or the control device 12 can perform a warning by a necessary voice or output a control signal so that the train door opens based on the received determination result. If there is a problem with train operation, the train can be prevented from leaving.

なお、上述した実施の形態では、ドアの安全確認装置としてのステレオカメラSCが安全の確認処理を行っているが、認識処理部34の処理を、PC11の方で行うようにしてもよい。すなわち、ステレオカメラSCは、立体形状の情報として、距離画像を出力し、PC11あるいは制御装置12において、認識処理を実行するようにしても、上述した実施の形態と同様の効果を得ることができる。あるいは、ステレオカメラSCは、2つ以上の画像信号を出力し、PC11あるいは制御装置12において、距離画像の生成及び認識処理を実行するようにしても、上述した実施の形態と同様の効果を得ることができる。その場合、PC11が、ドアの安全確認装置の一部を構成する。   In the above-described embodiment, the stereo camera SC as the door safety confirmation device performs the safety confirmation process, but the process of the recognition processing unit 34 may be performed by the PC 11. That is, even if the stereo camera SC outputs a distance image as the information of the three-dimensional shape and executes the recognition process in the PC 11 or the control device 12, the same effect as the above-described embodiment can be obtained. . Alternatively, even if the stereo camera SC outputs two or more image signals, and the PC 11 or the control device 12 executes distance image generation and recognition processing, the same effects as those of the above-described embodiment can be obtained. be able to. In this case, the PC 11 constitutes a part of the door safety confirmation device.

以上のように、上述した本実施の形態に係る鉄道車両のドアの安全確認装置によれば、挟まれている物を画像処理により認識して、ドアが閉じた時の安全を確認することができる。
本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
As described above, according to the above-described railroad vehicle door safety confirmation device according to the present embodiment, it is possible to recognize a pinched object by image processing and confirm safety when the door is closed. it can.
The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.

1 監視システム、11 PC、12 制御装置、21 筐体、22 対物光学系、31 CMOSセンサ、32 画像取込部、33 ステレオ処理部、34 認識処理部、35 通信部 DESCRIPTION OF SYMBOLS 1 Monitoring system, 11 PC, 12 Control apparatus, 21 Case, 22 Objective optical system, 31 CMOS sensor, 32 Image capture part, 33 Stereo processing part, 34 Recognition processing part, 35 Communication part

Claims (3)

少なくとも2以上の撮像素子によって撮像して得られた少なくとも2つの画像信号に基づいて生成され、各画素が距離あるいは3次元空間内の位置を示す値である距離画像を生成する距離画像生成部と、
前記距離画像生成部で生成された距離画像と、予め記憶された鉄道車両のドアを含む所定の背景画像の距離画像とを比較することにより、前記生成された距離画像から前記所定の背景画像の部分を分離する背景画像分離部と、
前記背景画像分離部において前記所定の背景画像の部分が分離されて残った距離画像から、前記ドアに挟まれている物の距離画像を抽出する物距離画像抽出部と、
前記物距離画像抽出部において抽出された前記物の距離画像中の最も大きな距離値の断面の形状の時系列的な変化から、所定の時間の間における前記物の変形度合いを判定する変形度合い判定部と、
前記物距離画像抽出部において抽出された前記物の距離画像から得られた前記物についての体積、形状分類、及び前記変形度合い判定部において判定された前記変形度合いのパラメータを含むパラメータ情報と、前記体積、前記形状分類及び前記変形度合いを含む情報に基づいて規定されたルールとに基づいて、前記ドアに関する安全の確認の判定を行う安全確認判定部と、
を有することを特徴とする鉄道車両用ドアの安全確認装置。
A distance image generation unit that generates a distance image that is generated based on at least two image signals obtained by imaging with at least two image sensors and each pixel is a value indicating a distance or a position in a three-dimensional space ; ,
By comparing the distance image generated by the distance image generation unit and the distance image of a predetermined background image including a railcar door stored in advance, the predetermined background image is compared with the generated distance image. A background image separation part that separates the parts;
An object distance image extracting unit that extracts a distance image of an object sandwiched between the doors from a distance image remaining after the predetermined background image is separated in the background image separating unit;
Deformation degree determination that determines the degree of deformation of the object during a predetermined time from the time-series change in the cross-sectional shape of the largest distance value in the object distance image extracted by the object distance image extraction unit And
And parameter information including the volume of the said product range image extracting unit the product obtained from the distance image of the extracted the product in, shape classification, and the parameters of the deformation degree, which is determined in the deformation degree determination unit, the volume, and the shape classification and, based on the based have been defined rule information including the deformation degree, the safety confirmation judging unit for judging safety confirmation regarding said door,
A safety confirmation device for a door for a railway vehicle, comprising:
前記物の距離画像の断面の縦横比を求め、前記縦横比から、予め分類されている形状カテゴリーの分類を決定する形状カテゴリー分類決定部を有し、  Obtaining the aspect ratio of the cross-section of the distance image of the object, having a shape category classification determination unit that determines the classification of the shape category that has been pre-classified from the aspect ratio,
前記形状分類は、前記形状カテゴリー分類決定部により決定された形状カテゴリーの分類であることを特徴とする請求項1に記載の鉄道車両用ドアの安全確認装置。  The safety confirmation device for a railcar door according to claim 1, wherein the shape classification is a classification of a shape category determined by the shape category classification determination unit.
記ルールは、追加及び変更が可能であることを特徴とする請求項1又は2に記載の鉄道車両用ドアの安全確認装置。 Before Kill Lumpur, safety confirmation device door for rail vehicles according to claim 1 or 2, characterized in that additions are possible and modifications.
JP2010153443A 2010-07-05 2010-07-05 Railway vehicle door safety confirmation device Active JP5653093B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010153443A JP5653093B2 (en) 2010-07-05 2010-07-05 Railway vehicle door safety confirmation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010153443A JP5653093B2 (en) 2010-07-05 2010-07-05 Railway vehicle door safety confirmation device

Publications (2)

Publication Number Publication Date
JP2012011987A JP2012011987A (en) 2012-01-19
JP5653093B2 true JP5653093B2 (en) 2015-01-14

Family

ID=45598914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010153443A Active JP5653093B2 (en) 2010-07-05 2010-07-05 Railway vehicle door safety confirmation device

Country Status (1)

Country Link
JP (1) JP5653093B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018093437A (en) * 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 Detection system
JP2021116029A (en) * 2020-01-29 2021-08-10 コイト電工株式会社 Detection device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07236133A (en) * 1994-02-25 1995-09-05 Hitachi Denshi Ltd Television device
JPH10278787A (en) * 1997-04-11 1998-10-20 Nippon Signal Co Ltd:The Door opening/closing controller
JP4041678B2 (en) * 2002-02-22 2008-01-30 東日本旅客鉄道株式会社 Home fallen person detection method and apparatus
JP4056813B2 (en) * 2002-07-11 2008-03-05 松下電器産業株式会社 Obstacle detection device
JP2005349997A (en) * 2004-06-11 2005-12-22 Toshiba Corp Device for detecting foreign matter at passenger door in railway vehicle
JP5205932B2 (en) * 2007-11-15 2013-06-05 富士電機株式会社 Vehicle door safety confirmation system
JP2009279970A (en) * 2008-05-19 2009-12-03 Mitsubishi Electric Corp System for detecting door-pinching for vehicle, and method for detecting door-pinching
JP5484224B2 (en) * 2010-07-05 2014-05-07 サクサ株式会社 Device for detecting string-like foreign matter on doors of railway vehicles

Also Published As

Publication number Publication date
JP2012011987A (en) 2012-01-19

Similar Documents

Publication Publication Date Title
JP6845307B2 (en) Monitoring system and monitoring method
JP5369175B2 (en) Elevator door detection apparatus and detection method using video
CN101025825B (en) Abnormal action detecting device
US20070229663A1 (en) Image processing apparatus, monitoring camera, and image monitoring system
JP5917327B2 (en) Escalator monitoring system
JP5832749B2 (en) In-train monitoring system and in-train monitoring method
JP6393946B2 (en) Monitoring device, method, program, or system
KR100916960B1 (en) Monitoring system in railway station
CN108698802A (en) Method for controlling transporting equipment, i.e. escalator or automatic pedestrian path
KR20070065480A (en) A monitoring system for subway platform using stereoscopic video camera
JP2007031105A (en) Passenger abnormality sensing device of elevator
JP6483214B1 (en) Elevator system and elevator lost child detection method
JP5653093B2 (en) Railway vehicle door safety confirmation device
KR101219407B1 (en) escalator monitoring system using image processing technology
JP5484224B2 (en) Device for detecting string-like foreign matter on doors of railway vehicles
JP7021652B2 (en) In-car monitoring device
JP5370009B2 (en) Monitoring system
JP2009086748A (en) Monitoring device and program
JP5596423B2 (en) Elevator control system
KR100869835B1 (en) Multi sensor based railway platform monitoring system
KR20140059962A (en) Elevator crime prvent system and method of controlling the same
KR101724600B1 (en) Screen door apparatus and method for controlling the same
JP2013052738A (en) Detector for rushing-into-train
JP6699179B2 (en) Image processing device
KR20100013481A (en) System and method to monitor the inside of a train

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140512

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141118

R150 Certificate of patent or registration of utility model

Ref document number: 5653093

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360