JP4920073B2 - Method and apparatus for detecting head position of traveling body - Google Patents

Method and apparatus for detecting head position of traveling body Download PDF

Info

Publication number
JP4920073B2
JP4920073B2 JP2009266044A JP2009266044A JP4920073B2 JP 4920073 B2 JP4920073 B2 JP 4920073B2 JP 2009266044 A JP2009266044 A JP 2009266044A JP 2009266044 A JP2009266044 A JP 2009266044A JP 4920073 B2 JP4920073 B2 JP 4920073B2
Authority
JP
Japan
Prior art keywords
image
traveling body
train
difference
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009266044A
Other languages
Japanese (ja)
Other versions
JP2011112365A (en
Inventor
証 山口
史明 岡松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe Steel Ltd
Original Assignee
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe Steel Ltd filed Critical Kobe Steel Ltd
Priority to JP2009266044A priority Critical patent/JP4920073B2/en
Priority to KR1020100116538A priority patent/KR101254393B1/en
Publication of JP2011112365A publication Critical patent/JP2011112365A/en
Application granted granted Critical
Publication of JP4920073B2 publication Critical patent/JP4920073B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PURPOSE: A method and device for detecting the head position of a running vehicle capable of high-speed processing is provided to accurately detect the head position of a running vehicle by reducing the affecting factors like light or shadow. CONSTITUTION: A method for detecting the head position of a running vehicle is as follows. An image of head part and background of a running vehicle are taken with an image sensor(S11). The differential picture between is produced based on the taken images(S12). The luminance integration according to the fixed direction of the image is performed according to each image. The projecting brightness distribution is produced. The differential projecting brightness distribution is calculated by using the calculated the difference of two projecting brightness distribution(S13). The location of the head part of the running vehicle is recognized(S16).

Description

本発明は、列車、自動車などの走行体の先頭位置の検出技術であって、特に、画像処理手法を用いた走行体の先頭位置の検出技術に関する。   The present invention relates to a technology for detecting the leading position of a traveling body such as a train or an automobile, and more particularly to a technology for detecting the leading position of a traveling body using an image processing technique.

近年、新幹線や在来線の列車や地下鉄などにおいては、ホームからの転落や列車との接触事故防止などを目的とした安全対策の一つとして可動柵が備えられるようになってきている。
図1に示すように、可動柵は、駅ホームの端部に停車又は通過する列車と駅ホーム上の乗客とを隔離するように設けられた隔壁であり、停車した列車のドア部に対応する位置には、乗客が昇降するためのドアが設けられている。このドアの開閉は、通常、自動列車運転装置 (ATO) からの情報を基に行われるが、異常時には乗務員が操作することもある。
In recent years, trains and subways on the Shinkansen and conventional lines have been equipped with movable fences as one of the safety measures for the purpose of preventing falls from the platform and contact accidents with the train.
As shown in FIG. 1, the movable fence is a partition wall provided so as to isolate a train that stops or passes at the end of the station platform and a passenger on the station platform, and corresponds to a door portion of the stopped train. At the position, a door for the passenger to go up and down is provided. The opening and closing of the door is usually performed based on information from an automatic train operating device (ATO), but it may be operated by a crew member in the event of an abnormality.

しかしながら、上記の設備を駅に設置する場合、可動柵の設置費用のみならず、ATOの新設、それらシステムから発信される情報の管理システム等、設備設置には莫大な費用が掛かることが懸念される。
そこで、本願出願人らが、特許文献1のような技術を既に開発している。
特許文献1は、移動体の位置を検出するための位置検出装置であって、前記移動体の画像を当該移動体の背景の画像とともに撮像可能なように設置された画像センサと、前記画像センサによって撮像された、前記移動体が写っていない画像であるベース画像と、前記移動体が写った画像である検出用画像とを比較することにより、前記移動体の位置(特に先頭位置)を検出する位置検出部と、を有してなる位置検出装置を開示する。
However, when installing the above equipment in a station, there is concern that the installation of equipment, such as a new ATO, a management system for information transmitted from those systems, and the like will be enormous. The
Therefore, the applicants of the present application have already developed a technique such as that of Patent Document 1.
Patent Document 1 is a position detection device for detecting the position of a moving body, and is an image sensor installed so as to be able to capture an image of the moving body together with an image of a background of the moving body, and the image sensor. The position (especially the head position) of the moving body is detected by comparing the base image that is an image of the moving body that is captured by the method and the detection image that is an image that includes the moving body. And a position detecting unit including the position detecting unit.

上記の如く、可動柵のドアの開閉は、自動列車運転装置 (ATO) からの情報を基に行われることが主流であるが、それに代え、特許文献1の位置検出装置から得られた列車の先頭位置を可動柵の開閉に用いることで、簡便な方法で且つ設置費用を抑えた可動柵システムの敷設が可能となる。   As described above, opening and closing of the door of the movable fence is mainly performed based on information from the automatic train operation device (ATO), but instead, the train of the train obtained from the position detection device of Patent Document 1 is used. By using the leading position for opening and closing the movable fence, it is possible to construct a movable fence system with a simple method and with reduced installation costs.

特開2008−298501号公報JP 2008-298501 A

しかしながら、特許文献1に記載された技術は、移動体である列車が写っていないベース画像と、列車が写った検出用画像とを比較することにより、列車の先頭位置を検出する技術となっているため、画像内に列車自体ではなくその背景の部分で変化するものがあると、その部分は外乱となり誤検知の原因となったりする。
また、列車の取り付けられた前方照明光の直接反射光(正反射光)、列車自身の影などは外乱光成分であり、列車の移動と共に画像上で輝度変化の位置が移動していく。こうした外乱光成分も、特許文献1に記載された技術においては、ベース画像と異なるために明確なエッジを生じる。しかも移動体と共に移動するエッジとなるため、移動体の位置検出において誤差となり易い。
However, the technique described in Patent Literature 1 is a technique for detecting the head position of a train by comparing a base image in which a train that is a moving body is not captured and a detection image in which the train is captured. Therefore, if there is something that changes in the background part of the image instead of the train itself, that part becomes a disturbance and may cause false detection.
Moreover, the direct reflected light (regular reflected light) of the front illumination light to which the train is attached, the shadow of the train itself, etc. are disturbance light components, and the position of the luminance change moves on the image as the train moves. Such disturbance light components are also different from the base image in the technique described in Japanese Patent Laid-Open No. 2004-133830, and thus produce a clear edge. In addition, since the edge moves together with the moving body, an error is likely to occur in the position detection of the moving body.

さらには、列車が画像センサの視野に接近するのに伴い、列車先頭部の前方照明光により背景全体の輝度分布が徐々に変化する。すなわち、移動体の存在しない背景部分において、ベース画像から輝度が徐々に変化する事になり、特許文献1に記載された技術において、偽のエッジを生じ誤検知の原因となる。
つまり、列車の先頭位置を検出する場合において、特許文献1の技術では、対応できない場合があり、幾つかの状況下においては走行体の先頭位置を誤検知することもあった。
Furthermore, as the train approaches the visual field of the image sensor, the luminance distribution of the entire background gradually changes due to the front illumination light at the train head. That is, the luminance gradually changes from the base image in the background portion where the moving object does not exist, and in the technique described in Patent Document 1, a false edge is generated and causes false detection.
That is, in the case of detecting the head position of a train, the technique of Patent Document 1 may not be able to cope with it, and under some circumstances, the head position of the traveling body may be erroneously detected.

そこで、本発明は、上記問題点を鑑み、走行体から発せられる光や走行体の影等の外乱による誤検知を可能な限り少なくした走行体の先頭位置検出方法及び装置を提供することを目的とする。   SUMMARY OF THE INVENTION In view of the above problems, the present invention has an object to provide a method and an apparatus for detecting the leading position of a traveling body with as few false detections as possible due to disturbances such as light emitted from the traveling body and shadows of the traveling body. And

上述の目的を達成するため、本発明においては以下の技術的手段を講じた。
すなわち、本発明に係る走行体の先頭位置検出方法は、画像処理を用いて走行体の先頭位置を検出する検出方法であって、前記走行体の先頭部及び背景を画像センサにより連続的に撮像し、撮像された画像を基に、連続する2つの画像間の差分画像又は断続的に連なる2つの画像間の差分画像を算出し、算出された差分画像に関し、画像上の所定方向に沿った輝度積算を行うことで差分投影輝度分布を算出し、算出された差分投影輝度分布に対して所定の輝度閾値を適用することで、前記走行体の先頭部の位置を認識することを特徴とする。
In order to achieve the above-described object, the present invention takes the following technical means.
In other words, the traveling body leading position detection method according to the present invention is a detection method for detecting the leading position of the traveling body using image processing, and continuously captures the leading portion and background of the traveling body with an image sensor. Then, based on the captured image, a difference image between two consecutive images or a difference image between two consecutive images is calculated, and the calculated difference image is along a predetermined direction on the image. A difference projection luminance distribution is calculated by performing luminance integration, and a predetermined luminance threshold is applied to the calculated difference projection luminance distribution to recognize the position of the leading portion of the traveling body. .

また、本発明に係る他の検出方法は、画像処理を用いて走行体の先頭位置を検出する検出方法であって、前記走行体の先頭部及び背景を画像センサにより連続的に撮像し、連続する2つの画像のそれぞれ又は断続的に連なる2つの画像のそれぞれにおいて、画像上の所定方向に沿った輝度積算を行うことで投影輝度分布を算出し、算出された2つの投影輝度分布の差をとった差分投影輝度分布を算出し、算出された差分投影輝度分布に対して所定の輝度閾値を適用することで、前記走行体の先頭部の位置を認識することを特徴とする。   Further, another detection method according to the present invention is a detection method for detecting a leading position of a traveling body using image processing, wherein the leading portion and background of the traveling body are continuously captured by an image sensor, The projected luminance distribution is calculated by performing luminance integration along a predetermined direction on the image in each of the two images or two images that are intermittently connected, and the difference between the two calculated projected luminance distributions is calculated. The difference projection luminance distribution obtained is calculated, and a predetermined luminance threshold is applied to the calculated difference projection luminance distribution, thereby recognizing the position of the leading portion of the traveling body.

なお、前記輝度積算を行うに際し、画像上の所定方向を走行体の走行方向に垂直な方向とすることは好ましい。
また好ましくは、前記輝度閾値を、前記走行体の速度に応じて可変な値とするとよい。
また、前記撮像された画像に存在する外乱輝度値による誤検知を排除すべく、前記分布波形に対する輝度閾値の適用範囲を予め規定しておくとよい。
When performing the luminance integration, it is preferable that the predetermined direction on the image is a direction perpendicular to the traveling direction of the traveling body.
Preferably, the luminance threshold value is a variable value according to the speed of the traveling body.
In addition, in order to eliminate erroneous detection due to a disturbance luminance value existing in the captured image, it is preferable to preliminarily define an application range of a luminance threshold for the distribution waveform.

なお、外乱輝度値とは、走行体から発せられる光の直接反射光(正反射光)、走行体自体の影、また、電気的なノイズ等により生じる画像内に実際には存在しない輝度値などが挙げられる。
好ましくは、前記適用範囲は、前記走行体の移動情報を基に設定されると共に、前記走行体の速度に応じて可変な範囲幅とされているとよい。
Note that the disturbance luminance value is a directly reflected light (regular reflected light) of light emitted from the traveling body, a shadow of the traveling body itself, a luminance value that does not actually exist in the image caused by electrical noise, etc. Is mentioned.
Preferably, the application range is set based on movement information of the traveling body and has a variable range width according to the speed of the traveling body.

本発明に係る走行体の先頭位置検出装置は、画像処理を用いて走行体の先頭位置を検出する検出装置であって、前記走行体の先頭部及び背景を連続的に撮像可能な画像センサと、上記した走行体の先頭位置検出方法を用いて、走行体の先頭位置を検出するよう構成された画像処理部と、を有することを特徴とする。
なお、本発明に係る走行体の先頭位置検出方法の最も好ましいものとしては、画像処理を用いて走行体の先頭位置を検出する検出方法であって、前記走行体の先頭部及び背景を画像センサにより連続的に撮像し、撮像された画像を基に、連続する2つの画像間の差分画像又は断続的に連なる2つの画像間の差分画像を算出し、算出された差分画像に関し、画像上の所定方向に沿った輝度積算を行うことで差分投影輝度分布を算出し、算出された差分投影輝度分布に対して、前記走行体の速度に応じた可変な値として求められる輝度閾値を適用することで、前記走行体の先頭部の位置を認識する方法がある。
また、画像処理を用いて走行体の先頭位置を検出する検出方法であって、前記走行体の先頭部及び背景を画像センサにより連続的に撮像し、連続する2つの画像のそれぞれ又は断続的に連なる2つの画像のそれぞれにおいて、画像上の所定方向に沿った輝度積算を行うことで投影輝度分布を算出し、算出された2つの投影輝度分布の差をとった差分投影輝度分布を算出し、算出された差分投影輝度分布に対して、前記走行体の速度に応じた可変な値として求められる輝度閾値を適用することで、前記走行体の先頭部の位置を認識する
走行体の先頭位置検出方法を採用することもできる。
A leading position detection device for a traveling body according to the present invention is a detection device that detects the leading position of a traveling body using image processing, and an image sensor capable of continuously capturing the leading portion and background of the traveling body; And an image processing unit configured to detect the leading position of the traveling body using the traveling body leading position detection method described above.
The most preferable method for detecting the leading position of the traveling object according to the present invention is a detection method for detecting the leading position of the traveling object using image processing, wherein the leading part and the background of the traveling object are image sensors. Based on the captured image, a difference image between two consecutive images or a difference image between two images that are intermittently connected is calculated. A difference projection luminance distribution is calculated by performing luminance integration along a predetermined direction, and a luminance threshold obtained as a variable value according to the speed of the traveling body is applied to the calculated difference projection luminance distribution. Then, there is a method for recognizing the position of the leading portion of the traveling body.
Also, a detection method for detecting a leading position of a traveling object using image processing, wherein the leading portion and background of the traveling object are continuously captured by an image sensor, and each of two consecutive images or intermittently. In each of the two consecutive images, the projection luminance distribution is calculated by performing luminance integration along a predetermined direction on the image, and a difference projection luminance distribution obtained by taking the difference between the two calculated projection luminance distributions is calculated. By applying a brightness threshold obtained as a variable value according to the speed of the traveling body to the calculated difference projection brightness distribution, the position of the leading portion of the traveling body is recognized.
A method for detecting the head position of the traveling body can also be employed.

本発明に係る走行体の先頭位置検出方法及び装置によれば、走行体から発せられる光や走行体の影等の外乱による誤検知を可能な限り少なくし、確実且つ正確に走行体の先頭位置を検出することができる。   According to the head position detection method and apparatus of the traveling body according to the present invention, erroneous detection due to disturbances such as light emitted from the traveling body and shadows of the traveling body is reduced as much as possible, and the leading position of the traveling body is reliably and accurately. Can be detected.

画像センサが備えられた駅ホームを示す斜視図である。It is a perspective view which shows the station platform provided with the image sensor. 走行体の先頭位置検出装置と可動柵とで構成されるシステムの概略図である。It is the schematic of the system comprised with the head position detection apparatus of a traveling body, and a movable fence. 走行体の先頭位置検出方法で行われる画像処理を説明するための図である。It is a figure for demonstrating the image processing performed with the head position detection method of a traveling body. 差分投影輝度分布に輝度閾値を適用した図である。It is the figure which applied the brightness | luminance threshold value to difference projection brightness distribution. 走行体の先頭位置検出方法のフローチャートである。It is a flowchart of the head position detection method of a traveling body. 走行体の先頭の概略位置を推定するための考え方を説明する図である。It is a figure explaining the idea for estimating the approximate position of the head of a running body. 走行体の先頭位置検出の他の方法を示したフローチャートである。It is the flowchart which showed the other method of the head position detection of a traveling body.

以下、本発明の実施形態を、図を基に説明する。
本発明に係る走行体の先頭位置検出装置1は、新幹線や在来線、地下鉄などの駅ホーム2に設置されており、ここでは、走行体として軌道上を走行する列車3を想定し、駅ホーム2に進入する列車3の先頭部の位置を検出する実施形態を示す。
[第1実施形態]
図1は、走行体の先頭位置検出装置1(以下、検出装置と呼ぶこともある)が設置される駅ホーム2の状況を示したものである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
A traveling body leading position detection device 1 according to the present invention is installed in a station platform 2 such as a Shinkansen, a conventional line, a subway, and the like, and here, assuming a train 3 traveling on a track as a traveling body, The embodiment which detects the position of the head part of the train 3 which enters the home 2 is shown.
[First Embodiment]
FIG. 1 shows a situation of a station platform 2 where a head position detection device 1 (hereinafter also referred to as a detection device) of a traveling body is installed.

この駅ホーム2には、駅ホーム2からの転落や走行体である列車3との接触事故防止などを目的とした安全対策の一つとして可動柵4が備えられている。可動柵4は、駅ホーム2に停車又は駅ホーム2を通過する列車3と、駅ホーム2上の乗客とを隔離するように設けられた隔壁であり、停車した列車3のドアに対応する位置には、乗客が昇降するためのドア4Aが設けられている。このドア4Aの開閉は、検出装置1が検出した「列車3の先頭位置の情報」を基にドア4Aの開閉を行う。   The station platform 2 is provided with a movable fence 4 as one of safety measures for the purpose of preventing a fall from the station platform 2 and a contact accident with the train 3 as a traveling body. The movable fence 4 is a partition wall provided to isolate the train 3 that stops at the station platform 2 or passes through the station platform 2 and passengers on the station platform 2, and corresponds to the door of the stopped train 3. Is provided with a door 4A for the passenger to go up and down. The door 4A is opened and closed based on “information on the leading position of the train 3” detected by the detection device 1.

本発明の走行体の先頭位置検出装置1は、画像処理の手法を用いて列車3の先頭位置を検出するものであり、列車3の先頭部の位置が、駅ホーム2上の所定位置(停止位置L)に達したか否かを検知する。
図1,図2に示す如く、検出装置1は、駅のホームに進入し停車する列車3の先頭を、背景である駅ホーム2や線路10などと共に撮像する画像センサ5を有している。画像センサ5は、CCDカメラ(ビデオカメラ等)で構成されており、例えば、毎秒30フレームの画像を連続的に出力する。
The traveling body leading position detection device 1 of the present invention detects the leading position of the train 3 using an image processing technique, and the position of the leading portion of the train 3 is a predetermined position (stopped) on the station platform 2. It is detected whether or not the position L) has been reached.
As shown in FIGS. 1 and 2, the detection apparatus 1 includes an image sensor 5 that captures the head of a train 3 that enters and stops at a station platform together with the station platform 2 and the track 10 that are backgrounds. The image sensor 5 is composed of a CCD camera (video camera or the like) and, for example, continuously outputs images at 30 frames per second.

この画像センサ5は、駅ホーム2の先頭側であって、駅ホーム2に設置された屋根6の下など、地上高さ3メートル程度の位置に設置されている。画像センサ5には、列車3の先頭部及びその背景を撮像可能とする撮像レンズが取り付けられ、時刻や天候に応じて露出量を最適とする自動露出機構が備えられている。
画像センサ5から出力される撮像画像は、パソコン又はDSP等で構成されるハードウエアからなる画像処理部7に取り込まれる。
The image sensor 5 is installed at a position about 3 meters above the ground, such as under the roof 6 installed on the station platform 2, on the leading side of the station platform 2. The image sensor 5 is provided with an image pickup lens that can pick up the head of the train 3 and the background thereof, and an automatic exposure mechanism that optimizes the exposure amount according to time and weather.
The picked-up image output from the image sensor 5 is taken into the image processing unit 7 composed of hardware such as a personal computer or a DSP.

この画像処理部7内には、フレームメモリが備えられており、所定時間間隔(1/30又は1/15秒)で取り込まれる2次元の画像(640ピクセル×480ピクセル)が蓄積される。フレームメモリに蓄積された2次元画像に対して、後述する先頭位置を検出するための画像処理が行われる。
さらに、本実施形態の場合、検出された列車3の先頭位置を基に、列車3の先頭が駅ホーム2において定められた停止位置Lに正しく停止したか否かが判定され、この判定結果がドア制御部8へ送られて、ドア制御部8は、列車3が停止位置Lに正しく停止した場合に、可動柵4に対してドア4Aを開放する信号を発する。
In this image processing unit 7, a frame memory is provided, and a two-dimensional image (640 pixels × 480 pixels) captured at a predetermined time interval (1/30 or 1/15 seconds) is accumulated. Image processing for detecting a head position described later is performed on the two-dimensional image stored in the frame memory.
Furthermore, in the case of the present embodiment, it is determined whether or not the head of the train 3 has stopped correctly at the stop position L determined in the station platform 2 based on the detected head position of the train 3. When sent to the door control unit 8, the door control unit 8 issues a signal for opening the door 4 </ b> A to the movable fence 4 when the train 3 is correctly stopped at the stop position L.

なお、検出された列車3の先頭位置を基に、乗務員が可動柵4のドア4Aを開放するようにしてもよい。
ところで、検出装置1は、画像センサ5が設置された位置よりも列車3の進行方向の手前側において、列車3の進入を検出するための走行体センサ9を有している。
走行体センサ9は、超音波センサ、赤外線センサなどのように、センサの前方の対象物の存否を検出するものであって、例えば、駅ホーム2中央部の屋根6下に設置され、列車3が画像センサ5の撮像範囲(視野)に入る前に、ホームへの列車3進入を検出するように配置されている。この走行体センサ9からの信号(列車3進入の信号)を基に、画像センサ5を作動させるようにすることで、列車3以外の進入を検出し誤検知を行う可能性が大幅に減る。
Note that the crew may open the door 4 </ b> A of the movable fence 4 based on the detected leading position of the train 3.
By the way, the detection apparatus 1 has the traveling body sensor 9 for detecting the approach of the train 3 on the near side in the traveling direction of the train 3 from the position where the image sensor 5 is installed.
The traveling body sensor 9 detects the presence or absence of an object in front of the sensor, such as an ultrasonic sensor or an infrared sensor. For example, the traveling body sensor 9 is installed under the roof 6 in the center of the station platform 2, and train 3 Before entering the imaging range (field of view) of the image sensor 5 is arranged so as to detect entry of the train 3 to the platform. By causing the image sensor 5 to operate based on the signal from the traveling body sensor 9 (the signal for entering the train 3), the possibility of detecting an approach other than the train 3 and performing a false detection is greatly reduced.

走行体センサ9として、超音波や赤外線を用いたドップラセンサを用いることで、列車3の進入のみならず、進入してきた列車3の速度を求めることもできる。
次に、図3,図4ならびに図5のフローチャートを基に、画像処理部7で行われる「列車3の先頭の位置検出処理」の詳細について述べる。
画像処理部7で行われる列車3の先頭位置検出方法は、画像処理を用いて列車3の先頭位置を検出するアルゴリズムを有しており、列車3の先頭部及び背景を画像センサ5により連続的に撮像し、撮像された画像を基に、連続する2つの画像間の差分画像を算出し、算出された差分画像に関し、列車3の走行方向に垂直な方向に沿った輝度積算を行うことで投影輝度分布(以降、差分投影輝度分布と呼ぶこともある)を算出し、算出された投影輝度分布に対し、所定の輝度閾値を超え始める位置Sを検出し、検出された位置Sを列車3の先頭部の位置と認識するものである。
By using a Doppler sensor using ultrasonic waves or infrared rays as the traveling body sensor 9, not only the train 3 but also the speed of the entering train 3 can be obtained.
Next, based on the flowcharts of FIGS. 3, 4, and 5, details of the “position detection processing of the head of the train 3” performed in the image processing unit 7 will be described.
The train 3 head position detection method performed in the image processing unit 7 has an algorithm for detecting the train 3 head position using image processing, and the image sensor 5 continuously detects the train 3 head position and background. By calculating the difference image between two consecutive images based on the captured image, and performing luminance integration along the direction perpendicular to the traveling direction of the train 3 with respect to the calculated difference image. A projected luminance distribution (hereinafter also referred to as a differential projected luminance distribution) is calculated, a position S that begins to exceed a predetermined luminance threshold is detected for the calculated projected luminance distribution, and the detected position S is detected as the train 3. It is recognized as the position of the head part.

詳しくは、まず、図5のS10において、走行体センサ9が駅ホーム2に列車3が進入したことを検知したとする。
列車進入を検知後、S11において、画像センサ5は、駅ホーム2や線路10などの背景を含む列車3の先頭部の画像を連続的に撮像する。撮像された画像は画像処理部7へ転送され、画像処理部7内のフレームメモリに蓄積される。画像センサ5による撮像の間隔は任意であるが、駅ホーム2への列車3の進入を確実に検知するために、1/30秒〜1秒が好ましい。
Specifically, first, it is assumed that the traveling body sensor 9 detects that the train 3 has entered the station platform 2 in S10 of FIG.
After detecting the approach of the train, in S11, the image sensor 5 continuously captures images of the head portion of the train 3 including the background of the station platform 2 and the track 10 and the like. The captured image is transferred to the image processing unit 7 and stored in a frame memory in the image processing unit 7. The interval of imaging by the image sensor 5 is arbitrary, but 1/30 seconds to 1 second is preferable in order to reliably detect the entrance of the train 3 to the station platform 2.

図3の(a−1)〜(a−4)は、列車3が駅ホーム2に進入する様子を連続的に撮像した画面、又は断続的に撮像した画面(例えば、1フレーム飛ばしの画像)を模式的に示した図である。
(a−1)は、走行体センサ9は列車3の進入を検知しているものの、画像センサ5の撮像範囲内には列車3が進入していない状況である。(a−2),(a−3)は、画像センサ5内に列車3が進入していく状況を撮像したものである。列車3は、画像の左から右に向けて(画像のX座標に沿って座標原点の方へ)進入する。画像中のHは列車3のヘッドライトにより照らされている部分(正反射光H)を示す。
(A-1) to (a-4) in FIG. 3 are screens in which the train 3 enters the station platform 2 continuously, or screens that are intermittently captured (for example, images skipped by one frame). FIG.
(A-1) is a situation where the traveling body sensor 9 detects the approach of the train 3 but the train 3 does not enter the imaging range of the image sensor 5. (A-2) and (a-3) are images of the situation where the train 3 enters the image sensor 5. The train 3 enters from the left to the right of the image (toward the coordinate origin along the X coordinate of the image). H in the image indicates a portion (regular reflected light H) illuminated by the headlight of the train 3.

(a−2)の状況から(a−3)の状況に遷移するうちに、列車3の速度は減速する。(a−4)は、列車3がホームの停止位置Lに正しく停止した状況を撮像したものである。(a−3)の状況から(a−4)への遷移において、列車3の速度は非常に低速となる。
次に、S12において、得られた撮像画像を基に2つの撮像画像の差をとり、差分画像を作成する。具体的には、(a−1)の画像上の座標(x1,y1)に存在する画素の輝度値と、(a−2)の画像上の座標(x1,y1)に存在する画素の輝度値との差を、全ての画素について計算することで差分画像が得られる。(a−1)と(a−2)との差分画像が図3の(b−1)であり、(b−1)画像には、列車3の先頭部と正反射光Hが現れる。
The speed of the train 3 decelerates while transitioning from the situation (a-2) to the situation (a-3). (A-4) is an image of the situation in which the train 3 is correctly stopped at the stop position L of the platform. In the transition from the situation (a-3) to (a-4), the speed of the train 3 is very low.
Next, in S12, a difference image is created by taking the difference between the two captured images based on the obtained captured image. Specifically, the luminance value of the pixel existing at the coordinates (x1, y1) on the image (a-1) and the luminance value of the pixel existing at the coordinates (x1, y1) on the image (a-2). A difference image is obtained by calculating the difference from the value for all the pixels. The difference image between (a-1) and (a-2) is (b-1) in FIG. 3, and the leading portion of the train 3 and the regular reflected light H appear in the (b-1) image.

図3の(b−2)は、(a−2)の画像と(a−1)の画像との差分画像であり、この差分画像には、画面中央まで進行した列車3の先頭、及びこの列車3から発せられる正反射光Hが存在する。正反射光Hは、画像の左端に存在する。列車3の先頭部に続く本体部(画像の右側)は、(a−2)の画像と(a−1)の画像との間に大きな変化が無いため、薄い(輝度の低い)画像で写り込む。なお、(a−1)において存在した正反射光Hは、差分画像においてはマイナス値となり表示されないこととなる。   (B-2) in FIG. 3 is a difference image between the image of (a-2) and the image of (a-1). In this difference image, the top of the train 3 that has advanced to the center of the screen, and this There is specularly reflected light H emitted from the train 3. The regular reflection light H exists at the left end of the image. The main body (right side of the image) following the head of the train 3 is a thin (low brightness) image because there is no significant change between the image (a-2) and the image (a-1). Include. Note that the specularly reflected light H existing in (a-1) is a negative value in the difference image and is not displayed.

図3の(b−3)は、(a−3)の画像と(a−4)の画像との差分画像であり、この差分画像には、停止位置Lに停止した列車3の先頭部のみが存在する。(a−3)の状況から(a−4)への遷移において、列車3の速度は非常に低速であるため、(b−3)における列車3の先頭画像は非常に薄い(輝度の低い)ものとなっている。
その後、S13において、(b−1)〜(b−3)の差分画像それぞれについて、Y方向にプロジェクションを行って投影輝度分布を算出する。具体的には、各X座標において、Y座標に沿って並んでいる複数の画素の輝度値を足し合わせる(輝度値の積算を行う)ことで、投影輝度分布を得ることができる。なお、Y座標に沿った方向は、撮像画像において列車3が移動してゆく方向に垂直な方向である。
(B-3) in FIG. 3 is a difference image between the image of (a-3) and the image of (a-4). In this difference image, only the head part of the train 3 stopped at the stop position L is shown. Exists. In the transition from the situation of (a-3) to (a-4), the speed of the train 3 is very low, so the leading image of the train 3 in (b-3) is very thin (low brightness) It has become a thing.
Thereafter, in S13, for each of the difference images (b-1) to (b-3), a projection luminance distribution is calculated by performing projection in the Y direction. Specifically, the projection luminance distribution can be obtained by adding the luminance values of a plurality of pixels arranged along the Y coordinate at each X coordinate (by integrating the luminance values). The direction along the Y coordinate is a direction perpendicular to the direction in which the train 3 moves in the captured image.

このようにして算出された輝度分布は、差分画像に関する投影輝度分布であるため、以降「差分投影輝度分布」と呼ぶ。
以上の処理により得られた差分投影輝度分布が図3(c−1)〜図3(c−3)であり、それぞれが図3(b−1)〜図3(b−3)の差分画像にそれぞれ対応するものである。
Since the luminance distribution calculated in this way is a projection luminance distribution related to the difference image, it is hereinafter referred to as a “difference projection luminance distribution”.
The difference projection luminance distribution obtained by the above processing is shown in FIGS. 3 (c-1) to 3 (c-3), and the difference images shown in FIGS. 3 (b-1) to 3 (b-3) respectively. Respectively.

例えば、図3の(c−1)に示される差分投影輝度分布で、座標原点に近い側の凸波形は、ヘッドライトの正反射光Hに起因するものであり、外乱輝度値である。原点から遠い側の凸波形は、列車3の先頭部分に起因する輝度である。この先頭部分に起因する凸波形に関しては、列車3移動によるブレや撮像レンズの性能限界によるピンボケによって、そのエッジが若干ぼやけることとなる。そのため、先頭部分の凸波形は列車先頭部より若干手前から立ち上がるようになる。   For example, in the difference projection luminance distribution shown in (c-1) of FIG. 3, the convex waveform on the side close to the coordinate origin is due to the regular reflected light H of the headlight and is a disturbance luminance value. The convex waveform on the side far from the origin is the luminance due to the leading portion of the train 3. With respect to the convex waveform caused by the leading portion, the edge thereof is slightly blurred due to blur due to movement of the train 3 or defocus due to the performance limit of the imaging lens. For this reason, the convex waveform at the head part rises slightly before the train head part.

図3の(c−2)においては、列車3が駅ホーム2を進入すると共に、正反射光Hに起因する凸波形及び列車3の先頭部分に起因する凸波形は、原点側に移動する。また、列車3の速度低下に起因して先頭部分の輝度値が低いものとなっているため、列車3の先頭部の凸波形のピーク値は下がり、正反射光Hに起因する凸波形のピーク値に近いものとなっている。   In (c-2) of FIG. 3, the train 3 enters the station platform 2, and the convex waveform caused by the regular reflected light H and the convex waveform caused by the leading portion of the train 3 move to the origin side. In addition, since the brightness value of the head portion is low due to the decrease in the speed of the train 3, the peak value of the convex waveform at the head portion of the train 3 decreases, and the peak of the convex waveform due to the regular reflected light H decreases. It is close to the value.

図3の(c−3)においては、ヘッドライトからの正反射光Hが画像センサ5の視野外へと移動するため、正反射光Hに起因する凸波形は無くなり、列車3の先頭部の凸波形のみとなる。列車3の停止に伴う速度低下に起因して先頭部の輝度値は極端に低くなり、列車3の先頭部の凸波形のピーク値は小さい値となる。凸波形のピーク値は、場合によっては、ヘッドライトの正反射光Hに起因する凸波形のピーク値より下がることもあり得る。   In (c-3) of FIG. 3, since the regular reflection light H from the headlight moves out of the field of view of the image sensor 5, the convex waveform caused by the regular reflection light H disappears, and Only convex waveform. The luminance value at the head portion becomes extremely low due to the speed reduction accompanying the stop of the train 3, and the peak value of the convex waveform at the head portion of the train 3 becomes a small value. In some cases, the peak value of the convex waveform may be lower than the peak value of the convex waveform caused by the regular reflected light H of the headlight.

係る状況下であっても精度よく列車3の先頭位置を検出するために、図4のように、差分投影輝度分布に対して「走行体の速度に応じて可変な動的な輝度閾値」を設け、列車3の先頭部分に起因する凸波形を検出し、列車3の画像上の位置を認識することとしている。
具体的には、S14において、走行体センサ9などを用いて駅ホーム2に進入してきた列車3の速度を検出し、その上で、列車3速度が下がると低輝度となるような輝度閾値を決定する。輝度閾値の決定の方法は様々なものが採用可能であるが、例えば、現時刻における列車3の速度の定数倍を輝度閾値としたり、現時刻に至るまでの列車3の平均速度の定数倍を輝度閾値としたりするとよい。現時刻に至るまでの列車3の平均速度の指数倍を輝度閾値としてもよい。なお、図4(a)〜図4(c)は図3(c−1)〜図3(c−3)と同じ差分投影輝度分布である。
In order to accurately detect the head position of the train 3 even under such circumstances, as shown in FIG. 4, a “dynamic brightness threshold variable according to the speed of the traveling body” is set for the difference projection brightness distribution. The convex waveform resulting from the head part of the train 3 is detected, and the position of the train 3 on the image is recognized.
Specifically, in S14, the speed of the train 3 that has entered the station platform 2 is detected by using the traveling body sensor 9 and the like, and a brightness threshold value that becomes low brightness when the speed of the train 3 decreases is set. decide. Various methods can be used for determining the brightness threshold. For example, a constant multiple of the speed of the train 3 at the current time is used as the brightness threshold, or a constant multiple of the average speed of the train 3 up to the current time is used. It may be a luminance threshold value. An exponent multiple of the average speed of the train 3 up to the current time may be used as the brightness threshold. 4A to 4C show the same differential projection luminance distributions as FIGS. 3C-1 to 3C-3.

その後、S15において、図4(a)に示す如く、差分投影輝度分布に対し、輝度閾値TH1(高輝度値)を適用する。すると、輝度閾値TH1を超え始める位置P1は、列車3の先頭部分に起因する凸波形の先頭部となる。
S16において、この超え始める位置(輝度閾値TH1と凸波形の交点P1)を検出することで列車3の先頭位置を認識できる。なお前述したように、先頭部の凸波形に関しては、列車3移動によるブレや撮像レンズの性能限界によるピンボケによって、そのエッジが若干ぼやけており、列車先頭部より若干手前から立ち上がるようになる。そのため、輝度閾値TH1と凸波形の交点は、正確な列車先頭位置により近くなる。
Thereafter, in S15, as shown in FIG. 4A, the luminance threshold value TH1 (high luminance value) is applied to the difference projection luminance distribution. Then, the position P1 at which the luminance threshold TH1 starts to be exceeded becomes the leading portion of the convex waveform caused by the leading portion of the train 3.
In S16, the start position of the train 3 can be recognized by detecting the position where the exceeding starts (the intersection point P1 of the brightness threshold TH1 and the convex waveform). As described above, with respect to the convex waveform at the head part, the edge is slightly blurred due to blur due to movement of the train 3 or out-of-focus due to the performance limit of the imaging lens, and rises slightly before the train head part. Therefore, the intersection of the brightness threshold TH1 and the convex waveform is closer to the accurate train head position.

ところが、図4(b)から明らかなように、列車3の速度低下に伴って輝度閾値をTH1→TH2へと下げることで、列車3の先頭に起因する凸波形ではなく、ヘッドライトの正反射光Hに起因する凸波形を検知するようになる。そのため、本実施形態では、S14において、輝度閾値を適用する範囲、言い換えるならば、差分投影輝度分布において、列車先頭の凸波形を探索する範囲を限定する(ウインドを設ける)ようにしている。なお、輝度閾値TH(TH1〜TH3)の求め方については、後述する。   However, as is clear from FIG. 4B, the brightness threshold is lowered from TH1 to TH2 as the speed of the train 3 decreases, so that the regular reflection of the headlights rather than the convex waveform caused by the head of the train 3 is achieved. A convex waveform caused by the light H is detected. Therefore, in this embodiment, in S14, the range in which the luminance threshold is applied, in other words, the range in which the convex waveform at the train head is searched for in the difference projection luminance distribution is limited (a window is provided). A method for obtaining the brightness threshold TH (TH1 to TH3) will be described later.

探索する範囲(適用範囲)は、図4のL1〜L3に示すもので、当該範囲を説明するにあたって、X座標の右側(反原点側)を起点、X座標の左側(原点側)を終点と呼ぶ。
輝度閾値の適用範囲の起点に関しては、最初に得られた差分投影輝度分布(図4(a))においては、投影輝度分布のX座標の最大値(X座標の最も右側)とする。次に得られた差分投影輝度分布(図4(b))においては、図4(a)で得られた「輝度閾値TH1と凸波形の交点P1」の位置を輝度閾値の適用範囲の起点としている。その後得られる差分投影輝度分布(図4(c))においては、図4(b)で得られた「輝度閾値TH2と凸波形の交点P2」の位置を輝度閾値の適用範囲の起点としている。
The search range (application range) is indicated by L1 to L3 in FIG. 4. In describing the range, the right side of the X coordinate (on the opposite origin side) is the starting point, and the left side of the X coordinate (the origin side) is the end point. Call.
With respect to the starting point of the application range of the luminance threshold, in the first obtained difference projection luminance distribution (FIG. 4A), the maximum value of the X coordinate of the projection luminance distribution (the rightmost side of the X coordinate) is set. Next, in the obtained differential projection luminance distribution (FIG. 4B), the position of “the intersection P1 of the luminance threshold TH1 and the convex waveform” obtained in FIG. 4A is used as the starting point of the application range of the luminance threshold. Yes. In the differential projection luminance distribution (FIG. 4C) obtained thereafter, the position of the “intersection P2 of the luminance threshold TH2 and the convex waveform” obtained in FIG. 4B is set as the starting point of the application range of the luminance threshold.

適用範囲の終点に関しては、起点と終点間の距離を列車3の速度が下がると短くなるように設定しておく。
例えば、図4(a)において、適用範囲は投影輝度分布のほぼ全長さL1=Lmaxであったのに対して、列車3の速度が遅くなった図4(b)では、L2(<L1)とし、列車3がほぼ停止した図4(c)では、L3(<L2)である。適用範囲L(L1〜L3)の求め方についても後述する。
As for the end point of the application range, the distance between the start point and the end point is set so as to become shorter as the speed of the train 3 decreases.
For example, in FIG. 4A, the application range is almost the total length L1 = L max of the projected luminance distribution, whereas in FIG. 4B where the speed of the train 3 is slow, L2 (<L1 In FIG. 4C where the train 3 is almost stopped, L3 (<L2). A method for obtaining the application range L (L1 to L3) will also be described later.

以上のように、列車3の先頭を検出するための輝度閾値を適用する範囲を、速度の低下に応じて減ずることで、ヘッドライトの正反射による凸波形(外乱輝度値)を検知範囲以外に置くことができ、外乱輝度値による誤検知を確実に防止することができる。
以上のS10〜S16をリアルタイム(画像を撮像するごと)に実行することで、撮像画像上における列車3の先頭位置を割り出し、その上でS17において、列車3の先頭位置と画像上での「列車3の停止位置L」とが一致しているか否かを判定する。なお、停止判定は、撮像画像上における列車3の先頭位置を基に、駅ホーム2に対する列車3の位置を算定し、その位置と駅ホーム2上の実際の停止位置Lとが一致しているか否かを判定してもよい。
As described above, the convex waveform (disturbance luminance value) due to the regular reflection of the headlight is made outside the detection range by reducing the range to which the luminance threshold for detecting the head of the train 3 is applied according to the decrease in speed. Therefore, erroneous detection due to the disturbance luminance value can be reliably prevented.
By executing the above S10 to S16 in real time (every time an image is taken), the top position of the train 3 on the picked-up image is determined, and then in S17, the top position of the train 3 and the “train” on the image are displayed. It is determined whether or not “3 stop position L” matches. In addition, stop determination calculates the position of the train 3 with respect to the station platform 2 based on the head position of the train 3 on a captured image, and is the position and the actual stop position L on the station platform 2 matched? It may be determined whether or not.

図2に示す如く、列車3が所定の位置に停止していると認識された場合は、その情報が乗務員に伝えられ、乗務員は可動柵4のドア4Aを開放してもよく、「列車3が停止位置Lに正しく停止したか否か」の情報を別途設けられたドア制御部8へ送るようにし、ドア制御部8は、「列車3が停止位置Lに正しく停止した」場合に、可動柵4に対してドア4Aを開放する信号を発するようにしてもよい。   As shown in FIG. 2, when it is recognized that the train 3 is stopped at a predetermined position, the information is transmitted to the crew, and the crew may open the door 4 </ b> A of the movable fence 4. Is sent to the door control unit 8 provided separately, and the door control unit 8 is movable when “the train 3 has stopped correctly at the stop position L”. A signal for opening the door 4 </ b> A may be issued to the fence 4.

以上まとめるならば、本発明の走行体の先頭位置検出装置1は、フレーム間の差分画像を基に得られた差分投影輝度分布に対して動的な輝度閾値や動的な適用範囲(ウインド)を採用することで、撮像画像の背景状況の変化や列車3から発せられる光などの外乱による誤検知を可能な限り少なくし、確実且つ正確に走行体の先頭位置を検出することができるようになる。   In summary, the head position detection device 1 of the traveling body according to the present invention has a dynamic brightness threshold and a dynamic application range (window) for the difference projection brightness distribution obtained based on the difference image between frames. By adopting, it is possible to reduce the number of false detections due to changes in the background situation of captured images and disturbances such as light emitted from the train 3 as much as possible, and to detect the leading position of the traveling body reliably and accurately. Become.

本発明の走行体の先頭位置検出装置1により正確に判定された列車3の先頭位置を用いて、駅ホーム2に敷設された可動柵4の操作を行うようにした場合、可動柵4の安全性の更なる向上に大きく寄与できるものとなる。
ところで、S10〜S17の処理を行う際に用いる輝度閾値TH(TH1〜TH3)、適用範囲L(L1〜L3)は、実際の現場状況に合わせて様々に決定可能であるが、本実施形態では、以下のように「センサの情報」を基に決定することとしている。
When the movable fence 4 laid on the station platform 2 is operated using the leading position of the train 3 accurately determined by the leading position detecting device 1 of the traveling body of the present invention, the safety of the movable fence 4 It can greatly contribute to the further improvement of sex.
Incidentally, the luminance threshold TH (TH1 to TH3) and the application range L (L1 to L3) used when performing the processes of S10 to S17 can be variously determined in accordance with the actual field situation. The determination is based on “sensor information” as follows.

すなわち、適用範囲L(L2)の算出方法としては、走行体センサ9により測定された列車3の速度vから算出される撮像画面上の移動量予測値を基にして求める。移動量予測値Lvは、式(1)で得られる。

Lv=αvτ (1)

ここで、αは列車の実空間と画面上の位置をつなぐパラメータで、画像センサ5の設置時に予めキャリブレーション(校正作業)により求めておく。また、τは撮像フレーム間の経過時間である。市販されている画像センサ5においては、1/15秒〜1/30秒のものが多く、τは実際に使用する画像センサ5のフレームレートに合わせて設定するとよい。
That is, as a method of calculating the application range L (L2), the application range L (L2) is obtained based on a predicted moving amount on the imaging screen calculated from the speed v of the train 3 measured by the traveling body sensor 9. The movement amount prediction value Lv is obtained by Expression (1).

Lv = αvτ (1)

Here, α is a parameter that connects the real space of the train and the position on the screen, and is obtained in advance by calibration (calibration work) when the image sensor 5 is installed. Also, τ is the elapsed time between imaging frames. Many commercially available image sensors 5 have 1/15 to 1/30 seconds, and τ may be set according to the frame rate of the image sensor 5 actually used.

なお、式(1)は、列車3の等速運動を仮定しているが、実際には加減速している可能性もあるので少し幅を広げておき、適用範囲L2を式(2)で算出する。

L2=β×Lv (2)

ここで、βは定数である。βの適正量は実計測データから求めてもよい。なお、適用範囲L2を式(3)で算出するようにしてもよい。

L2=Lv+γ (3)

ここで、γは定数である。γの適正量は実計測データから求めてもよい。
Note that equation (1) assumes constant speed motion of the train 3. However, since there is a possibility that the vehicle is actually accelerating / decelerating, the width is slightly widened and the applicable range L2 is expressed by equation (2). calculate.

L2 = β × Lv (2)

Here, β is a constant. The appropriate amount of β may be obtained from actual measurement data. Note that the application range L2 may be calculated by Expression (3).

L2 = Lv + γ (3)

Here, γ is a constant. The appropriate amount of γ may be obtained from actual measurement data.

また、輝度閾値TH(TH2)の算出方法としては、走行体センサ9により測定された列車3の速度vを変数として有する式(4)を用いるとよい。

TH2=K×(vτ)ξ (4)

ここで、τは撮像フレーム間の経過時間、Kは定数項である。ξは定数としてもよいし、速度の関数ξ(v)としてもよい。ξ=1とすると、TH2は単純に速度に比例する。
Further, as a method for calculating the brightness threshold TH (TH2), it is preferable to use the equation (4) having the speed v of the train 3 measured by the traveling body sensor 9 as a variable.

TH2 = K × (vτ) ξ (4)

Here, τ is an elapsed time between imaging frames, and K is a constant term. ξ may be a constant or a speed function ξ (v). If ξ = 1, TH2 is simply proportional to speed.

なお、輝度閾値THは、列車3の速度が小さくなる程、その値も小さくなり、ノイズ信号を誤検出するようになる。そこで、輝度閾値の最小値TH3を予め決めておき、式(4)の結果がTH3より小さくなる場合は、TH3を輝度閾値として採用する。
一方、輝度閾値TH、適用範囲Lを「画像から得られる情報」を基に決定するもできる。
Note that the value of the brightness threshold TH decreases as the speed of the train 3 decreases, and a noise signal is erroneously detected. Therefore, the minimum value TH3 of the brightness threshold is determined in advance, and when the result of Expression (4) is smaller than TH3, TH3 is adopted as the brightness threshold.
On the other hand, the luminance threshold TH and the application range L can be determined based on “information obtained from an image”.

図6には、画像センサ5により撮像された画像を基に作成された「駅ホーム2に進入してきた列車3の先頭位置の移動図」が示されている。この図では、横軸を時刻、縦軸を列車の画面上の先頭位置としている。列車3は撮像画面上を右から左へ進みつつ減速し、やがて停止するため、図6において、列車3の先頭位置は時刻の経過と共に縦軸で値の小さいほうへ移動していく。   FIG. 6 shows a “movement diagram of the leading position of the train 3 that has entered the station platform 2” created based on the image captured by the image sensor 5. In this figure, the horizontal axis is time, and the vertical axis is the head position on the train screen. Since the train 3 decelerates while proceeding from the right to the left on the imaging screen, and eventually stops, in FIG. 6, the leading position of the train 3 moves to the smaller value on the vertical axis as time passes.

このような先頭位置の移動図(推移図)を用いれば、過去の列車先頭位置の変化から、次の画像フレームにおける画面上の移動量Lvを予測できる。例えば、式(5)の如く予想可能である。

Lv=Σn(Pi−Pi-1)/n (5)

式(5)は、i番目のフレームで得られた先頭位置Piと、(i−1)番目のフレーム画像で得られた先頭位置Pi-1の差を求め、この差をn個の区間について行い、nで割ってn回のフレーム間移動量の平均値を求めるものとなっている。この式(5)を式(1)の代わりに用いて、探索区間L2を算出することが可能である。なお、最初に適用する適用範囲L1は、前述の如くLmaxとする。
If such a movement map (transition diagram) of the head position is used, the movement amount Lv on the screen in the next image frame can be predicted from the change in the previous train head position. For example, it can be predicted as shown in Equation (5).

Lv = Σ n (P i −P i-1 ) / n (5)

Equation (5), the head position P i obtained by the i-th frame, (i-1) -th obtains a difference between the head position P i-1 obtained in the frame image, the difference of n This is performed for the section, and is divided by n to obtain an average value of the inter-frame movement amount n times. The search section L2 can be calculated by using this formula (5) instead of the formula (1). Note that the application range L1 to be applied first is L max as described above.

また、適用範囲Lを「画像から得られる情報」を基に決定する場合には、輝度閾値TH2は、式(5)で得られるLvを式(4)のvτの代わりとし、式(4)で算出することもできる。
[第2実施形態]
次に、本発明に係る走行体の先頭位置検出方法及び装置の第2実施形態について述べる。
Further, when the application range L is determined based on “information obtained from an image”, the luminance threshold value TH2 is obtained by substituting Lv obtained in Equation (5) for vτ in Equation (4), Equation (4). It can also be calculated by
[Second Embodiment]
Next, a second embodiment of the head position detection method and apparatus according to the present invention will be described.

第2実施形態が第1実施形態と比べて大きく異なる点は、差分投影輝度分布を求める手順が異なることにある。
すなわち、図7に示すように、走行体センサ9による列車進入を検知後(S20)、画像センサ5は、駅ホーム2や線路10などの背景を含む列車3の先頭部の画像を連続的に撮像する(S21)。撮像された画像は、図3の(a−1)〜(a−4)である。
The second embodiment is greatly different from the first embodiment in that the procedure for obtaining the difference projection luminance distribution is different.
That is, as shown in FIG. 7, after detecting the train approach by the traveling body sensor 9 (S20), the image sensor 5 continuously displays images of the head part of the train 3 including the background such as the station platform 2 and the track 10. An image is taken (S21). The captured images are (a-1) to (a-4) in FIG.

次に、S22において、図3の(a−1)〜(a−4)に示す各画像のそれぞれについて、投影輝度分布を算出する。具体的には、各X座標においてY座標に沿った向きで輝度値の積算を行う(Y方向にプロジェクションする)ことで、投影輝度分布を得ることができる。
その後、S23において、2画像間の投影輝度分布の差をとることで差分投影輝度分布を算出する。具体的には、図3(a−1)の投影輝度分布と図3(a−2)の投影輝度分布との差である差分投影輝度分布を算出する。この差分投影輝度分布は、図3(c−1)に示す第1実施形態での差分投影輝度分布と略同じとなる。
Next, in S22, a projection luminance distribution is calculated for each of the images shown in (a-1) to (a-4) of FIG. Specifically, the projection luminance distribution can be obtained by integrating the luminance values in the direction along the Y coordinate in each X coordinate (projecting in the Y direction).
Thereafter, in S23, the difference projection luminance distribution is calculated by taking the difference in the projection luminance distribution between the two images. Specifically, a difference projection luminance distribution that is a difference between the projection luminance distribution of FIG. 3A-1 and the projection luminance distribution of FIG. 3A-2 is calculated. This difference projection luminance distribution is substantially the same as the difference projection luminance distribution in the first embodiment shown in FIG.

同様に、図3(a−2)の投影輝度分布と図3(a−3)の投影輝度分布との差である差分投影輝度分布を算出する。この差分投影輝度分布は、図3(c−2)に示す第1実施形態での差分投影輝度分布と略同じとなる。図3(a−3)の投影輝度分布と図3(a−4)の投影輝度分布との差である差分投影輝度分布を算出する。この差分投影輝度分布は、図3(c−3)に示す第1実施形態での差分投影輝度分布と略同じとなる。   Similarly, a difference projection luminance distribution that is a difference between the projection luminance distribution of FIG. 3A-2 and the projection luminance distribution of FIG. 3A-3 is calculated. This difference projection luminance distribution is substantially the same as the difference projection luminance distribution in the first embodiment shown in FIG. A difference projection luminance distribution which is a difference between the projection luminance distribution of FIG. 3A-3 and the projection luminance distribution of FIG. 3A-4 is calculated. This difference projection luminance distribution is substantially the same as the difference projection luminance distribution in the first embodiment shown in FIG.

得られた差分投影輝度分布に対して、S24〜S27の処理を行うことになるが、S24〜S27の処理は第1実施形態のS14〜S17の処理と略同様であるため、説明を省略する。奏する作用効果も第1実施形態と略同じであり、撮像画像の背景状況の変化や列車3から発せられる光などの外乱による誤検知を可能な限り少なくし、確実且つ正確に走行体の先頭位置を検出することができる。   The processing of S24 to S27 is performed on the obtained difference projection luminance distribution, but the processing of S24 to S27 is substantially the same as the processing of S14 to S17 of the first embodiment, and thus description thereof is omitted. . The operational effects are also substantially the same as in the first embodiment, and the number of false detections due to changes in the background state of the captured image and disturbances such as light emitted from the train 3 is reduced as much as possible, and the leading position of the traveling body is reliably and accurately Can be detected.

第2実施形態の先頭位置検出方法を実現するための装置としては、第1実施形態と同様のハードウエア(画像センサ5、画像処理部7、走行体センサ9)が採用可能である。なお、第2実施形態の画像処理は、画像処理の初期段階で投影輝度分布を求めているため、データ量の大きい2次元画像の処理量が全体として少ないアルゴリズムとなっている。ゆえに、高速処理が可能で計算負荷の少ない走行体の先頭位置検出方法となっている。   As an apparatus for realizing the head position detection method of the second embodiment, the same hardware (image sensor 5, image processing unit 7, and traveling body sensor 9) as in the first embodiment can be employed. Note that the image processing of the second embodiment is an algorithm in which the processing amount of a two-dimensional image having a large amount of data is small as a whole because the projection luminance distribution is obtained at the initial stage of the image processing. Therefore, it is a method for detecting the leading position of a traveling body that can perform high-speed processing and has a low calculation load.

ところで、今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
例えば、走行体として列車3を例示したが、走行体としては、自動車や飛行機などであってもよく、工場等における搬送物品であってもよい。検出装置1による検出結果を基に、可動柵4のドア4Aの開閉を行うことを説明したが、本検出装置1の検出結果は、他の用途に利用されても何ら問題はない。
By the way, it should be thought that embodiment disclosed this time is an illustration and restrictive at no points. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
For example, although the train 3 is illustrated as the traveling body, the traveling body may be an automobile, an airplane, or the like, or a transported article in a factory or the like. Although it has been described that the door 4A of the movable fence 4 is opened and closed based on the detection result of the detection device 1, the detection result of the detection device 1 may be used for other purposes without any problem.

また、実施形態の説明において使用した図(例えば、図3や図4)は、的確な説明を行うための概念図であり、画像や波形等に通常現れる微細なノイズや急峻なスパイク等を記載していないことに注意をすべきである。実際に撮像した画像には、様々なノイズやスパイクや外乱となりうる背景テクスチャが存在するものの、それらは、既存の画像処理手法を用いて除去可能であり、本発明の本質に何ら影響を与えるものではない。   Also, the diagrams used in the description of the embodiment (for example, FIG. 3 and FIG. 4) are conceptual diagrams for accurate explanation, and describe fine noise or steep spikes that usually appear in images and waveforms. It should be noted that it is not. Although the actual captured image has various noises, spikes, and background textures that can be disturbances, they can be removed using existing image processing techniques and affect the essence of the present invention. is not.

1 走行体の先頭位置検出装置
2 駅ホーム
3 列車
4 可動柵
4A ドア
5 画像センサ
6 屋根
7 画像処理部
8 ドア制御部
9 走行体センサ
10 線路
H ヘッドライトの正反射光
L 停止位置
DESCRIPTION OF SYMBOLS 1 Head position detection apparatus of traveling body 2 Station platform 3 Train 4 Movable fence 4A Door 5 Image sensor 6 Roof 7 Image processing part 8 Door control part 9 Running body sensor 10 Track H Headlight regular reflection light L Stop position

Claims (6)

画像処理を用いて走行体の先頭位置を検出する検出方法であって、
前記走行体の先頭部及び背景を画像センサにより連続的に撮像し、
撮像された画像を基に、連続する2つの画像間の差分画像又は断続的に連なる2つの画像間の差分画像を算出し、
算出された差分画像に関し、画像上の所定方向に沿った輝度積算を行うことで差分投影輝度分布を算出し、
算出された差分投影輝度分布に対して、前記走行体の速度に応じた可変な値として求められる輝度閾値を適用することで、前記走行体の先頭部の位置を認識する
ことを特徴とする走行体の先頭位置検出方法。
A detection method for detecting a leading position of a traveling object using image processing,
The head and background of the traveling body are continuously captured by an image sensor,
Based on the captured image, a difference image between two consecutive images or a difference image between two consecutive images is calculated,
With respect to the calculated difference image, a difference projection luminance distribution is calculated by performing luminance integration along a predetermined direction on the image,
A travel characterized by recognizing the position of the leading portion of the traveling body by applying a brightness threshold obtained as a variable value according to the speed of the traveling body to the calculated difference projection brightness distribution. Body head position detection method.
画像処理を用いて走行体の先頭位置を検出する検出方法であって、
前記走行体の先頭部及び背景を画像センサにより連続的に撮像し、
連続する2つの画像のそれぞれ又は断続的に連なる2つの画像のそれぞれにおいて、画像上の所定方向に沿った輝度積算を行うことで投影輝度分布を算出し、
算出された2つの投影輝度分布の差をとった差分投影輝度分布を算出し、
算出された差分投影輝度分布に対して、前記走行体の速度に応じた可変な値として求められる輝度閾値を適用することで、前記走行体の先頭部の位置を認識する
ことを特徴とする走行体の先頭位置検出方法。
A detection method for detecting a leading position of a traveling object using image processing,
The head and background of the traveling body are continuously captured by an image sensor,
In each of two consecutive images or each of two images that are intermittently connected, a projection luminance distribution is calculated by performing luminance integration along a predetermined direction on the image,
Calculating a difference projection luminance distribution obtained by calculating a difference between the two calculated projection luminance distributions;
A travel characterized by recognizing the position of the leading portion of the traveling body by applying a brightness threshold obtained as a variable value according to the speed of the traveling body to the calculated difference projection brightness distribution. Body head position detection method.
前記輝度積算を行うに際し、画像上の所定方向を前記走行体の走行方向に垂直な方向としていることを特徴とする請求項1又は2に記載の走行体の先頭位置検出方法。   The method for detecting the leading position of a traveling body according to claim 1 or 2, wherein when performing the luminance integration, a predetermined direction on the image is a direction perpendicular to a traveling direction of the traveling body. 前記撮像された画像に存在する外乱輝度値による誤検知を排除すべく、前記差分投影輝度分布に対する輝度閾値の適用範囲を予め規定しておくことを特徴とする請求項1〜3のいずれかに記載の走行体の先頭位置検出方法。 In order to eliminate erroneous detection due to disturbance luminance values existing in the captured image, in any one of claims 1 to 3, characterized in that in advance define the scope of the luminance threshold value for the difference projection luminance distribution The head position detection method of the described traveling body. 前記適用範囲は、前記走行体の移動情報を基に設定されると共に、前記走行体の速度に応じて可変な範囲幅とされていることを特徴とする請求項4に記載の走行体の先頭位置検出方法。 5. The head of the traveling body according to claim 4 , wherein the applicable range is set based on movement information of the traveling body and has a variable range width according to the speed of the traveling body. Position detection method. 画像処理を用いて走行体の先頭位置を検出する検出装置であって、
前記走行体の先頭部及び背景を連続的に撮像可能な画像センサと、
請求項1〜5のいずれかに記載された走行体の先頭位置検出方法を用いて、走行体の先頭位置を検出するよう構成された画像処理部と、
を有することを特徴とする走行体の先頭位置検出装置。
A detection device for detecting a leading position of a traveling body using image processing,
An image sensor capable of continuously capturing the head and background of the traveling body;
An image processing unit configured to detect the leading position of the traveling body using the traveling body leading position detection method according to any one of claims 1 to 5 ,
A head position detection device for a traveling body, comprising:
JP2009266044A 2009-11-24 2009-11-24 Method and apparatus for detecting head position of traveling body Active JP4920073B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009266044A JP4920073B2 (en) 2009-11-24 2009-11-24 Method and apparatus for detecting head position of traveling body
KR1020100116538A KR101254393B1 (en) 2009-11-24 2010-11-23 Method and device for detecting head position of traveling body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009266044A JP4920073B2 (en) 2009-11-24 2009-11-24 Method and apparatus for detecting head position of traveling body

Publications (2)

Publication Number Publication Date
JP2011112365A JP2011112365A (en) 2011-06-09
JP4920073B2 true JP4920073B2 (en) 2012-04-18

Family

ID=44234830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009266044A Active JP4920073B2 (en) 2009-11-24 2009-11-24 Method and apparatus for detecting head position of traveling body

Country Status (2)

Country Link
JP (1) JP4920073B2 (en)
KR (1) KR101254393B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6091294B2 (en) * 2013-04-02 2017-03-08 株式会社神戸製鋼所 Train head position detection method and detection apparatus
JP7288389B2 (en) * 2019-10-25 2023-06-07 株式会社京三製作所 TRAIN POSITION DETERMINATION DEVICE AND TRAIN POSITION DETERMINATION METHOD

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6447673A (en) * 1987-08-17 1989-02-22 Hitachi Ltd Device for detecting start and stop of vehicle
JPH06294808A (en) * 1993-04-08 1994-10-21 Babcock Hitachi Kk Method and device for moving body detection
JP4553450B2 (en) * 2000-06-01 2010-09-29 日本信号株式会社 Platform monitoring system
JP4087045B2 (en) * 2000-07-13 2008-05-14 松下電器産業株式会社 Train presence / absence determination method and apparatus and monitoring system
JP3902531B2 (en) * 2002-10-17 2007-04-11 株式会社日立製作所 Train fixed position stop support device
JP4292371B2 (en) 2003-03-14 2009-07-08 オムロン株式会社 Mobile monitoring device
KR20090069348A (en) * 2007-12-26 2009-07-01 명관 이 System and method to monitor a door of train

Also Published As

Publication number Publication date
JP2011112365A (en) 2011-06-09
KR20110058686A (en) 2011-06-01
KR101254393B1 (en) 2013-04-12

Similar Documents

Publication Publication Date Title
JP6134641B2 (en) Elevator with image recognition function
US10818172B2 (en) Method, device and system for processing startup of preceding vehicle
JP6657167B2 (en) User detection system
US20180357772A1 (en) Surrounding environment recognition device for moving body
WO2017014023A1 (en) Onboard environment recognition device
CN111144247A (en) Escalator passenger reverse-running detection method based on deep learning
CN111198371A (en) Forward-looking obstacle detection system
JP4600929B2 (en) Stop low-speed vehicle detection device
CN102592475A (en) Crossing traffic early warning system
JP4971874B2 (en) Position detection device
JP2007310574A (en) Collision risk decision system and warning system
CN111738203B (en) Platform pedestrian line crossing detection method based on automatic line marking area
JP2017165541A (en) Image processing apparatus
WO2014061793A1 (en) Vehicle window detection system, vehicle window detection method and device, program, and recording medium
JP4920073B2 (en) Method and apparatus for detecting head position of traveling body
JP5506537B2 (en) A vehicle side light detection method provided in a traveling body, and a movable fence control device that opens and closes a door provided in the movable fence using the detection method.
JP2003146201A (en) Accident preventing device and accident preventing method at use of platform door
JP2002145072A (en) Railroad crossing obstacle detecting device
JP7108115B2 (en) Vehicle door open/close detector
JP2013052738A (en) Detector for rushing-into-train
JP2020179798A (en) Turnout detection device and turnout detection method
JP6533244B2 (en) Object detection device, object detection method, and object detection program
KR20220098677A (en) Traffic accident prediction method and system
KR102204015B1 (en) Lifting gate based on image and vehicle control method through the same
KR100844640B1 (en) Method for object recognizing and distance measuring

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120131

R150 Certificate of patent or registration of utility model

Ref document number: 4920073

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150210

Year of fee payment: 3