JP2017001638A - Train position detection system using image processing, and train position and environmental change detection system using image processing - Google Patents

Train position detection system using image processing, and train position and environmental change detection system using image processing Download PDF

Info

Publication number
JP2017001638A
JP2017001638A JP2015120778A JP2015120778A JP2017001638A JP 2017001638 A JP2017001638 A JP 2017001638A JP 2015120778 A JP2015120778 A JP 2015120778A JP 2015120778 A JP2015120778 A JP 2015120778A JP 2017001638 A JP2017001638 A JP 2017001638A
Authority
JP
Japan
Prior art keywords
image
frame
train
detection system
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015120778A
Other languages
Japanese (ja)
Other versions
JP6494103B2 (en
Inventor
誠 千台
Makoto Chidai
誠 千台
安部 聡
Satoshi Abe
安部  聡
勇治 内田
Yuji Uchida
勇治 内田
英記 近藤
Hideki Kondo
英記 近藤
実 三好
Minoru Miyoshi
実 三好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ERGOVISION CO Ltd
Nishiyama Corp
West Japan Railway Co
Original Assignee
ERGOVISION CO Ltd
Nishiyama Corp
West Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ERGOVISION CO Ltd, Nishiyama Corp, West Japan Railway Co filed Critical ERGOVISION CO Ltd
Priority to JP2015120778A priority Critical patent/JP6494103B2/en
Publication of JP2017001638A publication Critical patent/JP2017001638A/en
Application granted granted Critical
Publication of JP6494103B2 publication Critical patent/JP6494103B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a train position detection system using image processing, capable of the travel position of a train with high accuracy and at low cost.SOLUTION: The train position detection system has an image feature database for storing a SURF feature extracted from each frame image of a base video image recorded by photographing a space ahead in a traveling direction while causing a train with a video camera set to travel on a track and position information associated with the SURF feature. A travel position of the train is detected on the basis of similarity calculated by comparing the SURF feature of a designated frame image of a reference video image recorded by photographing a space ahead in a traveling direction by the video camera while causing the train to travel on the track on date and time different from the date and time when the base video image is recorded with the SURF feature of each frame image of the base video image stored in the image feature database by frame matching processing.SELECTED DRAWING: Figure 12

Description

この発明は画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システムに関し、鉄道の軌道上を走行する列車の位置を検出し、軌道周辺の時系列的な環境の変化を把握するのに用いて好適なものである。   The present invention relates to a train position detection system using image processing, and a train position and environment change detection system using image processing, and detects the position of a train that runs on a railroad track, and the time-series environment around the track. It is suitable for use in grasping changes.

鉄道において、列車が走行する軌道の周辺の時系列的な環境の変化を検出することは、列車の走行に支障をきたすおそれのある建築物や植生などの支障物を早期に発見する上で重要である。軌道の周辺の時系列的な環境の変化を検出する方法として、同一路線で異なる日時に列車を走行させながら列車に設置したビデオカメラにより軌道の周辺を撮影することにより収録されたビデオ画像を比較することが考えられる。異なる日時に収録されたこれらのビデオ画像を比較する場合、比較されるビデオ画像のフレームは同一地点で撮影されたものであることが望ましい。このためには、列車の走行位置を正確に検出する必要がある。   In railways, it is important to detect changes in the time-series environment around the track on which the train travels in order to find obstacles such as buildings and vegetation that may interfere with train travel at an early stage. It is. As a method to detect time-series environmental changes around the track, compare the video images recorded by shooting the periphery of the track with a video camera installed on the train while running the train on the same route at different dates and times It is possible to do. When comparing these video images recorded at different dates and times, it is desirable that the frames of the video images to be compared were taken at the same point. For this purpose, it is necessary to accurately detect the traveling position of the train.

従来、列車の走行位置を検出する技術として次のようなものが知られている。1つは、速度発電機からの信号によるTG位置(列車の走行距離と経路情報とにより算出された列車の走行位置)とGPS受信機からのGPS位置とを比較して列車の位置を検出するとともに、検出した列車の位置を、加速度センサから出力される列車の上下振動信号と集音装置から出力される音響信号との両方の波形特徴を抽出して車上装置がレール継ぎ目や分岐部などの特異点を通過したときの特異点通過信号により補正する技術である(特許文献1参照。)。である。もう1つは、DGPS(差動地球測位システム)を移動体走行システムに適用し、列車の情報測定用走行を行って線路情報データベースを作成し、運用走行時には、情報処理部は、受信信頼度が高い場合にはDGPS距離程を用い、受信信頼度が中程度の場合にはDGPS距離程を初期値とし運用時線路曲率相当値を演算し、既知線路曲率相当値と比較して距離程を特定し、受信信頼度が低い場合には車軸回転数に基づく車軸距離程に基づいて距離程を特定する技術である(特許文献2参照。)。   Conventionally, the following techniques are known as techniques for detecting the traveling position of a train. One is to detect the train position by comparing the TG position (the train travel position calculated from the train travel distance and route information) based on the signal from the speed generator and the GPS position from the GPS receiver. At the same time, the on-board device extracts the characteristics of the detected train position from both the vertical vibration signal of the train output from the acceleration sensor and the acoustic signal output from the sound collector, and the on-board device is connected to the rail joints, branches, etc. This is a technique for correcting with a singular point passage signal when passing through the singular point (see Patent Document 1). It is. The other is to apply DGPS (Differential Earth Positioning System) to a mobile traveling system, create a track information database by traveling for train information measurement, and during operation traveling, the information processing unit DGPS distance is used when the signal is high, and when the reception reliability is medium, the DGPS distance is used as an initial value to calculate the line curvature equivalent value during operation, and the distance measure is compared with the known line curvature equivalent value. When the reception reliability is low, the distance is specified based on the axle distance based on the axle rotation speed (see Patent Document 2).

特開2011−225188号公報JP 2011-225188 A 特開2004−271255号公報JP 2004-271255 A 特開2015−23370号公報JP 2015-23370 A

[平成25年7月8日検索]、インターネット〈http://www.m-system.co.jp/mstoday/plan/mame/b _network/9812/index.html 〉[Search July 8, 2013], Internet <http://www.m-system.co.jp/mstoday/plan/mame/b_network/9812/index.html>

しかしながら、本発明者らの検討によれば、特許文献1、2で提案された列車の位置を検出する技術は、列車が走行する軌道の周辺の時系列的な環境の変化を検出する上で必要な位置の検出精度を得ることができなかったり、コストが高く付いたりするという欠点がある。   However, according to the study by the present inventors, the technique for detecting the position of the train proposed in Patent Documents 1 and 2 is used to detect a time-series environmental change around the track on which the train travels. There are drawbacks in that the required position detection accuracy cannot be obtained and the cost is high.

そこで、この発明が解決しようとする課題は、列車の走行位置を高精度にかつ低コストで検出することができる、画像処理を利用した列車位置検出システムを提供することである。   Therefore, the problem to be solved by the present invention is to provide a train position detection system using image processing that can detect the traveling position of a train with high accuracy and low cost.

この発明が解決しようとする他の課題は、列車の走行位置を高精度にかつ低コストで検出することができ、それによって列車が走行する軌道の周辺の時系列的な環境の変化を容易にかつ正確に検出することができる、画像処理を利用した列車位置および環境変化検出システムを提供することである。   Another problem to be solved by the present invention is that the traveling position of the train can be detected with high accuracy and at low cost, thereby easily changing the time-series environment around the track on which the train travels. It is another object of the present invention to provide a train position and environment change detection system using image processing that can be accurately detected.

上記課題を解決するために、この発明は、
動画の撮影が可能なカメラが設置された列車を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第1の動画の各フレーム画像から抽出されたSURF特徴および当該SURF特徴と対応付けられた位置情報を格納した画像特徴データベースを有し、
上記第1の動画が収録された日時と異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第2の動画の指定されたフレーム画像のSURF特徴と上記画像特徴データベースに格納された上記第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて上記列車の走行位置を検出することを特徴とする画像処理を利用した列車位置検出システムである。
In order to solve the above problems, the present invention provides:
The SURF feature extracted from each frame image of the first moving image recorded by shooting the space ahead of the traveling direction with the camera while traveling on a train on which a camera capable of shooting the moving image is installed, and Having an image feature database storing location information associated with the SURF feature;
The designated frame image of the second video recorded by photographing the space ahead of the traveling direction with the camera while running the train on the track at a date and time different from the date and time when the first video was recorded. The train's travel position is detected based on the similarity obtained by comparing the SURF feature of each frame image of the first moving image stored in the image feature database with the frame matching process. It is a train position detection system using image processing characterized by.

また、この発明は、
動画の撮影が可能なカメラが設置された列車を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第1の動画の各フレーム画像から抽出されたSURF特徴および当該SURF特徴と対応付けられた位置情報を格納した画像特徴データベースを有し、
上記第1の動画が収録された日時と異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第2の動画の指定されたフレーム画像のSURF特徴と上記画像特徴データベースに格納された上記第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて上記列車の走行位置を検出することを特徴とする画像処理を利用した列車位置および環境変化検出システムである。
In addition, this invention
The SURF feature extracted from each frame image of the first moving image recorded by shooting the space ahead of the traveling direction with the camera while traveling on a train on which a camera capable of shooting the moving image is installed, and Having an image feature database storing location information associated with the SURF feature;
The designated frame image of the second video recorded by photographing the space ahead of the traveling direction with the camera while running the train on the track at a date and time different from the date and time when the first video was recorded. The train's travel position is detected based on the similarity obtained by comparing the SURF feature of each frame image of the first moving image stored in the image feature database with the frame matching process. Is a train position and environment change detection system using image processing characterized by.

この列車位置検出システムあるいは列車位置および環境変化検出システムにおいて、第1の動画の各フレーム画像から抽出されたSURF特徴と対応付けられた位置情報は、例えば、第1の動画の各フレーム画像と対応付けられたキロ程情報あるいは第1の動画の各フレーム画像と対応付けられた速度情報から速度の積分により求められる距離情報であるが、これに限定されるものではない。この速度情報は、例えば、列車に設置された速度発電機またはGPS受信機により取得されるものであるが、これに限定されるものではない。   In this train position detection system or train position and environment change detection system, the position information associated with the SURF feature extracted from each frame image of the first moving image corresponds to, for example, each frame image of the first moving image. The distance information is obtained by integrating the speed from the attached kilometer information or the speed information associated with each frame image of the first moving image, but is not limited thereto. The speed information is acquired by, for example, a speed generator or a GPS receiver installed on the train, but is not limited thereto.

第2の動画の指定されたフレーム画像のSURF特徴と画像特徴データベースに格納された第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度は、好適には、第2の動画の指定されたフレーム画像から抽出されたSURF特徴点数に対する、第1の動画のフレーム画像と第2の動画の指定されたフレーム画像との間で対応点があるSURF特徴点数の比である。この場合、第1の動画のフレーム画像と第2の動画の指定されたフレーム画像との間で対応点があるSURF特徴点の対は、典型的には、SURF特徴の特徴記述ベクトルのユークリッド距離が最も短い対である。好適には、第2の動画の各フレーム画像と対応付けられた速度情報のみによる列車の位置の推定結果に上記の類似度を重みとして反映させることにより列車の位置を検出する。こうすることで、列車の位置を高精度に検出することができる。   The similarity obtained by comparing the SURF feature of the specified frame image of the second moving image with the SURF feature of each frame image of the first moving image stored in the image feature database by frame matching processing is preferably Is the number of SURF feature points corresponding to the number of SURF feature points extracted from the designated frame image of the second movie between the frame image of the first movie and the designated frame image of the second movie. Ratio. In this case, a pair of SURF feature points having corresponding points between the frame image of the first moving image and the designated frame image of the second moving image is typically the Euclidean distance of the feature description vector of the SURF feature. Is the shortest pair. Preferably, the position of the train is detected by reflecting the above similarity as a weight in the estimation result of the position of the train based only on the speed information associated with each frame image of the second moving image. By doing so, the position of the train can be detected with high accuracy.

鉄道の軌道に特有な枕木などの、周期的に設けられた構造物による検出精度の低下を防止するために、好適には、第1の動画および第2の動画の各フレーム画像からSURF特徴を抽出する際に、例えば、当該フレーム画像の下部中央の軌道部分と中央遠隔風景部分とをマスク画像によりマスクしておく。   In order to prevent a decrease in detection accuracy due to a periodically provided structure such as a sleeper unique to a railway track, preferably, SURF features are obtained from the frame images of the first moving image and the second moving image. At the time of extraction, for example, the lower center trajectory portion and the central remote landscape portion of the frame image are masked with a mask image.

第2の動画のフレーム画像に対応するキロ程は、次のようにして求めることもできる。すなわち、列車に前後方向加速度計およびGPS受信機を設置する。こうして前後方向加速度計およびGPS受信機を設置した列車を軌道上を走行させながらカメラにより進行方向前方の空間を撮影することにより第1の動画および上記の前後方向加速度計により計測される前後方向加速度の積分または上記のGPS受信機により取得される速度情報を収録し、収録された第1の動画の各フレーム画像に手動などでキロ程を割り振って画像データベースを作成する。そして、第1の動画が収録された日時以後の異なる日時に列車を軌道上を走行させながらカメラにより進行方向前方の空間を撮影することにより収録される第2の動画と上記の画像データベースに格納された第1の動画とを比較することにより第2の動画の指定されたフレーム画像が第1の動画のどのフレーム画像に対応するかを決定することにより第2の動画のフレーム画像に対応するキロ程を決定する。   The kilometer corresponding to the frame image of the second moving image can also be obtained as follows. That is, a longitudinal accelerometer and a GPS receiver are installed on the train. Thus, the longitudinal acceleration measured by the first moving image and the longitudinal accelerometer is obtained by photographing the space ahead of the traveling direction with the camera while running on the track on the train on which the longitudinal accelerometer and the GPS receiver are installed. Or the velocity information acquired by the GPS receiver is recorded, and an image database is created by manually allocating about a kilometer to each frame image of the recorded first moving image. Then, the second moving image recorded by photographing the space ahead in the traveling direction with the camera while traveling on the train at different dates after the date and time when the first moving image was recorded and stored in the above image database. The frame image of the second moving image is determined by determining which frame image of the first moving image corresponds to the designated frame image of the second moving image by comparing with the first moving image that has been made. Determine the kilometer.

上記の列車位置および環境変化検出システムにおいては、好適には、カメラが設置された車両を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影し、軌道上の互いに異なる位置であって第2の動画の各フレーム画像に対応付けられた速度情報を用いて計算されるそれらの間の距離が選択された距離になる位置で撮影された2枚の画像を比較することにより軌道の周辺の時系列的な環境の変化を検出する。ここで、軌道上の互いに異なる位置であって速度情報を用いて計算されるそれらの間の距離は、サンプリング間隔あるいは前後2枚のフレーム間の距離と言い換えることもできる。選択された距離は、典型的には一定であり、予め決められるが、これに限定されるものではない。軌道上の互いに異なる位置であって速度情報を用いて計算されるそれらの間の距離が選択された距離になる位置で撮影された2枚の画像は視点の異なる画像であるから、この2枚の画像を比較することにより、言い換えるとこの2枚の画像を用いて一眼ステレオ視を行うことにより、軌道の周辺の時系列的な環境の変化を定量的に評価することができる。好適には、列車の進行方向と直交する面の方向に仮想支障枠が多段(あるいは多重)に設定される。   In the train position and environment change detection system described above, preferably, a space in front of the traveling direction is photographed by the camera while the vehicle on which the camera is installed is traveling on the track, and the positions are different from each other on the track. Around the trajectory by comparing two images taken at a position where the distance between them calculated using the speed information associated with each frame image of the second video is the selected distance Detects time-series environmental changes. Here, the distance between the positions that are different from each other on the trajectory and calculated using the velocity information can be rephrased as the sampling interval or the distance between the two frames. The selected distance is typically constant and predetermined, but is not limited to this. Since the two images taken at different positions on the orbit and the distance between them calculated using the speed information becomes the selected distance are images with different viewpoints, the two images By comparing these images, in other words, by performing monocular stereo vision using these two images, it is possible to quantitatively evaluate the time-series environmental changes around the orbit. Preferably, the virtual obstacle frames are set in multiple stages (or multiples) in the direction of the plane orthogonal to the traveling direction of the train.

動画の撮影が可能なカメラは、列車の進行方向前方の空間を撮影することができるように設置され、典型的には、車両の運転室内、例えば運転室の前方の窓ガラスの内側に設置される。このカメラとしては、動画の撮影が可能である限り、基本的にはどのようなものを用いてもよく、デジタルカメラであってもアナログカメラであってもよく、録画機能の有無も問わない。このカメラは、例えば、ビデオカメラ、工業用カメラなどである。ビデオカメラとしては、好適にはデジタルビデオカメラが用いられ、取り分け、高解像度のデジタルビデオカメラ、例えばハイビジョンデジタルビデオカメラが用いられる。ビデオカメラとしては、遠赤外線を利用したサーモグラフィビデオカメラを用いてもよく、これによってこの列車位置検出システムあるいは列車位置および環境変化検出システムを夜間に利用することが可能となる。カメラにより撮影される画像と車両の速度情報とを画像同期装置により同期することにより、カメラにより撮影される画像と車両の速度情報とを一対一に関連付けすることができる。画像同期装置は、典型的には、カメラと共に列車の車両内に設置される。画像同期装置としては、画像同期が可能である限り、基本的にはどのようなものを用いてもよく、従来公知のものを用いることができる。画像同期装置は、専用化された画像同期装置であってもよいし、ソフトウェアで画像同期機能を持たせたコンピュータ、データロガーなどであってもよい。専用化された画像同期装置としては、好適には、選択された時間間隔毎に取得され、データインデクス(あるいは同期番号)がそれぞれ付与された速度情報のデータインデクスを選択された時間間隔毎に音声レベル信号に変換するデジタル/アナログ変換回路を有する画像同期装置が用いられる(特許文献3参照。)。この画像同期装置は、典型的には、音声入力機能を有するカメラの音声入力端子が接続される出力端子を有し、上記のデジタル/アナログ変換回路から出力される音声レベル信号はその出力端子から出力される。データインデクスは、典型的には、シリアル通信規格のシリアル信号として画像同期装置の入力端子に送られる。シリアル通信規格は、例えば、RS485、RS422AまたはRS232Cであり、これらの中から必要に応じて選択されるが、中でもRS485が好ましい。一つの典型的な例では、データインデクスを1200Hzまたは2200Hzの周波数信号に変換し、「1」を1200Hz、「0」を2200Hzとする。典型的な例では、画像同期装置は、シリアル通信規格のシリアル信号として画像同期装置の入力端子に送られるデータインデクスをTTLレベルの信号に変換するTTLレベル変換回路を有し、このTTLレベル変換回路の出力がデジタル/アナログ変換回路に入力される。速度情報あるいはこれに加えて他のセンサーデータなどを取得する時間間隔および音声レベル信号に変換する時間間隔は必要に応じて選ばれる。データインデクスのビット数は必要に応じて選ばれるが、例えば6ビット以上10ビット以下である。   Cameras capable of shooting videos are installed so that the space ahead of the traveling direction of the train can be taken, and are typically installed inside the cab of the vehicle, for example, inside the window glass in front of the cab. The Any camera may be used as long as it can shoot a moving image, and it may be a digital camera or an analog camera, and may or may not have a recording function. This camera is, for example, a video camera or an industrial camera. As the video camera, a digital video camera is preferably used, and in particular, a high-resolution digital video camera such as a high-definition digital video camera is used. As the video camera, a thermographic video camera using far-infrared rays may be used. This makes it possible to use this train position detection system or the train position and environment change detection system at night. By synchronizing the image photographed by the camera and the vehicle speed information by the image synchronizer, the image photographed by the camera and the vehicle speed information can be associated one-to-one. The image synchronizer is typically installed in a train vehicle together with a camera. As the image synchronization device, basically any device can be used as long as image synchronization is possible, and a conventionally known device can be used. The image synchronization apparatus may be a dedicated image synchronization apparatus, or may be a computer, a data logger, or the like provided with an image synchronization function by software. As a dedicated image synchronization apparatus, preferably, a data index of speed information obtained at each selected time interval and assigned with a data index (or synchronization number) is sounded at each selected time interval. An image synchronization apparatus having a digital / analog conversion circuit for converting to a level signal is used (see Patent Document 3). This image synchronizer typically has an output terminal to which an audio input terminal of a camera having an audio input function is connected, and an audio level signal output from the digital / analog conversion circuit is output from the output terminal. Is output. The data index is typically sent to the input terminal of the image synchronizer as a serial signal of serial communication standard. The serial communication standard is, for example, RS485, RS422A, or RS232C, and is selected as necessary from among these, among which RS485 is preferable. In one typical example, the data index is converted into a frequency signal of 1200 Hz or 2200 Hz, and “1” is 1200 Hz and “0” is 2200 Hz. In a typical example, the image synchronization apparatus has a TTL level conversion circuit that converts a data index sent to the input terminal of the image synchronization apparatus as a serial signal of the serial communication standard into a TTL level signal. The TTL level conversion circuit Are input to the digital / analog conversion circuit. The time interval for acquiring the speed information or other sensor data in addition to this and the time interval for converting to the audio level signal are selected as necessary. The number of bits of the data index is selected as necessary, and is, for example, 6 bits or more and 10 bits or less.

列車位置検出システムあるいは列車位置および環境変化検出システムは、カメラおよび画像同期装置に加えて、例えば、車両内に設置される車両動揺測定装置をさらに有する。この車両動揺測定装置は、例えば、加速度センサー、角速度センサーおよび傾斜センサーからなる群から選ばれた少なくとも一つを有する。このうち加速度センサーは、軌道上を走行する列車の車両の前後方向、左右方向および上下方向の加速度を検出する3軸加速度センサーである。   The train position detection system or the train position and environment change detection system further includes, for example, a vehicle motion measurement device installed in the vehicle, in addition to the camera and the image synchronization device. This vehicle vibration measuring device has, for example, at least one selected from the group consisting of an acceleration sensor, an angular velocity sensor, and a tilt sensor. Among these, the acceleration sensor is a three-axis acceleration sensor that detects the acceleration in the front-rear direction, the left-right direction, and the up-down direction of a train vehicle traveling on the track.

この発明によれば、第2の動画の指定されたフレーム画像のSURF特徴と画像特徴データベースに格納された第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて列車の走行位置を検出するので、列車の走行位置を高精度にかつ低コストで検出することができる。また、列車位置および環境変化検出システムによれば、列車の走行位置を高精度にかつ低コストで検出することができ、それによって列車が走行する軌道の周辺の時系列的な環境の変化を容易にかつ正確に検出することができる。   According to this invention, the SURF feature of the designated frame image of the second moving image is obtained by comparing the SURF feature of each frame image of the first moving image stored in the image feature database by the frame matching process. Since the traveling position of the train is detected based on the similarity, the traveling position of the train can be detected with high accuracy and at low cost. In addition, the train position and environment change detection system can detect the travel position of the train with high accuracy and low cost, thereby facilitating time-series environmental changes around the track on which the train travels. And can be detected accurately.

この発明の第1の実施の形態による列車位置検出システムの概要を示す略線図である。1 is a schematic diagram showing an outline of a train position detection system according to a first embodiment of the present invention. この発明の第1の実施の形態による列車位置検出システムの画像同期装置の回路構成の一例を示す回路図である。It is a circuit diagram which shows an example of the circuit structure of the image synchronizer of the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムの画像同期装置においてデータインデクスを音声レベル信号に変換する方法を説明するための略線図である。It is a basic diagram for demonstrating the method to convert a data index into an audio | voice level signal in the image synchronizer of the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムの画像同期装置の具体的な構成例を示す略線図である。It is a basic diagram which shows the specific structural example of the image synchronizer of the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムの車両動揺測定装置の構成例を示す略線図である。It is a basic diagram which shows the structural example of the vehicle fluctuation measuring apparatus of the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムの車両動揺測定装置の筐体の構成例を示す平面図、正面図および側面図である。It is the top view, front view, and side view which show the structural example of the housing | casing of the vehicle fluctuation measuring apparatus of the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムの車両動揺測定装置の各部の信号波形の一例を示す略線図である。It is a basic diagram which shows an example of the signal waveform of each part of the vehicle oscillation measuring apparatus of the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムの画像同期装置の各部の信号波形の一例を示す略線図である。It is a basic diagram which shows an example of the signal waveform of each part of the image synchronizer of the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムのカメラ姿勢調整プログラムの画面の一例を示す略線図である。It is a basic diagram which shows an example of the screen of the camera attitude | position adjustment program of the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムの連動表示プログラムの画面の一例を示す略線図である。It is a basic diagram which shows an example of the screen of the interlocking display program of the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムにおいて用いられるフレームマッチング処理の概念を説明するための略線図である。It is a basic diagram for demonstrating the concept of the frame matching process used in the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムにおいて用いられる画像特徴データベースの生成処理とフレームマッチング処理との関係を示す略線図である。It is a basic diagram which shows the relationship between the production | generation process of the image feature database used in the train position detection system by 1st Embodiment of this invention, and a frame matching process. この発明の第1の実施の形態による列車位置検出システムにおいて用いられる画像特徴データベースの生成処理フローを示す略線図である。It is a basic diagram which shows the production | generation processing flow of the image feature database used in the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムにおいて用いられるSURF特徴による対応点探索の一例を示す図面代用写真である。It is a drawing substitute photograph which shows an example of the corresponding point search by the SURF characteristic used in the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムにおいて用いられるSURF特徴によるテンプレートマッチングの一例を示す図面代用写真である。It is a drawing substitute photograph which shows an example of the template matching by the SURF characteristic used in the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムにおいて用いられるSURF特徴の抽出例を示す図面代用写真である。It is a drawing substitute photograph which shows the example of extraction of the SURF characteristic used in the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムにおいて用いられるフレームマッチング処理のフローを示す略線図である。It is a basic diagram which shows the flow of the frame matching process used in the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムにおいて用いられるリファレンスビデオ画像の開始フレームに対応するベースビデオ画像のフレーム画像の探索フローを示す略線図である。It is a basic diagram which shows the search flow of the frame image of the base video image corresponding to the start frame of the reference video image used in the train position detection system by 1st Embodiment of this invention. SIFT特徴の特徴記述ベクトルを説明するための略線図である。It is a basic diagram for demonstrating the feature description vector of a SIFT feature. この発明の第1の実施の形態による列車位置検出システムにおけるリファレンスビデオ画像の開始フレームに対するSURF特徴の抽出結果の一例を示す図面代用写真である。It is a drawing substitute photograph which shows an example of the extraction result of the SURF characteristic with respect to the start frame of the reference video image in the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムにおけるリファレンスビデオ画像の開始フレームのSURF特徴と画像特徴データベースに格納されたベースビデオ画像のSURF特徴とのマッチングの例を示す図面代用写真である。6 is a drawing-substituting photograph showing an example of matching between the SURF feature of the start frame of the reference video image and the SURF feature of the base video image stored in the image feature database in the train position detection system according to the first embodiment of the present invention. . この発明の第1の実施の形態による列車位置検出システムにおけるリファレンスビデオ画像の開始フレームおよびこの開始フレームに対応付けられたベースビデオ画像のフレームの例を示す図面代用写真である。It is a drawing substitute photograph which shows the example of the start frame of the reference video image in the train position detection system by 1st Embodiment of this invention, and the frame of the base video image matched with this start frame. この発明の第1の実施の形態による列車位置検出システムにおけるリファレンスビデオ画像の開始位置での確率密度分布の一例を示す図面代用写真である。It is a drawing substitute photograph which shows an example of the probability density distribution in the start position of the reference video image in the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムにおける速度情報による確率密度分布の更新の様子の一例を示す図面代用写真である。It is a drawing substitute photograph which shows an example of the mode of update of probability density distribution by the speed information in the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムにおけるSURF特徴のマッチングによる速度累積誤差の修正方法を示す略線図である。It is a basic diagram which shows the correction method of the speed accumulation error by matching of the SURF characteristic in the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムにおいてSURF特徴の抽出時に用いるマスク画像の一例を示す略線図である。It is a basic diagram which shows an example of the mask image used at the time of extraction of SURF feature in the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムにおいて用いられるフレームマッチング処理の精度を説明するための略線図である。It is a basic diagram for demonstrating the precision of the frame matching process used in the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR草津線でのフレームマッチング結果を示す図面代用写真である。It is a drawing substitute photograph which shows the frame matching result in JR Kusatsu Line performed using the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR草津線でのフレームマッチング結果を示す図面代用写真である。It is a drawing substitute photograph which shows the frame matching result in JR Kusatsu Line performed using the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR草津線でのフレームマッチング結果を示す図面代用写真である。It is a drawing substitute photograph which shows the frame matching result in JR Kusatsu Line performed using the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR草津線でのフレームマッチング結果を示す図面代用写真である。It is a drawing substitute photograph which shows the frame matching result in JR Kusatsu Line performed using the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR草津線でのフレームマッチング結果を示す略線図である。It is a basic diagram which shows the frame matching result in JR Kusatsu Line performed using the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR奈良線でのフレームマッチング結果を示す図面代用写真である。It is a drawing substitute photograph which shows the frame matching result in JR Nara Line performed using the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR奈良線でのフレームマッチング結果を示す図面代用写真である。It is a drawing substitute photograph which shows the frame matching result in JR Nara Line performed using the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR奈良線でのフレームマッチング結果を示す図面代用写真である。It is a drawing substitute photograph which shows the frame matching result in JR Nara Line performed using the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR奈良線でのフレームマッチング結果を示す図面代用写真である。It is a drawing substitute photograph which shows the frame matching result in JR Nara Line performed using the train position detection system by 1st Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR草津線でのフレームマッチング結果を示す略線図である。It is a basic diagram which shows the frame matching result in JR Kusatsu Line performed using the train position detection system by 1st Embodiment of this invention. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラムの検知画面の一例を示す略線図である。It is a basic diagram which shows an example of the detection screen of the building limit trouble detection program by the building limit trouble detection technique used as the foundation of environmental change extraction in the train position and environment change detection system by 2nd Embodiment of this invention. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラム設定画面の一例を示す略線図である。It is a basic diagram which shows an example of the building limit trouble detection program setting screen by the building limit trouble detection technique used as the basis of environmental change extraction in the train position and environment change detection system by 2nd Embodiment of this invention. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラム設定画面で用いられる軌道座標系の定義を示す略線図である。Outline lines showing the definition of the track coordinate system used in the construction limit trouble detection program setting screen by the construction limit trouble detection technology which is the basis of the environment change extraction in the train position and environment change detection system according to the second embodiment of the present invention. FIG. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による仮想建築限界枠設定画面の一例を示す略線図である。It is a basic diagram which shows an example of the virtual building limit frame setting screen by the building limit trouble detection technique used as the basis of an environmental change extraction in the train position and environmental change detection system by 2nd Embodiment of this invention. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による仮想建築限界枠設定画面で用いられる建築限界枠幅の設定方法を示す略線図である。The abbreviation which shows the setting method of the building limit frame width used by the virtual building limit frame setting screen by the building limit trouble detection technique used as the basis of an environmental change extraction in the train position and environment change detection system by 2nd Embodiment of this invention. FIG. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による仮想建築限界枠とビデオカメラ画像上の画素との関係の一例を示す略線図である。The abbreviation which shows an example of the relationship between the virtual building limit frame and the pixel on a video camera image by the building limit trouble detection technique used as the basis of environment change extraction in the train position and environment change detection system according to the second embodiment of the present invention FIG. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術においてデジタルビデオカメラが前進した場合の見え方の変化の一例を説明するための略線図である。FIG. 7 is a diagram for explaining an example of a change in appearance when a digital video camera moves forward in a construction limit obstacle detection technology that is a basis of environment change extraction in a train position and environment change detection system according to a second embodiment of the present invention; It is a basic diagram. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術において前進するデジタルビデオカメラの画像の一例を示す略線図である。It is a basic diagram which shows an example of the image of the digital video camera which advances in the construction limit obstacle detection technique used as the foundation of environmental change extraction in the train position and environmental change detection system by 2nd Embodiment of this invention. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラムの検知画面における消失点および画像の移動方向の一例を示す略線図である。An example of the vanishing point and the moving direction of the image on the detection screen of the building limit trouble detection program based on the building limit trouble detection technology that is the basis of the environment change extraction in the train position and environment change detection system according to the second embodiment of the present invention. FIG. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラムにおけるデジタルビデオカメラの前進前および前進後の仮想建築限界枠の一例を示す略線図である。The virtual building limit before and after the advancement of the digital video camera in the building limit trouble detection program by the building limit trouble detection technique which is the basis of the environment change extraction in the train position and environment change detection system according to the second embodiment of the present invention It is a basic diagram which shows an example of a frame. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラムにおいてエピ極線上の追尾の方法の一例を示す略線図である。Outline line showing an example of tracking method on epipolar line in building limit trouble detection program by building limit trouble detection technology which is the basis of environment change extraction in train position and environment change detection system according to second embodiment of this invention FIG. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラムにおけるエピ極線上の追尾による類似度プロファイルの一例を示す略線図である。An example of the similarity profile by the tracking on the epipolar line in the building limit trouble detection program by the building limit trouble detection technique which is the basis of the environment change extraction in the train position and environment change detection system according to the second embodiment of the present invention is shown. It is a basic diagram. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術を用いて行われた試験線撮影試験における追尾の安定化を図るための検討結果を説明するための略線図である。Examination for stabilizing tracking in a test line photographing test performed using a construction limit obstacle detection technique which is the basis of environmental change extraction in the train position and environmental change detection system according to the second embodiment of the present invention. It is a basic diagram for demonstrating a result. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術を用いて行われた試験線撮影試験における異なる地点間の類似度プロファイルの合成方法の一例を示す略線図である。Synthesis of similarity profiles between different points in a test line photography test performed using a construction limit obstacle detection technique that is the basis for environmental change extraction in the train position and environmental change detection system according to the second embodiment of the present invention. It is a basic diagram which shows an example of a method. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出に用いられる支障限界枠の一例を示す略線図である。It is a basic diagram which shows an example of the trouble limit frame used for an environmental change extraction in the train position and environmental change detection system by 2nd Embodiment of this invention. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出に用いられる多重支障限界枠の一例を示す略線図である。It is a basic diagram which shows an example of the multiple obstacle limit frame used for an environmental change extraction in the train position and environmental change detection system by 2nd Embodiment of this invention. この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により線路脇の電柱について建築限界枠支障個数を求めた結果を示す略線図である。It is a basic diagram which shows the result of having calculated | required the number of construction limit frame troubles about the utility pole of a trackside by the test run performed on the actual line using the train position and environmental change detection system by 2nd Embodiment of this invention. . この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られた結果の解析においてベースビデオ画像とリファレンスビデオ画像との対応する一対のフレームのみで差異を計算した一例を示す略線図である。A pair of frames corresponding to a base video image and a reference video image in an analysis of a result obtained by a test run performed on an actual route using the train position and environment change detection system according to the second embodiment of the present invention It is a basic diagram which shows an example which calculated the difference only by. この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたベースビデオ画像の処理対象区間の様子を示す図面代用写真である。It is a drawing substitute photograph which shows the mode of the process target area of the base video image obtained by the test driving | running | working performed on the actual route using the train position and environment change detection system by 2nd Embodiment of this invention. この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたリファレンスビデオ画像の処理対象区間の様子を示す図面代用写真である。It is a drawing substitute photograph which shows the mode of the process target area of the reference video image obtained by the test driving | running | working performed on the actual route using the train position and environment change detection system by 2nd Embodiment of this invention. この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたベースビデオ画像における仮想建築限界枠による支障検出結果を示す図面代用写真である。It is a drawing substitute photograph which shows the trouble detection result by the virtual building limit frame in the base video image obtained by the test run performed on the actual route using the train position and environment change detection system according to the second embodiment of the present invention. is there. この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたリファレンスビデオ画像における仮想建築限界枠による支障検出結果を示す図面代用写真である。It is a drawing substitute photograph which shows the trouble detection result by the virtual building limit frame in the reference video image obtained by the test run performed on the actual route using the train position and environment change detection system according to the second embodiment of the present invention. is there. この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたベースビデオ画像およびリファレンスビデオ画像における注目箇所の支障点個数および差異検出結果を示す図面代用写真である。The number of troubled points and the difference detection result of the attention location in the base video image and the reference video image obtained by the test running performed on the actual route using the train position and environment change detection system according to the second embodiment of the present invention FIG. この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたベースビデオ画像の処理対象区間の様子を示す図面代用写真である。It is a drawing substitute photograph which shows the mode of the process target area of the base video image obtained by the test driving | running | working performed on the actual route using the train position and environment change detection system by 2nd Embodiment of this invention. この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたリファレンスビデオ画像の処理対象区間の様子を示す図面代用写真である。It is a drawing substitute photograph which shows the mode of the process target area of the reference video image obtained by the test driving | running | working performed on the actual route using the train position and environment change detection system by 2nd Embodiment of this invention. この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたベースビデオ画像およびリファレンスビデオ画像の注目箇所の支障点個数および差異検出の結果を示す略線図である。The number of trouble points and the difference detection of the attention points of the base video image and the reference video image obtained by the test run performed on the actual line using the train position and environment change detection system according to the second embodiment of the present invention. It is a basic diagram which shows a result. この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたリファレンスビデオ画像における仮想建築限界枠による電柱の支障の検出結果を示す略線図である。The abbreviation which shows the detection result of the trouble of the utility pole by the virtual building limit frame in the reference video image obtained by the test run performed on the actual route using the train position and environment change detection system according to the second embodiment of the present invention. FIG. この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて用いられる拡大された仮想建築限界枠を示す略線図である。It is a basic diagram which shows the expanded virtual building limit frame used in the train position and environmental change detection system by 2nd Embodiment of this invention. この発明の第1の実施の形態による列車位置検出システムあるいは第2の実施の形態による列車位置および環境変化検出システムにおいて用いられる複数ビデオ画像のハンドリング機能を有するアプリケーションの操作方法を説明するための略線図である。Abbreviation for explaining an operation method of an application having a function of handling a plurality of video images used in the train position detection system according to the first embodiment of the present invention or the train position and environment change detection system according to the second embodiment. FIG. この発明の第1の実施の形態による列車位置検出システムあるいは第2の実施の形態による列車位置および環境変化検出システムにおいて用いられるキロ程決め技術を説明するための略線図である。It is a basic diagram for demonstrating the kilometer determination technique used in the train position detection system by 1st Embodiment of this invention or the train position and environment change detection system by 2nd Embodiment. この発明の第1の実施の形態による列車位置検出システムあるいは第2の実施の形態による列車位置および環境変化検出システムにおいて用いられるキロ程決め技術を説明するための略線図である。It is a basic diagram for demonstrating the kilometer determination technique used in the train position detection system by 1st Embodiment of this invention or the train position and environment change detection system by 2nd Embodiment. この発明の第5の実施の形態による列車位置検出システムを示す略線図である。It is a basic diagram which shows the train position detection system by 5th Embodiment of this invention.

以下、発明を実施するための形態(以下「実施の形態」という)について説明する。   Hereinafter, modes for carrying out the invention (hereinafter referred to as “embodiments”) will be described.

〈第1の実施の形態〉
第1の実施の形態による画像処理を利用した列車位置検出システム(以下「列車位置検出システム」という。)について説明する。
<First Embodiment>
A train position detection system (hereinafter referred to as “train position detection system”) using image processing according to the first embodiment will be described.

[列車位置検出システムの全体構成]
図1はこの列車位置検出システムの概要を示す。図1に示すように、この列車位置検出システムにおいては、画像同期装置10を介して、音声入力機能を有するデジタルビデオカメラ20と車両動揺測定装置30とが接続されている。より詳細には、車両動揺測定装置30の出力端子と画像同期装置10の入力端子とがケーブルC1により接続され、画像同期装置10の出力端子とデジタルビデオカメラ20の音声入力端子とがケーブルC2により接続されている。これらの画像同期装置10、デジタルビデオカメラ20および車両動揺測定装置30は車両内、具体的には、例えば先頭車両内に設置される。
[Overall configuration of train position detection system]
FIG. 1 shows an outline of this train position detection system. As shown in FIG. 1, in this train position detection system, a digital video camera 20 having a voice input function and a vehicle shake measurement device 30 are connected via an image synchronization device 10. More specifically, the output terminal of the vehicle shake measuring device 30 and the input terminal of the image synchronization device 10 are connected by a cable C1, and the output terminal of the image synchronization device 10 and the audio input terminal of the digital video camera 20 are connected by a cable C2. It is connected. These image synchronizer 10, digital video camera 20, and vehicle motion measuring device 30 are installed in the vehicle, specifically, for example, in the leading vehicle.

デジタルビデオカメラ20は、例えば、列車の先頭車両の運転室内に、進行方向前方の空間を撮影することができるように設置される。より具体的には、デジタルビデオカメラ20は、例えば、先頭車両の運転室の前方の窓ガラスの内側の面や窓ガラスの内側の面の直ぐ手前の台上に強力な吸盤などを用いて動かないように設置される。デジタルビデオカメラ20としては、市販の汎用デジタルビデオカメラを用いることができるが、好適には、高解像度のデジタルビデオカメラ、例えばハイビジョンデジタルビデオカメラが用いられる。   For example, the digital video camera 20 is installed in the driver's cab of the leading vehicle of the train so that a space ahead in the traveling direction can be photographed. More specifically, the digital video camera 20 is moved using, for example, a powerful sucker on the inner surface of the window glass in front of the driver's cab of the leading vehicle or on a table immediately in front of the inner surface of the window glass. It is installed so that there is no. A commercially available general-purpose digital video camera can be used as the digital video camera 20, but a high-resolution digital video camera such as a high-definition digital video camera is preferably used.

車両動揺測定装置30は、例えば、加速度センサー、角速度センサーおよび傾斜センサーからなる群から選ばれた少なくとも一つのセンサーを有する。このうち加速度センサーは、線路を走行する車両の前後方向、左右方向および上下方向の加速度を検出する3軸加速度センサーである。車両動揺測定装置30にはケーブルC3を介してGPS受信機38が接続されている。車両動揺測定装置30は、GPS受信機38により受信されるGPS信号により、車両の位置(緯度、経度)の情報および速度情報(NMEA0183)を取得し、記録することができるように構成されている。また、車両動揺測定装置30は、車両の車軸端などに設置された速度発電機から送出されるパルス電圧により軌道上の位置(キロ程)および速度情報を取得し、記録することができるように構成されている。車両動揺測定装置30の詳細については後述する。   The vehicle sway measurement device 30 includes, for example, at least one sensor selected from the group consisting of an acceleration sensor, an angular velocity sensor, and a tilt sensor. Among these, the acceleration sensor is a three-axis acceleration sensor that detects the acceleration in the front-rear direction, the left-right direction, and the up-down direction of the vehicle traveling on the track. A GPS receiver 38 is connected to the vehicle vibration measuring device 30 via a cable C3. The vehicle oscillation measuring device 30 is configured to acquire and record information on the vehicle position (latitude, longitude) and speed information (NMEA0183) from a GPS signal received by the GPS receiver 38. . Further, the vehicle sway measuring device 30 can acquire and record the position (about kilometer) and speed information on the track by the pulse voltage sent from the speed generator installed at the axle end of the vehicle. It is configured. Details of the vehicle oscillation measuring device 30 will be described later.

画像同期装置10は、車両の走行中に、デジタルビデオカメラ20により選択されたサンプリング間隔で撮影される線路空間の画像(フレーム)と車両動揺測定装置30により取得される時系列の位置情報および速度情報とを同期させ、互いに一対一の関連付けを行うために用いられる。このために、画像同期装置10では、車両動揺測定装置30により生成されたデータインデクス(data index)(あるいは同期番号)が音声エンコードされ、デジタルビデオカメラ20の音声トラックに記録される。画像同期装置10の詳細については後述する。車両動揺測定装置30では、速度発電機から送出されるパルス電圧を記録し、上述と同様に撮影画像との関連付けを行う。   The image synchronizer 10 includes an image (frame) of a track space photographed at a sampling interval selected by the digital video camera 20 while the vehicle is running, and time-series position information and speed acquired by the vehicle shake measuring device 30. Used to synchronize information and make a one-to-one association with each other. For this purpose, in the image synchronization device 10, the data index (or synchronization number) generated by the vehicle motion measurement device 30 is audio-encoded and recorded on the audio track of the digital video camera 20. Details of the image synchronization apparatus 10 will be described later. The vehicle sway measuring device 30 records the pulse voltage sent from the speed generator and associates it with the captured image in the same manner as described above.

デジタルビデオカメラ20の設置の仕方の一例を説明する。すなわち、デジタルビデオカメラ20の設置時には、線路の消失点がカメラ画像中心に来るように、しかも画面垂直方向が重力軸に平行になるようにする。この際、これらの調整を正確に行うため、画面に補助線を表示するようにする。また、デジタルビデオカメラ20のレンズの広角端で撮影を行うため、デジタルビデオカメラ20の設置時にこの補助線を使うにあたりレンズ歪および画像中心のずれが無視できないことから、レンズ歪補正および画像中心補正を施したビデオカメラ画像に補助線が引かれるツールプログラム(カメラセットアッププログラム)を開発し、このツールプログラムをインストールしたノート型パーソナルコンピュータ(ノートPC)を車両内に持ち込んで使用する。また、この際、デジタルビデオカメラ20から出力されるHDMI(登録商標)信号をPCで入力できる形式(H.264)に変換するHDMI−USB変換器をデジタルビデオカメラ20とノートPCとの間に接続する。   An example of how to install the digital video camera 20 will be described. That is, when the digital video camera 20 is installed, the vanishing point of the track is positioned at the center of the camera image, and the screen vertical direction is parallel to the gravity axis. At this time, in order to accurately perform these adjustments, an auxiliary line is displayed on the screen. In addition, since shooting is performed at the wide-angle end of the lens of the digital video camera 20, lens distortion and image center correction cannot be ignored when using this auxiliary line when the digital video camera 20 is installed. A tool program (camera setup program) in which an auxiliary line is drawn on the video camera image subjected to is developed, and a notebook personal computer (notebook PC) installed with this tool program is brought into the vehicle and used. At this time, an HDMI-USB converter that converts an HDMI (registered trademark) signal output from the digital video camera 20 into a format (H.264) that can be input by a PC is provided between the digital video camera 20 and the notebook PC. Connecting.

上記のデジタルビデオカメラ20のレンズ歪補正係数および画像中心のずれ、また後の処理で用いる焦点距離を別途較正しておく。これをカメラ内部パラメータキャリブレーションと呼ぶ。このために、上記のノートPCにはカメラ内部パラメータキャリブレーションプログラムをインストールしておく。このカメラ内部パラメータキャリブレーションのパラメータはファイルとして保存され、上記のデジタルビデオカメラ20の設置時の作業および後の列車位置検出機能において用いられる。   The lens distortion correction coefficient and the image center deviation of the digital video camera 20 and the focal length used in later processing are separately calibrated. This is called camera internal parameter calibration. For this purpose, a camera internal parameter calibration program is installed in the notebook PC. The parameters of the camera internal parameter calibration are stored as a file, and are used in the work at the time of installation of the digital video camera 20 and the function of detecting the train position later.

列車を走行させながらデジタルビデオカメラ20により撮影が行われた後、車両動揺測定装置30から、動揺・緯度経度・速度データおよびデータインデクスが、例えば撮影回数分CSVファイルとしてデータ処理PC50に渡される。また、デジタルビデオカメラ20からは、撮影画像および音声エンコードされた車両動揺測定装置30発行のデータインデクスがデータ処理PC50に渡される。データ処理PC50には、後に詳述する、フレームマッチング処理を始めとした各種の処理を行うための列車位置検出プログラムがインストールされている。データ処理PC50は、列車内あるいは列車外のオフィスなどに設置される。車両動揺測定装置30からの動揺・緯度経度・速度データおよびデータインデクスは、例えばSDカード経由でデータ処理PC50に渡されてもよい。同様に、デジタルビデオカメラ20からの撮影画像および音声エンコードされた車両動揺測定装置30発行のデータインデクスは、例えばSDカード経由でデータ処理PC50に渡されてもよい。   After shooting with the digital video camera 20 while running on the train, the motion / latitude / longitude / speed data and the data index are transferred from the vehicle motion measuring device 30 to the data processing PC 50 as a CSV file for the number of times of shooting, for example. Further, the digital video camera 20 passes a captured image and a sound-encoded data index issued by the vehicle motion measuring device 30 to the data processing PC 50. The data processing PC 50 is installed with a train position detection program for performing various processes including a frame matching process, which will be described in detail later. The data processing PC 50 is installed in an office inside the train or outside the train. The motion / latitude / longitude / speed data and the data index from the vehicle motion measurement device 30 may be passed to the data processing PC 50 via an SD card, for example. Similarly, a captured image from the digital video camera 20 and a voice-encoded data index issued by the vehicle motion measuring device 30 may be passed to the data processing PC 50 via an SD card, for example.

上記の各種データは、ビデオカメラ画像と各種センサーデータとを連動表示するプログラム(連動表示プログラム)に読み込まれ、ビデオカメラ画像の音声データからデータインデクスにデコードされ、動揺・経度緯度・速度データとビデオカメラ画像のフレームとは一対一対応の関係を与えられる。また、連動表示プログラム上でビデオカメラ画像と速度グラフとを同期表示し、データが妥当か否かを確認する。   The above-mentioned various data is read into a program (linked display program) that displays video camera images and various sensor data in an interlocked manner, decoded from the audio data of the video camera images into a data index, and the motion / longitude / latitude / velocity data and video There is a one-to-one correspondence with the frame of the camera image. In addition, the video camera image and the speed graph are synchronously displayed on the interlocking display program to check whether the data is valid.

ビデオカメラ画像および速度情報が妥当であると確認された後、連動表示プログラムからビデオカメラ画像と、各フレームの速度情報とが出力され、列車位置検出プログラムに読み込まれる。   After the video camera image and the speed information are confirmed to be valid, the video camera image and the speed information of each frame are output from the interlocking display program and read into the train position detection program.

[列車位置検出システムにおけるデータファイル入出力の概要]
この列車位置検出システムにおけるデータファイル入出力について説明する。
[Outline of data file input / output in train position detection system]
Data file input / output in this train position detection system will be described.

(1)既に述べたように、画像同期装置10を介してデジタルビデオカメラ20と車両動揺測定装置30とを接続し、デジタルビデオカメラ20で撮影されたビデオカメラ画像と車両動揺測定装置30により得られた速度情報(速度データ)およびセンサーデータとを同時に収録する。
(2)車両動揺測定装置30のSDカード内には、年月日時分秒をファイル名前半とする数種類のファイルが生成される。また、デジタルビデオカメラ20のSDカード内にも年月日時分秒をファイル名とするビデオファイルが生成される。
(3)同期ビューアから車両動揺測定装置30の解析プログラムを起動(キック)し、解析プログラムのGUIでまず_vbsd.binファイルを読み込む。解析プログラム内では引き続き_vbsd.binファイル内にあるリンクから_gpsd.csvファイル、_xind.binファイルおよび_spdd.binファイルを読み込む。
(4)次に、解析プログラムのGUIを用いて、.INIファイル、.PTPファイルおよび.ANAファイルを出力し、これを同期ビューアに読み込む。
(5)同期ビューアでは、出力された.INIファイル、.PTPファイルおよび.ANAファイルを自動的に指定フォルダにコピーする。
(6)次に、同期ビューアによりビデオファイルである.mtsファイルを読み込み、音声トラックに記録されたデータインデクスを自動的にデコードし、ビデオカメラ画像のフレームとデータインデクスとの対応表ファイルを作成し出力する。
(1) As already described, the digital video camera 20 and the vehicle shake measurement device 30 are connected via the image synchronization device 10, and the video camera image captured by the digital video camera 20 and the vehicle shake measurement device 30 are obtained. Recorded speed information (speed data) and sensor data at the same time.
(2) In the SD card of the vehicle motion measuring device 30, several types of files are generated with the year / month / day / hour / minute / second as half the file name. Also, a video file having a file name of year / month / day / hour / minute / second is generated in the SD card of the digital video camera 20.
(3) Start (kick) the analysis program of the vehicle shake measurement device 30 from the synchronization viewer, and first read the _vbsd.bin file with the analysis program GUI. In the analysis program, the _gpsd.csv file, _xind.bin file, and _spdd.bin file are read from the link in the _vbsd.bin file.
(4) Next, using the analysis program GUI, output the .INI file, .PTP file, and .ANA file, and load them into the synchronization viewer.
(5) The synchronization viewer automatically copies the output .INI file, .PTP file, and .ANA file to the specified folder.
(6) Next, the synchronization viewer reads the .mts file, which is a video file, automatically decodes the data index recorded on the audio track, and creates a correspondence table file between the video camera image frame and the data index. Output.

[列車位置検出システムの詳細]
(画像同期装置10の詳細)
画像同期装置10の詳細を説明する。図2はこの画像同期装置10を示す。図2に示すように、画像同期装置10は、デジタル信号であるデータインデクス(同期番号)をアナログ信号である音声レベル信号に変換するためのデジタル/アナログ変換(D/A変換)回路11を有する。このデジタル/アナログ変換は、例えば、データインデクスの「1」を音声周波数帯の周波数f1 の周波数信号に、「0」を音声周波数帯の周波数f2 (≠f1 )の周波数信号に変換するものであり、典型的にはf2 >f1 に選ばれる。一例として、図3に、データインデクスとして6ビットの「001100」を周波数信号に変換した例を示す。f1 、f2 の具体例を挙げると、f1 =1200Hz、f2 =2200Hzであるが、これに限定されるものではない。このデータインデクスは、車両動揺測定装置30から選択された時間間隔毎に取得される時系列のデータ(位置情報のデータ、速度情報のデータおよび加速度センサーなどのセンサーデータ)にそれぞれ付与されるものであり、これらのデータに対して連番となっている。画像同期装置10は入力端子12を有し、データインデクスは車両動揺測定装置30の出力端子からこの入力端子12に送出される。データインデクスは、車両動揺測定装置30からシリアル通信規格のシリアル信号として入力端子12に供給される。シリアル通信規格は、例えば、RS485、RS422AまたはRS232Cである。画像同期装置10は出力端子13を有し、デジタル/アナログ変換回路11から出力される音声レベル信号はこの出力端子13から出力される。この出力端子13には、音声入力機能を有するデジタルビデオカメラ20の音声入力端子が接続されるようになっている。
[Details of train position detection system]
(Details of the image synchronizer 10)
Details of the image synchronization apparatus 10 will be described. FIG. 2 shows the image synchronizer 10. As shown in FIG. 2, the image synchronization apparatus 10 includes a digital / analog conversion (D / A conversion) circuit 11 for converting a data index (synchronization number) that is a digital signal into an audio level signal that is an analog signal. . In this digital / analog conversion, for example, “1” of the data index is converted into a frequency signal of frequency f 1 in the audio frequency band, and “0” is converted into a frequency signal of frequency f 2 (≠ f 1 ) in the audio frequency band. Typically, f 2 > f 1 is selected. As an example, FIG. 3 shows an example in which 6-bit “001100” is converted into a frequency signal as a data index. Specific examples of f 1 and f 2 are f 1 = 1200 Hz and f 2 = 2200 Hz, but are not limited thereto. This data index is assigned to time-series data (position information data, speed information data, and sensor data such as an acceleration sensor) acquired at each time interval selected from the vehicle motion measurement device 30. There are serial numbers for these data. The image synchronizer 10 has an input terminal 12, and the data index is sent to the input terminal 12 from the output terminal of the vehicle shake measuring device 30. The data index is supplied from the vehicle motion measuring device 30 to the input terminal 12 as a serial signal of serial communication standard. The serial communication standard is, for example, RS485, RS422A, or RS232C. The image synchronization apparatus 10 has an output terminal 13, and an audio level signal output from the digital / analog conversion circuit 11 is output from the output terminal 13. The output terminal 13 is connected to an audio input terminal of a digital video camera 20 having an audio input function.

図4は画像同期装置10の具体的な構成例を示す。図4に示すように、この画像同期装置10は、TTLレベル変換回路14、デジタル/アナログ変換回路11および音声電圧レベル変換回路15を有する。TTLレベル変換回路14は画像同期装置10の入力端子12と接続されている。入力端子12にはシリアル通信規格によるシリアル信号が供給され、このシリアル信号のレベルがTTLレベル変換回路14によりTTLレベルに変換される。こうしてTTLレベルに変換されたデータインデクスがデジタル/アナログ変換回路11に入力され、音声レベル信号に変換される。例えば、車両動揺測定装置30から入力端子12にデータインデクスがRS485レベル信号として供給され、このRS485レベル信号がTTLレベル変換回路14によりTTLレベルに変換される。デジタル/アナログ変換回路14から出力される音声レベル信号は音声電圧レベル変換回路15に入力され、電圧レベル変換が行われる。音声電圧レベル変換回路15の出力端子は画像同期装置10の出力端子13と接続されている。出力端子13には、デジタルビデオカメラ20の音声入力端子を接続することができるようになっている。デジタル/アナログ変換回路11の具体例を挙げると、HART(Highway Addressable Remote Transducer)モデム(例えば、非特許文献1参照。「HART」は登録商標。)である。HARTモデムでは、「1」を1200Hzの周波数信号に、「0」を2200Hzの周波数信号に変換する。画像同期装置10は入力端子25を有し、この入力端子25に外部マイク26を接続することができるようになっている。この外部マイク26はモノラル録音に用いられる。入力端子25は出力端子13と接続されており、必要に応じて、入力端子25に入力されるモノラル音声(あるいは、ステレオ片チャンネル)を音声レベル信号とともに出力端子13から外部に送ることができるようになっている。   FIG. 4 shows a specific configuration example of the image synchronization apparatus 10. As shown in FIG. 4, the image synchronization apparatus 10 includes a TTL level conversion circuit 14, a digital / analog conversion circuit 11, and an audio voltage level conversion circuit 15. The TTL level conversion circuit 14 is connected to the input terminal 12 of the image synchronization apparatus 10. A serial signal according to the serial communication standard is supplied to the input terminal 12, and the level of this serial signal is converted to a TTL level by the TTL level conversion circuit 14. The data index thus converted to the TTL level is input to the digital / analog conversion circuit 11 and converted into an audio level signal. For example, the data index is supplied from the vehicle motion measuring device 30 to the input terminal 12 as an RS485 level signal, and this RS485 level signal is converted to a TTL level by the TTL level conversion circuit 14. The audio level signal output from the digital / analog conversion circuit 14 is input to the audio voltage level conversion circuit 15 for voltage level conversion. The output terminal of the audio voltage level conversion circuit 15 is connected to the output terminal 13 of the image synchronization apparatus 10. An audio input terminal of the digital video camera 20 can be connected to the output terminal 13. A specific example of the digital / analog conversion circuit 11 is a HART (Highway Addressable Remote Transducer) modem (for example, see Non-Patent Document 1. “HART” is a registered trademark). In the HART modem, “1” is converted into a frequency signal of 1200 Hz, and “0” is converted into a frequency signal of 2200 Hz. The image synchronization apparatus 10 has an input terminal 25, and an external microphone 26 can be connected to the input terminal 25. The external microphone 26 is used for monaural recording. The input terminal 25 is connected to the output terminal 13 so that the monaural sound (or stereo one channel) input to the input terminal 25 can be sent to the outside from the output terminal 13 together with the sound level signal as necessary. It has become.

この画像同期装置10によれば、車両動揺測定装置30から出力される時系列のデータ(位置情報のデータ、速度情報のデータおよびセンサーデータ)に付与されたデータインデクスを音声レベル信号に変換しているので、この音声レベル信号をデジタルビデオカメラ20の音声入力端子に入力して録音することができる。このため、この音声レベル信号を用いて、位置情報のデータ、速度情報のデータおよびセンサーデータとデジタルビデオカメラ20により撮影された画像とを同期させることができる。この画像同期装置10は簡単に構成することができるため、製造コストを低く抑えることができ、しかもサイズを小さくすることができる。   According to this image synchronizer 10, the data index given to the time series data (position information data, speed information data and sensor data) output from the vehicle motion measuring device 30 is converted into an audio level signal. Therefore, this audio level signal can be input to the audio input terminal of the digital video camera 20 and recorded. Therefore, it is possible to synchronize the position information data, the speed information data, and the sensor data with the image taken by the digital video camera 20 by using the audio level signal. Since the image synchronizer 10 can be easily configured, the manufacturing cost can be kept low and the size can be reduced.

(車両動揺測定装置30の詳細)
車両動揺測定装置30の詳細を説明する。図5は車両動揺測定装置30の構成を示す。車両動揺測定装置30は、センサー処理部31、表示処理部32、位置情報処理部33、データ保存部34、外部インターフェース(I/F)制御部35および電源制御部36を有する。これらのセンサー処理部31、表示処理部32、位置情報処理部33、データ保存部34、外部インターフェース制御部35および電源制御部36は高速シリアルバス37を介して相互に接続されている。外部インターフェース制御部35の出力端子が画像同期装置10の入力端子(図4に示す入力端子12)と接続されている。位置情報処理部33には、GPS受信機38により受信されるGPS信号および速度発電機39の信号が供給されるようになっている。
(Details of the vehicle shake measuring device 30)
Details of the vehicle shake measuring device 30 will be described. FIG. 5 shows a configuration of the vehicle shake measuring device 30. The vehicle shake measuring device 30 includes a sensor processing unit 31, a display processing unit 32, a position information processing unit 33, a data storage unit 34, an external interface (I / F) control unit 35, and a power supply control unit 36. These sensor processing unit 31, display processing unit 32, position information processing unit 33, data storage unit 34, external interface control unit 35 and power supply control unit 36 are connected to each other via a high-speed serial bus 37. An output terminal of the external interface control unit 35 is connected to an input terminal (input terminal 12 shown in FIG. 4) of the image synchronization apparatus 10. The position information processing unit 33 is supplied with a GPS signal received by the GPS receiver 38 and a signal from the speed generator 39.

センサー処理部31は、軌道上を走行する車両の前後方向、左右方向および上下方向の加速度を検出するための3軸加速度センサー、角速度センサー(ヨー、ロール)および傾斜センサー(ピッチ、ロール)の出力信号が供給され、所定の処理が行われる。表示処理部32は、例えば液晶ディスプレイ(LCD)の表示制御を行う。位置情報処理部33は、GPS受信機38により受信されるGPS信号により車両の位置(経度、緯度)を測定するとともに、速度発電機39の信号により線路上の位置(キロ程)を測定する。データ保存部34は、センサー処理部31により処理されたセンサーデータおよびセンサーデータに付与されたデータインデクスを保存し、記録媒体としては例えばSDカードが用いられる。外部インターフェース制御部35は、センサー処理部31から出力されるSCI(Serial Communication Interface)のTTLレベルのデータインデクスをシリアル通信規格、例えばRS485レベルに変換して画像同期装置10の入力端子12に送る。電源制御部36はバッテリー40を備えており、センサー処理部31、表示処理部32、位置情報処理部33、データ保存部34、外部インターフェース制御部35およびディスプレイへの電源の供給を制御する。   The sensor processing unit 31 outputs the three-axis acceleration sensor, the angular velocity sensor (yaw, roll), and the inclination sensor (pitch, roll) for detecting the longitudinal, lateral, and vertical accelerations of the vehicle traveling on the track. A signal is supplied and predetermined processing is performed. The display processing unit 32 performs display control of a liquid crystal display (LCD), for example. The position information processing unit 33 measures the position (longitude and latitude) of the vehicle using the GPS signal received by the GPS receiver 38 and measures the position (about kilometer) on the track using the signal from the speed generator 39. The data storage unit 34 stores the sensor data processed by the sensor processing unit 31 and the data index attached to the sensor data, and an SD card is used as a recording medium, for example. The external interface control unit 35 converts the TTL level data index of the SCI (Serial Communication Interface) output from the sensor processing unit 31 into a serial communication standard, for example, RS485 level, and sends it to the input terminal 12 of the image synchronization apparatus 10. The power control unit 36 includes a battery 40, and controls the supply of power to the sensor processing unit 31, the display processing unit 32, the position information processing unit 33, the data storage unit 34, the external interface control unit 35, and the display.

車両動揺測定装置30の具体的な構成例(外形)を図6A、BおよびCに示す。ここで、図6Aは平面図、図6Bは正面図、図6Cは側面図である。図6A、BおよびCに示すように、車両動揺測定装置30は、直方体形状の筐体30aの内部に、図5に示すセンサー処理部31、表示処理部32、位置情報処理部33、データ保存部34、外部インターフェース制御部35、電源制御部36および高速シリアルバス37が収納されている。ここで、センサー処理部31、表示処理部32、位置情報処理部33、外部インターフェース制御部35および電源制御部36はそれぞれセンサー処理基板、表示処理基板、位置情報処理基板、外部インターフェース制御基板および電源制御基板として構成されている。筐体30aの大きさの一例を挙げると、250mm×170mm×120mm程度である。筐体30aの両端には把手30b、30cが取り付けられており、これらの把手30b、30cを両手で掴んで車両動揺測定装置30を持ち運ぶことができるようになっている。筐体30aの前面にはLCD30dが設置されている。このLCD30dの表示は表示処理部32により制御される。筐体30aの前面には電源スイッチ30eが取り付けられている。電源スイッチ30eは電源制御部36と接続されている。電源スイッチ30eにより車両動揺測定装置30の電源のオン/オフを行うことができるようになっている。   A specific configuration example (outer shape) of the vehicle shake measuring device 30 is shown in FIGS. 6A is a plan view, FIG. 6B is a front view, and FIG. 6C is a side view. As shown in FIGS. 6A, 6B, and 6C, the vehicle sway measurement device 30 includes a sensor processing unit 31, a display processing unit 32, a position information processing unit 33, and data storage shown in FIG. 5 inside a rectangular housing 30a. A unit 34, an external interface control unit 35, a power supply control unit 36, and a high-speed serial bus 37 are accommodated. Here, the sensor processing unit 31, the display processing unit 32, the position information processing unit 33, the external interface control unit 35, and the power supply control unit 36 are a sensor processing board, a display processing board, a position information processing board, an external interface control board, and a power supply, respectively. It is configured as a control board. An example of the size of the housing 30a is about 250 mm × 170 mm × 120 mm. Handles 30b and 30c are attached to both ends of the housing 30a, and the vehicle shake measuring device 30 can be carried by grasping these handles 30b and 30c with both hands. An LCD 30d is installed on the front surface of the housing 30a. The display on the LCD 30d is controlled by the display processing unit 32. A power switch 30e is attached to the front surface of the housing 30a. The power switch 30e is connected to the power controller 36. The power source of the vehicle sway measuring device 30 can be turned on / off by the power switch 30e.

車両動揺測定装置30の外部インターフェース制御部35のSCI(TTL)信号の波形の例を図7Aに、RS485レベル変換後のRS485レベル信号の波形の例を図7BおよびCに示す。また、画像同期装置10に入力されたRS485レベル信号の波形の例を図8AおよびBに、TTLレベル変換回路14により変換されたTTLレベル信号の波形の例を図8Cに、音声電圧レベル変換を行った後の音声レベル信号の波形の例を図8Dに示す。   FIG. 7A shows an example of the waveform of the SCI (TTL) signal of the external interface control unit 35 of the vehicle motion measuring device 30, and FIGS. 7B and 7C show examples of the waveform of the RS485 level signal after the RS485 level conversion. 8A and 8B show examples of the waveform of the RS485 level signal input to the image synchronizer 10, and FIG. 8C shows an example of the waveform of the TTL level signal converted by the TTL level conversion circuit 14. FIG. 8D shows an example of the waveform of the audio level signal after it has been performed.

(カメラ姿勢調整プログラム)
この列車位置検出システムでは、上記のカメラ内部パラメータキャリブレーションの結果を読み込み、リアルタイムで歪補正したスルー画像を表示するカメラ姿勢調整プログラムを作成し、使用することもできる。このカメラ姿勢調整プログラムを用いることにより、列車位置検出エンジンにデジタルビデオカメラ20のロール角度を補正する機能がなくても、線路の消失点を画像中心に正しく設定することができる。すなわち、カメラ画像そのものは、画像中心がずれているほか、歪もあり、正しく設定することが難しい。しかし、このカメラ姿勢調整プログラムを用いることにより、消失点を画像中心に容易に設定することができる。
(Camera posture adjustment program)
In this train position detection system, it is also possible to create and use a camera attitude adjustment program that reads the result of the above-mentioned camera internal parameter calibration and displays a through image corrected in real time. By using this camera attitude adjustment program, the vanishing point of the track can be correctly set at the center of the image even if the train position detection engine does not have a function of correcting the roll angle of the digital video camera 20. That is, the camera image itself is misaligned as well as distorted and difficult to set correctly. However, the vanishing point can be easily set at the center of the image by using this camera posture adjustment program.

図9にカメラ姿勢調整プログラムの画面(実際にはカラー画面)を示す。このカメラ姿勢調整プログラムの画面の機能について説明すると以下の通りである。
(1)デジタルビデオカメラ20で撮影された画像をリアルタイム表示する。
(2)別途、上記の内部パラメータキャリブレーションにより得られた、デジタルビデオカメラ20のレンズの歪補正係数および画像中心を読み込む。歪補正および画像中心補正をリアルタイムで行い、補正画像を表示する。
(3)画面に表示される縦線L1と横線L2とからなる十字線(例えば、赤十字線)の交点Pは、画像中心であり、線路の消失点がこの交点Pに重なるようにデジタルビデオカメラ20の姿勢を調整する。
(4)画面の中央下部に表示された左下がりの斜め線L3および右下がりの斜め線L4(例えば、黄色線)は、画面右下の“2.左斜め線”および“3.:右斜め線”のラジオボタンで選択し、その下の左向きの矢印ボタン(←)および右向きの矢印ボタン(→)を押すことで、十字線の交点Pを中心に角度を調整することができる。これらの左斜め線L3および右斜め線L4を2本のレールに沿わせることで、消失点が正しいか否かを判断できる。
(5)画面に表示された二本の縦線L5、L6(例えば、黄緑線)は、画面垂直方向を表し、画面右下の“1:左垂線”および“4:右垂線”のラジオボタンで選択し、その下の左右向きの矢印ボタンを押すことで、左右位置を調整することができる。この左垂線および右垂線を建物などの垂線に沿わせることで、デジタルビデオカメラ20のロール角を微調整する。
FIG. 9 shows a camera orientation adjustment program screen (actually a color screen). The functions of the screen of this camera posture adjustment program will be described as follows.
(1) Real-time display of images taken by the digital video camera 20
(2) Separately, the distortion correction coefficient and image center of the lens of the digital video camera 20 obtained by the above internal parameter calibration are read. Distortion correction and image center correction are performed in real time, and a corrected image is displayed.
(3) An intersection P of a cross line (for example, a red cross line) composed of a vertical line L1 and a horizontal line L2 displayed on the screen is the center of the image, and the digital video camera so that the vanishing point of the track overlaps the intersection P 20 postures are adjusted.
(4) The lower left diagonal line L3 and the lower right diagonal line L4 (for example, the yellow line) displayed at the lower center of the screen are “2. Left diagonal line” and “3. By selecting the “line” radio button and pressing the left arrow button (←) and the right arrow button (→) below it, the angle can be adjusted around the intersection P of the crosshairs. By making these left diagonal line L3 and right diagonal line L4 along the two rails, it can be determined whether or not the vanishing point is correct.
(5) Two vertical lines L5 and L6 (for example, yellow-green line) displayed on the screen indicate the vertical direction of the screen, and radios of “1: left vertical” and “4: right vertical” at the lower right of the screen. You can adjust the left and right position by selecting with the button and pressing the left and right arrow buttons below it. The roll angle of the digital video camera 20 is finely adjusted by making the left perpendicular line and right perpendicular line follow the perpendicular line of the building or the like.

以上のカメラ姿勢調整プログラムを用いることで、デジタルビデオカメラ20の取り付け姿勢を以下のように調整する。
・カメラ視線軸は、地平面と平行
・カメラ視線軸は、軌道方向と平行
・カメラ撮像面Y軸と重力軸とは平行
By using the above camera posture adjustment program, the mounting posture of the digital video camera 20 is adjusted as follows.
The camera viewing axis is parallel to the ground plane. The camera viewing axis is parallel to the orbital direction. The camera imaging plane Y axis and the gravity axis are parallel.

なお、カメラ姿勢調整プログラムを用いることによりデジタルビデオカメラ20の姿勢の調整を高精度で行うことができるが、実際に現場でデジタルビデオカメラ20を取り付ける際には、たとえ姿勢の調整の精度を多少犠牲にしても、より簡便に姿勢を調整することが求められることもある。このような場合には、列車位置検出プログラムにおいて、撮影されたビデオカメラ画像から、デジタルビデオカメラ20の姿勢を推定する。その際、例えば、撮影されたビデオカメラ画像上に図9に示すカメラ姿勢調整プログラム画面のようなガイド線を表示して、レールの消失点および建物垂直線をユーザーがマウス指定することが考えられる。   Although the posture adjustment of the digital video camera 20 can be performed with high accuracy by using the camera posture adjustment program, even when the digital video camera 20 is actually installed on the site, the posture adjustment accuracy is slightly increased. Even at the expense, it may be required to adjust the posture more easily. In such a case, the attitude of the digital video camera 20 is estimated from the captured video camera image in the train position detection program. At this time, for example, a guide line such as the camera posture adjustment program screen shown in FIG. 9 is displayed on the captured video camera image, and the user can designate the vanishing point of the rail and the building vertical line with the mouse. .

(連動表示プログラム)
連動表示プログラムは、車両動揺測定装置30で収録されたGPSデータおよび速度発電機情報と、デジタルビデオカメラ20で撮影された画像とを連動表示する。図10に連動表示プログラム100の画面を示す。連動表示プログラムの機能は下記の通りである。
(1)ビデオカメラ画像の音声トラックの音声データからデータインデクスをデコードし、車両動揺測定装置30の速度情報およびセンサーデータと対応付け、各ビデオフレームに速度情報を割り当てる。
(2)デジタルビデオカメラ20のビデオフレームレートと車両動揺測定装置30の速度情報サンプリングレートとは一般的に異なる。例えば、デジタルビデオカメラ20のビデオフレームレートは60Hz、速度情報サンプリングレートは1Hzである。このため、一次の補間を行い、全ビデオフレームに速度情報を割り当てる。
(3)収録されたビデオカメラ画像と、加速度センサーデータ、GPS速度データおよび速度発電機データとを連動して再生する。
(4)現在表示しているビデオフレームに対応した速度情報(GPS速度)を表示する。
(Linked display program)
The interlock display program interlocks and displays GPS data and speed generator information recorded by the vehicle motion measuring device 30 and an image photographed by the digital video camera 20. FIG. 10 shows a screen of the interlocking display program 100. The functions of the linked display program are as follows.
(1) The data index is decoded from the audio data of the audio track of the video camera image, correlated with the speed information and sensor data of the vehicle motion measuring device 30, and the speed information is assigned to each video frame.
(2) The video frame rate of the digital video camera 20 and the speed information sampling rate of the vehicle motion measuring device 30 are generally different. For example, the video frame rate of the digital video camera 20 is 60 Hz, and the speed information sampling rate is 1 Hz. For this reason, linear interpolation is performed and velocity information is assigned to all video frames.
(3) The recorded video camera image and the acceleration sensor data, GPS speed data, and speed generator data are reproduced in conjunction with each other.
(4) Display speed information (GPS speed) corresponding to the currently displayed video frame.

[フレームマッチング技術]
この列車位置検出システムにおいて使用するフレームマッチング技術について説明する。
[Frame matching technology]
The frame matching technique used in this train position detection system will be described.

このフレームマッチングのアルゴリズムは、(1)ベースビデオ画像特徴データベースの生成処理、(2)フレームマッチング処理、とからなる。このうち(2)のフレームマッチング処理は、同一路線を異なる日時に撮影したビデオ画像が複数本ある場合、特定の1本を基本となるビデオ画像(ベースビデオ画像)(第1の動画に対応する)とし、それ以外のビデオ画像(リファレンスビデオ画像)(第2の動画に対応する)の各フレームに対するベースビデオ画像の対応フレームを探索するという処理を行う。図11にその一例を示す。図11に示すように、ベースビデオ画像は複数のリファレンスビデオ画像との比較を行うため、予め画像特徴データベースを生成しておく。画像特徴データベースの詳細は後述するが、ベースビデオ画像の全フレーム画像のうち、フレームマッチングに用いる情報抽出を予め行いデータベース化することで、複数のリファレンスビデオ画像とのフレームマッチング処理において、同一処理が重複することを防ぐ。図12にその一例を示す。図12に示すように、同一路線の全てのリファレンスビデオ画像(この例ではリファレンスビデオ画像1〜3)は、ベースビデオ画像とフレームマッチングを行い、その結果をフレームマッチング結果として出力する。このとき、フレームマッチング結果は、リファレンスビデオ画像のフレーム番号(ビデオ画像の第1フレームを番号0として、以下カウントアップされる番号)と、それに対応するベースビデオ画像のフレーム番号とのペアを1レコードとするデータベースになる。   This frame matching algorithm includes (1) generation processing of a base video image feature database and (2) frame matching processing. Of these, the frame matching process (2) corresponds to the first video image (base video image) (the first video image) when there are a plurality of video images taken on the same route at different dates and times. ), And a process of searching for a corresponding frame of the base video image for each frame of the other video image (reference video image) (corresponding to the second moving image) is performed. An example is shown in FIG. As shown in FIG. 11, in order to compare the base video image with a plurality of reference video images, an image feature database is generated in advance. Although details of the image feature database will be described later, by extracting information used for frame matching from all frame images of the base video image in advance and creating a database, the same processing can be performed in frame matching processing with a plurality of reference video images. Prevent duplication. An example is shown in FIG. As shown in FIG. 12, all reference video images (reference video images 1 to 3 in this example) on the same route are subjected to frame matching with the base video image, and the result is output as a frame matching result. At this time, the frame matching result is a record of a pair of the reference video image frame number (the first frame of the video image is numbered 0 and the number counted up hereinafter) and the corresponding frame number of the base video image. And become a database.

画像特徴データベースの生成処理フローを図13に示す。図13で入力されるベースビデオ画像および速度情報は、車両動揺測定装置30によって収録されたデータセットで、MPEG4のビデオ画像ファイルと、ビデオフレームに対応付けられた速度情報およびキロ程情報を含む解析ファイルと、これらをフレームごとに対応付ける情報とから構成される。図13で生成される画像特徴データベースとは、ベースビデオ画像の各フレーム画像に対し、画像の特徴的な情報を抽出し、その時点までの速度を積分した距離情報、および元データのキロ程情報を1レコードとしたものとなる。ここで使用するフレームマッチング技術では、SURF(Speeded Up Robust Features)特徴を特徴量として用いる。これらの画像特徴は、例えば互いに異なる日時に同一対象物を撮影した図14Aに示す画像を入力画像としたとき、図14Bに示すようにこれらの画像間で対応するポイントを探索するために用いられる。図14Bに示すように、SURF特徴による対応点推定が行われる(斜めの直線の両端位置がSURF特徴の位置である)。SURF特徴は、画像内の特定対象物の探索(テンプレートマッチング)にも利用される。図15にその一例を示す。   An image feature database generation processing flow is shown in FIG. The base video image and speed information input in FIG. 13 is a data set recorded by the vehicle motion measuring device 30, and includes an MPEG4 video image file, and includes speed information and kilometer information associated with a video frame. It consists of files and information that associates them with each frame. The image feature database generated in FIG. 13 is the distance information obtained by extracting image characteristic information for each frame image of the base video image, integrating the speed up to that point, and the kilometer information of the original data. Is one record. In the frame matching technique used here, a SURF (Speeded Up Robust Features) feature is used as a feature amount. These image features are used, for example, to search for corresponding points between these images as shown in FIG. 14B when the images shown in FIG. 14A obtained by photographing the same object at different dates and times are used as input images. . As shown in FIG. 14B, corresponding point estimation based on the SURF feature is performed (the positions of both ends of the oblique straight line are the positions of the SURF feature). The SURF feature is also used for searching for a specific object in the image (template matching). An example is shown in FIG.

SURF特徴はSIFT(Scale Invariant Feature Transform)特徴などと同様、照明変化や拡大縮小、および回転に対して頑健であり、鉄道軌道画像のように天候、時刻などにより刻々と変化する自然画像において有効と考えられる。   SURF features, like SIFT (Scale Invariant Feature Transform) features, are robust against changes in lighting, scaling, and rotation, and are effective for natural images that change every moment, such as railway track images. Conceivable.

一例として、図16に、JR草津線で取得したビデオ画像に対して、実際にSURF特徴を抽出した結果を示す。図16において、ビデオ画像上に描画された赤色・緑色・青色の3色のドットが抽出されたSURF特徴点位置を示す。赤色・緑色・青色はSURF特徴の強さを示し(赤ドットが最も強く、緑ドットが次に強く、青ドットが次に強い)、一定の強さ以下のものは排除される。レール面上および中央の遠方風景にはSURF特徴が検出されていないが、これは後に述べるフレームマッチングアルゴリズムへの悪影響を考慮して意図的に未検出とした。   As an example, FIG. 16 shows the result of actually extracting SURF features from a video image acquired on the JR Kusatsu Line. FIG. 16 shows the SURF feature point positions where dots of three colors of red, green, and blue drawn on the video image are extracted. Red, green, and blue indicate the strength of the SURF feature (the red dot is the strongest, the green dot is the next strongest, and the blue dot is the next strongest), and those below a certain strength are excluded. The SURF feature is not detected in the distant scenery on the rail surface and in the center, but this is intentionally not detected in consideration of the adverse effect on the frame matching algorithm described later.

図13に示すように、上記のSURF特徴をベースビデオ画像の全フレームに対し検出し、画像特徴データベースに保存している。このとき、SURF特徴検出を行ったフレームが、第1フレームを撮影した位置からどの距離にあるかを速度情報から速度の積分により求め、SURF特徴と対応付けてデータベースに保存している。   As shown in FIG. 13, the above-mentioned SURF feature is detected for all frames of the base video image and stored in the image feature database. At this time, the distance at which the frame in which the SURF feature detection is performed is located from the position where the first frame is photographed is obtained from the velocity information by integrating the velocity, and stored in the database in association with the SURF feature.

本アルゴリズムにおいて、SURF特徴を画像データベースとして保存し、フレームマッチング処理にて用いる目的および理由は下記の(1)〜(3)の通りである。
示す。
In this algorithm, the SURF features are stored as an image database, and the purpose and reason for use in the frame matching process are as follows (1) to (3).
Show.

(1)ベースビデオ画像の特定フレームにリファレンスビデオ画像の特定フレーム上にある物体が存在するかを調べる。
(2)上記を実行するにあたり、天候・時刻などにより照明環境が変動しても影響されない。
(3)上記を実行するにあたり、カメラの取り付け角度あるいは車両の姿勢の誤差などがあっても影響されない
(1) It is checked whether an object on a specific frame of the reference video image exists in the specific frame of the base video image.
(2) In executing the above, even if the lighting environment fluctuates due to weather, time, etc., it is not affected.
(3) In executing the above, there is no influence even if there is an error in the camera mounting angle or vehicle attitude.

なお、画像特徴データベースは、好適には、SURF特徴が上記のように頑健性を実現するため、1つの特徴に対し比較的大きな情報を持っており、ビデオ画像全フレームでは比較的大きくなる(例えば、1時間あたり10GB程度)ため、バイナリデータとして保存する。   It should be noted that the image feature database preferably has relatively large information for one feature so that the SURF feature achieves robustness as described above, and becomes relatively large in all video image frames (for example, Therefore, the data is stored as binary data.

以上のようにして、ベースビデオ画像の画像特徴データベースを用いて、リファレンスビデオ画像とベースビデオ画像とのフレームマッチング処理を行う。フレームマッチング処理フローを図17に示す。このフレームマッチング処理フローを図17に付した(1)〜(12)の順に説明すると下記の通りである。   As described above, the frame matching process between the reference video image and the base video image is performed using the image feature database of the base video image. A frame matching processing flow is shown in FIG. This frame matching processing flow will be described in the order of (1) to (12) in FIG.

(1)入力として、新しいリファレンスビデオ画像と対応付けられた速度情報のセットを準備する。
(2)予め準備されたベースビデオ画像の画像特徴データベースを用いる。
(3)リファレンスビデオ画像のフレーム画像からユーザーがフレームマッチングの開始フレームを指定する。
(4)リファレンスビデオ画像の開始フレームに対応するベースビデオ画像のフレームを探索する。この探索は図18に示す処理フローで行う。すなわち、図18に示すように、まずリファレンスビデオ画像の開始フレームに対し、SURF特徴を抽出する。このリファレンスビデオ画像の開始フレームのSURF特徴と、ベースビデオ画像の画像特徴データベース内に格納されている各フレームのSURF特徴とを比較し、類似度を計算する。類似度は、以下に述べるベースビデオ画像およびリファレンスビデオ画像のフレーム画像各々の対応点がある特徴点数と、リファレンスビデオ画像のフレーム画像上で抽出されたSURF特徴点数との比として下記式(1)のように定義する。
(1) As an input, a set of velocity information associated with a new reference video image is prepared.
(2) An image feature database of base video images prepared in advance is used.
(3) The user specifies a frame matching start frame from the frame image of the reference video image.
(4) A frame of the base video image corresponding to the start frame of the reference video image is searched. This search is performed in the processing flow shown in FIG. That is, as shown in FIG. 18, first, the SURF feature is extracted from the start frame of the reference video image. The SURF feature of the start frame of the reference video image is compared with the SURF feature of each frame stored in the image feature database of the base video image, and the similarity is calculated. The similarity is expressed by the following formula (1) as a ratio between the number of feature points corresponding to each of the frame images of the base video image and the reference video image described below and the number of SURF feature points extracted on the frame image of the reference video image. Define as follows.

この類似度を図18に示す、リファレンスビデオ画像の開始フレームに対応するベースビデオ画像のフレーム探索フロー内のSim に代入する。   This similarity is substituted for Sim in the frame search flow of the base video image corresponding to the start frame of the reference video image shown in FIG.

また、特徴点の対応は、SURF特徴の特徴記述ベクトルのユークリッド距離が最も短くなる対を選択することにより得る。ここで、SURFアルゴリズムの基となるSIFTアルゴリズムで用いられている特徴記述ベクトルについて説明する。SIFT特徴の特徴記述ベクトルとは、特徴点周辺の画像輝度の各方向の変動量をベクトルで表したものである(図19参照)。図19の左図は入力画像であり、中心の白丸で示した点に特徴点があるとする。この地点の輝度がどの方向に最も勾配(輝度の変化量)があるかを計算する。この例の場合は、図19の左図の左上方向(矢印方向)に輝度が最も変動している。この方向を縦軸に考えた4×4グリッド(左上図緑グリッド)を設定し、この各々1グリッド内で各方向への輝度の変動を計算する。こうすることで、画像が回転した場合でも、同一地点ではグリッド内の輝度の変動は同一となる。図19の右図は、8方向に対する輝度の変動量を矢印の長さで表示したものである。本プログラムでは、4方向に対する変動量を使用している。よって、SURF特徴は4×4グリッド×4方向=64個の値で、1つの特徴点を記述することとなる。すなわち、1つの特徴点は、64次元ベクトルとして特徴付けられる。   Further, the correspondence between feature points is obtained by selecting a pair having the shortest Euclidean distance of the feature description vector of the SURF feature. Here, the feature description vector used in the SIFT algorithm that is the basis of the SURF algorithm will be described. The feature description vector of the SIFT feature is a vector representing the amount of change in the image luminance around the feature point in each direction (see FIG. 19). The left figure of FIG. 19 is an input image, and it is assumed that there is a feature point at a point indicated by a central white circle. It is calculated in which direction the luminance at this point has the greatest gradient (the amount of change in luminance). In the case of this example, the luminance varies most in the upper left direction (arrow direction) in the left diagram of FIG. A 4 × 4 grid (green grid in the upper left figure) with this direction as the vertical axis is set, and the variation in luminance in each direction is calculated within each grid. By doing so, even when the image is rotated, the luminance variation in the grid is the same at the same point. The right diagram in FIG. 19 shows the amount of change in luminance with respect to eight directions by the length of the arrow. In this program, the amount of variation in four directions is used. Therefore, one feature point is described in the SURF feature with 4 × 4 grids × 4 directions = 64 values. That is, one feature point is characterized as a 64-dimensional vector.

2つの異なる画像上の特徴点に関し、この64次元ベクトルが似ているということは、その特徴点およびその周辺が非常に似た画像であると推定できる。これは、言い換えると64次元空間でユークリッド距離が短いということで、2つの画像上の特徴点を総当たりして、最も64次元ベクトルが似ているもの同士を対応点として対にすることができる。また、上述の特徴記述ベクトルの求め方を考えると、輝度の絶対値などに影響されず、また画像間の回転変動があっても同一点の対応が取れると考えられる。   Regarding the feature points on two different images, the fact that the 64-dimensional vectors are similar can be presumed that the feature points and their surroundings are very similar images. In other words, since the Euclidean distance is short in the 64-dimensional space, the feature points on the two images can be brute-forced so that the most similar 64-dimensional vectors can be paired as corresponding points. . Considering the above-described method for obtaining the feature description vector, it is considered that the same point can be taken even if there is a rotation variation between images without being influenced by the absolute value of luminance.

SURFアルゴリズムは、SIFTと同様の性能を高速に行えるようにしたものであり、基本的な特徴点対応の考え方は同様である。   The SURF algorithm is designed to perform the same performance as SIFT at high speed, and the basic concept of feature point correspondence is the same.

以上のように、SURF特徴による対応点を検出し、式(1)により類似度を求める。この処理を画像特徴データベース内の全レコードに対して行い、類似度が最大になるレコードを求める。しかし画像特徴データベースの全レコードに対して行うと処理時間が増大するため、実際の処理では、例えば、画像特徴データベースに保存されたキロ程情報と、リファレンスビデオ画像のキロ程情報とを突き合わせ、ベースビデオ画像の対応するキロ程の前後100m程度で上記対応処理を行う。   As described above, the corresponding points based on the SURF feature are detected, and the similarity is obtained by Expression (1). This process is performed on all the records in the image feature database, and the record having the maximum similarity is obtained. However, since processing time increases when performed on all the records of the image feature database, in actual processing, for example, the kilometer information stored in the image feature database and the kilometer information of the reference video image are matched, and the base The corresponding processing is performed about 100 m before and after the corresponding kilometer of the video image.

以上のようにして最大の類似度を持つレコードを求めたら、それに対応するベースビデオ画像のフレーム番号を画像特徴データベースから取得し、出力する。   When the record having the maximum similarity is obtained as described above, the frame number of the base video image corresponding to the record is obtained from the image feature database and output.

以下に、本処理を行っている様子を示す。図20はリファレンスビデオ画像の開始フレーム画像に対するSURF特徴抽出結果を示し、図18に示すフロー図右上のリファレンスビデオ画像の開始フレーム画像に対し、SURF特徴抽出処理を行ったものである。図20中の白点位置がSURF特徴として抽出された位置である。   The following shows how this processing is performed. FIG. 20 shows the SURF feature extraction result for the start frame image of the reference video image, and the SURF feature extraction process is performed on the start frame image of the reference video image at the upper right of the flowchart shown in FIG. The white spot position in FIG. 20 is the position extracted as the SURF feature.

図21AおよびBに、リファレンスビデオ画像の開始フレームのSURF特徴に対し、ベースビデオ画像の画像特徴データベースに格納されたSURF特徴をマッチングしている様子を示す。図21AおよびBの青点は、図20の白点と同じもので、リファレンスビデオ画像の開始フレームで検出されたSURF特徴を示す。また、赤点は、ベースビデオ画像の画像特徴データベースから読み込まれたベースビデオ画像探索フレーム上のSURF特徴を示す。一部の青点と赤点はその間を黄色線で結ばれているが、これは、その両端点の赤・青が対応点であることを示す。図21Aは、対応点が20個しかなく、類似度は低い。また、図21Bは、最も類似度が高く146個の対応点が存在する。図22に、この方法によって対応付けられたベースビデオ画像のフレームを示す。図22中、右側がリファレンスビデオ画像の開始フレーム画像で、左側が上記アルゴリズムで対応付けられたベースビデオ画像のフレーム画像である。   21A and 21B show how the SURF feature stored in the image feature database of the base video image is matched with the SURF feature of the start frame of the reference video image. The blue dots in FIGS. 21A and 21B are the same as the white dots in FIG. 20 and indicate the SURF features detected in the start frame of the reference video image. The red dot indicates the SURF feature on the base video image search frame read from the image feature database of the base video image. Some of the blue and red dots are connected by a yellow line between them, which indicates that the red and blue at both end points are corresponding points. FIG. 21A has only 20 corresponding points, and the degree of similarity is low. FIG. 21B shows the highest similarity and 146 corresponding points. FIG. 22 shows a frame of a base video image associated by this method. In FIG. 22, the right side is the start frame image of the reference video image, and the left side is the frame image of the base video image associated by the above algorithm.

(5)前記処理で求めたフレームに対応する位置(速度情報を積分した位置)の状態設定を行う。 (5) The state of the position (position where speed information is integrated) corresponding to the frame obtained in the above process is set.

状態とは、リファレンスビデオ画像の現在フレームの撮影位置の確からしさを確率密度で表したものである。求められた位置が最も確からしい位置であるから、ここを中心とした正規分布を設定する。図23にその一例を示す。図23のグラフ横軸は、ベースビデオ画像の位置(フレームに割り当てられた速度を積分したもの)で、縦軸はリファレンスビデオ画像の現在フレームを撮影した位置がそこである確からしさ(確率)である。グラフの左右中央が、(4)で求められた位置であり、ここを中心に正規分布を割り当てている(白い縦線)。以後、この確率密度を変更しながら、その最も確率が大きな位置に、リファレンスビデオ画像の現在のフレームを撮影した位置があると考える。   The state represents the probability of the shooting position of the current frame of the reference video image as a probability density. Since the obtained position is the most probable position, a normal distribution centered here is set. An example is shown in FIG. The horizontal axis of the graph in FIG. 23 is the position of the base video image (integration of the velocity assigned to the frame), and the vertical axis is the probability (probability) that the position where the current frame of the reference video image was taken is. . The left and right center of the graph is the position obtained in (4), and a normal distribution is assigned around this position (white vertical line). Hereinafter, it is considered that there is a position where the current frame of the reference video image is captured at a position where the probability is the highest while changing the probability density.

(6)リファレンスビデオ画像の次のフレーム画像を読み込む。以降(7)〜(10)までの処理を繰り返すごとに読み込む。このとき、フレームに割り当てられた速度情報も読み込む。 (6) The next frame image of the reference video image is read. Thereafter, it is read each time the processes from (7) to (10) are repeated. At this time, the speed information assigned to the frame is also read.

(7)速度情報から、現在フレームでの図23に示した確率密度を推定する。推定には以下の式(2)を用いる。
ここで、kおよびiは、位置を表す(本システムでは、例えば0.5mごとの位置の連番)。tは時刻を表し、具体的には図17のフロー図における(6)から(12)に至るループを回る回数である。pは確率密度を表し、pi,t は時刻tのときに、iにビデオカメラが存在する確率を示す。
(7) The probability density shown in FIG. 23 in the current frame is estimated from the speed information. The following formula (2) is used for the estimation.
Here, k and i represent positions (in this system, for example, serial numbers of positions every 0.5 m). t represents time, and more specifically, the number of times of looping from (6) to (12) in the flowchart of FIG. p represents a probability density, and p i, t represents a probability that a video camera exists at i at time t.

式(2)は、過去t−1に位置iにビデオカメラが存在する確率密度分布pi,t-1 と現在tにその時の速度ut である場合、位置kに存在する確率を掛け合わせ、これを全位置に関して累積したものである。過去の確率分布を踏まえたうえで、現在の速度ut により現在の確率密度分布がどのように変更されるかを表している。 Equation (2) is obtained by multiplying the probability density distribution p i, t-1 where a video camera exists at a position i in the past t−1 and the probability existing at the position k when the current t is the current speed u t. This is an accumulation of all positions. It shows how the current probability density distribution is changed by the current speed u t based on the past probability distribution.

ここで、現在の速度ut で位置がどこに移動するかを考える。フレーム間の時刻をΔt
とすると、移動量は、l=ut ×Δtとなるが、速度(本システムの場合は、GPS速度情報あるいは速度発電機情報)データ自体に誤差が含まれている。この誤差を正規分布としてモデル化し、式(2)の中央部分を以下のように正規分布で定義する。
ここで、μ=ut ×Δt、δ=Δtδs である。δs は速度情報の誤差分散で、本プログラムでは例えば1m/sとする。
Here, consider where the position moves at the current speed u t . Δt is the time between frames
Then, the amount of movement is l = u t × Δt, but the speed (GPS speed information or speed generator information in the case of this system) data itself contains an error. This error is modeled as a normal distribution, and the central portion of Equation (2) is defined as a normal distribution as follows.
Here, μ = u t × Δt and δ = Δtδ s . δ s is an error variance of speed information, and is set to 1 m / s in this program, for example.

以上の計算により、図23に示した確率密度分布を初期状態とし、以降時刻t−1の確率密度分布をtの確率密度分布に更新する。   With the above calculation, the probability density distribution shown in FIG. 23 is set to the initial state, and the probability density distribution at time t−1 is updated to the probability density distribution of t thereafter.

実際のデータでこの計算により確率密度が変更される様子を図24A〜Cに以下に示す。図24A〜Cでは、A、BおよびCの順番で時刻が進み、確率密度分布が更新されている様子を示す。確率密度のピーク位置が徐々に右すなわち前方にシフトしていることが分かる。   FIGS. 24A to 24C show how the probability density is changed by this calculation using actual data. 24A to 24C show that the time advances in the order of A, B, and C, and the probability density distribution is updated. It can be seen that the peak position of the probability density is gradually shifted to the right, that is, forward.

以上の処理で、速度情報からリファレンスビデオ画像の現在フレームを撮影した位置が推定される。しかし、速度情報は誤差を含んでおり、上記のように確率密度を導入しているが、推定は速度の積分と本質的に変わらないため、この位置推定は時間が経つほど誤差が増大する。   With the above processing, the position where the current frame of the reference video image is captured is estimated from the speed information. However, the velocity information includes an error, and the probability density is introduced as described above. However, since the estimation is essentially the same as the integration of the velocity, the error of the position estimation increases with time.

(8)リファレンスビデオ画像のフレームが10進む毎に、次の(9)で説明する状態推定修正を行う。 (8) Every time the frame of the reference video image advances by 10, the state estimation correction described in (9) below is performed.

(9)(7)で推定された位置は、そのままでは誤差が累積するため、(4)で行っているものと同等の処理を行い、累積誤差を解消する。以下にその方法を説明する。 (9) Since the error is accumulated at the position estimated in (7) as it is, the same processing as that in (4) is performed to eliminate the accumulated error. The method will be described below.

式(2)に対し、(4)で説明した類似度を重みとして各地点の確率密度に反映させる。このようにすれば、間違ったマッチングにより類似度が高くなる偽の位置があったとしても、速度による確率密度分布を考えると、最も確率が高くなることはない。速度情報だけによる推定が、この処理を行うことで正しい位置に補正される。図25A〜Cにその様子を示す。図25Aのグラフは、(7)の処理を繰り返した結果、真の位置から確率密度分布のピークがずれている状態を表す。図25Bのグラフは、リファレンスビデオ画像の現在のフレームに対し、ベースビデオ画像の画像情報データベースのSURF特徴をマッチングさせて、類似度を表示したものである。この場合、真の位置で類似度がピークになるが、たまたま他の位置での類似度が高くなる可能性がある(例えば、周りに建物が無い田園風景で、電柱のみが規則的に表れる場合)。よって、画像の類似度のみでマッチングを行った場合、非常に大きな誤差を発生することがある。図25Cのグラフは、図25Aの速度による確率密度分布に図25Bのマッチングによる類似度を重みとして反映させたものである。図25Cに示すように、マッチング類似度で現れていた偽のピークは、同じ位置の確率密度がほとんど0であるために、無くなっており、また確率密度は正しい位置に修正されることが分かる。当然このような処理を行っても真の位置からずれる可能性は残っているが、大きな誤差は生成されず、より妥当な位置が推定される。   For expression (2), the similarity described in (4) is reflected as a weight on the probability density at each point. In this way, even if there is a false position where the degree of similarity increases due to incorrect matching, the probability will not be the highest when the probability density distribution due to speed is considered. The estimation based only on the speed information is corrected to the correct position by performing this process. This is shown in FIGS. The graph of FIG. 25A represents a state in which the peak of the probability density distribution is shifted from the true position as a result of repeating the process (7). The graph of FIG. 25B displays the similarity by matching the SURF feature of the image information database of the base video image with the current frame of the reference video image. In this case, the similarity is peaked at the true position, but it may happen that the similarity is high at other positions (for example, in a rural scene where there are no buildings around, only the utility pole appears regularly) ). Therefore, when matching is performed using only the similarity of images, a very large error may occur. The graph of FIG. 25C reflects the similarity by matching of FIG. 25B as a weight in the probability density distribution by the speed of FIG. 25A. As shown in FIG. 25C, it can be seen that the false peak that appeared in the matching similarity is lost because the probability density at the same position is almost 0, and the probability density is corrected to the correct position. Naturally, even if such a process is performed, there is still a possibility of deviation from the true position, but a large error is not generated, and a more appropriate position is estimated.

(10)推定された位置に対し、これに対応するベースビデオ画像のフレーム番号を画像特徴データベースから取得する。 (10) The frame number of the base video image corresponding to the estimated position is acquired from the image feature database.

(11)(10)ベースビデオ画像の対応フレームと、リファレンスビデオ画像の現在のフレームとをペアとしてフレーム対応情報ファイルに書き出す。 (11) (10) The corresponding frame of the base video image and the current frame of the reference video image are written as a pair in the frame correspondence information file.

(12)(6)から(10)までの処理をリファレンスビデオ画像のフレーム番号を増加させながら行い、リファレンスビデオ画像の最後のフレーム(あるいは、指定されたフレーム)まで行う。 (12) The processing from (6) to (10) is performed while increasing the frame number of the reference video image, and is performed up to the last frame (or designated frame) of the reference video image.

この列車位置検出システムでは、進行方向前方を向いた1台のデジタルビデオカメラ20で軌道を撮影しているが、これにより、以下のような問題が発生するおそれがある。すなわち、軌道の枕木が繰り返しパターンとなっており、田園風景など他領域でのSURF特徴が少ない場合、間違ったマッチングを行ってしまう。しかも、枕木間が短いため、図25BおよびCで説明した修正が効かない場合がある。枕木は、繰り返し多数出現するため、この現象が長期間続き、結果として大きな誤差を発生する。また、画像中央遠くに建物が有り、手前は田園風景などのSURF特徴が少ない風景では間違ったマッチングを行ってしまう。これは、非常に遠くの風景は画像内で動きが極小さいことに起因している。車両が数十m進行しているにもかかわらず、画像上ではこれを検出できないため、フレームマッチングによる修正機能により逆に誤差が拡大してしまう場合がある。このような鉄道のビデオ画像特有の問題を解決するため、マスク画像を導入する。図26にマスク画像の一例を示す。図26に示すように、このマスク画像では、下部中央の軌道部分と中央遠隔風景部分とをマスクしている。このマスク画像をSURF特徴抽出時に用いて、黒い領域では特徴抽出を行わないようにした。こうすることで、軌道上の枕木の規則的な繰り返しおよび遠隔風景の影響を排除できる。   In this train position detection system, the track is photographed by one digital video camera 20 facing forward in the traveling direction, which may cause the following problems. That is, if the sleepers of the trajectory have a repetitive pattern and there are few SURF features in other areas such as a rural scene, incorrect matching is performed. Moreover, since the distance between sleepers is short, the correction described with reference to FIGS. 25B and 25C may not work. Since many sleepers appear repeatedly, this phenomenon continues for a long time, resulting in a large error. In addition, there is a building far in the center of the image, and in the foreground a landscape with few SURF features such as a rural landscape, incorrect matching is performed. This is because a very distant landscape has very little movement in the image. In spite of the vehicle traveling several tens of meters, this cannot be detected on the image, and the error may be increased by the correction function by frame matching. In order to solve the problem peculiar to the video image of the railway, a mask image is introduced. FIG. 26 shows an example of the mask image. As shown in FIG. 26, in this mask image, the lower center trajectory portion and the central remote landscape portion are masked. This mask image is used for SURF feature extraction, and feature extraction is not performed in the black region. This eliminates the regular repetition of sleepers on the track and the effects of remote landscapes.

(実路線での検証結果)
以上のアルゴリズムの実装を行い、実路線ビデオ画像でフレームマッチングを行った検証結果を説明する。
(Verification results on actual routes)
The verification results obtained by implementing the above algorithm and performing frame matching with the actual route video image will be described.

この列車位置検出システムにおいて用いたフレームマッチングの効果を確かめるため、同一データに対し、以下の4種類のフレームマッチングを行った。   In order to confirm the effect of frame matching used in this train position detection system, the following four types of frame matching were performed on the same data.

(1)リファレンス画像の開始位置フレームに対してベースビデオ画像の対応フレームを探索後、単に両ビデオ画像を1フレームずつ増加させる。
(2)リファレンス画像の開始位置フレームに対してベースビデオ画像の対応フレームを探索後、速度情報のみを用いてフレームマッチングを行う。
(3)リファレンス画像の開始位置フレームに対してベースビデオ画像の対応フレームを探索後、画像のSURF特徴のマッチングのみを用いてフレームマッチングを行う。
(4)リファレンス画像の開始位置フレームに対してベースビデオ画像の対応フレームを探索後、速度情報および画像のSURF特徴のマッチングを用いて先に説明したアルゴリズムにてフレームマッチングを行う。
(1) After searching for the corresponding frame of the base video image with respect to the start position frame of the reference image, both video images are simply increased by one frame.
(2) After searching the corresponding frame of the base video image with respect to the start position frame of the reference image, frame matching is performed using only the velocity information.
(3) After searching for the corresponding frame of the base video image with respect to the start position frame of the reference image, frame matching is performed using only the SURF feature matching of the image.
(4) After searching for the corresponding frame of the base video image with respect to the start position frame of the reference image, frame matching is performed using the algorithm described above using matching of the velocity information and the SURF feature of the image.

これら4つのフレームマッチングの精度は、フレームマッチング結果の画像を人間が目視比較し、軌道枕木が何本ずれているか(最低単位は、0.5本)で判定した。また、すべてのビデオ画像フレームで目視比較することはできないため、キロ程で5km間を200フレームごとに100点程度サンプリングした。図27に試験結果のグラフを示す。試験を行った路線は、JR草津線の草津→柘植間である。撮影条件は下記の通りである。   The accuracy of these four frame matchings was determined by comparing the image of the frame matching result by human eyes and how many orbital sleepers are displaced (minimum unit is 0.5). Further, since it is not possible to visually compare all video image frames, about 100 points are sampled every 200 frames for about 5 km. FIG. 27 shows a graph of the test results. The tested route is between Kusatsu and Tsuge on the JR Kusatsu Line. The shooting conditions are as follows.

ベースビデオ画像
撮影日時:2014年9月10日11時
天候:曇天
画質:良好
リファレンスビデオ画像
撮影日時:2014年9月12日11時
天候:晴天
画質:良好
比較区間キロ程 36.7→32.7
Base video image Date: September 10, 2014, 11:00 Weather: Cloudy Image quality: Good Reference video image Date: September 12, 2014, 11:00 Weather: Sunny Image quality: Good Compared km 36.7 → 32. 7

図27において、横軸は、リファレンスビデオ画像のフレーム番号、縦軸は、上述したフレームマッチング結果のベースビデオ画像との誤差を枕木本数で表したものである。(1)で示すグラフは上記(1)を、(2)で示すグラフは上記(2)を、(3)で示すグラフは上記(4)の結果を表す。上記(3)(SURF特徴マッチングのみ)の結果は、数フレームでいきなり数十本の誤差となったため、表示していない。   In FIG. 27, the horizontal axis represents the frame number of the reference video image, and the vertical axis represents the error from the base video image of the frame matching result described above by the number of sleepers. The graph shown by (1) shows the result of (1), the graph shown by (2) shows the result of (2), and the graph shown by (3) shows the result of (4). The result of the above (3) (SURF feature matching only) is not displayed because there are several tens of errors in several frames.

図28〜図31にJR草津線における4回のフレームマッチング結果を示す画像例(図中左側の画像はベースビデオ画像、右側の画像はリファレンスビデオ画像を示す。)を、図32にフレームマッチング結果のフレーム番号のグラフを示す。図32の横軸は計算回数、縦軸はフレーム番号、(1)で示す折れ線グラフは今回のビデオ画像のフレーム番号、(2)で示す折れ線グラフは対応付けられた前回ビデオ画像のフレーム番号である。   FIG. 28 to FIG. 31 show examples of images showing the four frame matching results on the JR Kusatsu Line (the left image in the figure shows the base video image, and the right image shows the reference video image), and FIG. 32 shows the frame matching result. The graph of the frame number of is shown. 32, the horizontal axis represents the number of calculations, the vertical axis represents the frame number, the line graph indicated by (1) represents the frame number of the current video image, and the line graph represented by (2) represents the frame number of the associated previous video image. is there.

試験を行った路線は、JR草津線 草津→柘植間である。撮影条件およびフレームマッチング結果は下記の通りである。   The tested route is between the Kusatsu and Kusatsu Lines of the JR Kusatsu Line. The shooting conditions and frame matching results are as follows.

ベースビデオ画像
撮影日時:2014年9月10日11時
天候:曇天
画質:良好
リファレンスビデオ画像
撮影日時2014年9月12日11時
天候:晴天
画質:良好
比較区間キロ程 35.908→0.1
Base video image Date / time: September 10, 2014, 11:00 Weather: Cloudy Image quality: Good Reference video image Date / time, September 12, 2014, 11:00 Weather: Sunny Image quality: Good Compare section km approx. 35.908 → 0.1

フレームマッチング結果は良好で誤差は最大で枕木本数1.5本程度であり、環境差異検出は十分可能と思われる。   The frame matching result is good, the error is maximum and the number of sleepers is about 1.5, and it seems that environmental difference detection is sufficiently possible.

図33〜図36に、JR奈良線におけるフレームマッチング結果の画像例(図中左側の画像はベースビデオ画像、右側の画像はリファレンスビデオ画像を示す。)を、図37にフレームマッチング結果のフレーム番号のグラフを示す。図37の横軸は計算回数、縦軸はフレーム番号、(1)の折れ線グラフは今回のビデオフレーム番号、(2)の折れ線グラフは対応付けられた前回のビデオフレーム番号である。   33 to 36 show examples of frame matching results on the JR Nara line (the left image in the figure shows the base video image, and the right image shows the reference video image), and FIG. 37 shows the frame number of the frame matching result. The graph of is shown. The horizontal axis in FIG. 37 is the number of calculations, the vertical axis is the frame number, the line graph in (1) is the current video frame number, and the line graph in (2) is the previous video frame number associated with it.

試験を行った路線は、JR奈良線 棚倉→東福寺間である。撮影条件およびフレームマッチング結果は下記の通りである。   The route on which the test was conducted is between JR Nara Line Tanagura and Tofukuji Temple. The shooting conditions and frame matching results are as follows.

ベースビデオ画像
撮影日時:2013年12月19日14時
天候:晴天
画質:良好
リファレンスビデオ画像
撮影日時:2014年2月12日9時
天候:雨天
画質:不良(先頭車両の運転室の前方の窓ガラスの内側の面へのデジタルビデオカメラ20の固定に用いた吸盤の一部が写っており、雨だれによる画像の屈折、霧あるいはガラス窓の曇りにより非常にコントラストが悪い)
比較区間キロ程 4.5→30.0
Base video image Date: December 19, 2013 14:00 Weather: Sunny Image quality: Good Reference video image Date: February 12, 2014 9:00 Weather: Rainy Image quality: Poor (window in front of the driver's cab of the top vehicle) Part of the suction cup used to fix the digital video camera 20 to the inner surface of the glass is shown, and the contrast is very poor due to refraction of the image due to raindrops, fog, or fogging of the glass window)
Comparative section kilometers 4.5 → 30.0

フレームマッチング結果は部分的に不良であり、誤差が大きいところでは枕木本数6本程度であり、環境差異検出は不可と考えられる。また、フレームマッチングが成功している部分でも、画質が違いすぎる。   The frame matching result is partially defective, and when the error is large, the number of sleepers is about six, and it is considered impossible to detect environmental differences. In addition, the image quality is too different in the part where the frame matching is successful.

(検証結果の考察)
図27に示すデータの取得に用いたビデオ画像は、同一路線で異なる日時に列車を走行させて撮影されたものであるが、停車駅などは同じであり、走行速度、加速・減速位置などはほぼ同一である。図27の(1)のグラフは、ベースビデオ画像とリファレンスビデオ画像との開始位置を一致させ、両ビデオ画像のフレームを1つずつ送っただけのものであるため、運転手の操作による速度誤差および加速・減速位置誤差はそのまま反映される。よって、最大で枕木本数が7.5まで誤差が拡大している。しかし、駅間走行時間は同じであるため、累積的に誤差が拡大せず、最終的には誤差が収束している。(2)のグラフは、ビデオ画像と同期して収録された速度情報を微分して距離を計算し、フレームマッチングを行っている。(2)のグラフを見ると、25000フレームあたりから急激に誤差が拡大し、最終的には枕木本数20本以上となっている。フレーム番号25000から28000は駅への停車区間となっており、負の加速度が加わっている区間となる。速度発電機の特性として、加速度区間においては車輪の滑りなどによる精度低下があり、これが累積的に誤差を拡大しているものと思われる。(3)のグラフは、今回使用したアルゴリズムでフレームマッチングされたものであり、3つのグラフの中で最も精度が高くなっている。誤差は、枕木本数0〜1.5となっており、これは画素のズレとしては最大90画素程度、画像縦方向の9%程度となる。差異検出を行う場合、当然ながら画面内のほとんどの対象物がベースビデオ、リファレンスビデオのマッチングされた2フレーム画像に重複して存在しなければならない。ズレが一番大きいのは画面の端であり、中央に行くに従いズレは小さくなるため、今回計測した画像下端での枕木のずれが画像の10%以下であれば十分に差異検出が可能であると思われる。
(Consideration of verification results)
The video images used to acquire the data shown in FIG. 27 were taken by running the train on the same route at different dates and times, but the stopping stations are the same, and the running speed, acceleration / deceleration position, etc. Almost identical. In the graph of (1) in FIG. 27, the start positions of the base video image and the reference video image are made to coincide with each other, and only frames of both video images are sent one by one. The acceleration / deceleration position error is reflected as it is. Therefore, the error is expanded up to 7.5 sleepers. However, since the traveling time between stations is the same, the error does not increase cumulatively, and the error finally converges. The graph (2) performs frame matching by differentiating velocity information recorded in synchronization with the video image to calculate the distance. Looking at the graph of (2), the error suddenly expands from around 25000 frames, and finally the number of sleepers is 20 or more. Frame numbers 25000 to 28000 are stops at the station, and are areas where negative acceleration is applied. As a characteristic of the speed generator, there is a decrease in accuracy due to wheel slipping in the acceleration section, which seems to increase the error cumulatively. The graph (3) is frame-matched by the algorithm used this time, and has the highest accuracy among the three graphs. The error is the number of sleepers 0 to 1.5, which is about 90 pixels at the maximum and 9% in the vertical direction of the image. When performing difference detection, of course, most objects in the screen must overlap with the matched two-frame images of the base video and the reference video. The largest deviation is at the edge of the screen, and the deviation becomes smaller as it goes to the center. Therefore, the difference can be sufficiently detected if the displacement of the sleeper at the lower end of the image measured this time is 10% or less of the image. I think that the.

小さな誤差の原因は以下のことが考えられる。
(1)両ピッチングによるカメラ画角の移動による誤差
(2)SURF特徴マッチングの間違いによる誤差
Possible causes of small errors are as follows.
(1) Error due to camera angle of view movement due to both pitching (2) Error due to SURF feature matching error

(1)は、車両がピッチングを起こした際、窓ガラスに装着されたビデオカメラの視線が上下方向に揺れ、画面下端が移動するために同一地点の画像でも枕木の見える本数が変動してしまうことが原因と考えられる。(2)は本アルゴリズムの本質的な問題で、前後方向に移動するカメラの映像ではよく似たフレーム画像が連続するため、画像の条件によっては正しいフレームの前後のフレームでSURF特徴の類似度が最も高くなることがあると考えられる。図25A〜Cで説明したアルゴリズムでは、SURF特徴の類似度が最大のフレームが正しいマッチングフレームから大きく離れたフレームである場合には正しく働くが、近い場合には、誤差が発生する。   In (1), when the vehicle pitches, the line of sight of the video camera mounted on the window glass shakes up and down, and the lower end of the screen moves, so the number of sleepers that can be seen at the same point varies. This is thought to be the cause. (2) is an essential problem of this algorithm. Since similar frame images continue in a camera image moving in the front-rear direction, the SURF feature similarity may be increased in the frames before and after the correct frame depending on the image conditions. It may be the highest. In the algorithm described with reference to FIGS. 25A to 25C, the algorithm works correctly when the frame having the maximum SURF feature similarity is a frame far from the correct matching frame, but an error occurs when the frame is close.

次に、草津線全線のビデオ画像をフレームマッチングした結果の画像を示す図28〜図31を見ると、良好にマッチングしていることが分かる。草津線全線を観察すると、操車場、住宅地、田園地帯、山間部など多様性に富んだ風景であるが、どのような場合でもフレームマッチング機能は良好に稼働していた。また、ベースビデオ画像とリファレンスビデオ画像では晴天と曇天程度の照明光の変動があるが、この程度の違いは克服できているものと思われる。   Next, when FIG. 28 to FIG. 31 showing images obtained as a result of frame matching of the video images of the entire Kusatsu line are seen, it can be seen that the matching is good. Observing the entire Kusatsu line, it was a diverse landscape such as a yard, residential area, countryside, and mountainous area, but the frame matching function worked well in any case. In addition, the base video image and the reference video image have fluctuations in the illumination light on the order of fine weather and cloudy weather, but it seems that this difference can be overcome.

図32のフレーム番号グラフは横軸が計算回数を表す。これは、図17における(6)から(12)までの計算を指している。これは、リファレンスビデオ画像のフレームと対応している。ただし、リファレンスビデオ画像のフレームに対応している速度が0の場合は、計算されずにスキップされる。図32の(1)のグラフは、処理されるリファレンスビデオ画像のフレーム番号を縦軸の値として表示している。従って、傾きが1の直線となる。15646フレームおよび57366フレーム付近は駅での停車を表している。一方、図32の(2)のグラフは、フレームマッチングによって対応付けられたベースビデオ画像のフレーム番号である。始発駅でビデオ画像の収録開始時点から発車までの時間が異なるため、図32の(1)、(2)のグラフの左端の切片は異なっている。もし、ベースビデオ画像およびリファレンスビデオ画像を撮影したときの車両が正確に同一速度、加速・減速位置で走行していれば、図32の(1)、(2)のグラフは、切片の量だけシフトして、完全に同じ形のグラフとなる。しかし、実際のグラフでは、(2)のグラフが微妙に曲線となっている。これは、リファレンスビデオ画像撮影時の車両の速度、加速・減速位置とベースビデオ画像撮影時車両のそれとが異なっているからと考えられる。もし、フレームマッチングの間違いによりリファレンスビデオ画像のフレーム番号が増加しているにもかかわらず、ベースビデオ画像の対応フレームの番号が減少していたら、単調増加ではなくなる。また、大きく対応を間違っている場合には、駅での停車以外の区間でステップ状やスパイク状となる。図32ではこれらの形状がみあたらないため、全体として妥当にフレームマッチング処理が稼働していると言える。   In the frame number graph of FIG. 32, the horizontal axis represents the number of calculations. This indicates the calculation from (6) to (12) in FIG. This corresponds to the frame of the reference video image. However, when the speed corresponding to the frame of the reference video image is 0, it is skipped without being calculated. The graph of (1) in FIG. 32 displays the frame number of the reference video image to be processed as the value on the vertical axis. Therefore, it becomes a straight line with an inclination of 1. The vicinity of 15646 frame and 57366 frame represents a stop at the station. On the other hand, the graph (2) in FIG. 32 shows the frame number of the base video image associated by frame matching. Since the time from the start of video image recording to the departure at the first station differs, the intercepts at the left end of the graphs (1) and (2) in FIG. 32 are different. If the vehicle when the base video image and the reference video image are taken is traveling at exactly the same speed and acceleration / deceleration positions, the graphs of (1) and (2) in FIG. Shift to a completely identical graph. However, in the actual graph, the graph of (2) is a delicate curve. This is presumably because the vehicle speed, acceleration / deceleration position at the time of reference video image shooting and that of the vehicle at the time of base video image shooting are different. If the frame number of the reference video image is increased due to an error in frame matching, but the corresponding frame number of the base video image is decreased, it does not increase monotonously. Moreover, when the correspondence is largely wrong, it becomes a step shape or a spike shape in a section other than the stop at the station. In FIG. 32, since these shapes are not found, it can be said that the frame matching process is operating properly as a whole.

次に、天候が極端に異なる例をJR奈良線のビデオ画像で検証した結果について説明する。   Next, a description will be given of the result of verifying an example of extremely different weather using a video image of the JR Nara Line.

図33〜図36は、ベースビデオ画像が晴天、リファレンスビデオ画像が雨天でのフレームマッチング結果を表している。草津線データと異なる条件は、天候だけでなく、窓ガラスに雨粒が多数ついており、風景が鮮明に見えない部分がある。また、一部区間では窓ガラスの曇りも確認できた。さらに、画像下部にビデオカメラ装着治具の吸盤の一部が写りこんでおり、フレームマッチング処理を行うには不利な画像となっている。また、速度情報も草津線が速度発電機を用いているのに対し、奈良線では、車両動揺測定装置30のGPS受信機38で得られたものを使用している。先に、図37のフレームマッチング結果フレーム番号グラフを確認すると、途中の駅停車位置以外では、(2)のグラフは単調増加でステップ状やスパイク状の形状がなく、全体として安定してフレームマッチングが稼働しているものと考えられる。また、図33〜図36も一見正しくフレームマッチングできているように見えるが、図36の地上子の位置を見ると枕木3〜4本程度ずれていることが確認できる。図35もリファレンスビデオ画像のフレーム画像が不鮮明なため確認が困難であるが、ベースビデオ画像のほうがリファレンスビデオ画像よりも前方位置にあることが分かる。   33 to 36 show frame matching results when the base video image is clear and the reference video image is rainy. The conditions different from the Kusatsu Line data are not only the weather, but there are many raindrops on the window glass, and there are parts where the landscape cannot be seen clearly. In some sections, fogging of the window glass was also confirmed. Furthermore, a part of the suction cup of the video camera mounting jig is reflected in the lower part of the image, which is a disadvantageous image for performing the frame matching process. Also, the speed information of the Kusatsu Line uses a speed generator, whereas the Nara Line uses the speed information obtained by the GPS receiver 38 of the vehicle motion measuring device 30. First, when checking the frame matching graph of the frame matching result in FIG. 37, the graph of (2) is monotonically increasing and has no step-like or spike-like shape except for the station stop position on the way. Is considered to be operating. 33 to 36 also appear to be correctly frame-matched at first glance, but it can be confirmed that the position of the ground child in FIG. 36 is shifted by about 3 to 4 sleepers. FIG. 35 is also difficult to confirm because the frame image of the reference video image is unclear, but it can be seen that the base video image is ahead of the reference video image.

これらの比較的大きな誤差が発生した理由は以下のように推定される。
(a)雨粒による画像の変形で、SURF特徴の対応が正しくとれない。
(b)下部吸盤により画像の一部が撮像されず、対応点が正しくとれない。
(c)発車、停車など低速域ではGPSの速度情報は誤差が大きい。
The reason why these relatively large errors have occurred is estimated as follows.
(A) The SURF feature cannot be correctly handled due to the deformation of the image due to raindrops.
(B) A part of the image is not captured by the lower suction cup, and the corresponding points cannot be taken correctly.
(C) GPS speed information has a large error in low speed areas such as departure and stop.

(a)は図19で説明しているように、SURF特徴は周辺の画像の輝度の変動方向を用いてマッチングしているため、雨粒によって光が屈折すると正しくSURF特徴のマッチングができなくなる。(b)は、画像の一部が欠落しているため、リファレンスビデオ画像は実際の位置よりもかなり手前の状態がベースビデオ画像と一致する(画像の大きさは異なる)と判定される可能性がある。(c)は本来、SURF特徴のマッチングによってその誤差が修正されるため、(a)および(b)がなければ、問題とはならないが、SURF特徴のマッチングが正しくない場合は、誤差を増大させる要因となる。   As shown in FIG. 19A, since the SURF feature is matched using the luminance fluctuation direction of the surrounding image, if the light is refracted by raindrops, the SURF feature cannot be correctly matched. In (b), since a part of the image is missing, there is a possibility that the reference video image is determined to be in a state substantially before the actual position that matches the base video image (the size of the image is different). There is. Since (c) is inherently corrected by SURF feature matching, it is not a problem without (a) and (b), but if SURF feature matching is incorrect, the error is increased. It becomes a factor.

以上のことから、今回使用したフレームマッチング機能の性能・特性をまとめると、以下の通りである。   From the above, the performance and characteristics of the frame matching function used this time are summarized as follows.

・速度によるもの、画像マッチングによるものに比較し、この列車位置検出システムで採用したアルゴリズムを実装したフレームマッチング機能が最も精度が高いと言える。
・晴天・曇天程度の照明環境の変動化では環境変化差異検出を行える程度のフレームマッチング精度は確保可能である。
・晴天・雨天のような照明環境の変動(および雨粒などによる画質の変動)がある場合は環境変化差異検出を行う精度は確保できない
-Compared to speed and image matching, the frame matching function that implements the algorithm used in this train position detection system is the most accurate.
・ Fluctuation of lighting environment such as fine weather and cloudy weather can ensure the frame matching accuracy that can detect the environmental change difference.
-If there is a change in the lighting environment such as clear or rainy weather (and the change in image quality due to raindrops, etc.), the accuracy of detecting the change in the environment cannot be ensured.

以上のように、この第1の実施の形態によれば、リファレンスビデオ画像の指定されたフレーム画像のSURF特徴と画像特徴データベースに格納されたベースビデオ画像の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて列車の走行位置を検出するので、列車の走行位置を高精度にかつ低コストで検出することができる。   As described above, according to the first embodiment, the frame matching is performed between the SURF feature of the designated frame image of the reference video image and the SURF feature of each frame image of the base video image stored in the image feature database. Since the traveling position of the train is detected based on the similarity obtained by the comparison by processing, the traveling position of the train can be detected with high accuracy and at low cost.

〈第2の実施の形態〉
第2の実施の形態による画像処理を利用した列車位置および環境変化検出システム(以下「列車位置および環境変化検出システム」という。)について説明する。
<Second Embodiment>
A train position and environment change detection system (hereinafter referred to as a “train position and environment change detection system”) using image processing according to the second embodiment will be described.

[列車位置および環境変化検出システムの構成]
この列車位置および環境変化検出システムは、第1の実施の形態による列車位置検出システムに環境変化検出機能を付加したものである。この列車位置および環境変化検出システムの列車位置検出機能は第1の実施の形態による列車位置検出システムと同様に実現することができる。この列車位置検出機能により列車の走行位置を高精度に検出することができるため、時系列的な環境の変化を正確に抽出することができるようになる。
[Configuration of train position and environmental change detection system]
This train position and environment change detection system is obtained by adding an environment change detection function to the train position detection system according to the first embodiment. The train position detection function of the train position and environment change detection system can be realized in the same manner as the train position detection system according to the first embodiment. Since this train position detection function can detect the traveling position of the train with high accuracy, it is possible to accurately extract time-series environmental changes.

まず、この列車位置および環境変化検出システムにおいて用いられる環境変化抽出技術を説明する前に、この環境変化抽出技術の基礎となる、本出願人によって開発された建築限界支障検出技術について説明する。   First, before explaining the environmental change extraction technology used in this train position and environmental change detection system, the construction limit obstacle detection technology developed by the present applicant, which is the basis of this environmental change extraction technology, will be described.

データ処理PC50に建築限界支障検出プログラムをインストールする。この建築限界支障検出プログラムは、収録され連動表示プログラムでビデオ画像のフレームと速度情報とが対応付けられたデータを読み込み、ビデオカメラ画像に撮像された対象物が、所定の位置、大きさに設定された仮想の建築限界枠に支障しているか否かを判定し、支障していると判定した場合には画面上で例えば建築限界枠の色を変えて表示する。   A building limit trouble detection program is installed in the data processing PC 50. This construction limit obstacle detection program reads data that is recorded and associated with video image frames and speed information in a linked display program, and sets the target imaged in the video camera image to a predetermined position and size. It is determined whether or not the virtual building limit frame is hindered. If it is determined that the virtual building limit frame is hindered, for example, the color of the building limit frame is changed and displayed on the screen.

図38に、建築限界支障検出プログラムの検出画面の一例を示す。この建築限界支障検出プログラムの機能について説明すると下記の通りである。
(1)“開始”ボタンを押すと、速度情報付ビデオカメラ画像が再生され、同時に建築限界支障検出処理が開始される。
(2)ビデオカメラ画像上に仮想の建築限界枠を点線(例えば、青点線)で表示する。この建築限界枠と重なる位置にあるビデオカメラ画像上の物体が建築限界枠の内側にある場合は、この点線が太い点線(例えば、赤点線)の表示に変わる。
(3)フレーム番号、速度、建築限界枠横方向サイズなどが表示される。
(4)フレーム番号を入力し、“ジャンプ”ボタンを押すと指定したフレームに画像がジャンプする。図38においては、フレーム番号として“1720”が入力された例が示されている。
FIG. 38 shows an example of the detection screen of the building limit trouble detection program. The functions of this construction limit obstacle detection program will be described as follows.
(1) When the “Start” button is pressed, a video camera image with speed information is reproduced, and at the same time, a construction limit trouble detection process is started.
(2) A virtual building limit frame is displayed as a dotted line (for example, a blue dotted line) on the video camera image. When an object on the video camera image located at a position overlapping the building limit frame is inside the building limit frame, the dotted line is changed to a thick dotted line (for example, a red dotted line).
(3) The frame number, speed, construction limit frame lateral size, etc. are displayed.
(4) Enter the frame number and press the “jump” button to jump the image to the specified frame. FIG. 38 shows an example in which “1720” is input as the frame number.

図39に、建築限界支障検出プログラムの設定画面を示す。この設定画面の機能は下記の通りである。
(1)“参照”ボタンを押すと、入力データのファイルダイアログが表示され、建築限界支障検出に用いる、ビデオファイルおよび速度情報ファイルを指定できる。
(2)ビデオファイル読み込み後、“画像プレビュー開始”ボタンを押すと、画像が再生され内容を確認できる。
(3)“カメラ内部パラメータファイルを開く”ボタンを押すと、ファイルダイアログが表示され、カメラ内部パラメータ(カメラレンズ焦点距離、歪補正係数、画像中心座標)が記述されたファイルを読み込める。
(4)“カメラ外部パラメータファイルを開く”ボタンを押すと、ファイルダイアログが表示され、カメラ外部パラメータ(軌道面中心からの相対距離および軌道面に対する姿勢)が読み込める。軌道座標系は、図40に示す通りである(Y軸は軌道面に垂直)。
(5)“建築限界検出枠の設定ダイアログを開く”ボタンを押すと、仮想の建築限界枠を車両に対しどのように設定するかを指定する仮想建築限界枠設定画面が表示される。
FIG. 39 shows a setting screen of the building limit trouble detection program. The function of this setting screen is as follows.
(1) When the “Browse” button is clicked, a file dialog for input data is displayed, and a video file and a speed information file used for building limit failure detection can be designated.
(2) After reading the video file, press the “Start Image Preview” button to play back the image and check its contents.
(3) When the “Open camera internal parameter file” button is pressed, a file dialog is displayed, and a file in which camera internal parameters (camera lens focal length, distortion correction coefficient, image center coordinates) are described can be read.
(4) When the “Open camera external parameter file” button is pressed, a file dialog is displayed, and the camera external parameters (relative distance from the center of the track surface and the posture with respect to the track surface) can be read. The orbital coordinate system is as shown in FIG. 40 (Y axis is perpendicular to the orbital plane).
(5) When the “Open building limit detection frame setting dialog” button is pressed, a virtual building limit frame setting screen for specifying how to set a virtual building limit frame for the vehicle is displayed.

図41に仮想建築限界枠設定画面を示す。この設定画面の機能は下記の通りである。
(1)図41の仮想建築限界枠設定画面の上部に模式的に示すように、デジタルビデオカメラ20から仮想の建築限界枠の位置までの距離dおよび仮想の建築限界枠の大きさrを想定し、仮想建築限界枠があたかもそこに存在するとして図38のビデオカメラ画像上の点線(例えば、青点線)を描画している。このビデオカメラ画像上の点線で示した建築限界枠は、dおよびr、カメラ内部・外部パラメータによって、位置・大きさが変動する。画像処理精度としては、建築限界枠が極力、画面全体に広がるように設定するほうが有利であるため、そのようにdを調整する。また、アルゴリズムが正しく作動していることを確認するために、意図的に建築限界枠を大きくして、実際には建築限界に支障しない対象物に反応させる操作をするために、rを大きく設定したりする。
(2)建築限界検出枠の半径に建築限界枠幅の1/2を入力する(メートル単位) 。例えば、1.9mを入力した場合、仮想建築限界枠は、軌道中心から1.9mのところに限界枠線が生成される(図42参照)。
(3)建築限界検出枠の枠までの距離にデジタルビデオカメラ20から仮想建築限界枠までの想定距離を入力する(メートル単位)。当然、この距離を大きくすると、ビデオカメラ画像上の点線(例えば、青点線)で表された仮想建築限界枠は小さくなり、距離を小さくすると建築限界枠は大きくなる。
FIG. 41 shows a virtual building limit frame setting screen. The function of this setting screen is as follows.
(1) As schematically shown in the upper part of the virtual building limit frame setting screen in FIG. 41, the distance d from the digital video camera 20 to the position of the virtual building limit frame and the size r of the virtual building limit frame are assumed. And the dotted line (for example, blue dotted line) on the video camera image of FIG. 38 is drawn as if the virtual building limit frame exists there. The construction limit frame indicated by the dotted line on the video camera image varies in position and size depending on d and r and camera internal and external parameters. As the image processing accuracy, it is more advantageous to set the construction limit frame so that it spreads over the entire screen as much as possible. Therefore, d is adjusted as such. Also, in order to confirm that the algorithm is working correctly, the building limit frame is intentionally increased, and r is set to a large value in order to perform an operation to react to an object that does not actually interfere with the building limit. To do.
(2) Enter 1/2 of the building limit frame width in the radius of the building limit detection frame (in meters). For example, when 1.9 m is input, a limit frame line is generated at a virtual building limit frame at a distance of 1.9 m from the track center (see FIG. 42).
(3) The assumed distance from the digital video camera 20 to the virtual building limit frame is input as the distance to the building limit detection frame (in meters). Naturally, when this distance is increased, the virtual building limit frame represented by a dotted line (for example, a blue dotted line) on the video camera image is decreased, and when the distance is decreased, the building limit frame is increased.

(建築限界支障検出アルゴリズム)
建築限界支障検知アルゴリズムを説明する。
(Building limit obstacle detection algorithm)
The construction limit obstacle detection algorithm will be described.

軌道上を走行する列車の車両の前方に取り付けられたデジタルビデオカメラ20のビデオカメラ画像の複数枚フレームを用いて、一眼ステレオ視を行い、建築限界枠位置の画素に撮像されている対象物が実際の建築限界の内側にあるのか、外側にあるのかを判定する。   A single-lens stereo view is performed using a plurality of frames of a video camera image of the digital video camera 20 attached in front of a train vehicle traveling on the track, and an object captured by a pixel at a building limit frame position is captured. Determine whether it is inside or outside the actual building limit.

図43は、デジタルビデオカメラ20から見た場合に、設定した仮想の建築限界枠と同一画素に撮像される2本の棒の関係を示したものである。●で示した地点はビデオカメラ画像上の同一の画素に撮像されるが、1本は建築限界枠の内側、1本は建築限界枠の外側である。このように、2次元画像1枚では、建築限界枠内外判定は不可能である。   FIG. 43 shows the relationship between two bars imaged on the same pixel as the set virtual building limit frame when viewed from the digital video camera 20. The points indicated by ● are captured by the same pixel on the video camera image, but one is inside the building limit frame and one is outside the building limit frame. In this way, it is impossible to determine whether a building limit frame is inside or outside with a single two-dimensional image.

そこで、デジタルビデオカメラ20が走行中に前進した位置から同一シーンを撮像することを利用してステレオ計測の原理を導入し、この問題を解決する。図44では、デジタルビデオカメラ20が前進した状態を示している。仮想の建築限界枠は移動しないとすると、ビデオカメラ画像上の建築限界枠は近づいて見えるために、外側に向かって大きくなっている。この状態で建築限界枠の内外にある2本の棒の見え方を考えると、建築限界枠内側にある棒はビデオカメラ画像上では仮想の建築限界枠の像よりも外側に写り、建築限界枠の外側に立っている棒はビデオカメラ画像上では仮想の建築限界枠の像よりも内側に写る(図45AおよびB参照)。   In view of this, the principle of stereo measurement is introduced by taking the same scene from the position where the digital video camera 20 moves forward while traveling to solve this problem. FIG. 44 shows a state in which the digital video camera 20 has advanced. Assuming that the virtual building limit frame does not move, the building limit frame on the video camera image appears to approach, and thus increases toward the outside. Considering how the two bars inside and outside the building limit frame look like in this state, the bar inside the building limit frame appears outside the virtual building limit frame image on the video camera image. The sticks standing outside are shown on the video camera image inside the virtual building limit frame image (see FIGS. 45A and B).

よって、以下のような手順で、2次元画像上の建築限界枠位置に写っている対象物が実際には建築限界枠の内側にあるのか、外側にあるのかが判定できる。
(1)デジタルビデオカメラ20が前進する前後の画像を準備
(2)仮想の建築限界枠が前進する前のビデオカメラ画像上のどこに写像されるか計算
(3)消失点から建築限界枠写像画素に向けた直線を生成
(4)移動後の建築限界枠写像を計算
(5)前進前後の画像間で、建築限界枠上の画素位置にあった対象物がどのように移動したかを追尾する。その際追尾は、(3)で求めた直線上に限定する
(6)移動後の位置が(4)で求めた建築限界枠写像位置より内側にあるか、外側にあるかを判定する(内側なら建築限界枠に支障しない、外側なら支障している)
Therefore, it is possible to determine whether the object shown in the building limit frame position on the two-dimensional image is actually inside or outside the building limit frame by the following procedure.
(1) Prepare images before and after the digital video camera 20 moves forward (2) Calculate where on the video camera image before the virtual building limit frame moves forward (3) Building limit frame mapping pixels from the vanishing point (4) Calculate the building limit frame map after movement (5) Track how the object at the pixel position on the building limit frame has moved between the images before and after moving forward . In this case, the tracking is limited to the straight line obtained in (3). (6) It is determined whether the position after movement is inside or outside the building limit frame mapping position obtained in (4) (inside If it is, it will not interfere with the building limit frame, it will interfere with the outside)

(1)の処理では、ステレオ計測を成立させるために、レール上の位置の異なる、すなわち視点の異なる画像を用意する。毎フレームのステレオ視精度を安定させるためには、ステレオ視に用いる前後2枚の画像の視点間距離は、一定であるほうが望ましい。しかし、走行速度は、まちまちであるからフレーム数では指定できない。そこで、速度情報の積分からフレーム間の距離を計算し、予め決めておいた距離になるペア画像を探す必要がある。   In the process (1), in order to establish stereo measurement, images having different positions on the rail, that is, different viewpoints are prepared. In order to stabilize the stereo visual accuracy of each frame, it is desirable that the distance between the viewpoints of the two images before and after that used for stereo vision is constant. However, since the traveling speed varies, it cannot be specified by the number of frames. Therefore, it is necessary to calculate the distance between the frames from the integration of the speed information and search for a pair image having a predetermined distance.

(2)の処理は、デジタルビデオカメラ20からの指定距離離れた位置に、仮想建築限界枠が存在するとして、カメラ外部・内部パラメータを用いてビデオカメラ画像上に仮想建築限界枠を射影する。建築限界枠は、平面上にあるため、ホモグラフィ変換でも求めることができる。   In the process (2), the virtual building limit frame is projected on the video camera image using the camera external and internal parameters, assuming that the virtual building limit frame exists at a position away from the digital video camera 20 by the specified distance. Since the construction limit frame is on a plane, it can also be obtained by homography conversion.

(3)の処理は、(5)で行われる追尾処理のために行われる。デジタルビデオカメラ20が前進するとき、ビデオカメラ画像に写っている全ての点は、消失点からその点を結ぶ直線上を外側に向かって移動する(線路のカーブや、振動の影響はここでは省略する)。この直線をエピ極線と呼ぶ。図46に消失点と画像の移動方向とを示す。   The process (3) is performed for the tracking process performed in (5). When the digital video camera 20 moves forward, all the points shown in the video camera image move outward from the vanishing point on a straight line connecting the points (the effects of the curve and vibration are omitted here). To do). This straight line is called an epipolar line. FIG. 46 shows the vanishing point and the moving direction of the image.

(4)では、(2)と同様の処理を仮想建築限界枠とデジタルビデオカメラ20との距離を前進分だけ短くして行う。図47に、前進前と前進後の仮想建築限界枠を前進前の画像上に表示した画像を示す。ここで、小さい点の点線(例えば、青点線)とより大きい点の点線(例えば、赤点線)とが混合した点線で示した建築限界枠が前進前のもの、より大きい点の点線(例えば、赤点線)だけで示した建築限界枠が前進後のものを示す。   In (4), the same processing as in (2) is performed by shortening the distance between the virtual building limit frame and the digital video camera 20 by the amount of advancement. FIG. 47 shows an image in which the virtual building limit frame before and after the advance is displayed on the image before the advance. Here, the building limit frame indicated by the dotted line in which the dotted line of the small point (for example, the blue dotted line) and the dotted line of the larger point (for example, the red dotted line) are mixed is the one before the advance, the dotted line of the larger point (for example, The building limit frame indicated only by the red dotted line) is the one after the advance.

(5)では、前進前の画像で建築限界枠上にあった物体が、前進後どこに移動したかを探索する。この際、前進前の建築限界枠上の画像の小領域をテンプレート画像とし、前進後の画像上で今テンプレート画像と同じ画像がどこにあるかを探索する。この際、探索は、2 次元的に行われるが、(3)で説明したエピ極線上を1次元探索すればよい(エピ極線拘束)。また、直線の探索範囲は、図47で示した、小さい点の点線(例えば、青点線)とより大きい点の点線(例えば、赤点線)とが混合した点線で示した建築限界枠から、より大きい点の点線(例えば、赤点線)だけで示した建築限界枠を超えるところまでとなる(図48参照)。前進前と前進後の建築限界枠間距離を1とすると、追尾する距離は1より若干大きくする。これは、建築限界枠よりさらに内部に突出している対象物を検知するためである。   In (5), it is searched where the object that was on the building limit frame in the image before moving has moved after moving forward. At this time, a small region of the image on the building limit frame before the advance is used as a template image, and the image after the advance is searched for where the same image as the template image is present. At this time, the search is performed two-dimensionally, but the one-dimensional search on the epipolar line explained in (3) may be performed (epipolar constraint). Also, the search range of the straight line is obtained from the building limit frame shown by the dotted line shown in FIG. It will be to the place beyond the building limit frame shown only by the dotted line (for example, red dotted line) of a big point (refer FIG. 48). If the distance between the building limit frames before and after the advance is 1, the tracking distance is slightly larger than 1. This is to detect an object protruding further inside than the building limit frame.

図49に示すように、追尾位置は、地点1の画像の建築限界枠上の小領域をテンプレート画像として切り出し、これを地点2の画像上でエピ極線上に移動させながら、対応位置の画像との類似度のプロファイルを計算する。この場合、この類似度プロファイルのピーク位置を追尾位置とし、その位置が地点2における建築限界枠位置を超えているか否かにより判定を行う。   As shown in FIG. 49, the tracking position is obtained by cutting out a small area on the building limit frame of the image of the point 1 as a template image and moving it on the epipolar line on the image of the point 2, Calculate the similarity profile. In this case, the peak position of the similarity profile is set as the tracking position, and the determination is made based on whether or not the position exceeds the building limit frame position at the point 2.

さて、環境変化の抽出において、線路周辺の植生の接近が進行しているか否かは重要と思われる。しかし、植生は非常に細かな構造を持っており、そのため照明環境によって簡単に画像の状態が変動しやすくなっている。そのため、2 次元画像の差異を検出する方式では、ノイズが多数発生し本当の差異を抽出することは容易ではない。そこで、この第2の実施の形態においては、上述の建築限界支障検出技術で開発した物体の3次元情報を用いることで、環境変化抽出の安定性を向上させることを図る。異なる2時刻、具体的には朝と夕とで撮影したビデオ画像を考えると、朝と夕とで照明環境がまったく異なるため、照明環境の差異と環境の差異とを峻別することが困難である。一方、朝夕それぞれの3次元形状の計測を行うと照明環境の変化から受ける影響を軽減することが可能となる。   Now, in extracting environmental changes, it seems to be important whether or not the approach of vegetation around the track is progressing. However, the vegetation has a very fine structure, so that the state of the image easily changes depending on the lighting environment. For this reason, in the method of detecting the difference between the two-dimensional images, a lot of noise occurs and it is not easy to extract the true difference. Therefore, in the second embodiment, the stability of the environment change extraction is improved by using the three-dimensional information of the object developed by the above-described construction limit trouble detection technique. Considering video images taken at two different times, specifically in the morning and evening, the lighting environment is completely different between the morning and evening, so it is difficult to distinguish the difference between the lighting environment and the environmental difference. . On the other hand, when the three-dimensional shape is measured in the morning and evening, it is possible to reduce the influence of changes in the lighting environment.

[環境変化抽出の処理の概要]
上述の建築限界支障検出技術では、図52のように、ビデオカメラの前方に対し、レール上に仮想の建築限界枠(3.8m幅)を設定し、撮像された対象物がこの枠の中に食い込んでいるか否かを検出するアルゴリズムを用いている。仮想建築限界枠に食い込んでいるか否かを2次元のビデオ映像から判断するために、ビデオカメラが前方方向に進行することを利用したステレオ視が用いられている。これに対し、環境変化抽出では、この仮想建築限界枠を図53に示すように左右方向および高さ方向に拡張する。すなわち、多重化した仮想建築限界枠(最も内側の枠は標準枠、その外側の3つの枠は拡大した枠)を用いる。これにより、1 回目の撮影では建築限界枠への支障がなかった植生が、以降の撮影時に建築限界枠に支障するか否かをみることで、差異を検出することができる。
[Outline of environment change extraction processing]
In the above construction limit obstacle detection technology, as shown in FIG. 52, a virtual building limit frame (3.8 m width) is set on the rail in front of the video camera, and the imaged object is in this frame. An algorithm is used to detect whether or not the bite is invaded. In order to determine from the two-dimensional video image whether or not the virtual building limit frame has been cut, stereo vision using the fact that the video camera travels in the forward direction is used. On the other hand, in the environment change extraction, this virtual building limit frame is expanded in the left-right direction and the height direction as shown in FIG. That is, a multiplexed virtual building limit frame (the innermost frame is a standard frame and the three outer frames are enlarged frames) is used. As a result, a difference can be detected by checking whether or not the vegetation that did not interfere with the building limit frame in the first shooting will interfere with the building limit frame during subsequent shooting.

[環境変化抽出の処理技術の詳細]
(1)仮想建築限界枠の拡張
図53に示すように、仮想建築限界枠の個数を拡張し、任意個数の仮想建築限界枠を設定する。これにより支障物体が線路方向に干渉していく経過を任意の精度で捉えることができ、環境の変化を精緻に検出する。拡張は、建築限界支障検出技術で開発した仮想支障枠を左右方向および高さ方向に拡幅することで行った。拡張を簡便に行うため、個数と拡幅量をメートル単位で指定することにより実行可能とした。なお、以降の検討および検証では、拡張した仮想建築限界枠1個(幅7.6m)を用い、線路近傍の支障を検出した。
[Details of processing technology for environmental change extraction]
(1) Expansion of virtual building limit frame As shown in FIG. 53, the number of virtual building limit frames is expanded to set an arbitrary number of virtual building limit frames. As a result, it is possible to capture the progress of interference of obstacles in the direction of the track with arbitrary accuracy, and to accurately detect changes in the environment. The expansion was done by widening the virtual obstacle frame developed with the construction limit obstacle detection technology in the left-right and height directions. In order to perform expansion easily, it was made feasible by specifying the number and widening amount in meters. In the following examination and verification, an obstacle near the track was detected using one expanded virtual building limit frame (width 7.6 m).

(2)ベースビデオ画像とリファレンスビデオ画像との間での差異検出
ベースビデオ画像およびリファレンスビデオ画像の双方の支障検出結果をもとに差異を計算する際、対応するフレーム間で支障有無や個数を単純な減算により行うと所望の結果を得るのが困難となることがある。図54は、ビデオ画像中で線路傍に立つ電柱が写っている箇所で仮想建築限界支障枠の個数をプロットしたグラフである。グラフの横軸方向はフレームマッチングの結果を用いて同期させている。時速数十kmで走行中の列車にて撮影したビデオ画像は数十フレーム毎秒(=数十センチ毎フレーム)で撮影を行っており、ベースビデオ画像とリファレンスビデオ画像との間で各フレームのシャッターを切った位置に数十cmの差異がある。従って、これらのフレーム間の対応付けは最小でも数十cmの誤差を含むこととなる。ベースビデオ画像とリファレンスビデオ画像との間での単純な減算はこの誤差を無視しており、上図のような意図しない結果を招いてしまう。図54のデータを単純な減算した場合には、図55に示すような結果になる。本来であれば、ベースビデオ画像およびリファレンスビデオ画像とも同一の電柱が支障しているため、図55の3段目の差異が何も現れないことが望ましい。
(2) Detection of difference between base video image and reference video image When calculating the difference based on the detection results of both the base video image and the reference video image, the presence / absence and number of failures between the corresponding frames are calculated. If simple subtraction is performed, it may be difficult to obtain a desired result. FIG. 54 is a graph in which the number of virtual building limit obstacle frames is plotted at a location where a utility pole standing near the track is shown in the video image. The horizontal axis direction of the graph is synchronized using the result of frame matching. Video images taken by trains traveling at several tens of kilometers per hour are taken at several tens of frames per second (= several tens of centimeters per frame), and each frame shutter between the base video image and the reference video image. There is a difference of several tens of centimeters in the position where the mark is cut. Therefore, the correspondence between these frames includes an error of several tens of centimeters at the minimum. A simple subtraction between the base video image and the reference video image ignores this error, resulting in an unintended result as shown above. When the data of FIG. 54 is simply subtracted, the result shown in FIG. 55 is obtained. Originally, since the same utility pole is hindered in both the base video image and the reference video image, it is desirable that no difference in the third stage in FIG. 55 appears.

また、図55に示すグラフでは線路傍の草木がノイズとして一部検出されている箇所がある。処理の安定化のため、このようなノイズは一定量検出されることを想定し、閾値処理を行うこととする(上のグラフでは3段目を計算する際にノイズを除去している)。   In addition, in the graph shown in FIG. 55, there is a part where the plants near the track are partially detected as noise. In order to stabilize the processing, it is assumed that a certain amount of such noise is detected, and threshold processing is performed (in the graph above, noise is removed when calculating the third stage).

以上のことを踏まえ、この列車位置および環境変化検出システムでは、以下の手法にしたがって差異を計算し、頑健な検出を行う。   Based on the above, this train position and environment change detection system calculates the difference according to the following method and performs robust detection.

(1)注目フレームとその近傍を考慮して減算する。
(2)注目フレームの支障点個数が一定以下の場合には無視する。
(1) Subtract in consideration of the frame of interest and its vicinity.
(2) If the number of trouble points in the frame of interest is below a certain level, ignore it.

具体的なアルゴリズムを以下に示す。
(差異計算アルゴリズム)
(A)近傍フレームの閾値をt1 とする
(B)支障点個数の閾値をt2 とする
(C)ベースビデオ画像の注目フレーム番号をNとする。
(D)フレームマッチングの結果を用い、Nに対応するリファレンスビデオ画像の注目フレーム番号Mを求める。
(E)ベースビデオ画像のN番目のフレームにて仮想建築限界枠を設け、支障点個数CGb (N)を求める。リファレンスビデオ画像のM番目のフレームにて仮想建築限界枠を設け、支障点個数CGr (M)を求める。CGb (N)、CGr (M)いずれもt2 以下ならばN番目のフレームの差異Diff(N)を0とする。この時点で終了となる。
(F)ベースビデオ画像の区間[N−t1 ,N+t1 ]の各フレームにて支障点個数を求める。いずれかのフレームで支障点個数がt2 以上ならば支障物体ありと判定する。
(G)リファレンスビデオ画像の区間[M−t1 ,M+t1 ]の各フレームにて支障点個数を求める。いずれかのフレームで支障点個数がt2 以上ならば支障物体ありと判定する。
(H)(F),(G)いずれも支障物体ありならば、N番目のフレームの差異Diff(N)=0とする。(F),(G)いずれも支障物体なしならば、N番目のフレームの差異Diff(N)=0とする。さもなくば、N番目のフレームの差異Diff(N)=0を以下の式で求める。
ただし、Σp はすべての支障点に対する和、hitN (p)はNフレーム目の支障点pが支障していれば1、さもなくば0とする関数である。つまり、支障有無の異なる支障点の個数が、当該フレームを差異とするものである。
A specific algorithm is shown below.
(Difference calculation algorithm)
(A) The threshold value of the neighboring frame is t 1. (B) The threshold value of the number of trouble points is t 2. (C) The frame number of interest of the base video image is N.
(D) The frame number M of the reference video image corresponding to N is obtained using the frame matching result.
(E) A virtual building limit frame is provided in the Nth frame of the base video image, and the number of obstacle points CG b (N) is obtained. A virtual building limit frame is provided in the Mth frame of the reference video image, and the number of obstacle points CG r (M) is obtained. If both CG b (N) and CG r (M) are t 2 or less, the difference Diff (N) of the Nth frame is set to 0. The process ends at this point.
(F) The number of trouble points is obtained in each frame of the interval [N−t 1 , N + t 1 ] of the base video image. If the number of trouble points in any frame is t 2 or more, it is determined that there is a trouble object.
(G) The number of trouble points is obtained in each frame of the section [M−t 1 , M + t 1 ] of the reference video image. If the number of trouble points in any frame is t 2 or more, it is determined that there is a trouble object.
If any of (H), (F), and (G) has an obstacle, the difference Diff (N) = 0 of the Nth frame is set. If there is no obstacle in both (F) and (G), the Nth frame difference Diff (N) = 0 is set. Otherwise, the difference Diff (N) = 0 of the Nth frame is obtained by the following equation.
However, Σ p is a function for all trouble points, and hit N (p) is a function that is 1 if the trouble point p in the Nth frame is troubled, and 0 otherwise. That is, the number of trouble points with different troubles makes the frame different.

以上の手続きによりDiff(N)≠0と判定したフレームは2本のビデオ画像の間で差異があり、Diff(N)=0と判定したフレームは差異がない、と判定する。   It is determined that the frame determined as Diff (N) ≠ 0 by the above procedure is different between the two video images, and the frame determined as Diff (N) = 0 is not different.

[実路線での検証]
実路線を走行する列車で撮影した映像に対して処理を適用し、以下の2つの地点について検証を行った。
[Verification on actual routes]
The processing was applied to the video taken by the train traveling on the actual route, and the following two points were verified.

(1)草津線上り17.1km地点
ベースビデオ画像撮影日:2014年9月10日
リファレンスビデオ画像撮影日:2014年9月12日
(2)草津線上り22.9km地点
ベースビデオ画像撮影日:2014年9月10日
リファレンスビデオ画像撮影日:2014年9月12日
(1) Kusatsu Line Up 17.1km Point Base Video Image Shooting Date: September 10, 2014 Reference Video Image Shooting Date: September 12, 2014 (2) Kusatsu Line Up 22.9km Point Base Video Image Shooting Date: September 10, 2014 Reference video image shooting date: September 12, 2014

(A)草津線上り17.1km地点での検証結果
ビデオ画像を目視で確認して差異のある箇所を探し、見つかった箇所を対象とした。図56はベースビデオ画像の処理対象区間の様子、図57はリファレンスビデオ画像の処理対象区間の様子を示す。図56および図57の各画像下の「#000000」はビデオ画像のフレーム番号を表す。このうち、差異検出の対象として注目したのは以下の3箇所((1)〜(3))である。
(A) Verification result at 17.1 km point on Kusatsu Line Ascending time The video image was visually confirmed to find a difference, and the found location was targeted. 56 shows the state of the processing target section of the base video image, and FIG. 57 shows the state of the processing target section of the reference video image. “# 000000” below each image in FIGS. 56 and 57 represents the frame number of the video image. Of these, the following three locations ((1) to (3)) have been focused on as differences detection targets.

(1)ベースビデオ画像、リファレンスビデオ画像ともに支障物体がある箇所
線路傍に電柱が立っており、いずれのビデオ画像でも仮想建築限界枠に物体が支障すると考えられる箇所であり、図56の#133094、図57の#154474が該当するものである。当該箇所における差異検出では、差異無しと判定することを想定している。
(1) Location where both the base video image and the reference video image have obstacles A utility pole stands near the track, and any video image is considered to interfere with the virtual building limit frame. This corresponds to # 154474 in FIG. It is assumed that it is determined that there is no difference in the difference detection at the location.

(2)ベースビデオ画像、リファレンスビデオ画像ともに支障物体がない箇所
線路近傍に物体が無く、いずれのビデオ画像でも仮想建築限界枠に物体が支障することがないと考えられる場所であり、図56の#133138、図57の#154410が該当するものである。当該箇所における差異検出では、差異無しと判定することを想定している。
(2) Location where there is no obstacle in both base video image and reference video image There is no object in the vicinity of the track, and it is considered that there is no obstacle to the virtual building limit frame in any video image. This corresponds to # 133138 and # 154410 in FIG. It is assumed that it is determined that there is no difference in the difference detection at the location.

(3)ベースビデオ画像のみ支障物体がある箇所
ベースビデオ画像にのみ線路傍の側溝で作業している人物が写っており、ベースビデオ画像のみで仮想建築限界枠に支障すると考えられる箇所である。当該箇所における差異検出では、差異有りと判定することを想定している。図56の#133189、図57の#154548が該当するものである。
(3) A place where there is an obstacle only in the base video image A person working in a gutter beside the track is shown only in the base video image, and this is a place that is considered to interfere with the virtual building limit frame only by the base video image. It is assumed that it is determined that there is a difference in the difference detection at the location. This corresponds to # 133189 in FIG. 56 and # 154548 in FIG.

上記の3箇所を含むビデオ画像を対象として、検出処理を行った。アルゴリズムのパラメータは、近傍フレームの閾値をt1 =3 、支障点個数の閾値をt2 =4 とした。仮想建築限界枠による支障の検出結果は図58および図59に示す通りとなった。図58はベースビデオ画像、図59はリファレンスビデオ画像である。画像中の赤点が支障している点、青点が支障していない点である。 Detection processing was performed on the video image including the above three locations. As the parameters of the algorithm, the threshold value of the neighboring frame is t 1 = 3, and the threshold value of the number of trouble points is t 2 = 4. The detection result of the obstacle by the virtual building limit frame is as shown in FIG. 58 and FIG. 58 shows a base video image, and FIG. 59 shows a reference video image. The red point in the image is a problem, and the blue point is a problem.

処理結果は図60に示すグラフのようになった。このグラフは横軸が時間軸、縦軸が検出程度を表す。1段目のグラフはベースビデオ画像における仮想建築限界枠の支障点個数、2段目のグラフはリファレンスビデオ画像における仮想建築限界枠の支障点個数、3段目のグラフは両ビデオ画像の差異を計算した結果である。   The processing results are as shown in the graph of FIG. In this graph, the horizontal axis represents the time axis and the vertical axis represents the degree of detection. The first graph shows the number of obstacles in the virtual building limit frame in the base video image, the second graph shows the number of obstacles in the virtual building limit frame in the reference video image, and the third graph shows the difference between the two video images. It is the result of calculation.

(B)草津線上り29.1km地点での検証結果
ビデオ画像を目視で確認して差異のある箇所を探し、見つかった箇所を対象とした。対象箇所の様子と、仮想建築限界枠(幅7.6m)による支障点検出の結果を重畳表示した画像を図61および図62に示す。図61はベースビデオ画像の処理対象区間の様子、図62はリファレンスビデオ画像の処理対象区間の様子である。このうち、差異検出の対象として注目したのは線路傍の雑草の部分である。ベースビデオ画像(図38の#78304)にて雑草が繁茂しているのが写っているが、リファレンスビデオ画像(図39の#58437)では除草されており写っていない。したがって、ベースビデオ画像のみ仮想建築限界枠に支障すると考えられる。
(B) Result of verification at 29.1 km on the Kusatsu line Ascending the video image, looking for a difference, we looked at the found part. 61 and 62 show images in which the state of the target portion and the result of obstacle point detection by the virtual building limit frame (width 7.6 m) are superimposed and displayed. FIG. 61 shows the processing target section of the base video image, and FIG. 62 shows the processing target section of the reference video image. Of these, we focused on the weeds near the track as the object of difference detection. The base video image (# 78304 in FIG. 38) shows that weeds are growing, but the reference video image (# 58437 in FIG. 39) has been weeded and is not shown. Therefore, only the base video image is considered to hinder the virtual building limit frame.

上記箇所を含むビデオ画像を対象として、検出処理を行った。アルゴリズムのパラメータは、近傍フレームの閾値をt1 =3 、支障点個数の閾値をt2 =4 とした(上記の検証結果(A)と同じ)。処理結果を図63に示すグラフに示す。このグラフは、横軸が時間軸、縦軸が検出程度を表す。1段目のグラフはベースビデオ画像における仮想建築限界枠の支障個数、2段目のグラフはリファレンスビデオ画像における仮想建築限界枠の支障個数、3段目のグラフは両ビデオ画像の差異を計算した結果である。 Detection processing was performed on a video image including the above-described part. As the algorithm parameters, the threshold value of the neighboring frame is t 1 = 3, and the threshold value of the number of trouble points is t 2 = 4 (the same as the above-described verification result (A)). The processing results are shown in the graph shown in FIG. In this graph, the horizontal axis represents the time axis and the vertical axis represents the degree of detection. The first graph is the number of obstacles in the virtual building limit frame in the base video image, the second graph is the number of failures in the virtual building limit frame in the reference video image, and the third graph is the difference between the two video images. It is a result.

[検証結果の考察]
(A)の検証結果の注目箇所ごとに下記の通り考察を行った。
[Consideration of verification results]
The following considerations were made for each point of interest in the verification result of (A).

(1)ベースビデオ画像、リファレンスビデオ画像ともに支障物体がある箇所
ベースビデオ画像、リファレンスビデオ画像のいずれにおいても線路傍の電柱が支障しており、支障個数が増大していることが図55に示すグラフから見て取れる。同箇所はフレームマッチングに誤差があり、電柱に由来する支障個数のピーク位置に若干ずれがある。差異をそのまま計算すると、図55に示すように2つのピークが生じることとなる。
(1) Location where there is an obstacle in both the base video image and the reference video image In both the base video image and the reference video image, there is an obstacle in the power pole near the track, and the number of obstacles is increasing as shown in FIG. You can see from the graph. At the same location, there is an error in frame matching, and there is a slight shift in the peak position of the number of troubles originating from the utility pole. When the difference is calculated as it is, two peaks are generated as shown in FIG.

今回使用した差異計算アルゴリズムにより、注目フレームとその近傍フレームとを考慮して差異を計算することで、誤差をうまく吸収できている。従って、図55の3段目のグラフにおいて差異が検出されていない。   The difference calculation algorithm used this time absorbs the error well by calculating the difference considering the frame of interest and its neighboring frames. Therefore, no difference is detected in the third graph of FIG.

(2)ベースビデオ画像、リファレンスビデオ画像ともに支障物体がない箇所
ベースビデオ画像、リファレンスビデオ画像のいずれにおいても支障個数が0で図55の3段目のグラフにおいても、差異が検出されていない。また、当該箇所では線路から離れた位置にある側道に車両や作業員がいるが、これらは支障として検出されていない。
(2) Locations where there are no obstacles in both the base video image and the reference video image The number of obstacles is 0 in both the base video image and the reference video image, and no difference is detected in the third graph in FIG. In addition, there are vehicles and workers on the side road located away from the track at the location, but these are not detected as obstacles.

(3)ベースビデオ画像のみ支障物体がある箇所
ベースビデオ画像にのみ線路傍の側溝で作業している人物が支障しており、支障数が増大していることが図55のグラフから見て取れる。差異を計算すると図55の3段目のグラフのようになり、当該箇所に差異が存在することが読み取れる。
(3) Location where only the base video image has a hindrance object It can be seen from the graph of FIG. 55 that the person working in the side groove near the track is hindering only the base video image, and the number of hindrances is increasing. When the difference is calculated, it becomes like the graph in the third row of FIG. 55, and it can be read that there is a difference in the part.

(B)の検証結果の注目箇所ごとに下記の通り考察を行った。 The following considerations were made for each point of interest in the verification result of (B).

注目箇所では、図61のベースビデオ画像で線路傍の雑草が支障しており、支障数が増大していることが図63のグラフから見て取れる。一方で、図62のリファレンスビデオ画像においては雑草が除草されており、支障する点はほとんどない。差異を計算すると、図63の3段目のグラフのようになり、当該箇所に差異が存在することが読み取れる。   It can be seen from the graph in FIG. 63 that at the point of interest, weeds near the track are hindered in the base video image of FIG. 61 and the number of hindrances is increasing. On the other hand, in the reference video image of FIG. 62, weeds are weeded out, and there is almost no problem. When the difference is calculated, it becomes like the graph in the third row of FIG. 63, and it can be read that there is a difference in the part.

なお、仮想建築限界枠に線路傍の電柱が支障している箇所では、差異がほとんど検出されていない。これは差異有無の判定が線路の左右のどちら側かを考慮していないため、電柱による支障と雑草による支障を混同しているためである。仮想建築限界枠による支障判定および差異検出を線路の左右で分割する、すなわち図63のグラフが6段(1段目:ベースビデオ画像支障検出左、2段目:ベースビデオ画像支障検出右、3段目:リファレンスビデオ画像支障検出左、4段目:リファレンスビデオ画像支障検出右、5段目:差異検出左、6段目:差異検出右)になるように分割することで、このような事態に対応することが可能となる。   In addition, the difference is hardly detected in the location where the utility pole near the track interferes with the virtual building limit frame. This is because the determination of whether there is a difference does not take into consideration the left or right side of the track, so that the trouble caused by the utility pole is confused with the trouble caused by weeds. The obstacle determination and the difference detection by the virtual building limit frame are divided on the right and left of the track, that is, the graph of FIG. 63 has six stages (first stage: base video image trouble detection left, second stage: base video image trouble detection right, 3 Stage: Reference video image trouble detection left, 4th stage: Reference video image trouble detection right, 5th stage: difference detection left, 6th stage: difference detection right) It becomes possible to cope with.

上述のように、線路傍の支障物体の有無に応じて差異の有無を正しく判断でできていることが分かる。   As described above, it can be seen that the presence / absence of a difference can be correctly determined in accordance with the presence / absence of an obstacle near the track.

[検証結果の考察に対する補足]
(仮想建築限界枠による支障検出の電柱に対する適用)
図64に、リファレンスビデオ画像にて上記(1)の箇所の支障検出を行った結果を1フレームずつ示す。
[Supplement to the examination of verification results]
(Application to utility poles for detecting obstacles with virtual building limit frames)
FIG. 64 shows the result of detecting the trouble at the location (1) in the reference video image frame by frame.

仮想建築限界枠による支障検出では、注目フレームの注目点近傍の矩形領域の画素をテンプレートとして、次フレームにて類似した矩形領域を探索することによって、検出を実現している。ここで、矩形領域の画素の類似度の計算は、次式の正規化相互相関(ZNCC)で行う。
In the obstacle detection by the virtual building limit frame, detection is realized by searching for a similar rectangular area in the next frame using a pixel in the rectangular area near the target point of the target frame as a template. Here, the calculation of the similarity of the pixels in the rectangular region is performed by the following normalized cross-correlation (ZNCC).

注目点近傍でZNCCの値が最大となる矩形領域の位置を探索結果として得る。ただし、ZNCCの最大値が小さすぎる場合には探索該当なしと判断するほうが安定的に処理を行えるので、下限閾値を設けている。この下限閾値が適用されうるケースとして、注目点近傍の矩形領域が暗いために画素値の分散が小さい場合、がある。   The position of the rectangular area where the value of ZNCC is maximum in the vicinity of the point of interest is obtained as a search result. However, when the maximum value of ZNCC is too small, it is possible to perform processing more stably if it is determined that the search is not applicable, so a lower limit threshold is provided. As a case where this lower limit threshold value can be applied, there is a case where the variance of pixel values is small because the rectangular area near the target point is dark.

図59の例では、太陽とカメラの位置関係上、逆光となっており、電柱の表面が黒くつぶれてしまい、画素値の分散が小さい。従って、上述のZNCCによる類似度計算には不利な状況であるといえる。一方で、電柱の左右輪郭部においては、注目矩形に電柱以外の画素値分散が大きい景色が一部入っており、ZNCCの計算に不利な状況は軽減されている。従って、この電柱を含む前後数フレームで仮想建築限界枠による支障点の検出を行うと、電柱の左右輪郭に該当する2つのピークが得られることとなる。なお、この事象は逆光具合、車速とビデオフレームレートに依存することに注意が必要である。   In the example of FIG. 59, the light is backlit due to the positional relationship between the sun and the camera, the surface of the utility pole is crushed in black, and the dispersion of pixel values is small. Therefore, it can be said that this is a disadvantageous situation for the above-mentioned similarity calculation by ZNCC. On the other hand, in the left and right contour portions of the utility pole, a scene with a large pixel value dispersion other than the utility pole is included in the target rectangle, and the disadvantageous situation for the calculation of ZNCC is reduced. Therefore, if the obstacle point is detected by the virtual building limit frame in several frames before and after the utility pole, two peaks corresponding to the left and right contours of the utility pole are obtained. It should be noted that this event depends on backlight conditions, vehicle speed and video frame rate.

(線路近傍物体の支障度合いの変化を検出するアルゴリズムの検討)
上記の[環境変化抽出の処理技術の詳細]の(2)ベースビデオ画像とリファレンスビデオ画像との間での差異検出、では線路近傍物体の支障の有無(=環境変化の有無)を検出するアルゴリズムを説明した。さらなる環境変化検出の高度化を目指し、電柱が傾くことで線路に接近してくることを変化事例として想定し、これを検出することについて検討する。
(Examination of algorithms to detect changes in the degree of hindrance to objects near the track)
In (2) Detection of difference between base video image and reference video image in [Details of environment change extraction processing technology] above, an algorithm for detecting the presence or absence of obstacles near the track (= presence or absence of environmental change) Explained. Aiming at further sophistication of environmental change detection, we will consider the case of change as a case of change, assuming that the utility pole approaches the track.

これまでに述べた事項は、幅7.6m(片側3.8m) の仮想建築限界枠を用いた検出処理である。ここから電柱が線路側に20cmだけ近接してきたことを想定し、図65に示すように、幅7.2m(片側3.6m) の仮想建築限界枠を用いて処理を行う。上記の電柱が傾斜する過程を、以下に説明する時点で撮影した3本のビデオカメラ画像で検出するものとする。   The matter described so far is detection processing using a virtual building limit frame having a width of 7.6 m (one side: 3.8 m). Assuming that the utility pole has approached 20 cm from the track side from here, processing is performed using a virtual building limit frame having a width of 7.2 m (one side: 3.6 m) as shown in FIG. It is assumed that the process of tilting the power pole is detected by three video camera images taken at the time point described below.

(A)電柱が傾斜する前の時点で撮影したビデオ画像
(B)電柱が傾斜し、7.6m幅の仮想建築限界枠に支障する時点で撮影したビデオ画像
(C)電柱が(B)よりさらに傾斜し、7.2m幅の仮想建築限界枠に支障する時点で撮影したビデオ画像
(A) Video image taken at the time before the utility pole tilts (B) Video image taken at the time when the utility pole tilts and interferes with the 7.6m wide virtual building limit frame (C) The utility pole is from (B) A video image taken at the time of further tilting and obstructing the 7.2m-wide virtual building limit frame

3本のビデオ画像に対し、仮想建築限界枠による支障検出処理を以下の6回実行すると、それぞれ支障有無の判定が得られる。   When the obstacle detection process using the virtual building limit frame is executed for the three video images six times as described below, it is possible to determine whether or not the obstacle exists.

(1)(A)に対し、7.6m幅の仮想建築限界枠を用いて処理…支障なし
(2)(A)に対し、7.2m幅の仮想建築限界枠を用いて処理…支障なし
(3)(B)に対し、7.6m幅の仮想建築限界枠を用いて処理…支障あり
(4)(B)に対し、7.2m幅の仮想建築限界枠を用いて処理…支障なし
(5)(C)に対し、7.6m幅の仮想建築限界枠を用いて処理…支障あり
(6)(C)に対し、7.2m幅の仮想建築限界枠を用いて処理…支障あり
(1) For (A), processing using a 7.6m wide virtual building limit frame ... No hindrance (2) For (A), processing using a 7.2m wide virtual building limit frame ... No hindrance (3) For (B), processing using a 7.6m-wide virtual building limit frame ... There is a problem (4) For (B), processing using a 7.2m-wide virtual building limit frame ... No problem (5) For (C), processing using a 7.6m-wide virtual building limit frame ... There is a problem (6) For (C), processing using a 7.2m-wide virtual building limit frame ... There is a problem

6個の支障検出結果に対し、差異検出処理を以下の4回実行すると、それぞれ差異有無の判定が得られる。   When the difference detection process is executed for the six trouble detection results for the following four times, it is possible to determine whether or not there is a difference.

(I)(a)(c)に対して差異検出処理を行う…差異あり
(II)(b)(d)に対して差異検出処理を行う…差異なし
(III)(a)(e)に対して差異検出処理を行う…差異あり
(IV)(b)(f)に対して差異検出処理を行う…差異あり
(I) A difference detection process is performed on (a) and (c) ... there is a difference (II) A difference detection process is performed on (b) and (d) ... no difference (III) (a) and (e) The difference detection process is performed on the difference (IV) (b) (f). The difference detection process is performed on the difference (IV), (b), and (f).

以上の処理結果から分かることは以下の点である。   The following points can be understood from the above processing results.

・7.6m幅の仮想建築限界枠による支障検出結果を用いた差異検出では、(A)(B)および(A)(C)の間で差異検出の結果が同一である((I)と(III)))。
・7.2m幅の仮想建築限界枠による支障検出結果を用いた差異検出では、(A)(B)および(A)(C)の間で差異検出の結果が異なる((II)と(IV))
・ In the difference detection using the obstacle detection result by the 7.6m width virtual building limit frame, the difference detection result is the same between (A) (B) and (A) (C) ((I) and (III))).
-In the difference detection using the obstacle detection result by the 7.2m width virtual building limit frame, the difference detection results are different between (A) (B) and (A) (C) ((II) and (IV ))

仮想建築限界枠の幅の広さによって2撮影時点の差異検出結果が異なるということは、その時点間で支障物体の支障具合に変化があったということである。したがって、上記のアルゴリズムにより線路傍の物体の支障具合の変化を検出することが可能となることが示唆される。   That the difference detection result at the time of the two photographings differs depending on the width of the virtual building limit frame means that there is a change in the obstacle condition between the two shooting points. Therefore, it is suggested that the above algorithm can detect a change in the obstacle condition of an object near the track.

以上のように、この第2の実施の形態によれば、列車の走行位置を高精度にかつ低コストで検出することができ、それによって列車が走行する軌道の周辺の時系列的な環境の変化を容易にかつ正確に検出することができる。   As described above, according to the second embodiment, the traveling position of the train can be detected with high accuracy and at low cost, and thereby the time-series environment around the track on which the train travels can be detected. Changes can be detected easily and accurately.

〈第3の実施の形態〉
第3の実施の形態においては、第1の実施の形態による列車位置検出システムあるいは第2の実施の形態による列車位置および環境変化検出システムに、複数ビデオ画像のハンドリングが可能なソフトウェアを組み込んだものについて説明する。
<Third Embodiment>
In the third embodiment, software capable of handling a plurality of video images is incorporated into the train position detection system according to the first embodiment or the train position and environment change detection system according to the second embodiment. Will be described.

[ソフトウェア機能の概要]
(1)単体再生機能
ベースビデオ画像とリファレンスビデオ画像との2本のビデオ画像を独立に再生および一時停止する。
(2)同時再生機能
ベースビデオ画像とリファレンスビデオ画像との2本のビデオ画像を撮影時のフレームレートで再生する。ただし、これらの2本のビデオ画像は撮影時の車両の速度が異なっているため、再生開始時点から一定時間経過したときには表示されているシーンが不一致となる。この不一致は時間の経過とともに拡大していくため、両ビデオ画像を比較してシーン中の差異を確認するのは困難となる。
(3)フレームマッチング結果を用いた同期再生機能
フレームマッチングを用い、任意時点で映像中のシーンが一致するようフレームを調整して表示する。(2)の例で考えると、再生開始後に車両速度のズレが原因でシーンの不一致が生じるが、それを補間するようフレーム番号を調整することで同期しての再生を実現する。これにより、時間の経過によらずシーンが一致するので、両ビデオ画像を比較してシーン中の差異を検討することが可能となる。
(4)フレームマッチング実行機能
ベースビデオ画像とリファレンスビデオ画像との2本のビデオ画像の間でフレームマッチングを行うのに必要なインターフェースを備え、映像を見ながら処理を行うことを可能とした。ソフトウェア起動時にビデオデータと処理パラメータとを設定し、一連の処理を実行する。
[Overview of software functions]
(1) Single playback function The two video images of the base video image and the reference video image are independently played back and paused.
(2) Simultaneous playback function Plays back two video images of a base video image and a reference video image at the frame rate at the time of shooting. However, since these two video images have different vehicle speeds at the time of shooting, the displayed scenes do not match when a certain time has elapsed from the start of playback. Since this discrepancy expands with time, it is difficult to compare the two video images and confirm the difference in the scene.
(3) Synchronous playback function using frame matching results Frame matching is used to adjust and display frames so that scenes in the video match at an arbitrary time. Considering the example of (2), scene mismatch occurs due to vehicle speed deviation after the start of playback, but synchronized playback is realized by adjusting the frame number to interpolate it. As a result, the scenes coincide with each other regardless of the passage of time. Therefore, it is possible to compare the two video images and examine the differences in the scenes.
(4) Frame matching execution function An interface necessary for performing frame matching between two video images of a base video image and a reference video image is provided, and processing can be performed while viewing the video. Video data and processing parameters are set when the software is started, and a series of processing is executed.

[アプリケーションの操作]
アプリケーション画面を図66に示す。このアプリケーション画面上で[ソフトウェア機能の概要]で説明した機能ごとに以下の手順で操作を行う。
[Application Operations]
The application screen is shown in FIG. On this application screen, the operation is performed according to the following procedure for each function described in [Overview of Software Functions].

(1)単体再生
(A)[INPUT] ボタンを押してベースビデオ画像を読み込む。
(B)[ |>]ボタンを押してベースビデオ画像の再生を開始する。
なお、リファレンスビデオ画像についても同様に(C)(D)のボタンで単体再生が可能である。
(2)同時再生
(A)[INPUT] ボタンを押してベースビデオ画像を読み込む。
(C)[INPUT] ボタンを押してリファレンスビデオ画像を読み込む。
(F)[ 同時]ボタンを押し、ファイル選択ダイアログが開く。フレームマッチング結果ファイルを指定する。
(D)[ |>]ボタンを押して、再生を開始する。
(3)同期再生
(A)[INPUT] ボタンを押してベースビデオ画像を読み込む。
(C)[INPUT] ボタンを押してリファレンスビデオ画像を読み込む。
(F)[ 同期] ボタンを押し、ファイル選択ダイアログが開く。フレームマッチング結果ファイルを指定する。
(D)[ |>]ボタンを押して、再生を開始する。
(1) Single playback (A) Press the [INPUT] button to load the base video image.
(B) Press the [|>] button to start playback of the base video image.
Similarly, the reference video image can be played back independently by the buttons (C) and (D).
(2) Simultaneous playback (A) Press the [INPUT] button to load the base video image.
(C) Press the [INPUT] button to read the reference video image.
(F) Press the [Simultaneous] button to open the file selection dialog. Specify the frame matching result file.
(D) Press the [|>] button to start playback.
(3) Synchronous playback (A) Press the [INPUT] button to load the base video image.
(C) Press the [INPUT] button to read the reference video image.
(F) Press the [Synchronize] button to open the file selection dialog. Specify the frame matching result file.
(D) Press the [|>] button to start playback.

この第3の実施の形態によれば、第1の実施の形態あるいは第2の実施の形態と同様な利点に加えて、ベースビデオ画像およびリファレンスビデオ画像のハンドリングが容易になるという利点を得ることができる。   According to the third embodiment, in addition to the advantages similar to those of the first embodiment or the second embodiment, the advantage that the handling of the base video image and the reference video image becomes easy is obtained. Can do.

〈第4の実施の形態〉
第4の実施の形態においては、第1の実施の形態による列車位置検出システムあるいは第2の実施の形態による列車位置および環境変化検出システムにおいて、リファレンスビデオ画像のフレーム画像に対するキロ程を決定する技術について説明する。
<Fourth embodiment>
In the fourth embodiment, in the train position detection system according to the first embodiment or the train position and environment change detection system according to the second embodiment, a technique for determining the kilometer distance with respect to the frame image of the reference video image Will be described.

図67に示すように、画像を用いたキロ程決め計算機80に、列車に設置されたデジタルビデオカメラ20、GPS受信機38、前後方向加速度計90および画像データベース100を接続する。前後方向加速度計90は列車の車両の前後方向の加速度を計測するためのものである。なお、速度発電機が使える場合は、GPS受信機38および前後方向加速度計90の代わりに用いればよい。画像データベース100は、同一路線の一度目の走行で、沿線のビデオ画像および速度情報を収録してベースビデオ画像とし、このベースビデオ画像の内容などから例えば手動でこのベースビデオ画像の各フレームのキロ程を正確に割り振ることにより作成する。そして、二度目の走行では、走行時のリファレンスビデオ画像と、画像データベース100に格納されたベースビデオ画像とを比較し、また、速度情報を補助データとして用いて、現在のリファレンスビデオ画像の画像内容がベースビデオ画像内のどのキロ程位置にいるかを決定する。こうすることで、同一軌道上の走行により得られる計測データを正確かつ安定的にキロ程に対応させることができる。   As shown in FIG. 67, a digital video camera 20, a GPS receiver 38, a longitudinal accelerometer 90, and an image database 100 installed on a train are connected to a kilometer determination computer 80 using an image. The longitudinal accelerometer 90 is for measuring the longitudinal acceleration of the train vehicle. When a speed generator can be used, the GPS receiver 38 and the longitudinal accelerometer 90 may be used instead. The image database 100 records the video image and speed information along the line on the first run of the same route to form a base video image. The contents of the base video image, for example, manually record the kilometer of each frame of the base video image. Create by allocating the process accurately. In the second run, the reference video image at the time of running is compared with the base video image stored in the image database 100, and the image content of the current reference video image is used by using the speed information as auxiliary data. Determine how many kilometers is in the base video image. By doing so, measurement data obtained by traveling on the same track can be accurately and stably associated with about a kilometer.

このキロ程決め技術では、GPS受信機38により取得される速度の精度あるいは前後方向加速度計90により計測される速度の精度は画像情報で補正されるため、GPS受信機38および前後方向加速度計90とも、それほど精度が求められず、安価なもので足りる。さらに、デジタルビデオカメラ20も、フレームレート、画像の解像度ともそれほど求められないため、安価もので足りる。   In this kilometer determination technology, the accuracy of the speed acquired by the GPS receiver 38 or the accuracy of the speed measured by the longitudinal accelerometer 90 is corrected by the image information. Therefore, the GPS receiver 38 and the longitudinal accelerometer 90 In both cases, accuracy is not so required, and an inexpensive one is sufficient. Furthermore, since the digital video camera 20 is not required to have much frame rate and image resolution, an inexpensive one is sufficient.

図67に示すキロ程決め装置を図68に示すようにして管理計測器110と接続する。すなわち、図68に示すように、画像を用いたキロ程決め計算機80に管理計測器110を接続する。計測時には、画像を用いたキロ程決め計算機80から管理計測器110に対し、計測トリガパルスを送る。管理計測器110は、この計測トリガパルスのタイミングで各種データを取得する。また、デジタルビデオカメラ20は、この計測トリガパルスに連動して撮像される。すなわち、計測トリガパルスの累積番号とデジタルビデオカメラ20で撮影される画像のフレーム番号とは対応しているため、図68の左下に示されているように、この情報を撮影時にファイルに出力しておく。このようにして収録されたビデオ画像から上述のキロ程決め処理を行えば、計測トリガパルス番号とキロ程とが対応付けられる。管理計測器110のサンプル数は計測トリガパルス数であるから、最終的にキロ程は直接、管理計測器110の収録データと対応付けられる。   67 is connected to the management measuring instrument 110 as shown in FIG. That is, as shown in FIG. 68, the management measuring instrument 110 is connected to a kilometer determination computer 80 using an image. At the time of measurement, a measurement trigger pulse is sent from the kilometer determination computer 80 using an image to the management measuring instrument 110. The management measuring instrument 110 acquires various data at the timing of this measurement trigger pulse. The digital video camera 20 is imaged in conjunction with the measurement trigger pulse. That is, since the cumulative number of measurement trigger pulses corresponds to the frame number of the image captured by the digital video camera 20, this information is output to a file at the time of shooting as shown in the lower left of FIG. Keep it. If the above-mentioned kilometer determination process is performed from the video image recorded in this manner, the measurement trigger pulse number and the kilometer are associated with each other. Since the number of samples of the management measuring instrument 110 is the number of measurement trigger pulses, the kilometer is finally associated directly with the recorded data of the management measuring instrument 110.

以上のように、この第4の実施の形態によれば、次のような種々の利点を得ることができる。すなわち、小型かつ安価な装置で高精度なキロ程の決定が可能である。キロ程が正確に収録データと対応付けられることにより、収録データから現場作業が必要と判断された場合、このキロ程を基に現場を正確に特定することができ、それによって現場作業の能率が向上し、ひいては人件費の大幅な削減が可能となる。また、同一地点の状況を正確に比較することができるようになり、時系列的な環境変化を自動的に抽出することができるようになるため、広大な鉄道設備の高度な管理が可能となる。   As described above, according to the fourth embodiment, the following various advantages can be obtained. That is, it is possible to determine a high-precision kilometer with a small and inexpensive device. By accurately associating the kilometer with the recorded data, if it is determined from the recorded data that field work is necessary, it is possible to accurately identify the field based on this kilometer, thereby improving the efficiency of field work. As a result, labor costs can be significantly reduced. In addition, it becomes possible to accurately compare the situation at the same point, and it is possible to automatically extract time-series environmental changes, thereby enabling advanced management of vast railway facilities. .

〈第5の実施の形態〉
[列車位置検出システム]
図69に示すように、第5の実施の形態による列車位置検出システムにおいては、第1の実施の形態において用いた画像同期装置10の代わりに、画像同期プログラムがインストールされたコンピュータ200を用いる。コンピュータ200としては、例えば、PCを用いることができる。その他のことは、第1の実施の形態と同様である。
<Fifth embodiment>
[Train position detection system]
As shown in FIG. 69, in the train position detection system according to the fifth embodiment, a computer 200 in which an image synchronization program is installed is used instead of the image synchronization apparatus 10 used in the first embodiment. As the computer 200, for example, a PC can be used. Others are the same as in the first embodiment.

この第5の実施の形態によれば、第1の実施の形態と同様な利点を得ることができる。   According to the fifth embodiment, the same advantages as those of the first embodiment can be obtained.

以上、この発明の実施の形態について具体的に説明したが、この発明は、上述の実施の形態に限定されるものではなく、この発明の技術的思想に基づく各種の変形が可能である。   Although the embodiment of the present invention has been specifically described above, the present invention is not limited to the above-described embodiment, and various modifications based on the technical idea of the present invention are possible.

例えば、上述の実施の形態において挙げた数値、構造、構成、形状、回路などはあくまでも例に過ぎず、必要に応じてこれらと異なる数値、構造、構成、形状、回路などを用いてもよい。   For example, the numerical values, structures, configurations, shapes, circuits, and the like given in the above-described embodiments are merely examples, and different numerical values, structures, configurations, shapes, circuits, and the like may be used as necessary.

10…画像同期装置、11…デジタル/アナログ変換回路、12、25…入力端子、13…出力端子、14…TTLレベル変換回路、15…音声電圧レベル変換回路、20…デジタルビデオカメラ、26…外部マイク、30…車両動揺測定装置、30a…筐体、30b、30c…把手、30d…LCD、30e…電源スイッチ、31…センサー処理部、32…表示処理部、33…位置情報処理部、34…データ保存部、35…外部インターフェース制御部、36…電源制御部、37…高速シリアルバス、40…GPS受信機、39…速度発電機、50…データ処理PC、200…PC   DESCRIPTION OF SYMBOLS 10 ... Image synchronizer, 11 ... Digital / analog converting circuit, 12, 25 ... Input terminal, 13 ... Output terminal, 14 ... TTL level converting circuit, 15 ... Audio voltage level converting circuit, 20 ... Digital video camera, 26 ... External Microphone, 30 ... Vehicle sway measurement device, 30a ... Housing, 30b, 30c ... Handle, 30d ... LCD, 30e ... Power switch, 31 ... Sensor processing unit, 32 ... Display processing unit, 33 ... Position information processing unit, 34 ... Data storage unit 35 ... External interface control unit 36 ... Power source control unit 37 ... High speed serial bus 40 ... GPS receiver 39 ... Speed generator 50 ... Data processing PC 200 ... PC

Claims (13)

動画の撮影が可能なカメラが設置された列車を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第1の動画の各フレーム画像から抽出されたSURF特徴および当該SURF特徴と対応付けられた位置情報を格納した画像特徴データベースを有し、
上記第1の動画が収録された日時と異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第2の動画の指定されたフレーム画像のSURF特徴と上記画像特徴データベースに格納された上記第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて上記列車の走行位置を検出することを特徴とする画像処理を利用した列車位置検出システム。
The SURF feature extracted from each frame image of the first moving image recorded by shooting the space ahead of the traveling direction with the camera while traveling on a train on which a camera capable of shooting the moving image is installed, and Having an image feature database storing location information associated with the SURF feature;
The designated frame image of the second video recorded by photographing the space ahead of the traveling direction with the camera while running the train on the track at a date and time different from the date and time when the first video was recorded. The train's travel position is detected based on the similarity obtained by comparing the SURF feature of each frame image of the first moving image stored in the image feature database with the frame matching process. Train position detection system using image processing characterized by
上記位置情報は上記第1の動画の各フレーム画像と対応付けられたキロ程情報であることを特徴とする請求項1記載の画像処理を利用した列車位置検出システム。   The train position detection system using image processing according to claim 1, wherein the position information is kilometer information associated with each frame image of the first moving image. 上記位置情報は上記第1の動画の各フレーム画像と対応付けられた速度情報から速度の積分により求められる距離情報であることを特徴とする請求項1記載の画像処理を利用した列車位置検出システム。   The train position detection system using image processing according to claim 1, wherein the position information is distance information obtained by speed integration from speed information associated with each frame image of the first moving image. . 上記速度情報は上記列車に設置された速度発電機またはGPS受信機により取得されるものであることを特徴とする請求項3記載の画像処理を利用した列車位置検出システム。   4. The train position detection system using image processing according to claim 3, wherein the speed information is acquired by a speed generator or a GPS receiver installed in the train. 上記類似度は、上記第2の動画の上記指定されたフレーム画像から抽出されたSURF特徴点数に対する、上記第1の動画のフレーム画像と上記第2の動画の上記指定されたフレーム画像との間で対応点があるSURF特徴点数の比であることを特徴とする請求項1〜4のいずれか一項記載の画像処理を利用した列車位置検出システム。   The similarity is between the frame image of the first moving image and the specified frame image of the second moving image with respect to the number of SURF feature points extracted from the specified frame image of the second moving image. The train position detection system using image processing according to any one of claims 1 to 4, wherein the ratio is the ratio of the number of SURF feature points with corresponding points. 上記第1の動画のフレーム画像と上記第2の動画の上記指定されたフレーム画像との間で対応点があるSURF特徴点の対はSURF特徴の特徴記述ベクトルのユークリッド距離が最も短い対であることを特徴とする請求項5記載の画像処理を利用した列車位置検出システム。   A pair of SURF feature points having corresponding points between the frame image of the first moving image and the designated frame image of the second moving image is a pair having the shortest Euclidean distance of the feature description vector of the SURF feature. The train position detection system using image processing according to claim 5. 上記第2の動画の各フレーム画像と対応付けられた速度情報のみによる上記列車の位置の推定結果に上記類似度を重みとして反映させることにより上記列車の位置を検出することを特徴とする請求項1〜6のいずれか一項記載の画像処理を利用した列車位置検出システム。   The position of the train is detected by reflecting the similarity as a weight in the estimation result of the train position based only on speed information associated with each frame image of the second moving image. A train position detection system using the image processing according to any one of claims 1 to 6. 上記第1の動画および上記第2の動画の各フレーム画像からSURF特徴を抽出する際に当該フレーム画像の下部中央の軌道部分と中央遠隔風景部分とをマスク画像によりマスクしておくことを特徴とする請求項1〜7のいずれか一項記載の画像処理を利用した列車位置検出システム。   When extracting a SURF feature from each frame image of the first moving image and the second moving image, a lower center trajectory portion and a central remote landscape portion of the frame image are masked with a mask image. A train position detection system using the image processing according to any one of claims 1 to 7. 上記列車に前後方向加速度計およびGPS受信機を設置し、上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより上記第1の動画および上記前後方向加速度計により計測される前後方向加速度の積分または上記GPS受信機により取得される速度情報を収録し、収録された上記第1の動画の各フレーム画像にキロ程を割り振って画像データベースを作成し、上記第1の動画が収録された日時以後の異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録される上記第2の動画と上記画像データベースに格納された上記第1の動画とを比較することにより上記第2の動画の指定されたフレーム画像が上記第1の動画のどのフレーム画像に対応するかを決定することにより上記第2の動画の上記フレーム画像に対応するキロ程を決定することを特徴とする請求項1記載の画像処理を利用した列車位置検出システム。   A longitudinal accelerometer and a GPS receiver are installed on the train, and the first moving image and the longitudinal accelerometer are captured by photographing the space ahead of the traveling direction with the camera while the train is traveling on the track. The integration of the measured longitudinal acceleration or the speed information acquired by the GPS receiver is recorded, and an image database is created by allocating about a kilometer to each frame image of the recorded first moving image. Stored in the image database and the second movie recorded by shooting the space ahead of the traveling direction with the camera while running the train on the track at different dates after the date when the video was recorded. By comparing the first moving image with the first moving image, the designated frame image of the second moving image becomes which frame image of the first moving image. Train position detection system that uses the image processing according to claim 1, wherein the determining by determining whether the corresponding kilometrage corresponding to the frame image of the second video. 上記カメラはビデオカメラまたは工業用カメラであることを特徴とする請求項1〜9のいずれか一項記載の画像処理を利用した列車位置検出システム。   The train position detection system using image processing according to any one of claims 1 to 9, wherein the camera is a video camera or an industrial camera. 動画の撮影が可能なカメラが設置された列車を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第1の動画の各フレーム画像から抽出されたSURF特徴および当該SURF特徴と対応付けられた位置情報を格納した画像特徴データベースを有し、
上記第1の動画が収録された日時と異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第2の動画の指定されたフレーム画像のSURF特徴と上記画像特徴データベースに格納された上記第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて上記列車の走行位置を検出することを特徴とする画像処理を利用した列車位置および環境変化検出システム。
The SURF feature extracted from each frame image of the first moving image recorded by shooting the space ahead of the traveling direction with the camera while traveling on a train on which a camera capable of shooting the moving image is installed, and Having an image feature database storing location information associated with the SURF feature;
The designated frame image of the second video recorded by photographing the space ahead of the traveling direction with the camera while running the train on the track at a date and time different from the date and time when the first video was recorded. The train's travel position is detected based on the similarity obtained by comparing the SURF feature of each frame image of the first moving image stored in the image feature database with the frame matching process. Train position and environment change detection system using image processing characterized by.
上記カメラが設置された上記車両を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影し、上記軌道上の互いに異なる位置であって上記第2の動画の各フレーム画像に対応付けられた速度情報を用いて計算されるそれらの間の距離が選択された距離になる位置で撮影された2枚の画像を比較することにより上記軌道の周辺の時系列的な環境の変化を検出することを特徴とする請求項11記載の画像処理を利用した列車位置および環境変化検出システム。   While the vehicle in which the camera is installed travels on the track, the camera captures a space ahead in the direction of travel and associates it with each frame image of the second video at different positions on the track. Time-series environmental changes around the trajectory are detected by comparing two images taken at a position where the distance between them calculated using the obtained velocity information becomes the selected distance. The train position and environment change detection system using image processing according to claim 11. 上記列車の進行方向と直交する面の方向に仮想支障枠が多段に設定される請求項11または12記載の画像処理を利用した列車位置および環境変化検出システム。   The train position and environment change detection system using image processing according to claim 11 or 12, wherein virtual obstacle frames are set in multiple stages in a direction perpendicular to the traveling direction of the train.
JP2015120778A 2015-06-16 2015-06-16 Train position detection system using image processing and train position and environment change detection system using image processing Active JP6494103B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015120778A JP6494103B2 (en) 2015-06-16 2015-06-16 Train position detection system using image processing and train position and environment change detection system using image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015120778A JP6494103B2 (en) 2015-06-16 2015-06-16 Train position detection system using image processing and train position and environment change detection system using image processing

Publications (2)

Publication Number Publication Date
JP2017001638A true JP2017001638A (en) 2017-01-05
JP6494103B2 JP6494103B2 (en) 2019-04-03

Family

ID=57751665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015120778A Active JP6494103B2 (en) 2015-06-16 2015-06-16 Train position detection system using image processing and train position and environment change detection system using image processing

Country Status (1)

Country Link
JP (1) JP6494103B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016000598A (en) * 2014-06-12 2016-01-07 西日本旅客鉄道株式会社 Railway track space obstacle detection system
WO2019102769A1 (en) * 2017-11-21 2019-05-31 株式会社日立製作所 Vehicle control system
JP2019085056A (en) * 2017-11-10 2019-06-06 東日本旅客鉄道株式会社 Environmental change detection method for periphery of rail track
WO2019171821A1 (en) * 2018-03-05 2019-09-12 株式会社日立製作所 Train position estimation device
GB2577106A (en) * 2018-09-14 2020-03-18 Reliable Data Systems International Ltd Vehicle Position Identification
JP2020059332A (en) * 2018-10-05 2020-04-16 株式会社日立製作所 Position estimation device and position estimation method
JP2020108979A (en) * 2018-12-29 2020-07-16 日本信号株式会社 Monitoring device
JP2020528240A (en) * 2017-11-29 2020-09-17 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィMitsubishi Electric R&D Centre Europe B.V. How to control the video encoder and server
CN111814560A (en) * 2020-06-10 2020-10-23 河南观潮智能科技有限公司 Parking space state identification method, system, medium and equipment
JP2021037811A (en) * 2019-09-02 2021-03-11 株式会社日立製作所 Periphery observation system, periphery observation program and periphery observation method
CN113020428A (en) * 2021-03-24 2021-06-25 北京理工大学 Processing monitoring method, device and equipment of progressive die and storage medium
CN113895481A (en) * 2021-10-26 2022-01-07 卡斯柯信号有限公司 Train positioning and tracking management method, equipment and medium based on pattern recognition
JP2022046120A (en) * 2020-09-10 2022-03-23 公益財団法人鉄道総合技術研究所 Location information furnishing method to on-vehicle sensor data, system and program for the same
WO2022091817A1 (en) 2020-10-28 2022-05-05 株式会社日立製作所 Rail transportation system, method for controlling rail transportation system, and trackside facility shape measurement system
CN116389793A (en) * 2023-02-21 2023-07-04 三亚学院 Method and device for realizing video frame rate improvement

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019138532A1 (en) * 2018-01-12 2019-07-18 三菱電機株式会社 Train control system and obstacle detection device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09270013A (en) * 1996-04-02 1997-10-14 Nippon Signal Co Ltd:The Device for detecting position of moving body
JP2000505397A (en) * 1996-02-27 2000-05-09 イスラエル・エアクラフト・インダストリーズ・リミテツド Fault detection system
JP2008247154A (en) * 2007-03-30 2008-10-16 Kyosan Electric Mfg Co Ltd Train position detecting device and train control device
JP2012068772A (en) * 2010-09-22 2012-04-05 Nippon Hoso Kyokai <Nhk> Camera tracking device and program therefor
JP2013171308A (en) * 2012-02-17 2013-09-02 Kddi Corp Determination device, determination method, and program
JP2014522495A (en) * 2011-06-09 2014-09-04 ジェ.エム.エール.フィ Apparatus for measuring the speed and position of a vehicle moving along a guiding track, and corresponding method and computer program product
JP2015023370A (en) * 2013-07-18 2015-02-02 株式会社ニシヤマ Image synchronization apparatus, measurement system, and image synchronization method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000505397A (en) * 1996-02-27 2000-05-09 イスラエル・エアクラフト・インダストリーズ・リミテツド Fault detection system
JPH09270013A (en) * 1996-04-02 1997-10-14 Nippon Signal Co Ltd:The Device for detecting position of moving body
JP2008247154A (en) * 2007-03-30 2008-10-16 Kyosan Electric Mfg Co Ltd Train position detecting device and train control device
JP2012068772A (en) * 2010-09-22 2012-04-05 Nippon Hoso Kyokai <Nhk> Camera tracking device and program therefor
JP2014522495A (en) * 2011-06-09 2014-09-04 ジェ.エム.エール.フィ Apparatus for measuring the speed and position of a vehicle moving along a guiding track, and corresponding method and computer program product
JP2013171308A (en) * 2012-02-17 2013-09-02 Kddi Corp Determination device, determination method, and program
JP2015023370A (en) * 2013-07-18 2015-02-02 株式会社ニシヤマ Image synchronization apparatus, measurement system, and image synchronization method

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016000598A (en) * 2014-06-12 2016-01-07 西日本旅客鉄道株式会社 Railway track space obstacle detection system
JP2019085056A (en) * 2017-11-10 2019-06-06 東日本旅客鉄道株式会社 Environmental change detection method for periphery of rail track
WO2019102769A1 (en) * 2017-11-21 2019-05-31 株式会社日立製作所 Vehicle control system
JP2019093840A (en) * 2017-11-21 2019-06-20 株式会社日立製作所 Vehicle control system
US11453422B2 (en) 2017-11-21 2022-09-27 Hitachi, Ltd. Vehicle control system
JP2020528240A (en) * 2017-11-29 2020-09-17 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィMitsubishi Electric R&D Centre Europe B.V. How to control the video encoder and server
EP3763597A4 (en) * 2018-03-05 2021-12-01 Hitachi, Ltd. Train position estimation device
WO2019171821A1 (en) * 2018-03-05 2019-09-12 株式会社日立製作所 Train position estimation device
JP2019151227A (en) * 2018-03-05 2019-09-12 株式会社日立製作所 Train location estimation device
US11938983B2 (en) 2018-03-05 2024-03-26 Hitachi, Ltd. Train position estimation device
JP7016276B2 (en) 2018-03-05 2022-02-04 株式会社日立製作所 Train position estimator
GB2577106A (en) * 2018-09-14 2020-03-18 Reliable Data Systems International Ltd Vehicle Position Identification
JP2020059332A (en) * 2018-10-05 2020-04-16 株式会社日立製作所 Position estimation device and position estimation method
JP7299007B2 (en) 2018-10-05 2023-06-27 株式会社日立製作所 Location estimation device and method
JP2020108979A (en) * 2018-12-29 2020-07-16 日本信号株式会社 Monitoring device
JP7290942B2 (en) 2018-12-29 2023-06-14 日本信号株式会社 monitoring device
JP7227879B2 (en) 2019-09-02 2023-02-22 株式会社日立製作所 Surrounding Observation System, Surrounding Observation Program and Surrounding Observation Method
WO2021044707A1 (en) * 2019-09-02 2021-03-11 株式会社日立製作所 Surroundings observation system, surroundings observation program, and surroundings observation method
JP2021037811A (en) * 2019-09-02 2021-03-11 株式会社日立製作所 Periphery observation system, periphery observation program and periphery observation method
CN111814560B (en) * 2020-06-10 2023-12-26 河南观潮智能科技有限公司 Parking space state identification method, system, medium and equipment
CN111814560A (en) * 2020-06-10 2020-10-23 河南观潮智能科技有限公司 Parking space state identification method, system, medium and equipment
JP2022046120A (en) * 2020-09-10 2022-03-23 公益財団法人鉄道総合技術研究所 Location information furnishing method to on-vehicle sensor data, system and program for the same
JP7301802B2 (en) 2020-09-10 2023-07-03 公益財団法人鉄道総合技術研究所 METHOD, SYSTEM AND PROGRAM FOR ADDING LOCATION INFORMATION TO IN-VEHICLE SENSOR DATA
WO2022091817A1 (en) 2020-10-28 2022-05-05 株式会社日立製作所 Rail transportation system, method for controlling rail transportation system, and trackside facility shape measurement system
CN113020428B (en) * 2021-03-24 2022-06-28 北京理工大学 Progressive die machining monitoring method, device, equipment and storage medium
CN113020428A (en) * 2021-03-24 2021-06-25 北京理工大学 Processing monitoring method, device and equipment of progressive die and storage medium
CN113895481B (en) * 2021-10-26 2024-01-23 卡斯柯信号有限公司 Train positioning and tracking management method, device and medium based on pattern recognition
CN113895481A (en) * 2021-10-26 2022-01-07 卡斯柯信号有限公司 Train positioning and tracking management method, equipment and medium based on pattern recognition
CN116389793A (en) * 2023-02-21 2023-07-04 三亚学院 Method and device for realizing video frame rate improvement
CN116389793B (en) * 2023-02-21 2024-01-26 三亚学院 Method and device for realizing video frame rate improvement

Also Published As

Publication number Publication date
JP6494103B2 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
JP6494103B2 (en) Train position detection system using image processing and train position and environment change detection system using image processing
JP6381981B2 (en) Track space obstacle detection system
US11477374B2 (en) Three dimensional image capture system for imaging building facades using a digital camera, a near-infrared camera, and laser range finder
KR101235815B1 (en) Imaging position analyzing device, imaging position analyzing method, recording medium, and image data acquiring device
JP5047515B2 (en) Road image creation system, road image creation method, and road image composition apparatus
JP2011238242A (en) Navigation and inspection system
CN113678079A (en) Generating structured map data from vehicle sensors and camera arrays
JP2008204304A (en) Vehicle behavior reproduction method and system
CN101510311B (en) Method for rapidly sorting a large amount of building side elevation images based on GPS information
TWI444593B (en) Ground target geolocation system and method
JP5544595B2 (en) Map image processing apparatus, map image processing method, and computer program
CN105698784A (en) Indoor robot positioning system and method
CN110398760A (en) Pedestrian&#39;s coordinate acquisition equipment and its application method based on image analysis
CN111402702A (en) Map construction method, device and system
CN106920260A (en) Three-dimensional inertia blind-guiding method and device and system
JP3641750B2 (en) Map route information management system
JPH099197A (en) Recording device for consecutive stereo image data
JP2019085056A (en) Environmental change detection method for periphery of rail track
JP4892224B2 (en) Road marking automatic measurement system, apparatus and method
KR102362509B1 (en) Image map making system auto-searching the misprounciations of digital map data for precision improvement of map imgae
JP2023112536A (en) Method for calculating road surface damage position
CN114910085A (en) Vehicle fusion positioning method and device based on road administration facility identification
Jorgensen et al. Validation of vehicle speed analysis utilizing the input-ace camera match overlay tool
JP3781034B2 (en) Stereo image forming method and apparatus
KR100745105B1 (en) Image display method and image display apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190304

R150 Certificate of patent or registration of utility model

Ref document number: 6494103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250