JP6524529B2 - Building limit judging device - Google Patents

Building limit judging device Download PDF

Info

Publication number
JP6524529B2
JP6524529B2 JP2015210388A JP2015210388A JP6524529B2 JP 6524529 B2 JP6524529 B2 JP 6524529B2 JP 2015210388 A JP2015210388 A JP 2015210388A JP 2015210388 A JP2015210388 A JP 2015210388A JP 6524529 B2 JP6524529 B2 JP 6524529B2
Authority
JP
Japan
Prior art keywords
rail
distance
data
image data
building limit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015210388A
Other languages
Japanese (ja)
Other versions
JP2017083245A (en
Inventor
寛修 深井
寛修 深井
庭川 誠
誠 庭川
伊東 博之
博之 伊東
栄一 和泉
栄一 和泉
相原 茂
茂 相原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP2015210388A priority Critical patent/JP6524529B2/en
Publication of JP2017083245A publication Critical patent/JP2017083245A/en
Application granted granted Critical
Publication of JP6524529B2 publication Critical patent/JP6524529B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、鉄道分野及び画像処理分野において、レールを走行する車両の前方又は後方の複数のカメラ画像から画像処理により建築限界領域と障害物との離隔判定を行う建築限界判定装置に関する。   The present invention relates to an architectural limit determination device that determines a separation between an architectural limit area and an obstacle by image processing from a plurality of camera images in front of or behind a vehicle traveling on a rail in the railway field and the image processing field.

カメラ画像の画像処理により支障物を検出する装置として、特許文献1では、エッジ検出をベースとした支障物検出を行っている。又、特許文献2では、2値化処理によって得られたある程度の大きさの領域を支障物として検出している。   As a device for detecting an obstacle by image processing of a camera image, in Patent Document 1, obstacle detection based on edge detection is performed. Moreover, in patent document 2, the area | region of a certain size obtained by the binarization process is detected as an obstruction.

特許第4078798号公報Patent No. 4078798 特許第4440809号公報Patent No. 4440809

Paul J. Besl, Neil D. McKay, "A Method for Registration of 3-D Shapes", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 14, NO.2, FEBRUARY 1992, pp. 239-256Paul J. Besl, Neil D. McKay, "A Method for Registration of 3-D Shapes", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 14, NO. 2, FEBRUARY 1992, pp. 239-256 V. Kolmogorov, R. Zabih, "Multi-camera Scene Reconstruction via Graph Cuts", ECCV, VOL. 3, 2002, pp. 82-96V. Kolmogorov, R. Zabih, "Multi-camera Scene Reconstruction via Graph Cuts", ECCV, VOL. 3, 2002, pp. 82-96

しかしながら、上述した特許文献1及び特許文献2には以下の問題がある。具体的には、特許文献1では、パンタグラフ周辺に限った検出しか行えず、又、エッジベースの手法のため、エッジが検出できない箇所については、ステレオ計測による距離算出が行えないという問題がある。又、特許文献2でも、パンタグラフ周辺に限った検出しか行えず、又、2値化処理や塊検出という処理を行っているため、それぞれの処理に対応できない物体については、ステレオ計測による距離算出が行えないという問題がある。   However, the above-mentioned Patent Document 1 and Patent Document 2 have the following problems. Specifically, in Patent Document 1, only detection around the pantograph can be performed, and there is a problem that distance calculation by stereo measurement can not be performed for a portion where an edge can not be detected because of the edge-based method. Further, even in Patent Document 2, only detection around the pantograph can be performed, and processing such as binarization processing and mass detection is performed, so for objects that can not correspond to each processing, distance calculation by stereo measurement is There is a problem that it can not do.

本発明は上記課題に鑑みなされたもので、エッジ検出や2値化処理及び塊検出に依らずに距離算出を行って、建築限界領域と障害物との離隔判定を行う建築限界判定装置を提供することを目的とする。   The present invention has been made in view of the above problems, and provides an architectural limit determination device that performs separation determination between an architectural limit area and an obstacle by performing distance calculation without using edge detection, binarization processing, and block detection. The purpose is to

上記課題を解決する第1の発明に係る建築限界判定装置は、
レールを走行する車両の前方又は後方を画像データとして撮像する複数のカメラと、
前記複数のカメラで撮像された複数の画像データの演算処理を行う処理部とを有し、
前記処理部は、
前記複数のカメラで撮像された複数の画像データから、ブロックマッチングを用いた三角測量により障害物の距離データを算出すると共に、グラフカットにより前記距離データの最適化を行う距離算出部と、
前記複数のカメラで撮像された複数の画像データからレール位置を算出するレール認識部と、
複数の地点で撮像された前記画像データについて、前記距離算出部で算出した前記複数の地点の前記距離データを統合して3次元環境地図を求めると共に車両傾きを求める距離データ統合部と、
前記レール認識部で算出した前記複数の地点の前記レール位置と、前記距離データ統合部で求めた前記複数の地点の前記車両傾きと、固定値として与えられた静的な建築限界領域とを用いて、前記車両に対する動的な建築限界領域を算出する建築限界領域算出部と、
前記建築限界領域算出部で算出した前記建築限界領域と前記距離データ統合部で求めた前記3次元環境地図を用いて、前記建築限界領域から最寄りの前記障害物までの離隔距離を算出し、離隔判定を行う離隔算出部とを有する
ことを特徴とする。
An architectural limit judging device according to a first aspect of the present invention for solving the above-mentioned problems is:
A plurality of cameras for capturing, as image data, the front or the rear of a vehicle traveling on a rail;
A processing unit that performs arithmetic processing of a plurality of image data captured by the plurality of cameras;
The processing unit is
A distance calculation unit that calculates distance data of an obstacle by triangulation using block matching from a plurality of image data captured by the plurality of cameras and performs optimization of the distance data by graph cutting;
A rail recognition unit that calculates a rail position from a plurality of image data captured by the plurality of cameras;
A distance data integration unit that integrates the distance data of the plurality of points calculated by the distance calculation unit with respect to the image data captured at a plurality of points to obtain a three-dimensional environmental map and obtains a vehicle inclination;
Using the rail positions of the plurality of points calculated by the rail recognition unit, the vehicle inclinations of the plurality of points obtained by the distance data integration unit, and a static building limit area given as a fixed value A building limit area calculation unit for calculating a dynamic building limit area for the vehicle;
The separation distance from the building limit area to the nearest obstacle is calculated using the building limit area calculated by the building limit area calculation unit and the three-dimensional environmental map obtained by the distance data integration unit, and separation is performed. And a distance calculation unit that makes a determination.

上記課題を解決する第2の発明に係る建築限界判定装置は、
上記第1の発明に記載の建築限界判定装置において、
前記レール認識部は、前記画像データの前記レールの枕木方向のライン領域について、予め用意されたレールのテンプレート画像データ又はレールの輝度値の基準分布データを用いて、ラスタスキャンによるマッチングを行い、最もマッチングする位置をレール位置として算出する
ことを特徴とする。
An architectural limit judging device according to a second invention for solving the above-mentioned problems is:
In the building limit judging device according to the first invention,
The rail recognition unit performs raster scan matching on the line region of the image data in the rail direction of the rail using the template image data of the rail prepared in advance or the reference distribution data of the luminance value of the rail, A position to match is calculated as a rail position.

上記課題を解決する第3の発明に係る建築限界判定装置は、
上記第1又は第2の発明に記載の建築限界判定装置において、
前記距離データ統合部は、ICP(Iterative Closest Point)アルゴリズムを用いて、前記距離算出部で算出した前記複数の地点の前記距離データを統合して、前記3次元環境地図を求めると共に前記車両傾きを求める
ことを特徴とする。
An architectural limit judging device according to a third invention for solving the above-mentioned problems is:
In the building limit judging device according to the first or second invention,
The distance data integration unit integrates the distance data of the plurality of points calculated by the distance calculation unit using an ICP (Iterative Closest Point) algorithm to obtain the three-dimensional environmental map and the vehicle inclination. It is characterized by asking.

本発明によれば、ブロックマッチングとグラフカットを用いているので、エッジ検出や2値化処理、塊検出に依らず、監視画像データから平滑性を考慮した距離データの算出が可能となる。   According to the present invention, since block matching and graph cutting are used, distance data can be calculated from monitored image data in consideration of smoothness regardless of edge detection, binarization processing, or block detection.

又、本発明によれば、レール位置、車両傾きを算出しているので、レール位置と傾きと固定値として与えられた静的な建築限界領域とを用いて、車両に対する動的な建築限界領域の算出が可能である。又、3次元環境地図、建築限界領域を算出しているので、3次元環境地図、建築限界領域を用いて、障害物の離隔距離の算出、離隔判定が可能である。   Further, according to the present invention, since the rail position and the vehicle inclination are calculated, a dynamic building area for the vehicle is calculated using the rail position, the inclination, and the static building area given as a fixed value. It is possible to calculate In addition, since the three-dimensional environmental map and the building limit area are calculated, it is possible to calculate the separation distance of the obstacle and to determine the separation using the three-dimensional environment map and the building limit area.

又、本発明によれば、任意の枕木方向のライン領域について、予め用意されたレールのテンプレート画像データ又はレールの輝度値の基準分布データを用い、ラスタスキャンによるマッチングを行って、最もマッチングする位置をレール位置として算出しているので、監視画像データから正確にレール位置の検出が可能となる。又、異なる撮影地点における監視画像データの距離データをICPアルゴリズムで統合して、3次元環境地図を作るので、設計値が無い物体についても形状を把握することが可能であり、加えて、ICPアルゴリズムにより車両傾きの算出も可能である。   Further, according to the present invention, for a line region in the direction of an optional larch, matching is performed by raster scanning using template image data of rails or reference distribution data of luminance values of rails prepared in advance, and the most matching position Is calculated as the rail position, it is possible to detect the rail position accurately from the monitoring image data. In addition, distance data of surveillance image data at different shooting points are integrated by ICP algorithm to create a three-dimensional environment map, so it is possible to grasp the shape even for objects without design values, and additionally, ICP algorithm Calculation of vehicle inclination is also possible by

レールと電柱で構成される鉄道設備の一例を示す斜視図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a perspective view which shows an example of the rail installation comprised by a rail and a utility pole. 図1に示した鉄道設備において、ある地点に位置する列車からの撮像範囲内で距離データを取得できた領域を示す図である。It is a figure which shows the area | region where distance data were able to be acquired in the imaging range from the train located in a certain point in the railway installation shown in FIG. 図1に示した鉄道設備において、異なる地点に位置する列車からの撮像範囲内で距離データを取得できた領域を示す図である。It is a figure which shows the area | region where distance data were able to be acquired in the imaging range from the train located in a different point in the railway installation shown in FIG. 図2及び図3に示した取得した距離データの領域を統合した領域を示す図である。It is a figure which shows the area | region which integrated the area | region of the acquired distance data shown in FIG.2 and FIG.3. 図4に示した統合した距離データから求めた建築限界領域と障害物との離隔除離の算出を説明する図である。It is a figure explaining calculation of separation isolation of a construction marginal field and an obstacle for which it asked from integrated distance data shown in Drawing 4. 本発明に係る建築限界判定装置の実施形態の一例を示す図であり、(a)は、その概略構成を示す上面図、(b)は、撮像された監視画像を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows an example of embodiment of the building limit determination apparatus which concerns on this invention, (a) is a top view which shows the schematic structure, (b) is a figure which shows the imaged monitoring image. 図6(a)に示した建築限界判定装置を構成する処理部を説明するブロック図である。It is a block diagram explaining the process part which comprises the building limit determination apparatus shown to Fig.6 (a). 図6(a)に示した建築限界判定装置における建築限界判定方法を説明するフローチャートである。It is a flowchart explaining the building limit judging method in the building limit judging device shown in Drawing 6 (a).

鉄道は長大で膨大な設備を有する大規模輸送システムである。鉄道設備には検査・保守が必要であり、その自動化が望まれている。自動化の1つとしてカメラによる撮像と画像処理による自動判定がある。本発明では、カメラと画像処理を用いた新たな自動計測・保守機能として建築限界判定装置を提案している。   Railways are large-scale transportation systems with large and huge facilities. Railway facilities require inspection and maintenance, and their automation is desired. As one of the automation, there is automatic determination by imaging with a camera and image processing. In the present invention, an architectural limit judging device is proposed as a new automatic measurement / maintenance function using a camera and image processing.

なお、自動計測・保守には、カメラを使う方法以外にも、高精度に距離測定ができるレーザやレーダを用いる方法もあるが、計測したものの認識や判別ができない場合や、検出の範囲が限られる場合がある。これに対して、画像の場合は、鉄道設備やレールなどの計測したものの認識や判別を行う面で有利であること、そして、機器がレーザやレーダに比べ小型で安価であること、分解能や撮像速度の面で優れており、今後も発展の可能性を残していること、撮像した画像を人間が目視検査することも可能なことから、本発明では、後述の図6に示すように、カメラ22a、22b又はカメラ24a、24bを用いた装置構成としている。   In addition to the method of using a camera, there is also a method of using a laser or radar that can perform distance measurement with high accuracy for automatic measurement and maintenance, but there is a limit to the range of detection when the measured one can not be recognized or distinguished. May be On the other hand, in the case of an image, it is advantageous in terms of recognition and discrimination of measured things such as railway equipment and rails, and that the device is small and inexpensive compared to lasers and radars, resolution and imaging The camera according to the present invention, as shown in FIG. 6 to be described later, is superior in terms of speed, and it is possible for human to visually inspect the captured image because it has the possibility of development in the future. An apparatus configuration using the cameras 22a and 22b or the cameras 24a and 24b is adopted.

建築限界判定を行う方法として、カメラ1台を用いて行う方法が考えられるが、この場合には、設計値が存在する対象物しか検出することができず、設計値がない場合や木々などの自然物については計測できなかった。設計値がない場合に建築限界判定を行うためには、1台ではなく複数台のカメラを使い、三角測量の原理で直接距離を求めることが有効であり、本発明では、後述の図6に示すように、複数台のカメラ22a、22b又はカメラ24a、24bを用いた装置構成としている。   As a method of determining the construction limit, a method using one camera can be considered, but in this case, only an object having a design value can be detected, and there is no design value or trees, etc. It was not possible to measure natural objects. In order to determine the architectural limit when there is no design value, it is effective to use a plurality of cameras instead of one and obtain the direct distance based on the principle of triangulation. In the present invention, it is effective to use FIG. As shown, the apparatus configuration is configured using a plurality of cameras 22a and 22b or cameras 24a and 24b.

複数台のカメラを用いる方法としては、上述した特許文献1及び特許文献2などがある。例えば、特許文献1及び特許文献2では、パンタグラフ周辺に限った検出を行うために、上述したように、これに特化した手法(エッジ検出や2値化処理及び塊検出)を用いており、エッジが検出できない箇所、2値化処理や塊検出の処理に対応できない物体については、ステレオ計測による距離算出が行えないと言う制約がある。これに対して、本発明では、特許文献1及び特許文献2とは異なる後述する処理を用いることにより、上述した制約なく、車両前方又は後方全領域を想定可能であり、撮影対象も鉄道設備に限らず自然物など全ての物体を対象にすることができる。   As a method of using a plurality of cameras, there are Patent Document 1 and Patent Document 2 described above, and the like. For example, in Patent Document 1 and Patent Document 2, in order to perform detection limited to the periphery of the pantograph, as described above, a method specialized for this (edge detection, binarization processing, and lump detection) is used, There is a restriction that distance calculation by stereo measurement can not be performed for an area where an edge can not be detected, and an object which can not cope with the binarization process and the block detection process. On the other hand, according to the present invention, by using processing to be described later different from Patent Document 1 and Patent Document 2, the entire area in front of the vehicle or the rear can be assumed without restriction described above. It is possible to target all objects such as natural objects without limitation.

カメラの映像から障害物の検出を行うには、まず、複数台のカメラから撮像範囲の距離算出を行う必要がある。例えば、図1に示すように、レール11と電柱12で構成される鉄道設備の距離データを取得することを考える。後述の図6と同様に、複数台のカメラ22a、22bから撮像すると、図2に示すように、カメラ22a、22bの画像データを使って、距離データを算出することになる。複数台のカメラ22a、22bが存在し、それぞれのカメラ22a、22bの相対的な位置姿勢関係が分かっている場合には、三角測量の原理で、カメラ22a、22bから障害物(例えば、電柱12)までの距離データが算出できることが知られている。   In order to detect an obstacle from an image of a camera, first, it is necessary to calculate the distance of the imaging range from a plurality of cameras. For example, as shown in FIG. 1, it is considered to acquire distance data of a railway installation composed of a rail 11 and a utility pole 12. Similar to FIG. 6 described later, when images are taken from a plurality of cameras 22a and 22b, as shown in FIG. 2, distance data is calculated using image data of the cameras 22a and 22b. When a plurality of cameras 22a and 22b exist and the relative position and orientation relationship between the respective cameras 22a and 22b is known, an obstacle (for example, an electric pole 12) is obtained from the cameras 22a and 22b according to the principle of triangulation. It is known that distance data up to) can be calculated.

距離を求める際には、あるカメラで見ている画像上の注目画素が他のカメラから見て画像上のどの画素になるかを見つける必要がある。その方法として、ブロックマッチングと呼ばれる、画像のある画素の周辺の画素と類似する領域を他のカメラの画像から探す手法がよく用いられる。この手法は、画像上の注目画素周辺が特徴的なテクスチャを持っている場合は上手くいくが、テクスチャの無い場合にはブロックマッチング結果が一意に決まらず、このことが原因で正しい値が出ない場合がある。   When determining the distance, it is necessary to find out which pixel on the image the pixel of interest on the image viewed by one camera is seen from another camera. As a method therefor, a method called block matching is often used in which an area similar to the peripheral pixels of a certain pixel of the image is searched from images of other cameras. This method works well when the region around the pixel of interest on the image has a characteristic texture, but when there is no texture, the block matching result is not uniquely determined, which causes the correct value not to be obtained. There is a case.

この問題を解決するため、注目画素の推定距離が周辺の推定距離と比較して大きく異ならないように、最適化にペナルティ項を用いるグラフカットと呼ばれる手法が提案されている(非特許文献2)。このブロックマッチングとグラフカットを用いる手法は、高精度に距離算出を行うことが可能である。   In order to solve this problem, a method called a graph cut using a penalty term for optimization has been proposed so that the estimated distance of the pixel of interest does not differ greatly from the estimated distance of the surrounding (Non-Patent Document 2) . The method using block matching and graph cutting can perform distance calculation with high accuracy.

障害物の検出は、上述した手法を用いることで実現可能だが、これだけでは、撮影したある一地点の距離データしか得ることができない。判定対象区間全域で建築限界判定を行うためには、複数地点から撮影した距離データを統合することで3次元の地図を作り、その地図上で評価を行う必要がある。   Although the detection of an obstacle can be realized by using the above-described method, only with this, it is possible to obtain only distance data of one point taken. In order to determine the construction limit in the entire determination target section, it is necessary to create a three-dimensional map by integrating distance data taken from a plurality of points and to evaluate on the map.

図3に、図2の場合と異なる位置から撮像した場合の距離データの取得例を示す。図2の結果と比較すると、一部同じ区間の距離データを取得できていることがわかる。ここで、図2、図3において、点線は距離データを取得できた範囲を示しており、図2では範囲Aの距離データを、図3では範囲Bの距離データを取得できている。この共通区間を用いて、2つの距離データの位置合わせを行うことで距離データの統合をすることが可能である。距離データの位置合わせには、2つの3次元点群の位置合わせを行うICP(Iterative Closest Point)アルゴリズムと呼ばれる手法がよく用いられている(非特許文献1)。詳細は後述するが、本発明でもICPを使うことにより、距離データの統合を行い、最終的に3次元環境地図を作成している。   FIG. 3 shows an example of distance data acquisition when imaging is performed from a position different from that in FIG. In comparison with the results of FIG. 2, it can be seen that distance data of a part of the same section can be acquired. Here, in FIG. 2 and FIG. 3, the dotted line indicates the range in which the distance data can be acquired, and in FIG. 2, the distance data of the range A can be acquired and the distance data of the range B can be acquired in FIG. It is possible to integrate distance data by aligning two distance data using this common section. For alignment of distance data, a method called ICP (Iterative Closest Point) algorithm for aligning two three-dimensional point groups is often used (Non-Patent Document 1). Although the details will be described later, the present invention integrates the distance data by using the ICP, and finally creates a three-dimensional environmental map.

例えば、図2で示すある位置から撮像した場合の距離データの範囲Aと、図3で示す図2とは異なる位置から撮像した場合の距離データの範囲Bを統合すると、図4に示すような3次元環境地図を作成することができる。なお、図4において、点線が示す範囲Cは、距離データの範囲Aと距離データの範囲Bを統合した範囲を示している。   For example, when range A of distance data in the case of imaging from a certain position shown in FIG. 2 and range B of distance data in the case of imaging from a different position from FIG. 2 shown in FIG. A three-dimensional environmental map can be created. In FIG. 4, a range C indicated by a dotted line indicates a range obtained by integrating the range A of distance data and the range B of distance data.

距離データの位置合わせを行うことは、距離データ同士の相対的な位置姿勢を求めるのと同義である。この位置姿勢が分かることで、撮影毎の車両の進行量や速度、車両傾きを求めることができる。この車両傾きは建築限界領域を定める上で非常に重要な要素となる。ちなみに、ICPアルゴリズムは反復計算により解を求める手法であり、結果が初期値に依存する。そのため、正しい初期値を設定することが必要であるが、本発明においては、車両がレール上しか移動しないことを利用することで、良い初期値を設定することが容易になる。   Performing alignment of distance data is equivalent to determining relative position and orientation of distance data. By knowing the position and orientation, it is possible to obtain the amount of progress of the vehicle for each shooting, the speed, and the vehicle inclination. This vehicle inclination is a very important factor in defining the construction limit area. Incidentally, the ICP algorithm is a method of finding a solution by iterative calculation, and the result depends on the initial value. Therefore, although it is necessary to set the correct initial value, in the present invention, it becomes easy to set a good initial value by utilizing that the vehicle moves only on the rails.

レールの検出については以下のようにしている。
建築限界判定を行うためには、3次元環境地図上で車両がどこを通るのか認識する必要がある。本発明は鉄道に用途を限定しているため、車両が通るのはレール上ということが分かっている。そこで、画像上からレールの認識を行うことで、車両の通過領域及び建築限界領域を求めることが可能になる。本発明では、前方又は後方の監視画像において、枕木方向のライン領域について、予め用意されたレールのテンプレート画像データ又はレールの輝度値の基準分布データ(基準レール輝度分布データ)を用いて、ラスタスキャンによるマッチングを行い、最もマッチングする位置をレール位置としている。このようにして検出したレール位置を元に、建築限界領域の計算を行う。
Rail detection is as follows.
In order to determine the construction limit, it is necessary to recognize where the vehicle passes on the three-dimensional environmental map. It has been found that it is on the rails that the vehicle travels because the present invention has limited application to railways. Therefore, by recognizing the rails from the image, it is possible to obtain the passing area and the building limit area of the vehicle. In the present invention, raster scan is performed using the template image data of the rail prepared in advance or the reference distribution data (reference rail luminance distribution data) of the luminance value of the rail for the line area in the cross direction in the monitoring image of the front or rear. Matching is performed, and the most matching position is the rail position. Based on the rail position detected in this manner, calculation of the construction limit area is performed.

建築限界領域は静的には固定値として与えられているが、車両が傾く場合には動的に変化する。そのため、動的な建築限界領域の計算には車両傾きが必要であるが、これはすでに上記ICPアルゴリズムで車両の位置姿勢として求めている。最終的には、車両傾きを考慮した建築限界領域から各地点における最寄りの障害物までの距離を算出する。   The construction limit area is statically given as a fixed value, but changes dynamically when the vehicle tilts. Therefore, although the vehicle inclination is required for the calculation of the dynamic building limit area, this has already been obtained as the position and orientation of the vehicle by the ICP algorithm. Finally, the distance from the building limit area considering the vehicle inclination to the nearest obstacle at each point is calculated.

例えば、図5に示すように、車両傾きを考慮した建築限界領域Dから各地点における最寄りの障害物までの距離を算出するようにしており、障害物となる電柱12に対しては、建築限界領域Dと電柱12が最も接近する地点での距離Lが算出される。   For example, as shown in FIG. 5, the distance from the building limit area D in consideration of the vehicle inclination to the nearest obstacle at each point is calculated, and the building limit for the power pole 12 as the obstacle is calculated. The distance L at the point where the area D and the utility pole 12 come closest to each other is calculated.

以上のことを考慮した本発明に係る建築限界判定装置について、図6〜図8を参照して説明する。   An architectural limit judging device according to the present invention in consideration of the above will be described with reference to FIGS.

[実施例1]
図6は、本実施例の建築限界判定装置を示す図であり、図6(a)は、その概略構成を示す上面図、図6(b)は、撮像された監視画像を示す図である。又、図7は、図6(a)に示した建築限界判定装置を構成する処理部を説明するブロック図である。又、図8は、図6(a)に示した建築限界判定装置における建築限界判定方法を説明するフローチャートである。
Example 1
FIG. 6 is a view showing the building limit determination apparatus of the present embodiment, and FIG. 6 (a) is a top view showing its schematic configuration, and FIG. 6 (b) is a view showing a captured monitoring image . Moreover, FIG. 7 is a block diagram explaining the process part which comprises the building limit determination apparatus shown to Fig.6 (a). Moreover, FIG. 8 is a flowchart explaining the building limit determination method in the building limit determination apparatus shown to Fig.6 (a).

本実施例の建築限界判定装置は、図6(a)に示すように、レール11を矢印Eの方向に走行する列車21(車両)に設けられた2台のカメラ22a、22bと、カメラ22a、22bで撮像された画像Mを用い、後述する演算処理を行って、建築限界領域と障害物との離隔判定を行う処理部23とを有している。   As shown in FIG. 6A, the building limit determination apparatus of this embodiment includes two cameras 22a and 22b provided on a train 21 (vehicle) traveling on the rail 11 in the direction of arrow E, and a camera 22a. , 22b using the image M, and a processing unit 23 that performs separation determination between the building limit area and the obstacle by performing calculation processing described later.

カメラ22a、22bは、列車21の先頭に設けられ、レール11の長手方向前方(矢印Eの方向)に向かって配置されており、この場合、カメラ22a、22bで撮像された前方の画像Mが後述する処理に用いられる。カメラ22a、22bに代えて、列車21の末尾に設けられ、レール11の長手方向後方に向かって配置されたカメラ24a、24bを用いても良く、この場合、カメラ24a、24bで撮像された後方の画像Mが後述する処理に用いられる。カメラ22a、22b又はカメラ24a、24bは、列車21に固定されており、列車21の移動や動揺・傾きに依存して、周囲の撮影が可能である。なお、カメラ22a、22b又はカメラ24a、24bは、複数台(2台以上)であれば良い。   The cameras 22a and 22b are provided at the head of the train 21 and are disposed forward in the longitudinal direction of the rail 11 (in the direction of the arrow E). In this case, the front image M captured by the cameras 22a and 22b is It is used for the process mentioned later. Instead of the cameras 22a and 22b, cameras 24a and 24b provided at the end of the train 21 and disposed toward the rear in the longitudinal direction of the rail 11 may be used. In this case, the rear captured by the cameras 24a and 24b The image M of is used for the processing described later. The cameras 22a and 22b or the cameras 24a and 24b are fixed to the train 21. Depending on the movement, shaking, or tilting of the train 21, photographing of the surroundings is possible. The cameras 22a and 22b or the cameras 24a and 24b may be plural (two or more).

そして、上述した処理部23は、図7に示すように、監視画像入力部31と、距離算出部32と、レール認識部33と、距離データ統合部34と、建築限界領域算出部35と、離隔算出部36と、記憶部37とを有している。   The processing unit 23 described above, as shown in FIG. 7, includes a monitoring image input unit 31, a distance calculation unit 32, a rail recognition unit 33, a distance data integration unit 34, an architectural limit area calculation unit 35, A separation calculation unit 36 and a storage unit 37 are provided.

監視画像入力部31では、前方の複数台のカメラ22a、22b(又は後方の複数台のカメラ24a、24b)で取得した監視画像データを記億部37へ入力している。   The monitoring image input unit 31 inputs monitoring image data acquired by the plurality of front cameras 22a and 22b (or the plurality of rear cameras 24a and 24b) to the storage unit 37.

距離算出部32では、監視画像データを使用し、ブロックマッチングとグラフカットを用いる手法により障害物の距離算出を行い、算出した距離データを記億部37へ入力している。   The distance calculation unit 32 uses the monitoring image data to calculate the distance of the obstacle by a method using block matching and a graph cut, and inputs the calculated distance data to the memory unit 37.

レール認識部33では、監視画像データを使用し、予め用意された後述するデータを用いて、マッチングを行い、最もマッチングする位置をレール位置として算出し、そのレール位置を記億部37へ入力している。   The rail recognition unit 33 uses the monitoring image data, performs matching using data prepared in advance described later, calculates the most matching position as the rail position, and inputs the rail position to the memory unit 37. ing.

距離データ統合部34では、撮像した全ての監視画像データ群から算出した全距離データを使用し、ICPアルゴリズムを用いて距離統合を行い、3次元環境地図データと各撮影位置での車両位置姿勢データを求め、その3次元環境地図データと車両位置姿勢データを記億部37へ入力している。   The distance data integration unit 34 uses the ICP algorithm to perform distance integration using all distance data calculated from all the captured monitoring image data groups, and three-dimensional environment map data and vehicle position and attitude data at each shooting position The three-dimensional environmental map data and the vehicle position and attitude data are input to the storage unit 37.

建築限界領域算出部35では、レール位置と車両位置姿勢データと予め与えられた静的な建築限界領域とを用いて、建築限界領域データを算出し、その建築限界領域データを記億部37へ入力している。   The construction limit area calculation unit 35 calculates construction limit area data using the rail position, the vehicle position / posture data, and the static construction limit area given in advance, and the construction limit area data to the memory section 37 It is input.

離隔算出部36では、3次元環境地図データと建築限界領域データを用いて、これらのデータ間の離隔を算出し、その離隔データを記億部37へ入力している。   The separation calculation unit 36 calculates the separation between these data using the three-dimensional environmental map data and the construction limit area data, and inputs the separation data to the storage unit 37.

記億部37では、上述した監視画像データ、距離データ、3次元環境地図データ、車両位置姿勢データ、レール位置、建築限界領域データ、離隔データを保管している。   The storage unit 37 stores the monitoring image data, distance data, three-dimensional environment map data, vehicle position and attitude data, rail position, building limit area data, and separation data described above.

次に、図8を参照して、以上の構成を有する建築限界判定装置における建築限界判定方法の手順を説明する。   Next, with reference to FIG. 8, the procedure of the building limit determination method in the building limit determining apparatus having the above configuration will be described.

(ステップS1)
前方の複数台のカメラ22a、22b(又は後方の複数台のカメラ24a、24b)で撮像された前方の(又は後方の)監視画像データを記憶部37へ入力する(監視画像入力部31)。このとき、列車21のレール11上での位置を示すキロ程情報(又はキロ程位置)と対応付けて、監視画像データを入力しても良い。
(Step S1)
The front (or rear) monitoring image data captured by the plurality of front cameras 22a and 22b (or the plurality of rear cameras 24a and 24b) is input to the storage unit 37 (monitoring image input unit 31). At this time, the monitoring image data may be input in association with the kilo information (or the kilo position) indicating the position of the train 21 on the rail 11.

(ステップS2)
入力された監視画像データにおいて、ブロックマッチングを用いた三角測量とグラフカットを用いる手法により、障害物を検出すると共に、障害物の距離データを算出する(距離算出部32)。
(Step S2)
In the input monitoring image data, an obstacle is detected and a distance data of the obstacle is calculated by a method using triangulation using block matching and a graph cut (distance calculation unit 32).

具体的には、ブロックマッチングを用いて、カメラ22a、22b(又はカメラ24a、24b)の一方のカメラの監視画像データのある注目画素の周辺の画素と類似する領域を、他方のカメラの監視画像データから探し、この注目画素について、三角測量の原理を用いて、距離データを算出する。監視画像データ上の注目画素周辺に特徴的なテクスチャが無い場合には、グラフカットを用いて、注目画素の推定距離データが周辺の推定距離データと比較して大きく異ならないように、ペナルティ項により距離データを最適化する。   Specifically, using block matching, a region similar to a pixel around a certain pixel of interest of monitoring image data of one of the cameras 22a and 22b (or cameras 24a and 24b) is monitored by the other camera The data is searched, and the distance data is calculated for this target pixel using the principle of triangulation. If there is no characteristic texture around the pixel of interest on the monitoring image data, using a graph cut, the estimated distance data of the pixel of interest does not differ significantly from the estimated distance data of the surrounding, according to the penalty term. Optimize distance data.

(ステップS3)
入力された監視画像データにおいて、予め用意された後述するデータを用いて、マッチングを行い、最もマッチングする位置をレール位置としてレール認識を行う(レール認識部33)。
(Step S3)
In the input monitoring image data, matching is performed using data to be described later prepared in advance, and rail recognition is performed with the most matching position as the rail position (rail recognition unit 33).

具体的には、マッチングのために、レールのテンプレート画像データや基準レール輝度分布データを予め用意しておく。そして、監視画像データにおいて、任意の枕木方向のライン領域について、レールのテンプレート画像データや基準レール輝度分布データを用いて、ラスタスキャンによるマッチングを行い、最もマッチングする位置をレール位置として算出する。   Specifically, template image data of rails and reference rail luminance distribution data are prepared in advance for matching. Then, in the monitoring image data, matching by raster scan is performed using a template image data of rails and reference rail luminance distribution data for a line region in an arbitrary crosstie direction, and the most matching position is calculated as a rail position.

(ステップS4)
前方の複数台のカメラ22a、22b(又は後方の複数台のカメラ24a、24b)による撮像が終了した場合にはステップS6へ進み、撮像が終了していない場合には、ステップS5へ進む。
(Step S4)
If the imaging by the plurality of front cameras 22a and 22b (or the plurality of rear cameras 24a and 24b) is completed, the process proceeds to step S6. If the imaging is not completed, the process proceeds to step S5.

(ステップS5)
撮像が終了していない場合には、前方の複数台のカメラ22a、22b(又は後方の複数台のカメラ24a、24b)で新しく撮像された前方の(又は後方の)監視画像データを入力し(監視画像入力部31)、ステップS2へ戻る。つまり、撮像が終了するまで、ステップS2〜S5が繰り返し実施され、複数の監視画像データからなる監視画像データ群が記憶部37に入力され、距離データ、レール位置が求められる。監視画像データ群の各監視画像データは、各々異なる撮影地点から撮像された画像である。
(Step S5)
If the imaging has not been completed, the front (or rear) surveillance image data newly imaged by the plurality of front cameras 22a and 22b (or the plurality of rear cameras 24a and 24b) is input ( Monitored image input unit 31), returns to step S2. That is, steps S2 to S5 are repeatedly performed until imaging is completed, and a monitoring image data group including a plurality of monitoring image data is input to the storage unit 37, and distance data and a rail position are obtained. Each monitoring image data of the monitoring image data group is an image captured from a different imaging point.

(ステップS6)
取得した監視画像データ群の全距離データを、ICPアルゴリズムを用いて統合して、3次元環境地図データを求めると共に、車両位置姿勢データ(車両傾き)を求める。(距離データ統合部34)。
(Step S6)
All distance data of the acquired monitoring image data group are integrated using an ICP algorithm to obtain three-dimensional environmental map data, and vehicle position and attitude data (vehicle inclination). (Distance data integration unit 34).

具体的には、ある撮影地点で撮像された監視画像データを基準とし、基準となる監視画像データの複数の点を抽出して、複数の点の3次元座標を初期値とし、次に、異なる撮影地点で撮像された統合対象の監視画像データにおいて、上記複数の点に対応する点を求め、ICPアルゴリズムを用いて、2つの監視画像データにおいて、対応する点同士の位置合わせを行って、2つの監視画像データを統合する。これを、取得した全ての監視画像データに対して行うことにより、監視画像データ群の全距離データが統合されることになり、3次元環境地図データを求めることになる。   Specifically, with reference to monitoring image data captured at a certain shooting point, a plurality of points of the monitoring image data serving as a reference are extracted, three-dimensional coordinates of the plurality of points are set as initial values, and then different In the monitoring image data of the integration target captured at the shooting point, points corresponding to the plurality of points are determined, and using ICP algorithm, alignment between corresponding points is performed in two monitoring image data, 2 Integrate two surveillance image data. By performing this on all the acquired monitoring image data, all distance data of the monitoring image data group will be integrated, and three-dimensional environmental map data will be obtained.

又、ICPアルゴリズムを用いて、距離データの統合(位置合わせ)を行うと、距離データ同士の相対的な位置姿勢を求めることになるので、この位置姿勢が分かることにより、撮影毎の列車21の車両位置姿勢データ(進行量や速度、車両傾き)も求めることになる。   In addition, when distance data is integrated (alignment) using the ICP algorithm, the relative position and orientation of the distance data are determined. Vehicle position and attitude data (travel amount, speed, vehicle inclination) is also determined.

(ステップS7)
ステップS6のICPアルゴリズムで求めた車両傾きに基づき、建築限界領域Dを算出する(図5参照)。
(Step S7)
The building limit area D is calculated based on the vehicle inclination obtained by the ICP algorithm in step S6 (see FIG. 5).

具体的には、ステップS3で算出した複数の地点のレール位置と、ステップS7で求めた複数の地点の車両傾きと、予め固定値として与えられた静的な建築限界領域とを用いて、列車に対する動的な建築限界領域Dを算出する。   Specifically, using the rail positions of the plurality of points calculated in step S3, the vehicle inclinations of the plurality of points obtained in step S7, and the static building limit area previously given as a fixed value, the train Calculate the dynamic building limit area D for.

(ステップS8)
各地点における建築限界領域Dから最寄りの障害物(例えば、電柱12)までの離隔距離Lを算出する(図5参照)。そして、算出した離隔距離Lに基づいて、建築限界領域Dと障害物との離隔判定を行う。
(Step S8)
The separation distance L from the building limit area D at each point to the nearest obstacle (for example, the telephone pole 12) is calculated (see FIG. 5). Then, based on the calculated separation distance L, separation determination between the building limit area D and the obstacle is performed.

以上説明したように、本実施例の建築限界判定装置は、ブロックマッチングとグラフカットを用いているので、エッジ検出や2値化処理、塊検出に依らず、監視画像データから平滑性を考慮した距離データの算出が可能となる。   As described above, since the building limit determination apparatus of this embodiment uses block matching and graph cutting, the smoothness is taken into consideration from the monitoring image data regardless of edge detection, binarization processing, and block detection. Calculation of distance data is possible.

又、本実施例の建築限界判定装置は、上述したように、レール位置、車両傾きを算出しているので、レール位置と車両傾きと静的な建築限界領域とを用いて、列車21に対する動的な建築限界領域データの算出が可能である。   Further, as described above, the building limit determination apparatus of the present embodiment calculates the rail position and the vehicle inclination, so using the rail position, the vehicle inclination, and the static building limit area, the movement with respect to the train 21 is performed. It is possible to calculate typical architectural limit area data.

又、本実施例の建築限界判定装置は、任意の枕木方向のライン領域について、予め用意されたレールのテンプレート画像データ又は基準レール輝度分布データを用い、ラスタスキャンによるマッチングを行って、最もマッチングする位置をレール位置として算出しているので、監視画像データから正確にレール位置の検出が可能となる。   Further, the building limit judging device of the present embodiment performs the matching by raster scan using the template image data of the rail or the reference rail luminance distribution data prepared in advance for the line region in the direction of the optional block direction, and performs the most matching. Since the position is calculated as the rail position, it is possible to detect the rail position accurately from the monitoring image data.

又、本実施例の建築限界判定装置は、異なる撮影地点における監視画像の距離データをICPアルゴリズムで統合して、3次元環境地図データを作るので、設計値が無い物体についても形状を把握することが可能であり、加えて、ICPアルゴリズムにより車両傾きの算出も可能である。   In addition, since the building limit determination apparatus of this embodiment integrates distance data of monitoring images at different shooting points by using an ICP algorithm to create three-dimensional environmental map data, it is necessary to grasp the shape of an object having no design value. In addition, calculation of vehicle inclination is also possible by the ICP algorithm.

又、本実施例の建築限界判定装置は、上述したように、3次元環境地図データ、建築限界領域データを算出しているので、3次元環境地図データ、建築限界領域データを用いて、障害物の離隔距離の算出、離隔判定が可能である。   Further, as described above, the building limit determination apparatus of the present embodiment calculates three-dimensional environment map data and building limit area data, so using the three-dimensional environment map data and building limit area data, an obstacle is generated. It is possible to calculate the separation distance and to determine the separation distance.

本発明は、レールを走行する車両に対する建築限界領域と障害物との離隔判定を行う際に好適なものである。   The present invention is suitable for performing separation determination between an architectural limit area and an obstacle with respect to a vehicle traveling on a rail.

11 レール
12 電柱
21 列車
22a、22b、 カメラ
23 処理部
31 監視画像入力部
32 距離算出部
33 レール認識部
34 距離データ統合部
35 建築限界領域算出部
36 離隔算出部
37 記憶部
DESCRIPTION OF SYMBOLS 11 rail 12 power pole 21 train 22a, 22b, camera 23 process part 31 monitoring image input part 32 distance calculation part 33 rail recognition part 34 distance data integration part 35 construction limit area calculation part 36 separation calculation part 37 storage part

Claims (3)

レールを走行する車両の前方又は後方を画像データとして撮像する複数のカメラと、
前記複数のカメラで撮像された複数の画像データの演算処理を行う処理部とを有し、
前記処理部は、
前記複数のカメラで撮像された複数の画像データから、ブロックマッチングを用いた三角測量により障害物の距離データを算出すると共に、グラフカットにより前記距離データの最適化を行う距離算出部と、
前記複数のカメラで撮像された複数の画像データからレール位置を算出するレール認識部と、
複数の地点で撮像された前記画像データについて、前記距離算出部で算出した前記複数の地点の前記距離データを統合して3次元環境地図を求めると共に車両傾きを求める距離データ統合部と、
前記レール認識部で算出した前記複数の地点の前記レール位置と、前記距離データ統合部で求めた前記複数の地点の前記車両傾きと、固定値として与えられた静的な建築限界領域とを用いて、前記車両に対する動的な建築限界領域を算出する建築限界領域算出部と、
前記建築限界領域算出部で算出した前記建築限界領域と前記距離データ統合部で求めた前記3次元環境地図を用いて、前記建築限界領域から最寄りの前記障害物までの離隔距離を算出し、離隔判定を行う離隔算出部とを有する
ことを特徴とする建築限界判定装置。
A plurality of cameras for capturing, as image data, the front or the rear of a vehicle traveling on a rail;
A processing unit that performs arithmetic processing of a plurality of image data captured by the plurality of cameras;
The processing unit is
A distance calculation unit that calculates distance data of an obstacle by triangulation using block matching from a plurality of image data captured by the plurality of cameras and performs optimization of the distance data by graph cutting;
A rail recognition unit that calculates a rail position from a plurality of image data captured by the plurality of cameras;
A distance data integration unit that integrates the distance data of the plurality of points calculated by the distance calculation unit with respect to the image data captured at a plurality of points to obtain a three-dimensional environmental map and obtains a vehicle inclination;
Using the rail positions of the plurality of points calculated by the rail recognition unit, the vehicle inclinations of the plurality of points obtained by the distance data integration unit, and a static building limit area given as a fixed value A building limit area calculation unit for calculating a dynamic building limit area for the vehicle;
The separation distance from the building limit area to the nearest obstacle is calculated using the building limit area calculated by the building limit area calculation unit and the three-dimensional environmental map obtained by the distance data integration unit, and separation is performed. An architectural limit judging device characterized by having a distance calculation part which judges.
請求項1に記載の建築限界判定装置において、
前記レール認識部は、前記画像データの前記レールの枕木方向のライン領域について、予め用意されたレールのテンプレート画像データ又はレールの輝度値の基準分布データを用いて、ラスタスキャンによるマッチングを行い、最もマッチングする位置をレール位置として算出する
ことを特徴とする建築限界判定装置。
In the building limit judging device according to claim 1,
The rail recognition unit performs raster scan matching on the line region of the image data in the rail direction of the rail using the template image data of the rail prepared in advance or the reference distribution data of the luminance value of the rail, An architectural limit judging device characterized by calculating a matching position as a rail position.
請求項1又は請求項2に記載の建築限界判定装置において、
前記距離データ統合部は、ICP(Iterative Closest Point)アルゴリズムを用いて、前記距離算出部で算出した前記複数の地点の前記距離データを統合して、前記3次元環境地図を求めると共に前記車両傾きを求める
ことを特徴とする建築限界判定装置。
In the building limit judging device according to claim 1 or 2,
The distance data integration unit integrates the distance data of the plurality of points calculated by the distance calculation unit using an ICP (Iterative Closest Point) algorithm to obtain the three-dimensional environmental map and the vehicle inclination. An architectural limit judging device characterized by asking.
JP2015210388A 2015-10-27 2015-10-27 Building limit judging device Active JP6524529B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015210388A JP6524529B2 (en) 2015-10-27 2015-10-27 Building limit judging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015210388A JP6524529B2 (en) 2015-10-27 2015-10-27 Building limit judging device

Publications (2)

Publication Number Publication Date
JP2017083245A JP2017083245A (en) 2017-05-18
JP6524529B2 true JP6524529B2 (en) 2019-06-05

Family

ID=58713051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015210388A Active JP6524529B2 (en) 2015-10-27 2015-10-27 Building limit judging device

Country Status (1)

Country Link
JP (1) JP6524529B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7062407B2 (en) * 2017-11-02 2022-05-06 株式会社東芝 Obstacle detection device
JP2019184342A (en) * 2018-04-05 2019-10-24 株式会社東芝 Railway inspection device
JP7020322B2 (en) * 2018-07-06 2022-02-16 株式会社明電舎 Building limit judgment device
JP7207479B2 (en) * 2018-07-06 2023-01-18 株式会社明電舎 Building gauge determination method
JP7227879B2 (en) * 2019-09-02 2023-02-22 株式会社日立製作所 Surrounding Observation System, Surrounding Observation Program and Surrounding Observation Method
CN117581281A (en) * 2021-06-24 2024-02-20 株式会社索思未来 Information processing device, information processing method, and information processing program
CN114413752A (en) * 2021-12-20 2022-04-29 东莞市诺丽电子科技有限公司 Collector shoe intrusion detection method and system
CN114701543B (en) * 2022-04-27 2023-10-17 中铁第四勘察设计院集团有限公司 High-precision equipment limit detection early warning system and method based on big data

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6009359A (en) * 1996-09-18 1999-12-28 National Research Council Of Canada Mobile system for indoor 3-D mapping and creating virtual environments
JP4440809B2 (en) * 2005-03-11 2010-03-24 株式会社明電舎 Obstacle detection device around pantograph
JP2010202017A (en) * 2009-03-03 2010-09-16 Mitsubishi Electric Corp Data analysis device and method, and program
JP6277468B2 (en) * 2013-12-18 2018-02-14 株式会社明電舎 Vehicle power pole position inspection device

Also Published As

Publication number Publication date
JP2017083245A (en) 2017-05-18

Similar Documents

Publication Publication Date Title
JP6524529B2 (en) Building limit judging device
JP6464337B2 (en) Traffic camera calibration update using scene analysis
JP5296746B2 (en) Map creation method and apparatus and localization method using the map
US8867790B2 (en) Object detection device, object detection method, and program
JP4363295B2 (en) Plane estimation method using stereo images
CN105975923B (en) Method and system for tracking human objects
KR102305328B1 (en) System and method of Automatically Generating High Definition Map Based on Camera Images
EP3324359B1 (en) Image processing device and image processing method
JP2011080845A (en) Method and apparatus for creating three-dimensional data
JP4032843B2 (en) Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system
KR20180098945A (en) Method and apparatus for measuring speed of vehicle by using fixed single camera
JP2023029441A (en) Measuring device, measuring system, and vehicle
JPH1144533A (en) Preceding vehicle detector
Hu et al. A high-resolution surface image capture and mapping system for public roads
JP6699323B2 (en) Three-dimensional measuring device and three-dimensional measuring method for train equipment
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
JP4935769B2 (en) Plane region estimation apparatus and program
JP5981284B2 (en) Object detection device and object detection method
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method
KR101459522B1 (en) Location Correction Method Using Additional Information of Mobile Instrument
KR102065337B1 (en) Apparatus and method for measuring movement information of an object using a cross-ratio
US20190139177A1 (en) Device for detecting road surface state
Chen et al. Amobile system combining laser scanners and cameras for urban spatial objects extraction
KR101639264B1 (en) Apparatus and method for controling automatic termial
JP2000032601A (en) Apparatus for track recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6524529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250