JP2010190647A - Vehicle position measuring instrument and vehicle position measuring program - Google Patents

Vehicle position measuring instrument and vehicle position measuring program Download PDF

Info

Publication number
JP2010190647A
JP2010190647A JP2009033916A JP2009033916A JP2010190647A JP 2010190647 A JP2010190647 A JP 2010190647A JP 2009033916 A JP2009033916 A JP 2009033916A JP 2009033916 A JP2009033916 A JP 2009033916A JP 2010190647 A JP2010190647 A JP 2010190647A
Authority
JP
Japan
Prior art keywords
feature
vehicle
distance
shape
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009033916A
Other languages
Japanese (ja)
Inventor
Yosuke Ishiwatari
要介 石渡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009033916A priority Critical patent/JP2010190647A/en
Publication of JP2010190647A publication Critical patent/JP2010190647A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To determine the position of a vehicle with high accuracy. <P>SOLUTION: A shape/color detector 19 and a positional information acquirer 20 are provided. The detector 19 is for determining the position of a feature on a camera image with the distance thereto measured by a laser range finder 3 to detect the shape and color of the feature from the position of the feature on the camera image. The acquirer 20 is for acquiring accurate positional information on a reference feature from a positional information recorder 11 in cases where the shape and color of the feature detected by the detector 19 coincide with the shape and color of the reference feature. From the accurate position information on the reference feature acquired by the acquirer 20, the position of the vehicle 1 is calculated by a vehicle position calculator 21. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、車両の位置を高精度に測定することが可能な車両位置測定装置及び車両位置測定プログラムに関するものである。   The present invention relates to a vehicle position measuring apparatus and a vehicle position measuring program capable of measuring the position of a vehicle with high accuracy.

現在、屋外測位に関しては、GPS衛星から送信されるGPS信号を受信して測位する方法が主流となっている。
しかしながら、高層建造物の多い都市部等では、測定場所からGPS衛星が見えず(例えば、測定場所がビルの谷間である場合、GPS衛星がビルに隠れてしまうことがある)、測定環境が悪くなることがある。
測定環境が悪い場合には、全く位置を測定できない状況や、測定できても誤差が大きくなる状況が発生する。
Currently, for outdoor positioning, a method of receiving GPS signals transmitted from GPS satellites and performing positioning has become the mainstream.
However, in urban areas where there are many high-rise buildings, GPS satellites cannot be seen from the measurement location (for example, if the measurement location is in a valley of a building, the GPS satellite may be hidden in the building), and the measurement environment is poor. May be.
When the measurement environment is bad, there are situations where the position cannot be measured at all, or even if the measurement is possible, the error becomes large.

この測定誤差を解消する手法として、地図と地物の距離を用いて、測定位置を補正する手法がある。
例えば、以下の特許文献1では、レーダを用いて、車両から地物までの距離を測定し、また、以下の特許文献2では、ステレオカメラを用いて、車両から地物までの距離を測定し、車両から地物までの距離によって測定位置を補正する車両位置測定装置が開示されている。
しかし、特許文献1,2に開示されている車両位置測定装置では、あくまでも、道路の地図データに基づいて現在の位置を推定して、その位置を補正するものであるため、その位置が補正されても、その位置の精度が地図の精度に依存するものである。
ここでの地図の精度は、地図上の道路の精度の他に、どの程度の正確性をもって、地物が地図に記載されているかという意味も含んでいる。
As a method of eliminating this measurement error, there is a method of correcting the measurement position using the distance between the map and the feature.
For example, in the following Patent Document 1, the distance from the vehicle to the feature is measured using a radar, and in the following Patent Document 2, the distance from the vehicle to the feature is measured using a stereo camera. A vehicle position measurement device that corrects a measurement position according to a distance from a vehicle to a feature is disclosed.
However, in the vehicle position measurement devices disclosed in Patent Documents 1 and 2, the current position is estimated based on road map data and the position is corrected, so the position is corrected. However, the accuracy of the position depends on the accuracy of the map.
The accuracy of the map here includes not only the accuracy of the road on the map but also the level of accuracy with which the feature is described on the map.

特許文献1,2に開示されている車両位置測定装置では、主に、車両が現在どの車線上に存在しているかを特定することを主眼とするものであって、車両の正確な位置を特定するものではない。
これに加えて、特許文献1,2に開示されている車両位置測定装置では、地物の形状等を把握する手段がないため、レーダやステレオカメラを用いて、車両から地物までの距離を測定しても、その測定した距離が、地物のどの辺りを測定したものであるのかが分からない。
このため、レーダやステレオカメラにより測定された距離を用いても、位置を正確に補正することはできない。
The vehicle position measurement devices disclosed in Patent Documents 1 and 2 mainly specify the lane on which the vehicle currently exists, and specify the exact position of the vehicle. Not what you want.
In addition, in the vehicle position measurement devices disclosed in Patent Documents 1 and 2, since there is no means for grasping the shape of the feature, the distance from the vehicle to the feature is determined using a radar or a stereo camera. Even if it is measured, it is not known which part of the feature the measured distance is measured.
For this reason, even if the distance measured by the radar or the stereo camera is used, the position cannot be accurately corrected.

特開2007−218848号公報(段落番号[0016]、図1)JP 2007-218848 A (paragraph number [0016], FIG. 1) 特開2007−232690号公報(段落番号[0029]、図1)JP 2007-232690 A (paragraph number [0029], FIG. 1)

従来の車両位置測定装置は以上のように構成されているので、レーダやステレオカメラを用いて、車両から地物までの距離を測定しても、その測定した距離が、地物のどの辺りを測定したものであるのかが分からない。このため、レーダやステレオカメラにより測定された距離を用いて、測定した車両の位置を補正しても、車両の正確な位置を特定することができないなどの課題があった。   Since the conventional vehicle position measuring device is configured as described above, even if the distance from the vehicle to the feature is measured by using a radar or a stereo camera, the measured distance may be any part of the feature. I don't know if it was measured. For this reason, there has been a problem that even if the measured position of the vehicle is corrected using the distance measured by the radar or the stereo camera, the exact position of the vehicle cannot be specified.

この発明は上記のような課題を解決するためになされたもので、車両の位置を高精度に特定することができる車両位置測定装置及び車両位置測定プログラムを得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to obtain a vehicle position measuring device and a vehicle position measuring program capable of specifying the position of the vehicle with high accuracy.

この発明に係る車両位置測定装置は、車両の周囲を撮影して周囲の画像を取得する画像取得手段と、車両から周囲に存在している地物までの距離を測定する距離測定手段と、距離測定手段により距離が測定された地物の画像上での位置を特定し、その地物の画像上での位置から上記地物の形状及び色を検出する形状色検出手段と、形状色検出手段により検出された地物の形状及び色が基準地物の形状及び色と一致する場合、位置情報記録手段から上記基準地物の正確な位置情報を取得する位置情報取得手段とを設け、車両位置算出手段が位置情報取得手段により取得された基準地物の正確な位置情報と距離測定手段により測定された地物までの距離から車両の位置を算出するようにしたものである。   A vehicle position measurement device according to the present invention includes an image acquisition unit that captures an image of the surroundings of the vehicle and acquires an image of the surroundings, a distance measurement unit that measures a distance from the vehicle to a surrounding feature, and a distance A shape color detecting means for identifying a position on the image of the feature whose distance is measured by the measuring means and detecting the shape and color of the feature from the position on the image of the feature; and a shape color detecting means Position information acquisition means for acquiring accurate position information of the reference feature from the position information recording means when the shape and color of the feature detected by the above match the shape and color of the reference feature; The calculating means calculates the position of the vehicle from the accurate position information of the reference feature acquired by the position information acquiring means and the distance to the feature measured by the distance measuring means.

この発明によれば、車両の周囲を撮影して周囲の画像を取得する画像取得手段と、車両から周囲に存在している地物までの距離を測定する距離測定手段と、距離測定手段により距離が測定された地物の画像上での位置を特定し、その地物の画像上での位置から上記地物の形状及び色を検出する形状色検出手段と、形状色検出手段により検出された地物の形状及び色が基準地物の形状及び色と一致する場合、位置情報記録手段から上記基準地物の正確な位置情報を取得する位置情報取得手段とを設け、車両位置算出手段が位置情報取得手段により取得された基準地物の正確な位置情報と距離測定手段により測定された地物までの距離から車両の位置を算出するように構成したので、車両の位置を高精度に特定することができる効果がある。   According to the present invention, the image acquisition unit that captures the periphery of the vehicle and acquires the surrounding image, the distance measurement unit that measures the distance from the vehicle to the surrounding feature, and the distance measurement unit The shape color detecting means for identifying the position on the image of the feature measured and detecting the shape and color of the feature from the position on the image of the feature, and the shape color detecting means When the shape and color of the feature matches the shape and color of the reference feature, a position information acquisition unit that acquires accurate position information of the reference feature from the position information recording unit is provided, and the vehicle position calculation unit is positioned Since the position of the vehicle is calculated from the accurate position information of the reference feature acquired by the information acquisition means and the distance to the feature measured by the distance measurement means, the position of the vehicle is specified with high accuracy. There is an effect that can.

この発明の実施の形態1による車両位置測定装置により位置が測定される車両を示す構成図である。It is a block diagram which shows the vehicle from which a position is measured by the vehicle position measuring apparatus by Embodiment 1 of this invention. この発明の実施の形態1による車両位置測定装置を示す構成図である。It is a block diagram which shows the vehicle position measuring apparatus by Embodiment 1 of this invention. この発明の実施の形態1による車両位置測定装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the vehicle position measuring apparatus by Embodiment 1 of this invention. この発明の実施の形態1による車両位置測定装置における形状色検出部19の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the shape color detection part 19 in the vehicle position measuring device by Embodiment 1 of this invention. 信号機を模式的に示す説明図である。It is explanatory drawing which shows a traffic light typically. 地物がトンネルである場合の距離測定点を示す説明図である。It is explanatory drawing which shows the distance measurement point in case a feature is a tunnel.

実施の形態1.
図1はこの発明の実施の形態1による車両位置測定装置により位置が測定される車両を示す構成図である。
図1において、車両1は車両位置測定装置により現在の位置が測定される被測定対象である。
カメラ2は車両1に設置され、車両1の前方上部(周囲)を撮影して、前方上部の画像を示す画像データを出力する処理を実施する。
レーザーレンジファインダ3は車両1に設置され、車両1の前方上部に存在している地物(例えば、信号機、標識、トンネル)までの距離を測定し、その地物までの距離を示す距離データを出力する処理を実施する。
Embodiment 1 FIG.
1 is a block diagram showing a vehicle whose position is measured by a vehicle position measuring apparatus according to Embodiment 1 of the present invention.
In FIG. 1, a vehicle 1 is a measurement target whose current position is measured by a vehicle position measurement device.
The camera 2 is installed in the vehicle 1 and performs a process of photographing the upper front portion (surrounding) of the vehicle 1 and outputting image data indicating an image of the upper front portion.
The laser range finder 3 is installed in the vehicle 1, measures the distance to the features (eg, traffic lights, signs, tunnels) existing at the upper front of the vehicle 1, and obtains distance data indicating the distance to the features. Perform the output process.

GPS受信機4はGPS衛星から送信されるGPS信号を受信し、そのGPS信号を用いて車両1の位置を測定する処理を実施する。
GPS受信機4の測定結果は、主に、後述する位置情報取得部20が基準地物の正確な位置情報を取得する際に利用するものであり、車両位置測定装置の算出結果として出力するものではない。
ここでは、GPS信号を用いて車両1の位置を測定するものについて示したが、例えば、ジャイロによる角度・加速度の測定結果や、車両速度・車輪の回転数・ハンドル角度などの車両情報を用いて車両1の位置を測定するようにしてもよい。
The GPS receiver 4 receives a GPS signal transmitted from a GPS satellite and performs a process of measuring the position of the vehicle 1 using the GPS signal.
The measurement result of the GPS receiver 4 is mainly used when the position information acquisition unit 20 described later acquires accurate position information of the reference feature, and is output as the calculation result of the vehicle position measurement device. is not.
Here, although what showed the position of the vehicle 1 using a GPS signal was shown, it uses vehicle information, such as a measurement result of angle and acceleration by a gyro, vehicle speed, the number of rotations of a wheel, and a handle angle, for example. The position of the vehicle 1 may be measured.

図2はこの発明の実施の形態1による車両位置測定装置を示す構成図である。
図2において、位置情報記録部11は予め特徴的な形状及び色を有している基準地物の正確な位置情報を記録している例えばハードディスクなどの記録媒体である。
ここで、基準地物は、例えば、道路上に存在する全ての信号機等でもよいが、全ての信号機等の正確な位置情報を事前に測定しておくことは困難であるため、この実施の形態1では、道路上に存在する一部の信号機等を想定している。
なお、位置情報記録部11は位置情報記録手段を構成している。
FIG. 2 is a block diagram showing a vehicle position measuring apparatus according to Embodiment 1 of the present invention.
In FIG. 2, a position information recording unit 11 is a recording medium such as a hard disk that records in advance accurate position information of a reference feature having a characteristic shape and color.
Here, the reference feature may be, for example, all the traffic lights that exist on the road, but it is difficult to measure accurate position information of all the traffic lights in advance. 1 assumes a part of traffic lights and the like existing on the road.
The position information recording unit 11 constitutes position information recording means.

制御部12はカメラ2の撮影時刻、レーザーレンジファインダ3の測定時刻及びレーザーレンジファインダ3の走査角度などを制御する処理を実施する。
画像データ取得部13はカメラ2から出力された画像データを取得して、その画像データを画像データ格納部14に記録するとともに、カメラ2の撮影時刻を撮影時刻格納部15に記録する処理を実施する。
画像データ格納部14は画像データを格納する例えばハードディスクなどの記録媒体である。
撮影時刻格納部15はカメラ2の撮影時刻を格納する例えばハードディスクなどの記録媒体である。
なお、カメラ2及び画像データ取得部13から画像取得手段が構成されている。
The control unit 12 performs processing for controlling the photographing time of the camera 2, the measurement time of the laser range finder 3, the scanning angle of the laser range finder 3, and the like.
The image data acquisition unit 13 acquires image data output from the camera 2, records the image data in the image data storage unit 14, and records the shooting time of the camera 2 in the shooting time storage unit 15. To do.
The image data storage unit 14 is a recording medium such as a hard disk for storing image data.
The shooting time storage unit 15 is a recording medium such as a hard disk for storing the shooting time of the camera 2.
The camera 2 and the image data acquisition unit 13 constitute image acquisition means.

距離データ取得部16はレーザーレンジファインダ3から出力された距離データを取得して、その距離データを距離データ格納部17に記録するとともに、レーザーレンジファインダ3の測定時刻を測定時刻格納部18に記録する処理を実施する。
距離データ格納部17は距離データを格納する例えばハードディスクなどの記録媒体である。
測定時刻格納部18はレーザーレンジファインダ3の測定時刻を格納する例えばハードディスクなどの記録媒体である。
なお、レーザーレンジファインダ3及び距離データ取得部16から距離測定手段が構成されている。
The distance data acquisition unit 16 acquires the distance data output from the laser range finder 3, records the distance data in the distance data storage unit 17, and records the measurement time of the laser range finder 3 in the measurement time storage unit 18. Perform the process.
The distance data storage unit 17 is a recording medium such as a hard disk for storing distance data.
The measurement time storage unit 18 is a recording medium such as a hard disk for storing the measurement time of the laser range finder 3.
The laser range finder 3 and the distance data acquisition unit 16 constitute a distance measuring unit.

形状色検出部19は画像データ格納部14により格納されている画像データ、撮影時刻格納部15により格納されているカメラ2の撮影時刻、距離データ取得部16により格納されている距離データ及び測定時刻格納部18により格納されているレーザーレンジファインダ3の測定時刻を用いて、レーザーレンジファインダ3により距離が測定された地物の上記画像上での位置を特定し、その地物の画像上での位置から上記地物の形状及び色を検出する処理を実施する。なお、形状色検出部19は形状色検出手段を構成している。   The shape color detection unit 19 includes image data stored in the image data storage unit 14, shooting time of the camera 2 stored in the shooting time storage unit 15, distance data and measurement time stored in the distance data acquisition unit 16. Using the measurement time of the laser range finder 3 stored by the storage unit 18, the position of the feature whose distance is measured by the laser range finder 3 is specified on the image, and the feature on the image is displayed. A process for detecting the shape and color of the feature from the position is performed. The shape color detecting unit 19 constitutes a shape color detecting unit.

位置情報取得部20は形状色検出部19により検出された地物の形状及び色が基準地物の形状及び色と一致する場合、GPS受信機4により測定された位置を参照して、位置情報記録部11により記録されている基準地物の位置情報の中から、上記地物に対応する基準地物の位置情報を取得する処理を実施する。なお、位置情報取得部20は位置情報取得手段を構成している。
車両位置算出部21は位置情報取得部20により取得された基準地物の正確な位置情報と距離データ格納部17により格納されている距離データから車両1の位置を算出する処理を実施する。なお、車両位置算出部21は車両位置算出手段を構成している。
The position information acquisition unit 20 refers to the position measured by the GPS receiver 4 when the shape and color of the feature detected by the shape color detection unit 19 match the shape and color of the reference feature. From the position information of the reference feature recorded by the recording unit 11, a process of acquiring the position information of the reference feature corresponding to the feature is performed. The position information acquisition unit 20 constitutes position information acquisition means.
The vehicle position calculation unit 21 performs processing for calculating the position of the vehicle 1 from the accurate position information of the reference feature acquired by the position information acquisition unit 20 and the distance data stored by the distance data storage unit 17. The vehicle position calculation unit 21 constitutes vehicle position calculation means.

図2の例では、車両位置測定装置の構成要素である制御部12、画像データ取得部13、距離データ取得部16、形状色検出部19、位置情報取得部20及び車両位置算出部21のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路)で構成されているものを想定しているが、車両位置測定装置がコンピュータで構成される場合、制御部12、画像データ取得部13、距離データ取得部16、形状色検出部19、位置情報取得部20及び車両位置算出部21の処理内容が記述されている車両位置測定プログラムを当該コンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されている車両位置測定プログラムを実行するようにしてもよい。   In the example of FIG. 2, each of the control unit 12, the image data acquisition unit 13, the distance data acquisition unit 16, the shape color detection unit 19, the position information acquisition unit 20, and the vehicle position calculation unit 21 that are components of the vehicle position measurement device. Is configured with dedicated hardware (for example, a semiconductor integrated circuit on which a CPU is mounted). However, when the vehicle position measuring device is configured with a computer, the control unit 12 acquires image data. Unit 13, distance data acquisition unit 16, shape color detection unit 19, position information acquisition unit 20, and vehicle position calculation unit 21, a vehicle position measurement program is stored in the memory of the computer. The CPU may execute a vehicle position measurement program stored in the memory.

図3はこの発明の実施の形態1による車両位置測定装置の処理内容を示すフローチャートであり、また、図4はこの発明の実施の形態1による車両位置測定装置における形状色検出部19の処理内容を示すフローチャートである。   FIG. 3 is a flowchart showing the processing contents of the vehicle position measuring device according to the first embodiment of the present invention. FIG. 4 shows the processing contents of the shape color detecting unit 19 in the vehicle position measuring device according to the first embodiment of the present invention. It is a flowchart which shows.

次に動作について説明する。
カメラ2は、制御部12の指示の下、車両1の前方上部を定期的に撮影して、前方上部の画像を示す画像データを画像データ取得部13に出力する。
画像データ取得部13は、カメラ2から画像データを受けると、その画像データを画像データ格納部14に記録するとともに、そのカメラ2の撮影時刻を撮影時刻格納部15に記録する。
Next, the operation will be described.
Under the instruction of the control unit 12, the camera 2 periodically captures the upper front portion of the vehicle 1 and outputs image data indicating an upper front image to the image data acquisition unit 13.
When receiving image data from the camera 2, the image data acquisition unit 13 records the image data in the image data storage unit 14 and records the shooting time of the camera 2 in the shooting time storage unit 15.

レーザーレンジファインダ3は、制御部12の指示の下、車両1の前方上部に存在している地物(例えば、信号機、標識、トンネル)までの距離を測定して、その地物までの距離を示す距離データを距離データ取得部16に出力する。
ここで、制御部12は、レーザーレンジファインダ3から送出されるレーザーの角度を定期的に変化させることで、レーザーレンジファインダ3が車両1の前方上部を走査するようにする(図1を参照)。
また、制御部12は、カメラ2の撮影頻度より、レーザーレンジファインダ3の測定頻度の方が高くなるように、カメラ2の撮影時刻とレーザーレンジファインダ3の測定時刻を制御する。
距離データ取得部16は、レーザーレンジファインダ3から距離データを受けると、その距離データを距離データ格納部17に記録するとともに、そのレーザーレンジファインダ3の測定時刻を測定時刻格納部18に記録する。
The laser range finder 3 measures the distance to a feature (for example, a traffic light, a sign, a tunnel) existing at the front upper part of the vehicle 1 under the instruction of the control unit 12, and determines the distance to the feature. The indicated distance data is output to the distance data acquisition unit 16.
Here, the control unit 12 periodically changes the angle of the laser transmitted from the laser range finder 3 so that the laser range finder 3 scans the front upper part of the vehicle 1 (see FIG. 1). .
The control unit 12 controls the shooting time of the camera 2 and the measurement time of the laser range finder 3 so that the measurement frequency of the laser range finder 3 is higher than the shooting frequency of the camera 2.
When the distance data acquisition unit 16 receives the distance data from the laser range finder 3, the distance data acquisition unit 16 records the distance data in the distance data storage unit 17 and records the measurement time of the laser range finder 3 in the measurement time storage unit 18.

ここで、カメラ2が車両1の前方上部を撮影し、レーザーレンジファインダ3が車両1の前方上部に存在している地物までの距離を測定している理由は下記の通りである。
車両1の進行方向に対して左右方向には、例えば、建物、街路樹、標識などの地物が多数配置されている。
一方、車両前方は、通路であるが故に、地物が上方にのみ存在しており、存在している地物の種類も限られる。存在している地物としては、信号機、陸橋やトンネルの上部、標識などに限られる。
このため、車両の左右方向に存在している地物を検知するよりも、車両の前方上部に存在している地物を検知する方が好条件(見落としなどの検知間違いが少ない可能性が高い)であるため、カメラ2が車両1の前方上部を撮影し、レーザーレンジファインダ3が車両1の前方上部に存在している地物までの距離を測定している。
Here, the reason why the camera 2 captures the upper front part of the vehicle 1 and the laser range finder 3 measures the distance to the feature existing in the upper front part of the vehicle 1 is as follows.
Many features such as buildings, roadside trees, and signs are arranged in the left-right direction with respect to the traveling direction of the vehicle 1.
On the other hand, since the front side of the vehicle is a passage, the feature exists only in the upward direction, and the types of the existing feature are also limited. The existing features are limited to traffic lights, overpasses and tunnels, and signs.
For this reason, it is better to detect the feature existing in the upper front part of the vehicle than to detect the feature present in the left-right direction of the vehicle (there is more likely to be a detection error such as an oversight). Therefore, the camera 2 takes an image of the front upper part of the vehicle 1 and the laser range finder 3 measures the distance to the feature existing in the upper front part of the vehicle 1.

この実施の形態1では、これらの地物のうち、特徴的な形状を有する地物を検知対象とすることで、より検知を容易にすることを考える。
この実施の形態1では、例えば、「同形状の物体が3つ並んでいる」「並び順・色順が決まっている」という特徴を有する信号機を検知対象の地物とする。
図5は信号機を模式的に示す説明図である。
レーザーレンジファインダ3により測定された距離とカメラ画像による色関係から、信号機に当たったレーザーの色情報を並べることで、「赤・黄・青(ないしは緑)」の組がほぼ同数並ぶことになる。後述する形状色検出部19では、このことを検知することにより信号機の形状及び色を検出する。
In this Embodiment 1, it considers making detection easier by making the feature which has a characteristic shape among these features into a detection target.
In the first embodiment, for example, a traffic signal having the characteristics that “three objects having the same shape are arranged” and “the arrangement order and the color order are determined” is set as a detection target feature.
FIG. 5 is an explanatory view schematically showing a traffic light.
By arranging the color information of the laser that hits the traffic light from the distance measured by the laser range finder 3 and the color relationship of the camera image, almost the same number of “red / yellow / blue (or green)” pairs are arranged. . The shape color detection unit 19 described later detects the shape and color of the traffic light by detecting this.

形状色検出部19は、画像データ格納部14により格納されている画像データ、撮影時刻格納部15により格納されているカメラ2の撮影時刻、距離データ取得部16により格納されている距離データ及び測定時刻格納部18により格納されているレーザーレンジファインダ3の測定時刻を用いて、レーザーレンジファインダ3により距離が測定された地物のカメラ画像上での位置を特定し、その地物のカメラ画像上での位置から上記地物の形状及び色を検出する(図3のステップST1)。
以下、形状色検出部19の処理内容を具体的に説明する。
The shape color detection unit 19 includes image data stored in the image data storage unit 14, shooting time of the camera 2 stored in the shooting time storage unit 15, distance data stored in the distance data acquisition unit 16, and measurement. Using the measurement time of the laser range finder 3 stored by the time storage unit 18, the position of the feature whose distance is measured by the laser range finder 3 is specified on the camera image, and on the camera image of the feature The shape and color of the feature are detected from the position at (ST1 in FIG. 3).
Hereinafter, the processing content of the shape color detection part 19 is demonstrated concretely.

まず、形状色検出部19は、車両1におけるカメラ2の設置位置及び設置角度と、車両1におけるレーザーレンジファインダ3の設置位置及び設置角度とが異なるので(ただし、カメラ2とレーザーレンジファインダ3の設置位置及び設置角度は既知である)、レーザーレンジファインダ3の測定結果である距離データをカメラ2の相対座標に変換する(図4のステップST11)。
レーザーレンジファインダ3の測定データをカメラ2の相対座標に変換する処理自体は公知の技術であるため詳細な説明を省略するが、例えば、レーザーレンジファインダ3の測定結果を3次元回転・平行移動することで計算することができる。
First, the shape color detection unit 19 differs in the installation position and installation angle of the camera 2 in the vehicle 1 from the installation position and installation angle of the laser range finder 3 in the vehicle 1 (however, the camera 2 and the laser range finder 3 The installation position and installation angle are known), and distance data, which is a measurement result of the laser range finder 3, is converted into relative coordinates of the camera 2 (step ST11 in FIG. 4).
Since the process itself for converting the measurement data of the laser range finder 3 into the relative coordinates of the camera 2 is a known technique, a detailed description thereof is omitted. For example, the measurement result of the laser range finder 3 is three-dimensionally rotated and translated. Can be calculated.

形状色検出部19は、レーザーレンジファインダ3の測定データをカメラ2の相対座標に変換すると、変換後の測定データのカメラ画像上での位置を特定する。
ただし、変換後の測定データのカメラ画像上での位置を特定する際、レーザーレンジファインダ3による距離データの測定頻度が、カメラ2による画像データの撮影頻度よりも高いので、その距離データをカメラ2の撮影時における車両の位置からの距離・位置に補正する必要がある。
そこで、形状色検出部19は、撮影時刻格納部15により格納されているカメラ2の撮影時刻と、測定時刻格納部18により格納されているレーザーレンジファインダ3の測定時刻とを参照して、実際に、レーザーレンジファインダ3により距離が測定された時点の車両位置と、その前にカメラ2により撮影された時点の車両位置との差(画像撮影時点の車両位置に対する距離測定時点の車両位置の相対位置)を計算する(ステップST12)。
なお、レーザーレンジファインダ3により距離が測定された時点の車両位置と、カメラ2により撮影された時点の車両位置としては、例えば、GPS受信機4の測定結果を利用するようにしてもよいし、後述する車両位置算出部21による過去の算出結果を利用するようにしてもよい。
When the shape color detection unit 19 converts the measurement data of the laser range finder 3 into the relative coordinates of the camera 2, the shape color detection unit 19 specifies the position of the converted measurement data on the camera image.
However, when the position of the converted measurement data on the camera image is specified, the distance data measurement frequency by the laser range finder 3 is higher than the imaging frequency of the image data by the camera 2, so the distance data is converted to the camera 2. It is necessary to correct the distance and position from the vehicle position at the time of shooting.
Therefore, the shape color detection unit 19 actually refers to the shooting time of the camera 2 stored in the shooting time storage unit 15 and the measurement time of the laser range finder 3 stored in the measurement time storage unit 18. Furthermore, the difference between the vehicle position at the time when the distance was measured by the laser range finder 3 and the vehicle position at the time when the camera 2 was photographed before that (the relative position of the vehicle position at the time of distance measurement to the vehicle position at the time of image capturing) (Position) is calculated (step ST12).
For example, the measurement result of the GPS receiver 4 may be used as the vehicle position when the distance is measured by the laser range finder 3 and the vehicle position when the distance is measured by the camera 2. You may make it utilize the past calculation result by the vehicle position calculation part 21 mentioned later.

形状色検出部19は、画像撮影時点の車両位置と距離測定時点の車両位置との差を計算すると、それらの車両位置の差を、先にカメラ2の相対座標に変換している距離データに加算することで、レーザーレンジファインダ3により距離が測定された地物のカメラ画像上での位置を計算する(ステップST13)
地物のカメラ画像上での位置を計算するに際して、カメラ2の諸元(例えば、画像サイズ、焦点距離など)は既知であるとする。
When the shape color detection unit 19 calculates the difference between the vehicle position at the time of image capturing and the vehicle position at the time of distance measurement, the difference between the vehicle positions is converted into distance data that has been converted into relative coordinates of the camera 2 first. By adding, the position on the camera image of the feature whose distance is measured by the laser range finder 3 is calculated (step ST13).
When calculating the position of the feature on the camera image, it is assumed that the specifications of the camera 2 (eg, image size, focal length, etc.) are known.

形状色検出部19は、レーザーレンジファインダ3により距離が測定された地物のカメラ画像上での位置を計算すると、その位置における画像の色を確認して、当該地物の色を特定する
即ち、形状色検出部19は、地物が存在するカメラ画像上の位置の画素の色を当該地物の色とする(ステップST14)。
形状色検出部19は、連続する一定時間内の距離データに対して、ステップST11〜ST14の処理を繰り返し実施することで、地物における複数の点の位置を求めて、地物の形状や地物の内部の色を把握する。
When the shape color detection unit 19 calculates the position of the feature whose distance is measured by the laser range finder 3 on the camera image, the shape color detection unit 19 confirms the color of the image at the position and specifies the color of the feature. The shape color detection unit 19 sets the color of the pixel at the position on the camera image where the feature exists as the color of the feature (step ST14).
The shape color detection unit 19 repeatedly performs the processes of steps ST11 to ST14 on the distance data within a certain period of time, thereby obtaining the positions of a plurality of points on the feature, thereby determining the shape of the feature and the ground. Know the color inside an object.

位置情報取得部20は、形状色検出部19が地物の形状及び色を検出すると、その地物の形状及び色が基準地物の形状及び色と一致するか否かを判別する(図3のステップST2)。
即ち、位置情報取得部20は、例えば、基準地物が信号機である場合、図5に示すように、地物の色として、「赤・黄・青(緑)」が連続して現れているか否かを確認し、「赤・黄・青(緑)」が連続して現れていれば、「赤・黄・青(緑)」の形状が円形として現れているか否かを確認する。
なお、形状が円形であるか否かを確認するに際して、「赤・黄・青(緑)」の連続が高さ方向で上下にも同様の形で現れている(連続して現れる個数が前後して現れている)か否かを確認する。
When the shape color detection unit 19 detects the shape and color of the feature, the position information acquisition unit 20 determines whether or not the shape and color of the feature matches the shape and color of the reference feature (FIG. 3). Step ST2).
That is, for example, if the reference feature is a traffic light, the position information acquisition unit 20 may continuously display “red / yellow / blue (green)” as the feature color as shown in FIG. If “red / yellow / blue (green)” appears continuously, it is confirmed whether or not the shape of “red / yellow / blue (green)” appears as a circle.
When confirming whether or not the shape is circular, a series of “red, yellow, and blue (green)” appears in the same direction in the vertical direction (the number of consecutive occurrences is around To see if it appears).

位置情報取得部20は、形状色検出部19により検出された地物の形状及び色が基準地物の形状及び色と一致する場合、GPS受信機4により測定された位置を参照して、その地物に対応する基準地物の位置情報が位置情報記録部11により記録されているか否かを確認する(ステップST3)。
例えば、GPS受信機4により測定された位置にレーザーレンジファインダ3による距離データを加算して、地物の概略の位置を求め、その概略の位置に近い位置を示す位置情報は、基準地物の位置情報であると判断する。
GPS受信機4により測定された位置は誤差を含み、地物の正確な位置を求めることはできないが、基準地物である信号機は、1〜2mの間に何個も設置されることはないので、多少の誤差は許容される。
ここでは、GPS受信機4により測定された位置を用いて、地物の概略の位置を求めているが、例えば、車両1が走っている道路の情報を参照して、基準地物である信号機を推測するようにしてもよい。
The position information acquisition unit 20 refers to the position measured by the GPS receiver 4 when the shape and color of the feature detected by the shape color detection unit 19 match the shape and color of the reference feature. It is confirmed whether or not the position information of the reference feature corresponding to the feature is recorded by the position information recording unit 11 (step ST3).
For example, the distance data obtained by the laser range finder 3 is added to the position measured by the GPS receiver 4 to obtain an approximate position of the feature, and the position information indicating the position close to the approximate position is obtained from the reference feature. Judged as position information.
The position measured by the GPS receiver 4 includes an error, and the exact position of the feature cannot be obtained. However, the number of traffic lights as reference features is not set between 1 and 2 m. Therefore, some errors are allowed.
Here, the approximate position of the feature is obtained using the position measured by the GPS receiver 4. For example, the traffic signal that is the reference feature is referred to with reference to the information on the road on which the vehicle 1 is running. You may make it guess.

位置情報取得部20は、形状色検出部19により形状及び色が検出された地物に対応する基準地物の正確な位置情報が位置情報記録部11により記録されていれば、その基準地物の正確な位置情報を車両位置算出部21に出力する。   If the position information recording unit 11 records the accurate position information of the reference feature corresponding to the feature whose shape and color have been detected by the shape color detection unit 19, the position information acquisition unit 20 can detect the reference feature. Is output to the vehicle position calculation unit 21.

車両位置算出部21は、位置情報取得部20から基準地物である信号機の正確な位置情報を受けると、その正確な位置情報と距離データ格納部17により格納されている距離データから車両1の位置を算出する。
以下、車両位置算出部21における車両1の位置算出処理を具体的に説明する。
When the vehicle position calculation unit 21 receives the accurate position information of the traffic signal as the reference feature from the position information acquisition unit 20, the vehicle position calculation unit 21 calculates the vehicle 1 from the accurate position information and the distance data stored in the distance data storage unit 17. Calculate the position.
Hereinafter, the position calculation process of the vehicle 1 in the vehicle position calculation part 21 is demonstrated concretely.

車両位置算出部21は、レーザーレンジファインダ3の測定結果である距離データを用いて、地物である信号機と車両1の相対位置を算出する(ステップST4)。
例えば、基準地物である信号機の位置情報として、信号機の黄色信号の中心の位置が測定されている場合、その信号機の黄色信号の中心の位置と車両1の相対位置を算出する。
車両位置算出部21は、地物である信号機と車両1の相対位置を算出すると、基準地物である信号機の正確な位置情報が示す信号機の真の位置を把握し、信号機の位置の座標系と、車両1の位置の座標系を合わせた上で、信号機の真の位置を上記の相対位置分だけ平行移動することで、車両1の位置を算出する(ステップST5)。
The vehicle position calculation unit 21 calculates the relative position between the traffic light that is the feature and the vehicle 1 using the distance data that is the measurement result of the laser range finder 3 (step ST4).
For example, when the position of the center of the yellow signal of the traffic light is measured as the position information of the traffic light that is the reference feature, the position of the center of the yellow signal of the traffic light and the relative position of the vehicle 1 are calculated.
When the vehicle position calculation unit 21 calculates the relative position of the traffic signal that is the feature and the vehicle 1, the vehicle position calculation unit 21 grasps the true position of the traffic signal indicated by the accurate position information of the traffic signal that is the reference feature, and the coordinate system of the position of the traffic signal Then, after the coordinate system of the position of the vehicle 1 is matched, the position of the vehicle 1 is calculated by translating the true position of the traffic light by the relative position (step ST5).

以上で明らかなように、この実施の形態1によれば、レーザーレンジファインダ3により距離が測定された地物のカメラ画像上での位置を特定し、その地物のカメラ画像上での位置から上記地物の形状及び色を検出する形状色検出部19と、形状色検出部19により検出された地物の形状及び色が基準地物の形状及び色と一致する場合、位置情報記録部11から上記基準地物の正確な位置情報を取得する位置情報取得部20とを設け、車両位置算出部21が位置情報取得部20により取得された基準地物の正確な位置情報とレーザーレンジファインダ3により測定された地物までの距離から車両1の位置を算出するように構成したので、車両1の位置を高精度に特定することができる効果を奏する。
この場合、車両位置算出部21により算出される位置の誤差は、レーザーレンジファインダ3の誤差と信号機の位置測定時の誤差によるが、GPS信号を受信して測位する場合と比べて高精度な測位が可能である。
As apparent from the above, according to the first embodiment, the position of the feature whose distance is measured by the laser range finder 3 is specified on the camera image, and the position of the feature on the camera image is determined. If the shape and color of the feature detected by the shape color detection unit 19 and the shape and color of the feature detected by the shape color detection unit 19 coincide with the shape and color of the reference feature, the position information recording unit 11 The position information acquisition unit 20 that acquires the accurate position information of the reference feature from the position information acquisition unit 20 is provided, and the vehicle position calculation unit 21 acquires the accurate position information of the reference feature acquired by the position information acquisition unit 20 and the laser range finder 3. Since the position of the vehicle 1 is calculated from the distance to the feature measured by the above, there is an effect that the position of the vehicle 1 can be specified with high accuracy.
In this case, the position error calculated by the vehicle position calculation unit 21 depends on the error of the laser range finder 3 and the error when measuring the position of the traffic light. However, the positioning error is more accurate than when positioning by receiving a GPS signal. Is possible.

なお、信号機は、各色が同時に2色点灯することはないため、状況によっては、1色しか取得できない場合がある。
その場合、同一の場所を複数回通過することによって、同一の場所を何度も取得し、信号の色すべてを取得する。この場合、取得時間に応じて位置関係がずれる可能性が高いが、信号機の認識の段階で多少のずれを許容することで目的は達成することができる。
Note that since the traffic light does not light two colors at the same time, only one color may be obtained depending on the situation.
In that case, the same place is acquired many times by passing through the same place multiple times, and all the colors of the signal are acquired. In this case, there is a high possibility that the positional relationship is shifted according to the acquisition time, but the object can be achieved by allowing a slight shift in the signal recognition stage.

実施の形態2.
上記実施の形態1では、基準地物が信号機である例を示したが、基準地物が信号機であるものに限るものではなく、例えば、基準地物が標識であってもよい。
標識も信号機と同様に、特徴的な形状と色を有している。
標識は、信号機と異なり、明滅がないため色の変化が少ない。また、信号機と同様に、道路上方に配置されることもあり、標識を検知対象の地物とすることができる。
Embodiment 2. FIG.
In the first embodiment, an example in which the reference feature is a traffic signal is shown. However, the reference feature is not limited to a traffic signal. For example, the reference feature may be a sign.
Like the traffic light, the sign has a characteristic shape and color.
Unlike traffic lights, signs do not flicker and have little color change. Moreover, like a traffic light, it may be arrange | positioned above a road and a sign can be made into the target object of a detection.

実施の形態3.
上記実施の形態1では、基準地物が信号機である例を示したが、基準地物が信号機であるものに限るものではなく、例えば、トンネルの入口のような場所を基準地物としてもよい。
トンネルの場合、信号機や標識と異なり、「車両上方が空いている(測定した距離データが存在しない)」ことを確認することで認識することができる(図6を参照)。
Embodiment 3 FIG.
In the first embodiment, an example in which the reference feature is a traffic signal is shown. However, the reference feature is not limited to a traffic signal. For example, a location such as a tunnel entrance may be used as the reference feature. .
In the case of a tunnel, unlike a traffic light or a sign, it can be recognized by confirming that “the vehicle is vacant (the measured distance data does not exist)” (see FIG. 6).

1 車両、2 カメラ(画像取得手段)、3 レーザーレンジファインダ(距離測定手段)、4 GPS受信機、11 位置情報記録部(位置情報記録手段)、12 制御部、13 画像データ取得部(画像取得手段)、14 画像データ格納部、15 撮影時刻格納部、16 距離データ取得部(距離測定手段)、17 距離データ格納部、18 測定時刻格納部、19 形状色検出部(形状色検出手段)、20 位置情報取得部(位置情報取得手段)、21 車両位置算出部(車両位置算出手段)。   DESCRIPTION OF SYMBOLS 1 Vehicle, 2 Cameras (image acquisition means), 3 Laser range finder (distance measurement means), 4 GPS receiver, 11 Position information recording part (position information recording means), 12 Control part, 13 Image data acquisition part (Image acquisition) Means), 14 image data storage section, 15 photographing time storage section, 16 distance data acquisition section (distance measurement means), 17 distance data storage section, 18 measurement time storage section, 19 shape color detection section (shape color detection means), 20 position information acquisition part (position information acquisition means), 21 vehicle position calculation part (vehicle position calculation means).

Claims (6)

予め特徴的な形状及び色を有している基準の地物の正確な位置情報を記録している位置情報記録手段と、車両の周囲を撮影して周囲の画像を取得する画像取得手段と、上記車両から周囲に存在している地物までの距離を測定する距離測定手段と、上記距離測定手段により距離が測定された地物の上記画像上での位置を特定し、上記地物の画像上での位置から上記地物の形状及び色を検出する形状色検出手段と、上記形状色検出手段により検出された地物の形状及び色が基準地物の形状及び色と一致する場合、上記位置情報記録手段から上記基準地物の正確な位置情報を取得する位置情報取得手段と、上記位置情報取得手段により取得された基準地物の正確な位置情報と上記距離測定手段により測定された地物までの距離から上記車両の位置を算出する車両位置算出手段とを備えた車両位置測定装置。   A position information recording unit that records accurate position information of a reference feature having a characteristic shape and color in advance, an image acquisition unit that captures a surrounding image of the vehicle, A distance measuring means for measuring a distance from the vehicle to a surrounding feature, a position on the image of the feature whose distance is measured by the distance measuring means, and an image of the feature When the shape color detection means for detecting the shape and color of the feature from the position above, and the shape and color of the feature detected by the shape color detection means match the shape and color of the reference feature, Position information acquisition means for acquiring accurate position information of the reference feature from the position information recording means, accurate position information of the reference feature acquired by the position information acquisition means, and the ground measured by the distance measurement means The position of the vehicle from the distance to the object Vehicle position measuring device and a vehicle position calculating means for output. 画像取得手段が車両の前方上部を撮影し、距離測定手段が車両の前方上部に存在している地物までの距離を測定することを特徴とする請求項1記載の車両位置測定装置。   2. The vehicle position measuring apparatus according to claim 1, wherein the image acquiring means photographs the upper front part of the vehicle, and the distance measuring means measures the distance to the feature existing in the upper front part of the vehicle. 地物が道路上の信号機であることを特徴とする請求項1または請求項2記載の車両位置測定装置。   3. The vehicle position measuring apparatus according to claim 1, wherein the feature is a traffic signal on a road. 地物が道路上の標識であることを特徴とする請求項1または請求項2記載の車両位置測定装置。   3. The vehicle position measuring device according to claim 1, wherein the feature is a road sign. 地物がトンネルであることを特徴とする請求項1または請求項2記載の車両位置測定装置。   3. The vehicle position measuring apparatus according to claim 1, wherein the feature is a tunnel. 予め特徴的な形状及び色を有している基準の地物の正確な位置情報を記録する位置情報記録処理手順と、車両の周囲を撮影して周囲の画像を取得する画像取得処理手順と、上記車両から周囲に存在している地物までの距離を測定する距離測定処理手順と、上記距離測定処理手順により距離が測定された地物の上記画像上での位置を特定し、上記地物の画像上での位置から上記地物の形状及び色を検出する形状色検出処理手順と、上記形状色検出処理手順により検出された地物の形状及び色が基準地物の形状及び色と一致する場合、上記位置情報記録処理手順から上記基準地物の正確な位置情報を取得する位置情報取得処理手順と、上記位置情報取得処理手順により取得された基準地物の正確な位置情報と上記距離測定処理手順により測定された地物までの距離から上記車両の位置を算出する車両位置算出処理手順とをコンピュータに実行させるための車両位置測定プログラム。   A position information recording processing procedure for recording accurate positional information of a reference feature having a characteristic shape and color in advance, an image acquisition processing procedure for capturing a surrounding image by photographing the surroundings of the vehicle, A distance measurement processing procedure for measuring a distance from the vehicle to the surrounding feature, and a position on the image of the feature whose distance is measured by the distance measurement processing procedure is specified; and The shape color detection processing procedure for detecting the shape and color of the feature from the position on the image of the image, and the shape and color of the feature detected by the shape color detection processing procedure match the shape and color of the reference feature The position information acquisition processing procedure for acquiring the accurate position information of the reference feature from the position information recording processing procedure, the accurate position information of the reference feature acquired by the position information acquisition processing procedure, and the distance. Measured by the measurement procedure Vehicle position measuring program for executing a vehicle position calculation processing procedure in a computer for calculating the distance from the vehicle position to the feature.
JP2009033916A 2009-02-17 2009-02-17 Vehicle position measuring instrument and vehicle position measuring program Pending JP2010190647A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009033916A JP2010190647A (en) 2009-02-17 2009-02-17 Vehicle position measuring instrument and vehicle position measuring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009033916A JP2010190647A (en) 2009-02-17 2009-02-17 Vehicle position measuring instrument and vehicle position measuring program

Publications (1)

Publication Number Publication Date
JP2010190647A true JP2010190647A (en) 2010-09-02

Family

ID=42816854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009033916A Pending JP2010190647A (en) 2009-02-17 2009-02-17 Vehicle position measuring instrument and vehicle position measuring program

Country Status (1)

Country Link
JP (1) JP2010190647A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011164069A (en) * 2010-02-15 2011-08-25 Mitsubishi Electric Corp Position correction system
JP2014048205A (en) * 2012-08-31 2014-03-17 Toyota Motor Corp Driving support system and driving support method
JP2015052548A (en) * 2013-09-09 2015-03-19 富士重工業株式会社 Vehicle exterior environment recognition device
WO2016093028A1 (en) * 2014-12-08 2016-06-16 日立オートモティブシステムズ株式会社 Host vehicle position estimation device
WO2018212290A1 (en) * 2017-05-19 2018-11-22 パイオニア株式会社 Information processing device, control method, program and storage medium
GB2569404A (en) * 2017-12-13 2019-06-19 Univ Xihua Positioning method and apparatus
KR20190139469A (en) * 2018-06-08 2019-12-18 한국도로공사 Method and system for evaluating accuracy of relative positional measurement performed by test camera module

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011164069A (en) * 2010-02-15 2011-08-25 Mitsubishi Electric Corp Position correction system
JP2014048205A (en) * 2012-08-31 2014-03-17 Toyota Motor Corp Driving support system and driving support method
JP2015052548A (en) * 2013-09-09 2015-03-19 富士重工業株式会社 Vehicle exterior environment recognition device
WO2016093028A1 (en) * 2014-12-08 2016-06-16 日立オートモティブシステムズ株式会社 Host vehicle position estimation device
JPWO2016093028A1 (en) * 2014-12-08 2017-09-07 日立オートモティブシステムズ株式会社 Own vehicle position estimation device
EP3232159A4 (en) * 2014-12-08 2018-08-15 Hitachi Automotive Systems, Ltd. Host vehicle position estimation device
US10718628B2 (en) 2014-12-08 2020-07-21 Hitachi Automotive Systems, Ltd. Host vehicle position estimation device
WO2018212290A1 (en) * 2017-05-19 2018-11-22 パイオニア株式会社 Information processing device, control method, program and storage medium
GB2569404A (en) * 2017-12-13 2019-06-19 Univ Xihua Positioning method and apparatus
GB2569404B (en) * 2017-12-13 2020-06-24 Univ Xihua Positioning method and apparatus
KR20190139469A (en) * 2018-06-08 2019-12-18 한국도로공사 Method and system for evaluating accuracy of relative positional measurement performed by test camera module
KR102136924B1 (en) 2018-06-08 2020-07-23 한국도로공사 Method and system for evaluating accuracy of relative positional measurement performed by test camera module

Similar Documents

Publication Publication Date Title
US10275661B2 (en) Image processing apparatus, image processing method, and computer program product
JP6241422B2 (en) Driving support device, driving support method, and recording medium for storing driving support program
WO2020253842A1 (en) Vehicle position and posture determination method and apparatus, and electronic device
US11519738B2 (en) Position calculating apparatus
JP5968064B2 (en) Traveling lane recognition device and traveling lane recognition method
JP2010190647A (en) Vehicle position measuring instrument and vehicle position measuring program
JP6759175B2 (en) Information processing equipment and information processing system
US20130147661A1 (en) System and method for optical landmark identification for gps error correction
JP2016048172A (en) Image processor, image processing method, and program
JP2004045227A (en) Instrument and method for measuring position of vehicle
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP2009250718A (en) Vehicle position detecting apparatus and vehicle position detection method
JP6395010B2 (en) Information provision system for billing location evaluation
JP2006330908A (en) Position recording device and position recording method
JP2008249555A (en) Position-specifying device, position-specifying method, and position-specifying program
CN112455502B (en) Train positioning method and device based on laser radar
JP2018036769A (en) Image processing apparatus, image processing method, and program for image processing
JP2009140402A (en) Information display device, information display method, information display program, and recording medium with recorded information display program
JP5506321B2 (en) Target Geographic Reference Method Using Video Analysis
JP5355443B2 (en) Position correction system
JP2011112556A (en) Search target position locating device, method, and computer program
KR20140064424A (en) Apparatus and method for recognizing position of car
US9014964B2 (en) Navigation apparatus capable of providing real-time navigation images
TW201621273A (en) Mobile positioning apparatus and positioning method thereof