JP2006010328A - Vehicle position identify device - Google Patents

Vehicle position identify device Download PDF

Info

Publication number
JP2006010328A
JP2006010328A JP2004183615A JP2004183615A JP2006010328A JP 2006010328 A JP2006010328 A JP 2006010328A JP 2004183615 A JP2004183615 A JP 2004183615A JP 2004183615 A JP2004183615 A JP 2004183615A JP 2006010328 A JP2006010328 A JP 2006010328A
Authority
JP
Japan
Prior art keywords
vehicle
lane
angle
vehicle position
traffic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004183615A
Other languages
Japanese (ja)
Other versions
JP4375549B2 (en
Inventor
Atsushi Sato
敦 佐藤
Seiichi Suzuki
誠一 鈴木
Toshihiro Mori
俊宏 森
Hideo Yamada
英夫 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2004183615A priority Critical patent/JP4375549B2/en
Publication of JP2006010328A publication Critical patent/JP2006010328A/en
Application granted granted Critical
Publication of JP4375549B2 publication Critical patent/JP4375549B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To more reliably identify the present position of a vehicle and a cruising lane. <P>SOLUTION: A signaler is imaged with a fisheye lens to calculate an elevation angle and horizontal angle with respect to the vehicle from an extracted signaler image. The present position of the vehicle is determined from those angles, and from the position coordinates and height of the signaler. Further, the cruising line is identified from distance in the road width direction between a roadway outside line and the signaler, and from the width of the lane. Since many signalers existing on the cruising road and on its periphery are imaged as imaging objects by a camera, it is possible to frequently determine an accurate vehicle position on the cruising road. Further, signalers that emit light at all times are used as objects of imaging and perceiving, it is possible to surely perceive and extract the signalers even in adverse environments such as nighttime or rainy weather. Accordingly, the position of the vehicle and its cruising lane can be surely determined even at nighttime, rainy weather, etc. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、車両位置特定装置に係り、例えば、走行している道路上の車両位置を特定する車両位置特定装置に関する。   The present invention relates to a vehicle position specifying device, for example, a vehicle position specifying device for specifying a vehicle position on a running road.

例えば、車両の走行経路を案内したり、画面表示された地図上に車両位置を表示する場合には車両の現在位置を特定する必要がある。車両の現在位置を特定する場合、ナビゲーションシステムにおいてGPSからの電波を受信して現在位置を特定することが従来から広く行われている。   For example, when the travel route of a vehicle is guided or the vehicle position is displayed on a map displayed on the screen, it is necessary to specify the current position of the vehicle. When the current position of the vehicle is specified, it has been widely performed in the navigation system to receive the radio wave from the GPS and specify the current position.

また、走行経路案内をする場合等において、例えば、単に右折の案内をするだけでなく、予め右折専用の車線に車線変更をする案内をする場合もある。
この場合、車両がどの車線を走行しているかを認識する必要があり、特許文献1において、車載カメラで路上の白線を撮像し、自車両の走行している位置、及び、走行車線を認識する技術が提案されている。
In the case of running route guidance, for example, there is a case in which guidance for changing a lane to a lane for exclusive use of a right turn is made in advance as well as guidance for a right turn.
In this case, it is necessary to recognize which lane the vehicle is traveling. In Patent Document 1, a white line on the road is imaged with an in-vehicle camera, and the traveling position of the host vehicle and the traveling lane are recognized. Technology has been proposed.

特開2003−65715号公報JP 2003-65715 A

しかし、GPSにより現在位置を特定する場合、大きい場合には100m〜200m程度の位置誤差が含まれているため正確な現在位置を特定することはできなかった。
また、特許文献1に記載した方法により路上の白線を認識し、自車両の走行車線を認識する場合、夜間や雨等の天候により視界が悪くなっている場合には、撮像画像から白線を正確に捉えることができないという問題がある。さらに、古い道路の場合、路上の白線が消えてしまっていることがあり、この場合にも白線を撮像画像から認識することが難しかった。
このように、自車両が走行する車線を白線の撮像画像から認識する方法では、認識精度の低下、又は認識不可能な場合があった。
However, when the current position is specified by GPS, if it is large, a position error of about 100 m to 200 m is included, so that the accurate current position cannot be specified.
In addition, when the white line on the road is recognized by the method described in Patent Document 1 and the traveling lane of the host vehicle is recognized, when the visibility is deteriorated due to the weather such as night or rain, the white line is accurately obtained from the captured image. There is a problem that can not be caught. Furthermore, in the case of an old road, the white line on the road may have disappeared. In this case as well, it is difficult to recognize the white line from the captured image.
Thus, in the method of recognizing the lane in which the host vehicle is traveling from the captured image of the white line, there are cases where the recognition accuracy is lowered or cannot be recognized.

そこで本発明は、車両の現在位置をより正確に特定することが可能な車両位置特定装置を提供することを第1の目的とする。
また、車両が走行している走行車線をより確実に特定することが可能な車両位置特定装置を提供することを第2の目的とする。
Accordingly, a first object of the present invention is to provide a vehicle position specifying device that can more accurately specify the current position of the vehicle.
It is a second object of the present invention to provide a vehicle position specifying device that can more reliably specify the traveling lane in which the vehicle is traveling.

請求項1に記載の発明では、信号機の位置データを取得する取得手段と、車両に配置され、前記信号機を撮像する撮像手段と、前記撮像した信号機と撮像画像中心点との相対角度を検出する相対角度検出手段と、前記検出した相対角度と、前記取得した信号機の位置データとから、車両位置を特定する位置特定手段と、を車両位置特定装置に具備させて前記第1の目的を達成する。
請求項2に記載した発明では、請求項1に記載の車両位置特定装置において、車両のオイラー角を検出するオイラー角検出手段と、をさらに備え、前記位置特定手段は、前記検出したオイラー角に基づき車両位置を特定することを特徴とする。
請求項3に記載した発明では、請求項1又は請求項2に記載の車両位置特定装置において、道路の車線数及び車線幅が格納された車線格納手段と、前記特定した車両位置と、前記格納された車線数及び車線幅とから、自車両が走行する走行車線を特定する車線特定手段と、を具備することで前記第2の目的を達成する。
According to the first aspect of the present invention, an acquisition unit that acquires traffic signal position data, an imaging unit that is disposed in a vehicle and captures the traffic signal, and a relative angle between the captured traffic signal and a captured image center point are detected. The vehicle position specifying device includes a relative angle detecting means, a position specifying means for specifying a vehicle position from the detected relative angle, and the acquired traffic signal position data, to achieve the first object. .
According to a second aspect of the present invention, the vehicle position specifying device according to the first aspect further comprises Euler angle detecting means for detecting a Euler angle of the vehicle, wherein the position specifying means is configured to detect the detected Euler angle. The vehicle position is specified based on the above.
According to a third aspect of the present invention, in the vehicle position specifying device according to the first or second aspect, the lane storing means storing the number of lanes and the lane width of the road, the specified vehicle position, and the storing The second object is achieved by including lane specifying means for specifying the traveling lane on which the host vehicle travels based on the number of lanes and the lane width.

請求項1に記載の発明では、信号機を撮像しているので、信号機の認識と、認識した信号機と撮像画像中心点との相対角度の検出をより確実に行うことができる。そして、検出した相対角度と、信号機の位置データとから、車両位置を特定するので、車両の現在位置をより正確に特定することができる。
また、請求項2に記載した発明では、更に車両のオイラー角を使用して車両位置を特定するので、更に正確な車両位置を特定することができる。
請求項3に記載した発明では、信号機の撮像により、正確に車両位置を特定するので、より確実に自車両が走行する走行車線を特定することができる。
According to the first aspect of the present invention, since the traffic light is imaged, the traffic light can be recognized and the relative angle between the recognized traffic light and the captured image center point can be detected more reliably. Since the vehicle position is specified from the detected relative angle and the traffic signal position data, the current position of the vehicle can be specified more accurately.
In the invention described in claim 2, since the vehicle position is further specified using the Euler angle of the vehicle, a more accurate vehicle position can be specified.
In the invention described in claim 3, since the vehicle position is accurately identified by imaging the traffic light, the traveling lane on which the host vehicle is traveling can be identified more reliably.

以下、本発明の車両位置特定装置における好適な実施の形態について、図1から図5を参照して詳細に説明する。
(1)実施形態の概要
本実施形態では、魚眼レンズカメラで撮像した信号機の位置から、自車両の位置と、走行車線を特定する。
すなわち、本実施形態では、車両の重心点Gを通る鉛直線上の車体上面に取り付けられた魚眼レンズ付きカメラを配置し、車両の周囲360度の範囲を撮像し、撮像画像中から、光源を有する交通標識としての信号機の画像を画像処理により抽出する。
撮像した信号機がどの信号機であるかについては、ナビゲーション装置などからおおまかな車両位置を取得することで特定する。そして特定した信号機の形状(縦型、横型、青色信号機の有無と取付位置等)に対応したパターンマッチング用のデータを使用して、撮像画像から信号機画像を抽出する。
Hereinafter, preferred embodiments of the vehicle position specifying device of the present invention will be described in detail with reference to FIGS. 1 to 5.
(1) Outline of Embodiment In the present embodiment, the position of the host vehicle and the traveling lane are specified from the position of the traffic light imaged by the fisheye lens camera.
That is, in this embodiment, a camera with a fisheye lens attached to the upper surface of the vehicle body on a vertical line passing through the center of gravity G of the vehicle is arranged, and a 360-degree range around the vehicle is imaged. An image of a traffic light as a sign is extracted by image processing.
Which traffic signal is the captured traffic signal is specified by acquiring a rough vehicle position from a navigation device or the like. A traffic signal image is extracted from the captured image using data for pattern matching corresponding to the shape of the traffic signal (vertical type, horizontal type, presence / absence of blue traffic light, and mounting position, etc.).

そして、撮像画像全体における抽出した信号機画像の位置から、信号機と車両との相対角度(仰角、水平角)が求まる。
さらに、相対角度と、信号機の設置位置(絶対位置)及び高さのデータとから、車両の信号機からの距離と、道路幅方向の距離とが求まる。
これにより、信号機の設置位置から車両の正確な位置が特定され、さらに、道路幅方向の距離と車線データ(車線数と車線幅)から車両の走行車線が特定される。
Then, the relative angle (elevation angle, horizontal angle) between the traffic signal and the vehicle is obtained from the position of the extracted traffic signal image in the entire captured image.
Further, the distance from the traffic signal of the vehicle and the distance in the road width direction are obtained from the relative angle and the data of the installation position (absolute position) and the height of the traffic signal.
Thereby, the exact position of the vehicle is specified from the installation position of the traffic light, and further, the traveling lane of the vehicle is specified from the distance in the road width direction and the lane data (number of lanes and lane width).

本実施形態では、常時光りを発している信号機を撮像及び認識の対象としているので、夜間、雨天などの環境による撮像画質への影響は少なく、また、信号機は白線のように消えるということは無いので、認識精度は白線認識と比較して格段に向上する。
また、魚眼レンズ(画角180度以上)を用いることで、車両の前後の信号機を撮像、認識し、両信号機からの距離に基づきより正確な車両位置を特定することができる。
In this embodiment, since a signal device that constantly emits light is an object to be imaged and recognized, there is little influence on the image quality due to an environment such as nighttime or rainy weather, and the signal device does not disappear like a white line. Therefore, the recognition accuracy is remarkably improved as compared with the white line recognition.
Further, by using a fish-eye lens (angle of view of 180 degrees or more), it is possible to capture and recognize traffic lights before and after the vehicle and specify a more accurate vehicle position based on the distance from both traffic lights.

(2)実施形態の詳細
図1は、車両位置特定装置を含む車載装置の構成を表したものである。
この図1に示すように、車両位置特定装置は、各種制御及び演算処理を行うCPU(中央演算装置)10を備えており、システムバスを介してカメラI/F(インターフェイス)11、画像メモリ12、ナビI/F13、RAM/ROM14、通信I/F15、メモリ16が接続されている。
また、車両位置特定装置は、魚眼レンズ19が配置され、撮像手段として機能するカメラ18を備えている。
(2) Details of Embodiment FIG. 1 shows a configuration of an in-vehicle device including a vehicle position specifying device.
As shown in FIG. 1, the vehicle position specifying device includes a CPU (Central Processing Unit) 10 that performs various types of control and arithmetic processing. A camera I / F (interface) 11 and an image memory 12 are connected via a system bus. A navigation I / F 13, a RAM / ROM 14, a communication I / F 15, and a memory 16 are connected.
In addition, the vehicle position specifying device includes a camera 18 on which a fisheye lens 19 is disposed and functions as an imaging unit.

CPU10は、RAM/ROM14のRAMを作業領域として、ROMその他の記憶装置に格納された各種プログラムを実行することで、信号機の位置データを取得する取得手段、撮像画像から信号機画像を抽出する抽出手段、信号機画像と車両との相対角度を検出する角度検出手段、相対角度と信号機位置データとから車両位置を特定する位置特定手段、特定した車両位置から走行車線を特定する車線特定手段その他の各種機能実現手段として、又は機能実現手段の一部として機能する。   The CPU 10 uses the RAM of the RAM / ROM 14 as a work area, executes various programs stored in the ROM and other storage devices, thereby obtaining acquisition means for acquiring traffic signal position data, and extraction means for extracting traffic light images from captured images. , Angle detection means for detecting the relative angle between the traffic signal image and the vehicle, position specifying means for specifying the vehicle position from the relative angle and the traffic signal position data, lane specifying means for specifying the driving lane from the specified vehicle position, and other various functions It functions as an implementation means or as part of a function implementation means.

カメラI/F11には、カメラ18が接続されている。
カメラ18は、図2に示されるように、車両本体(ボディ)上面の、車両の重心点Gを通る鉛直線上に配置される。魚眼レンズ19の光軸も重心点Gを通る鉛直線上に配置される。このように、カメラ18を重心点Gを通る鉛直線上に配置することで、ブレーキや遠心力等による車両の傾きに対してもカメラの設置高さHをほぼ一定に保つことが可能になる。
なお、魚眼レンズ19のみを車両本体上面に配置し、カメラ18を本体内に配置するようにしてもよい。
A camera 18 is connected to the camera I / F 11.
As shown in FIG. 2, the camera 18 is arranged on a vertical line passing through the center of gravity G of the vehicle on the upper surface of the vehicle main body (body). The optical axis of the fisheye lens 19 is also arranged on a vertical line passing through the center of gravity G. Thus, by arranging the camera 18 on the vertical line passing through the center of gravity G, it is possible to keep the camera installation height H substantially constant against the inclination of the vehicle due to braking, centrifugal force, or the like.
Only the fisheye lens 19 may be disposed on the upper surface of the vehicle main body, and the camera 18 may be disposed in the main body.

また、本実施形態における魚眼レンズ19の画角は180度であるが、それ以上の画角であってもよい。   In addition, the angle of view of the fisheye lens 19 in this embodiment is 180 degrees, but it may be larger than that.

カメラ18で撮像された撮像画像は画像メモリ12に格納される。
この画像メモリ12に格納された撮像画像から信号機を抽出し、その画像位置から車両に対する信号機の相対角が検出される。
The captured image captured by the camera 18 is stored in the image memory 12.
A traffic light is extracted from the captured image stored in the image memory 12, and the relative angle of the traffic light to the vehicle is detected from the image position.

ナビI/F13には、ナビゲーション装置21が接続されている。
ナビゲーション装置21は、GPS211(受信機)と地図データ212及び、図示しないコンピュータシステム(CPU、ROM、RAM等)を備えており、ディスプレイ(表示装置)22が接続されている。
地図データ212には、表示装置22に表示する地図情報の他、目的地までの経路探索に使用する道路データ、及び車線データ(車線数、車線幅等)が格納されている。
ナビゲーション装置21は、GPS211で受信する信号から大まかな車両の現在位置を検出して車線データと共に車両位置特定装置に送信し、車両位置特定装置からより正確な現在位置と走行車線、又はいずれか一方を取得する。
A navigation device 21 is connected to the navigation I / F 13.
The navigation device 21 includes a GPS 211 (receiver), map data 212, and a computer system (CPU, ROM, RAM, etc.) (not shown), and a display (display device) 22 is connected thereto.
In addition to the map information displayed on the display device 22, the map data 212 stores road data and lane data (number of lanes, lane width, etc.) used for route search to the destination.
The navigation device 21 detects a rough current position of the vehicle from the signal received by the GPS 211 and transmits it to the vehicle position specifying device together with the lane data, and the vehicle position specifying device provides a more accurate current position and / or driving lane. To get.

ナビゲーション装置21は、目的までの経路探索、探索した走行経路の案内、車両位置特定装置から取得した走行車線から経路案内における車線変更の案内等の各種機能を備えている。
なお、車両の現在位置については、車両位置特定装置で特定されたより正確な車両位置を使用するが、GPS211により検出した車両位置と地図データとのマップマッチングにより車両位置を特定することも可能である。
The navigation device 21 has various functions such as route search to a destination, guidance for a searched travel route, and guidance for lane change in route guidance from a travel lane acquired from the vehicle position specifying device.
As for the current position of the vehicle, the more accurate vehicle position specified by the vehicle position specifying device is used, but it is also possible to specify the vehicle position by map matching between the vehicle position detected by the GPS 211 and the map data. .

本実施形態では、地図データとGPSデータをナビゲーション装置から取得しているが、車両位置特定装置のメモリ(記憶装置)16に地図データを格納し、また、GPS211を車両位置特定装置が備えるようにしてもよい。   In this embodiment, map data and GPS data are acquired from the navigation device. However, the map data is stored in the memory (storage device) 16 of the vehicle position specifying device, and the vehicle position specifying device is provided with GPS 211. May be.

通信I/F15には、車両ECU24が接続されている。
車両ECU24は車両の走行に関連する各種制御を行う制御装置で、この車両ECU24には、オイラー角検出センサ25が接続されている。
オイラー角検出センサ25は、車両の水平面に対する角度(ピッチ角とロール角)及び鉛直面に対する角度(ヨー角)を検出するセンサである。
オイラー角検出センサ25で検出されたオイラー角は車両ECU24から、通信I/F15を介して車両位置特定装置に供給される。
A vehicle ECU 24 is connected to the communication I / F 15.
The vehicle ECU 24 is a control device that performs various controls related to the traveling of the vehicle, and an Euler angle detection sensor 25 is connected to the vehicle ECU 24.
The Euler angle detection sensor 25 is a sensor that detects an angle (pitch angle and roll angle) with respect to a horizontal plane of the vehicle and an angle (yaw angle) with respect to a vertical plane.
The Euler angle detected by the Euler angle detection sensor 25 is supplied from the vehicle ECU 24 to the vehicle position specifying device via the communication I / F 15.

図2に示されるように、重心点Gを原点とし、鉛直線をz軸、重心点Gを通る水平面で車両が直進する場合の進行方向をx軸、z軸とx軸に直交する軸をy軸とした場合、z軸がヨー軸、x軸がローリング軸、y軸がピッチング軸である。
そして、x軸上の点がz軸方向に移動した角度、すなわち、ピッチング軸(y軸)を中心に回転した角度がピッチ角である。
また、y軸上の点がz軸方向に移動した角度、すなわち、ローリング軸(x軸)を中心に回転した角度がロール角である。
x軸上の点がy軸方向に移動した角度、すなわち、ヨー軸(x軸)中心に回転した角度がヨー角である。
As shown in FIG. 2, the center of gravity G is the origin, the vertical line is the z axis, the traveling direction when the vehicle goes straight on the horizontal plane passing through the center of gravity G is the x axis, and the axis orthogonal to the z axis and the x axis is In the case of the y axis, the z axis is the yaw axis, the x axis is the rolling axis, and the y axis is the pitching axis.
The angle at which the point on the x-axis moves in the z-axis direction, that is, the angle rotated around the pitching axis (y-axis) is the pitch angle.
The roll angle is the angle at which the point on the y-axis is moved in the z-axis direction, that is, the angle rotated around the rolling axis (x-axis).
The angle at which the point on the x-axis moves in the y-axis direction, that is, the angle rotated about the yaw axis (x-axis) is the yaw angle.

本実施形態のオイラー角検出センサ25(図1)は、正確に振動している音叉により角速度を検出する3つの振動ジャイロセンサを備えており、各出力信号のそれぞれからピッチ角、ロール角、ヨー角を検出するようになっている。   The Euler angle detection sensor 25 (FIG. 1) of the present embodiment includes three vibration gyro sensors that detect angular velocities with a precisely vibrating tuning fork, and the pitch angle, roll angle, yaw from each output signal. A corner is detected.

なお、オイラー角検出センサ25としては、他に地磁気センサ、傾斜計等を用いて構成するようにしてもよい。
また、オイラー角検出センサ25による検出角度は直接車両信号I/F等から車両位置特定装置に供給するようにしてもよく、オイラー角検出センサ25自体を車両位置特定装置が備えるようにしてもよい。
The Euler angle detection sensor 25 may be configured using a geomagnetic sensor, an inclinometer, or the like.
Further, the detection angle by the Euler angle detection sensor 25 may be directly supplied to the vehicle position specifying device from the vehicle signal I / F or the like, or the Euler angle detection sensor 25 itself may be provided in the vehicle position specifying device. .

メモリ16には、信号機データ161とパターンマッチング用データ162、車両高データ163が格納されている。
信号機データ161は、信号機の位置データ(緯度、経度)、形式(形状)、高さH、車道境界線からの距離Lの各データが各信号機毎に格納されている。
信号機の形式(形状)は、縦長か横長か、青矢印式信号機の有無と有る場合にはその数と取付位置等に応じて決められている。
The memory 16 stores traffic signal data 161, pattern matching data 162, and vehicle height data 163.
In the traffic signal data 161, data of position data (latitude, longitude), format (shape), height H, distance L from the road boundary line is stored for each traffic signal.
The type (shape) of the traffic light is determined according to the number, the mounting position, etc., when it is vertically long or horizontally long, and when there is a blue arrow type traffic light.

パターンマッチング用データ162は、信号機データ161に格納されている各形式(形状)に対応したマッチング用の画像データが格納されている。
なお、信号機データとパターンマッチング用データの双方又は一方を、ナビゲーション装置21に格納するようにしてもよい。
車両高データ163には、自車両の高さ(撮像装置の高さ)Hを表すデータ等が格納される。
The pattern matching data 162 stores matching image data corresponding to each format (shape) stored in the traffic signal data 161.
Note that both or one of the traffic signal data and the pattern matching data may be stored in the navigation device 21.
The vehicle height data 163 stores data representing the height (height of the imaging device) H of the host vehicle.

次に、車両位置特定装置による、車両位置の特定方法について説明する。
図3は、信号機と車両の位置関係及び撮像した信号機画像の状態を表したものである。
図3(b)は、信号機A、信号機Bと、両信号機A、B間に存在する車両a〜fを上から見た状態を表したもので、図3(c)は側面から見た状態を表したものである。
また、図3(a)は、車両a〜fがカメラ18で撮像した信号機A、Bの撮像画像における位置関係を表したものである。
Next, a vehicle position specifying method by the vehicle position specifying device will be described.
FIG. 3 shows the positional relationship between the traffic signal and the vehicle and the state of the captured traffic signal image.
FIG. 3 (b) shows a state where the traffic lights A and B and the vehicles a to f existing between the traffic lights A and B are viewed from above, and FIG. 3 (c) is a state viewed from the side. It represents.
FIG. 3A shows the positional relationship in the captured images of the traffic lights A and B captured by the cameras a to f with the camera 18.

信号機に対する車両位置の算出について、信号機Aと車両aを例に説明する。
図3(b)、(c)に示されるように、信号機Aの中心点が高さH1で、車道外側線から車道中央線方向の距離がL1であるものとする。
また、車両aのカメラ18位置が、高さHで、車道外側線からの距離がL4で有るものとする。
The calculation of the vehicle position with respect to the traffic light will be described using traffic light A and vehicle a as an example.
As shown in FIGS. 3B and 3C, it is assumed that the central point of the traffic light A is the height H1, and the distance from the road outer line to the road center line is L1.
Further, it is assumed that the position of the camera 18 of the vehicle a is height H and the distance from the roadway outer line is L4.

まず、信号機Aから車両位置aまでの車線方向の距離Lxを求める。
信号機Aの高さH1及び自車の高さHは信号機データ161、車両高データ163から取得する。そして、車両a(車両aのカメラ18を意味する。以下同じ。)に対する信号機Aの仰角をθh1とすると、仰角θh1は、後述するように、信号機Aの撮像画像から求めることができる。
従って、Lxは次の式(1)で算出される。
First, the distance Lx in the lane direction from the traffic light A to the vehicle position a is obtained.
The height H 1 of the traffic light A and the height H of the own vehicle are acquired from the traffic light data 161 and the vehicle height data 163. When the elevation angle of the traffic light A with respect to the vehicle a (which means the camera 18 of the vehicle a. The same applies hereinafter) is θh1, the elevation angle θh1 can be obtained from the captured image of the traffic signal A as described later.
Therefore, Lx is calculated by the following equation (1).

Lx=(H1−H)/(tanθh1) (1)   Lx = (H1-H) / (tan θh1) (1)

そして、信号機Aから車両aまでの車線幅方向の距離Lyを求める。
Lyは、式(1)で求めたLxと、車両aに対する信号機Aの水平角をθa1とすると、次の式(2)から算出される。
なお、車道外側線からの信号機Aの位置L1は信号機データ161から取得し、水平角θa1は後述するように、信号機Aの撮像画像から算出する。
Then, a distance Ly in the lane width direction from the traffic light A to the vehicle a is obtained.
Ly is calculated from the following equation (2), where Lx obtained by equation (1) and the horizontal angle of the traffic light A with respect to the vehicle a is θa1.
The position L1 of the traffic light A from the roadway outer line is obtained from the traffic light data 161, and the horizontal angle θa1 is calculated from the captured image of the traffic light A as will be described later.

Ly=Lx×tanθa1 (2)   Ly = Lx × tan θa1 (2)

更に、車両の姿勢(傾き状態)を示す表すオイラー角に従ってLx、Lyを補正する。
オイラー角の3要素である、ヨー角をθY、ピッチ角をθP、ロール角をθRで表すと、補正後のLx、Lyは次の式(3)、(4)で表される。
Further, Lx and Ly are corrected in accordance with Euler angles representing the vehicle posture (tilt state).
If the yaw angle is represented by θY, the pitch angle is represented by θP, and the roll angle is represented by θR, which are the three elements of Euler angles, the corrected Lx and Ly are represented by the following equations (3) and (4).

Lx=(H1−H)/tan(θh1+θP+θR) (3)
Ly=〔(H1−H)/tan(θh1+θP+θR)〕×tan(θa1+θY) (4)
Lx = (H1−H) / tan (θh1 + θP + θR) (3)
Ly = [(H1−H) / tan (θh1 + θP + θR)] × tan (θa1 + θY) (4)

以上の式(3)、(4)で求めたLx、Ly及び、信号機Aの座標位置(X,Y)と距離L1から車両の正確な位置として、(X+Lx,Y+Ly+L1)が求まる。   (X + Lx, Y + Ly + L1) is obtained as an accurate position of the vehicle from Lx, Ly obtained by the above formulas (3) and (4) and the coordinate position (X, Y) of the traffic light A and the distance L1.

なお、信号機の座標が信号機Aの中心からではなくて支柱の座標である場合の車両位置は、(X+Lx,Y+Ly+L5)となる。
この場合のL5は、L5=L1+L4で、L4は、支柱から車道外側線までの距離であり、L1、L4、L5の内の少なくとも2つが信号機データ161に格納される。
Note that the vehicle position when the coordinates of the traffic light are not the center of the traffic light A but the coordinates of the column is (X + Lx, Y + Ly + L5).
In this case, L5 is L5 = L1 + L4, L4 is the distance from the support post to the roadway outer line, and at least two of L1, L4, and L5 are stored in the traffic light data 161.

更に、算出したLyと、道路車線情報(車線数と各車線の車線幅)とから、現在車両が走行している走行車線を認識することができる。
以上により、特定された車両位置および走行車線の双方又は一方は、例えば、ナビゲーション装置に送信されて、走行経路の案内用のデータとして使用される。
Furthermore, from the calculated Ly and road lane information (the number of lanes and the lane width of each lane), it is possible to recognize the travel lane in which the vehicle is currently traveling.
As described above, both or one of the specified vehicle position and travel lane is transmitted to, for example, a navigation device and used as data for guiding the travel route.

次に、カメラ18による信号機A、Bの撮像画像(魚眼画像)から、車両aの信号機Aに対する仰角θh1と水平各θa1の決定方法について説明する。
図3(a)において表示された各円形内の領域が撮像画像であり、撮像画像J1が車両a、bからの撮像画像、撮像画像J2が車両c、dからの撮像画像、撮像画像J3が車両e、fからの撮像画像である。ただし、両車両aとb、cとd、eとfからの撮像画像を合わせて表示しており、実際には6つの撮像画像が存在する。
Next, a method for determining the elevation angle θh1 and each horizontal θa1 with respect to the traffic light A of the vehicle a from the captured images (fisheye images) of the traffic lights A and B by the camera 18 will be described.
The area within each circle displayed in FIG. 3A is a captured image, the captured image J1 is a captured image from the vehicles a and b, the captured image J2 is a captured image from the vehicles c and d, and the captured image J3 is a captured image. It is a captured image from vehicles e and f. However, the captured images from both vehicles a and b, c and d, and e and f are displayed together, and there are actually six captured images.

図3(a)において、車両a〜fから前方に存在する信号機Aの撮像画像(信号機画像)がそれぞれAa〜Afであり、後方に存在する信号機Bの撮像画像がそれぞれBa〜Bfである。
そして、図3(b)に示されるように、車両が信号機Aに近づくに従って、車両の信号機Aに対する水平角は大きくなり、図3(a)に示されるように、撮像画像J中の信号機画像はAe→Ac→Aaというように、進行方向と並行な中心線から離れた位置に移動する。
この信号機画像Ae、Ac、Aaと撮像画像中心Oとを結ぶ線分と、進行方向と並行な中心線との角度が水平角θe1、θc1>θa1(θe1<θc1<θa1)である。
In FIG. 3A, the captured images (signal images) of the traffic light A existing ahead of the vehicles a to f are Aa to Af, respectively, and the captured images of the traffic light B existing rearward are Ba to Bf, respectively.
As shown in FIG. 3 (b), as the vehicle approaches the traffic light A, the horizontal angle of the vehicle with respect to the traffic light A increases, and as shown in FIG. 3 (a), the traffic signal image in the captured image J. Moves to a position away from the center line parallel to the traveling direction, such as Ae → Ac → Aa.
The angle between the line segment connecting the traffic signal images Ae, Ac, Aa and the captured image center O and the center line parallel to the traveling direction is the horizontal angle θe1, θc1> θa1 (θe1 <θc1 <θa1).

一方、カメラ18に対する信号機の仰角θhは、撮像画像中心Oから信号機画像までの距離から算出する。
図4は、仰角θhの算出方法を概念的に表したものである。
図4に示されるように、魚眼レンズ19の原点(撮像中心点)Oに対して仰角θhに存在する信号機からの光は、魚眼レンズ19で屈折され、撮像中心点Oから距離qの位置に結像したものとする。
この場合、撮像画像の半径をmとすると、式(5)から仰角θhが算出される。
On the other hand, the elevation angle θh of the traffic signal with respect to the camera 18 is calculated from the distance from the captured image center O to the traffic signal image.
FIG. 4 conceptually shows a method for calculating the elevation angle θh.
As shown in FIG. 4, the light from the traffic light existing at the elevation angle θh with respect to the origin (imaging center point) O of the fisheye lens 19 is refracted by the fisheye lens 19 and forms an image at a position q from the imaging center point O. Shall be.
In this case, if the radius of the captured image is m, the elevation angle θh is calculated from Equation (5).

θh=arcCOS(q/m) (5)   θh = arcCOS (q / m) (5)

なお、上記計算式(5)は画角180度の魚眼レンズを使用した場合の計算の1例であり、魚眼レンズの射影方式に応じた計算式が使用される。   The calculation formula (5) is an example of calculation when a fisheye lens having an angle of view of 180 degrees is used, and a calculation formula corresponding to the projection method of the fisheye lens is used.

次に、車両位置特定装置による走行車線特定処理の動作について説明する。
図5は、走行車線特定処理の動作を表したフローチャートである。
車両位置特定装置のCPU10は、ROMに格納された走行車線特定プログラムに従って、ナビI/F13を介して、GPS211で特定された車両のおおまかな現在位置と、現在位置に対応する走行道路の車線データ(車線数、及び車線幅等)をナビゲーション装置21に要求し、取得する(ステップ51)。
Next, the operation of the traveling lane specifying process by the vehicle position specifying device will be described.
FIG. 5 is a flowchart showing the operation of the traveling lane specifying process.
The CPU 10 of the vehicle position specifying device performs a rough current position of the vehicle specified by the GPS 211 via the navigation I / F 13 according to the driving lane specifying program stored in the ROM, and lane data of the driving road corresponding to the current position. Requests (acquires the number of lanes, lane width, etc.) to the navigation device 21 and acquires them (step 51).

CPU10は、取得した車線データから、車線数を判断する(ステップ52)。
走行車線の数が1車線の場合(ステップ52;N)、走行車線を認識する必要がないので、CPU10は処理終了してメインルーチンにリターンする。
ただし、走行車線を特定するだけではなく、撮像した信号機画像から車両位置を特定する場合には、車線数に関係なくステップ53に移行する。(すなわち、この場合にはステップ52の判断は行わない。)
CPU10 judges the number of lanes from the acquired lane data (step 52).
When the number of travel lanes is one lane (step 52; N), since there is no need to recognize the travel lane, the CPU 10 ends the process and returns to the main routine.
However, when not only specifying the traveling lane but also specifying the vehicle position from the captured traffic signal image, the process proceeds to step 53 regardless of the number of lanes. (That is, the determination in step 52 is not performed in this case.)

次にCPU10は、ステップ51で取得した自車両の現在位置と道路形状から、自車のカメラ18で撮像される信号機の位置を推測し、該推測した信号機のデータ(信号機の位置、形式、高さH、車道境界線からの距離L)をメモリ16の信号機データ161から取得する。   Next, the CPU 10 estimates the position of the traffic signal imaged by the camera 18 of the host vehicle from the current position of the host vehicle and the road shape acquired in step 51, and the estimated traffic signal data (signal position, type, height, H, the distance L from the road boundary line) is obtained from the traffic signal data 161 in the memory 16.

そして、CPU10は、カメラ18により、車両周辺の全方位(360度)の画像を撮像し、その撮像画像を画像メモリ12に格納することで、撮像画像を取得する(ステップ54)。   Then, the CPU 10 captures an image in all directions (360 degrees) around the vehicle with the camera 18 and stores the captured image in the image memory 12 to obtain a captured image (step 54).

ついでCPU10は、ステップ53で取得した信号機形式に対応する信号機画像データをパターンマッチング用データ162から読み出し、撮像画像とのパターンマッチングにより信号機画像を検出(抽出)し、車両(カメラ18)に対する信号機の仰角θhと水平角θa(撮像画像中心点Oに対してなす相対角度)を特定する(ステップ55)。
なお、パターンマッチングする範囲は、ステップ51で取得しておいた車線数と車線幅に基づき、範囲を決定する。これにより、マッチング処理の負荷を低減することが可能となる。
Next, the CPU 10 reads the traffic signal image data corresponding to the traffic signal format acquired in step 53 from the pattern matching data 162, detects (extracts) the traffic signal image by pattern matching with the captured image, and detects the traffic signal for the vehicle (camera 18). The elevation angle θh and the horizontal angle θa (relative angle formed with respect to the captured image center point O) are specified (step 55).
Note that the range for pattern matching is determined based on the number of lanes and the lane width acquired in step 51. Thereby, it is possible to reduce the load of the matching process.

CPU10は、車両の姿勢に伴ってカメラの傾きが変化することで測定に誤差が生じることを防ぐために、オイラー角検出センサ25で検出したオイラー角(ヨー角θY、ピッチ角θP、ロール角θR)を補正パラメータとして車両ECU24から取得する(ステップ56)。   The CPU 10 detects the Euler angles (yaw angle θY, pitch angle θP, roll angle θR) detected by the Euler angle detection sensor 25 in order to prevent an error in measurement due to the tilt of the camera changing according to the posture of the vehicle. Is obtained from the vehicle ECU 24 as a correction parameter (step 56).

CPU10は、それぞれ取得、算出した信号機の座標(X、Y)、信号機の高さHと距離L1、仰角θh、水平角θa、ヨー角θY、ピッチ角θP、ロール角θRを用いて式(3)、(4)から、信号機から車両位置までの車線方向の距離Lxと、車線幅方向の距離Lyを算出する(ステップ57)。
なお、算出したLx、Ly及び、信号機Aの座標位置(X,Y)と距離L1から、車両の正確な位置(X+Lx,Y+Ly+L1)まで求めて、ナビゲーション装置21に供給するようにしてもよい。
The CPU 10 uses the obtained and calculated traffic light coordinates (X, Y), the traffic light height H and distance L1, the elevation angle θh, the horizontal angle θa, the yaw angle θY, the pitch angle θP, and the roll angle θR to formula (3). ), (4), the distance Lx in the lane direction from the traffic light to the vehicle position and the distance Ly in the lane width direction are calculated (step 57).
In addition, from the calculated Lx, Ly, and the coordinate position (X, Y) of the traffic light A and the distance L1, an accurate position (X + Lx, Y + Ly + L1) of the vehicle may be obtained and supplied to the navigation device 21.

次にCPU10は、算出したLyと、道路車線情報(車線数と各車線の車線幅)とから、現在車両が走行している走行車線を特定し(ステップ58)、特定した走行車線を示す走行車線データをナビI/F13を介してナビゲーション装置21に供給して(ステップ59)、メインルーチンにリターンする。   Next, the CPU 10 identifies the travel lane in which the vehicle is currently traveling from the calculated Ly and road lane information (the number of lanes and the lane width of each lane) (step 58), and travel indicating the identified travel lane. The lane data is supplied to the navigation device 21 via the navigation I / F 13 (step 59), and the process returns to the main routine.

ナビゲーション装置21では、特定された走行車線データに基づいて、車線案内に使用する。すなわち、ナビゲーション装置21は、右折や左折の案内をする前に、右左折可能な走行車線を走行しているか否かを判断し、走行していなければ車線変更を促す案内を音声や画像表示により行う。   The navigation device 21 is used for lane guidance based on the identified travel lane data. That is, the navigation device 21 determines whether or not the vehicle is traveling in a driving lane where the vehicle can make a right or left turn before giving a right or left turn guidance. Do.

また、車両位置特定装置のCPU10は、走行している自車両の位置が車線(車道外側線、車線境界線、車道中央線)を跨いで走行していると判断された場合、どの車線を跨いでいるかを示す警告情報をナビゲーション装置21に供給する。
ナビゲーション装置21では、受信した警告情報に従って、音声や表示により運転者に警告をするようにしてもよい。その際、警告と共に、どちらに移動すべきかを告知するようにしてもよい。
Further, the CPU 10 of the vehicle position specifying device crosses which lane when it is determined that the position of the traveling vehicle crosses the lane (the road outer line, the lane boundary line, the road center line). Warning information indicating whether or not the vehicle is in operation is supplied to the navigation device 21.
The navigation device 21 may warn the driver by voice or display according to the received warning information. In that case, you may make it notify to which direction it should move with a warning.

以上説明したように本実施形態の車両位置特定装置によれば、信号機を魚眼レンズで撮像し、その撮像画像から抽出した信号機画像から車両(撮像カメラ)に対する信号機の仰角と水平角を算出し、これと撮像した信号機の位置座標と高さのデータとから車両のより正確な現在位置を特定することができる。
更に、車道外側線から信号機までの道路幅方向の距離と、斜線データ(車線数と車線幅)とから、車両が現在走行している走行車線を特定することができる。
As described above, according to the vehicle position specifying apparatus of the present embodiment, the traffic light is imaged with a fisheye lens, and the elevation angle and horizontal angle of the traffic signal with respect to the vehicle (imaging camera) are calculated from the traffic signal image extracted from the captured image. Further, it is possible to specify a more accurate current position of the vehicle from the position coordinates and height data of the captured traffic signal.
Furthermore, the travel lane in which the vehicle is currently traveling can be identified from the distance in the road width direction from the roadway outer line to the traffic light and the oblique line data (number of lanes and lane width).

そして、本実施形態によれば、カメラによる撮像対象として、走行する道路上及び周辺に多数存在する信号機を撮像するようにしているので、頻繁に走行道路上の正確な車両位置を特定することが可能になる。
また、常時光りを発している信号機(光源を有する交通標識)を撮像及び認識の対象としているので、夜間、雨天などの悪環境であっても、確実に信号機の認識、抽出が可能になる。従って、夜間や雨天等であっても、車両位置や走行車線を確実に特定することができる。
また、魚眼レンズ(画角180度以上)を用いることで、車両の前後の信号機を撮像、認識することで、両信号機からの距離に基づき、より正確な車両位置を特定することができる。
And according to this embodiment, since it is trying to image many traffic lights which exist on the road which runs, and its circumference as a subject for imaging with a camera, it is possible to frequently specify an accurate vehicle position on the road. It becomes possible.
In addition, since a traffic light (traffic sign having a light source) that constantly emits light is a target for imaging and recognition, the traffic light can be reliably recognized and extracted even in a bad environment such as nighttime and rainy weather. Therefore, the vehicle position and the traveling lane can be reliably specified even at night or in the rainy weather.
Further, by using a fisheye lens (angle of view of 180 degrees or more), it is possible to specify a more accurate vehicle position based on the distance from both traffic lights by capturing and recognizing the traffic lights before and after the vehicle.

以上、本発明の車両位置特定装置における1実施形態について説明したが、本発明は説明した実施形態に限定されるものではなく、各請求項に記載した範囲において各種の変形を行うことが可能である。
例えば、説明した実施形態では、魚眼レンズによる撮像画像の全領域に対して信号機画像データ(パターンマッチング用データ)のパターンマッチングを行うことで信号機画像を抽出する場合について説明したが、撮像画像内の特定の領域、例えば前後約45度の領域についてパターンマッチングを行うことで、その領域内に存在する信号機画像を抽出するようにしてもよい。
このように、撮像画像の全領域のうち、特定領域内に存在する信号機を抽出対象とすることで、車両位置や走行車線の特定に有効な位置に存在する信号機に限定して抽出することが可能になると共に、画像処理(パターンマッチング処理)に伴う処理負荷も低減できる。
As mentioned above, although one embodiment in the vehicle position specifying device of the present invention has been described, the present invention is not limited to the described embodiment, and various modifications can be made within the scope described in each claim. is there.
For example, in the embodiment described above, a case has been described in which a traffic signal image is extracted by performing pattern matching of traffic signal image data (pattern matching data) on the entire region of a captured image by a fisheye lens. For example, a signal image existing in the area may be extracted by performing pattern matching on this area, for example, an area of about 45 degrees before and after.
In this way, by extracting the traffic lights existing in the specific area out of the entire area of the captured image, it is possible to extract only the traffic lights existing at positions effective for specifying the vehicle position and the traveling lane. In addition, the processing load associated with image processing (pattern matching processing) can be reduced.

説明した実施形態では、魚眼レンズを用いて車両の周囲360度の範囲を撮像するようにしたが、魚眼レンズ以外に広角レンズを使用するようにしてもよい。この場合、車両の前後の信号機を撮像する場合には、前後用2つのカメラを設置することになる。
そして、広角レンズの撮像範囲としては、車両に対して、車両位置や走行車線の特定に有効な位置(領域内)に存在する信号機を撮像可能な画角のレンズを使用する。
この場合、撮像画像から、撮像画像中心(カメラ)に対する信号機の仰角と水平角の算出式は、使用する広角レンズに対応した式を使用する。
In the embodiment described, a 360-degree range around the vehicle is imaged using a fisheye lens, but a wide-angle lens may be used in addition to the fisheye lens. In this case, when imaging the traffic lights before and after the vehicle, two front and rear cameras are installed.
Then, as the imaging range of the wide-angle lens, a lens having an angle of view capable of imaging a traffic signal existing at a position (in a region) effective for specifying the vehicle position and the traveling lane is used for the vehicle.
In this case, the calculation formula for the elevation angle and the horizontal angle of the traffic light with respect to the center of the captured image (camera) from the captured image is an expression corresponding to the wide-angle lens to be used.

説明した実施形態では、カメラ18による信号機の撮像は、所定時間間隔毎に撮像することを前提に説明したが、車両の位置や走行車線の特定が必要なときに撮像するようにしてもよい。
例えば、ナビゲーション装置21による走行経路の案内中で、右左折等の進路変更の案内を実行する所定距離手前において、走行車線を変更する案内の必要があるか否かを判断するために、ナビゲーション装置21からの要求に応じて走行車線を特定するために撮像を行う。
In the described embodiment, the traffic signal is captured by the camera 18 on the premise that the traffic signal is captured at predetermined time intervals. However, the signal may be captured when it is necessary to specify the position of the vehicle or the traveling lane.
For example, in order to determine whether or not there is a need to provide guidance for changing the travel lane before a predetermined distance for executing a route change guidance such as turning right or left during guidance of a travel route by the navigation device 21, the navigation device Imaging is performed in order to identify the traveling lane in response to a request from 21.

また、ナビゲーション装置21において、通常はGPS211により特定した車両位置とマップマッチングを行い、より正確な車両位置を特定する必要がある場合に撮像するようにしてもよい。例えば、複雑な交差点を通過する前後において、走行道路を正確に特定するために、信号機の撮像を行い、正確な車両位置を特定するようにする。   Further, the navigation device 21 may normally perform map matching with the vehicle position specified by the GPS 211 and take an image when it is necessary to specify a more accurate vehicle position. For example, in order to accurately specify the traveling road before and after passing through a complicated intersection, the traffic light is imaged and the accurate vehicle position is specified.

また、車両位置の特定に有効な信号機と車両との位置関係(距離)に車両が到達したとき等に撮像するようにしてもよい。
例えば、ナビゲーション装置21から取得するおおまかな車両位置と信号機との距離が、ナビゲーション装置21の誤差を考慮した一定の距離Umに到達した際に撮像するようにしてもよい。
Alternatively, an image may be taken when the vehicle reaches the positional relationship (distance) between the traffic light effective for specifying the vehicle position and the vehicle.
For example, an image may be taken when the distance between the approximate vehicle position acquired from the navigation device 21 and the traffic signal reaches a certain distance Um considering the error of the navigation device 21.

また、カメラ11による撮像をする場合、ステアリング角センサからの検出角を取得し、ステアリング角が0度、すなわちハンドルを切っていない場合に信号機を撮像するようにしてもよい。これにより、車線変更等で走行車線に対して車両が傾いていることによる、車両位置や走行車線の誤認識を回避することができる。
また、ステアリング角0度で所定距離、または所定時間走行した後に撮像することで、より車両の傾きの可能性を少なくするようにしてもよい。
Moreover, when imaging with the camera 11, the detection angle from a steering angle sensor is acquired, and when a steering angle is 0 degree | times, ie, the steering wheel is not turned, you may make it image a traffic light. Thereby, it is possible to avoid erroneous recognition of the vehicle position and the traveling lane due to the vehicle being inclined with respect to the traveling lane due to a lane change or the like.
Further, the possibility of the vehicle leaning may be further reduced by taking an image after traveling a predetermined distance or a predetermined time at a steering angle of 0 degree.

説明した実施形態では、信号機画像の抽出をパターンマッチング用データとのマッチング処理により抽出していたが、他の各種公知の方法により信号機画像を抽出するようにしてもよい。
例えば、撮像画像をHSV表色系で2値化し、輝点の位置から、撮像画像における信号機の位置を特定するようにしてもよい。
In the described embodiment, the signal image is extracted by the matching process with the pattern matching data. However, the signal image may be extracted by various other known methods.
For example, the captured image may be binarized using the HSV color system, and the position of the traffic light in the captured image may be specified from the position of the bright spot.

本発明の実施形態における車両位置特定装置を含む車載装置の構成図である。It is a lineblock diagram of an in-vehicle device containing a vehicle position specific device in an embodiment of the present invention. 同上、実施形態におけるカメラの配置及び車両のオイラー角について表した説明図である。It is explanatory drawing showing the arrangement | positioning of the camera and Euler angle of a vehicle in embodiment same as the above. 同上、実施形態における信号機と車両の位置関係及び撮像した信号機画像の状態を表した説明図である。It is explanatory drawing showing the positional relationship of the signal apparatus and vehicle in embodiment, and the state of the imaged signal apparatus image as above. 同上、実施形態において仰角θhの算出方法を説明するための概念図である。It is a conceptual diagram for demonstrating the calculation method of elevation angle (theta) h in embodiment same as the above. 同上、実施形態における走行車線特定処理の動作を表したフローチャートである。It is a flowchart showing operation | movement of the traveling lane identification process in embodiment same as the above.

符号の説明Explanation of symbols

10 CPU
11 カメラI/F
12 画像メモリ
13 ナビI/F
14 RAM/ROM
15 通信I/F
16 メモリ
161 信号機データ
162 パターンマッチング用データ
18 カメラ
19 魚眼レンズ
21 ナビゲーション装置
211 GPS
212 地図データ
22 ディスプレイ
24 車両ECU
25 オイラー角検出センサ
10 CPU
11 Camera I / F
12 Image memory 13 Navi I / F
14 RAM / ROM
15 Communication I / F
16 Memory 161 Signal data 162 Pattern matching data 18 Camera 19 Fisheye lens 21 Navigation device 211 GPS
212 Map data 22 Display 24 Vehicle ECU
25 Euler angle sensor

Claims (3)

信号機の位置データを取得する取得手段と、
車両に配置され、前記信号機を撮像する撮像手段と、
前記撮像した信号機と撮像画像中心点との相対角度を検出する相対角度検出手段と、
前記検出した相対角度と、前記取得した信号機の位置データとから、車両位置を特定する位置特定手段と、
を具備することを特徴とする車両位置特定装置。
Acquisition means for acquiring traffic signal position data;
An imaging means disposed in a vehicle for imaging the traffic light;
A relative angle detecting means for detecting a relative angle between the picked-up traffic signal and a picked-up image center point;
A position specifying means for specifying a vehicle position from the detected relative angle and the acquired position data of the traffic light;
A vehicle position specifying device comprising:
車両のオイラー角を検出するオイラー角検出手段と、をさらに備え、
前記位置特定手段は、前記検出したオイラー角に基づき車両位置を特定する
ことを特徴とする請求項1に記載の車両位置特定装置。
Euler angle detection means for detecting the Euler angle of the vehicle, and
The vehicle position specifying device according to claim 1, wherein the position specifying unit specifies a vehicle position based on the detected Euler angle.
道路の車線数及び車線幅が格納された車線格納手段と、
前記特定した車両位置と、前記格納された車線数及び車線幅とから、自車両が走行する走行車線を特定する車線特定手段と、
を具備することを特徴とする請求項1又は請求項2に記載の車両位置特定装置。
Lane storage means for storing the number of road lanes and the lane width;
Lane identifying means for identifying a travel lane in which the host vehicle travels from the identified vehicle position and the stored number of lanes and lane width;
The vehicle position specifying device according to claim 1 or 2, further comprising:
JP2004183615A 2004-06-22 2004-06-22 Vehicle positioning device Expired - Fee Related JP4375549B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004183615A JP4375549B2 (en) 2004-06-22 2004-06-22 Vehicle positioning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004183615A JP4375549B2 (en) 2004-06-22 2004-06-22 Vehicle positioning device

Publications (2)

Publication Number Publication Date
JP2006010328A true JP2006010328A (en) 2006-01-12
JP4375549B2 JP4375549B2 (en) 2009-12-02

Family

ID=35777767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004183615A Expired - Fee Related JP4375549B2 (en) 2004-06-22 2004-06-22 Vehicle positioning device

Country Status (1)

Country Link
JP (1) JP4375549B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232690A (en) * 2006-03-03 2007-09-13 Denso Corp Present position detection apparatus, map display device and present position detecting method
JP2008157636A (en) * 2006-12-20 2008-07-10 Aisin Aw Co Ltd Vehicle self-localization method and vehicle self-localizing apparatus
WO2009098319A2 (en) * 2008-02-09 2009-08-13 Trw Limited Navigational device for a vehicle
KR101301667B1 (en) 2010-07-13 2013-08-29 유민규 Method for measuring distance, height, length using mobile communication terminal
WO2014091877A1 (en) 2012-12-12 2014-06-19 日産自動車株式会社 Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
JP2016062308A (en) * 2014-09-18 2016-04-25 富士重工業株式会社 Vehicle outside environment recognition device
KR20160123203A (en) * 2015-04-15 2016-10-25 한양대학교 산학협력단 Road sign detection-based driving lane estimation method and apparatus
CN110199294A (en) * 2017-02-28 2019-09-03 康蒂-特米克微电子有限公司 For the device and method in motor vehicle detecting traffic lights stage

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232690A (en) * 2006-03-03 2007-09-13 Denso Corp Present position detection apparatus, map display device and present position detecting method
JP2008157636A (en) * 2006-12-20 2008-07-10 Aisin Aw Co Ltd Vehicle self-localization method and vehicle self-localizing apparatus
JP4677981B2 (en) * 2006-12-20 2011-04-27 アイシン・エィ・ダブリュ株式会社 Own vehicle position identification method and own vehicle position identification device
WO2009098319A2 (en) * 2008-02-09 2009-08-13 Trw Limited Navigational device for a vehicle
WO2009098319A3 (en) * 2008-02-09 2009-10-29 Trw Limited Navigational device for a vehicle
KR101301667B1 (en) 2010-07-13 2013-08-29 유민규 Method for measuring distance, height, length using mobile communication terminal
JP5962771B2 (en) * 2012-12-12 2016-08-03 日産自動車株式会社 Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
WO2014091877A1 (en) 2012-12-12 2014-06-19 日産自動車株式会社 Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
JPWO2014091877A1 (en) * 2012-12-12 2017-01-05 日産自動車株式会社 Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
US9740942B2 (en) 2012-12-12 2017-08-22 Nissan Motor Co., Ltd. Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
JP2016062308A (en) * 2014-09-18 2016-04-25 富士重工業株式会社 Vehicle outside environment recognition device
KR20160123203A (en) * 2015-04-15 2016-10-25 한양대학교 산학협력단 Road sign detection-based driving lane estimation method and apparatus
KR101706455B1 (en) * 2015-04-15 2017-02-27 한양대학교 산학협력단 Road sign detection-based driving lane estimation method and apparatus
CN110199294A (en) * 2017-02-28 2019-09-03 康蒂-特米克微电子有限公司 For the device and method in motor vehicle detecting traffic lights stage
JP2020509452A (en) * 2017-02-28 2020-03-26 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Vehicle signal indication detection apparatus and method
JP7295020B2 (en) 2017-02-28 2023-06-20 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング VEHICLE SIGNAL PRESENT DETECTION DEVICE AND METHOD

Also Published As

Publication number Publication date
JP4375549B2 (en) 2009-12-02

Similar Documents

Publication Publication Date Title
US8239131B2 (en) Navigation device, navigation method, and navigation program
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
US9389093B2 (en) Traffic signal recognition apparatus
JP4973736B2 (en) Road marking recognition device, road marking recognition method, and road marking recognition program
US20090248284A1 (en) Travel support system and travel support method
KR101704405B1 (en) System and method for lane recognition
JP2011013039A (en) Lane determination device and navigation system
JP2006209511A (en) Image recognition device and method, position specification device using it, vehicle controller, and navigation device
JP6129268B2 (en) Vehicle driving support system and driving support method
JP4483305B2 (en) Vehicle periphery monitoring device
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP2009211624A (en) Driving support device, driving support method, and computer program
JP2008157636A (en) Vehicle self-localization method and vehicle self-localizing apparatus
US11650321B2 (en) Apparatus and method for detecting tilt of LiDAR apparatus mounted to vehicle
JP2008165326A (en) Feature recognition device, own vehicle location recognizing device, navigation device and feature recognition method
JP4375549B2 (en) Vehicle positioning device
JP4968369B2 (en) In-vehicle device and vehicle recognition method
JP4953015B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same
JP2006344133A (en) Road division line detector
JP2007140992A (en) Method and device for supporting driving at intersection
JP4687381B2 (en) Vehicle recognition method and in-vehicle device
JP2940366B2 (en) Object tracking recognition device
JP2007071539A (en) On-vehicle navigation device
JP3304905B2 (en) Object tracking recognition device
JP2007010515A (en) Navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Ref document number: 4375549

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090901

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130918

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees