JP2002318130A - Traveling lane detecting device and navigation apparatus - Google Patents

Traveling lane detecting device and navigation apparatus

Info

Publication number
JP2002318130A
JP2002318130A JP2002008179A JP2002008179A JP2002318130A JP 2002318130 A JP2002318130 A JP 2002318130A JP 2002008179 A JP2002008179 A JP 2002008179A JP 2002008179 A JP2002008179 A JP 2002008179A JP 2002318130 A JP2002318130 A JP 2002318130A
Authority
JP
Japan
Prior art keywords
lane
detecting
traveling
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002008179A
Other languages
Japanese (ja)
Inventor
Koichi Sato
幸一 佐藤
Yasuo Muto
泰夫 武藤
Original Assignee
Alpine Electronics Inc
アルパイン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2001035261 priority Critical
Priority to JP2001-35261 priority
Application filed by Alpine Electronics Inc, アルパイン株式会社 filed Critical Alpine Electronics Inc
Priority to JP2002008179A priority patent/JP2002318130A/en
Publication of JP2002318130A publication Critical patent/JP2002318130A/en
Granted legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a traveling lane detecting device and a navigation apparatus capable of detecting a traveling lane and adequately guiding. SOLUTION: A white line detecting part 16 detects a white line plotted on a road on the basis of image data. A traveling lane determining part 26 determines a traveling lane of one's own vehicle on the basis of a detection result of the white line. A section line detecting part 18 and a traffic sign detecting part 20 respectively detect a type of a section line and a traffic sign relating to the traveling lane, and an obstacle detecting part 22 detects various kinds of obstacles. A lane attribution determining part 28 determines an attribution of the lane on the basis of a determination result by the traveling lane determining part 26, and respective detection results by the section line detecting part 18, the traffic sign detecting part 20, and the obstacle detecting part 22, and output a determination result to the navigation apparatus 2.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION
【0001】[0001]
【発明の属する技術分野】本発明は、自車が走行してい
るレーン(車線)やこの走行レーンに関連する各種の情
報(属性)を検知する走行レーン検知装置、および走行
レーンに関する情報の検知結果を考慮した案内を行うナ
ビゲーション装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a traveling lane detecting device for detecting a lane (lane) in which a vehicle is traveling and various kinds of information (attributes) related to the traveling lane, and detecting information relating to the traveling lane. The present invention relates to a navigation device that performs guidance in consideration of a result.
【0002】なお、本明細書中では、道路上において、
各レーンの区切りを示すために描画されている白色や黄
色などの線(点線等も含む)を全て「白線」と称するも
のとする。また、本明細書中における「区画線」とは、
上述した各線の他、制限速度や進路情報あるいは横断歩
道などを示すために道路上に描かれている文字や図形等
をいうものとする。具体的には、「道路標識、区画線及
び道路標示に関する命令」(総理府令第3号)の区画線
および道路標示を総じて「区画線」とする。
[0002] In this specification, on a road,
Lines such as white and yellow (including dotted lines) drawn to indicate the boundaries of the lanes are all referred to as “white lines”. In addition, the “compartment line” in the present specification is:
In addition to the above-described lines, it refers to characters, figures, and the like drawn on the road to indicate speed limit, course information, pedestrian crossings, and the like. More specifically, the lane markings and the road markings of the “Order concerning road signs, lane markings and road markings” (Primary Ministerial Ordinance No. 3) are generally referred to as “lane markings”.
【0003】[0003]
【従来の技術】従来から、車両の運転操作を支援するた
めのものとして、白線や道路標識等の道路環境を検知す
る装置や、車両位置周辺の地図表示等を行うナビゲーシ
ョン装置などが知られている。
2. Description of the Related Art Conventionally, a device for detecting a road environment such as a white line or a road sign, a navigation device for displaying a map around a vehicle position, and the like have been known as devices for supporting a driving operation of a vehicle. I have.
【0004】白線検知装置は、車両に設置されたカメラ
により撮影される画像などに基づいて道路上の白線を検
知し、車両が走行レーンから逸脱した場合に所定の警告
(アラーム音など)を出力する等の動作を行うことによ
り、運転操作の支援を行う。また、白線検知装置による
検知結果に基づいて、車両を白線内、すなわち一のレー
ン内から逸脱しないようにする等の制御が行われる場合
もある。
A white line detecting device detects a white line on a road based on an image captured by a camera installed in a vehicle, and outputs a predetermined warning (such as an alarm sound) when the vehicle deviates from a driving lane. By performing an operation such as performing, the driving operation is supported. Further, control may be performed based on the detection result of the white line detection device to prevent the vehicle from deviating from the white line, that is, one lane.
【0005】ナビゲーション装置は、車両位置周辺など
の地図情報を画面上に表示する地図表示機能や、利用者
により指定される目的地や経由地までの経路を探索する
経路探索機能、経路探索によって設定された経路に沿っ
て車両の走行を誘導する経路誘導機能などを備えてい
る。またほとんどのナビゲーション装置には、経路誘導
中に、交差点における自車の進路を案内する進路案内機
能が備わっている。この進路案内機能によれば、交差点
の拡大図に自車の進路を示す矢印を重ねて描画した案内
図の表示や、「次の交差点を右折です。右にレーン変更
をしてください」といった案内音声が出力されることに
より、自車の進路に関する案内が行われる。
[0005] The navigation device is provided with a map display function for displaying map information such as around a vehicle position on a screen, a route search function for searching for a route to a destination or a waypoint specified by a user, or setting by a route search. And a route guidance function for guiding the vehicle to travel along the set route. In addition, most navigation devices have a route guidance function for guiding the route of the vehicle at an intersection during route guidance. According to this route guidance function, a guide map that is drawn with an arrow indicating the route of the vehicle overlaid on the enlarged map of the intersection or guidance such as "Turn right at the next intersection. Please change lanes to the right" By outputting the voice, guidance regarding the route of the own vehicle is performed.
【0006】[0006]
【発明が解決しようとする課題】ところで、車両走行時
には、自車の走行レーンやその両側のレーン等に関する
情報を知りたい場合がある。例えば、走行中の道路にお
いて複数のレーンが存在し、各レーン毎に進路が異なっ
ているような場合には、自車の進行予定に合わせてレー
ン変更を行うためにレーン毎の情報を知る必要がある。
ところが、従来の白線検知装置では、走行レーンからの
逸脱を検知して警告したり、走行方向の制御に必要な情
報を収集することを主な目的としていることから、レー
ン毎にその情報を検出することはなく、各レーン毎にそ
の内容を知ることができなかった。
When the vehicle is running, there is a case where it is necessary to know information about the traveling lane of the own vehicle or the lanes on both sides thereof. For example, when there are a plurality of lanes on a traveling road and the lanes are different from each other, it is necessary to know information on each lane in order to change lanes in accordance with the schedule of the vehicle. There is.
However, the conventional white line detection device has the main purpose of detecting a deviation from the driving lane and issuing a warning, and collecting information necessary for controlling the driving direction. I couldn't know the content of each lane.
【0007】また、従来のナビゲーション装置では、経
路誘導時に交差点等における自車の進路に関する案内が
行われるが、現状の位置検出精度では自車位置をレーン
単位で検出することが困難であることから、自車の走行
レーンを考慮した適切な内容の案内を行うことはできな
かった。例えば、次の交差点を右折する場合を考える
と、自車が既に走行レーンを右に変更済みである場合や
初めから右のレーンを走行している場合などには、上述
した音声案内の中でレーン変更を案内する部分(「右に
レーン変更をしてください」という部分)は無駄なもの
となり、利用者を不快にさせることもある。このよう
に、従来のナビゲーション装置では、自車の走行レーン
に応じた適切な案内を行うことができず、案内に無駄を
生じるという問題があった。
Further, in the conventional navigation device, guidance on the course of the vehicle at an intersection or the like is performed at the time of route guidance. However, it is difficult to detect the position of the vehicle in lanes with the current position detection accuracy. However, it was not possible to provide guidance with appropriate contents in consideration of the driving lane of the vehicle. For example, considering the case of turning right at the next intersection, in the case where the own vehicle has already changed the driving lane to the right or when the vehicle is running on the right lane from the beginning, etc. The part which guides the lane change (the part "Please change lane to the right") becomes useless and may make the user uncomfortable. As described above, in the conventional navigation device, there is a problem that it is not possible to perform appropriate guidance according to the traveling lane of the own vehicle, and the guidance is wasted.
【0008】本発明は、このような点に鑑みて創作され
たものであり、その目的は、走行レーンの内容を知るこ
とができる走行レーン検知装置を提供することにある。
また、本発明の他の目的は、走行レーンに応じて無駄の
ない適切な案内を行うことができるナビゲーション装置
を提供することにある。
The present invention has been made in view of the above points, and an object of the present invention is to provide a traveling lane detecting device capable of knowing the contents of a traveling lane.
Another object of the present invention is to provide a navigation device capable of performing appropriate guidance without waste according to the traveling lane.
【0009】[0009]
【課題を解決するための手段】上述した課題を解決する
ために、本発明の走行レーン検知装置は、車両に設置さ
れたカメラによって撮影された画像に基づいて、走行レ
ーン判定手段により車両の走行レーンを判定するととも
に、レーン属性判定手段により走行レーンの属性を判定
している。
In order to solve the above-mentioned problems, a driving lane detecting device according to the present invention uses a driving lane judging means based on an image taken by a camera mounted on a vehicle. The lane is determined, and the attribute of the traveling lane is determined by the lane attribute determining means.
【0010】車両の走行レーンが判定されるとともに、
走行レーンの属性、すなわち、走行レーンに関する情報
が判定されるので、走行レーンの内容を容易に知ること
ができる。また、カメラにより実際に撮影された画像に
基づいて走行レーン等を判定しているため、道路を構成
するレーン数の増減等の道路環境が改変した場合にもこ
れにリアルタイムに対応することができるという利点も
ある。
[0010] While the traveling lane of the vehicle is determined,
Since the attribute of the traveling lane, that is, information on the traveling lane is determined, the contents of the traveling lane can be easily known. Further, since the traveling lane or the like is determined based on the image actually taken by the camera, it is possible to respond in real time to a change in the road environment such as an increase or decrease in the number of lanes constituting the road. There is also an advantage.
【0011】また、カメラによって撮影された画像に基
づいて道路上の白線を検知する白線検知手段をさらに備
えるとともに、この白線検知手段による検知結果に基づ
いて、走行レーン判定手段により走行レーンの判定を行
うことが望ましい。撮影された画像中において、道路上
の白線を検知して領域分割などの処理を行うことにより
道路上に設定された各レーンを認識することができるの
で、自車の走行レーンを容易に判定することができる。
Further, the vehicle further includes white line detecting means for detecting a white line on the road based on an image taken by the camera, and based on the detection result by the white line detecting means, determines the traveling lane by the traveling lane determining means. It is desirable to do. The lane set on the road can be recognized by detecting white lines on the road and performing processing such as area division in the captured image, so that the traveling lane of the own vehicle can be easily determined. be able to.
【0012】また、カメラによって撮影された画像に基
づいて道路上の区画線を検知する区画線検知手段、およ
び道路標識を検知する道路標識検知手段の少なくとも一
方をさらに備えるとともに、区画線検知手段および道路
標識検知手段の少なくとも一方による検知結果に基づい
て、レーン属性判定手段により走行レーンの属性を判定
することが望ましい。区画線や道路標識は、比較的に単
純な文字や図形等から構成されているので、カメラによ
り撮影された画像に対して画像認識処理を行って区画線
や道路標識を検知することにより、走行レーンに関する
各種の属性(例えば、進路情報や制限速度など)を容易
に収集することができる。
Further, the vehicle further includes at least one of a lane marking detecting means for detecting a lane marking on a road based on an image taken by a camera, and a road sign detecting means for detecting a road sign. It is desirable that the attribute of the traveling lane be determined by the lane attribute determining means based on the detection result by at least one of the road sign detecting means. Since the lane markings and road signs are composed of relatively simple characters and figures, etc., running is performed by performing image recognition processing on images captured by the camera and detecting lane markings and road signs. Various attributes (for example, route information, speed limit, etc.) relating to the lane can be easily collected.
【0013】また、本発明のナビゲーション装置は、出
発地と目的地との間を結ぶ所定の走行経路を経路探索手
段により探索しており、この走行経路に沿って走行する
際には、上述した走行レーン検知装置によって判定され
た走行レーンの属性を考慮した案内を案内手段により行
っている。
Further, in the navigation device according to the present invention, a predetermined traveling route connecting the departure place and the destination is searched for by the route searching means. Guidance means performs guidance in consideration of the attribute of the traveling lane determined by the traveling lane detecting device.
【0014】走行レーン検知装置によって判定される走
行レーンの属性を考慮することにより、走行経路に沿っ
て走行する際に、自車の現在の走行レーンに応じて無駄
のない適切な進路案内を行うことができる。また、ナビ
ゲーション装置として備えている地図データ中にレーン
毎の情報が含まれていない場合や、含まれているものの
その内容が古く、道路環境の改変に対応していないよう
な場合にも、走行レーン検知装置によって判定される走
行レーンの属性を考慮することにより、実際の道路状態
に対応した的確な進路案内を行うことができるという利
点もある。
By taking into account the attributes of the traveling lane determined by the traveling lane detecting device, proper traveling guidance is provided without waste according to the current traveling lane of the vehicle when traveling along the traveling route. be able to. In addition, when the information for each lane is not included in the map data provided as a navigation device, or when it is included but the contents are old and do not correspond to the modification of the road environment, the driving may be performed. By taking into account the attribute of the driving lane determined by the lane detecting device, there is also an advantage that accurate route guidance corresponding to the actual road condition can be performed.
【0015】上述した案内手段は、進行方向前方に位置
する交差点に着目し、この交差点による右左折情報と上
述した走行レーンに対応する進路情報とを組み合わるこ
とにより、案内の内容を設定することが望ましい。例え
ば、次の交差点において「右折」を行う旨の右左折情報
が設定されている場合を考えると、自車の走行レーンに
対応する進路情報が「右折レーン」と判定されている場
合には、レーン変更を促す必要がないと判断できるた
め、「レーン変更を促す」内容を含まない進路案内を行
うことにより、無駄のない適切な進路案内を行うことが
できる。逆に、自車の走行レーンに対応する進路情報が
「直進」や「左折」などと判定されている場合には、レ
ーン変更を促す必要があると判断できるため、この場合
には「レーン変更を促す」内容を含む進路案内を行うこ
とにより、自車の走行レーンに応じた適切な内容の進路
案内を行うことができる。このように、交差点における
右左折情報と走行レーンに対応する進路情報とを組み合
わせることにより、走行レーンに応じて無駄のない適切
な案内を行うことができるため、利用者を不快にさせる
ことがないという利点がある。
The above-mentioned guide means focuses on an intersection located in front of the traveling direction, and sets the contents of the guidance by combining the right / left turn information at this intersection with the above-mentioned route information corresponding to the traveling lane. Is desirable. For example, considering the case where right / left turn information indicating that a “right turn” is to be performed at the next intersection is set, when the route information corresponding to the traveling lane of the own vehicle is determined to be “right turn lane”, Since it can be determined that there is no need to urge lane change, performing route guidance that does not include the content of "promoting lane change" can provide appropriate route guidance without waste. Conversely, if the route information corresponding to the traveling lane of the own vehicle is determined to be “straight ahead” or “left turn”, it can be determined that it is necessary to prompt a lane change. By performing the route guidance including the content of “prompting”, it is possible to perform the route guidance with appropriate content according to the traveling lane of the own vehicle. As described above, by combining the right / left turn information at the intersection with the route information corresponding to the traveling lane, appropriate guidance can be provided without waste according to the traveling lane, and the user is not uncomfortable. There is an advantage.
【0016】また、本発明のナビゲーション装置は、走
行レーン検知装置によって判定された走行レーンの属性
に道路のレーン数が含まれている場合に、このレーン数
を考慮して、車両位置検出手段によって検出された車両
位置を地図の道路上の位置に一致させるマップマッチン
グ処理をマップマッチング処理手段によって行ってい
る。レーン数が異なる道路が並行しているような場合に
は、レーン数を考慮することにより、マップマッチング
の精度を上げることができる。例えば、高速道路とその
横に1レーンの道路が並行しているような場合に、従来
であれば、どちらの道路を走行中であるかを判断するこ
とが容易でなかったが、本発明によれば、レーン数が多
い場合には高速道路を、レーン数が1の場合には高速道
路以外の道路を走行中であると判断することができる。
Further, when the attribute of the driving lane determined by the driving lane detecting device includes the number of road lanes, the navigation device according to the present invention provides the vehicle position detecting means in consideration of the number of lanes. Map matching processing is performed by the map matching processing means to match the detected vehicle position with the position on the road on the map. When roads with different numbers of lanes are parallel to each other, the accuracy of map matching can be improved by considering the number of lanes. For example, in the case where a highway and a one-lane road are parallel to each other, it has not been easy to determine which road is running in the related art. According to this, when the number of lanes is large, it can be determined that the vehicle is traveling on an expressway, and when the number of lanes is 1, the vehicle is traveling on a road other than the expressway.
【0017】また、上述した区画線検知手段は、検知対
象となる前記区画線の形状が第1の区画線テンプレート
として格納されたテンプレートデーターベースからこの
第1の区画線テンプレートを読み出して、カメラの設置
状態に応じて変形することにより、検知処理に用いる第
2の区画線テンプレートを作成する区画線テンプレート
作成手段と、区画線テンプレート作成手段によって作成
された第2の区画線テンプレートを用いて、カメラによ
って撮影された画像に含まれる前記区画線の認識を行う
区画線認識手段とを備えることが望ましい。カメラを車
両に搭載して道路表面に描かれた区画線を撮影した場合
には、車両に近い部分が大きく、反対に車両から遠い部
分が小さくなるため、実際に道路表面に描かれた区画線
の形状と撮影画像に含まれる区画線の形状とは異なった
ものとなる。このため、カメラの設置状態を考慮して、
予め用意されている第1の区画線テンプレートの形状を
変形して第2の区画線テンプレートを作成し、これを区
画線認識手段による認識処理に用いることにより、区画
線の認識精度(検知精度)を向上させることができる。
また、予めこの変形を予想して複数種類の第1の区画線
テンプレートを用意しておく場合に比べて、処理の簡略
化による認識速度の向上や、テンプレートデータベース
の容量を少なくすることが可能になる。
The above-described lane marking detecting means reads out the first lane marking template from a template database in which the shape of the lane marking to be detected is stored as a first lane marking template, and reads the first lane marking template. By using a lane marking template creating unit that creates a second lane marking template used for the detection process by deforming according to the installation state, and using the second lane marking template created by the lane marking template creating unit, It is preferable to include a lane marking recognition unit for recognizing the lane marking included in the image captured by the camera. When the camera is mounted on the vehicle and the lane marking drawn on the road surface is photographed, the part near the vehicle is large and the part far from the vehicle is small, so the lane marking actually drawn on the road surface Is different from the shape of the lane marking included in the captured image. For this reason, taking into account the camera installation state,
A second lane marking template is created by deforming the shape of the first lane marking template prepared in advance, and is used for recognition processing by the lane marking recognition means, so that lane marking recognition accuracy (detection accuracy) Can be improved.
In addition, compared to the case where a plurality of types of first lane marking templates are prepared in anticipation of this deformation, the recognition speed can be improved by simplifying the processing, and the capacity of the template database can be reduced. Become.
【0018】また、上述した区画線テンプレート作成手
段は、カメラの設置状態に応じて予め決まるカメラの俯
角、焦点距離、道路からの設置高さを用いて第2の区画
線テンプレートの作成を行うことが望ましい。道路表面
に描かれた実際の区画線の形状が撮影画像上ではどのよ
うに変形するかは、カメラの設置状態に応じて設定され
るカメラの俯角、焦点距離、設置高さによって決まるた
め、これらの値に基づいて第2の区画線テンプレートの
作成を行うことにより、区画線検知の精度をさらに高め
ることができる。
Further, the above-described lane marking template creating means creates a second lane marking template using a camera depression angle, a focal length, and an installation height from a road, which are predetermined according to the installation state of the camera. Is desirable. How the shape of the actual lane markings drawn on the road surface changes on the captured image is determined by the camera's depression angle, focal length, and installation height that are set according to the camera's installation state. By generating the second lane marking template based on the value of (i), the accuracy of lane marking detection can be further improved.
【0019】また、上述した区画線テンプレート作成手
段は、道路表面の実空間上に描かれた区画線をカメラで
撮影したときに撮影画像上においてこの区画線の形状が
変形する状態を再現する補正変数を用いて、テンプレー
トデータベースから読み出した第1の区画線テンプレー
トの形状を変形して第2の区画線テンプレートを作成す
ることが望ましい。これにより、実際の撮影における変
形の程度を再現するように第2の区画線テンプレートの
作成が行われるため、区画線検知の精度をさらに高める
ことができる。
The above-mentioned lane marking template creating means is a correction means for reproducing a state in which the shape of the lane marking is deformed on the photographed image when the lane marking drawn in the real space on the road surface is photographed by the camera. It is desirable that the shape of the first lane marking template read from the template database be modified using the variables to create the second lane marking template. Thereby, since the second lane marking template is created so as to reproduce the degree of deformation in actual photographing, the precision of lane marking detection can be further improved.
【0020】また、上述した区画線検知手段は、第2の
区画線テンプレートの形状が含まれる所定領域の一部を
区画線認識手段による認識処理の対象から除外するマス
クデータを作成するマスクデータ作成手段をさらに備え
ることが望ましい。これにより、認識に不要な画像を排
除することが可能になり、区画線検知の精度をさらに高
めることができる。
The above-described lane marking detecting means generates mask data for excluding a part of a predetermined area including the shape of the second lane marking template from the recognition processing by the lane marking recognizing means. It is desirable to further comprise means. This makes it possible to eliminate images unnecessary for recognition, and to further improve the accuracy of lane line detection.
【0021】[0021]
【発明の実施の形態】以下、本発明を適用した一実施形
態の車載システムについて、図面を参照しながら説明す
る。図1は、本実施形態の車載システムの全体構成を示
す図である。図1に示す車載システムは、自車の走行レ
ーンに関連する各種の情報を検知する走行レーン検知装
置1と、自車位置周辺の地図表示や経路探索、経路誘導
等のナビゲーション処理を行うナビゲーション装置2を
含んで構成されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A vehicle-mounted system according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram illustrating an overall configuration of an in-vehicle system according to the present embodiment. The in-vehicle system shown in FIG. 1 includes a traveling lane detecting device 1 that detects various types of information related to a traveling lane of the own vehicle, and a navigation device that performs a navigation process such as a map display around the own vehicle position, a route search, and route guidance. 2 is included.
【0022】走行レーン検知装置1は、カメラ10、画
像処理基本部12、白線検知部16、区画線検知部1
8、道路標識検知部20、障害物検知部22、テンプレ
ートDB(データベース)24、走行レーン判定部2
6、レーン属性判定部28を含んで構成されている。
The traveling lane detecting device 1 includes a camera 10, an image processing basic unit 12, a white line detecting unit 16, and a lane line detecting unit 1.
8, road sign detection unit 20, obstacle detection unit 22, template DB (database) 24, traveling lane determination unit 2
6. The lane attribute determining unit 28 is included.
【0023】カメラ10は、車両の所定位置に設置され
ており、車両周辺の風景を撮影して得られた画像データ
を画像処理基本部12に出力する。画像処理基本部12
は、カメラ10から出力される画像データに対して、回
転補正、変形、ノイズ除去、色補正など各種の基本処理
を行う。
The camera 10 is installed at a predetermined position of the vehicle, and outputs image data obtained by photographing a landscape around the vehicle to the image processing basic unit 12. Image processing basic unit 12
Performs various basic processes such as rotation correction, deformation, noise removal, and color correction on image data output from the camera 10.
【0024】白線検知部16は、画像処理基本部12か
ら出力される画像データに基づいて道路上に描画された
白線を検知する。なお、本明細書では、道路上におい
て、各レーン(車線)の区切りを示すために描画されて
いる白色や黄色などの線(点線等も含む)を全て「白
線」と称するものとする。
The white line detecting section 16 detects a white line drawn on a road based on the image data output from the image processing basic section 12. In the present specification, all lines (including dotted lines and the like) drawn on a road to indicate the boundaries between lanes (lanes) are referred to as “white lines”.
【0025】区画線検知部18は、画像処理基本部12
から出力される画像データとテンプレートDB24に格
納されている区画線テンプレートを比較し、区画線の種
別を検知する。道路標識検知部20は、画像処理基本部
12から出力される画像データとテンプレートDB24
に格納されている道路標識テンプレートを比較し、道路
標識の種別を検知する。
The lane marking detection unit 18 is a part of the image processing basic unit 12.
Is compared with the lane marking template stored in the template DB 24, and the type of lane marking is detected. The road sign detection unit 20 stores the image data output from the image processing basic unit 12 and the template DB 24.
Are compared with each other to detect the type of the road sign.
【0026】障害物検知部22は、画像処理基本部12
から出力される画像データに基づいて、車両周辺に存在
する各種の障害物(ガードレール、他の車両、歩行者
等)を検知する。テンプレートDB24は、区画線検知
部18による処理に必要な区画線テンプレートと、道路
標識検知部20による処理に必要な道路標識テンプレー
トを格納している。
The obstacle detection unit 22 includes the image processing basic unit 12
Detects various obstacles (guardrails, other vehicles, pedestrians, etc.) existing around the vehicle based on the image data output from. The template DB 24 stores a lane marking template required for processing by the lane marking detecting unit 18 and a road sign template required for processing by the road sign detecting unit 20.
【0027】走行レーン判定部26は、白線検知部16
による白線の検知結果に基づいて、自車の走行レーンを
判定する。走行レーン判定部26によって行われる走行
レーンの判定処理の詳細については後述する。レーン属
性判定部28は、走行レーン判定部26による判定結果
と、区画線検知部18、道路標識検知部20、障害物検
知部22のそれぞれによる検知結果とをまとめてレーン
単位の道路属性を判定し、判定結果をナビゲーション装
置2に向けて出力する。
The traveling lane judging section 26 includes a white line detecting section 16
The traveling lane of the own vehicle is determined based on the detection result of the white line. The details of the traveling lane determination process performed by the traveling lane determination unit 26 will be described later. The lane attribute determination unit 28 determines the road attribute for each lane by combining the determination result by the traveling lane determination unit 26 and the detection results by the lane marking detection unit 18, the road sign detection unit 20, and the obstacle detection unit 22. Then, the determination result is output to the navigation device 2.
【0028】次に、ナビゲーション装置2の詳細構成に
ついて説明する。図2は、本実施形態のナビゲーション
装置2の詳細構成を示す図である。図2に示すナビゲー
ション装置2は、ナビゲーションコントローラ50、D
VD51、ディスク読取装置52、リモートコントロー
ル(リモコン)ユニット53、車両位置検出部54、デ
ィスプレイ装置55、オーディオ部56を含んで構成さ
れている。
Next, a detailed configuration of the navigation device 2 will be described. FIG. 2 is a diagram illustrating a detailed configuration of the navigation device 2 according to the present embodiment. The navigation device 2 shown in FIG.
It comprises a VD 51, a disk reader 52, a remote control (remote control) unit 53, a vehicle position detecting section 54, a display device 55, and an audio section 56.
【0029】ナビゲーションコントローラ50は、ナビ
ゲーション装置2の全体動作を制御するものである。こ
のナビゲーションコントローラ50は、CPU、RO
M、RAM等を用いて所定の動作プログラムを実行する
ことによりその機能が実現される。ナビゲーションコン
トローラ50の詳細構成については後述する。
The navigation controller 50 controls the entire operation of the navigation device 2. The navigation controller 50 includes a CPU, an RO,
The function is realized by executing a predetermined operation program using the M, the RAM, and the like. The detailed configuration of the navigation controller 50 will be described later.
【0030】DVD51は、地図表示や経路探索などに
必要な地図データが格納されている情報記憶媒体であ
る。具体的には、DVD51は、所定の経度および緯度
で区切られた矩形形状の図葉を単位とした地図データを
格納しており、各図葉の地図データは、図葉番号を指定
することにより特定され、読み出すことが可能となる。
The DVD 51 is an information storage medium storing map data necessary for map display, route search, and the like. Specifically, the DVD 51 stores map data in units of rectangular figures separated by predetermined longitude and latitude, and the map data of each figure is designated by specifying a figure number. It can be specified and read.
【0031】ディスク読取装置52は、1枚あるいは複
数枚のDVD51が装填可能であり、ナビゲーションコ
ントローラ50の制御によっていずれかのDVD51か
ら地図データの読み出しを行う。なお、装填されるディ
スクは必ずしもDVDでなくてもよく、CDでもよい。
また、DVDとCDの双方を選択的に装填可能としても
よい。
The disk reader 52 can load one or a plurality of DVDs 51, and reads map data from any one of the DVDs 51 under the control of the navigation controller 50. The loaded disk is not necessarily a DVD, but may be a CD.
Alternatively, both a DVD and a CD may be selectively loaded.
【0032】リモコンユニット53は、上下左右のカー
ソルキーやテンキーなど各種の操作キーを備えており、
操作内容に応じた信号をナビゲーションコントローラ5
0に出力する。車両位置検出部54は、例えば、GPS
受信機、方位センサ、距離センサなどを備えており、所
定のタイミングで車両位置(経度、緯度)の検出を行
い、検出結果を出力する。
The remote control unit 53 has various operation keys such as up / down / left / right cursor keys and numeric keys.
Signals corresponding to the operation contents are sent to the navigation controller 5
Output to 0. The vehicle position detection unit 54 is, for example, a GPS
It is provided with a receiver, a direction sensor, a distance sensor, and the like, detects a vehicle position (longitude, latitude) at a predetermined timing, and outputs a detection result.
【0033】ディスプレイ装置55は、ナビゲーション
コントローラ50から出力される画像データに基づい
て、自車位置周辺の地図情報や経路誘導中における進路
案内図などの各種情報などを表示する。オーディオ部5
6は、ナビゲーションコントローラ50から出力される
音声データに基づいて、進路案内音声などを出力する。
The display device 55 displays various information such as map information around the position of the own vehicle and a route guide map during route guidance based on the image data output from the navigation controller 50. Audio unit 5
6 outputs a route guidance voice and the like based on voice data output from the navigation controller 50.
【0034】次に、ナビゲーションコントローラ50の
詳細構成について説明する。図2に示すナビゲーション
コントローラ50は、地図バッファ60、地図読出制御
部62、地図描画部64、VRAM66、進路案内部6
8、車両位置計算部70、経路探索処理部72、誘導経
路メモリ74、誘導経路描画部76、入力処理部78、
画像合成部80を含んで構成されている。
Next, a detailed configuration of the navigation controller 50 will be described. The navigation controller 50 shown in FIG. 2 includes a map buffer 60, a map reading control unit 62, a map drawing unit 64, a VRAM 66, and a route guidance unit 6.
8, vehicle position calculation unit 70, route search processing unit 72, guidance route memory 74, guidance route drawing unit 76, input processing unit 78,
It is configured to include an image synthesizing unit 80.
【0035】地図バッファ60は、ディスク読取装置5
2によってDVD51から読み出された地図データを一
時的に格納する。地図読出制御部62は、車両位置計算
部70により算出される車両位置や入力処理部78から
の要求等に応じて、所定範囲の地図データの読み出し要
求をディスク読取装置52に出力する。
The map buffer 60 includes the disk reading device 5
2 temporarily stores the map data read from the DVD 51. The map read control unit 62 outputs a read request for map data in a predetermined range to the disk reading device 52 in response to a vehicle position calculated by the vehicle position calculation unit 70, a request from the input processing unit 78, and the like.
【0036】地図描画部64は、地図バッファ60に格
納された地図データに基づいて、地図情報の表示に必要
な地図画像データを生成する。VRAM66は、地図描
画部64から出力される地図画像データを一時的に格納
する。進路案内部68は、走行レーン検知装置1から出
力される検知結果に基づいて、誘導経路上に存在する交
差点等において、走行レーンの属性を考慮して自車の進
路に関する案内を画像表示および音声出力により行う。
The map drawing section 64 generates map image data necessary for displaying map information based on the map data stored in the map buffer 60. The VRAM 66 temporarily stores map image data output from the map drawing unit 64. The route guide unit 68 displays, based on the detection result output from the traveling lane detection device 1, guidance on the route of the own vehicle at an intersection or the like on the guidance route in consideration of the attributes of the traveling lane in image display and voice. Perform by output.
【0037】具体的には、進路案内部68は、進行方向
前方に位置する交差点に着目し、この交差点における自
車の進行方向(右左折情報)と、自車の走行レーンに対
応する進路情報とを組み合わせることにより、レーン変
更の必要があるか否かを判定し、この判定結果に基づい
て案内の内容を設定する。そして、進路案内部68は、
案内画像を表示するための画像データを生成して画像合
成部80に出力するとともに、案内音声を出力するため
の音声データをオーディオ部56に出力する。
More specifically, the course guide section 68 focuses on an intersection located ahead of the traveling direction, and the traveling direction (right / left turn information) of the own vehicle at this intersection and the course information corresponding to the traveling lane of the own vehicle. Then, it is determined whether or not the lane needs to be changed, and the content of the guidance is set based on the determination result. And the route guidance unit 68
Image data for displaying the guidance image is generated and output to the image synthesizing unit 80, and audio data for outputting the guidance voice is output to the audio unit 56.
【0038】車両位置計算部70は、自車位置検出部5
4から出力される検出データに基づいて自車位置および
自車方位を計算するとともに、計算した自車位置が地図
データの道路上にない場合には、自車位置を修正するマ
ップマッチング処理を行う。このマップマッチング処理
は、走行レーン検知装置1によって検知された走行レー
ンに関する各種の情報に走行レーンのレーン数が含まれ
ている場合には、このレーン数を考慮して行われる。こ
れにより、レーン数が明らかに異なる複数の道路が並行
しているような場合(例えばレーン数が多い高速道路や
主要国道と、連数が1の地方道とが部分的に並んでいる
ような場合)であっても、どちらの道路を走行中である
かを正確に判断してマップマッチング処理の精度を向上
させることが可能になる。
The vehicle position calculation unit 70 includes the vehicle position detection unit 5
The vehicle position and the vehicle direction are calculated based on the detection data output from the control unit 4, and if the calculated vehicle position is not on the road in the map data, a map matching process for correcting the vehicle position is performed. . This map matching process is performed in consideration of the number of traveling lanes when various types of information on the traveling lanes detected by the traveling lane detecting device 1 include the number of traveling lanes. Thereby, in a case where a plurality of roads having clearly different lanes are parallel to each other (for example, an expressway or a major national road with a large number of lanes and a local road with a unit number of 1 are partially lined up) ), It is possible to accurately determine which road the vehicle is traveling and to improve the accuracy of the map matching process.
【0039】経路探索処理部72は、利用者によって指
定された出発地と目的地(あるいは経由地)の間を所定
条件下で結ぶ走行経路を探索する。例えば、距離最短、
時間最短等の各種の条件下で、コストが最小となるよう
な走行経路が誘導経路として設定される。経路探索処理
部72によって設定された誘導経路の内容を示すデータ
(誘導経路データ)は、誘導経路メモリ74に格納され
る。
The route search processing section 72 searches for a travel route connecting a departure point and a destination (or a waypoint) specified by the user under predetermined conditions. For example, the shortest distance,
Under various conditions such as the shortest time, a traveling route that minimizes the cost is set as the guidance route. Data (guide route data) indicating the content of the guide route set by the route search processing unit 72 is stored in the guide route memory 74.
【0040】誘導経路描画部76は、経路探索処理部7
2によって設定されて誘導経路メモリ74に格納された
誘導経路データの中から、その時点でVRAM66に描
画された地図に含まれるものを選び出し、誘導経路を地
図上に重ねて表示するための誘導経路描画データを生成
する。
The guidance route drawing unit 76 includes a route search processing unit 7
2 is selected from the guidance route data stored in the guidance route memory 74 set in step 2 and included in the map drawn in the VRAM 66 at that time, and a guidance route for displaying the guidance route over the map. Generate drawing data.
【0041】入力処理部78は、リモコンユニット53
から入力される各種操作指示に対応する動作を行うため
の命令をナビゲーションコントローラ50内の各部に向
けて出力する。画像合成部80は、自車位置に対応して
VRAM66から読み出した地図画像データと、進路案
内部68から出力される画像データとを重ねて画像合成
を行い、合成画像データをディスプレイ装置55に出力
する。
The input processing unit 78 includes a remote control unit 53
A command for performing an operation corresponding to various operation instructions input from is output to each unit in the navigation controller 50. The image synthesizing unit 80 superimposes the map image data read from the VRAM 66 corresponding to the own vehicle position and the image data output from the route guidance unit 68 to perform image synthesis, and outputs the synthesized image data to the display device 55. I do.
【0042】上述した走行レーン判定部26が走行レー
ン判定手段に、レーン属性判定部28がレーン属性判定
手段に、白線検知部16が白線検知手段に、区画線検知
部18が区画線検知手段に、道路標識検知部20が道路
標識検知手段にそれぞれ対応している。また、経路探索
処理部72が経路探索手段に、ディスプレイ装置55、
オーディオ部56、進路案内部68、画像合成部80が
案内手段にそれぞれ対応している。また、車両位置検出
部54が車両位置検出手段に、車両位置計算部70がマ
ップマッチング処理手段にそれぞれ対応する。
The above-described traveling lane determining section 26 serves as traveling lane determining means, the lane attribute determining section 28 serves as lane attribute determining means, the white line detecting section 16 serves as white line detecting means, and the lane line detecting section 18 serves as lane line detecting means. , The road sign detecting unit 20 corresponds to the road sign detecting means. Further, the route search processing unit 72 provides the route searching means with the display device 55,
The audio unit 56, the route guidance unit 68, and the image synthesizing unit 80 correspond to guidance means, respectively. Further, the vehicle position detector 54 corresponds to the vehicle position detector, and the vehicle position calculator 70 corresponds to the map matching processor.
【0043】本実施形態の車載システムはこのような構
成を有しており、次にその動作を説明する。 (1)走行レーン検知装置1の動作 図3は、走行レーン検知装置1の動作手順を示す流れ図
である。なお、図3に示す一連の処理は、所定時間毎に
繰り返して行われるものとする。
The vehicle-mounted system according to the present embodiment has such a configuration, and the operation thereof will be described below. (1) Operation of Traveling Lane Detector 1 FIG. 3 is a flowchart showing an operation procedure of the traveling lane detector 1. It is assumed that a series of processes shown in FIG. 3 is repeatedly performed at predetermined time intervals.
【0044】画像処理基本部12は、カメラ10から出
力される画像データの取り込みを行う(ステップ10
0)。取り込まれた画像データは、ノイズ除去等の基本
処理が行われた後に、白線検知部16、区画線検知部1
8、道路標識検知部20、障害物検知部22のそれぞれ
に向けて出力される。
The image processing basic unit 12 captures image data output from the camera 10 (step 10).
0). After the captured image data is subjected to basic processing such as noise removal, the white line detection unit 16 and the division line detection unit 1
8, output to each of the road sign detection unit 20 and the obstacle detection unit 22.
【0045】道路標識検知部20は、画像処理基本部1
2から出力される画像データとテンプレートDB24に
格納されている道路標識テンプレートに基づいて、道路
標識を検知する道路標識検知処理を行う(ステップ10
1)。またステップ101に示す処理と並行して、障害
物検知部22は、画像処理基本部12から出力される画
像データに基づいて、車両周辺に存在する各種の障害物
を検知する所定の障害物検知処理を行う(ステップ10
2)。
The road sign detecting section 20 is composed of the image processing basic section 1
A road sign detection process for detecting a road sign is performed on the basis of the image data output from Step 2 and the road sign template stored in the template DB 24 (Step 10).
1). In parallel with the processing shown in step 101, the obstacle detection unit 22 detects various obstacles around the vehicle based on the image data output from the image processing basic unit 12. Perform processing (Step 10
2).
【0046】また、上述したステップ101、ステップ
102に示した処理と並行して、以下に説明するステッ
プ103〜111に示す所定の走行レーン検知処理が行
われる。具体的には、白線検知部16は、画像処理基本
部12から出力される画像データに基づいて、道路上に
描画された白線を検知する白線検知処理を行う(ステッ
プ103)。
Further, in parallel with the processing shown in steps 101 and 102, predetermined traveling lane detection processing shown in steps 103 to 111 described below is performed. Specifically, the white line detection unit 16 performs white line detection processing for detecting a white line drawn on a road based on the image data output from the image processing basic unit 12 (Step 103).
【0047】白線検知処理が行われると、次に走行レー
ン判定部26は、白線検知結果に基づいて、白線が存在
するか否かを判定し(ステップ104)、白線が存在す
る場合には肯定判断を行い、検知された白線に基づいて
画像の中の領域を分割する処理を行う(ステップ10
5)。これにより、画像の中の領域がレーンに対応して
分割される。
When the white line detection processing is performed, the traveling lane determination unit 26 determines whether or not a white line exists based on the white line detection result (step 104). A determination is made, and a process of dividing an area in the image based on the detected white line is performed (step 10).
5). Thereby, the area in the image is divided corresponding to the lane.
【0048】領域分割が行われると、次に走行レーン判
定部26は、いずれか一の領域を着目領域として設定し
(ステップ106)、この領域に対応するレーンが自車
の走行レーンであるか否かを判定する処理(走行レーン
判定処理)を行う(ステップ107)。
When the area division is performed, the traveling lane determination unit 26 sets one of the areas as the attention area (step 106), and determines whether the lane corresponding to this area is the traveling lane of the own vehicle. A process for determining whether or not the vehicle is running (running lane determination process) is performed (step 107).
【0049】図4は、ステップ107に示した走行レー
ン判定処理の詳細な手順を示す流れ図である。また、図
5は、走行レーン判定処理の内容を概略的に示す図であ
る。走行レーン判定部26は、着目領域の下側の座標を
読み込み(ステップ200)、領域の下側の中央座標を
算出する(ステップ201)。なお、カメラ10により
撮影される画像は、下側が車両からの距離が近い方に、
上側が車両から遠い方にそれぞれ対応しているものとす
る。
FIG. 4 is a flowchart showing a detailed procedure of the traveling lane determination processing shown in step 107. FIG. 5 is a diagram schematically showing the contents of the traveling lane determination process. The traveling lane determination unit 26 reads the coordinates on the lower side of the region of interest (step 200), and calculates the center coordinates on the lower side of the region (step 201). Note that the image taken by the camera 10 is such that the lower side is closer to the vehicle,
It is assumed that the upper side corresponds to the one far from the vehicle.
【0050】例えば、図5(A)に示すように、3レー
ンの道路において中央のレーン(図中、ハッチングされ
ているレーン)を自車が走行している場合を考える。こ
の場合には、図5(B)に示すように、画像中のレーン
に対応する部分が台形状の3つの領域(1)〜(3)に
分割される。着目領域が領域(2)に設定されていると
すると、図5(B)に示すように、この領域(2)の下
側の中央座標mが算出される。
For example, as shown in FIG. 5 (A), a case is considered where the own vehicle is traveling on a central lane (hatched lane in the figure) on a three-lane road. In this case, as shown in FIG. 5B, the portion corresponding to the lane in the image is divided into three trapezoidal regions (1) to (3). Assuming that the region of interest is set to the region (2), the center coordinate m on the lower side of the region (2) is calculated as shown in FIG.
【0051】着目領域の下側の中央座標mが算出される
と、走行レーン判定部26は、全体画像の下側の中央座
標M(図5(B)参照)と、着目領域の下側の中央座標
mとの水平方向の差異εを算出し、この差異εが所定値
以下であるか否かを判定する(ステップ202)。
When the center coordinate m on the lower side of the region of interest is calculated, the traveling lane determination unit 26 determines the center coordinate M on the lower side of the entire image (see FIG. 5B) and the lower side. A difference ε in the horizontal direction from the center coordinate m is calculated, and it is determined whether the difference ε is equal to or less than a predetermined value (step 202).
【0052】差異εが所定値以下である場合には、ステ
ップ202で肯定判断が行われ、走行レーン判定部26
は、この着目領域を自車の走行レーンであると判断し
(ステップ203)、その旨をレーン属性判定部28に
出力する。例えば、図5(B)では、領域(2)に対応
するレーンが自車の走行レーンであると判断される。
If the difference ε is equal to or smaller than the predetermined value, an affirmative determination is made in step 202, and the traveling lane determination unit 26
Determines that the region of interest is the traveling lane of the own vehicle (step 203), and outputs the fact to the lane attribute determining unit 28. For example, in FIG. 5B, it is determined that the lane corresponding to the area (2) is the traveling lane of the own vehicle.
【0053】また、差異εが所定値以上である場合に
は、ステップ202で否定判断が行われ、走行レーン判
定部26は、この着目領域を自車の走行レーンではない
と判断し(ステップ204)、その旨をレーン属性判定
部28に出力する。図5に示す例では、領域(1)また
は領域(3)が自車の走行レーンではないと判断され
る。
If the difference ε is equal to or larger than the predetermined value, a negative determination is made in step 202, and the traveling lane determining unit 26 determines that the region of interest is not the traveling lane of the own vehicle (step 204). ), And outputs the fact to the lane attribute determination unit 28. In the example shown in FIG. 5, it is determined that the region (1) or the region (3) is not the traveling lane of the own vehicle.
【0054】また、区画線検知部18は、画像処理基本
部12から出力される画像データとテンプレートDB2
4に格納されている区画線テンプレートに基づいて、道
路上に描画された区画線を検知する所定の区画線検知処
理を行う(ステップ108)。
The lane marking detection unit 18 also stores the image data output from the image processing basic unit 12 and the template DB 2
Based on the lane marking template stored in No. 4, a predetermined lane marking detection process for detecting lane markings drawn on the road is performed (step 108).
【0055】図6は、ステップ108に示した区画線検
知処理の詳細な手順を示す流れ図である。区画線検知部
18は、画像処理基本部12から出力される画像データ
に対して、輝度を2値化する処理を行う(ステップ30
0)。次に区画線検知部18は、テンプレートDB24
に格納されている複数の区画線テンプレートの中からい
ずれか一の区画線テンプレートを読み出して(ステップ
301)、この区画線テンプレートと2値化処理後の画
像データを照合する処理を行い(ステップ302)、画
像データ中に区画線テンプレートと一致する部分がある
か否かを判定する(ステップ303)。
FIG. 6 is a flowchart showing the detailed procedure of the lane marking detection processing shown in step 108. The lane marking detection unit 18 performs a process of binarizing the luminance on the image data output from the image processing basic unit 12 (Step 30).
0). Next, the lane marking detection unit 18 stores the template DB 24
(Step 301), and performs a process of comparing this lane line template with the image data after binarization processing (Step 302). ), It is determined whether or not there is a portion in the image data that matches the lane line template (step 303).
【0056】一致する部分が存在する場合には、ステッ
プ303で肯定判断が行われ、区画線検知部18は、区
画線の内容を特定する(ステップ304)。例えば、進
路情報としての矢印や横断歩道などの区画線が画像中に
存在する場合に、これらが検出されてその内容が特定さ
れる。
If there is a matching part, an affirmative decision is made in step 303, and the lane line detecting section 18 specifies the contents of the lane line (step 304). For example, when lane markings such as arrows and pedestrian crossings are present in the image as route information, these are detected and their contents are specified.
【0057】区画線の内容が特定され、あるいは、画像
データ中に区画線テンプレートと一致する部分が存在せ
ず、上述したステップ303において否定判断が行われ
た場合に、区画線検知部18は、まだ照合処理の対象と
されていない(未照合の)区画線テンプレートがあるか
否かを判定する(ステップ305)。未照合の区画線テ
ンプレートがある場合には、ステップ305で肯定判断
が行われ、区画線検知部18は、上述したステップ30
1に戻り、まだ照合処理の対象とされていない区画線テ
ンプレートの中からいずれか一の区画線テンプレートを
読み出し、以降の処理を行う。
If the contents of the lane marking are specified or if there is no part matching the lane marking template in the image data and a negative determination is made in step 303 described above, the lane marking detector 18 It is determined whether or not there is a lane mark template that has not been subjected to the matching process (not yet matched) (step 305). If there is an unmatched lane marking template, an affirmative determination is made in step 305, and the lane marking detecting unit 18 determines in step 30 described above.
Returning to step 1, one of the lane line templates not yet subjected to the collation processing is read out, and the subsequent processing is performed.
【0058】また、未照合の区画線テンプレートがない
場合には、ステップ305で否定判断が行われ、区画線
検知部18は、区画線情報(区画線の照合結果)をレー
ン属性判定部28に向けて出力し(ステップ306)、
一連の処理を終了する。走行レーンであるか否かの判定
結果と、区画線の検知結果が得られると、レーン属性判
定部28は、これらの情報を着目領域に関連付けて(ス
テップ109)、この着目領域にレーン番号を付加する
(ステップ110)。例えば、自車の進行方向に対して
左側に存在するレーンに対応する領域から順に着目され
るものとすると、図5に示す例においては、領域(1)
に「第1レーン」、領域(2)に「第2レーン」、領域
(3)に「第3レーン」というようにレーン番号が付加
される。
If there is no uncollated lane line template, a negative determination is made in step 305, and the lane line detection unit 18 sends the lane line information (comparison line collation result) to the lane attribute determination unit 28. Output (step 306)
A series of processing ends. When the determination result as to whether or not the lane is the traveling lane and the detection result of the lane marking are obtained, the lane attribute determination unit 28 associates the information with the region of interest (step 109), and assigns the lane number to the region of interest. It is added (step 110). For example, assuming that attention is paid to the regions corresponding to the lanes existing on the left side with respect to the traveling direction of the own vehicle, in the example shown in FIG.
, A lane number such as “first lane”, region (2) “second lane”, and region (3) “third lane”.
【0059】次に、走行レーン判定部26は、まだ着目
されていない領域(未着目の領域)があるか否かを判定
する(ステップ111)。未着目の領域が存在する場合
には、ステップ111で肯定判断が行われ、この場合に
は上述したステップ106に戻り、以降の処理が繰り返
される。
Next, the traveling lane determination section 26 determines whether or not there is a region that has not been focused on yet (a region that has not been focused on) (step 111). If there is an unfocused area, an affirmative determination is made in step 111, and in this case, the process returns to step 106, and the subsequent processing is repeated.
【0060】未着目の領域が存在せずにステップ111
で否定判断が行われた場合、あるいは、上述したステッ
プ104において、白線が存在せずに否定判断が行われ
た場合に、レーン属性判定部28は、走行レーン等の検
知結果をナビゲーション装置2に向けて出力する(ステ
ップ112)。
If there is no unfocused area, step 111
If a negative determination is made in the above, or if a negative determination is made without the white line in step 104 described above, the lane attribute determination unit 28 sends the detection result of the driving lane or the like to the navigation device 2. And output it (step 112).
【0061】図7は、レーン属性判定部28から出力さ
れる検知結果の具体例を示す図である。検知結果として
は、例えば、画像処理基本部12から出力される画像デ
ータの他に、図7に示す「レーン情報」と「詳細情報」
が出力される。レーン情報には、自車が現在走行してい
る道路が何レーンから構成されているかを示す「レーン
数」や、自車の走行レーンがいずれのレーンであるかを
示す「走行レーン」などが含まれている。
FIG. 7 is a diagram showing a specific example of the detection result output from the lane attribute determination unit 28. As the detection result, for example, in addition to the image data output from the image processing basic unit 12, “lane information” and “detailed information” shown in FIG.
Is output. The lane information includes a “lane number” indicating how many lanes the road on which the own vehicle is currently running and a “running lane” indicating which lane the own vehicle is running on. include.
【0062】また、詳細情報には、各レーン(第1レー
ン〜第3レーン)毎の「進路情報」や、各レーンの「先
の状況」(例えば、横断歩道が存在する等)、道路の
「制限速度」、標識に関する情報等を含む「その他情
報」(例えば、駐車禁止等)、「障害物」の有無、など
が含まれている。
The detailed information includes “track information” for each lane (first to third lanes), “ahead situation” of each lane (for example, the presence of a pedestrian crossing, etc.), The information includes "speed limit", "other information" including information related to a sign (for example, parking prohibition), the presence or absence of "obstacle", and the like.
【0063】なお、ステップ104において否定判断が
行われた場合においては、検知結果として、画像データ
と、道路標識および障害物に関する情報が出力されるも
のとする。 (2)ナビゲーション装置2の動作 次に、走行レーン検知装置1による走行レーンの検知結
果に基づいて進路案内を行う際のナビゲーション装置2
の動作内容について説明する。
If a negative determination is made in step 104, image data and information on road signs and obstacles are output as detection results. (2) Operation of Navigation Apparatus 2 Next, the navigation apparatus 2 performs route guidance based on the detection result of the traveling lane by the traveling lane detecting apparatus 1.
The operation will be described.
【0064】図8は、進路案内を行う際のナビゲーショ
ン装置2の動作手順を示す流れ図である。進路案内部6
8は、所定の時間間隔毎に走行レーン検知装置1から出
力される検知結果を取得し、この検知結果を内部メモリ
(図示せず)に保存する(ステップ400)。
FIG. 8 is a flowchart showing the operation procedure of the navigation device 2 when performing route guidance. Course guidance section 6
8 acquires the detection result output from the traveling lane detection device 1 at predetermined time intervals, and stores the detection result in an internal memory (not shown) (step 400).
【0065】次に進路案内部68は、自車位置から所定
距離以内に交差点が存在するか否かを判定する(ステッ
プ401)。所定距離以内に交差点が存在しない場合に
は、ステップ401で否定判断が行われ、この場合には
上述したステップ400に戻り、以降の処理が繰り返さ
れる。
Next, the route guide unit 68 determines whether or not an intersection exists within a predetermined distance from the position of the vehicle (step 401). If there is no intersection within the predetermined distance, a negative determination is made in step 401. In this case, the process returns to step 400, and the subsequent processing is repeated.
【0066】自車位置から所定距離以内に交差点が存在
する場合には、ステップ401で肯定判断が行われ、進
路案内部68は、この交差点において予定されている自
車の進路(予定進路)を抽出する(ステップ402)。
次に、進路案内部68は、内部メモリに保存された自車
の走行レーンの履歴を調べ、走行レーンの履歴が所定回
数以上連続して同じ内容となっているか否かを判定する
(ステップ403)。
If an intersection exists within a predetermined distance from the position of the own vehicle, an affirmative determination is made in step 401, and the course guide unit 68 determines the course (scheduled course) of the own vehicle planned at this intersection. Extract (step 402).
Next, the route guide unit 68 checks the history of the traveling lane of the own vehicle stored in the internal memory, and determines whether the history of the traveling lane has the same content continuously for a predetermined number of times or more (step 403). ).
【0067】走行レーンの履歴が所定回数以上連続して
同じ内容となっている場合には、ステップ403で肯定
判断が行われ、次に進路案内部68は、内部メモリに保
存されたレーン属性の履歴を調べ、レーン属性の履歴が
所定回数以上連続して同じ内容となっているか否かを判
定する(ステップ404)。
If the history of the traveling lane has the same content continuously for a predetermined number of times or more, an affirmative determination is made in step 403, and then the course guide unit 68 determines the lane attribute stored in the internal memory. The history is examined to determine whether the history of the lane attribute has the same content continuously for a predetermined number of times or more (step 404).
【0068】レーン属性の履歴が所定回数以上連続して
同じ内容となっている場合には、ステップ404で肯定
判断が行われ、進路案内部68は、走行レーンに対応す
る進路情報と、自車の予定進路とが一致しているか否か
を判定する(ステップ405)。
If the history of the lane attribute has the same content continuously for a predetermined number of times or more, an affirmative determination is made in step 404, and the course guide unit 68 determines the course information corresponding to the running lane and the own vehicle. (Step 405).
【0069】走行レーンに対応する進路情報と自車の予
定進路とが一致している場合には、ステップ405で肯
定判断が行われ、進路案内部68は、進路案内を作成す
る際の条件として、レーン変更の案内を「無し」に設定
する(ステップ406)。また、走行レーンに対応する
進路情報と自車の予定進路とが一致していない場合に
は、ステップ405で否定判断が行われ、進路案内部6
8は、進路案内を作成する際の条件として、レーン変更
の案内を「有り」に設定する(ステップ407)。
If the route information corresponding to the traveling lane and the planned route of the own vehicle match, an affirmative determination is made in step 405, and the route guide unit 68 sets the conditions for creating the route guide. The lane change guidance is set to "none" (step 406). If the route information corresponding to the traveling lane does not match the planned route of the own vehicle, a negative determination is made in step 405 and the route guidance unit 6
No. 8 sets lane change guidance to “Yes” as a condition for creating route guidance (step 407).
【0070】レーン変更の案内の有無を設定すると、進
路案内部68は、この設定に基づいた内容を有する案内
画像および案内音声を生成し、出力する(ステップ40
8)。具体的には、上述した図7に示したような検知結
果の内容を示す文字等を含んだ案内画像が表示されると
ともに、自車の走行レーンを考慮した案内音声が出力さ
れる。案内音声の具体例については後述する。その後、
上述したステップ400に戻り、以降の処理が繰り返さ
れる。
When the presence / absence of the lane change guidance is set, the route guidance unit 68 generates and outputs a guidance image and guidance voice having contents based on the setting (step 40).
8). Specifically, a guidance image including characters and the like indicating the contents of the detection result as shown in FIG. 7 is displayed, and a guidance voice in consideration of the traveling lane of the own vehicle is output. A specific example of the guidance voice will be described later. afterwards,
Returning to step 400 described above, the subsequent processing is repeated.
【0071】また、レーン属性の履歴が所定回数以上連
続して同じ内容となっていない場合には、上述したステ
ップ404で否定判断が行われ、この場合に進路案内部
68は、地図バッファ60に格納された地図データを調
べ、自車の走行中の道路に対応するレーン属性が含まれ
ているか否かを判定する(ステップ409)。
If the history of the lane attribute does not have the same content continuously for a predetermined number of times or more, a negative determination is made in step 404 described above. By examining the stored map data, it is determined whether or not a lane attribute corresponding to the road on which the vehicle is traveling is included (step 409).
【0072】地図データにレーン属性が含まれている場
合には、ステップ409で肯定判断が行われ、進路案内
部68は、このレーン属性を地図バッファ60から読み
出し(ステップ410)、読み出したレーン属性を用い
て、走行レーンの進路情報と自車の予定進路とが一致し
ているか否かの判定(ステップ405に示した処理)以
降の処理を行う。
If the map data includes a lane attribute, an affirmative determination is made in step 409, and the route guide unit 68 reads the lane attribute from the map buffer 60 (step 410), and reads the read lane attribute. , The processing after the determination of whether or not the course information of the traveling lane and the planned course of the own vehicle match (the processing shown in step 405) is performed.
【0073】また、走行レーンの履歴が所定回数以上連
続して同じ内容となっていない場合(ステップ403で
否定判断)、あるいは地図データにレーン属性が含まれ
ていない場合(ステップ409で否定判断)には、進路
案内部68は、上述したステップ407に進み、レーン
変更の案内を「有り」に設定し、以降の処理を行う。
If the history of the traveling lanes does not have the same content continuously for a predetermined number of times or more (No in Step 403), or if the map data does not include the lane attribute (No in Step 409). Then, the route guidance unit 68 proceeds to the above-described step 407, sets the lane change guidance to “Yes”, and performs the subsequent processing.
【0074】図9は、案内音声の具体例を示す図であ
る。例えば、第1〜第3レーンの3レーンにより構成さ
れた道路(第1レーンが最も左側)を自車が走行してい
る場合を想定する。また、第1〜第3レーンには、それ
ぞれ「左・直進」、「直進」、「右」という進路が対応
付けられているものとする。
FIG. 9 is a diagram showing a specific example of the guidance voice. For example, it is assumed that the own vehicle is traveling on a road composed of three lanes of first to third lanes (the first lane is the leftmost). In addition, it is assumed that the first to third lanes are respectively associated with the courses “left / straight”, “straight”, and “right”.
【0075】自車の走行レーンが「第1レーン」である
場合を考える。自車の予定進路が「直進」または「左
折」の場合には、レーン変更を行う必要がないため、
「次の交差点を直進(または左折)です。」というよう
に、レーン変更の案内を含まない内容の案内音声が出力
される。これに対して、自車の予定進路が「右折」であ
る場合には、走行レーンを第1レーンから第3レーンに
変更する必要があるため、「次に交差点を右折です。2
つ右のレーンへレーン変更をしてください。」というよ
うに、レーン変更の案内を含む内容の案内音声が出力さ
れる。
Consider a case where the traveling lane of the own vehicle is the “first lane”. If your vehicle is going straight or turning left, there is no need to change lanes,
A guidance voice that does not include guidance for lane change is output, such as "The next intersection is straight ahead (or left turn)." On the other hand, if the planned course of the own vehicle is “turn right”, it is necessary to change the driving lane from the first lane to the third lane.
Please change lanes to the right lane. , A guidance sound having contents including guidance for lane change is output.
【0076】同様に、自車の走行レーンが「第2レー
ン」である場合を考えると、予定進路が「直進」の場合
にはレーン変更の案内を含まない案内音声が出力され、
予定進路が「左折」または「右折」の場合にはレーン変
更の案内を含む案内音声が出力される。また、自車の走
行レーンが「第3レーン」である場合も同様であり、予
定進路が「右折」の場合にはレーン変更の案内を含まな
い案内音声、予定進路が「左折」または「直進」の場合
にはレーン変更の案内を含む案内音声がそれぞれ出力さ
れる。
Similarly, considering the case where the traveling lane of the own vehicle is the "second lane", when the planned course is "straight ahead", a guidance voice that does not include guidance for changing lanes is output,
When the planned course is “left turn” or “right turn”, guidance voice including guidance of lane change is output. The same applies to the case where the traveling lane of the own vehicle is the "third lane". When the planned route is "right turn", the guidance voice does not include the guidance of the lane change, and the planned route is "left turn" or "straight ahead". , A guidance voice including guidance for lane change is output.
【0077】なお、上述した具体例では、レーン変更の
案内が必要ない場合には、予定進路に関する案内だけを
行っていたが、レーン変更の必要がない旨を積極的に知
らせる内容の案内音声(例えば「次の交差点を直進で
す。現在のレーンで大丈夫です。」等)を出力するよう
にしてもよい。
In the specific example described above, when guidance for lane change is not required, only guidance relating to the scheduled course is performed. However, a guidance voice (a content for positively informing that lane change is not required) is provided. For example, "The next intersection is straight ahead. The current lane is OK."
【0078】このように、本実施形態の車載システムで
は、走行レーン検知装置1により車両の走行レーンや走
行レーンの属性を検知し、これらの情報に基づいて、ナ
ビゲーション装置2により、走行レーンの属性を考慮し
た進路案内を行っているため、誘導経路(走行経路)に
沿って走行する際に、自車の現在の走行レーンに応じて
無駄のない適切な進路案内を行うことができる。
As described above, in the vehicle-mounted system according to the present embodiment, the traveling lane and the attributes of the traveling lane are detected by the traveling lane detecting device 1 and the attributes of the traveling lane are detected by the navigation device 2 based on the information. Therefore, when traveling along the guidance route (travel route), appropriate route guidance without waste can be performed according to the current traveling lane of the own vehicle.
【0079】特に、走行レーン検知装置1内のカメラ1
0により実際に撮影された画像に基づいて走行レーン等
を判定しているため、道路を構成するレーン数の増減等
の道路環境が改変した場合にもこれにリアルタイムに対
応することができるという利点がある。これにより、ナ
ビゲーション装置2内のDVD51に記録されている地
図データ中にレーン毎の情報が含まれていない場合や、
含まれているもののその内容が古く、道路環境の改変に
対応していないような場合にも、実際の道路状態に対応
した的確な進路案内を行うことができる。
In particular, the camera 1 in the traveling lane detecting device 1
Since the driving lane and the like are determined based on the actually photographed image based on 0, even if the road environment such as the increase or decrease of the number of lanes constituting the road is changed, it is possible to cope with this in real time. There is. As a result, when map information recorded on the DVD 51 in the navigation device 2 does not include information for each lane,
Even in the case where it is included but its contents are old and it does not correspond to the modification of the road environment, it is possible to provide accurate route guidance corresponding to the actual road condition.
【0080】なお、本発明は上記実施形態に限定される
ものではなく、本発明の要旨の範囲内において種々の変
形実施が可能である。例えば、上述した実施形態では、
走行レーンの属性を考慮することにより、無駄のない適
切な進路案内を行うようにしていたが、運転者が誤った
走行レーンを選択して交差点に差し掛かった場合に、次
善の進路を案内することもできる。
The present invention is not limited to the above embodiment, and various modifications can be made within the scope of the present invention. For example, in the embodiment described above,
By considering the attributes of the driving lane, the appropriate route guidance without waste was provided, but when the driver selects the wrong driving lane and approaches the intersection, the driver guides the next best route You can also.
【0081】例えば、次の交差点において、誘導経路に
したがった自車の予定進路が「直進」となっているが、
誤って進路が「右」に設定されているレーンを走行した
まま交差点に差し掛かり、その時点での進路変更が難し
い場合を想定する。この場合に、ナビゲーション装置2
内の進路案内部68は、「このレーンは間違っていま
す。今からのレーン変更はできませんので、次の交差点
で右折してください。ナビゲーションはリルート(誘導
経路の再探索)します。」といった内容の案内音声を出
力する。これにより利用者は、走行レーンを誤った場合
でも次善の経路としてどのレーンを走行すればよいかを
容易に知ることができ、従来のナビゲーション装置にお
ける進路案内のように、案内される走行レーンと自車が
実際に走行している走行レーンとが相違することによる
違和感を感じることがない。
For example, at the next intersection, the planned route of the own vehicle according to the guidance route is “straight ahead”.
It is assumed that the vehicle accidentally arrives at an intersection while traveling on a lane where the course is set to “right”, and it is difficult to change the course at that time. In this case, the navigation device 2
The route guidance section 68 inside said, "This lane is wrong. Since it is not possible to change lanes from now on, please turn right at the next intersection. Navigation will reroute (research for guidance route)." The guidance voice of is output. This allows the user to easily know which lane to travel as the next best route even if the traveling lane is incorrect, and the traveling lane to be guided like the route guidance in the conventional navigation device. There is no discomfort due to the difference between the vehicle and the traveling lane where the vehicle is actually traveling.
【0082】また、上述した実施形態では、走行レーン
検知装置1から出力される検知結果をナビゲーション2
における経路誘導に反映させるようにしていたが、走行
レーン検知装置1による検知結果の内容自体を他の車載
用装置(例えば、オーディオ装置や車両用コンピュータ
等)を利用して案内するようにしてもよい。
In the above-described embodiment, the detection result output from the driving lane detecting device 1 is used for the navigation 2.
However, the content itself of the detection result by the traveling lane detecting device 1 may be guided using another in-vehicle device (for example, an audio device or a vehicle computer). Good.
【0083】図10は、走行レーン検知装置1による検
知結果を各種の車載用装置を利用して案内する変形例の
構成を示す図である。一例として、オーディオ装置を利
用する場合の構成が示されている。図10に示すオーデ
ィオ装置3は、CD(コンパクトディスク)やMD(ミ
ニディスク)等に記録された音楽の再生や、ラジオ放送
やテレビジョン放送等の受信などを行うものであり、オ
ーディオ処理部90、画像出力部92、ディスプレイ装
置94、音声出力部96、スピーカ98を含んで構成さ
れている。
FIG. 10 is a diagram showing a configuration of a modification in which the detection result of the traveling lane detecting device 1 is guided by using various on-vehicle devices. As an example, a configuration when an audio device is used is shown. The audio device 3 shown in FIG. 10 reproduces music recorded on a CD (compact disk), MD (mini disk), or the like, and receives radio broadcasts, television broadcasts, and the like. , An image output unit 92, a display device 94, an audio output unit 96, and a speaker 98.
【0084】オーディオ処理部90は、オーディオ装置
3の全体動作を制御する。画像出力部92は、オーディ
オ処理部90による制御にしたがって、CD等の再生中
における状態表示やテレビジョン放送の表示などを行う
ための画像信号を生成し、ディスプレイ装置94に出力
する。ディスプレイ装置94は、画像出力部92から出
力される画像信号に基づいて各種の画像を表示する。音
声出力部96は、オーディオ処理部90による制御にし
たがって、オーディオ音等の音声を出力するための音声
信号を生成し、スピーカ98に出力する。スピーカ98
は、音声出力部96から出力される音声信号に基づいて
音声出力を行う。
The audio processing section 90 controls the overall operation of the audio device 3. The image output unit 92 generates an image signal for displaying a state during reproduction of a CD or the like, displaying a television broadcast, and the like, and outputs the image signal to the display device 94 under the control of the audio processing unit 90. The display device 94 displays various images based on the image signals output from the image output unit 92. The audio output unit 96 generates an audio signal for outputting audio such as an audio sound under the control of the audio processing unit 90 and outputs the audio signal to the speaker 98. Speaker 98
Performs audio output based on the audio signal output from the audio output unit 96.
【0085】このような構成を有するオーディオ装置3
を利用し、走行レーン検知装置1による検知結果を案内
することができる。具体的には、走行レーン検知装置1
による検知結果がオーディオ装置3内のオーディオ部9
0に入力され、検知結果を表示するための画像信号が画
像生成部92により生成されるとともに、検知結果を音
声により案内するための音声信号が音声出力部96によ
り生成される。これにより、ディスプレイ装置94の画
面上に所定の案内画像が表示され、スピーカ98からは
所定の案内音声が出力される。
The audio device 3 having such a configuration
, The result of detection by the traveling lane detecting device 1 can be guided. Specifically, the traveling lane detecting device 1
Is detected by the audio unit 9 in the audio device 3
0, an image signal for displaying the detection result is generated by the image generation unit 92, and a voice signal for guiding the detection result by voice is generated by the voice output unit 96. As a result, a predetermined guidance image is displayed on the screen of the display device 94, and a predetermined guidance sound is output from the speaker 98.
【0086】図11は、車載用装置を利用した変形例に
おける案内画像の表示例を示す図である。上述した図7
に示したような検知結果に基づいて、ディスプレイ装置
94の画面上に図11に示すような案内画像が表示され
る。具体的には、自車の走行レーンや他のレーンの検知
結果が矢印画像により表され、走行レーン(図11では
第2レーン)に対応した矢印画像については、他の矢印
と異なる表示色による強調表示が行われる。また、区画
線や制限速度などの詳細情報については、画面下側にそ
の内容を示す文字が表示される。なお、カメラ10によ
り撮影された画像をこの案内画像に含ませるようにして
もよい。また、このような案内画像とともに、自車の走
行レーン等を案内する案内音声(例えば、「走行中のレ
ーンは、「直進」です」等)が出力される。これらの案
内画像および案内音声により、自車の走行レーンに関す
る情報を容易に知ることができる。
FIG. 11 is a diagram showing a display example of a guide image in a modified example using a vehicle-mounted device. FIG. 7 described above
11 is displayed on the screen of the display device 94 based on the detection result shown in FIG. Specifically, the detection result of the traveling lane of the own vehicle or another lane is represented by an arrow image, and the arrow image corresponding to the traveling lane (the second lane in FIG. 11) has a different display color from the other arrows. Highlighting is performed. For detailed information such as lane markings and speed limits, characters indicating the contents are displayed at the bottom of the screen. Note that an image captured by the camera 10 may be included in the guide image. In addition, along with such a guide image, a guide voice (for example, “the traveling lane is“ straight ahead ”) or the like that guides the traveling lane of the vehicle is output. Information on the traveling lane of the vehicle can be easily known from the guidance image and the guidance voice.
【0087】また、画像生成部、音声生成部、ディスプ
レイ装置、音声出力部などの構成を走行レーン検知装置
に備えておき、ナビゲーション装置やその他の車載用装
置等を利用せずに、走行レーン検知装置を単体で用いて
走行レーンに関する案内を行うようにしてもよい。ある
いは、走行レーン検知装置において、画像データや音声
データを生成する処理を行い、他装置に備わったディス
プレイ装置やスピーカを利用して、案内画像の表示や案
内音声の出力を行うようにしてもよい。
Further, the configuration of an image generation unit, a sound generation unit, a display device, a sound output unit and the like is provided in the traveling lane detection device, and the traveling lane detection is performed without using a navigation device or other in-vehicle devices. The apparatus may be used alone to provide guidance on the traveling lane. Alternatively, the driving lane detecting device may perform a process of generating image data or voice data, and display a guidance image or output a guidance voice using a display device or a speaker included in another device. .
【0088】また、上述した実施形態では、道路上に描
かれている白線を検知することにより、自車の走行レー
ンやその周辺のレーンを判定していたが、カメラ10に
より撮影される画像に基づいて、道路沿いに設置されて
いるガードレールや中央分離帯などを検知し、これらを
考慮してレーン判定を行うようにしてもよい。例えば、
レーンの左側にガードレールが検知された場合には、そ
のレーンは最も左側にあるレーンであることが判断でき
る。同様に、レーンの右側に中央分離帯が検知された場
合には、そのレーンは最も右側にあるレーンであること
が判断できる。
In the above-described embodiment, the traveling lane of the vehicle and the surrounding lanes are determined by detecting the white line drawn on the road. Based on this, a guardrail or a median strip installed along the road may be detected, and the lane determination may be performed in consideration of these. For example,
When a guardrail is detected on the left side of the lane, it can be determined that the lane is the leftmost lane. Similarly, when a median strip is detected on the right side of a lane, it can be determined that the lane is the rightmost lane.
【0089】また、上述した実施形態において、区画線
検知部18によって区画線の検知処理を行う際に、区画
線テンプレートの形状を補正したり、撮像された画像デ
ータの不要部分をマスクしたりして、区画線検知を行う
際の区画線の認識精度を向上させるようにしてもよい。
In the above-described embodiment, when the lane marking detection unit 18 performs the lane marking detection processing, the lane marking template may be corrected in shape or an unnecessary portion of the captured image data may be masked. Thus, the accuracy of recognition of the lane markings when performing the lane marking detection may be improved.
【0090】図12は、区画線検知を行う際の区画線の
認識精度を向上させた区画線検知部18の詳細構成を示
す図である。図12に示すように、区画線検知部18
は、補正変数作成部100、区画線テンプレート作成部
102、マスクデータ作成部104、区画線認識部10
6を含んで構成されている。
FIG. 12 is a diagram showing a detailed configuration of the lane marking detection unit 18 which improves the accuracy of lane marking recognition when performing lane marking detection. As shown in FIG.
Are a correction variable creating unit 100, a lane marking template creating unit 102, a mask data creating unit 104, a lane marking recognition unit 10
6 are included.
【0091】補正変数作成部100は、画像処理基本部
12から出力される画像データと、カメラ10の設置状
態に応じて予め決まる所定のカメラパラメータとに基づ
いて、区画線テンプレートの形状を補正する際に用いる
所定の補正変数を作成する。この補正変数とは、区画線
テンプレートの形状を変形するために必要な所定のパラ
メータであり、本実施形態では最も計算量が少なくなる
ように直線補間による変形処理を行う際のパラメータの
値が決定される。
The correction variable creating unit 100 corrects the shape of the lane line template based on the image data output from the image processing basic unit 12 and predetermined camera parameters determined in advance according to the installation state of the camera 10. A predetermined correction variable used at the time is created. The correction variable is a predetermined parameter necessary for deforming the shape of the lane marking template. In the present embodiment, the value of the parameter when performing the deformation process by linear interpolation is determined so as to minimize the amount of calculation. Is done.
【0092】区画線テンプレート作成部102は、補正
変数作成部100によって作成される補正変数を用いる
ことにより、テンプレートDB24から読み出した区画
線テンプレートの形状を変形する。マスクデータ作成部
104は、区画線テンプレート作成部102によって変
形された区画線テンプレートに基づいて、所定のマスク
データを作成する。マスクデータの詳細内容については
後述する。区画線認識部106は、区画線テンプレート
作成部102によって作成される区画線テンプレート
と、マスクデータ作成部104によって作成されるマス
クデータとを用いて、画像処理基本部12から出力され
る画像データに対して所定の画像認識処理を行うことに
より区画線を検知する。
The lane line template creating unit 102 deforms the shape of the lane line template read from the template DB 24 by using the correction variables created by the correction variable creating unit 100. The mask data creating unit 104 creates predetermined mask data based on the marking line template deformed by the marking line template creating unit 102. The details of the mask data will be described later. The lane marking recognition unit 106 uses the lane marking template created by the lane marking template creating unit 102 and the mask data created by the mask data creating unit 104 to convert the image data output from the image processing basic unit 12 into image data. By performing a predetermined image recognition process on the image, the division line is detected.
【0093】上述した区画線テンプレート作成部102
が区画線テンプレート作成手段に、マスクデータ作成部
104がマスクデータ作成手段に、区画線認識部106
が区画線認識手段にそれぞれ対応する。区画線検知部1
8はこのような構成を有しており、次にその動作内容に
ついて説明する。
The above-described lane line template creating unit 102
Is a lane marking template creating unit, and the mask data creating unit 104 is a mask line creating unit.
Corresponds to the lane marking recognition means. Mark line detection unit 1
8 has such a configuration, and its operation will be described next.
【0094】図13は、図12に示した区画線検知部1
8による区画線検知処理の詳細な手順を示す流れ図であ
る。図13に示す一連の処理は、上述した図6のステッ
プ302〜304において行われる区画線テンプレート
の照合から区画線の内容特定までの各処理に対応する。
FIG. 13 shows the lane marking detecting unit 1 shown in FIG.
8 is a flowchart showing a detailed procedure of a lane marking detection process by No. 8; A series of processing shown in FIG. 13 corresponds to each processing from the collation line template collation to the identification of the content of the lane marking performed in steps 302 to 304 in FIG.
【0095】補正変数作成部100は、カメラ10によ
り撮影された画像の中から、検知対象となる区画線の存
在する可能性の高い領域に含まれる点Aを特定する(ス
テップ500)。例えば、右左折の矢印を検知対象とし
た場合には、画像処理基本部12から出力された画像デ
ータの中から、白色部分あるいは黄色部分を分離するた
めに高輝度領域を抽出する2値化処理が行われ、この高
輝度領域の先端部分の内部に適当な点A(Xa,Ya)
が特定される。
The correction variable creating unit 100 specifies a point A included in an area where a section line to be detected is likely to be present, from the image captured by the camera 10 (step 500). For example, in the case where an arrow of right or left turn is to be detected, a binarization process of extracting a high-luminance area to separate a white portion or a yellow portion from the image data output from the image processing basic unit 12 Is performed, and an appropriate point A (Xa, Ya) is set inside the front end portion of the high brightness area.
Is specified.
【0096】次に、補正変数作成部100は、このよう
にして設定した点A近傍の所定領域に対応する補正変数
を設定する(ステップ501)。図14は、カメラ10
による撮影によって得られた画像上の点と道路表面の実
空間上の点との対応関係を示す図である。図14におい
て、θ2はカメラ10の俯角を、hはカメラ10の道路
表面からの設置高さをそれぞれ示している。これらのθ
2、hとカメラ10の焦点距離fカメラパラメータであ
り、カメラ10の設置状態に応じて予め設定されてい
る。図14に示すように、カメラ10により撮影される
画像上の点P(x,y)と、道路上の実空間上の点R
(X,Y)とが1対1に対応しており、一方の点Pの位
置が特定されたときにこれに対応する他方の点Rの位置
を計算により求めることができ、反対に、他方の点Rの
位置が特定されたときにこれに対応する一方の点Pの位
置を計算により求めることもできる。
Next, the correction variable creating section 100 sets a correction variable corresponding to a predetermined area near the point A set in this way (step 501). FIG.
FIG. 5 is a diagram showing a correspondence relationship between points on an image obtained by photography by the camera and points on the road surface in real space. In FIG. 14, θ 2 indicates the depression angle of the camera 10, and h indicates the installation height of the camera 10 from the road surface. These θ
2 , h and the focal length f of the camera 10 are camera parameters, which are preset according to the installation state of the camera 10. As shown in FIG. 14, a point P (x, y) on an image captured by the camera 10 and a point R on a real space on a road
(X, Y) correspond one-to-one, and when the position of one point P is specified, the position of the other point R corresponding thereto can be obtained by calculation. When the position of the point R is specified, the position of the corresponding one point P can be obtained by calculation.
【0097】例えば、点Pの座標x,yが既知のときに
点Rの座標X,Yは、カメラパラメータθ2、f、hを
用いると、以下の式で計算することができる。
For example, when the coordinates x and y of the point P are known, the coordinates X and Y of the point R can be calculated by the following equations using the camera parameters θ 2 , f and h.
【0098】[0098]
【数1】 (Equation 1)
【0099】図15は、区画線テンプレートの形状を変
形するために必要な補正変数の作成方法を示す図であ
る。補正変数作成部100は、上述した(1)式および
(2)式を用いて、カメラ10による撮影によって得ら
れた画像上の点A(xa,ya)に対応する道路表面の
実空間上の点RA(Xra,Yra)を座標を計算す
る。また、補正変数作成部100は、この点RAを中心
とした所定の大きさの矩形領域を設定し、この矩形領域
の4つ頂点RA1〜RA4のそれぞれの座標を計算す
る。この矩形領域は、実際の区画線テンプレートを囲む
最小矩形に対応しており、幅a×高さbの大きさを有し
ている。例えば、右折レーンを示す区画線(右折用の矢
印)を検知するために用いられる区画線テンプレートと
しては、矢印の先端部分(図15(B)においてハッチ
ングが付された部分)が用いられており、この先端部分
が含まれるような矩形領域の4つの頂点RA1〜RA4
が求められる。次に、補正変数作成部100は、4つの
頂点RA1〜RA4に対応する撮影画像上の4点A1〜
A4の座標を計算する。
FIG. 15 is a diagram showing a method of creating a correction variable necessary for deforming the shape of the lane marking template. The correction variable creation unit 100 uses the above-described equations (1) and (2) to set the road surface corresponding to the point A (xa, ya) on the image obtained by the camera 10 in the real space. The coordinates of the point RA (Xra, Yra) are calculated. Further, the correction variable creating unit 100 sets a rectangular area of a predetermined size around the point RA, and calculates the coordinates of each of the four vertices RA1 to RA4 of the rectangular area. This rectangular area corresponds to the minimum rectangle surrounding the actual lane marking template, and has a size of width a × height b. For example, as a lane marking template used to detect a lane marking indicating a right-turn lane (right-turn arrow), the tip of the arrow (the part hatched in FIG. 15B) is used. , Four vertices RA1 to RA4 of a rectangular area including this tip portion
Is required. Next, the correction variable creation unit 100 calculates four points A1 to A4 on the captured image corresponding to the four vertices RA1 to RA4.
The coordinates of A4 are calculated.
【0100】このようにして実空間上の4点RA1〜R
A4のそれぞれに対応する撮影画像上の4点A1〜A4
が計算により求まると、4点RA1〜RA4を頂点とす
る矩形内の各点に対応する撮影画像上の各点の座標は簡
単な線形補間によって計算することが可能になり、補正
変数作成部100は、この線形補間計算を行うために必
要な補正変数を計算により設定する。
In this way, the four points RA1 to R
Four points A1 to A4 on the captured image corresponding to each of A4
Is obtained by calculation, the coordinates of each point on the captured image corresponding to each point in the rectangle having the four points RA1 to RA4 as vertices can be calculated by simple linear interpolation. Sets the correction variables necessary for performing the linear interpolation calculation by calculation.
【0101】次に、区画線テンプレート作成部102
は、補正変数作成部100によって設定された補正変数
を用いて、テンプレートDB24から読み出された区画
線テンプレートの形状を変形する(ステップ502)。
図16は、区画線テンプレートの形状を変形する処理の
内容を示す図である。例えば、右折レーンを示す区画線
に対応する区画線テンプレートの形状を変形する際の処
理内容が示されている。上述したように、右折レーン用
の区画線としては、矢印の先端部分(三角形の部分)に
よって構成される区画線テンプレートが用いられてい
る。図16(A)に示す形状を有する区画線テンプレー
ト200が、簡単な線形補間処理によって、図16
(B)に示す形状を有する区画線テンプレート200a
に変形される。
Next, a lane marking template creating unit 102
Transforms the shape of the lane line template read from the template DB 24 using the correction variables set by the correction variable creation unit 100 (Step 502).
FIG. 16 is a diagram showing the contents of the processing for deforming the shape of the lane marking template. For example, the processing contents when deforming the shape of the lane marking template corresponding to the lane marking indicating the right turn lane are shown. As described above, as the lane markings for the right-turn lane, the lane marking template constituted by the tips of the arrows (triangular portions) is used. A lane marking template 200 having the shape shown in FIG. 16A is obtained by a simple linear interpolation process.
Section line template 200a having the shape shown in FIG.
Is transformed into
【0102】また、マスクデータ作成部104は、変形
後の区画線テンプレートに対応してマスクデータを作成
する(ステップ503)。図17は、マスクデータを作
成する処理の内容を示す図である。マスクデータ作成部
104は、図16(B)に示した変形後の区画線テンプ
レート200aを含む所定範囲の矩形領域210を設定
するとともに、この区画線テンプレート200aの形状
に対応して、矩形領域210内であって区画線テンプレ
ート200aの右下側または左下側に存在する領域に含
まれる区画線を検知処理の対象から除外するためのマス
クデータを作成する。例えば、図16(A)に示すよう
に右折レーン用の区画線テンプレートを考えた場合に
は、図17(A)に示すように、変形後の区画線テンプ
レート200aの左下側に存在する領域220が特定さ
れ、この領域に対応するマスクデータが作成される。一
方、左折レーン用の区画線テンプレートを考えた場合に
は、図17(B)に示すように、変形後の区画線テンプ
レート202の右下側に存在する領域222が特定さ
れ、この領域に対応するマスクデータが作成される。
The mask data creating section 104 creates mask data corresponding to the deformed lane line template (step 503). FIG. 17 is a diagram showing the contents of the processing for creating mask data. The mask data creation unit 104 sets a rectangular area 210 of a predetermined range including the deformed lane marking template 200a shown in FIG. 16B, and also sets the rectangular area 210 corresponding to the shape of the lane marking template 200a. Mask data is created for excluding the lane markings included in an area existing on the lower right side or lower left side of the lane marking template 200a from the target of the detection processing. For example, when a lane marking template for a right-turn lane is considered as shown in FIG. 16A, an area 220 existing on the lower left side of the lane marking template 200a after deformation is obtained as shown in FIG. Is specified, and mask data corresponding to this region is created. On the other hand, when considering a lane marking template for a left turn lane, as shown in FIG. 17B, an area 222 existing on the lower right side of the lane marking template 202 after the deformation is specified, and the area 222 corresponding to this area is identified. Is created.
【0103】区画線認識部106は、区画線テンプレー
ト作成部102によって変形された区画線テンプレート
と、マスクデータ作成部104によって作成されたマス
クデータを用いて、画像処理基本部12から出力された
画像データに対して区画線認識処理を実行する(ステッ
プ504)。この認識処理では、画像データと区画線テ
ンプレートとの間の正規化された相関値が計算され、最
も相関値が大きな区画線テンプレートが選択されるが、
マスクデータで特定される領域はこの相関値計算の対象
から除外される。
The lane marking recognition section 106 uses the lane marking template deformed by the lane marking template generating section 102 and the mask data generated by the mask data generating section 104 to generate an image output from the image processing basic section 12. A lane marking recognition process is performed on the data (step 504). In this recognition processing, a normalized correlation value between the image data and the lane marking template is calculated, and the lane marking template having the largest correlation value is selected.
The area specified by the mask data is excluded from the target of the correlation value calculation.
【0104】このように、変形された区画線テンプレー
トとマスクデータとを用いて区画線認識を行うことによ
り、カメラ10によって実際に撮影された画像に含まれ
る区画線の形状を正確に認識して区画線の検知を行うこ
とが可能になり、検知精度を向上させることができる。
特に、道路表面に描かれた実際の区画線の形状が撮影画
像上ではどのように変形するかは、カメラ10の設置状
態に応じて設定されるカメラパラメータ(俯角、焦点距
離、設置高さ)によって決まるため、これらの値に基づ
いて区画線テンプレートの作成を行うことにより、区画
線検知の精度をさらに高めることができる。また、道路
表面の実空間上に描かれた区画線をカメラ10で撮影し
たときに撮影画像上においてこの区画線の形状が変形す
る状態を再現する補正変数を用いて区画線テンプレート
を作成することにより、区画線検知の精度をさらに高め
ることができる。
As described above, by performing the lane marking recognition using the deformed lane marking template and the mask data, the shape of the lane marking included in the image actually photographed by the camera 10 can be accurately recognized. The lane marking can be detected, and the detection accuracy can be improved.
In particular, how the shape of the actual lane marking drawn on the road surface is deformed on the photographed image depends on the camera parameters (depression angle, focal length, installation height) set according to the installation state of the camera 10. Therefore, by creating a lane marking template based on these values, the accuracy of lane marking detection can be further improved. In addition, when a lane marking drawn in a real space on a road surface is photographed by the camera 10, a lane marking template is created using a correction variable that reproduces a state in which the shape of the lane marking is deformed on a captured image. Thereby, the accuracy of lane marking detection can be further improved.
【0105】また、区画線テンプレートの形状が含まれ
る所定領域の一部を認識処理の対象から除外するマスク
データを用いることにより、変形後の区画線テンプレー
トの形状を含む矩形領域全体を用いて区画線の検知を行
った場合であっても、変形後の区画線テンプレートに付
随する不要部分(矢印の先端部分から直線部分に向かっ
て延びる区画線の一部)によって検知精度が悪化するこ
とを防止することができる。
Further, by using the mask data for excluding a part of the predetermined area including the shape of the lane marking template from the target of the recognition processing, it is possible to use the entire rectangular area including the shape of the lane marking template after deformation. Even if line detection is performed, the detection accuracy is prevented from deteriorating due to unnecessary parts (part of the division line extending from the tip of the arrow toward the straight line) accompanying the modified division line template. can do.
【0106】なお、上述した変形例では、走行レーンの
進行方向を示す区画線を例に挙げて説明を行っていた
が、他の区画線(例えば、制限速度を示す数字からなる
区画線など)を検知する場合にも、上述した手法と同様
にして区画線の認識精度を向上させることができる。
In the above-described modified example, the description has been made by taking the lane markings indicating the traveling direction of the traveling lane as an example. However, other lane markings (for example, lane markings consisting of numbers indicating the speed limit). Is detected, it is possible to improve the recognition accuracy of the lane markings in the same manner as in the method described above.
【0107】[0107]
【発明の効果】上述したように、本発明の走行レーン検
知装置によれば、車両に設置されたカメラによって撮影
された画像に基づいて、車両の走行レーンが判定される
とともに、走行レーンの属性、すなわち走行レーンに関
する情報が判定されるので、走行レーンの内容を容易に
知ることができる。
As described above, according to the traveling lane detecting device of the present invention, the traveling lane of the vehicle is determined based on the image taken by the camera installed in the vehicle, and the attribute of the traveling lane is determined. That is, since the information on the traveling lane is determined, the contents of the traveling lane can be easily known.
【0108】また、本発明のナビゲーション装置によれ
ば、走行レーン検知装置によって判定された走行レーン
の属性を考慮しているので、走行経路に沿って走行する
際に、自車の現在の走行レーンに応じた無駄のない適切
な進路案内を行うことができる。
Further, according to the navigation device of the present invention, since the attribute of the traveling lane determined by the traveling lane detecting device is taken into consideration, when traveling along the traveling route, the current traveling lane of the own vehicle is used. And appropriate route guidance can be performed without waste.
【図面の簡単な説明】[Brief description of the drawings]
【図1】一実施形態の車載システムの全体構成を示す図
である。
FIG. 1 is a diagram illustrating an overall configuration of a vehicle-mounted system according to an embodiment.
【図2】ナビゲーション装置の詳細構成を示す図であ
る。
FIG. 2 is a diagram showing a detailed configuration of a navigation device.
【図3】走行レーン検知装置の動作手順を示す流れ図で
ある。
FIG. 3 is a flowchart showing an operation procedure of the traveling lane detecting device.
【図4】ステップ107に示した走行レーン判定処理の
詳細な手順を示す流れ図である。
FIG. 4 is a flowchart showing a detailed procedure of a traveling lane determination process shown in step 107.
【図5】走行レーン判定処理の内容を概略的に示す図で
ある。
FIG. 5 is a diagram schematically showing the contents of a traveling lane determination process.
【図6】ステップ108に示した区画線検知処理の詳細
な手順を示す流れ図である。
FIG. 6 is a flowchart showing a detailed procedure of a lane line detection process shown in step 108;
【図7】レーン属性判定部から出力される検知結果の具
体例を示す図である。
FIG. 7 is a diagram illustrating a specific example of a detection result output from a lane attribute determination unit.
【図8】進路案内を行う際のナビゲーション装置の動作
手順を示す流れ図である。
FIG. 8 is a flowchart showing an operation procedure of the navigation device when performing route guidance.
【図9】案内音声の具体例を示す図である。FIG. 9 is a diagram showing a specific example of a guidance voice.
【図10】走行レーン検知装置による検知結果を各種の
車載用装置を利用して案内する変形例の構成を示す図で
ある。
FIG. 10 is a diagram showing a configuration of a modification in which a detection result by the traveling lane detection device is guided using various on-vehicle devices.
【図11】車載用装置を利用した変形例における案内画
像の表示例を示す図である。
FIG. 11 is a diagram showing a display example of a guide image in a modification using an in-vehicle device.
【図12】区画線検知を行う際の区画線の認識精度を向
上させた区画線検知部の詳細構成を示す図である。
FIG. 12 is a diagram illustrating a detailed configuration of a lane marking detection unit that improves lane marking recognition accuracy when performing lane marking detection.
【図13】図12に示した区画線検知部による区画線検
知処理の詳細な手順を示す流れ図である。
13 is a flowchart showing a detailed procedure of a lane line detection process by the lane line detection unit shown in FIG.
【図14】カメラによる撮影によって得られた画像上の
点と道路表面の実空間上の点との対応関係を示す図であ
る。
FIG. 14 is a diagram showing a correspondence relationship between points on an image obtained by photographing with a camera and points on a road surface in real space.
【図15】区画線テンプレートの形状を変形するために
必要な補正変数の作成方法を示す図である。
FIG. 15 is a diagram illustrating a method of creating a correction variable required to deform the shape of a lane marking template.
【図16】区画線テンプレートの形状を変形する処理の
内容を示す図である。
FIG. 16 is a diagram illustrating the contents of a process of deforming the shape of a lane marking template.
【図17】マスクデータを作成する処理の内容を示す図
である。
FIG. 17 is a diagram showing the contents of processing for creating mask data.
【符号の説明】[Explanation of symbols]
1 走行レーン検知装置 2 ナビゲーション装置 10 カメラ 12 画像処理基本部 16 白線検知部 18 区画線検知部 20 道路標識検知部 22 障害物検知部 24 テンプレートデータベース(DB) 26 走行レーン判定部 28 レーン属性判定部 50 ナビゲーションコントローラ 55 ディスプレイ装置 56 オーディオ部 68 進路案内部 72 経路探索処理部 80 画像合成部 100 補正変数作成部 102 区画線テンプレート作成部 104 マスクデータ作成部 106 区画線認識部 Reference Signs List 1 traveling lane detecting device 2 navigation device 10 camera 12 image processing basic unit 16 white line detecting unit 18 lane marking detecting unit 20 road sign detecting unit 22 obstacle detecting unit 24 template database (DB) 26 traveling lane determining unit 28 lane attribute determining unit Reference Signs List 50 navigation controller 55 display device 56 audio unit 68 route guidance unit 72 route search processing unit 80 image synthesizing unit 100 correction variable creating unit 102 marking line template creating unit 104 mask data creating unit 106 marking line recognition unit
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C032 HB02 HB22 HC08 HC15 HC31 HD03 HD07 HD16 HD26 HD30 2F029 AA02 AB01 AB07 AC02 AC14 AC18 5H180 AA01 BB13 CC04 CC24 FF04 FF05 FF22 FF25 FF27 FF40 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2C032 HB02 HB22 HC08 HC15 HC31 HD03 HD07 HD16 HD26 HD30 2F029 AA02 AB01 AB07 AC02 AC14 AC18 5H180 AA01 BB13 CC04 CC24 FF04 FF05 FF22 FF25 FF27 FF40

Claims (10)

    【特許請求の範囲】[Claims]
  1. 【請求項1】 車両に設置されたカメラと、 前記カメラによって撮影された画像に基づいて、前記車
    両の走行レーンを判定する走行レーン判定手段と、 前記カメラによって撮影された画像に基づいて、前記走
    行レーンの属性を判定するレーン属性判定手段と、 を備えることを特徴とする走行レーン検知装置。
    A camera installed in the vehicle, a driving lane determining unit that determines a driving lane of the vehicle based on an image captured by the camera, and a driving lane determining unit that determines a driving lane of the vehicle based on an image captured by the camera. A traveling lane detecting device, comprising: lane attribute determining means for determining an attribute of a traveling lane.
  2. 【請求項2】 請求項1において、 前記カメラによって撮影された画像に基づいて、道路上
    の白線を検知する白線検知手段をさらに備え、 前記走行レーン判定手段は、前記白線検知手段の検知結
    果に基づいて前記走行レーンを判定することを特徴とす
    る走行レーン検知装置。
    2. The vehicle according to claim 1, further comprising a white line detection unit configured to detect a white line on a road based on an image captured by the camera, wherein the traveling lane determination unit determines a detection result of the white line detection unit. A driving lane detecting device that determines the driving lane based on the driving lane.
  3. 【請求項3】 請求項1または2において、 前記カメラによって撮影された画像に基づいて、道路上
    の区画線を検知する区画線検知手段、および道路標識を
    検知する道路標識検知手段の少なくとも一方をさらに備
    え、 前記レーン属性判定手段は、前記区画線検知手段および
    前記道路標識検知手段の少なくとも一方の検知結果に基
    づいて前記走行レーンの属性の判定を行うことを特徴と
    する走行レーン検知装置。
    3. The method according to claim 1, wherein at least one of a lane marking detecting means for detecting a lane marking on a road and a road sign detecting means for detecting a road sign based on an image taken by the camera. The traveling lane detecting device, further comprising: a lane attribute determining unit that determines an attribute of the traveling lane based on a detection result of at least one of the lane marking detecting unit and the road sign detecting unit.
  4. 【請求項4】 請求項1〜3のいずれかに記載の走行レ
    ーン検知装置によって判定された前記走行レーンの属性
    を用いて所定の動作を行うナビゲーション装置であっ
    て、 出発地と目的地との間を結ぶ所定の走行経路を探索する
    経路探索手段と、 前記経路探索手段によって設定された前記走行経路に沿
    って走行する際に、前記走行レーンの属性を考慮した案
    内を行う案内手段と、 を備えることを特徴とするナビゲーション装置。
    4. A navigation device that performs a predetermined operation using an attribute of the traveling lane determined by the traveling lane detecting device according to claim 1, wherein the navigation device performs a predetermined operation between the starting point and the destination. Route search means for searching for a predetermined travel route connecting between them, and guide means for performing guidance in consideration of the attribute of the travel lane when traveling along the travel route set by the route search means. A navigation device comprising:
  5. 【請求項5】 請求項4において、 前記案内手段は、進行方向前方に位置する交差点に着目
    し、前記交差点による右左折情報と前記走行レーンに対
    応する進路情報とを組み合わることにより、前記案内の
    内容を設定することを特徴とするナビゲーション装置。
    5. The guidance device according to claim 4, wherein the guidance unit focuses on an intersection located ahead of the traveling direction, and combines right / left turn information at the intersection with route information corresponding to the traveling lane. A navigation device for setting the content of the navigation device.
  6. 【請求項6】 請求項1〜3のいずれかに記載の走行レ
    ーン検知装置によって判定された前記走行レーンの属性
    を用いて所定の動作を行うナビゲーション装置であっ
    て、 走行中の車両位置を検出する車両位置検出手段と、 前記走行レーンの属性に道路のレーン数が含まれている
    場合に、このレーン数を考慮して、前記車両位置検出手
    段によって検出された前記車両位置を地図の道路上の位
    置に一致させるマップマッチング処理を行うマップマッ
    チング処理手段と、 を備えることを特徴とするナビゲーション装置。
    6. A navigation device that performs a predetermined operation using an attribute of the traveling lane determined by the traveling lane detecting device according to claim 1, wherein the navigation device detects a traveling vehicle position. Vehicle position detecting means, and when the attribute of the traveling lane includes the number of road lanes, the vehicle position detected by the vehicle position detecting means is determined on the road on the map in consideration of the number of lanes. And a map matching processing means for performing a map matching process for matching the position of the navigation device.
  7. 【請求項7】 請求項3において、 前記区画線検知手段は、 検知対象となる前記区画線の形状が第1の区画線テンプ
    レートとして格納されたテンプレートデーターベースか
    らこの第1の区画線テンプレートを読み出して、前記カ
    メラの設置状態に応じて変形することにより、検知処理
    に用いる第2の区画線テンプレートを作成する区画線テ
    ンプレート作成手段と、 前記区画線テンプレート作成手段によって作成された前
    記第2の区画線テンプレートを用いて、前記カメラによ
    って撮影された画像に含まれる前記区画線の認識を行う
    区画線認識手段と、 を備えることを特徴とする走行レーン検知装置。
    7. The lane marking detecting device according to claim 3, wherein the lane marking detecting means reads the first lane marking template from a template database in which the shape of the lane marking to be detected is stored as a first lane marking template. A lane marking template creating unit for creating a second lane marking template used in the detection process by deforming according to the installation state of the camera; and the second partition created by the lane marking template creating unit. And a lane marking recognition unit for recognizing the lane marking included in the image captured by the camera using a line template.
  8. 【請求項8】 請求項7において、 前記区画線テンプレート作成手段は、前記カメラの設置
    状態に応じて予め決まる前記カメラの俯角、焦点距離、
    道路からの設置高さを用いて前記第2の区画線テンプレ
    ートの作成を行うことを特徴とする走行レーン検知装
    置。
    8. The method according to claim 7, wherein the lane marking template creating means includes a depression angle, a focal length,
    A travel lane detecting device, wherein the second lane marking template is created using an installation height from a road.
  9. 【請求項9】 請求項7または8において、 前記区画線テンプレート作成手段は、道路表面の実空間
    上に描かれた区画線を前記カメラで撮影したときに撮影
    画像上においてこの区画線の形状が変形する状態を再現
    する補正変数を用いて、前記テンプレートデータベース
    から読み出した前記第1の区画線テンプレートの形状を
    変形して前記第2の区画線テンプレートを作成すること
    を特徴とする走行レーン検知装置。
    9. The lane marking template creating means according to claim 7, wherein when the lane marking drawn in the real space on the road surface is photographed by the camera, the shape of the lane marking is displayed on the photographed image. A travel lane detecting apparatus, wherein the second lane marking template is created by modifying the shape of the first lane marking template read from the template database using a correction variable for reproducing a deformed state. .
  10. 【請求項10】 請求項7〜9のいずれかにおいて、 前記区画線検知手段は、前記第2の区画線テンプレート
    の形状が含まれる所定領域の一部を前記区画線認識手段
    による認識処理の対象から除外するマスクデータを作成
    するマスクデータ作成手段をさらに備え、 前記区画線認識手段は、前記第2の区画線テンプレート
    と前記マスクデータとを用いて前記区画線の認識を行う
    ことを特徴とする走行レーン検知装置。
    10. The lane marking detection unit according to claim 7, wherein the lane marking detection unit targets a part of a predetermined area including the shape of the second lane marking template to be recognized by the lane marking recognition unit. Mask data generating means for generating mask data to be excluded from the image data, wherein the lane marking recognition means recognizes the lane marking using the second lane marking template and the mask data. Driving lane detection device.
JP2002008179A 2001-02-13 2002-01-17 Traveling lane detecting device and navigation apparatus Granted JP2002318130A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001035261 2001-02-13
JP2001-35261 2001-02-13
JP2002008179A JP2002318130A (en) 2001-02-13 2002-01-17 Traveling lane detecting device and navigation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002008179A JP2002318130A (en) 2001-02-13 2002-01-17 Traveling lane detecting device and navigation apparatus

Publications (1)

Publication Number Publication Date
JP2002318130A true JP2002318130A (en) 2002-10-31

Family

ID=26609298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002008179A Granted JP2002318130A (en) 2001-02-13 2002-01-17 Traveling lane detecting device and navigation apparatus

Country Status (1)

Country Link
JP (1) JP2002318130A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006068268A1 (en) * 2004-12-24 2006-06-29 Fujitsu Ten Limited Driving assistance device
DE102004060432A1 (en) * 2004-12-14 2006-08-10 Daimlerchrysler Ag Road-exit detecting method for vehicle, involves designing evaluation unit to recognize road-exit on the basis of information that is detected during detection of environment over road-exit
JP2006300534A (en) * 2005-04-15 2006-11-02 Auto Network Gijutsu Kenkyusho:Kk Vehicle periphery monitoring apparatus and drive support apparatus
JP2007004256A (en) * 2005-06-21 2007-01-11 Toyota Motor Corp Image processing apparatus and image processing method
JP2007071579A (en) * 2005-09-05 2007-03-22 Xanavi Informatics Corp On-vehicle navigation device and system
JP2007086052A (en) * 2005-08-24 2007-04-05 Denso Corp Navigation device and program
JP2007127417A (en) * 2005-10-31 2007-05-24 Aisin Aw Co Ltd System and method for route guidance
JP2007178361A (en) * 2005-12-28 2007-07-12 Aisin Aw Co Ltd Route guidance system and method
JP2007220028A (en) * 2006-02-20 2007-08-30 Toyota Motor Corp Device, method, and program for detecting road section line
JP2008232760A (en) * 2007-03-19 2008-10-02 Toyota Motor Corp Navigation system
JP2008262095A (en) * 2007-04-13 2008-10-30 Xanavi Informatics Corp In-vehicle map display apparatus
JP2008293380A (en) * 2007-05-25 2008-12-04 Aisin Aw Co Ltd Lane determination device, lane determination method and navigation apparatus using the same
JP2008305042A (en) * 2007-06-06 2008-12-18 Hitachi Ltd Car navigation device, road sign recognition method and program
JP2011159147A (en) * 2010-02-02 2011-08-18 Toyota Motor Corp Driving support apparatus
JP2012117944A (en) * 2010-12-01 2012-06-21 Aisin Aw Co Ltd Navigation device
JP2013054701A (en) * 2011-09-06 2013-03-21 Honda Motor Co Ltd Driving support system for vehicle
WO2013149149A1 (en) * 2012-03-29 2013-10-03 Honda Motor Co., Ltd Method to identify driven lane on map and improve vehicle position estimate
WO2016203506A1 (en) * 2015-06-15 2016-12-22 三菱電機株式会社 Route guidance device and route guidance method
KR20180045661A (en) * 2016-10-26 2018-05-04 주식회사 만도 Optimum driving lane leading method and system using a front image and navigation information
KR20190049147A (en) * 2017-11-01 2019-05-09 재단법인대구경북과학기술원 Lane departure detecting device and controlling method thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02129799A (en) * 1988-11-09 1990-05-17 Aisin Seiki Co Ltd Device for displaying target on mobile object
JPH07141599A (en) * 1993-11-15 1995-06-02 Toyota Motor Corp Device for detecting road white line
JPH0844999A (en) * 1994-08-03 1996-02-16 Nissan Motor Co Ltd Approach prediction device
JPH10177699A (en) * 1996-12-16 1998-06-30 Toyota Motor Corp Voice guidance device for automobile utilizing image information
JPH10300494A (en) * 1997-04-28 1998-11-13 Fujitsu Ten Ltd Vehicle position detecting device and method and route guide device and method
JPH1123305A (en) * 1997-07-03 1999-01-29 Toyota Motor Corp Running guide apparatus for vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02129799A (en) * 1988-11-09 1990-05-17 Aisin Seiki Co Ltd Device for displaying target on mobile object
JPH07141599A (en) * 1993-11-15 1995-06-02 Toyota Motor Corp Device for detecting road white line
JPH0844999A (en) * 1994-08-03 1996-02-16 Nissan Motor Co Ltd Approach prediction device
JPH10177699A (en) * 1996-12-16 1998-06-30 Toyota Motor Corp Voice guidance device for automobile utilizing image information
JPH10300494A (en) * 1997-04-28 1998-11-13 Fujitsu Ten Ltd Vehicle position detecting device and method and route guide device and method
JPH1123305A (en) * 1997-07-03 1999-01-29 Toyota Motor Corp Running guide apparatus for vehicle

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004060432A1 (en) * 2004-12-14 2006-08-10 Daimlerchrysler Ag Road-exit detecting method for vehicle, involves designing evaluation unit to recognize road-exit on the basis of information that is detected during detection of environment over road-exit
DE102004060432B4 (en) * 2004-12-14 2008-04-10 Daimler Ag Method for the early detection of road exits
WO2006068268A1 (en) * 2004-12-24 2006-06-29 Fujitsu Ten Limited Driving assistance device
JP2006184007A (en) * 2004-12-24 2006-07-13 Fujitsu Ten Ltd Driving support device
US8073618B2 (en) 2004-12-24 2011-12-06 Fujitsu Ten Limited Driving support apparatus and method
JP2006300534A (en) * 2005-04-15 2006-11-02 Auto Network Gijutsu Kenkyusho:Kk Vehicle periphery monitoring apparatus and drive support apparatus
JP2007004256A (en) * 2005-06-21 2007-01-11 Toyota Motor Corp Image processing apparatus and image processing method
JP4645516B2 (en) * 2005-08-24 2011-03-09 株式会社デンソー Navigation device and program
JP2007086052A (en) * 2005-08-24 2007-04-05 Denso Corp Navigation device and program
US8024115B2 (en) 2005-08-24 2011-09-20 Denso Corporation Navigation apparatus, method and program for vehicle
JP2007071579A (en) * 2005-09-05 2007-03-22 Xanavi Informatics Corp On-vehicle navigation device and system
JP2007127417A (en) * 2005-10-31 2007-05-24 Aisin Aw Co Ltd System and method for route guidance
JP4613793B2 (en) * 2005-10-31 2011-01-19 アイシン・エィ・ダブリュ株式会社 Route guidance system and route guidance method
JP4710604B2 (en) * 2005-12-28 2011-06-29 アイシン・エィ・ダブリュ株式会社 Route guidance system and route guidance method
JP2007178361A (en) * 2005-12-28 2007-07-12 Aisin Aw Co Ltd Route guidance system and method
JP2007220028A (en) * 2006-02-20 2007-08-30 Toyota Motor Corp Device, method, and program for detecting road section line
JP2008232760A (en) * 2007-03-19 2008-10-02 Toyota Motor Corp Navigation system
JP2008262095A (en) * 2007-04-13 2008-10-30 Xanavi Informatics Corp In-vehicle map display apparatus
US8346473B2 (en) 2007-05-25 2013-01-01 Aisin Aw Co., Ltd. Lane determining device, lane determining method and navigation apparatus using the same
JP2008293380A (en) * 2007-05-25 2008-12-04 Aisin Aw Co Ltd Lane determination device, lane determination method and navigation apparatus using the same
JP2008305042A (en) * 2007-06-06 2008-12-18 Hitachi Ltd Car navigation device, road sign recognition method and program
JP2011159147A (en) * 2010-02-02 2011-08-18 Toyota Motor Corp Driving support apparatus
JP2012117944A (en) * 2010-12-01 2012-06-21 Aisin Aw Co Ltd Navigation device
JP2013054701A (en) * 2011-09-06 2013-03-21 Honda Motor Co Ltd Driving support system for vehicle
WO2013149149A1 (en) * 2012-03-29 2013-10-03 Honda Motor Co., Ltd Method to identify driven lane on map and improve vehicle position estimate
WO2016203506A1 (en) * 2015-06-15 2016-12-22 三菱電機株式会社 Route guidance device and route guidance method
JPWO2016203506A1 (en) * 2015-06-15 2017-09-14 三菱電機株式会社 Route guidance device and route guidance method
KR20180045661A (en) * 2016-10-26 2018-05-04 주식회사 만도 Optimum driving lane leading method and system using a front image and navigation information
KR101938145B1 (en) * 2016-10-26 2019-04-11 주식회사 만도 Optimum driving lane leading method and system using a front image and navigation information
KR20190049147A (en) * 2017-11-01 2019-05-09 재단법인대구경북과학기술원 Lane departure detecting device and controlling method thereof
KR102296205B1 (en) 2017-11-01 2021-09-01 재단법인대구경북과학기술원 Lane departure detecting device and controlling method thereof

Similar Documents

Publication Publication Date Title
JP2002318130A (en) Traveling lane detecting device and navigation apparatus
CN107430807B (en) Automatic driving assistance system, automatic driving assistance method, and computer program
US6944538B2 (en) Navigation apparatus, navigation system and navigation method providing guidance for lane changes
US20100026804A1 (en) Route guidance systems, methods, and programs
US7899589B2 (en) Control information storage apparatus and program for same
US8504293B2 (en) Travel guiding apparatus for vehicle, travel guiding method for vehicle, and computer-readable storage medium
JP2007017340A (en) Navigation device and method
JP2001289654A (en) Navigator, method of controlling navigator and memory medium having recorded programs
JP2008111815A (en) Route guide system and route guide method
JP2004045227A (en) Instrument and method for measuring position of vehicle
JP2002243469A (en) Navigation device and map database updating system
JP2008299570A (en) Driving support device
JPWO2007037281A1 (en) Peripheral search data creation system, peripheral search system, peripheral search data creation method, peripheral search method, and navigation device
US7970536B2 (en) Navigation system
JP4591311B2 (en) Route guidance system and route guidance method
JP2007147317A (en) Route guidance system for vehicle
JP4613738B2 (en) Intersection recognition system and intersection recognition method
US6345230B1 (en) Vehicle navigation system and method
JP2009222392A (en) Map display apparatus for vehicle
JP2006023127A (en) Navigation system, and method for presenting spot-of-concern information
JP2882251B2 (en) Route guidance device
JP2007071539A (en) On-vehicle navigation device
JP5163077B2 (en) Route guidance system and program
JP2006317286A (en) Onboard navigation device
JP2008122495A (en) Audio cooperation route guidance system and audio cooperation route guidance method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070424