JP3811238B2 - Voice guidance device for vehicles using image information - Google Patents

Voice guidance device for vehicles using image information Download PDF

Info

Publication number
JP3811238B2
JP3811238B2 JP33603396A JP33603396A JP3811238B2 JP 3811238 B2 JP3811238 B2 JP 3811238B2 JP 33603396 A JP33603396 A JP 33603396A JP 33603396 A JP33603396 A JP 33603396A JP 3811238 B2 JP3811238 B2 JP 3811238B2
Authority
JP
Japan
Prior art keywords
guidance
vehicle
feature
branch point
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP33603396A
Other languages
Japanese (ja)
Other versions
JPH10177699A (en
Inventor
徹 伊藤
賢一 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP33603396A priority Critical patent/JP3811238B2/en
Publication of JPH10177699A publication Critical patent/JPH10177699A/en
Application granted granted Critical
Publication of JP3811238B2 publication Critical patent/JP3811238B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像情報に基づいて抽出した特徴物を利用して分岐点を特定し案内を行う画像情報を利用した車両用音声案内装置に関する。
【0002】
【従来の技術】
従来より、車両に搭載される装置の1つとして、ナビゲーション装置が知られており、広く普及されるようになってきている。このナビゲーション装置は、通常ディスプレイを有し、ここに現在地表示を含む地図を表示することを基本とする。そして、目的地を設定した場合には、記憶している地図情報に基づいて、目的地までの最適経路を探索する。そして、目的地までの経路が設定された走行においては、経路を常に表示して、経路案内を行う。
【0003】
また、走行中は、ドライバーは前方を注視することが必要であり、ディスプレイを注視することはできない。そこで、音声により、右左折などを案内することも行われている。すなわち、案内が必要な案内交差点(分岐点)の手前で「○○m先××交差点を左方向です。」等という案内音声をスピーカから出力し、経路を案内する。これによって、ドライバーは前方を注視したまま耳から案内を得ることができる。
【0004】
ここで、分岐点の特定には、通常交差点名が用いられるが、必ずしも分かりやすくない。そこで、特開平4−1520号公報や特開平4−324312号公報には、交差点に存在するビル名等の特徴物を案内に利用することが提案されている。このような特徴物を利用することによって、ドライバーに分岐点を分かりやすく説明でき、より好適な経路案内が行える。
【0005】
【発明が解決しようとする課題】
しかし、上述のような特徴物を利用するものは、二次元地図データ中の特徴物の存在に基づいて、案内文を構成する。従って、道路の起伏などにより、案内が出力されたときに、この案内に利用されている特徴物が見えない可能性もある。また、工事などにより、特徴物が見えなくなっていたり、前方にトラックやバスなどが存在するために特徴物が見えない場合もある。このような場合、特徴物を利用した案内は、非常に分かりにくいものになってしまう。
【0006】
本発明は、上記問題点を解決することを課題としてなされたものであり、実際に見える特徴物を利用して、案内が行える画像情報を利用した車両用音声案内装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明は、分岐点の位置情報を含む地図情報を記憶する地図データベースと、自車の現在位置である自車位置を検出する現在位置検出手段とを有し、目的地までの経路が設定された走行においては、その経路上の分岐点であって案内が必要な案内分岐点において、その案内分岐点における経路案内の音声案内を出力する車両用音声案内装置であって、前記現在位置検出手段の検出結果と、前記地図データベースに記憶されている地図情報とに基づき、前記案内分岐点に近づいたことを認識する案内分岐点認識手段と、前方を撮像する車載カメラと、前記案内分岐点手前における車載カメラの撮像結果から音声案内において前記案内分岐点を特定するのに用いる特徴物を抽出する特徴物抽出手段と、抽出された特徴物と自車との位置関係を測定する位置関係測定手段と、前記案内分岐点と自車位置との位置関係と、前記特徴物と自車位置との位置関係と、の両方から求めた案内分岐点と特徴物との位置関係に基づいて、前記特徴物が前記案内分岐点付近に存在する特徴物であることを判定する判定手段と、を備え、前記判定手段によって前記案内分岐点付近に存在すると判定された特徴物の情報によって案内分岐点を特定した音声案内を、前記案内分岐点における経路案内の音声案内に含めて出力することを特徴とする。
【0008】
このように、本発明では、車載カメラにより得られた撮像結果から特徴物を抽出する。従って、現実に見える特徴物のみが案内に利用され、工事中や、他の車両により見えないものなどを利用した案内が行われることを確実に防止できる。
【0010】
そして、判定手段により、自車と特徴物の位置関係を判定することで、画像中に存在する特徴物が案内すべき分岐点に存在するものかを確認することができ、誤った特徴物を利用して案内することを効果的に防止できる。
【0011】
また、本発明は、上記位置関係測定手段は、複数の車載カメラのステレオ測距にて検出した自車と特徴物との距離を測定するものであることを特徴とする。ステレオ測距により、特徴物までの距離を認識することができ、特徴物が案内すべき分岐点に存在するものか否かを確実に判定することができる。
【0012】
また、本発明は、上記特徴物は信号機であることを特徴とする。信号機は、多くの交差点に設置されており、分岐点を特定するのに非常に有用である。
【0013】
また、本発明は、上記信号機は特定の色の部分を抽出した後、エッジ検出により特定の色部分の形状を特定して検出することを特徴とする。このように、色を特定することで、容易に信号機を認識することができる。
【0014】
また、本発明は、上記音声案内には、信号機における色情報を加味することを特徴とする。信号機のその時の色を利用して案内を行うことができ、非常に分かりやすい案内が行える。
【0015】
本発明は、上記特徴物は行先案内標識であることを特徴とする。行先案内標識には、進路についての情報が含まれており、これを利用して分かりやすい案内が行える。
【0016】
【発明の実施の形態】
以下、本発明に好適な実施の形態(以下、実施形態という)について、図面に基づいて説明する。
【0017】
図1は、本実施形態の装置の全体構成を示すブロック図である。ナビ制御部10は、経路案内のための各種のデータ処理を行う。このナビ制御部10には、自車位置検出部12が接続されており、ナビ制御部10はここからの情報により、常時自車位置(現在位置)を認識する。この自車位置検出部12は、例えばGPS(グローバル・ポジショニング・システム)を利用したものであり、FM多重放送により提供される誤差情報を加味したD−GPS装置なども利用できる。さらに、光ビーコンや電波ビーコンから供給される位置情報や、マップマッチングによる補正や、進行方向および走行距離から位置を検出する自律航法などを組み合わせることも好適である。
【0018】
また、ナビ制御部10には、地図データベース14が接続されている。この地図データベース14は、全国の二次元地図情報を記憶しているが、三次元情報を記憶したものでもよい。すなわち、立体交差等の道路の三次元形状データや、交差点周辺のビルの形状等を含む三次元情報を記憶しておくことも好適である。特に案内交差点において、その交差点の形状を三次元で表示する情報を記憶しておくことが好ましい。
【0019】
また、ナビ制御部10には、音声合成部16がI/Oインタフェース10aを介し接続されている。この音声合成部16は、ナビ制御部10からの信号に基づき、案内文の音声を合成し、スピーカ(図示せず)から出力する。なお、入力操作部18は、目的地の入力などを行うためのものである。
【0020】
さらに、本装置では、車載カメラとして、2つのカメラ20a、20bを有している。このカメラ20a、20bは、車両の前方を撮影するCCDカメラであって、車幅方向に所定距離離して配置されている。このカメラ20a、20bには、それぞれ画像処理部22a、22bが接続されており、カメラ20a、20bにより得られた撮像結果である画像信号が画像処理部22a、22bに供給される。画像処理部22a、22bは画像信号に基づき、デジタルの画像データを得る。画像処理部22a、22bは、認識部24に接続されており、この認識部24は、画像データに基づき、特徴物を抽出、認識する。そして、認識部24の認識結果はナビ制御部10に供給される。また、認識部24は、ナビ制御部10に接続されており、特徴物についての認識結果は、位置関係測定部26にも供給される。この位置関係測定部26は、カメラ20a、20bのそれぞれの撮影結果から別個に認識された同一の特徴物の画像中の位置と、カメラ20a、20bの設置位置から、特徴物までの距離をステレオ測距する。そして、位置関係測定部26もナビ制御部10に接続されており、測定された特徴物までの距離及び方向についてのデータもナビ制御部10に供給される。
【0021】
次に、この装置の動作について、図2のフローチャートに基づいて説明する。まず、経路案内を介する場合には、まず目的地を設定すると共に、現在地を検出する(S11)。この目的地の設定は、住所等の入力により行う。なお、入力操作部18には、タッチパネル等が利用される。また、現在地は、自車位置検出部12の出力を取り込むことで得られる。
【0022】
このようにして、目的地が設定された場合には、ナビ制御部10は、地図データベースに記憶されている地図データを基に、現在地から目的地までの最適経路を探索する(S12)。この経路探索は、ダイクストラ法などを用いた通常の方法で行う。
【0023】
そして、得られた経路が設定されて、目的地に向けての走行が開始された場合には、まず自車位置を検出する(S13)。次に、分岐点(案内が必要な分岐する交差点)に近づいているかを判定する(S14)。すなわち、目的地までの設定されている経路上で分岐点は予め分かる。そこで、現在地がこの分岐地点に近づいたかを判定する。この判定結果から分岐点に接近したか否かを判定する。分岐点に接近していなかった場合には、S13に戻り、現在地を更新し、分岐点に接近したかの判定を繰り返す。
【0024】
分岐点に接近した場合には、分岐点に近づいていることを分岐方向と共に案内する(S15)。例えば、「500m先交差点を左方向です。」等通常の案内を行う。
【0025】
次に、カメラ20a、20bから得られる画像を認識部24で認識し、その結果に基づき特徴物の存在の有無を検出し、特徴物が存在するかを判定する(S16)。特徴物としては、信号機等が考えられる。信号機の場合、青、赤、黄色を色フィルタにより、別々に取り出し、輝度の高い部分のエッジを検出する。そして、エッジの形状が○であることから信号機と判定する。また、どのフィルタで○が検出されたかにより、どの信号がついているかも判定できる。
【0026】
さらに、自車位置検出手段12および地図データベース14より自車から見た分岐点の方向や距離が特定でき、案内すべき分岐点付近の画像上での範囲が推定できる。そこで、画像処理をその部分に限定して行うことにより、処理量が減り、処理速度を向上させることができる。また、カメラ20a、20bにステア機構を持たせることで、対象となる分岐点付近を画像の中心付近で捉えることができる。そこで、ズームアップして、対象を捉え、分解能を向上させ、特徴物の検出をより容易にすることもできる。
【0027】
また、認識部24におけるパターンマッチングの際には、分岐点と自車の位置関係が分かっている。そこで、この位置関係を利用して、特徴物の見え方を予測し、これに対応したテンプレートを利用してパターンマッチングを行うことで、より効率的な画像処理を行うことができる。なお、テンプレートを各方向や距離に応じて複数設けてもよいが、位置関係に応じてテンプレートの形状を変形させてもよい。
【0028】
S16において、特徴物が存在していた場合には、位置関係測定部26により、2つのカメラ20a、20bからの画像に基づいて、特徴物までの距離及び方向を測定し、測定された距離及び方向に基づき該当交差点(分岐点)に存在する特徴物かを判定する(S17)。すなわち、現在地と分岐点の関係と、現在地と特徴物の関係とから、特徴物と分岐点の関係を求め、特徴物が分岐点上のものかを判定する。ここで、特徴物によっては、大きさが一定のものもある。例えば、信号機は同一の大きさのものが多い。この場合、画像面上での大きさにより、距離を測定できるため、2つのカメラによるステレオ測距が不要となる。
【0029】
S17の判定結果において、該当分岐点上の特徴物であれば、その特徴物を用いて案内が行える。そこで、検出された特徴物を候補として記憶する(S18)。一方、S17において、特徴物が該当分岐点上の特徴物でなかった場合には、分岐点手前にある行先案内標識かを判定する(S19)。そして、行先案内標識であれば、その段階で行先案内標識を用いて、案内を行う(S20)。すなわち、行先案内標識は、通常交差点の手前にある。そこで、行先案内標識の表示内容を画像もしくは地図データベース14などから取得し、これに従って「行先案内標識に従って○○方面です。」等の案内を行先案内標識を認識した段階で行う。
【0030】
S18における特徴物が記憶された場合、S20の案内が行われた場合、S16において特徴物が存在しなかった場合、S19において行先案内標識でなかった場合には、分岐動作を行うまで十分な余裕があるかを判定する(S21)。この判定は、例えば分岐点まで100mの地点にあるかを判定することで行う。しかし、多数の車線がある道路では、分岐前に車線変更などを行わなければならず、一車線の道路とは、分岐に要する時間が異なると考えられる。そこで、これらの条件に応じて十分に余裕があるか否かの判定を変更することが好適である。また、走行スピードや、その他の走行環境に応じて、余裕があるかの判定を変更するとよい。
【0031】
そして、S21の判定で余裕があれば、S16に戻り特徴物検出の処理を繰り返す。一方、分岐点に近づき、S21において、余裕がないと判定されたときには、記憶されている特徴物の候補の中から最適なものを選択し、これを用いて案内を行う。案内に用いる特徴物を一つに絞らなくてもよい。例えば、「前方車両に続いて次の信号を右折です」のような表現も可能である(S22)。例えば、「次の青信号を右折です。」等という案内を行う。一方、S16において特徴物がなかった場合およびS19において行先案内標識でなかった場合には、結局特徴物を見いだせなかったことになる。このため、自車位置情報を基に距離で案内を行う。例えば、「50m先、右折です。」という案内を行う。
【0032】
このようにして、案内出力を終了した場合には、経路から逸脱しているか否かを判定し(S23)、逸脱していた場合には、S12に戻り経路探索からやり直す。一方、逸脱していなかった場合には、目的地への到達したかを判定し(S24)、目的地に到達した場合に、処理を終了する。なお、S24において、目的地に到達していなかった場合には、S13に戻る。
【0033】
このように、本実施形態においては、カメラ20a、20bにより得られた画像から特徴物を抽出する。従って、現実に見える特徴物のみが案内に利用され、工事中や、他の車両により見えないものなどを利用した案内が行われることを確実に防止できる。さらに、特徴物までの距離及び方向を計測することで、画像中に存在する特徴物が分岐点に存在するものかを確認することができ、誤った案内をすることを効果的に防止できる。
【0034】
また、上述の例では、信号機を特徴物として、採用した。信号機は、多くの交差点に設置されており、分岐点を特定するのに非常に有用である。また、信号が近接して配置されている場合には、画像処理によって、複数の信号機が認識できる場合もある。この場合、位置関係測定部26により測定した距離及び方向に基づき、案内すべき交差点の手前に他の交差点があることなどを認識し、「2つ目の青信号を右折です。」等という案内を行うことも好適である。さらに、特徴物が存在しない場合には、距離を利用した通常の案内が行われるため、特徴物が存在しない場合も特別な問題は生じない。
【0035】
「その他の構成」
上述の例では、案内に用いる特徴物として、信号機、行先案内標識を取り上げた。しかし、特徴物は、これに限らず各種のものが採用可能である。例えば、レーンの分岐情報(レーン内の矢印)や、各種交通標識、歩道橋、前方車両など採用可能である。特に、Y字分岐などでは、レーンを認識しての案内が好適である。「この車線のまま右方向です。」等という案内が可能である。なお、レーン位置については、自車位置検出部12の検出結果も併せて検出するとよい。
【0036】
ここで、特徴物として、ビル、看板なども利用できる。しかし、特徴物の認識は基本的にパターンマッチングにより行う。すなわち、予めテンプレートとして持っている形状と、画像処理で得られた形状の比較に基づいて、特徴物の認識を行う。従って、特徴物は、予め形状が分かっているいくつかのものに限定しておくことが好ましい。さらに、信号機の例においても説明したが、色が予め分かっている特徴物もある。例えば、行先案内標識は、青色を取り出し、青色部分のエッジ検出により、形状を特定できる。
【0037】
本発明の装置によれば、基本的に音声の案内だけで十分な経路案内が行える。そこで、経路表示のためのディスプレイを省略することができる。これによって、スペースをとらず、低コスト化を図ることができる。
【0038】
また、経路探索等を外部のセンターにより行うこともできる。センターは、車両の現在位置および目的地から、最適経路の探索を行い、経路案内に必要なデータを車両側に供給する。これによって、車両側の装置の大幅に簡略化することができる。なお、通信に路側ビーコンを用いる場合などは、現在地の送信は不要である。
【図面の簡単な説明】
【図1】 全体構成を示すブロック図である。
【図2】 動作を説明するフローチャートである。
【符号の説明】
10 ナビ制御部、12 自車位置検出部、14 地図データベース、16 音声合成部、18 入力操作部、20a,20b カメラ、22a,22b 画像処理部、24 認識部、26 位置関係測定部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an audio guidance device for a vehicle using image information for specifying and guiding a branch point using a feature extracted based on image information.
[0002]
[Prior art]
Conventionally, a navigation device is known as one of devices mounted on a vehicle and has been widely spread. This navigation apparatus has a normal display, and is based on displaying a map including a present location display here. When the destination is set, the optimum route to the destination is searched based on the stored map information. Then, in traveling in which a route to the destination is set, the route is always displayed and route guidance is performed.
[0003]
In addition, while driving, the driver needs to watch the front and cannot watch the display. Therefore, guidance such as turning left and right is also performed by voice. That is, a guidance voice such as “XXm ahead xx intersection is to the left” is output from the speaker in front of the guidance intersection (branch point) that needs guidance, and the route is guided. As a result, the driver can obtain guidance from the ear while gazing at the front.
[0004]
Here, the name of an intersection is usually used to specify a branch point, but it is not always easy to understand. Therefore, Japanese Patent Application Laid-Open No. 4-1520 and Japanese Patent Application Laid-Open No. 4-324212 propose to use a feature such as a building name existing at an intersection for guidance. By using such a feature, the branch point can be explained to the driver in an easy-to-understand manner, and more suitable route guidance can be performed.
[0005]
[Problems to be solved by the invention]
However, the one using the above-described feature constructs a guide sentence based on the presence of the feature in the two-dimensional map data. Therefore, when the guidance is output due to road undulations or the like, there is a possibility that the feature used for the guidance cannot be seen. In addition, due to construction or the like, the feature may not be visible, or the feature may not be visible due to the presence of a truck or bus in front. In such a case, the guidance using the characteristic object becomes very difficult to understand.
[0006]
The present invention has been made to solve the above-described problems, and an object thereof is to provide a vehicular voice guidance device using image information that can be guided by using features that are actually visible. To do.
[0007]
[Means for Solving the Problems]
The present invention includes a map database that stores map information including position information of a branch point, and a current position detection unit that detects a position of the vehicle that is the current position of the vehicle, and a route to the destination is set. in the running were at the guidance branch point requiring guidance and a branch point on the route, a vehicle audio guidance device that outputs voice guidance route guidance at the guidance branch point, the current position detecting means Based on the detection result and the map information stored in the map database, the guidance branch point recognition means for recognizing that the vehicle has approached the guidance branch point, the in-vehicle camera for imaging the front, and the guide branch point before measuring a positional relationship between the feature extracting means for extracting a characteristic object used to identify the guidance branch point in voice guidance from the imaging results of the in-vehicle camera, extracted feature thereof and the vehicle in The positional relationship between the guidance branch point and the characteristic object obtained from both the positional relationship measuring means, the positional relationship between the guidance branch point and the own vehicle position, and the positional relationship between the feature object and the own vehicle position. And determining means for determining that the feature is a feature existing in the vicinity of the guidance branch point based on information on the feature determined to be present in the vicinity of the guidance branch point by the determination means . The voice guidance specifying the guidance branch point is included in the voice guidance of the route guidance at the guidance branch point and output.
[0008]
As described above, in the present invention, the characteristic object is extracted from the imaging result obtained by the in-vehicle camera. Therefore, only features that are actually visible are used for guidance, and it is possible to reliably prevent guidance during construction or using items that cannot be seen by other vehicles.
[0010]
Then, the determination means, by determining the positional relationship between the vehicle and the characteristics thereof, characterized that is present in the image can be confirmed or not present in the branch point to be guided, the wrong characteristic object It is possible to effectively prevent using and guiding.
[0011]
Further, the present invention is characterized in that the positional relationship measuring means measures a distance between the own vehicle detected by stereo ranging of a plurality of in-vehicle cameras and a characteristic object. The distance to the feature can be recognized by the stereo distance measurement, and it can be reliably determined whether or not the feature exists at the branch point to be guided.
[0012]
The present invention is characterized in that the feature is a traffic light. Traffic lights are installed at many intersections and are very useful for identifying branch points.
[0013]
In the invention, it is preferable that the traffic light extracts a specific color portion and then specifies and detects the shape of the specific color portion by edge detection. Thus, the traffic light can be easily recognized by specifying the color.
[0014]
Further, the present invention is characterized in that color information in a traffic light is added to the voice guidance. Guidance can be provided by using the color of the traffic lights at that time, and guidance that is very easy to understand can be provided.
[0015]
The present invention is characterized in that the feature is a destination guide sign. The destination guide sign includes information on the course, and can be used for easy-to-understand guidance.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments (hereinafter referred to as embodiments) of the invention will be described with reference to the drawings.
[0017]
FIG. 1 is a block diagram showing the overall configuration of the apparatus of the present embodiment. The navigation control unit 10 performs various data processing for route guidance. The navigation control unit 10 is connected to a host vehicle position detection unit 12, and the navigation control unit 10 always recognizes the host vehicle position (current position) based on information from here. The own vehicle position detection unit 12 uses, for example, GPS (Global Positioning System), and a D-GPS device that takes into account error information provided by FM multiplex broadcasting can also be used. Furthermore, it is also preferable to combine position information supplied from an optical beacon or radio beacon, correction by map matching, autonomous navigation for detecting a position from a traveling direction and a travel distance, and the like.
[0018]
A map database 14 is connected to the navigation control unit 10. The map database 14 stores nationwide 2D map information, but may also store 3D information. That is, it is also preferable to store three-dimensional information including the three-dimensional shape data of roads such as three-dimensional intersections and the shapes of buildings around intersections. In particular, it is preferable to store information for displaying the shape of the intersection in three dimensions at the guidance intersection.
[0019]
In addition, the voice control unit 16 is connected to the navigation control unit 10 via the I / O interface 10a. The voice synthesizing unit 16 synthesizes the voice of the guidance sentence based on the signal from the navigation control unit 10 and outputs it from a speaker (not shown). The input operation unit 18 is for inputting a destination.
[0020]
Furthermore, this apparatus has two cameras 20a and 20b as in-vehicle cameras. The cameras 20a and 20b are CCD cameras that photograph the front of the vehicle, and are arranged at a predetermined distance in the vehicle width direction. Image processing units 22a and 22b are connected to the cameras 20a and 20b, respectively, and image signals, which are imaging results obtained by the cameras 20a and 20b, are supplied to the image processing units 22a and 22b. The image processing units 22a and 22b obtain digital image data based on the image signal. The image processing units 22a and 22b are connected to a recognition unit 24. The recognition unit 24 extracts and recognizes feature objects based on image data. Then, the recognition result of the recognition unit 24 is supplied to the navigation control unit 10. Further, the recognition unit 24 is connected to the navigation control unit 10, and the recognition result of the feature object is also supplied to the positional relationship measurement unit 26. The positional relationship measuring unit 26 stereoly calculates the position in the image of the same feature that is separately recognized from the imaging results of the cameras 20a and 20b, and the distance from the installation position of the cameras 20a and 20b to the feature. Measure distance. The positional relationship measuring unit 26 is also connected to the navigation control unit 10, and data about the measured distance and direction to the feature is also supplied to the navigation control unit 10.
[0021]
Next, the operation of this apparatus will be described based on the flowchart of FIG. First, when route guidance is used, a destination is first set and the current location is detected (S11). This destination is set by inputting an address or the like. For the input operation unit 18, a touch panel or the like is used. The current location can be obtained by taking in the output of the vehicle position detection unit 12.
[0022]
In this way, when the destination is set, the navigation control unit 10 searches for the optimum route from the current location to the destination based on the map data stored in the map database (S12). This route search is performed by a normal method using the Dijkstra method or the like.
[0023]
Then, when the obtained route is set and traveling toward the destination is started, the vehicle position is first detected (S13). Next, it is determined whether or not the vehicle is approaching a branch point (a branching intersection where guidance is required) (S14). That is, the branch point is known in advance on the route set to the destination. Therefore, it is determined whether the current location is approaching this branch point. It is determined from this determination result whether or not the vehicle has approached the branch point. If it has not approached the branch point, the process returns to S13, the current location is updated, and the determination of whether the branch point has been approached is repeated.
[0024]
When approaching the branch point, the approach to the branch point is guided along with the branch direction (S15). For example, normal guidance such as “500m ahead intersection is left direction” is performed.
[0025]
Next, the recognition unit 24 recognizes the images obtained from the cameras 20a and 20b, detects the presence or absence of a feature based on the result, and determines whether or not the feature exists (S16). As the characteristic object, a traffic light or the like can be considered. In the case of a traffic light, blue, red, and yellow are separately extracted by a color filter, and an edge of a portion with high luminance is detected. And since the shape of an edge is (circle), it determines with a traffic signal. In addition, it can be determined which signal is attached depending on which filter detects the circle.
[0026]
Furthermore, the direction and distance of the branch point seen from the own vehicle can be specified from the own vehicle position detecting means 12 and the map database 14, and the range on the image near the branch point to be guided can be estimated. Therefore, by performing the image processing only on that portion, the processing amount can be reduced and the processing speed can be improved. Further, by providing the cameras 20a and 20b with a steering mechanism, the vicinity of the target branch point can be captured near the center of the image. Therefore, it is possible to zoom up to capture the target, improve the resolution, and make the detection of the feature easier.
[0027]
Further, at the time of pattern matching in the recognition unit 24, the positional relationship between the branch point and the own vehicle is known. Therefore, it is possible to perform more efficient image processing by predicting the appearance of a feature using this positional relationship and performing pattern matching using a template corresponding to this. A plurality of templates may be provided according to each direction and distance, but the shape of the template may be changed according to the positional relationship.
[0028]
If there is a feature in S16, the positional relationship measuring unit 26 measures the distance and direction to the feature based on the images from the two cameras 20a and 20b, and the measured distance and Based on the direction, it is determined whether or not the feature exists at the intersection (branch point) (S17). That is, the relationship between the feature and the branch point is obtained from the relationship between the current location and the branch point, and the relationship between the current location and the feature object, and it is determined whether the feature object is on the branch point. Here, some features have a constant size. For example, many traffic lights have the same size. In this case, since the distance can be measured according to the size on the image plane, the stereo distance measurement by the two cameras becomes unnecessary.
[0029]
In the determination result of S17, if the feature is on the corresponding branch point, guidance can be performed using the feature. Therefore, the detected feature is stored as a candidate (S18). On the other hand, if it is determined in S17 that the feature is not a feature on the corresponding branch point, it is determined whether it is a destination guide sign in front of the branch point (S19). If it is a destination guidance sign, guidance is provided using the destination guidance sign at that stage (S20). That is, the destination guide sign is usually in front of the intersection. Therefore, the display contents of the destination guidance sign are acquired from the image or the map database 14 and the guidance such as “I am in the direction of XX according to the destination guidance sign” is performed at the stage where the destination guidance sign is recognized.
[0030]
If the feature in S18 is stored, if guidance in S20 is performed, if there is no feature in S16, or if it is not a destination guide sign in S19, there is sufficient room for branching. It is determined whether there is any (S21). This determination is performed, for example, by determining whether there is a point of 100 m to the branch point. However, on roads with many lanes, it is necessary to change lanes before branching, and it is considered that the time required for branching differs from roads on one lane. Therefore, it is preferable to change the determination as to whether there is a sufficient margin according to these conditions. In addition, the determination as to whether there is a margin may be changed according to the traveling speed or other traveling environment.
[0031]
If there is room in the determination in S21, the process returns to S16 and repeats the feature object detection process. On the other hand, when approaching the branch point and it is determined in S21 that there is no room, the optimum feature is selected from the stored candidate features and guidance is provided using this. It is not necessary to narrow down the features used for guidance. For example, an expression such as “turn right at the next signal following the vehicle ahead” is also possible (S22). For example, a guidance such as “Turn right at the next green light” is given. On the other hand, if there is no feature in S16 and if it is not a destination guide sign in S19, the feature cannot be found after all. For this reason, guidance is performed at a distance based on the vehicle position information. For example, a guidance “50m ahead and turn right” is given.
[0032]
In this way, when the guidance output is completed, it is determined whether or not the route has deviated (S23). If the route has deviated, the process returns to S12 and the route search is repeated. On the other hand, if it has not deviated, it is determined whether the destination has been reached (S24). If the destination has been reached, the processing is terminated. If the destination has not been reached in S24, the process returns to S13.
[0033]
As described above, in this embodiment, the feature object is extracted from the images obtained by the cameras 20a and 20b. Therefore, only features that are actually visible are used for guidance, and it is possible to reliably prevent guidance during construction or using items that cannot be seen by other vehicles. Furthermore, by measuring the distance and direction to the feature, it can be confirmed whether the feature existing in the image exists at the branch point, and erroneous guidance can be effectively prevented.
[0034]
Moreover, in the above-mentioned example, the traffic signal was adopted as a feature. Traffic lights are installed at many intersections and are very useful for identifying branch points. In addition, when signals are arranged close to each other, a plurality of traffic lights may be recognized by image processing. In this case, based on the distance and direction measured by the positional relationship measuring unit 26, it is recognized that there is another intersection in front of the intersection to be guided, and guidance such as “turn right at the second green light” is given. It is also suitable to do. Further, when there is no feature, normal guidance using the distance is performed, so that no special problem occurs even when there is no feature.
[0035]
"Other configurations"
In the above example, a traffic signal and a destination guide sign are taken up as features used for guidance. However, the feature is not limited to this, and various features can be adopted. For example, lane branch information (arrows in the lane), various traffic signs, pedestrian bridges, vehicles ahead, etc. can be adopted. In particular, for Y-shaped branching, guidance by recognizing a lane is suitable. It is possible to provide guidance such as “Turn right in this lane”. In addition, about a lane position, it is good to also detect the detection result of the own vehicle position detection part 12 collectively.
[0036]
Here, a building, a signboard, etc. can be used as a characteristic object. However, feature recognition is basically performed by pattern matching. That is, a feature is recognized based on a comparison between a shape previously held as a template and a shape obtained by image processing. Therefore, it is preferable to limit the characteristic objects to some objects whose shapes are known in advance. Furthermore, although it demonstrated also in the example of the traffic light, there is also a characteristic in which a color is known beforehand. For example, the destination guide sign can be identified by extracting the blue color and detecting the edge of the blue color.
[0037]
According to the apparatus of the present invention, sufficient route guidance can be performed basically only by voice guidance. Therefore, a display for route display can be omitted. As a result, it is possible to reduce the cost without taking up space.
[0038]
In addition, route search and the like can be performed by an external center. The center searches for the optimum route from the current position and destination of the vehicle, and supplies data necessary for route guidance to the vehicle side. This greatly simplifies the device on the vehicle side. In addition, when a roadside beacon is used for communication, transmission of the present location is unnecessary.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an overall configuration.
FIG. 2 is a flowchart illustrating an operation.
[Explanation of symbols]
10 navigation control unit, 12 own vehicle position detection unit, 14 map database, 16 speech synthesis unit, 18 input operation unit, 20a, 20b camera, 22a, 22b image processing unit, 24 recognition unit, 26 position relation measurement unit.

Claims (6)

分岐点の位置情報を含む地図情報を記憶する地図データベースと、自車の現在位置である自車位置を検出する現在位置検出手段とを有し、目的地までの経路が設定された走行においては、その経路上の分岐点であって案内が必要な案内分岐点において、その案内分岐点における経路案内の音声案内を出力する車両用音声案内装置であって、
前記現在位置検出手段の検出結果と、前記地図データベースに記憶されている地図情報とに基づき、前記案内分岐点に近づいたことを認識する案内分岐点認識手段と、
前方を撮像する車載カメラと、
前記案内分岐点手前における車載カメラの撮像結果から音声案内において前記案内分岐点を特定するのに用いる特徴物を抽出する特徴物抽出手段と、
抽出された特徴物と自車との位置関係を測定する位置関係測定手段と、
前記地図データベースから読み出された案内分岐点の位置と前記現在位置検出手段によって検出された自車位置との位置関係と、前記位置関係測定手段によって測定された前記特徴物と自車位置との位置関係と、の両方から求めた案内分岐点と特徴物との位置関係に基づいて、前記特徴物が前記案内分岐点付近に存在する特徴物であることを判定する判定手段と、
を備え、
前記判定手段によって前記案内分岐点付近に存在すると判定された特徴物の情報によって案内分岐点を特定した音声案内を、前記案内分岐点における経路案内の音声案内に含めて出力することを特徴とする画像情報を利用した車両用音声案内装置。
In traveling with a map database that stores map information including position information of branch points and current position detection means for detecting the position of the host vehicle that is the current position of the host vehicle and a route to the destination is set A voice guidance device for a vehicle that outputs voice guidance for route guidance at a guidance branch point that is a branch point on the route and requires guidance,
Based on the detection result of the current position detection means and the map information stored in the map database, guidance branch point recognition means for recognizing that the guide branch point has been approached,
An in-vehicle camera that images the front,
A feature extraction means for extracting a feature used to identify the guidance branch point in voice guidance from an imaging result of the in-vehicle camera before the guidance branch point;
Positional relationship measuring means for measuring the positional relationship between the extracted feature and the own vehicle;
The positional relationship between the position of the guidance branch point read from the map database and the vehicle position detected by the current position detection unit, and the feature and the vehicle position measured by the positional relationship measurement unit Determination means for determining that the feature is a feature existing in the vicinity of the guide branch point based on the positional relationship between the guidance branch point and the feature obtained from both of the positional relationship ;
With
A voice guidance in which a guidance branch point is specified based on information on a feature determined to be present near the guidance branch point by the determination unit is included in the voice guidance of the route guidance at the guidance branch point and is output. A voice guidance device for a vehicle using image information.
請求項に記載の装置において、
前記位置関係測定手段は、複数の車載カメラのステレオ測距にて検出した自車と特徴物との距離を測定するものであることを特徴とする画像情報を利用した車両用音声案内装置。
The apparatus of claim 1 .
The vehicle voice guidance apparatus using image information, wherein the positional relationship measuring means measures the distance between the vehicle and the feature detected by stereo ranging of a plurality of in-vehicle cameras.
請求項1または2に記載の装置において、
前記特徴物は信号機であることを特徴とする画像情報を利用した車両用音声案内装置。
The apparatus according to claim 1 or 2 ,
The vehicle voice guidance apparatus using image information, wherein the feature is a traffic light.
請求項に記載の装置において、
前記信号機は特定の色の部分を抽出した後、エッジ検出により特定の色部分の形状を特定して検出することを特徴とする画像情報を利用した車両用音声案内装置。
The apparatus of claim 3 .
An audio guidance device for a vehicle using image information, wherein the traffic light extracts a specific color portion and then specifies and detects the shape of the specific color portion by edge detection.
請求項またはに記載の装置において、
前記音声案内には、信号機における色情報を加味することを特徴とする画像情報を利用した車両用音声案内装置。
The apparatus according to claim 3 or 4 ,
A voice guidance device for a vehicle using image information, wherein color information in a traffic light is added to the voice guidance.
請求項1または2に記載の装置において、
前記特徴物は行先案内標識であることを特徴とする画像情報を利用した車両用音声案内装置。
The apparatus according to claim 1 or 2 ,
The vehicle voice guidance apparatus using image information, wherein the feature is a destination guidance sign.
JP33603396A 1996-12-16 1996-12-16 Voice guidance device for vehicles using image information Expired - Lifetime JP3811238B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33603396A JP3811238B2 (en) 1996-12-16 1996-12-16 Voice guidance device for vehicles using image information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33603396A JP3811238B2 (en) 1996-12-16 1996-12-16 Voice guidance device for vehicles using image information

Publications (2)

Publication Number Publication Date
JPH10177699A JPH10177699A (en) 1998-06-30
JP3811238B2 true JP3811238B2 (en) 2006-08-16

Family

ID=18295017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33603396A Expired - Lifetime JP3811238B2 (en) 1996-12-16 1996-12-16 Voice guidance device for vehicles using image information

Country Status (1)

Country Link
JP (1) JP3811238B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002318130A (en) * 2001-02-13 2002-10-31 Alpine Electronics Inc Traveling lane detecting device and navigation apparatus
JP2003057048A (en) * 2001-08-10 2003-02-26 Aisin Aw Co Ltd Navigation system and program
NZ539632A (en) 2002-10-22 2008-01-31 Artoolworks Tracking a surface in a 3-dimensional scene using natural visual features of the surface
DE102004009278A1 (en) * 2004-02-26 2005-09-15 Robert Bosch Gmbh Method for targeting the benefits of a navigation system and navigation system
JP4577827B2 (en) * 2005-01-06 2010-11-10 アイシン・エィ・ダブリュ株式会社 Next road prediction device for traveling vehicle
JP4631750B2 (en) 2006-03-06 2011-02-16 トヨタ自動車株式会社 Image processing system
JP4935145B2 (en) 2006-03-29 2012-05-23 株式会社デンソー Car navigation system
JP4641511B2 (en) * 2006-06-12 2011-03-02 富士通株式会社 Route search device and mobile terminal device
JP4946298B2 (en) * 2006-09-19 2012-06-06 株式会社デンソー Vehicle navigation device
JP4798549B2 (en) * 2006-12-01 2011-10-19 株式会社デンソー Car navigation system
JP5071198B2 (en) * 2008-03-28 2012-11-14 富士通株式会社 Signal recognition device, signal recognition method, and signal recognition program
JP4930431B2 (en) * 2008-03-31 2012-05-16 アイシン・エィ・ダブリュ株式会社 Bypass road guidance device
JP5001911B2 (en) * 2008-06-30 2012-08-15 アイシン・エィ・ダブリュ株式会社 Stop duty point learning device, stop duty point learning program, and navigation device using the same
JP5408531B2 (en) * 2009-03-31 2014-02-05 アイシン・エィ・ダブリュ株式会社 Navigation device and program
JP5569365B2 (en) 2010-11-30 2014-08-13 アイシン・エィ・ダブリュ株式会社 Guide device, guide method, and guide program
JP5505729B2 (en) * 2011-01-27 2014-05-28 アイシン・エィ・ダブリュ株式会社 Guide device, guide method, and guide program
JP5697493B2 (en) * 2011-03-08 2015-04-08 三菱電機株式会社 Navigation device
JP5881566B2 (en) * 2012-09-10 2016-03-09 アルパイン株式会社 Navigation device and navigation information display control method
JP2020034461A (en) * 2018-08-30 2020-03-05 Zホールディングス株式会社 Provision device, provision method, and provision program

Also Published As

Publication number Publication date
JPH10177699A (en) 1998-06-30

Similar Documents

Publication Publication Date Title
JP3811238B2 (en) Voice guidance device for vehicles using image information
EP1985972B1 (en) Route guide system and method with intersection counting unit
US8600655B2 (en) Road marking recognition system
JP4293917B2 (en) Navigation device and intersection guide method
WO2016159171A1 (en) Automatic driving assistance system, automatic driving assistance method, and computer program
WO2016159172A1 (en) Automatic driving assistance system, automatic driving assistance method, and computer program
JPH10339646A (en) Guide display system for car
EP2141678A1 (en) Driving support system
JP5729176B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JPH09304102A (en) Route guide apparatus for vehicle
JPH11257992A (en) Car navigation system
CN102313554A (en) Onboard navigation system
JP5811666B2 (en) Stop line detection system, stop line detection device, stop line detection method, and computer program
JP2008197004A (en) Navigation system and navigation method
JP2001336941A (en) Car navigation device
JP4687381B2 (en) Vehicle recognition method and in-vehicle device
JP2007140992A (en) Method and device for supporting driving at intersection
JP5163077B2 (en) Route guidance system and program
JP4798549B2 (en) Car navigation system
JP3512073B2 (en) Vehicle navigation device and storage medium for storing navigation program
JP2012032366A (en) Car navigation system
JP5308810B2 (en) In-vehicle video display
JP2012168145A (en) Device, method, and program for guiding lane
JPH1089994A (en) Guidance method for crossing
JP5720517B2 (en) Stop line detection system, stop line detection device, stop line detection method, and computer program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040531

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040727

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040906

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040909

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20041001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060526

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100602

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110602

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120602

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120602

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130602

Year of fee payment: 7

EXPY Cancellation because of completion of term